JP2006162442A - Navigation system and navigation method - Google Patents

Navigation system and navigation method Download PDF

Info

Publication number
JP2006162442A
JP2006162442A JP2004354519A JP2004354519A JP2006162442A JP 2006162442 A JP2006162442 A JP 2006162442A JP 2004354519 A JP2004354519 A JP 2004354519A JP 2004354519 A JP2004354519 A JP 2004354519A JP 2006162442 A JP2006162442 A JP 2006162442A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
guidance information
unit
information
position
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004354519A
Other languages
Japanese (ja)
Inventor
Ryotaro Iwami
Nobuyuki Nakano
Takeshi Takahashi
Tomohiro Terada
信之 中野
智裕 寺田
良太郎 岩見
高橋  健
Original Assignee
Matsushita Electric Ind Co Ltd
松下電器産業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation system for displaying guidance information such as arrows in such a way as to superpose the guidance information on an actual landscape so as not to prevent driving. <P>SOLUTION: A route generation part 4 generates a route on the basis of self-vehicle position information, map information, and destination position information acquired from a self-vehicle position acquisition part 1, a map storage part 2, and a destination setting part 3. A guidance information specification part 5 specifies both a position on a map for presenting guidance information and the type of guidance information to be presented. An obstruction detection part 6 detects the positions and types of obstructions (such as pedestrians and vehicles) in the periphery of the self-vehicle by image recognition etc. A priority determination part 7 determines the priority of presentation of each obstruction. A display position determination part 8 determines such a position as a display position of guidance information as not to be superposed on detected obstructions. An image output part 9 outputs guidance information to a determined position in a windshield of the vehicle or a determined position within a display for displaying a front image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ナビゲーション装置に関し、より特定的には、実風景上に案内情報を提示して利用者を誘導するナビゲーション装置に関する。 The present invention relates to a navigation device, and more particularly to a navigation system to guide the user by presenting guidance information on the actual scene.

近年、地図画像や音声を用いて利用者を目的地まで誘導する車載用ナビゲーション装置が普及している。 In recent years, in-vehicle navigation devices have been widely to induce the user to the destination using the map image and sound. 現在普及しているナビゲーション装置では、経路誘導に用いる地図画像や前方風景画像として、DVDなどに記憶された仮想画像が利用されている。 In the navigation apparatus that are presently in widespread use as a map image or the forward scenery image to be used for route guidance, a virtual image stored or DVD is utilized. そして、運転者などの利用者は、車内に設置されたディスプレイに映し出された地図画像等を見ることによって、進むべき方向を確認する。 Then, the user of such driver, by viewing the map image or the like displayed on the installed display in the vehicle, to confirm the direction to go.

ところで、経路誘導に用いる画像として、仮想画像の代わりに、自車両に設置されたカメラによって実時間で撮影された実風景画像を用いることも提案されている(例えば特許文献1)。 Incidentally, as the image to be used for the route guidance, instead of the virtual image, it has also been proposed to use an actual scene image captured in real time by a camera mounted on the vehicle (for example, Patent Document 1). 実風景画像を用いる場合、実風景画像に進行方向を示す矢印などの案内情報を重畳した画像が、経路誘導用の画像として利用者に提示される。 When using the actual scenery image, the image obtained by superimposing the guidance information such as an arrow indicating the traveling direction to the real scene image is presented to the user as an image for route guidance.

運転者が画面を見ていられる時間は限られているために、ディスプレイに表示される画像は、即座に進むべき方向を把握出来る画像であることが望ましい。 To the driver is limited time to be looking at the screen, the image displayed on the display is desirably immediately image that can grasp the direction to go. 実風景画像を用いれば、仮想風景画像を用いた場合よりも実際の風景との差が少ないために、運転者は短時間でかつ正確に進むべき方向を把握し得るという利点がある。 Using the actual scene image, because the difference between the actual scenery than with the virtual scene image is small, the driver has the advantage of being able to grasp the direction to go in a short time and accurate.
特開平7−63572号公報(第11頁、図11) JP-7-63572 discloses (page 11, FIG. 11)

ところで、実風景画像上に案内情報が提示される場合には、利用者に提示される画像に、歩行者や信号機等も映し出されることになるが、従来のナビゲーション装置では、これらを考慮することは考えられていなかった。 Meanwhile, if the guidance information on the actual scene image is presented, the image presented to the user, but would be displayed even pedestrians, traffic signal devices, the conventional navigation device, taking into account these It has not been considered. しかしながら、表示された案内情報の後ろに歩行者や信号機が隠されてしまうと、歩行者等に対する運転者の注意が不十分になるおそれがある。 However, when the pedestrians and traffic lights on the back of the guide information displayed is being obscured, attention of the driver to the pedestrian or the like may become insufficient. よって、安全の観点から、歩行者等を考慮して案内情報を表示することが望ましい。 Thus, from the safety point of view, it is desirable to display the guidance information in consideration of the pedestrian or the like.

また、天候や時間帯によって車外の明るさ等が変化するので、実風景画像が用いられる場合には、これらを考慮しなければ、利用者が認識できない画像表示がなされるおそれもある。 In addition, since the brightness or the like of the outside of the vehicle depending on the weather and time of day changes, when the actual landscape image is used, to be taken into consideration these, there you it is also an image display which the user can not be recognized is made.

それ故に、本発明の目的は、運転の妨げにならないように、実風景上に矢印などの案内情報を表示するナビゲーション装置を提供することである。 Therefore, an object of the present invention, so as not to interfere with driving, is to provide a navigation device that displays guidance information, such as an arrow on the real scene. また、本発明の別の目的は、利用者が認識しやすい案内情報を実風景上に表示するナビゲーション装置を提供することである。 Another object of the present invention is to provide a navigation device that displays an easy guidance information recognition user on the real scene.

上記目的を達成するために、本発明のナビゲーション装置は、実風景に重ねて表示した案内情報によって利用者を誘導するナビゲーション装置であって、1以上の案内情報の中から提示する案内情報を特定する案内情報特定部と、自車前方の風景を平面的に捉えたときの平面上の障害物の位置を特定する障害物検知部と、平面上に案内情報を表示したときに障害物との重畳面積が少ない位置を特定し、特定した位置を表示位置とする表示位置決定部と、表示位置に前記案内情報を表示する画像出力部とを備える。 To achieve the above object, a navigation apparatus of the present invention is a navigation device for inducing a user by the guide information displayed superimposed on the actual landscape, the specific guidance information to be presented from among one or more of the guidance information a guide information specifying unit for, the obstacle detection unit for identifying the position of the obstacle on the plane when capturing the vehicle front landscape planarly, with an obstacle when displaying guidance information on a plane identify the overlapping area is small position comprises a display position determination unit that the display position specified position, and an image output unit for displaying the guidance information on the display position.

また、本発明のナビゲーション装置は、地図を記憶する地図記憶部と、地図上における自車位置を取得する自車位置取得部と、地図上における目的地を設定する目的地設定部と、地図と現在地と目的地とに基づいて経路を作成する経路作成部とを更に備えていてもよい。 The navigation system of the present invention includes: a map storage unit for storing map, and the vehicle position acquiring unit that acquires vehicle position on the map, and a destination setting section for setting a destination on the map, a map route creation unit that creates a route based on the current position and the destination and may further comprise a.

また、障害物検知部は、自車前方の風景画像を撮影する撮影部と、撮影部で撮影された画像を解析して障害物を特定する画像解析部とを含んでいてもよい。 Further, the obstacle detection unit, a photographing unit for photographing a vehicle ahead of the scenery image may include an image analysis unit for identifying obstacles by analyzing the image photographed by the photographing unit.

また、本発明のナビゲーション装置は、案内情報特定部が特定した案内情報と障害物検知部が検知した各障害物に、利用者に提示すべき優先順位を付する優先度決定部を更に備えていてもよい。 The navigation system of the present invention, each obstacle guidance information and the obstacle detection unit guiding information identifying unit has identified has detected, further include a priority determination section to subject the priority to be presented to the user it may be. このときに、表示位置決定部は、案内情報より優先度が高い障害物との重畳面積が少ない位置を表示位置とする。 At this time, the display position determining unit, the display position overlapping area is small the position of the higher priority obstacle than the guidance information.

表示位置決定部は、案内情報と障害物とが重畳するときに、案内情報の表示方法を、障害物の視認性が向上する表示方法に変更してもよい。 Display position determining unit, when the guidance information and the obstacle is superimposed, the display method of the guidance information, the visibility of the obstacle may be changed to the display method of improving.

より具体的には、表示位置決定部は、重畳面積が低減するように、案内情報の形状を変形することを決定してもよい。 More specifically, the display position determination section, as overlapped area is reduced may decide to deform the shape of the guide information. また、表示位置決定部は、表示位置において、案内情報を非表示にすることを決定してもよい。 Further, the display position determining unit, the display position may be determined to be hidden guidance information.

また、本発明のナビゲーション装置は、平面上における表示位置付近の色彩を判断する色彩判断部と、案内情報の色彩を、色彩判断部が判断した色彩とは異なる色彩にすることを決定する色彩決定部とをさらに備えていてもよい。 The navigation system of the present invention, the color decision to decide to color different and color determining section for determining a color in the vicinity of the display position on the plane, the color of the guidance information, and colors color determination unit determines parts and may further include a.

また、本発明のナビゲーション装置は、車両前方から入射する光の光量を取得する光量取得部と、光量取得部が取得した光量に基づいて、案内情報の輝度を決定する輝度決定部とをさらに備えていてもよい。 The navigation device of the present invention further comprises a light quantity acquisition unit that acquires the amount of light incident from the front of the vehicle, based on the amount of light quantity acquisition unit has acquired, and a brightness determining unit that determines the brightness of the guidance information it may be.

画像出力部は、案内情報を自車のフロントガラスに投影して表示するものであってもよい。 The image output unit may be used for displaying by projecting the guidance information on the windshield of the host vehicle. また、画像出力部は、ディスプレイに表示した実風景画像上に案内情報を重ねて表示するものであってもよい。 The image output unit may be used for displaying overlapping guidance information on the real scene image displayed on the display.

本発明に係るナビゲーション方法は、実風景に重ねて表示した案内情報によって利用者を誘導するナビゲーション装置で実行されるナビゲーション方法であって、1以上の案内情報の中から提示する案内情報を特定する案内情報特定ステップと、自車前方の風景を平面的に捉えたときの当該平面上の障害物の位置を特定する障害物検知ステップと、平面上に案内情報を表示したときに障害物との重畳面積が少ない位置を特定し、当該位置を表示位置とする表示位置決定ステップと、表示位置に案内情報を表示する画像出力ステップとを備えていてもよい。 Navigation method according to the present invention is a navigation method to be executed by the navigation device to induce the user by the guide information displayed superimposed on the actual landscape, identifies the guidance information to be presented from among one or more of the guidance information a guide information specifying step, the obstacle detecting step for identifying the position of the obstacle on the plane when the vehicle ahead landscape captures in a plan view, with an obstacle when displaying guidance information on a plane identify the overlapping area is small position, the display position determining step of the display position of the position may comprise an image output step of displaying guidance information on the display position.

本発明に係るナビゲーション装置は、実風景上に、運転の妨げにならないように案内情報を表示することができる。 The navigation device according to the present invention, on the actual scene, it is possible to display the guidance information so as not to interfere with driving. すなわち、本発明に係るナビゲーション装置は、歩行者や信号機などの運転者が見落としてはならない障害物、及び、車線看板や町名看板など運転者に有用な情報を与える障害物を検知して、それらの障害物と重ならない位置に案内情報を表示する。 That is, the navigation apparatus according to the present invention, pedestrians and traffic obstacles that the driver should not be overlooked, such as, and senses an obstacle which gives useful information to the driver, such as lane signs and street signs, they to display the guidance information at a position that does not overlap with the obstacle. したがって、本発明のナビゲーション装置を利用した運転者は、直感的にかつ正確に進むべき方向を把握できるだけでなく、周囲の安全にも配慮して運転を行うことができる。 Accordingly, the driver using the navigation system of the present invention, intuitive and not only understand the way to go exactly, it is possible to perform the operation also considered around the safety.

また、本発明の一局面によれば、検知された障害物に、利用者への提示優先順位が付される。 According to an aspect of the present invention, the detected obstacle, the presentation priority of the user it is subjected. そして、案内情報よりも優先度が高い障害物の視認性が、案内情報を表示することによって著しく低下しないように、案内情報の表示位置や表示方法が決定される。 The visibility of the high priority obstacle than the guide information, so as not to significantly reduced by displaying the guidance information, the display position and the display method of the guidance information is determined.

また、本発明のさらに他の局面によれば、背景の色彩情報や輝度情報を基に、案内情報の色彩と輝度とを決定する。 Further, according to still another aspect of the present invention, based on color information and luminance information of the background to determine the color and brightness of the guidance information. よって、表示される案内情報は利用者が認識しやすいものになる。 Thus, the guidance information to be displayed will be easy to recognize the user.

(第1の実施形態) (First Embodiment)
図1は、本発明の第1の実施形態に係るナビゲーション装置の構成図である。 Figure 1 is a configuration diagram of a navigation device according to a first embodiment of the present invention. 図1に示すナビゲーション装置は、自車位置取得部1、地図記憶部2、目的地設定部3、経路作成部4、案内情報特定部5、障害物検知部6、優先度決定部7、表示位置決定部8、及び、画像出力部9を備えている。 The navigation device shown in FIG. 1, the vehicle position obtaining section 1, a map storage section 2, a destination setting unit 3, the path forming unit 4, the guide information specifying unit 5, the obstacle detection unit 6, the priority determining unit 7, the display position determining unit 8 and, an image output unit 9.

自車位置取得部1は、自車の位置情報と自車の姿勢(向き・傾き)情報とを取得する。 Vehicle position acquisition unit 1 acquires the vehicle position information and the vehicle attitude (orientation-slope) information. ここで、位置情報とは、経度及び緯度で特定される場所の情報である。 Here, the location information is location information specified by longitude and latitude. 位置情報は、例えば、GPS(Global Positioning System)を用いたり、車速センサとジャイロセンサを組み合わせて用いたりすることによって取得できる。 Position information, for example, or using a GPS (Global Positioning System), can be obtained by or used in combination vehicle speed sensor and a gyro sensor. 姿勢情報とは、自車の向き(方位)や傾きを表す情報であって、ジャイロセンサなどを用いれば取得できる。 The orientation information is information indicating the vehicle orientation (azimuth) and inclination can be obtained by using the gyro sensor.

自車位置取得部1で取得される位置・姿勢情報の精度は、一般に利用されているカーナビゲーション装置が備えている自車位置取得部で取得される程度の精度であればよい。 Accuracy of the position and orientation information acquired by the vehicle position acquiring unit 1 may be any degree of accuracy generally and utilized in which the car navigation system is acquired by the vehicle position acquisition unit comprises. 位置・姿勢情報の精度を向上させる方法としては、例えば、車速や傾きなどの情報によって自車位置を特定する自律航法を採用し、自律航法で得られた位置情報をGPS受信機で取得した位置情報で補正する手法がある。 As a method of improving the accuracy of position and orientation information, for example, it adopts an autonomous navigation to identify the vehicle position by information such as the vehicle speed and the inclination and acquires position information obtained by the autonomous navigation by the GPS receiver position there is a method to correct the information.

なお、RealTime Kinematic−GPSを用いれば、経度緯度座標をより精度良く求めることができる。 Note that the use of the RealTime Kinematic-GPS, can be obtained more accurately longitude and latitude coordinates. また、自律航法を採用する際に、光ジャイロを用いれば、ジャイロセンサに特有のドリフト誤差を抑えることが可能であり、姿勢情報の精度向上が期待できる。 Further, when employing the autonomous navigation, the use of the optical gyro, it is possible to suppress the inherent drift errors in gyro sensor, it can be expected accuracy of the orientation information.

地図記憶部2は、一般的なナビゲーション装置に用いられているデジタル形式の地図情報等を記憶する記憶部である。 Map storage unit 2, a storage unit for storing a general navigation device map information in digital form used in the like. 具体的には、HDD(Hard Disk Drive)やDVD(Digital Versatile Disk)等が地図記憶部2となり得る。 Specifically, HDD (Hard Disk Drive) and a DVD (Digital Versatile Disk) or the like can be a map storage section 2.

目的地設定部3は、利用者が目的地を設定する際に利用される。 Destination setting unit 3, the user is used when setting a destination. これを実現するために、目的地設定部3は、ポインティングデバイスやキーボードやリモートコントローラなどの入力部と表示部とを備えていればよい。 To achieve this, the destination setting unit 3, it is sufficient that a display unit input unit such as a pointing device, a keyboard, a remote controller. より具体的には、ポインティングデバイスで差された地図上の位置の経緯及び緯度を取得したり、利用者が携帯電話等でインターネットサイトにアクセスして得た経度及び緯度を受信又は入力したりできる構成を備えていればよい。 More specifically, and retrieve background and latitude position on the map that bites the pointing device, the user can or receive or enter the latitude and longitude obtained by accessing the Internet site cellular phones it is sufficient that a structure.

経路作成部4は、自車位置取得部1と地図記憶部2と目的地設定部3とから取得した、自車位置姿勢情報と地図情報と目的地位置情報とを用いて、現在位置から目的地までの経路を作成する。 Route creation unit 4 has acquired from the vehicle position acquiring unit 1 and the map storage section 2 and the destination setting unit 3 which, by using the vehicle position and orientation information and the map information and the destination information, object from the current position to create a route to the earth. 経路を作成する方法としては、一般的に知られているダイクストラ法などの方法を用いてもよい。 As a method of creating a pathway, it may be used a method such as Dijkstra method generally known.

案内情報特定部5は、案内情報を提示する地点、又は、案内情報を提示するために処理を開始する地点を特定する。 Guide information specifying unit 5, the point of presenting guide information, or to identify the point at which to start the process to present guidance information. また、案内情報特定部5は、複数の案内情報の中からいずれかを提示する場合には、提示する案内情報(経路誘導用画像)も特定する。 Further, the guide information specifying unit 5, when present either from a plurality of guidance information, guidance information (route guidance image) presenting also identified.

障害物検知部6は、車両の周辺に存在する歩行者や信号機など、運転者が注意しなければならないものや配慮する必要があるもの(以下、これらを総称して障害物という)を検知し、検知した障害物の位置や種類を特定して、その情報(障害物情報)を作成する。 Obstacle detection unit 6, pedestrians, traffic signals existing around the vehicle, the driver what needs to be and consider what must be noted (hereinafter collectively called obstacles) detects , to identify the location and type of the detected obstacle, to create the information (obstacle information). ここで、障害物の位置とは、車両前方の風景を平面的に、つまり二次元画像として捉えたときの平面上の位置である。 Here, the position of the obstacle, in a plan view of the vehicle front scenery, i.e. the position of the plane when captured as a two-dimensional image. 障害物検知部6は、具体的には、カメラと画像処理装置や、赤外線レーダ装置、また、歩行者が保有する携帯電話端末や障害物に取り付けた発信機から発信された信号を受信する受信機などが考えられる。 Obstacle detection unit 6, specifically, camera and and image processing apparatus, an infrared radar system also receives a signal transmitted from a transmitter mounted on a mobile telephone terminal or obstacles pedestrian's received machine, such as can be considered. 障害物検知部6は、障害物の位置と大まかな種類とを特定できるものであれば、どのような検知形態を採るものであってもよい。 Obstacle detection unit 6, as long as it can identify the position and rough type of obstacle, or may be take any sense form.

優先度決定部7は、案内情報特定部5と障害物検知部6とでそれぞれ特定された案内情報と障害物とに、利用者にとっての重要度に応じた優先度(優先順位)を付ける。 Priority determining unit 7, in the guidance information and the obstacle identified respectively by the guide information identifying unit 5 and the obstacle detecting unit 6, prioritizing in accordance with the importance to the user (priority). 例えば、歩行者や信号機など、運転者が見落としてはならない障害物には高い優先度が付され、また、比較的遠くの前方を走行する車や自車から離れてゆく車などには、低い優先度が付される。 For example, pedestrians, traffic, the driver is given a higher priority in the obstacle should not be overlooked, also like in the vehicle Yuku away from the vehicle and the vehicle traveling on the relatively far ahead of the low priority is given.

なお、案内情報は、画像出力部9から出力されるまでユーザには認知されない仮想物であり、障害物は、利用者前方に実在する現実物である。 The guide information is a virtual object that is not recognized to the user until the output from the image output unit 9, the obstacle is a real product a real forward user. このように、案内情報と障害物とではその特性が異なっているが、ナビゲーション装置が保持する全ての案内情報と検出可能な全ての障害物に対して、予め優先度を設定しておけば、設定されている優先度を参照して、提示する案内情報と検出された障害物とに優先度を付することができる。 Thus, although the guidance information and the obstacle have different characteristics thereof, for all the guidance information and detectable all obstacles navigation device is held, by setting in advance priorities, with reference to the priority that is set, it is possible to subject the priority guidance information presented to the detected obstacle.

表示位置決定部8は、優先度決定部7によって決定された優先度に基づいて、案内情報を表示する位置を決定する。 Display position determining unit 8, based on the priority determined by the priority determining unit 7 determines the position for displaying the guidance information. なお、ここでいう位置は、自車から見える風景を平面的に捕らえたときの、平面上の位置である。 The position here is, when the landscape seen from the vehicle caught in a plane, a position on the plane. このときに、案内情報よりも優先度が高い障害物が案内情報の後ろに隠されてしまわないように、案内情報を表示する位置が選択される。 In this case, higher priority obstacle than guidance information so as not hidden behind the guide information, the display position of the guidance information is selected. 基本的には、表示位置決定部8は、障害物が存在しない位置か、又は案内情報よりも優先度が低いと判断された障害物の上に案内情報を表示することを決定する。 Basically, the display position determination unit 8 determines to display the guidance information on the position or obstacle is determined to be low priority than the guidance information is no obstacle present. また、このような位置が無いために、優先度が高い障害物の上に案内情報を表示しなければならない場合には、表示位置決定部8は、案内情報の視認性が通常表示した場合よりも向上するような表示方法で案内表示を行うことを決定する。 Further, since there is no such a position, when the priority has to display a guidance information on the high obstacle, the display position determining unit 8, than when the visibility of the guidance information is usually displayed also it determines that the guidance displayed on the display manner is improved.

画像出力部9は、表示位置決定部8で決定された位置に案内情報を表示する。 The image output unit 9 displays the guidance information on the position determined by the display position determining unit 8. 画像出力部9の具体例として、プロジェクタとスクリーンの組み合わせやディスプレイなどが挙げられる。 Specific examples of the image output unit 9, such as a projector and screen combinations and displays. なお、ナビゲーション装置は、画像出力部だけでなく、案内音声を出力するスピーカ(音声出力部)も備えていてもよい。 Note that the navigation device, not only the image output unit, a speaker (audio output unit) for outputting a guidance voice may also comprise.

なお、上記各部、特に、目的地設定部3、経路作成部4、案内情報特定部5、障害物検知部6、優先度決定部7、及び表示位置決定部8で行われる処理の全部又は一部は、コンピュータプログラムにより実現されてもよい。 The above respective units, in particular, the destination setting unit 3, the path forming unit 4, the guide information specifying unit 5, the obstacle detection unit 6, the priority determining unit 7, and the display position determining unit 8 whole process or one which is performed by parts may be realized by a computer program.

次に、本実施形態に係るナビゲーション装置のより具体的な機器構成を例に挙げて、ナビゲーション装置で行われる処理の詳細を説明する。 Next, as an example a more specific device configuration of the navigation device according to the present embodiment, the detailed processing performed by in the navigation apparatus. 図2に示すナビゲーション装置100は、車両位置・姿勢検出部10、HDD20、ポインティングデバイス30を備えたTFT液晶ディスプレイ35(以下、ディスプレイ35と記す)、カメラ40、演算処理部50、映像投影部90、及びスピーカ95を備える。 The navigation device 100 shown in FIG. 2, the vehicle position and posture detecting unit 10, HDD 20, TFT liquid crystal display 35 provided with a pointing device 30 (hereinafter, referred to as display 35), the camera 40, the arithmetic processing unit 50, the image projection unit 90 and a speaker 95.

ここで、図2に示す各部と図1に示す各部との対応を説明する。 Here will be described the correspondence between each part shown in each section and Figure 1 shown in FIG. 図2に示す車両位置・姿勢検出部10は、図1に示す自車位置取得部1に相当する。 Vehicle position and posture detecting unit 10 shown in FIG. 2 corresponds to the vehicle position acquisition unit 1 shown in FIG. 車両位置・姿勢検出部10は、GPS受信部11及びジャイロセンサ12を備える。 Vehicle position and posture detecting unit 10 includes a GPS receiver 11 and the gyro sensor 12. HDD20は、図1に示す地図記憶部2に相当する。 HDD20 corresponds to the map storage unit 2 shown in FIG. ポインティングデバイス30、ディスプレイ35、地図データ等を記憶したHDD20、及び演算処理部50で、図1に示す目的地設定部3が実現される。 Pointing device 30, a display 35, HDD 20 stores map data and the like, and the arithmetic processing unit 50, the destination setting unit 3 shown in FIG. 1 is achieved. カメラ40及び演算処理部50で障害物検知部6が実現される。 Obstacle detection unit 6 by the camera 40 and the processing unit 50 are realized. 演算処理部50は、この他にも、図1に示す経路作成部4、案内情報特定部5、優先度決定部7、及び表示位置決定部8としての機能も果たす。 Processing unit 50, the addition to, the route creation unit 4 shown in FIG. 1, the guide information specifying unit 5, priority determining unit 7, and also functions as a display position determining unit 8 plays. そして、映像投影部90とスピーカ95とは、図1に示す画像出力部9に相当する。 Then, the image projection unit 90 and the speaker 95 correspond to the image output unit 9 shown in FIG. 映像投影部90は、プロジェクタ91とスクリーン92とを備える。 Image projection unit 90 includes a projector 91 and a screen 92.

なお、ナビゲーション装置100は、電源を自車から取得する構成になっていることが望ましい。 Note that the navigation device 100, it is desirable that the power has a structure to obtain from the vehicle. 例えば、ナビゲーション装置100をアクセサリ電源に接続しておき、自車のエンジンがオン状態のときにはナビゲーション装置が動作モードに、また、オフ状態のときには省電力待機モードになるようにしてもよい。 For example, in advance by connecting the navigation device 100 to the accessory power, the vehicle engine navigation system when the ON state operating mode, also, when the OFF state may be made to the power saving standby mode.

演算処理部50は、CPU51、ROM52、及びRAM53を備えている。 Processing unit 50 includes a CPU 51, ROM 52, and RAM 53. ROM52には、画像表示位置のキャリブレーション、経路作成処理、障害物検知処理、優先度決定処理、及び案内情報表示位置決定処理などの処理を行うためのプログラムが記憶されている。 The ROM 52, the calibration of the image display position, route generation processing, an obstacle detection process, the priority determination process, and a program for performing processing such as guidance information display position determination process is stored.

HDD20は、地図データを記憶している。 HDD20 stores the map data. HDD20が保持する最低限の地図データとしては、経路探索処理に必要な道路ネットワーク情報データ、目的地を決定する際に利用されるランド情報情報データ、及び地名情報データなどが考えられる。 The minimum map data HDD20 held, route search processing road network information data necessary for land information information data is utilized in determining the destination, and place name information data is considered.

HDD20は、案内情報のテンプレート画像も記憶している。 HDD20, the template image of the guidance information is also stored. 図3(a)〜(c)は、案内情報のテンプレート画像の一例であって、(a)は右折誘導の際に表示する案内情報131、(b)は左折誘導の際に表示する案内情報132、(c)は目的地を示す案内情報133である。 Figure 3 (a) ~ (c) is an example of a template image guide information, (a) the guidance information 131 to be displayed during the right turn induction, (b) the guidance information to be displayed during the left turn induction 132, (c) is a guidance information 133 indicating the destination. 案内情報131又は案内情報132を提示する場合には、交差点までの距離を情報の付近に数値表示するようにしてもよい。 When presenting the guide information 131 or guide information 132 may be numerically displays the distance to the intersection near the information. 案内情報133は、利用者の視野内に目的地が存在するときに提示する情報である。 Guide information 133 is the information to be presented when the destination exists in the field of view of the user.

上記以外にも、HDD20は、優先度テーブル(図10参照)も記憶している。 In addition to the above, HDD 20, the priority table (see FIG. 10) is also stored. ここで、優先度テーブルとは、案内情報や障害物の名称と、その案内情報や障害物の優先度が記載されたテーブルである。 Here, the priority table, and the name of the guidance information and obstacles, a table in which a priority level is described in the guidance information and obstacles.

映像投影部90は、Head Up Display(以下、HUDと記す)用のプロジェクタ91と背面投影型スクリーン92(以下、スクリーン92という)とを備えている。 Image projection unit 90, Head Up Display (hereinafter, HUD and referred) and the projector 91 for rear projection screen 92 (hereinafter, referred to as screen 92) and a. 図4に示すように、プロジェクタ91とスクリーン92とは、車両101の内部に配置される。 As shown in FIG. 4, the projector 91 and the screen 92, it is disposed within the vehicle 101.

プロジェクタ91が出力した画像は、スクリーン92を透過してフロントガラス102に投影される。 Image projector 91 has output is projected on the windshield 102 passes through the screen 92. このときに、フロントガラス102で反射した画像は、虚像130として運転者に認識される。 In this case, the image reflected on the windshield 102 is recognized by the driver as a virtual image 130. この虚像130は、利用者には、フロントガラス102の前方の、スクリーン92とフロントガラス102との間の距離だけ離れた位置に浮かび上がって見える。 The virtual image 130, the user in front of the windshield 102, look emerged in distance away position between the screen 92 and the front glass 102.

カメラ40は、撮影される画像と利用者が見ている風景とがほぼ一致するように、利用者の目線位置に固定されることが望ましい。 The camera 40, as a landscape image and the user to be photographed is looking almost coincide, it is desirable to be fixed to eye level of the user. カメラ40は、CCDカメラやCMOSカメラなど、撮影された画像を画素単位で解析可能なカメラであればよい。 The camera 40 is a CCD camera or a CMOS camera, may be a parsable camera pixel units captured image. なお、カメラ40が障害物の検知のみに用いられて、撮影された画像が利用者の目に触れないのであれば、すなわち、ディスプレイ35に表示されないのであれば、カメラ40の解像度は、障害物を特定できる程度あれば十分である。 Note that the camera 40 is used only for detection of an obstacle, if the captured image does not touch the eyes of the user, i.e., if not displayed on the display 35, the resolution of the camera 40, an obstacle if the degree can be identified is sufficient.

図3(a)に示した案内情報131をプロジェクタ91がスクリーン92に投影したときに、カメラ40は図5に示すような案内情報135が表示された風景画像を撮影する。 The guidance information 131 shown when the projector 91 is projected on the screen 92 in FIG. 3 (a), the camera 40 photographs the scenery image guide information 135 is displayed as shown in FIG. また、図5に示す風景は、利用者がフロントガラス102を通して見る風景でもある。 Further, the landscape shown in Figure 5 is also a landscape user looking through the windshield 102. 図5において、町名看板140、信号機141、車線看板142、道路143、及び建物144は実在物である。 5, street signboard 140, traffic 141, lane signboards 142, road 143, and building 144 are entities. そして、これらの実在物の手前に、虚像である案内情報135が浮かんで見えている。 Then, in front of these entities, are seen floating the guide information 135 is a virtual image.

HUDを用いれば、図5に示すように、利用者の前方の実風景上に案内情報135を表示することができるので、利用者は、視線を移動させずに案内情報135を確認して、進路を把握することができる。 With the HUD, as shown in FIG. 5, it is possible to display the guidance information 135 on the actual landscape in front of the user, the user confirms the guide information 135 without moving the line of sight, it is possible to grasp the course. なお、HUDは、主に航空機などに利用されてきたが、最近では車速等を焦点表示する車載用のものも一般的になっている。 Incidentally, HUD mainly have been utilized, such as aircraft, it has recently also become common ones for use in vehicles focal displaying vehicle speed or the like.

プロジェクタ91は、案内情報135の明るさを2000lm程度で表示できるものであれば、現在一般的に利用されているものを利用してもよい。 The projector 91, the brightness of the guidance information 135 as long as it can be displayed in the order of 2000 lm, may be used those which are currently commonly used. 画像の輝度は、プロジェクタ91とスクリーン92との距離によって変化する。 Brightness of the image varies with the distance between the projector 91 and the screen 92. すなわち、プロジェクタ91とスクリーン92との距離が長くなれば、スクリーン92上に投影される画像のサイズは大きくなって、画像の輝度は下がる。 That is, the longer the distance between the projector 91 and the screen 92, the size of the image projected on the screen 92 increases, the brightness of the image decreases.

なお、一般に、日中の屋外の輝度は約10,000カンデラパー平方メートル(cd/m 2 )と知られているが、フロントガラス102に施された減光処理によって、車内から見た車外の輝度はこれよりも下がる。 In general, although outdoor brightness during the day is known to be about 10,000 Kanderapa square meter (cd / m 2), the dimming treatment applied to the front glass 102, outside of the luminance as viewed from the vehicle interior is This falls below. そのため、日中でも、フロントガラス102に1,800(cd/m 2 )の輝度値で案内情報131が投影されていれば、案内情報135を十分に認識することができる。 Therefore, even during the day, if guide information 131 in the luminance value of the windshield 102 1,800 (cd / m 2) is long as it is projected, it may be fully aware of the guide information 135.

次に、本実施形態に係るナビゲーション装置100で行われる処理を、図6及び図7のフローチャートと図8を用いてより具体的に説明する。 Next, processing performed in the navigation apparatus 100 according to the present embodiment will be described more specifically with reference to the flow chart and Figure 8 in FIGS. ナビゲーション装置100が起動されると、まず、車両位置・姿勢検出部10は、GPS受信部11及びジャイロセンサ12を用いて位置情報と姿勢情報(初期位置・姿勢情報)を取得する(ステップS11)。 When the navigation device 100 is started, first, the vehicle position and posture detecting unit 10 obtains the position information and the orientation information (initial position and orientation information) by using the GPS receiving unit 11 and the gyro sensor 12 (step S11) . このときに、姿勢情報は、前回エンジンを停止した際に取得していた姿勢情報をそのまま用いてもよいし、磁気コンパスを用いて真方向を求めてもよい。 At this time, the posture information may be used as it is the attitude information which has been acquired when stopping the previous engine, may be obtained the true direction using a magnetic compass. 走行中の姿勢情報は、初期値からの変化量に基づいて求められる。 Orientation information during traveling is determined based on the amount of change from the initial value.

次に、画像投影部90とカメラ40とを用いて、画像投影位置のキャリブレーションが行われる(ステップS12)。 Then, by using the image projection unit 90 and the camera 40, calibration of the image projection position is performed (step S12). このキャリブレーションは、プロジェクタ91のどの位置から投影した画像が、利用者前方のどの位置に表示されて見えるかを把握するために行われる。 This calibration image projected from the position of the projector 91 throat is performed to ascertain whether appears to be displayed on any position of the user forward. より具体的には、キャリブレーションは、プロジェクタ91が投影した画像をカメラ40で撮影し、撮影された画像を解析することによって行われる。 More specifically, calibration, an image projector 91 is projected captured by the camera 40 is carried out by analyzing the captured image. なおキャリブレーション方法の詳細な例については後述する。 Is described later detailed example of the calibration method.

ステップS12でキャリブレーションが終了すると、ディスプレイ35には目的地設定用の画面が表示される。 When the calibration is finished at step S12, the display 35 displays a screen for setting a destination. ここで、目的地設定用の画面とは、住所入力画面や地図画面である。 Here, the screen for setting a destination, is the address input screen and the map screen. 利用者は、ポインティングデバイス30を用いて、ディスプレイ35に表示された都道府県名や市町村名から目的地の住所を選択したり、表示された地図上の目的地を差し示したりして、目的地の経度及び緯度を特定する。 The user, using the pointing device 30, or to select a destination address from the prefecture name or city name that is displayed on the display 35, with or shows pointing to a destination on the displayed map, destination identifying the longitude and latitude. 特定された目的地の経度及び緯度は、演算処理部50に入力されて、RAM53に記憶される。 Longitude and latitude of the identified destination is inputted to the arithmetic processing unit 50, it is stored in the RAM 53.

次に、演算処理部50は、ステップS11で取得した初期位置・姿勢情報と、ステップS13で設定した目的地情報と、HDD20に保持されている地図情報とを用いて、経路情報を作成する(ステップS14)。 Next, the arithmetic processing unit 50 uses the initial position and orientation information acquired in step S11, the destination information set in step S13, the map information stored in the HDD 20, to create the route information ( step S14). ダイクラストラ法などを用いた経路作成方法は、現在のナビゲーション装置でも一般的に利用されているので、本明細書では説明を省略する。 Route generation method using a die class tigers method, because it is commonly used in the current navigation apparatus, not described herein.

なお、前方風景の輝度が高いと、画像投影部90から投影された画像の視認性が低下するので、例えば夕方であれば、西日が直接入射しない経路を選択するように重みを付けて経路を選択してもよい。 Incidentally, if the high brightness of the scene ahead, since the visibility of the projected image from the image projection unit 90 is lowered, for example, if the evening, with a weight so as to select a path setting sun does not enter directly route it may be selected.

経路が作成されると、演算処理部50は、作成した経路上の案内情報を提示する地点(以下、案内情報提示地点という)を、経度及び緯度で特定する(ステップS15)。 When the route is created, the processing unit 50, the point of presenting guidance information on the route that was created (hereinafter referred to as guidance information presentation point) and is specified by latitude and longitude (step S15). 特定された経度及び緯度はRAM53に記憶される。 Identified longitude and latitude are stored in RAM 53.

より具体的には、演算処理部50は、ステップS14で作成された経路情報に、案内情報提示地点の条件を照らし合わせて、条件に当てはまる地点の経緯度を、条件毎に特定する。 More specifically, the processing unit 50, the route information created in step S14, in the light conditions of the guidance information presentation point, the longitude and latitude of the point true condition, identifying for each condition. ここで案内情報提示地点とは、例えば右折又は左折する交差点の手前700m、300m、100m、及び10mといった地点である。 The guidance information presentation point where a point for example before 700m intersection turning right or left, 300 meters, 100 m, and such 10 m. このような条件は予めRAM53等に記憶しておく。 Such conditions stored in advance in RAM53, and the like. そして、演算処理部50で特定された案内情報提示地点データは、その地点で提示する案内情報のデータと関連付けられてRAM53等に記憶される。 The guidance information presentation point data identified by the processing unit 50 associated with the data of the guidance information to be presented at that point is stored in the RAM53 and the like.

ステップS15において案内情報提示地点が特定されると、演算処理部50は、車両位置・姿勢検出部10から現在地情報を取得して(ステップS16)、現在の車両位置がステップS15で決定された案内情報提示地点か否かを判定する(ステップS17)。 When the guide information presentation point is specified at step S15, the processing unit 50 from the vehicle position and posture detecting unit 10 acquires the current position information (step S16), and guiding the current vehicle position determined in step S15 It determines whether or not the information presentation point (step S17). 判定の結果、案内情報提示地点でなければ(ステップS17のNO)、再度現在地情報が取得される(ステップS16)。 Result of the determination, if the guidance information presentation point (NO in step S17), the current position information is acquired again (step S16).

一方、案内情報提示地点であると判定された場合には(ステップS17のYES)、演算処理部50は、その地点で提示する案内情報を特定する(図7のステップS21)。 On the other hand, if it is determined that the guidance information presentation point (YES in step S17), the processing unit 50 identifies the guidance information to be presented at that point (step S21 in FIG. 7). このときにCPU51は、図8(a)に示すように、提示する案内情報に関する情報(名称やキーワード等)を、RAM53の対象物テーブルに書き込む。 In this case CPU51, as shown in FIG. 8 (a), information relating to guidance information presented to (names and keywords, etc.), and writes the RAM53 of the object table.

次に、障害物検知処理が行われる(ステップS22)。 Next, obstacle detection process is performed (step S22). より具体的には、まず、カメラ40で車両前方の風景が撮影される。 More specifically, first, the vehicle front scenery is photographed by the camera 40. そして、撮影された画像が、演算処理部50で画像処理されて、画像内の信号や歩行者などの障害物が検出される。 The captured image is subjected to image processing by the arithmetic processing unit 50, an obstacle such as a signal or a pedestrian in the image is detected. また、障害物が車やバイクである場合には、接近速度も測定される。 Further, when the obstacle is a vehicle or a motorcycle, the approach speed is also measured. CPU51は、検出された障害物の名称や接近速度などの情報を、図8(b)に示すように、RAM53の対象物テーブルに書き込む。 CPU51 is information such as the name and the approach speed of the detected obstacle, as shown in FIG. 8 (b), and writes the RAM53 of the object table. なお、接近速度は、例えば、カメラ40が取得した画像から車両やバイクを抽出し、次に、車両等が存在する領域をステレオ撮影して車両等までの距離を測定し、時間当たりの距離の変化を算出することにより得られる。 Note that the approach speed is, for example, from the image the camera 40 is acquired to extract vehicle or motorcycle, then the region in which the vehicle or the like is present in stereoscopic photography to measure the distance to a vehicle or the like, the distance per time obtained by calculating the change.

ステップS22で行われる画像処理方法としては、色情報やパターンマッチングによって物体の種類を特定する方法等が考えられる。 As an image processing method is performed in step S22, a method for identifying the type of the object by the color information and pattern matching or the like. 例えば、車線看板は青色で矩形状をしているので、色情報とパターンマッチングを用いれば特定可能である。 For example, the lane signs since the rectangular blue, it is possible to specify the use of the color information and pattern matching. なお、パターンマッチングなどの障害物検知処理を行う際には、障害物でないものを障害物と誤認識することよりも、障害物を見逃してしまうことの方が利用者にとって危険であるため、障害物検出のためのパラメータ(閾値)の設定は甘めにしておくことが望ましい。 Since when performing an obstacle detection process such as pattern matching, rather than be erroneously recognized as an obstacle is not an obstacle, towards the miss obstacles is dangerous for the user, disorders setting parameters (threshold) for the object detection is preferably made as Me sweet.

次に、演算処理部50は、優先度決定処理を行い(ステップS23)、次いで表示位置選定処理を行う(ステップS24)。 Then, the processing unit 50 performs the priority determining process (step S23), followed by a display position selection processing (step S24). そして、プロジェクタ91は、優先度決定処理及び表示位置選定処理で決定された案内情報の表示位置に、決定された表示方法で案内情報を投影する(ステップS25)。 Then, the projector 91, the display position of the guidance information determined by the priority determination process and the display position selection process, projecting the guidance information in the determined display method (step S25). 投影が終わると、現在位置情報が取得されて(ステップS26)、現在地が目的地であるか否かが判断される(ステップS27)。 When the projection is complete, and current position information is obtained (step S26), the current location is whether the destination is determined (step S27). 目的地に到達していなければ(ステップS27のNO)、図6のステップS17に戻る。 If not reached the destination (NO in step S27), the flow returns to step S17 in FIG. 6. また、目的地に到達した場合には(ステップS27のYES)、ナビゲーション装置は経路誘導を終了する。 Further, when it reached the destination (YES in step S27), the navigation device ends the route guidance.

ここで、ステップS23の優先度決定処理の詳細を、図9のフローチャートと図10及び図11を用いて説明する。 Here, the details of the priority determining process of step S23, will be described with reference to a flowchart and Figure 10 and 11 in FIG.

まず、CPU51は、RAM53の対象物テーブルに記載された各対象物に、優先度を付ける(図9のステップS31)。 First, CPU 51 is in each object described in the RAM53 of the object table, prioritizing (step S31 in FIG. 9). このときに、図10に示す優先度テーブルが参照される。 At this time, reference is made to the priority table shown in FIG. 10.

図10に示す優先度テーブルには、対象物の名称と接近速度、優先度、及び補足情報が記載されている。 The priority table shown in FIG. 10, the name and the approach speed of the object, priority, and supplemental information is described. 優先度テーブルの優先度欄に記載されている数値のうち、「0」は、最も優先度が高いことを示しており、数値が大きくなる程優先度が低いことを示している。 Among the numerical values ​​set forth in the priority field of the priority table, "0" indicates that the highest priority, numerical indicate that the low extent priority increases.

図10に示す優先度テーブルでは、案内情報の優先度を、交差点までの距離に応じて変化させている。 The priority table shown in FIG. 10, the priority of the guidance information is varied according to the distance to the intersection. 例えば、交差点手前700mで提示する案内情報よりも、交差点手前300mで提供する案内情報の方が、利用者には有益な情報であると考えられるために、交差点手前700mで提示する案内情報の優先度を「4」とし、交差点手前300mで表示する案内情報の優先度を「3」としている。 For example, rather than guidance information to be presented at an intersection before 700m, in order toward the guide information provided at the intersection before 300m is considered to be the useful information to the user, the priority of the guidance information to be presented at the intersection before 700m the degree and "4", the priority of the guidance information to be displayed at an intersection in front 300m is set to "3".

なお、走行地などによって障害物の重要度は異なる場合もあるので、図10に示す優先度テーブルの内容や優先度の高さは、利用者が変更できるようにしておいてもよい。 Since the importance of an obstacle such as by running land may be different, the height of the content and the priority of the priority table shown in FIG. 10 may be prepared to change the user.

また、図10に示す優先度テーブルでは、障害物が車両である場合には、接近速度によって優先度を異ならせている。 Further, in the priority table shown in FIG. 10, when the obstacle is a vehicle are at different priority by closing rate. これは、同じ車線上で同方向に走行する車であっても、反対車線を走行する車であっても、自車との相対速度によって利用者への危険度が異なると考えられるためである。 This may be a car traveling in the same direction at the same lane on, even vehicles traveling the opposite lane, is because the risk to the user by the relative velocity between the vehicle is considered to differ . したがって、図10に示す優先度テーブルでは、相対速度が小さい車両ほど、優先度を高く設定している。 Therefore, in the priority table shown in FIG. 10, as the vehicle relative velocity is small, and set a high priority.

なお、図10に示す優先度テーブルの右端欄にある補足情報を用いて、さらに優先度を詳細に設定することも考えられる。 Incidentally, using the supplementary information on the far right column of the priority table shown in FIG. 10, it is conceivable to further set the priority in detail. 一例を挙げると、「右折レーン」を示す車線看板が障害物として検出されたときに、利用者にとってのその車線看板の重要度は、前方の交差点を右折する場合と直進する場合とで異なる。 As an example, when the lane signboard indicating "right turn lane" is detected as an obstacle, the importance of its lane signs for the user is different between when straight and when turning right in front of the intersection. したがって、右折レーンの車線看板が検出されたときに右折する場合には、優先度テーブルに記載されている値よりも1つ高い優先度の値を対象物テーブルに書き込むようにしてもよい。 Therefore, when the lane signs right turn lane to turn right when detected, may be written the value of one high priority to the object table than the value listed in the priority table.

図11(a)は、優先度が書き込まれた後の対象物テーブルを示している。 FIG. 11 (a) shows the object table after the priority has been written. 対象物テーブルへの優先度の書き込みが終了すると、次に、演算処理部50は、対象物テーブルに記載されている障害物のうち、案内情報と優先度が同じものが存在するか否かを判断する(図9のステップS32)。 When the writing of the priority to the object table is completed, the processing unit 50 of the obstacle described in the object table, whether and priority guidance information exists same determination (step S32 in FIG. 9). 案内情報と同じ優先度の障害物が存在した場合(ステップS32のYES)、演算処理部50は、該当する障害物の優先度が、現在の優先度よりも1つ高くなるように優先度の値を書き換える(ステップS34)。 If a failure of the same priority as the guide information exists (YES in step S32), the processing unit 50, the priority of the corresponding obstacle, the priority to be higher one than the current priority It rewrites the value (step S34). 例えば、図11(a)に示す車両1の優先度は、案内情報と同じ「3」であるので、対象物テーブルの車両1の優先度は、図11(b)に示すように「2」に書き換えられる。 For example, the priority of the vehicle 1 shown in FIG. 11 (a) is the same "3" and the guide information, the priority of the vehicle 1 of the object table, as shown in FIG. 11 (b) "2" It is rewritten to.

案内情報と同じ優先度の全ての障害物について、優先度が変更された後には(ステップS33)、又は、案内情報と同じ優先度の障害物が始めから存在しなかったときには(ステップS32のNO)、対象物テーブルに記載されている優先度の値が確定値とされる(ステップS34)。 For all the obstacles of the same priority as the guidance information, after the priority is changed (step S33), or, NO is the (step S32 when a failure of the same priority as the guide information does not exist from the beginning ), the value of the priority is the definite value listed in the object table (step S34). 以上に説明した処理後の優先度が記載された、図11(b)に示す対象物テーブルでは、案内情報の優先度よりも低い優先度の障害物は、町名看板だけになっている。 Or the priority after processing described have been described, in the object table shown in FIG. 11 (b), lower priority obstacle than the priority of the guidance information is made only to the street sign.

以上によって、優先度決定処理が行われた後には、表示位置選定処理が行われる。 Or by, after the priority determination process is performed, the display position selection processing is performed. 表示位置選定処理については、図12及び図13のフローチャートと、図14とを用いて説明する。 The display position location processing will be described with reference to the flowchart of FIG. 12 and FIG. 13, and FIG. 14.

まず、演算処理部50は、障害物検知処理のためにカメラで撮影された画像における重要障害物が存在する領域(以下、重要障害物存在領域150という)を特定する(図12のステップS41)。 First, the processing unit 50, a region important obstacle in the image captured by the camera to the obstacle detection process is present (hereinafter, important that the obstacle existing region 150) to identify the (step S41 in FIG. 12) . ここで、重要障害物存在領域150とは、図14に示す破線で囲まれた四角形領域であって、提示する案内情報よりも優先度が高いと判断された障害物(重要障害物)を完全に含む領域である。 Here, the important obstacle existing region 150, a rectangular region surrounded by the broken line shown in FIG. 14, an obstacle that is determined to have higher priority than the guidance information to be presented (the critical obstacle) completely is a region that includes the. 図14に示す町名看板140のように、提示する案内情報よりも優先度が低い障害物が存在する領域は、重要障害物存在領域150には含まれない。 As street signboard 140 shown in FIG. 14, the region where a low priority obstacle is present than guidance information to be presented it is not included in the important obstacle existing region 150.

次に、演算処理部50は、表示しようとしている案内情報の情報をHDD20から読み出して、その情報の大きさを特定する(ステップS42)。 Next, the arithmetic processing unit 50 reads out the information of the guidance information to be displayed from the HDD 20, to identify the size of the information (step S42). ここで、案内情報の大きさとは、通常表示する場合の案内情報の縦及び横方向の長さである。 Here, the size of the guidance information is a longitudinal and lateral length of the guidance information when the normal display.

次に、演算処理部50は、案内情報を通常の大きさで表示できる領域(以下、通常表示可能領域という)を探索する(ステップS43)。 Then, the processing unit 50, a region capable of displaying guidance information in normal size (hereinafter, referred to as normal display area) to explore (step S43). 具体的には、例えば、図14に示すように、ステップS42で特定された大きさの探索窓160を画面の左上から順にスライドさせて、探索窓160と重要障害物領域150との重畳面積が最小となる領域を検索し、重畳面積が0となる領域を通常表示可能領域とすることが考えられる。 Specifically, for example, as shown in FIG. 14, a search window 160 of a particular magnitude by sliding from the upper left of the screen in the order in step S42, the overlapping area of ​​the search window 160 important obstacle area 150 Find the smallest area, it is considered that the region where superimposed area is zero and the normal display area. また、重畳面積が0となる領域が存在しなかった場合でも、CPU51は、重畳面積が最小となる領域の位置情報をRAM53に記憶する。 Further, even if a region where superimposed area becomes 0 does not exist, CPU 51 stores position information of a region superimposed area is minimized RAM 53.

重畳面積が0となる通常表示可能領域が存在すれば(ステップS44)、その位置を案内情報表示位置とすることが決定される(ステップS45)。 If there is usually possible overlapping area becomes zero display area (step S44), it is determined that the guidance information display position and the position (step S45). また、通常表示可能領域が存在しなければ(ステップS44のNO)、その案内情報の優先度を対象物テーブルから読み出して、その値が所定値より低いか否かが判断される(図13のステップS51)。 Further, if there is no normal display area (step S44 NO), reads out the priority of the guidance information from the object table, the value is determined whether less than a predetermined value (in FIG. 13 step S51).

案内情報の優先度が所定値未満であると判断された場合には(ステップS51のYES)、案内情報を表示しないことが決定される(ステップS52)。 If the priority of the guidance information is judged to be less than the predetermined value (YES in step S51), it is determined not to display the guidance information (step S52). 例えば、所定値を2とした場合には、優先度が3及び4である交差点手前300m及び700mで提示する案内情報は表示されない。 For example, when two predetermined value, guidance information to be presented at an intersection before 300m and 700m priority is 3 and 4 are not displayed. 判断に用いる所定値は、利用者が変更できるようになっていてもよい。 Predetermined value used for determination may be made to change the user. なお、案内情報を提示しないことが決定された場合には、音声による案内のみを行うようにしてもよい。 In the case where it does not present the guidance information has been determined, it may be carried out only guidance by voice.

また、案内情報の優先度が所定値未満でないと判断された場合には(ステップS51のNO)、ステップS43で特定された、探索窓160との重畳面積が最小であった領域に案内情報を表示するための処理が行われる。 Further, when the priority of the guidance information is judged not to be less than the predetermined value (NO in step S51), identified in step S43, the guidance information in a region overlapping area was minimal in the search window 160 processing for display is performed. そのために、まず、ステップS43で特定された領域の大きさにまで案内情報を変形することが可能か否かが判断される(ステップS53)。 Therefore, first, whether or not it is possible to deform the guidance information to the size of the area identified in step S43 it is determined (step S53).

図15(a)に示す通常の大きさの案内情報を変形する一つの方法としては、図15(b)に示すように、単純に画像の縦方向と横方向とを縮小する方法がある。 As one method of modifying the guidance information normal size shown in FIG. 15 (a), as shown in FIG. 15 (b), there is a method of simply reducing the vertical and horizontal directions of the image. また、別な方法として、図15(c)に示すように、案内情報の上の部分と下の部分とで縮小率をに変化させる方法もある。 Further, as another method, as shown in FIG. 15 (c), there is also a method of changing the reduction ratio between the portion and the lower portion on the guide information. この方法は、通常の大きさで表示すると、案内情報の上の部分だけが障害物エリアに入ってしまう場合に有効である。 This method, when viewed in normal size, is effective in the case where only the upper part of the guidance information will be entered into the obstacle area.

案内情報の画像情報には、識別できる最低限の大きさまで変形した際の変形度合いを表す変形限界値情報を付加しておく。 The image information of the guidance information is to add appropriate deformation limit value information representative of the deformation degree at the time of deformation to a minimum size that can be identified. そして、ステップS53では、表示しようとしている領域の大きさにまで案内情報を縮小した場合に、変形値がその案内情報の変形限界値を超えるか否かが判断される。 In step S53, if obtained by reducing the guidance information to the size of the area to be displayed, modified values ​​whether more than the deformation limit of the guidance information is judged. 演算処理部50は、変形値が変形限界値を超えない場合には変形可能と判断して(ステップS53のYES)、案内情報の変形を決定する(ステップS54)。 Processing unit 50, when the deformation value does not exceed the deformation limit value, it is determined that the deformable (YES in step S53), and determines the deformation of the guidance information (step S54). 一方、変形値が変形限界値を超える場合には(ステップS53のNO)、演算処理部50は、表示方法を変更することを決定する(ステップS56)。 On the other hand, if the deformation value exceeds the deformation limit value (NO in step S53), the processing unit 50 determines to change the way (step S56). なお、表示する案内情報が文字である場合には、変形によって認識できなくなる可能性が高いので、文字情報は変形不可能な情報として取り扱えばよい。 Note that when the guidance information to be displayed is a character, since it is likely that not be recognized by the deformation, the character information may be handled as a non-deformable information.

変更後の表示方法は、通常の表示を行った場合よりも視認性が向上するような表示方法であればよい。 Display method after the change may be a display method such that better visibility than the case of performing the normal display. 視認性が向上する方法としては、例えば、表示時間を通常よりも短縮したり、点滅表示したり、案内表示の色彩を淡色化したりする方法などが考えられる。 As a method of visibility is improved, for example, to shorten the display time than usual, or blinking, and a method or lightening is considered the color of guidance display.

次に、前述したステップS12の画像投影位置のキャリブレーション方法の一例を、図16〜図18を用いて説明する。 Next, an example of a calibration method for an image projection position in step S12 described above will be described with reference to FIGS. 16 to 18. 図16(a)に示す画像は、キャリブレーションに使用されるテストパターンの一例である。 Image shown in FIG. 16 (a) is an example of a test pattern used for calibration. このテストパターン180は、方形の4隅のうち対角に位置する2隅がマーキングされている。 The test pattern 180, two corners located on the inner diagonal four corners of the square is marked. このようなテストパターン180は、図17に示すように、プロジェクタ91からスクリーン92を介して、フロントガラス102に投影される。 Such test patterns 180, as shown in FIG. 17, from the projector 91 via the screen 92, is projected on the windshield 102. キャリブレーションは、プロジェクタ91が投影する画像と、投影した画像をカメラ40で撮影した画像とを用いて行われる。 Calibration, the image projector 91 to project, is carried out by using the image obtained by capturing an image projected by the camera 40.

なお、テストパターンには、図16(b)に示すような方形の4隅をマーキングしたテストパターン181を用いてもよいし、図16(c)に示すような格子状のテストパターン182を用いてもよい。 Note that the test pattern may be used a test pattern 181 which mark the four corners of the square, as shown in FIG. 16 (b), using the lattice-like test pattern 182 as shown in FIG. 16 (c) it may be. テストパターン182を用いる場合には、各グリッドの色を異ならせておけば、複雑な計算を行わなくとも、各グリッドが投影された位置を知ることができる。 When using the test pattern 182, if with different colors of each grid without complex calculations, it is possible to know the position of each grid is projected.

図18(a)及び(b)は、プロジェクタ91が投影する画像183と、そのときにカメラ40で撮影される画像184とを示している。 Figure 18 (a) and (b) shows an image 183 projector 91 projects an image 184 captured by the camera 40 at that time. プロジェクタ91が投影する画像位置と撮影された画像位置との対応関係を示すデータは、RAM53又はHDD20に記憶される。 Data indicating the correspondence between the image position captured image position projected projector 91 is stored in the RAM53, or HDD 20. つまり、図18(a)に示す左上から一番目の画素は、カメラ40の画素部の左上から1番目とその右隣である2番目の画素に対応するというように、対応表が作成されて記憶される。 That one pixel from the upper left of FIG. 18 (a), so that corresponding from the upper left pixel of the camera 40 in the second pixel first and its right side, with the correspondence table is created It is stored. キャリブレーションで設定された目盛りは、障害物検知処理(図7のステップ22)や表示位置選定処理(ステップS24)等で利用される。 Scale which is set in the calibration is used in the obstacle detection process (Step 22 in FIG. 7) and the display position location processing (step S24) and the like.

なお、カメラ40やプロジェクタ91の設置位置や向きが頻繁に変更されないのであれば、複数回の起動につき1回だけキャリブレーションが行われるようにしてもよい。 Incidentally, if the installation position and orientation of the camera 40 and the projector 91 does not change frequently, it may be calibrated by multiple once per activation is performed. また、キャリブレーション精度が保証される場合には、複数画素を単位として扱うようにして、情報処理量や保存するデータ量を低減してもよい。 Also, if the calibration accuracy is guaranteed, so as to handle multiple pixels as a unit, may reduce the amount of data to the information processing amount and storage.

なお、本実施形態では、映像投影部90にHUDを用いた場合を例に説明したが、HUDを用いずに、カメラ40で撮影した前方風景画像に案内情報画像を重畳した画像を、ディスプレイ35に表示するようにしてもよい。 In the present embodiment has described the case of using the HUD to the video projection unit 90 as an example, without using the HUD, the image obtained by superimposing guide information image forward scenery image photographed by the camera 40, the display 35 it may be displayed in. なお、本発明のナビゲーション装置をバイクとヘルメットとに取り付ける構成にして、バイザーに案内情報を表示すれば、提供される情報量が少ないバイクのナビゲーション装置としても利用できる。 Note that the navigation device of the present invention in the configuration for mounting on a bike helmets, by displaying the guidance information to the visor, can also be used as a navigation system for motorcycles less information to be provided.

本実施形態に係るナビゲーション装置は、実風景に重ねて案内情報を表示する際に、歩行者や信号機などの運転者が見落としてはならない障害物、及び、車線看板や町名看板など運転者に有用な情報を与える障害物を検知して、その優先度を決定する。 The navigation apparatus according to this embodiment, when displaying the guidance information superimposed on actual scene, pedestrians and traffic obstacles that the driver should not be overlooked, such as, and useful to the driver, such as lane signs and street signboard It detects an obstacle which gives such information to determine its priority. そして、案内情報よりも優先度が高い障害物の視認性が、案内情報を表示することによって著しく低下しないように、案内情報の表示位置や表示方法が決定される。 The visibility of the high priority obstacle than the guide information, so as not to significantly reduced by displaying the guidance information, the display position and the display method of the guidance information is determined. したがって、表示された案内情報が運転の妨げになるようなことがない。 Therefore, there is no such thing as guidance information displayed is interfere with driving. よって、本実施形態に係るナビゲーション装置を利用した運転者は、直感的にかつ正確に進むべき方向を把握出来るだけでなく、周囲の安全にも配慮して運転することができる。 Therefore, the driver using a navigation device according to an embodiment, intuitive and not only can grasp the direction to go exactly, can be operated also considered around the safety.

(第2の実施形態) (Second Embodiment)
図19は、本発明の第2の実施形態に係るナビゲーション装置の構成図である。 Figure 19 is a configuration diagram of a navigation device according to a second embodiment of the present invention. 本実施形態に係るナビゲーション装置は、案内情報の視認性の向上を目的として、第1の実施形態に係るナビゲーション装置に、車外光量取得部201、彩度取得部202、及び輝度・彩度決定部203を付加した構成になっている。 The navigation apparatus according to this embodiment, in order to improve the visibility of the guidance information, the navigation apparatus according to the first embodiment, the vehicle exterior light quantity acquisition unit 201, the saturation acquiring unit 202, and the luminance and saturation determination unit It has a configuration obtained by adding a 203. なお、本実施形態で説明するナビゲーション装置の構成要素のうち、第1の実施形態ですでに説明した構成要素と同じ構成要素には同じ符号を付けて説明を省略する。 Among the components of the navigation device described in this embodiment, the same components as those already described in the first embodiment will not be described with the same reference numerals.

車外光量取得部201は、自車前方風景の輝度情報を取得する。 Vehicle exterior light quantity acquisition unit 201 acquires the luminance information of the vehicle scene ahead. 彩度取得部202は、 Saturation acquisition unit 202,
表示位置決定部8で決定された案内情報を表示する領域付近の彩度情報を取得する。 It acquires chroma information in the vicinity of the area for displaying guide information determined by the display position determining unit 8. そして、輝度・彩度決定部203は、車外光量取得部201で取得された輝度情報と、彩度取得部202で取得された彩度情報とに基づいて、表示する案内情報の輝度と彩度とを決定する。 The luminance and saturation determination unit 203, the luminance information acquired by the vehicle exterior light quantity acquisition unit 201, based on the chroma information acquired by saturation acquiring unit 202, the luminance and saturation of the guidance information to be displayed to determine the door. 画像出力部9は、表示位置決定部8で決定された位置に、輝度・彩度決定部203で決定された輝度及び彩度で案内情報を表示する。 The image output unit 9, the determined by the display position determination unit 8 position, and displays the guidance information in the luminance and chroma determined by the luminance and chroma determination unit 203.

次に、ナビゲーション装置のより具体的な機器構成を例に挙げて、本実施形態に係るナビゲーション装置で行われる処理の詳細を説明する。 Then, with a more specific device configuration of the navigation device as an example, details of processing performed in the navigation apparatus according to this embodiment. 図20に示すナビゲーション装置200は、第1の実施形態で図2を用いて説明したナビゲーション装置に、輝度計測部210を付加した構成になっている。 The navigation device 200 shown in FIG. 20, the navigation apparatus described with reference to FIG. 2 in the first embodiment has a configuration obtained by adding a brightness measuring unit 210.

ここで、図20に示す各部と図19に示す各部との対応を簡単に説明する。 Here, briefly explaining the correspondence between the respective portions shown in each section and 19 shown in FIG. 20. 図20に示す輝度計測部210は、図19に示す車外光量取得部201に相当する。 Brightness measuring unit 210 shown in FIG. 20 corresponds to the outside of the vehicle light quantity acquisition unit 201 shown in FIG. 19. 輝度計測部210は、自車両の前方方向から入射する光の輝度を計測するために設けられる。 Brightness measuring unit 210 is provided to measure the intensity of the light incident from the front direction of the vehicle. 図19に示す彩度取得部202と輝度・彩度決定部203は、カメラ40と演算処理部50との組み合わせによって実現される。 Saturation acquiring unit 202 and the luminance and chroma determination unit 203 shown in FIG. 19 is realized by a combination of the camera 40 and the processing unit 50.

図21は、ナビゲーション装置200で行われる処理の一部を示すフロー図である。 Figure 21 is a flowchart showing a part of processing performed by the navigation device 200. ナビゲーション装置200では、図6及び図21に示す処理が行われる。 In the navigation device 200, the processing shown in FIGS. 6 and 21 are carried out. 図21に示す処理は、図7に示す処理にステップS28の処理を追加したものである。 The process shown in FIG. 21 is obtained by adding the process in step S28 to the process shown in FIG. ステップS28の処理の詳細は、図22のフロー図を用いて説明する。 Details of the processing in step S28, will be described with reference to the flowchart of FIG. 22. なお、図21に記載している処理のうち、第1の実施形態で図7を用いて説明した処理と同じ処理には、同じステップ番号を付して説明を省略する。 Among the processes that are described in Figure 21, the same processing as the processing described with reference to FIG. 7 in the first embodiment will be omitted with denoted by the same step numbers.

案内情報を表示する位置は、図21のステップS24の表示位置決定処理によって決まることは、第1の実施形態で説明した通りである。 The display position of the guidance information can determined by the display position determination process in step S24 in FIG. 21 are as described in the first embodiment. この処理によって、図23に示す車両前方風景画像上の、太破線で囲まれた領域230に案内情報を表示することが決定された後に、CPU51は、輝度計測部210で計測された車外の輝度を取得する(図22のステップS61)。 This process, on the vehicle front scene image shown in FIG. 23, after it is determined to display the guidance information in the region 230 surrounded by a thick broken line, CPU 51 has the outside which is measured by the brightness measuring unit 210 luminance acquires (step S61 in FIG. 22). 取得された輝度はRAM53に記憶される。 Acquired luminance is stored in the RAM 53.

次に、演算処理部50は、図23に示す画像のうち、案内情報を表示する領域230、又は、案内情報を表示する領域よりも一回り大きな領域240の色彩情報を取得する(ステップS62)。 Then, the processing unit 50, among the images shown in FIG. 23, region 230 displays guidance information, or, than the region for displaying the guidance information acquires color information of a large area 240 slightly (step S62) . なお、色彩情報を取得する領域の広さを、領域230にするか領域240にするかは、予め定めておけばよい。 Incidentally, the size of the region for acquiring color information, whether to or region 240 to region 230, may be determined in advance.

色彩情報の検出方法としては、領域230又は240に含まれる各画素が取得した彩度の平均を求める方法などが考えられるが、領域230又は240の代表的な色の情報を取得できる方法であれば、どのような方法を用いても構わない。 Detection methods for the color information is a method of obtaining an average of saturation pixels is acquired included in the area 230 or 240 is considered, there in a way that acquires the representative color information of regions 230 or 240 if, it may be used any way.

次に、演算処理部50は、取得した色彩情報に基づいて、表示する案内情報の色彩を決定する(図22のステップS63)。 Then, the processing unit 50, based on the acquired color information to determine the color of the guidance information to be displayed (step S63 in FIG. 22). 例えば、図23に示す画像において、案内情報を表示する領域230に、緑色の葉が茂った木が写っており、ステップS62で特定された領域230の色が緑色であったとする。 For example, the image shown in FIG. 23, a region 230 for displaying the guidance information, and reflected the tree green leaves lush, color area 230 specified at step S62 is assumed to be green. この領域に、背景色と同色である緑色で案内情報が表示された場合には、利用者は案内情報を認識できないおそれがある。 In this area, when the green guidance information is displayed is the same color as the background color, the user may not be aware of the guidance information. 従って、演算処理部50は、案内情報の色を領域230の色彩とは異なる色彩で表示するために、案内情報の色彩を決定する。 Therefore, the processing unit 50, for display in a different color from the color of the region 230 a color of the guidance information, to determine the color of the guidance information. 色彩の決定方法には、図24に示すCIE表色系などを用いて、色度の距離が離れているものを選択する方法などが考えられる。 The determination method of the color, by using a CIE colorimetric system shown in FIG. 24, a method of selecting those distance chromaticity are separated are considered.

なお、ステップS62において、領域230又は240の内部全体の色情報を求めずに、領域230又は240の内部のうち、案内情報135の外側の色情報だけを求めるようにすれば、案内情報の色彩をより認識しやすい色彩にすることができる。 Incidentally, in step S62, without asking the color information of the entire interior of the region 230 or 240, in the internal region 230 or 240, if the seek only the color information of the outside of the guide information 135, the color of the guidance information it can be more easily recognizable color a.

色彩が決定されると、演算処理部50は、提示する案内情報の輝度を決定する(ステップS64)。 When color is determined, the processing unit 50 determines the luminance of the guidance information to be presented (step S64). このときに、案内情報の輝度値は、案内情報の周囲と案内情報とのコントラスト比が、利用者にとって適当なコントラスト比になるように設定するとよい。 At this time, the luminance value of the guidance information, the contrast ratio of the guidance information with the surrounding of the guidance information is, may be set to be a proper contrast ratio for users. HUDを用いてフロントガラスに画像を投影する場合、最も低い輝度は、前方からフロントガラスに入射する光の輝度である。 When projecting an image on the windshield using a HUD, the lowest luminance is the luminance of light incident on the windshield from the front. また、最も高い輝度は、プロジェクタが投影する白色画像の輝度である。 Moreover, the highest brightness is a brightness of the white image projector to project. 演算処理部50は、前方から入射する光と投影する画像とのコントラスト比が所定値以上になるように、望ましくは1:20程度になるように、投影する画像の輝度を決定する。 Processing unit 50, so that the contrast ratio of the image to be projected with the light incident from the front is equal to or greater than a predetermined value, preferably to be about 1:20 to determine the brightness of the image to be projected.

トンネルなど暗い場所を通過するときに、トンネル外の明るい場所と同じ輝度で案内情報が表示されると、案内情報が明るすぎて、利用者の運転の妨げになるおそれがある。 When passing through the dark place such as a tunnel, the guidance information at the same luminance is displayed outside the tunnel bright place, guided information is too bright, it may hinder the user's operation. また、常時同じ色で案内情報が表示されていると、背景に案内情報が埋もれてしまうおそれもある。 In addition, there is when the guide information in the same color all the time is displayed, also a fear that the guidance information is buried in the background. 本実施形態に係るナビゲーション装置は、背景の色彩情報や輝度情報を基に案内情報の色彩と輝度とを決定するために、提示される案内情報は利用者が認識しやすいものになる。 The navigation apparatus according to this embodiment, in order to determine the color and brightness of the guidance information on the basis of color information and luminance information of the background, guidance information presented will be easy to recognize the user.

なお、映像投影部90として、HUDを用いる場合には、予め、プロジェクタの投影出力と投影された画像の輝度との関係を求めておけば、所望の輝度値で表示するために必要な出力が分かる。 As the image projection unit 90, in the case of using the HUD, previously, if obtained relation between the luminance of the image projected to the projected output of the projector, the required output for display at a desired luminance values It can be seen. 画像の輝度は、輝度計測部210を用いて測定してもよいし、投影出力と画像投影位置までの距離と投影先(フロントガラス)の反射率を基に演算して求めてもよい。 Luminance of the image may be measured using a luminance measuring portion 210, it may be obtained by calculating based on the reflectance of the projected destination distance to the projected output image projection position (windshield). なお、輝度計測部210を設けない場合には、車外の輝度はカメラ40が撮影した画像のから求めるようにしてもよい。 Incidentally, in the case without the luminance measurement section 210, outside of the luminance may be obtained from the image imaged by the camera 40.

本発明のナビゲーション装置は、実風景に重ねて表示した案内情報によって利用者を誘導する、車両等に搭載されるナビゲーション装置等として有用である。 The navigation system of the present invention induce the user by the guide information displayed superimposed on the actual landscape, it is useful as a navigation device or the like mounted on a vehicle or the like.

本発明の第1の実施形態に係るナビゲーション装置の構成図 Configuration diagram of a navigation device according to a first embodiment of the present invention 図1に示すナビゲーション装置の具体的な機器構成の一例を示す図 It illustrates an example of a specific device configuration of the navigation device shown in FIG. 1 案内情報の例を示した図 It shows an example of guidance information HUDを使用した場合の画像投影方法を説明する図 Diagram for explaining an image projection method in the case of using the HUD 案内情報が表示されているときの車両前方の風景図 Landscape view of the front of the vehicle when the guide information is displayed 図2に示すナビゲーション装置で行われる処理手順を示すフローチャート Flowchart illustrating a processing procedure performed by the navigation apparatus shown in FIG. 2 図6の続図 Connection diagram of FIG. 6 案内情報や障害物の情報が記載された対象物テーブルを示す図 It shows an object table in which information of the guidance information and obstacle is described 優先度決定処理の処理手順を示すフローチャート Flowchart of a process procedure of priority determination process 優先度テーブルの一例を示す図 It illustrates an example of a priority table 優先度が記載された対象物テーブルを示す図 It shows an object table which priority is claimed 表示位置選定処理の処理手順を示すフローチャート Flowchart of a process procedure of the display position selection process 図12の続図 Connection diagram of FIG. 12 案内情報の表示位置の決定方法を説明する図 Diagram for explaining a method for determining the display position of the guidance information 案内情報の変形例を示す図 It illustrates a modification of the guidance information 画像表示位置のキャリブレーションを行うためのテストパターン画像の一例を示す図 It illustrates an example of a test pattern image for calibrating the image display position テストパターンの投影の様子を説明する図 Diagram for explaining the state of the projection of the test pattern 投影するテストパターン画像とカメラで撮影されるテストパターンを示す図 It shows a test pattern captured by the test pattern image and a camera to be projected 本発明の第2の実施形態に係るナビゲーション装置の概念図 Conceptual diagram of a navigation device according to a second embodiment of the present invention 図19に示すナビゲーション装置の具体的な機器構成の一例を示した図 Diagram showing an example of a specific device configuration of the navigation device shown in FIG. 19 図20に示すナビゲーション装置で行われる処理手順を示すフローチャート Flowchart illustrating a processing procedure performed by the navigation apparatus shown in FIG. 20 案内情報表示色・輝度決定処理の処理手順を示すフローチャート Flowchart showing a processing procedure of the guidance information display color, brightness determination processing 表示する案内情報の色彩を決定する方法を説明するための図 Diagram for explaining a method for determining the color of the guidance information to be displayed CIE表色系図 CIE color genealogy

符号の説明 DESCRIPTION OF SYMBOLS

1 自車位置取得部2 地図記憶部3 目的地設定部4 経路作成部5 案内情報特定部6 障害物検知部7 優先度決定部8 表示位置決定部9 画像出力部201 車外光量取得部202 彩度取得部203 輝度・彩度決定部 1 vehicle position acquiring unit 2 map storage unit 3 destination setting unit 4 route creating unit 5 guide information specifying unit 6 obstacle detecting unit 7 priority determining unit 8 display position determination unit 9 image output unit 201 outside light quantity acquisition unit 202 Aya degree acquisition unit 203 luminance and saturation determination unit

Claims (12)

  1. 実風景に重ねて表示した案内情報によって利用者を誘導するナビゲーション装置であって、 A navigation system to guide the user by the guide information that is displayed over the actual scene,
    1以上の案内情報の中から提示する案内情報を特定する案内情報特定部と、 And a guide information specifying unit for specifying the guidance information to be presented from among one or more of guide information,
    自車前方の風景を平面的に捉えたときの当該平面上の障害物の位置を特定する障害物検知部と、 An obstacle detecting unit for specifying a position of the obstacle on the plane when capturing the vehicle front landscape dimensionally,
    前記平面上に前記案内情報を表示したときに前記障害物との重畳面積が少ない位置を特定し、当該位置を表示位置とする表示位置決定部と、 Identify the overlapping area is small the position of the obstacle when viewing the guidance information on the plane, and the display position determination unit to display position the position,
    前記表示位置に前記案内情報を表示する画像出力部とを備えたナビゲーション装置。 Navigation apparatus and an image output unit for displaying the guidance information on the display position.
  2. 地図を記憶する地図記憶部と、 A map storage unit for storing map,
    前記地図上における自車位置を取得する自車位置取得部と、 A vehicle position acquiring unit that acquires the vehicle position on the map,
    前記地図上における目的地を設定する目的地設定部と、 And a destination setting unit for setting a destination on the map,
    前記地図と前記自車位置と前記目的地とに基づいて経路を作成する経路作成部とを更に備えた、請求項1に記載のナビゲーション装置。 The map and the further comprising a route creating unit that creates a route based on the vehicle position and the destination, the navigation device according to claim 1.
  3. 前記障害物検知部は、 The obstacle detection unit,
    自車前方の風景画像を撮影する撮影部と、 A photographing unit for photographing a vehicle ahead of the scenery image,
    前記撮影部で撮影された画像を解析して前記障害物を特定する画像解析部とを含む、請求項1に記載のナビゲーション装置。 By analyzing the image captured by the imaging unit and an image analyzing unit that identifies the obstacle, the navigation device according to claim 1.
  4. 前記案内情報特定部が特定した案内情報と前記障害物検知部が検知した各障害物に、利用者に提示する優先順位を付する優先度決定部を更に備え、 Each obstacle the the guidance information wherein the guidance information identifying unit has identified obstacle detecting unit detects, further comprising a priority determining unit denoted with the priorities to be presented to the user,
    前記表示位置決定部は、前記案内情報より優先度が高い障害物との重畳面積が少ない位置を表示位置とすることを特徴とする、請求項1に記載のナビゲーション装置。 The display position determination unit is characterized in that the display position of the overlapping area is small the position of the more high priority obstacle the guidance information, the navigation apparatus according to claim 1.
  5. 前記表示位置決定部は、前記表示位置において前記案内情報と前記障害物とが重畳するときに、前記案内情報の表示方法を、前記障害物の視認性が向上する表示方法に変更することを特徴とする、請求項4に記載のナビゲーション装置。 The display position determination section, when said guidance information and the obstacle is superimposed at the display position, characterized in that to change the appearance of the guide information, the display method visibility of the obstacle can be improved that, the navigation device according to claim 4.
  6. 前記表示位置決定部は、前記案内情報と前記障害物との重畳面積が低減するように、前記案内情報の形状を変形することを決定することを特徴とする、請求項5に記載のナビゲーション装置。 The display position determination section, as overlapped area between the obstacle and the guidance information is reduced, and determines a deforming the shape of the guidance information, the navigation apparatus according to claim 5 .
  7. 前記表示位置決定部は、前記案内情報を非表示にすることを決定することを特徴とする、請求項5に記載のナビゲーション装置。 The display position determination unit, and determines to hide the guidance information, the navigation apparatus according to claim 5.
  8. 前記平面上における前記表示位置付近の色彩を判断する色彩判断部と、 And color determination section for determining color near the display position on said plane,
    前記案内情報の色彩を、前記色彩判断部が判断した色彩とは異なる色彩にすることを決定する色彩決定部とをさらに備えた、請求項1に記載のナビゲーション装置。 The color of the guidance information, the color determination section is further provided with a color determination unit for determining that a different color from the color that is determined, the navigation device according to claim 1.
  9. 車両前方から入射する光の光量を取得する光量取得部と、 A light quantity acquisition unit that acquires the amount of light incident from the front of the vehicle,
    前記光量取得部が取得した光量に基づいて、前記案内情報の輝度を決定する輝度決定部とをさらに備えた、請求項1に記載のナビゲーション装置。 On the basis of the amount of light quantity acquiring unit has acquired, further comprising a brightness determining unit that determines the brightness of the guidance information, the navigation apparatus according to claim 1.
  10. 前記画像出力部は、前記案内情報を自車のフロントガラスに投影して表示することを特徴とする、請求項1に記載のナビゲーション装置。 The image output unit may be displayed by projecting the guidance information on the windshield of the self-vehicle navigation apparatus according to claim 1.
  11. 前記画像出力部は、ディスプレイに表示した実風景画像上に前記案内情報を重ねて表示することを特徴とする、請求項1に記載のナビゲーション装置。 The image output unit may be displayed over the guidance information on the real scene image displayed on the display, a navigation device according to claim 1.
  12. 実風景に重ねて表示した案内情報によって利用者を誘導するナビゲーション装置で実行されるナビゲーション方法であって、 A navigation method executed in the navigation apparatus to induce the user by the guide information displayed superimposed on the actual landscape,
    1以上の案内情報の中から提示する案内情報を特定する案内情報特定ステップと、 A guide information specifying step of specifying the guidance information to be presented from among one or more of the guidance information,
    自車前方の風景を平面的に捉えたときの当該平面上の障害物の位置を特定する障害物検知ステップと、 An obstacle detecting step for identifying the position of the obstacle on the plane when capturing the vehicle front landscape dimensionally,
    前記平面上に前記案内情報を表示したときに前記障害物との重畳面積が少ない位置を特定し、当該位置を表示位置とする表示位置決定ステップと、 Identify the overlapping area is small the position of the obstacle when viewing the guidance information on the plane, the display position determining step of the display position of the position,
    前記表示位置に前記案内情報を表示する画像出力ステップとを備えたナビゲーション方法。 Navigation method and an image output step of displaying the guidance information on the display position.
JP2004354519A 2004-12-07 2004-12-07 Navigation system and navigation method Pending JP2006162442A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004354519A JP2006162442A (en) 2004-12-07 2004-12-07 Navigation system and navigation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004354519A JP2006162442A (en) 2004-12-07 2004-12-07 Navigation system and navigation method

Publications (1)

Publication Number Publication Date
JP2006162442A true true JP2006162442A (en) 2006-06-22

Family

ID=36664634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004354519A Pending JP2006162442A (en) 2004-12-07 2004-12-07 Navigation system and navigation method

Country Status (1)

Country Link
JP (1) JP2006162442A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007101744A1 (en) * 2006-03-07 2007-09-13 Robert Bosch Gmbh Method and system for displaying navigation instructions
WO2008044309A1 (en) 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method
WO2008068849A1 (en) 2006-12-05 2008-06-12 Navitime Japan Co., Ltd. Navigation system, portable terminal device, and peripheral-image display method
EP2075541A1 (en) * 2007-12-31 2009-07-01 STMicroelectronics Design and Application GmbH Improved vehicle navigation system
WO2009084129A1 (en) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation Navigation device
WO2010016379A1 (en) * 2008-08-05 2010-02-11 アイシン精機株式会社 Target position identifying apparatus
JP2011002322A (en) * 2009-06-18 2011-01-06 Toyota Motor Corp Power supply control device of navigation system
WO2011059552A3 (en) * 2009-10-30 2011-09-15 Teejet Technologies Illinois, Llc Method and apparatus for guiding a vehicle
JP4948684B1 (en) * 2011-06-22 2012-06-06 パイオニアシステムテクノロジー株式会社 Head-up display and a control method
JP2012138005A (en) * 2010-12-27 2012-07-19 Ns Solutions Corp Transport support system and transport support method
US8280665B2 (en) 2008-09-30 2012-10-02 Aisin Seiki Kabushiki Kaisha Calibration device for on-vehicle camera
JP2012233904A (en) * 2012-06-29 2012-11-29 Pioneer Electronic Corp Information display device, information display method, information display program, and recording medium
WO2013088557A1 (en) * 2011-12-15 2013-06-20 パイオニア株式会社 Display device and display method
WO2013114617A1 (en) * 2012-02-03 2013-08-08 パイオニア株式会社 Image-display device, method for displaying image, and image-display program
US9269007B2 (en) 2013-06-14 2016-02-23 Denso Corporation In-vehicle display apparatus and program product
WO2016185691A1 (en) * 2015-05-20 2016-11-24 株式会社デンソー Image processing apparatus, electronic mirror system, and image processing method
WO2017002209A1 (en) * 2015-06-30 2017-01-05 三菱電機株式会社 Display control device, display control method, and display control program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007101744A1 (en) * 2006-03-07 2007-09-13 Robert Bosch Gmbh Method and system for displaying navigation instructions
WO2008044309A1 (en) 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method
WO2008068849A1 (en) 2006-12-05 2008-06-12 Navitime Japan Co., Ltd. Navigation system, portable terminal device, and peripheral-image display method
WO2009084129A1 (en) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation Navigation device
EP2075541A1 (en) * 2007-12-31 2009-07-01 STMicroelectronics Design and Application GmbH Improved vehicle navigation system
US8077199B2 (en) 2008-08-05 2011-12-13 Aisin Seiki Kabushiki Kaisha Target position identifying apparatus
WO2010016379A1 (en) * 2008-08-05 2010-02-11 アイシン精機株式会社 Target position identifying apparatus
KR101205428B1 (en) 2008-08-05 2012-11-27 아이신세이끼가부시끼가이샤 Target position identifying apparatus
JP4725821B2 (en) * 2008-08-05 2011-07-13 アイシン精機株式会社 Target position determination device
US8280665B2 (en) 2008-09-30 2012-10-02 Aisin Seiki Kabushiki Kaisha Calibration device for on-vehicle camera
US8260541B2 (en) 2009-06-18 2012-09-04 Toyota Jidosha Kabushiki Kaisha Power supply control apparatus of navigation system
JP2011002322A (en) * 2009-06-18 2011-01-06 Toyota Motor Corp Power supply control device of navigation system
US8374790B2 (en) 2009-10-30 2013-02-12 Teejet Technologies Illinois, Llc Method and apparatus for guiding a vehicle
WO2011059552A3 (en) * 2009-10-30 2011-09-15 Teejet Technologies Illinois, Llc Method and apparatus for guiding a vehicle
JP2012138005A (en) * 2010-12-27 2012-07-19 Ns Solutions Corp Transport support system and transport support method
JP4948684B1 (en) * 2011-06-22 2012-06-06 パイオニアシステムテクノロジー株式会社 Head-up display and a control method
WO2012176288A1 (en) * 2011-06-22 2012-12-27 パイオニア株式会社 Head-up display and control method
JPWO2013088557A1 (en) * 2011-12-15 2015-04-27 パイオニア株式会社 How to display apparatus and a display
WO2013088557A1 (en) * 2011-12-15 2013-06-20 パイオニア株式会社 Display device and display method
WO2013114617A1 (en) * 2012-02-03 2013-08-08 パイオニア株式会社 Image-display device, method for displaying image, and image-display program
JP2012233904A (en) * 2012-06-29 2012-11-29 Pioneer Electronic Corp Information display device, information display method, information display program, and recording medium
US9269007B2 (en) 2013-06-14 2016-02-23 Denso Corporation In-vehicle display apparatus and program product
WO2016185691A1 (en) * 2015-05-20 2016-11-24 株式会社デンソー Image processing apparatus, electronic mirror system, and image processing method
JP2016220011A (en) * 2015-05-20 2016-12-22 株式会社デンソー The image processing apparatus, an electronic mirror system, and image processing method
WO2017002209A1 (en) * 2015-06-30 2017-01-05 三菱電機株式会社 Display control device, display control method, and display control program
JPWO2017002209A1 (en) * 2015-06-30 2017-06-29 三菱電機株式会社 Display control apparatus and display control method and a display control program

Similar Documents

Publication Publication Date Title
US6282490B1 (en) Map display device and a recording medium
US20050209776A1 (en) Navigation apparatus and intersection guidance method
US20090088978A1 (en) Road Marking Recognition System
US20090125234A1 (en) Navigation Device with Camera-Info
US7167779B2 (en) Display method and apparatus for changing display position based on external environment
US7561966B2 (en) Vehicle information display system
US20080195315A1 (en) Movable-Body Navigation Information Display Method and Movable-Body Navigation Information Display Unit
US20110109618A1 (en) Method of displaying navigation data in 3d
US7894632B2 (en) Apparatus and method of estimating center line of intersection
US20100121569A1 (en) Lane determining device, lane determining method and navigation apparatus using the same
US20090171529A1 (en) Multi-screen display device and program of the same
US20050222753A1 (en) Imaging apparatus for vehicles
EP0841537A2 (en) Method and apparatus for displaying a navigation map
US6725154B2 (en) Image display apparatus
US20100250116A1 (en) Navigation device
US20090171582A1 (en) Vehicle navigation system
US20060210114A1 (en) Drive assist system and navigation system for vehicle
US20080007428A1 (en) Driving support apparatus
US20100268452A1 (en) Navigation device, navigation method, and navigation program
US20110164037A1 (en) Aerial image generating apparatus, aerial image generating method, and storage medium havng aerial image generating program stored therein
US20050134479A1 (en) Vehicle display system
JPH10311732A (en) Display device for vehicle
US20070233370A1 (en) Navigation system
US20090240426A1 (en) Navigation device and navigation method
US20100299063A1 (en) Current Position Determining Device and Current Position Determining Method