JP2008128827A - Navigation device, navigation method, and program thereof - Google Patents

Navigation device, navigation method, and program thereof Download PDF

Info

Publication number
JP2008128827A
JP2008128827A JP2006314381A JP2006314381A JP2008128827A JP 2008128827 A JP2008128827 A JP 2008128827A JP 2006314381 A JP2006314381 A JP 2006314381A JP 2006314381 A JP2006314381 A JP 2006314381A JP 2008128827 A JP2008128827 A JP 2008128827A
Authority
JP
Japan
Prior art keywords
necessity
image
live
guide
guidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006314381A
Other languages
Japanese (ja)
Other versions
JP2008128827A5 (en
Inventor
Takashi Akita
貴志 秋田
Nobuyuki Nakano
信之 中野
Takashi Kondo
剛史 金銅
Ryotaro Iwami
良太郎 岩見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006314381A priority Critical patent/JP2008128827A/en
Publication of JP2008128827A publication Critical patent/JP2008128827A/en
Publication of JP2008128827A5 publication Critical patent/JP2008128827A5/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation device for displaying road shape guide images, only when their need is high, by determining the degree of the need superimposing and displaying the road shape guide images indicating the shapes of roads for photographing images that indicate the forward state of a vehicle, and to provide a method and program of the device. <P>SOLUTION: The navigation device includes a photographic guide generating part, a road shape guide generating part, a necessity degree calculating part, and a guide control part. The photographic guide generation part generates the photographic guide images by using the photographic images. The road shape guide generating part generates the road shape guide images that indicate the shapes of roads displayed on photographic guide images. The necessity degree calculating part calculates the degree of need, indicating the degree of the need for display of the road shape guide images. The guide control part superimposes and displays the road shape guide images, generated by the road shape guide generating part, on the photographic guide images generated by the photographic guide generating part, based on the degree of the need calculated by the degree of necessity calculating part. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ナビゲーション装置に関し、より特定的には、車両の前方の様子を示す実写画像を画面に表示して経路案内を行うナビゲーション装置およびその方法ならびにそのプログラムに関するものである。   The present invention relates to a navigation device, and more specifically, to a navigation device, a method thereof, and a program thereof that perform route guidance by displaying a live-action image showing a state in front of a vehicle on a screen.

従来、目的地が設定されると、予め格納されている地図データを用いて、現在位置から目的地までの経路を探索した後、探索された経路に沿って、車両を目的地まで案内するナビゲーション装置が広く普及している。また、近年のナビゲーション装置は、HDD(Hard Disc Drive)またはDVD(Digital Versatile Disc)など大容量の情報記録媒体を利用して、詳細な地図データを記憶することができる。例えば、3次元的な鳥瞰図で表示される画像や、視認性のよい3次元CG(コンピュータグラフィックス)地図画像を用いたドライバーズ・ビューなど、案内画面の視認性やリアリティを追求した様々な地図画像が用いられている。   Conventionally, when a destination is set, navigation that guides the vehicle to the destination along the searched route after searching for a route from the current position to the destination using previously stored map data The device is widespread. Further, recent navigation apparatuses can store detailed map data using a large capacity information recording medium such as a HDD (Hard Disc Drive) or a DVD (Digital Versatile Disc). For example, various maps that pursue the visibility and reality of guide screens, such as images displayed in a three-dimensional bird's-eye view and driver's view using a highly visible three-dimensional CG (computer graphics) map image An image is used.

従来のナビゲーション装置は、車載カメラで撮影した車両前方方向の様子を示す画像を車載ディスプレイに表示するとともに、その車両前方方向の様子を示す画像に、別途作成した案内図形(進路変更の必要な交差点や分岐点などの案内対象地点において車両が進むべき方向を示す矢印等の図形)を重畳表示していた。   The conventional navigation device displays an image of the vehicle front direction taken by the in-vehicle camera on the in-vehicle display, and a guide graphic (an intersection that requires a course change) created separately on the image of the vehicle front direction. And a figure such as an arrow indicating a direction in which the vehicle should travel at a guidance target point such as a branch point.

また、撮像手段にて撮影された実写映像に案内経路を示す案内矢印を重畳表示した画像と撮像された実写映像の道路のエッジ、センターライン、およびレーン等をCG(コンピュータグラフィックス)化した画像を合成した案内画像を、表示することが記載されている(例えば、特許文献1参照)。
特開2003−121167号公報
In addition, an image obtained by superimposing a guide arrow indicating a guide route on a live-action image taken by an imaging unit and an image obtained by converting a road edge, a center line, a lane, and the like of the taken image to CG (computer graphics). Is displayed (for example, refer to Patent Document 1).
JP 2003-121167 A

しかしながら、従来のナビゲーション装置においては、案内対象交差点の手前に他の交差点が接近している場合や、複雑な形状をした案内対象交差点を曲がる場合には、実写画像に映っている道路のうち、車両が進むべき道路をユーザが咄嗟に把握することができなかった。   However, in the conventional navigation device, when another intersection is approaching in front of the guidance target intersection, or when turning around the guidance target intersection having a complicated shape, among the roads reflected in the live-action image, The user was unable to grasp the road on which the vehicle should travel.

さらに、上記特許文献1に開示されている従来の案内画像生成装置においては、道路のエッジ、センターラインおよびレーン等をCG化して表示するため、道路形状の把握は容易となるが、道路形状を示すこれらのガイド表示は背景の実写映像を隠蔽してしまうため、一般的な十字路の交差点のような道路形状の把握が容易な交差点においては、道路形状を示すガイド表示がかえって邪魔となってしまうという問題があった。   Furthermore, in the conventional guidance image generating device disclosed in Patent Document 1, since the road edge, centerline, lane, and the like are displayed in CG, the road shape can be easily grasped. These guide displays conceal the live-action image of the background, so at intersections where it is easy to grasp the road shape, such as general intersection intersections, the guide display indicating the road shape will be an obstacle. There was a problem.

それゆえに本発明は、車両の前方の様子を示す実写画像に、道路の形状を示す道路形状ガイド画像を重畳表示する必要性の度合いを判定し、その必要性が高いときにのみ当該道路形状ガイド画像を表示することが可能なナビゲーション装置およびナビゲーション方法ならびにそのプログラムを提供することを目的とする。   Therefore, the present invention determines the degree of necessity of superimposing and displaying a road shape guide image showing the shape of a road on a real image showing the front of the vehicle, and only when the necessity is high An object of the present invention is to provide a navigation device and a navigation method capable of displaying an image, and a program thereof.

本発明の目的は、以下の構成を備えたナビゲーション装置によって達成される。第1の発明は、車両の前方の様子を示す実写画像を画面に表示して経路案内を行うナビゲーション装置である。ナビゲーション装置は、実写案内生成部と、道路形状ガイド生成部と、必要度算出部と、案内制御部とを備える。実写案内生成部は、実写画像を用いて実写案内画像を生成する。道路形状ガイド生成部は、実写案内画像に表示されている道路の形状を示す道路形状ガイド画像を生成する。必要度算出部は、道路形状ガイド画像の表示の必要性の度合いを示す必要度を算出する。案内制御部は、必要度算出部によって算出された必要度に基づいて、実写案内生成部によって生成された実写案内画像に、道路形状ガイド生成部によって生成された道路形状ガイド画像を重畳表示する。ここで、必要度は、地図情報に基づいて計算しても良いし、実写画像に基づいて計算しても良いし、それらの両方に基づいて計算しても良い。道路形状ガイド画像は、道路の形状を示すものであれば良く、例えば道路の輪郭形状を示す画像であっても良いし、道路の中心線を示す画像であっても良い。   The object of the present invention is achieved by a navigation device having the following configuration. 1st invention is a navigation apparatus which displays a real image which shows the mode ahead of vehicles on a screen, and performs route guidance. The navigation device includes a live-action guide generation unit, a road shape guide generation unit, a necessity calculation unit, and a guidance control unit. The live-action guide generation unit generates a real-life guide image using the real-action image. The road shape guide generation unit generates a road shape guide image indicating the shape of the road displayed in the live-action guide image. The necessity calculation unit calculates a necessity indicating the degree of necessity of displaying the road shape guide image. The guidance control unit superimposes and displays the road shape guide image generated by the road shape guide generation unit on the actual shooting guide image generated by the shooting guide generation unit based on the necessity calculated by the necessity calculation unit. Here, the degree of necessity may be calculated based on map information, may be calculated based on a live-action image, or may be calculated based on both of them. The road shape guide image only needs to indicate the shape of the road. For example, the road shape guide image may be an image showing the contour shape of the road or an image showing the center line of the road.

第2の発明は、上記第1の発明において、必要度算出部は、案内対象交差点と当該案内対象交差点の1つ手前の交差点との間の距離および/または案内対象交差点と当該案内対象交差点の1つ奥側の交差点との間の距離に応じて、接近度を算出する交差点接近度算出部を含み、交差点接近度算出部によって算出された接近度に基づいて必要度を算出してもよい。ここで、案内対象交差点とは、右左折等の進路変更が必要であり、ナビゲーションが案内の対象とする交差点や分岐点を指す。   In a second aspect based on the first aspect, the degree of necessity calculation unit is configured such that the distance between the guidance target intersection and the intersection just before the guidance target intersection and / or the guidance target intersection and the guidance target intersection. An intersection approach degree calculating unit that calculates an approach degree may be included according to the distance from the one intersection on the back side, and the necessary degree may be calculated based on the approach degree calculated by the intersection approach degree calculating unit. . Here, the guidance target intersection refers to an intersection or a branch point that needs to be changed such as a right or left turn, and navigation is a guidance target.

第3の発明は、上記第1の発明において、必要度算出部は、案内対象交差点の形状の複雑さを示す複雑度を算出する複雑度算出部を含み、複雑度算出部によって算出された複雑度に基づいて必要度を算出してもよい。   In a third aspect based on the first aspect, the necessity calculation unit includes a complexity calculation unit that calculates a complexity indicating the complexity of the shape of the guidance target intersection, and the complexity calculated by the complexity calculation unit The necessary degree may be calculated based on the degree.

第4の発明は、上記第3の発明において、複雑度算出部は、案内対象交差点に接続する道路数に基づいて複雑度を算出してもよい。   In a fourth aspect based on the third aspect, the complexity calculating unit may calculate the complexity based on the number of roads connected to the guidance target intersection.

第5の発明は、上記第3または4の発明において、複雑度算出部は、自車が現在走行している道路と、案内対象交差点における自車が進むべき道路とのなす角度に基づいて複雑度を算出しもよい。   In a fifth aspect based on the third or fourth aspect, the complexity calculation unit is configured to perform a complex operation based on an angle formed between a road on which the vehicle is currently traveling and a road on which the vehicle is to travel at a guidance target intersection. The degree may be calculated.

第6の発明は、上記第1の発明において、必要度算出部は、実写画像における車両の前方方向の障害物による遮蔽度を算出する遮蔽度算出部を含み、遮蔽度算出部によって算出された遮蔽度に基づいて必要度を算出してもよい。   In a sixth aspect based on the first aspect, the necessity calculation unit includes a shielding degree calculation unit that calculates a shielding degree by an obstacle in the front direction of the vehicle in the photographed image, and is calculated by the shielding degree calculation unit. The degree of necessity may be calculated based on the degree of shielding.

第7の発明は、上記第6の発明において、遮蔽度算出部は、実写画像において、案内対象交差点が表示されている領域である交差点領域のうち、障害物と重なる領域の占める割合を、遮蔽度として算出してもよい。   In a seventh aspect based on the sixth aspect, the shielding degree calculation unit masks a ratio of an area overlapping the obstacle in the intersection area, which is an area where the guidance target intersection is displayed, in the photographed image. It may be calculated as a degree.

第8の発明は、上記第1の発明において、必要度算出部は、実写画像において、案内対象交差点が表示されている領域である交差点領域の全てまたは一部が含まれているか否かを判定する案内対象交差点判定部を含み、案内対象交差点判定部の判定結果に基づいて必要度を算出してもよい。   In an eighth aspect based on the first aspect, the necessity calculation unit determines whether or not the photographed image includes all or part of an intersection area that is an area where the guidance target intersection is displayed. The guidance target intersection determination unit may be included, and the degree of necessity may be calculated based on the determination result of the guidance target intersection determination unit.

第9の発明は、上記第1の発明において、必要度算出部は、自車の現在位置から、案内対象交差点までの距離を算出する距離算出部を含み、距離算出部によって算出された距離に基づいて必要度を算出してもよい。   In a ninth aspect based on the first aspect, the necessity calculation unit includes a distance calculation unit that calculates a distance from the current position of the host vehicle to the guidance target intersection, and calculates the distance calculated by the distance calculation unit. The degree of necessity may be calculated based on this.

第10の発明は、上記第1の発明において、必要度算出部は、案内対象交差点の周辺に当該案内対象交差点の目印となる案内対象物が存在するか否かを判定する案内対象物判定部を含み、案内対象物判定部の判定結果に基づいて必要度を算出してもよい。   In a tenth aspect based on the first aspect, the necessity calculation unit determines whether or not there is a guidance object that serves as a mark of the guidance target intersection around the guidance target intersection. And the degree of necessity may be calculated based on the determination result of the guidance object determination unit.

第11の発明は、上記第10の発明において、実写案内生成部は、案内対象物判定部によって案内対象交差点の周辺に案内対象物が存在すると判定された場合に、当該案内対象物を示す画像を生成し、当該画像を実写画像に重畳して実写案内画像として生成するランドマーク案内生成部を含む。   In an eleventh aspect based on the tenth aspect, the live-action guidance generating unit is an image showing the guidance target object when the guidance target object determining unit determines that there is a guidance target object around the guidance target intersection. And a landmark guide generation unit that generates the live action guide image by superimposing the image on the live action image.

本発明の目的は、以下のステップを備えたナビゲーション方法によって達成される。第12の発明は、車両の前方の様子を示す実写画像を画面に表示して経路案内を行うナビゲーション装置のためのナビゲーション方法である。ナビゲーション方法は、実写案内生成ステップと、道路形状ガイド生成ステップと、必要度算出ステップと、案内制御ステップとを備える。実写案内生成ステップは、実写画像を用いて実写案内画像を生成する。道路形状ガイド生成ステップと、実写案内画像に表示されている道路の形状を示す道路形状ガイドを生成する。必要度算出ステップは、道路形状ガイド画像の表示の必要性の度合いを示す必要度を算出する。案内制御ステップは、必要度算出ステップにおいて算出された必要度に基づいて、実写案内生成ステップにおいて生成された実写案内画像に、道路形状ガイド生成部において生成された道路形状ガイド画像を重畳表示する。   The object of the present invention is achieved by a navigation method comprising the following steps. A twelfth aspect of the present invention is a navigation method for a navigation apparatus that performs route guidance by displaying a live-action image showing a state in front of a vehicle on a screen. The navigation method includes a live-action guide generation step, a road shape guide generation step, a necessity calculation step, and a guidance control step. In the live-action guide generation step, a real-life guide image is generated using the live-action image. A road shape guide generation step and a road shape guide indicating the shape of the road displayed in the live-action guide image are generated. In the necessity calculation step, a necessity indicating the degree of necessity of displaying the road shape guide image is calculated. The guidance control step superimposes and displays the road shape guide image generated in the road shape guide generation unit on the live-action guide image generated in the live-action guide generation step based on the necessity calculated in the necessity calculation step.

本発明の目的は、以下のステップを備えたナビゲーションプログラムによって達成される。第13の発明は、車両の前方の様子を示す実写画像を画面に表示して経路案内を行うナビゲーション装置のためのナビゲーションプログラムある。ナビゲーション装置のコンピュータに、実写案内生成ステップと、道路形状ガイド生成ステップと、必要度算出ステップと、案内制御ステップとを実行させる。実写案内生成ステップは、実写画像を用いて実写案内画像を生成する。道路形状ガイド生成ステップと、実写案内画像に表示されている道路の形状を示す道路形状ガイドを生成する。必要度算出ステップは、道路形状ガイド画像の表示の必要性の度合いを示す必要度を算出する。案内制御ステップは、必要度算出ステップにおいて算出された必要度に基づいて、実写案内生成ステップにおいて生成された実写案内画像に、道路形状ガイド生成部において生成された道路形状ガイド画像を重畳表示する。   The object of the present invention is achieved by a navigation program comprising the following steps. A thirteenth aspect of the present invention is a navigation program for a navigation apparatus that displays a live-action image showing a state in front of a vehicle on a screen and performs route guidance. A computer of the navigation apparatus is caused to execute a live-action guide generation step, a road shape guide generation step, a necessity calculation step, and a guidance control step. In the live-action guide generation step, a real-life guide image is generated using the live-action image. A road shape guide generation step and a road shape guide indicating the shape of the road displayed in the live-action guide image are generated. In the necessity calculation step, a necessity indicating the degree of necessity of displaying the road shape guide image is calculated. The guidance control step superimposes and displays the road shape guide image generated in the road shape guide generation unit on the live-action guide image generated in the live-action guide generation step based on the necessity calculated in the necessity calculation step.

本発明によれば、上記説明から明らかなように、車両の前方の様子を示す実写画像に、道路の形状を示す道路形状ガイド画像を重畳表示する必要性の度合いを判定し、その必要性が高いときにのみ当該道路形状ガイド画像を表示することができる。よって、画面の視認性を損なうことなく、適切に道路形状ガイドを表示することができる。   According to the present invention, as is apparent from the above description, the degree of necessity of displaying the road shape guide image indicating the shape of the road in a superimposed manner on the live-action image indicating the state in front of the vehicle is determined. The road shape guide image can be displayed only when it is high. Therefore, a road shape guide can be appropriately displayed without impairing the visibility of the screen.

(第1の実施形態)
図1を参照して、本発明における実施形態に係るナビゲーション装置100について説明する。なお、本発明について、以下の実施形態を添付の図面を用いて説明するが、これは、例示を目的としており、本発明がこれらに限定されることを意図しない。図1は、本実施形態に係るナビゲーション装置の構成を示す機能ブロック図である。なお、各図面において、本発明に関係のない構成要素は省略している。
(First embodiment)
A navigation apparatus 100 according to an embodiment of the present invention will be described with reference to FIG. In addition, although the following embodiment is described using attached drawing about this invention, this is for the purpose of illustration and this invention is not intended to be limited to these. FIG. 1 is a functional block diagram showing the configuration of the navigation device according to the present embodiment. In each drawing, components not related to the present invention are omitted.

図1において、ナビゲーション装置100は、画像取得部1、測位部2、地図DB3、操作入力部4、表示部5、および制御部6を備える。   In FIG. 1, the navigation device 100 includes an image acquisition unit 1, a positioning unit 2, a map DB 3, an operation input unit 4, a display unit 5, and a control unit 6.

画像取得部1は、例えばCCD(Charge Coupled Device)またはCMOS(Complementary Metal−Oxide Semiconductor)などを利用したカメラで撮像された画像を取得する。画像を取得するカメラは、車両天井部、車両先端部またはルームミラー背面などの場所に設置されて、少なくとも、車両前方方向を撮像する。なお、車両前方方向に加えて、車両の左右方向や後方方向などの前方方向以外の車両外部を撮像するものでも構わない。なお、画像取得部1によって取得される画像は、動画像、つまり映像であってもよい。   The image acquisition unit 1 acquires an image captured by a camera using, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor). A camera that acquires an image is installed at a location such as a vehicle ceiling, a vehicle tip, or a rear surface of a room mirror, and images at least the vehicle front direction. In addition to the vehicle front direction, an image of the outside of the vehicle other than the front direction such as the left and right direction and the rear direction of the vehicle may be used. The image acquired by the image acquisition unit 1 may be a moving image, that is, a video.

測位部2は、車両の現在位置(例えば、緯度、経度および高度)、速度、および方位を測定する。例えば、測位部2は、GNSS(Global Navigation Satellite System)受信機、車速センサ、およびジャイロセンサなどの測位センサである。GNSS受信機は、例えばGPS(Global Positioning System)受信機であり、衛星からの電波を受信し、それを復調することで受信機の現在位置を測定する。   The positioning unit 2 measures the current position (for example, latitude, longitude, and altitude), speed, and direction of the vehicle. For example, the positioning unit 2 is a positioning sensor such as a GNSS (Global Navigation Satellite System) receiver, a vehicle speed sensor, and a gyro sensor. The GNSS receiver is a GPS (Global Positioning System) receiver, for example, and receives a radio wave from a satellite and demodulates it to measure the current position of the receiver.

地図DB(Data Base)3は、例えばHDD(Hard Disc Drive)またはDVD(Digital Versatile Disc)などで構成される。地図DB3には、道路の形状データおよび交差点の位置データなどの地図情報が予め格納されている。ただし本発明はこれに限らず、地図DB3は、図示しない地図情報取得手段を含み、地図情報は、図示しない通信手段(例えば、携帯電話)を通じて、インターネット等のネットワーク上にあるウェブサイト内のサーバ等から適宜ダウンロードして地図DB3に格納される構成であってもよい。また、取得された地図情報を用いて地図DB3に予め格納されている地図情報の一部もしくは全部を更新するようにしてもよい。   The map DB (Data Base) 3 is composed of, for example, an HDD (Hard Disc Drive) or a DVD (Digital Versatile Disc). The map DB 3 stores map information such as road shape data and intersection position data in advance. However, the present invention is not limited to this, and the map DB 3 includes a map information acquisition unit (not shown), and the map information is transmitted to a server in a website on a network such as the Internet through a communication unit (for example, a mobile phone) (not shown). For example, the map DB 3 may be downloaded as appropriate from the above and stored in the map DB 3. Moreover, you may make it update part or all of the map information previously stored in map DB3 using the acquired map information.

ここで、図2A〜図2Cを参照して、地図DB3に格納される地図情報について説明する。地図DB3は、例えばノードデータ、補間ノードデータ、およびリンクデータなどを格納している。なお、図2A〜図2Cは、地図DB3に格納されている地図情報のうち、本実施形態に関連する地図情報の一部を抜粋した地図情報の一例を示す図である。   Here, with reference to FIG. 2A-FIG. 2C, the map information stored in map DB3 is demonstrated. The map DB 3 stores, for example, node data, interpolation node data, link data, and the like. 2A to 2C are diagrams showing examples of map information extracted from a part of the map information related to the present embodiment, among the map information stored in the map DB 3.

図2Aは、交差点や合流地点など複数の方向に道路が分岐する地点(ノード)に関するノードデータである。ノードデータは、ノード毎に、緯度および経度などの位置情報、当該ノードに接続するリンクの数、およびリンクのIDから構成されている。図2Bは、リンク上に存在し、リンクが直線状でない場合など、リンクの形状を表現するための曲折点を示す補間ノードデータである。補間ノードデータは、補間ノード毎に、緯度および経度などの位置情報、および当該補間ノードを示す存在リンクIDから構成される。図2Cは、ノードとノードを結ぶ道路を示すリンクデータである。リンクデータは、リンク毎に、リンクの端点である始点ノードおよび終点ノード、リンクの長さ(単位は、例えばメートルやキロメートルなど)、一般道路や高速道路などを示す道路種別、道路幅、上述の補間ノードの数、および当該補間ノードを示すIDから構成されている。なお、リンクデータには、車線数または通行規制の情報が含まれていてもよい。   FIG. 2A is node data regarding a point (node) where a road branches in a plurality of directions such as an intersection or a junction. The node data includes position information such as latitude and longitude, the number of links connected to the node, and the link ID for each node. FIG. 2B is interpolation node data indicating bending points for expressing the shape of the link, such as when the link exists and is not linear. Interpolation node data is composed of position information such as latitude and longitude and a presence link ID indicating the interpolation node for each interpolation node. FIG. 2C shows link data indicating a road connecting nodes. The link data includes, for each link, a start node and an end node that are end points of the link, a link length (for example, a meter or a kilometer), a road type indicating a general road or a highway, a road width, the above-mentioned It consists of the number of interpolation nodes and an ID indicating the interpolation node. The link data may include information on the number of lanes or traffic restrictions.

次に、図3を参照して、ノードデータ、補間ノードデータ、およびリンクデータを用いて表される地図の一例について説明する。図3において、ノード(Node15)は、3つのリンクと接続し、さらに、リンクL6で別のノード(Node13)と結ばれている。また、リンクL6には、リンクの形状を形成する補間ノード(CN8およびCN9)が存在する。   Next, an example of a map represented using node data, interpolation node data, and link data will be described with reference to FIG. In FIG. 3, the node (Node 15) is connected to three links, and is further connected to another node (Node 13) by a link L6. The link L6 includes interpolation nodes (CN8 and CN9) that form the shape of the link.

操作入力部4は、例えばリモートコントローラー、タッチパネル、音声入力用のマイクと音声認識エンジンなどで構成され、ユーザの指示を受け付ける。ユーザによって入力される指示は、例えば目的地の設定、探索経路の選択、経路案内の開始、画面表示の切替などである。   The operation input unit 4 includes, for example, a remote controller, a touch panel, a voice input microphone and a voice recognition engine, and receives a user instruction. The instruction input by the user includes, for example, setting of a destination, selection of a searched route, start of route guidance, switching of screen display, and the like.

表示部5は、例えばディスプレイで構成され、ユーザに対して情報を表示する。具体的には、目的地への案内を示す案内画像を表示する。表示部5は、例えば後述する地図案内制御部9で生成される地図情報を用いた案内画像および/または後述する実写案内生成部11で生成される実写画像を用いた案内画像を表示する。   The display unit 5 is configured by a display, for example, and displays information to the user. Specifically, a guidance image indicating guidance to the destination is displayed. The display unit 5 displays, for example, a guide image using map information generated by the map guidance control unit 9 described later and / or a guide image using a live-action image generated by the live-action guide generation unit 11 described later.

制御部6は、例えばRAM(Random Access Memory)およびROM(Read Only Memory)などを備えるCPU(Central Processing Unit)で構成される。また、制御部6は、自車位置判定部7、経路探索部8、案内制御部9、地図案内生成部10、実写案内生成部11、道路形状ガイド生成部12および必要度算出部13を含んでいる。制御部6は、ナビゲーション装置全体の動作等を制御する。   The control unit 6 includes, for example, a CPU (Central Processing Unit) including a RAM (Random Access Memory) and a ROM (Read Only Memory). The control unit 6 includes a host vehicle position determination unit 7, a route search unit 8, a guidance control unit 9, a map guidance generation unit 10, a live-action guidance generation unit 11, a road shape guide generation unit 12, and a necessary degree calculation unit 13. It is out. The control unit 6 controls the operation of the entire navigation device.

自車位置判定部7は、測位部2の各種類の測位センサによって測定された車両の現在位置(例えば、緯度、経度および高度)、速度、および方位などの車両情報を用いて地図情報と照合を行い、自車位置を判定する。   The own vehicle position determination unit 7 collates with map information using vehicle information such as the current position (for example, latitude, longitude and altitude), speed, and direction of the vehicle measured by each type of positioning sensor of the positioning unit 2. To determine the vehicle position.

経路探索部8は、操作入力部4から入力された目的地に関する情報、自車位置判定部7によって判定された自車位置、および地図DB3に格納される地図情報などを参照して、現在位置から目的地に至る最適経路を探索する。   The route search unit 8 refers to the information on the destination input from the operation input unit 4, the vehicle position determined by the vehicle position determination unit 7, the map information stored in the map DB 3, and the like. Search for the optimal route from the destination to the destination.

案内制御部9は、自車位置判定部7が判定した自車位置、経路探索部8で探索された案内経路、および地図DB3に格納されている地図情報を参照して、車両の現在位置から次に通過する案内対象交差点までの距離を算出する。また、案内制御部9は、算出された車両の現在位置から次に通過する案内対象交差点までの距離に基づいて、地図案内画像または実写案内画像のどちらかを表示部5に表示させるかを制御する。案内制御部9は、算出された距離が所定の距離(以下、案内モード切替距離D1と称す)に到達していない場合には、後述する地図案内生成部10によって生成される地図情報を用いた案内画像を表示して案内を行う案内モード(以下、地図案内モードと称す)に設定する。一方、案内制御部9は、算出された距離が案内モード切替距離D1以下に到達した場合には、後述する実写案内生成部11によって生成される実写画像を用いた案内画像を表示して案内を行う案内モード(以下、実写案内モード)に設定する。本実施例では、案内モードを切替えるとして説明するが、実写案内モードで常に案内を行うようにしてもよい。   The guidance control unit 9 refers to the vehicle position determined by the vehicle position determination unit 7, the guidance route searched by the route search unit 8, and the map information stored in the map DB 3, from the current position of the vehicle. The distance to the next guidance target intersection to be passed is calculated. Further, the guidance control unit 9 controls whether to display either the map guidance image or the live-action guidance image on the display unit 5 based on the calculated distance from the current position of the vehicle to the next intersection to be guided. To do. When the calculated distance has not reached a predetermined distance (hereinafter referred to as a guidance mode switching distance D1), the guidance control unit 9 uses map information generated by the map guidance generation unit 10 described later. A guidance mode (hereinafter referred to as a map guidance mode) in which guidance images are displayed for guidance is set. On the other hand, when the calculated distance reaches the guide mode switching distance D1 or less, the guidance control unit 9 displays a guidance image using a live-action image generated by the real-life guide generation unit 11 to be described later for guidance. The guidance mode to be performed (hereinafter referred to as a live-action guidance mode) is set. In this embodiment, the guidance mode is described as being switched, but guidance may always be performed in the live-action guidance mode.

また、案内制御部9は、実写案内モードにおいて、後述の画像取得部1によって取得された実写画像の道路の形状を示す道路形状ガイド画像を実写案内画像に重畳表示するか否かの決定を行う。道路形状ガイド画像を重畳表示するか否かの決定は、後述の必要度算出部13で算出される必要度に応じて行う。なお、案内制御部9は、実写案内モードにおいて、実写案内画像に道路形状ガイド画像を重畳表示するモード(以下、実写案内モードAと称す)または実写案内画像に道路形状ガイド画像を重畳表示しないモード(以下、実写案内モードBと称す)に制御する。   Further, the guidance control unit 9 determines whether or not to superimpose and display a road shape guide image indicating the shape of the road of the live-action image acquired by the image acquisition unit 1 described later in the live-action guide mode. . The determination as to whether or not to display the road shape guide image in a superimposed manner is made according to the degree of necessity calculated by the degree-of-necessity calculation unit 13 described later. The guidance control unit 9 is a mode for superimposing and displaying a road shape guide image on a live-action guidance image (hereinafter referred to as a real-life guidance mode A) or a mode in which a road shape guide image is not superimposed and displayed on a real-life guidance image in the real-life guidance mode. (Hereinafter referred to as a live-action guidance mode B).

地図案内生成部10は、地図DB3に格納される地図情報を用いて所定領域の案内画像(以下、地図案内画像と称す)を生成する。ここで、所定領域とは、表示部5の表示画面に表示できる領域である。さらに、地図案内生成部10は、地図画像上において、経路探索部8で探索された経路の表示色を他の道路と異なる色に設定する。また、探索された経路は、他の道路より線幅を太く表示されるように設定されてもよい。   The map guidance generation unit 10 generates a guide image of a predetermined area (hereinafter referred to as a map guide image) using map information stored in the map DB 3. Here, the predetermined area is an area that can be displayed on the display screen of the display unit 5. Furthermore, the map guidance generation unit 10 sets the display color of the route searched by the route search unit 8 to a color different from other roads on the map image. The searched route may be set so that the line width is displayed wider than that of other roads.

実写案内生成部11は、経路探索部8で探索された案内経路、測位部2が検出した車両の現在位置、および地図DB3に格納される地図情報である道路形状データなど(例えば、ノードデータ、補間ノードデータ、およびリンクデータ)に基づいて、案内対象交差点での車両の進むべき方向を示す矢印形状の案内図形を作成する。さらに、実写案内生成部11は、画像取得部1によって取得された実写画像に案内図形を重畳した案内画像(以下、実写案内画像と称す)を生成する。   The live-action guide generation unit 11 includes a guide route searched by the route search unit 8, a current position of the vehicle detected by the positioning unit 2, road shape data that is map information stored in the map DB 3, and the like (for example, node data, Based on the interpolation node data and the link data), an arrow-shaped guide graphic indicating the direction in which the vehicle should travel at the guidance target intersection is created. Further, the live-action guidance generating unit 11 generates a guide image (hereinafter referred to as a live-action guide image) in which a guide graphic is superimposed on the real-shot image acquired by the image acquisition unit 1.

ここで、図4〜図8を参照して、実写案内生成部11における案内図形および実写案内画像の生成方法について説明する。なお、図4は、実写案内生成部11における案内図形および実写案内画像を生成する動作の流れを示すフローチャートである。   Here, with reference to FIG. 4 to FIG. 8, a method for generating a guide graphic and a photograph guide image in the photograph guide generation unit 11 will be described. FIG. 4 is a flowchart showing a flow of operations for generating a guide graphic and a live-action guide image in the live-action guide generating unit 11.

まず、実写案内生成部11は、地図DB3に格納される地図情報による3次元地図、および画像取得部1によって取得された車両前方の様子を示す実写画像の撮像方向と撮像範囲を定めるパラメータであるカメラ位置、カメラ角(水平角、仰角)、焦点距離、および画像サイズに基づいて、3次元地図におけるカメラ視野空間を求める(ステップS1)。ここで、3次元地図とは、緯度、経度、および高度の位置情報で表される地図である。また、撮像方向と撮像範囲を定めるパラメータは、上記のものに限るものではなく、撮像方向と撮像範囲が定まるものであれば、画角などの他のパラメータを用いて、換算されてもよい。また、3次元地図から高度情報を除いた2次元地図を用いてもよい。   First, the live-action guidance generating unit 11 is a parameter that determines the imaging direction and imaging range of a real-time image that shows a three-dimensional map based on map information stored in the map DB 3 and the front of the vehicle acquired by the image acquisition unit 1. Based on the camera position, camera angle (horizontal angle, elevation angle), focal length, and image size, a camera view space in the three-dimensional map is obtained (step S1). Here, the three-dimensional map is a map represented by latitude, longitude, and altitude position information. Further, the parameters for determining the imaging direction and the imaging range are not limited to those described above, and may be converted using other parameters such as the angle of view as long as the imaging direction and the imaging range are determined. A two-dimensional map obtained by removing altitude information from a three-dimensional map may be used.

また、ステップS1におけるカメラ視野空間は、図5に示すような方法で求められる。なお、図5は、カメラ視野空間を説明するための図である。まず、図5において、視点E(カメラ位置)からカメラ角方向に焦点距離fだけ離れた点Fを求める。さらに、点Fに表示部5の表示画面の縦横比に相当する横x縦yの平面(カメラ画面)が視点Eと点Fを結んだベクトルに垂直になるように設定される。次に、視点Eからカメラ画面の4隅の点へと結ぶ半直線によって得られる3次元空間が算出される。また、3次元空間は理論上無限遠まで延びるが、視点Eから適当な距離だけ離れたところで打ち切り、当該空間を視野空間とする。   Further, the camera visual field space in step S1 is obtained by a method as shown in FIG. FIG. 5 is a diagram for explaining the camera visual field space. First, in FIG. 5, a point F separated from the viewpoint E (camera position) by the focal length f in the camera angle direction is obtained. Furthermore, a horizontal x vertical y plane (camera screen) corresponding to the aspect ratio of the display screen of the display unit 5 is set to be perpendicular to the vector connecting the viewpoint E and the point F. Next, a three-dimensional space obtained by a half line connecting from the viewpoint E to the four corner points of the camera screen is calculated. The three-dimensional space theoretically extends to infinity, but is censored at an appropriate distance from the viewpoint E, and the space is set as the visual field space.

次に、ステップS2において、実写案内生成部11は、3次元地図において、上述の方法で求められるカメラ視野空間内に存在する道路を検出する(以下、道路検出処理と称す)。なお、図6は、経路探索部8により探索された案内経路上の案内対象交差点を含む3次元地図およびカメラ視野空間を車両進行方向に対してその上方向からの様子を示す図である。具体的には、図6の例のように、斜線で示した領域がカメラ視野空間内に存在する道路として検出される。さらに、道路検出処理において、上述した地図DB3に格納されるノードデータ、補間ノードデータ、およびリンクデータに基づいて、検出された道路の形状データや道路幅などが抽出される。なお、カメラ視野空間内の道路は、道路上の白線を公知の画像認識技術により検知した結果を基に検出するようにしてもかまわない。   Next, in step S2, the live-action guide generation unit 11 detects a road existing in the camera visual field space obtained by the above-described method in the three-dimensional map (hereinafter referred to as a road detection process). FIG. 6 is a diagram illustrating a three-dimensional map including the guidance target intersection on the guidance route searched by the route search unit 8 and the camera field of view from above the vehicle traveling direction. Specifically, as shown in the example of FIG. 6, a region indicated by diagonal lines is detected as a road that exists in the camera visual field space. Furthermore, in the road detection process, the detected road shape data, road width, and the like are extracted based on the node data, interpolation node data, and link data stored in the map DB 3 described above. The road in the camera view space may be detected based on the result of detecting a white line on the road by a known image recognition technique.

次に、ステップS3において、実写案内生成部11は、道路検出処理により検出された道路のうち、経路探索部8によって探索された案内経路に該当する道路の形状データや道路幅などに基づいて、案内対象交差点での車両の進むべき方向を示す案内図形(矢印)を作成する。なお、図7は、案内図形の形状および配置位置の求め方を説明するための図である。続いて、図7に示す例のように、作成された案内図形は、カメラ視野空間内に存在する道路のうち、案内経路に該当する道路に配置される。なお、案内図形は、図7に示す矢印形状に限らず、例えば単なる折れ線であってもよい。   Next, in step S3, the live-action guide generation unit 11 is based on the road shape data and road width corresponding to the guide route searched by the route search unit 8 among the roads detected by the road detection process. A guidance figure (arrow) indicating the direction in which the vehicle should travel at the guidance target intersection is created. In addition, FIG. 7 is a figure for demonstrating how to obtain | require the shape and arrangement position of a guide figure. Subsequently, as in the example illustrated in FIG. 7, the created guide graphic is arranged on a road corresponding to the guide route among roads existing in the camera view space. Note that the guide graphic is not limited to the arrow shape shown in FIG. 7, and may be a simple broken line, for example.

次に、ステップS4において、実写案内生成部11は、図5に示すカメラ画面を投影面として上記配置された案内図形を透視投影する(投影処理)。これにより、案内図形が投影される投影面が画像取得部1によって取得されるカメラ画面と一致するため、案内図形は、実写画像に表示されている道路(案内経路)上に重畳される(図8参照)。なお、実写画像に案内図形を重畳する際に、白線検知、道路端検知等の周知の画像認識技術を用いて、カメラで撮像された実写画像中の道路の位置を検出し、案内図形の重畳位置を補正するようにしてもよい。   Next, in step S4, the live-action guide generation unit 11 performs perspective projection of the guide graphic arranged as described above using the camera screen shown in FIG. 5 as a projection plane (projection processing). Thereby, since the projection plane on which the guide graphic is projected matches the camera screen acquired by the image acquisition unit 1, the guide graphic is superimposed on the road (guide route) displayed in the live-action image (see FIG. 8). When superimposing a guide graphic on a live-action image, a known image recognition technique such as white line detection or road edge detection is used to detect the position of the road in the live-action image captured by the camera and superimpose the guide graphic. The position may be corrected.

道路形状ガイド生成部12は、画像取得部1によって取得された実写画像の道路の形状を示す画像(以下、道路形状ガイド画像と称す)を生成する。重畳表示するために、上述のように道路検出処理で検出された道路の形状に基づいて実写画像に重畳する道路形状ガイドの形状と位置を決定する。   The road shape guide generation unit 12 generates an image (hereinafter referred to as a road shape guide image) indicating the shape of the road of the photographed image acquired by the image acquisition unit 1. In order to superimpose and display, the shape and position of the road shape guide to be superimposed on the live-action image are determined based on the shape of the road detected in the road detection process as described above.

具体的には、道路形状ガイド生成部12は、図9の例のように、道路検出処理で検出された道路の両端の道路端に沿って線状(例えば、太実線)で示される道路形状ガイド画像を生成する。道路端の位置は、例えば、地図DB3に格納されている道路幅の情報に基づいて算出しても良いし、道路端検知等の周知の画像認識技術を用いて実写画像から検出しても良い。なお、道路形状ガイドの位置は、上述した道路端上に限らず、道路形状が分かるものであればどこに配置してもかまわない。例えば走行レーン上に配置してもよいし、道路形状に沿って適当な位置に配置されていてもよい。   Specifically, as shown in the example of FIG. 9, the road shape guide generation unit 12 is a road shape indicated by a line (for example, a thick solid line) along the road edges at both ends of the road detected by the road detection process. A guide image is generated. For example, the position of the road edge may be calculated based on road width information stored in the map DB 3 or may be detected from a live-action image using a known image recognition technique such as road edge detection. . The position of the road shape guide is not limited to the position on the road edge described above, and may be arranged anywhere as long as the road shape is known. For example, you may arrange | position on a driving | running lane and may be arrange | positioned in the appropriate position along the road shape.

次に、道路形状ガイド生成部12は、上述の図5に示すカメラ画面を投影面として道路形状ガイドの投影処理を行う。これにより、道路形状ガイドが投影される投影面が画像取得部1によって取得されるカメラ画面と一致するため、道路形状ガイドは、実写画像に表示されている道路(案内経路)上に重畳される(図10参照)。   Next, the road shape guide generation unit 12 performs a road shape guide projection process using the camera screen shown in FIG. 5 as a projection plane. Thereby, since the projection surface on which the road shape guide is projected matches the camera screen acquired by the image acquisition unit 1, the road shape guide is superimposed on the road (guide route) displayed in the live-action image. (See FIG. 10).

以上のように、実写案内画像に道路形状ガイド画像を重畳して表示することにより、ユーザは案内交差点付近の道路形状を容易に認識することができる。特に、複雑性の高い案内対象交差点において、この効果は有効である。例えば、案内対象交差点のすぐ手前またはすぐ奥に、もう一つ別の交差点がある場合であっても、ユーザは曲がるべき案内対象交差点に近接して他の交差点が存在している状況を認識できることに加え、自車両が曲がるべき交差点(案内対象交差点)は手前にある交差点か奥にある交差点かを容易に判断することができるため、どちらを曲がるべきか迷うことがなくなる。また、例えば5つ以上の道路が交差している複雑な交差点においても交差点形状を容易に認識できるため、車両が進むべき案内されている進路がどの道路であるかを容易に判断できる。   As described above, by displaying the road shape guide image superimposed on the live-action guide image, the user can easily recognize the road shape near the guidance intersection. In particular, this effect is effective at highly complicated guidance target intersections. For example, even if there is another intersection just before or immediately behind the guidance target intersection, the user can recognize the situation where there is another intersection in the vicinity of the guidance target intersection to bend. In addition, since it is possible to easily determine whether the intersection where the own vehicle is to bend (a guidance target intersection) is an intersection in front or an intersection in the back, there is no doubt about which one to turn. In addition, for example, since the shape of the intersection can be easily recognized even at a complicated intersection where five or more roads intersect, it is possible to easily determine which road the guided route to which the vehicle should travel is.

必要度算出部13は、実写案内画像に道路の形状を示す道路形状ガイド画像を重畳表示する必要性を示す指標である必要度を算出する。道路形状ガイド画像は、交差点付近の道路形状を把握し易いというメリットがある。一方で、背景の実写映像を隠蔽してしまい交差点周辺の風景が見難くなるというデメリットがある。したがって、道路形状ガイド画像を重畳表示する必要性が高い場合にのみ道路形状ガイド画像を重畳表示するようにする。   The necessity calculation unit 13 calculates a necessity that is an index indicating the necessity of superimposing and displaying a road shape guide image indicating the shape of the road on the live-action guide image. The road shape guide image has an advantage that it is easy to grasp the road shape near the intersection. On the other hand, there is a demerit that it hides the live-action image of the background and makes it difficult to see the scenery around the intersection. Therefore, the road shape guide image is displayed in a superimposed manner only when it is highly necessary to display the road shape guide image in a superimposed manner.

次に、必要度算出部13の具体的な動作について説明を行う。必要度算出部13は、必要度を算出するための要素として、案内対象交差点が当該交差点の前後の他の交差点との近さの度合いを示す接近度、および、案内対象交差点形状の複雑性を示す形状複雑度を算出する。   Next, a specific operation of the necessity calculation unit 13 will be described. The necessity degree calculation unit 13 calculates the degree of proximity of the guidance target intersection with other intersections before and after the intersection, and the complexity of the guidance target intersection shape as elements for calculating the necessity degree. The shape complexity shown is calculated.

案内対象交差点の前後にある交差点の案内対象交差点に対する接近度は、案内対象交差点とその前後にある交差点との距離によって決定する。例えば、案内対象交差点の前方、および、後方にある交差点のうち案内対象交差点に近い方の交差点と案内対象交差点との距離が所定距離D2(例えば、50m)以内かどうかによって、距離D2以内の場合には接近度を高い値(例えば、接近度1)に設定し、距離D2以上の場合には接近度を低い値(例えば、接近度0)に設定する。なお、距離D2を算出する際に必要な交差点の位置情報は地図DB3より取得する。なお、交差点間の距離は、画像認識技術を用いて実写画像から検出しても良い。   The degree of approach of the intersection before and after the guidance target intersection to the guidance target intersection is determined by the distance between the guidance target intersection and the intersections before and after the intersection. For example, when the distance between the intersection near the guidance target intersection and the guidance target intersection among the intersections ahead and behind the guidance target intersection is within a predetermined distance D2 (for example, 50 m), is within the distance D2 Is set to a high value (for example, approach degree 1), and when the distance is D2 or more, the approach degree is set to a low value (for example, approach degree 0). In addition, the position information of the intersection required when calculating distance D2 is acquired from map DB3. Note that the distance between intersections may be detected from a photographed image using an image recognition technique.

ただし本発明はこれに限らず、接近度は、例えば、案内対象交差点とその前後にある交差点との距離に応じて、距離が近いほど接近度を高い値に設定してもかまわない。また、案内対象交差点に近接する交差点が案内対象交差点の手前にあるか奥によって接近度の値を変えてもよい。例えば、案内経路の手前にある道路ほど実写画像上で大きく映りユーザが案内経路と間違えてしまう可能性が高いことから、案内対象交差点からの距離がほぼ同一であるときに、案内対象交差点の手前にある交差点の接近度を奥にある交差点より高い値に設定してもよい。   However, the present invention is not limited to this, and the approach degree may be set to a higher value as the distance is shorter, for example, according to the distance between the guidance target intersection and the intersections before and after the guide target intersection. Further, the value of the approach degree may be changed depending on whether or not an intersection near the guidance target intersection is in front of the guidance target intersection. For example, the road ahead of the guide route is larger in the live-action image and the user is more likely to mistake the guide route. Therefore, when the distance from the guide target intersection is almost the same, You may set the approach degree of the intersection in a higher value than the intersection in the back.

形状複雑度は、案内対象交差点に接続している道路数(接続道路数)および案内対象交差点において交差している道路の角度(接続角度)に基づいて決定する。接続道路数は、地図DB3を参照して案内対象交差点上のノードに接続しているリンク数を抽出することにより求める。なお、接続道路数および接続角度は、画像認識技術を用いて実写画像から検出しても良い。図11Aに示すような十字路の交差点では接続道路数は4となり、図11Bに示すような5つの道路からなる交差点では接続道路数は5となる。必要度算出部13は、形状複雑度に関して所定の条件C1(例えば、案内対象交差点に接続している道路数が5以上)を満たした場合には、形状複雑度を高い値(例えば、1)に設定する。   The shape complexity is determined based on the number of roads connected to the guidance target intersection (number of connected roads) and the angle of the road intersecting at the guidance target intersection (connection angle). The number of connected roads is obtained by referring to the map DB 3 and extracting the number of links connected to nodes on the guidance target intersection. Note that the number of connection roads and the connection angle may be detected from a photographed image using an image recognition technique. The number of connected roads is 4 at the intersection of the cross road as shown in FIG. 11A, and the number of connected roads is 5 at the intersection of 5 roads as shown in FIG. 11B. The necessary degree calculation unit 13 increases the shape complexity (for example, 1) when a predetermined condition C1 (for example, the number of roads connected to the guidance target intersection is 5 or more) with respect to the shape complexity is satisfied. Set to.

接続角度は、図12に示すように、自車が進入する道路のリンクと案内対象交差点に接続する他の道路のリンクとの角度とする。必要度算出部13は、接続角度が、直角方向である90度、270度、および、直進方向である180度から乖離している道路がある場合には、一般的な十字路等とは形状が異なる形状が複雑な交差点であるとみなす。言い換えると、必要度算出部13は、形状複雑度に関して所定の条件C2(例えば、接続角度が80〜100度、170〜190度、260〜280度の範囲内にあるリンクが存在する)を満たした場合には、形状複雑度を高い値(例えば、1)に設定する。   As shown in FIG. 12, the connection angle is an angle between a link of a road on which the host vehicle enters and a link of another road connected to the guidance target intersection. When there is a road whose connection angle is deviated from 90 degrees, 270 degrees which are perpendicular directions, and 180 degrees which are straight directions, the necessity degree calculation unit 13 is shaped like a general cross road or the like. Consider different shapes as complex intersections. In other words, the necessity calculation unit 13 satisfies a predetermined condition C2 regarding the shape complexity (for example, there is a link having a connection angle in the range of 80 to 100 degrees, 170 to 190 degrees, and 260 to 280 degrees). If it is, the shape complexity is set to a high value (for example, 1).

以上のことから、形状複雑度は、接続道路数に関する条件C1、または、接続角度に関する条件C2のいずれかを満たしたときに高い値(例えば、形状複雑度1)に設定され、それ以外の場合には低い値(例えば、形状複雑度0)に設定される。   From the above, the shape complexity is set to a high value (for example, shape complexity 1) when either the condition C1 related to the number of connected roads or the condition C2 related to the connection angle is satisfied, and in other cases Is set to a low value (for example, shape complexity 0).

必要度算出部13は、案内対象交差点の前後にある交差点の案内対象交差点に対する接近度および形状複雑度に基づいて、必要度を算出する。例えば、案内対象交差点の前後にある交差点の案内対象交差点に対する接近度と形状複雑度の大きい方の値を必要度として設定する。具体的には、案内対象交差点の前後にある交差点の案内対象交差点に対する接近度が1、形状複雑度が0の場合には、必要度は大きい方の接近度の値に基づき1に設定される。その結果、案内制御部9は、必要度が所定の閾値T(例えば、0.5)より大きい場合には道路形状ガイド画像を重畳表示し、所定の閾値以下の場合には道路形状ガイド画像を重畳表示しない。   The necessity degree calculation unit 13 calculates the degree of necessity based on the approach degree and the shape complexity of the intersections before and after the guidance target intersection with respect to the guidance target intersection. For example, a value having a larger degree of approach and shape complexity of intersections before and after the guidance target intersection with respect to the guidance target intersection is set as the necessary degree. Specifically, when the proximity of the intersection before and after the guidance target intersection is 1 with respect to the guidance target intersection and the shape complexity is 0, the necessary degree is set to 1 based on the value of the larger proximity. . As a result, the guidance control unit 9 superimposes and displays the road shape guide image when the degree of necessity is greater than a predetermined threshold T (for example, 0.5), and displays the road shape guide image when the degree of necessity is less than the predetermined threshold. Do not overlay.

次に、図13を参照して、本実施形態のナビゲーション装置100の動作の流れについて説明する。なお、図13は、本実施形態に係るナビゲーション装置100の動作の流れを示すフローチャートである。   Next, with reference to FIG. 13, the flow of operation of the navigation device 100 of the present embodiment will be described. FIG. 13 is a flowchart showing an operation flow of the navigation device 100 according to the present embodiment.

図13において、ユーザが操作入力部4から目的地を入力して、目的地が設定されたか否かを判定する(ステップS11)。判定の結果、目的地が設定されると(ステップS11でYes)、測位部2が車両の現在位置を検出して、経路探索部8は、自車位置判定部7によって判定された自車位置から目的地に至る最適経路を探索する(ステップS12)。続くステップS13において、経路案内が開始されると、測位部2は、所定の時間間隔で車両の現在位置を検出する。続いて、車両の現在位置と最適経路を照合して目的地に到着したか否かを判定する(ステップS14)。判定の結果、目的地に到着していない場合(ステップS14でNo)には、処理は、ステップS15に進む。一方、目的地に到着した場合(ステップS14でYes)には、図13の処理は、終了する。   In FIG. 13, the user inputs a destination from the operation input unit 4 and determines whether or not the destination is set (step S11). If the destination is set as a result of the determination (Yes in step S11), the positioning unit 2 detects the current position of the vehicle, and the route search unit 8 determines the vehicle position determined by the vehicle position determination unit 7. The optimum route from the destination to the destination is searched (step S12). In the subsequent step S13, when the route guidance is started, the positioning unit 2 detects the current position of the vehicle at a predetermined time interval. Subsequently, the current position of the vehicle is compared with the optimum route to determine whether or not the vehicle has arrived at the destination (step S14). As a result of the determination, if the destination has not been reached (No in step S14), the process proceeds to step S15. On the other hand, when the vehicle arrives at the destination (Yes in step S14), the process of FIG. 13 ends.

次に、ステップS15において、案内制御部9は、車両の現在位置から目的地に至る経路中に案内対象交差点が存在するか否かを検索する。検索の結果、車両の現在位置から目的地に至る経路中に案内対象交差点が存在しない場合(ステップS15でNo)には、処理は、ステップS18に進む。ステップS18において、案内制御部9は、地図案内モードに切り替えて、地図案内画像を用いて経路案内を行う。一方、車両の現在位置から目的地に至る経路中に案内対象交差点が存在する場合(ステップS15でYes)には、処理は、ステップS16に進む。続いて、ステップS16において、案内制御部9は、車両の現在位置から次に通過する案内対象交差点までの距離を算出する。なお、以降では、案内制御部9は、車両の現在位置から案内対象交差点までの距離を定期的(例えば、100msec毎)に算出するものとする。   Next, in step S15, the guidance control unit 9 searches for a guidance target intersection in the route from the current position of the vehicle to the destination. As a result of the search, when there is no guidance target intersection in the route from the current position of the vehicle to the destination (No in step S15), the process proceeds to step S18. In step S18, the guidance control unit 9 switches to the map guidance mode and performs route guidance using the map guidance image. On the other hand, when a guidance target intersection exists in the route from the current position of the vehicle to the destination (Yes in step S15), the process proceeds to step S16. Subsequently, in step S16, the guidance control unit 9 calculates the distance from the current position of the vehicle to the next intersection to be guided. In the following, it is assumed that the guidance control unit 9 periodically calculates the distance from the current position of the vehicle to the guidance target intersection (for example, every 100 msec).

次に、ステップS17において、案内制御部9は、ステップS16で算出された車両から案内対象交差点までの距離が案内モード切替距離D1(例えば、200m)以下か否かを判定する。判定の結果、案内対象交差点までの距離が案内モード切替距離D1に到達していない場合(ステップS17でNo)には、処理は、ステップS18に進む。一方、案内対象交差点までの距離が案内モード切替距離D1に到達した場合(ステップS17でYes)には、処理は、ステップS19に進む。ステップS19において、必要度算出部13は、道路形状ガイド画像を実写案内画像に重畳表示する必要性を示す必要度を算出する。   Next, in step S17, the guidance control unit 9 determines whether the distance from the vehicle calculated in step S16 to the guidance target intersection is equal to or less than a guidance mode switching distance D1 (for example, 200 m). As a result of the determination, when the distance to the guidance target intersection has not reached the guidance mode switching distance D1 (No in step S17), the process proceeds to step S18. On the other hand, when the distance to the guidance target intersection has reached the guidance mode switching distance D1 (Yes in step S17), the process proceeds to step S19. In step S <b> 19, the necessity calculation unit 13 calculates a necessity indicating the necessity of displaying the road shape guide image superimposed on the photograph guide image.

また、案内制御部9は、実写案内モードに切り替えて、画像取得部1によって取得された実写画像を用いて経路案内を行う。ここで、実写案内モードでは、上述したように案内矢印を実写画像上に重畳する処理(ステップS1〜S4)と道路形状ガイド画像を実写画像上に重畳する処理が行われ、ユーザに実写画像を用いた案内が行われる。   In addition, the guidance control unit 9 switches to the shooting guide mode and performs route guidance using the shooting image acquired by the image acquisition unit 1. Here, in the live-action guidance mode, as described above, the process of superimposing the guidance arrow on the live-action image (steps S1 to S4) and the process of superimposing the road shape guide image on the live-action image are performed, and the real-life image is displayed to the user. The guidance used is performed.

続くステップS20において、必要度算出部13は、ステップS19で算出された必要度が閾値T以上か否かを判定する。判定の結果、算出された必要度が閾値T以上のより大きい場合(ステップS20でYes)には、処理は、ステップS21に進む。ステップS21において、図14Aの例のように、案内制御部9は、案内図形とともに道路形状ガイド画像を重畳表示する実写案内モードAを表示させる。一方、算出された必要度が閾値T未満の場合(ステップS20でNo)には、処理は、ステップS22に進む。ステップS22において、図14Bの例のように、案内制御部9は、道路形状ガイド画像を表示せず案内図形のみを表示する実写案内モードBを表示させる。なお、図14Aは、実写案内モードAにおける実写案内画像、図14Bは、実写案内モードBにおける実写案内画像である。   In subsequent step S20, the necessity calculation unit 13 determines whether or not the necessity calculated in step S19 is equal to or greater than a threshold value T. As a result of the determination, when the calculated degree of necessity is larger than the threshold T or more (Yes in step S20), the process proceeds to step S21. In step S21, as in the example of FIG. 14A, the guidance control unit 9 displays a live-action guidance mode A in which a road shape guide image is superimposed and displayed together with a guidance graphic. On the other hand, if the calculated degree of necessity is less than the threshold T (No in step S20), the process proceeds to step S22. In step S22, as in the example of FIG. 14B, the guidance control unit 9 displays a live-action guidance mode B in which only a guide graphic is displayed without displaying a road shape guide image. 14A is a live-action guidance image in the live-action guidance mode A, and FIG.

以上のように、必要度算出部13によって算出された必要度に応じて道路形状ガイド画像を重畳表示するか否かを決定することにより、道路形状ガイド画像を表示するメリットが大きい場合にのみ道路形状ガイド画像を表示することが可能となる。すなわち、他の交差点が近接している交差点や複雑な形状の交差点といった難易度が高い交差点(すなわち、ユーザが間違った道路へ進んでしまいやすい交差点)においては、案内図形とともに道路形状ガイド画像を表示することにより、道路形状ガイド画像を手掛かりにして進むべき進路を把握しやすくなるという効果が得られる。一方、難易度がそれほど高くない交差点においては、道路形状ガイド画像を表示することによって得られる効果が小さいため、道路形状ガイド画像を表示しない。これにより、画面に表示される情報量を減らし、案内表示の視認性を高めることができる。   As described above, the road only when there is a great merit in displaying the road shape guide image by determining whether or not to superimpose the road shape guide image according to the necessity calculated by the necessity calculation unit 13. A shape guide image can be displayed. That is, a road shape guide image is displayed together with a guide figure at a highly difficult intersection such as an intersection that is close to another intersection or an intersection with a complicated shape (that is, an intersection where the user tends to go to the wrong road). By doing so, it is possible to obtain an effect that it is easy to grasp the course to be taken by using the road shape guide image as a clue. On the other hand, at intersections where the degree of difficulty is not so high, the road shape guide image is not displayed because the effect obtained by displaying the road shape guide image is small. Thereby, the amount of information displayed on the screen can be reduced and the visibility of the guidance display can be increased.

なお、上記の実施形態では、案内対象交差点までの距離が所定の距離以下に達した場合に、車両が進行すべき方向を示す案内図形の表示を行ったが、車両が進行すべき方向を示す案内図形の表示とともに、案内対象交差点に近づいていることを図示しない音声出力部からユーザに音声で通知してもよい。例えば、「200m先、左折です。」等の音声を出力してもよい。さらに、車両位置と案内対象交差点との距離が所定距離になった場合に、音声出力部から、例えば、「まもなく左方向です。」等の音声を出力してもよい。   In the above embodiment, when the distance to the guidance target intersection reaches a predetermined distance or less, the guide graphic indicating the direction in which the vehicle should travel is displayed. Along with the display of the guidance graphic, the user may be notified by voice from a voice output unit (not shown) that the vehicle is approaching the guidance target intersection. For example, a voice such as “200 m ahead, turn left” may be output. Further, when the distance between the vehicle position and the guidance target intersection reaches a predetermined distance, for example, a voice such as “Soon to the left” may be output from the voice output unit.

なお、上述の例では、必要度算出部13では、必要度を算出するための要素として、案内対象交差点の前後にある交差点の案内対象交差点に対する接近度および形状複雑度を用いるとしたが、これらのうちのいずれか一方のみを用いるようにしても構わないし、これらとは別の要素を考慮して必要度を算出するようにしてもかまわない。   In the above-described example, the necessity calculation unit 13 uses the approach degree and the shape complexity of the intersections before and after the guidance target intersection as elements for calculating the necessity degree. Only one of them may be used, or the degree of necessity may be calculated in consideration of other factors.

例えば、必要度算出部13は、車両の前方を撮像した実写画像において先行車両等の障害物による案内対象交差点の遮蔽度を算出し、算出された遮蔽度に基づき必要度を算出するようにしてもよい。具体的には、障害物によって前方風景が遮蔽されている場合(遮蔽度が高い場合)には、ユーザは交差点付近を視認することが困難であり、道路形状を表示する必要性が高いことから、必要度を高い値に設定する。一方、障害物による前方風景の遮蔽が少ない(隠蔽度が低い場合)には、ユーザは肉眼により交差点付近の道路形状を確認でき、道路形状ガイド画像を表示する必要性が低いことから、必要度を低い値に設定する。   For example, the necessity calculation unit 13 calculates the degree of shielding of the guidance target intersection by an obstacle such as a preceding vehicle in a live-action image captured in front of the vehicle, and calculates the degree of necessity based on the calculated degree of shielding. Also good. Specifically, when the front landscape is blocked by an obstacle (when the degree of shielding is high), it is difficult for the user to visually recognize the vicinity of the intersection, and it is highly necessary to display the road shape. Set the necessity to a high value. On the other hand, when there is little obstruction of the front scenery by the obstacle (when the degree of concealment is low), the user can confirm the road shape near the intersection with the naked eye, and the necessity of displaying the road shape guide image is low. Set to a low value.

例えば、図15を参照して、必要度算出部13が、車両の前方を撮像した実写画像において先行車両等の障害物による案内対象交差点の遮蔽度を取得する場合を説明する。   For example, with reference to FIG. 15, the case where the necessity calculation part 13 acquires the shielding degree of the guidance object intersection by obstructions, such as a preceding vehicle, in the real image which imaged the front of the vehicle is demonstrated.

まず、必要度算出部13は、車両の前方を撮像した実写画像において先行車両等の障害物を検出する。具体的には、必要度算出部13は、先行車両等の障害物が表示されている領域(以下、先行車両領域と称す)を検出する。   First, the necessity calculation unit 13 detects an obstacle such as a preceding vehicle in a live-action image obtained by imaging the front of the vehicle. Specifically, the necessity calculation unit 13 detects an area in which an obstacle such as a preceding vehicle is displayed (hereinafter referred to as a preceding vehicle area).

ここで、先行車両領域を検出する手法としては、単眼カメラやステレオカメラを用いた公知の手法があり、本実施例においては、どちらであってもよい。例えば、単眼カメラを用いた車両検出手法としては、輝度値を参照する手法(車線上の輝度値を取得して路面上の障害物を検出する手法)や、射影変換画像を利用する手法(2フレーム間で射影変換画像の差分をとって移動物体を検出する手法)、先行車両のエッジを検出する手法(水平方向と垂直方向のエッジを検出して障害物を検出する手法)等がある。また、ステレオカメラを用いた車両検出手法としては、距離画像から先行車両の輪郭を抽出する手法や、ステレオ逆射影変換を用いて高さ情報を持つ物体を検出する手法、道路平面領域を抽出して路上の障害物を検出する手法などがある。さらに、他の検出手法としては、先行車両が存在しない状態で撮影した道路画像データを位置情報と関連付けて図示しない記憶手段に記憶しておき、測位部2の測位結果に基づいて、画像取得部1によって取得された実写画像と、現在の走行位置に対応する道路画像データとの差分をとることによって先行車両を検出することもできる。   Here, as a method for detecting the preceding vehicle area, there is a known method using a monocular camera or a stereo camera, and either may be used in the present embodiment. For example, as a vehicle detection method using a monocular camera, a method of referring to a luminance value (a method of acquiring a luminance value on a lane and detecting an obstacle on a road surface), a method of using a projective transformation image (2 There are a method for detecting a moving object by taking the difference between the projective transformation images between frames, a method for detecting the edge of a preceding vehicle (a method for detecting an obstacle by detecting edges in the horizontal and vertical directions), and the like. As a vehicle detection method using a stereo camera, a method of extracting the contour of a preceding vehicle from a distance image, a method of detecting an object having height information using stereo inverse projection transformation, and a road plane region are extracted. To detect obstacles on the road. Furthermore, as another detection method, road image data taken in a state where no preceding vehicle is present is stored in a storage unit (not shown) in association with position information, and an image acquisition unit is based on the positioning result of the positioning unit 2. It is also possible to detect the preceding vehicle by taking the difference between the photographed image acquired by 1 and the road image data corresponding to the current travel position.

上述の手法により、画像取得部1によって取得された実写画像に基づいて、先行車両領域が検出される。具体的には、図15において、斜線で示す領域が検出された先行車両領域である。なお、図15は、車両の前方の様子を示す実写画像における先行車両等の障害物による遮蔽度を説明するための図である。また、必要度算出部13は、検出された先行車両領域の面積を算出し、当該面積を、車両の前方を撮像した実写画像において先行車両等の障害物による遮蔽度として取得する。なお、車両の前方を撮像した実写画像に複数の先行車両領域が存在する場合には、複数の先行車両領域の面積の総和を算出し、算出された面積を遮蔽度としてもよい。   Based on the above-described method, the preceding vehicle area is detected based on the photographed image acquired by the image acquisition unit 1. Specifically, in FIG. 15, the area indicated by the oblique lines is a preceding vehicle area. FIG. 15 is a diagram for explaining the degree of shielding by an obstacle such as a preceding vehicle in a live-action image showing a state in front of the vehicle. Moreover, the necessity calculation part 13 calculates the area of the detected preceding vehicle area | region, and acquires the said area as a shielding degree by obstructions, such as a preceding vehicle, in the real image which imaged the front of the vehicle. When a plurality of preceding vehicle areas are present in a photographed image obtained by capturing the front of the vehicle, the sum of the areas of the plurality of preceding vehicle areas may be calculated, and the calculated area may be used as the shielding degree.

また、必要度算出部13は、車両の前方を撮像した実写画像において、案内対象交差点が表示されている領域(以下、交差点領域と称す)のうち、先行車両領域と重なる領域(以下、重なり領域と称す)を検出し、交差点領域に占める重なり領域の割合を遮蔽度として取得してもよい。ここで、交差点領域とは、図16Aの例のように、案内対象交差点およびその周辺の所定範囲が含まれる点線で囲まれる領域である。また、必要度算出部13は、上述の手法により先行車両領域を検出し、交差点領域と先行車両領域との重なり領域を検出する(図16B参照)。これにより、必要度算出部13は、交差点領域に占める重なり領域の割合を遮蔽度として取得する。また、交差点領域と先行車両領域の重なり、つまり重なり領域が大きいほど、遮蔽度が大きくなる。なお、交差点領域を設定する際、案内対象交差点において車両が進むべき方向に応じて交差点領域のその周辺の所定範囲の位置を変えるようにしてもよい。例えば、車両が案内対象交差点で右に曲がるときは、交差点領域は案内対象交差点の右側を多く含むように設定される(図16C参照)。これにより、案内対象交差点の右側が見通せるか否かを検出することができる。   In addition, in the live-action image obtained by capturing the front of the vehicle, the necessity level calculation unit 13 is an area that overlaps the preceding vehicle area (hereinafter referred to as an overlapping area) in an area where the guidance target intersection is displayed (hereinafter referred to as an intersection area). May be acquired as a degree of occlusion. Here, the intersection area is an area surrounded by a dotted line including a guidance target intersection and a predetermined range around it as in the example of FIG. 16A. Moreover, the necessity calculation part 13 detects a preceding vehicle area | region with the above-mentioned method, and detects the overlapping area | region of an intersection area | region and a preceding vehicle area (refer FIG. 16B). Thereby, the necessity calculation part 13 acquires the ratio of the overlapping area which occupies for an intersection area | region as a shielding degree. Further, the greater the overlap between the intersection area and the preceding vehicle area, that is, the larger the overlapping area, the greater the degree of shielding. When setting the intersection area, the position of a predetermined range around the intersection area may be changed according to the direction in which the vehicle should travel at the guidance target intersection. For example, when the vehicle turns to the right at the guidance target intersection, the intersection area is set so as to include many right sides of the guidance target intersection (see FIG. 16C). Thereby, it is possible to detect whether or not the right side of the guidance target intersection can be seen.

また、遮蔽度を算出する別の方法として、案内経路(ここでは案内対象交差点から先の案内経路を指すこととする)が遮蔽されているか否かにより、遮蔽度を決定するようにしてもかまわない。案内経路が図17Aに示すように目視できる場合には、ユーザは交差点付近の道路形状を容易に認識することができ、道路形状ガイド画像を表示する必要性は低いことから、必要度は低い値に設定する。一方、案内経路が図17Bに示すようにビルや自動車等の障害物によって遮蔽されている場合には、ユーザは案内経路の位置や形状を把握し難く、道路形状を表示する必要性が高いことから、必要度を高い値に設定する。   As another method for calculating the degree of shielding, the degree of shielding may be determined based on whether or not the guidance route (in this case, the guidance route ahead from the guidance target intersection) is blocked. Absent. When the guide route is visible as shown in FIG. 17A, the user can easily recognize the road shape near the intersection, and the necessity of displaying the road shape guide image is low. Set to. On the other hand, when the guide route is blocked by an obstacle such as a building or a car as shown in FIG. 17B, it is difficult for the user to grasp the position and shape of the guide route, and the necessity to display the road shape is high. To set the necessary degree to a high value.

また、案内経路が遮蔽されているか否かは、画像認識により案内経路のエッジを探索することによって求める。すなわち、エッジが抽出できた場合は遮蔽がないとみなし、エッジが抽出できなかった場合には遮蔽があるとみなす。案内経路のエッジを探索する際には、上述の投影処理の結果を基に案内経路が映っていると予想される範囲を算出して(図18参照)、そこを探索範囲としてエッジの抽出を行う。   Whether or not the guide route is blocked is obtained by searching for an edge of the guide route by image recognition. That is, if an edge can be extracted, it is considered that there is no shielding, and if an edge cannot be extracted, it is considered that there is shielding. When searching for an edge of a guide route, a range where the guide route is expected to be reflected is calculated based on the result of the above-described projection processing (see FIG. 18), and an edge is extracted using that range as a search range. Do.

また、必要度算出部13は、自車から案内対象交差点までの距離に応じて、必要度を決定するようにしてもよい。一般に、自車から案内対象交差点が離れている場合には、交差点まであと何メートルでどちらに曲がるか程度の大まかな情報が分かっていればよく、詳細な案内情報は必要ない。一方、案内対象交差点が近づいてくると、どの交差点を曲がるか、交差点の形状はどのようになっているか等の詳細な案内情報が必要となってくる。そこで、自車から案内対象交差点が所定の距離以上離れている場合には、必要度を低い値に設定して道路形状ガイド画像を表示しない。一方で、自車から案内対象交差点までの距離が所定の距離以下に近くなると、必要度を高い値に設定して道路形状ガイド画像を重畳表示するようにしてもよい。   Further, the necessity degree calculation unit 13 may determine the degree of necessity according to the distance from the own vehicle to the guidance target intersection. In general, when the guidance target intersection is away from the own vehicle, it is only necessary to know rough information about how many meters from the intersection to the intersection, and detailed guidance information is not necessary. On the other hand, as the guidance target intersection approaches, detailed guidance information such as which intersection is to be bent and the shape of the intersection is required. Therefore, when the guidance target intersection is more than a predetermined distance from the own vehicle, the necessity degree is set to a low value and the road shape guide image is not displayed. On the other hand, when the distance from the host vehicle to the guidance target intersection is less than or equal to a predetermined distance, the road shape guide image may be superimposed and displayed with a high necessity level.

また、逆に、案内対象交差点直前(例えば、案内対象交差点手前30m)では、一般的に案内対象交差点形状を視認可能となるため、案内対象交差点までの距離が近づいた場合に道路形状ガイド画像を重畳表示しないように制御してもよい。   On the other hand, since the guidance target intersection shape is generally visible immediately before the guidance target intersection (for example, 30 m before the guidance target intersection), the road shape guide image is displayed when the distance to the guidance target intersection approaches. You may control so that it may not superimpose.

(第2の実施形態)
前述した第1の実施形態のナビゲーション装置は、案内対象交差点の前後にある交差点の案内対象交差点に対する接近度および形状複雑度に基づいて、道路形状ガイド画像を表示するか否かを制御したが、これから説明する第2の実施形態のナビゲーション装置は、後述するランドマーク案内の有無に応じて、道路形状ガイド画像を表示するか否かを制御する。なお、第2の実施形態のナビゲーション装置200の構成は、第1の実施形態のものと同様であるものには同番を付しているので説明を省略する。また、第2の実施形態に係るナビゲーション装置の動作の流れを示すフローチャートは、第1の実施形態のものと同様であるので図示を省略する。また、制御部16は、制御部6に含まれる各部と、さらにランドマーク案内生成部14とを含んでいる。
(Second Embodiment)
The navigation device of the first embodiment described above controls whether or not to display a road shape guide image based on the degree of approach and the shape complexity of the intersections before and after the guidance target intersection. The navigation device according to the second embodiment to be described below controls whether or not to display a road shape guide image according to the presence or absence of landmark guidance described later. Note that the configuration of the navigation device 200 according to the second embodiment is the same as that of the first embodiment, and the description thereof will be omitted. Also, the flowchart showing the flow of the operation of the navigation device according to the second embodiment is the same as that of the first embodiment, and is not shown. Further, the control unit 16 includes each unit included in the control unit 6 and a landmark guide generation unit 14.

また、第2の実施形態においては、地図DB3は、さらに、店舗などの施設に関する情報を格納している。また、図20の例のように、施設データは、施設の位置情報、施設の名称、コンビニエンスストア、レストランなどの施設の種別、および施設IDにより構成される。   In the second embodiment, the map DB 3 further stores information about facilities such as stores. Further, as in the example of FIG. 20, the facility data includes facility location information, facility name, convenience store, restaurant type such as restaurant, and facility ID.

ランドマーク案内生成部14は、実写案内モードにおいて、曲がるべき交差点を特定するための手掛かりとなる情報、つまり上述の施設データを参照して、案内対象交差点周辺のランドマークをCG表示、もしくは、強調表示する(ランドマーク案内)。ここでは、ランドマーク案内はCG表示によって行われるとして説明を行う。   The landmark guide generation unit 14 refers to the information that serves as a clue to specify the intersection to be turned in the live-action guidance mode, that is, the facility data described above, and displays landmarks around the guidance target intersection in a CG manner or emphasized. Display (landmark guidance). Here, description will be made assuming that landmark guidance is performed by CG display.

次に、ランドマーク案内生成部14の具体的な動作について説明する。まず、ランドマーク案内生成部14は、地図DB3を参照して、ランドマーク案内に用いるランドマークを選択する。ここでは、ランドマークとして、案内対象交差点付近の信号機または案内対象交差点付近(例えば、50m以内)にある施設などを選択することする。なお、ランドマーク案内に用いるランドマークとして、複数のランドマークを選択して用いてもよいし、1つのランドマークのみを選択するようにしてもかまわない。   Next, a specific operation of the landmark guidance generation unit 14 will be described. First, the landmark guidance generation unit 14 refers to the map DB 3 and selects a landmark used for landmark guidance. Here, a traffic light near the guidance target intersection or a facility near the guidance target intersection (for example, within 50 m) is selected as the landmark. Note that a plurality of landmarks may be selected and used as landmarks used for landmark guidance, or only one landmark may be selected.

次に、ランドマーク案内生成部14は、選択されたランドマークを示すCGを実写案内画像上に表示するため、3次元地図に当該ランドマークのサイズ、形状を表現した3次元オブジェクトを配置する。次に、上述で説明したように、図5に示すカメラ画面上に投影変換することにより、実写案内画像上の適切な位置に当該ランドマークが存在することを示すCGを重畳表示することができる。   Next, the landmark guidance generation unit 14 arranges a three-dimensional object representing the size and shape of the landmark on the three-dimensional map in order to display the CG indicating the selected landmark on the live-action guidance image. Next, as described above, by performing projection conversion on the camera screen shown in FIG. 5, it is possible to superimpose a CG indicating that the landmark exists at an appropriate position on the live-action guide image. .

図21にランドマーク案内を行う際の案内画面を示す。図21に示すように、案内図形に、さらに、信号機(ランドマークA)や施設(ランドマークB)等の交差点周辺にあるランドマーク情報がCG表示され、実写案内画像に重畳表示される。これにより、ユーザは「次の信号機がある交差点を右折すればよい」または「コンビニエンスストアのある交差点を右折すればよい」等、ランドマークを手掛かりとして曲がるべき交差点を容易に認識することができる。   FIG. 21 shows a guidance screen when performing landmark guidance. As shown in FIG. 21, landmark information in the vicinity of intersections such as traffic lights (landmark A) and facilities (landmark B) is displayed on the guide graphic in a CG manner and superimposed on the live-action guide image. Thus, the user can easily recognize an intersection that should be turned with the landmark as a clue, such as “turn right at an intersection with the next traffic light” or “turn right at an intersection with a convenience store”.

また、上述したように、ランドマーク案内の方法としてはCG表示に限らず、実写画像に映っているランドマークを強調表示させてもかまわない。まず、3次元地図において施設の位置と形状を設定する。施設の位置と形状は地図DB3に格納されているものを用いてもよいし、施設の形状が地図DBに格納されていない場合には適当な形状に設定してもよい。次に、上述のCG表示する際の処理と同様にして、3次元地図において配置された施設をカメラ画面上に投影変換する。これにより、対象の施設が映っている領域を特定することができる。最後に、特定した領域を強調表示するためのオブジェクトを描画する。例えば、強調表示は、図22に示すように、対象のランドマークを囲むような円状の図形を重畳表示するようにしてもよいし、半透明のオブジェクトを重畳するようにしてもよい。このように強調表示する際にも、CG表示する場合と同様に、ユーザはランドマークを手掛かりとして曲がるべき交差点を容易に認識することが可能となる。   Further, as described above, the landmark guidance method is not limited to CG display, and a landmark reflected in a live-action image may be highlighted. First, the location and shape of the facility are set on the three-dimensional map. The location and shape of the facility may be those stored in the map DB 3, or may be set to an appropriate shape when the shape of the facility is not stored in the map DB. Next, the facility arranged on the three-dimensional map is projected and converted on the camera screen in the same manner as the above-described processing for CG display. Thereby, the area | region where the object facility is reflected can be specified. Finally, an object for highlighting the specified area is drawn. For example, as shown in FIG. 22, highlighting may be performed by superimposing a circular figure surrounding a target landmark, or by superimposing a semi-transparent object. When highlighting in this way, as in the case of CG display, the user can easily recognize an intersection to be bent with a landmark as a clue.

また、必要度算出部13は、ランドマーク案内生成部14でランドマークが選択されたか否か、すなわち、ランドマーク案内を行うためのランドマークが存在するか否かによって必要度を設定してもよい。ランドマーク案内を行うためのランドマークが存在する場合には、ランドマーク案内により、ユーザは容易に曲がるべき交差点を特定できるため、道路形状データのような他の補助的な案内情報の必要性は低くなる。一方、ランドマーク案内を行うためのランドマークが存在しない場合には、道路形状データのような補助的な案内情報が交差点特定のために重要となってくる。したがって、必要度算出部13は、ランドマーク案内を行うためのランドマークが存在する場合には必要度を低い値に設定し、存在しない場合には、必要度を高い値に設定する。その結果、ランドマーク案内を行う際には、道路形状ガイド画像を重畳表示せず、ランドマーク案内を行えない場合にのみ道路形状ガイド画像を重畳表示することが可能になる。   Further, the necessary degree calculating unit 13 may set the necessary degree depending on whether or not a landmark is selected by the landmark guidance generating unit 14, that is, whether or not there is a landmark for performing landmark guidance. Good. When there is a landmark for performing the landmark guidance, the landmark guidance allows the user to easily identify the intersection to be turned, so there is no need for other auxiliary guidance information such as road shape data. Lower. On the other hand, when there is no landmark for performing landmark guidance, auxiliary guidance information such as road shape data is important for identifying an intersection. Accordingly, the necessity level calculation unit 13 sets the necessity level to a low value when there is a landmark for performing landmark guidance, and sets the necessity level to a high value when it does not exist. As a result, when the landmark guidance is performed, the road shape guide image is not superimposed and displayed only when the landmark guidance cannot be performed.

なお、必要度の算出に関しては上でいくつか例示したが、これらに限らず、上述した必要度を算出するための要素をそれぞれ単独で用いて算出してもよいし、これらの中のいくつか、または、全てを組み合わせて算出してもよい。   In addition, although several examples have been exemplified above regarding the calculation of the necessary degree, the present invention is not limited to these, and the above-described elements for calculating the necessary degree may be used alone, or some of them may be calculated. Or you may calculate combining all.

なお、本発明では、全て車両の前方を向いたカメラで撮像された実写画像に案内形状進路ガイドを重畳表示するとして説明を行ったが、あらかじめ記憶媒体に保存されている実写画像や通信によって取得した実写画像に案内形状進路ガイドを重畳表示してもかまわない。   In the present invention, the guide shape course guide is described as being superimposed on the actual image captured by the camera facing the front of the vehicle. However, it is acquired by the actual image or communication stored in the storage medium in advance. The guide shape course guide may be superimposed and displayed on the captured real image.

また、本発明を詳細に説明したが、上記説明はあらゆる意味において例示的なものであり限定的なものではない。本発明の範囲から逸脱することなしに多くの他の改変例及び変形例が可能であることは言うまでもない。   Moreover, although this invention was demonstrated in detail, the said description is an illustration in all the meanings, and is not restrictive. Of course, many other modifications and variations are possible without departing from the scope of the invention.

本発明に係るナビゲーション装置は、例えば、車両内に設置されるカーナビゲーション装置、携帯電話などの移動体端末におけるナビゲーション装置、および運転を模擬するドライブシミュレータ、またはゲームとして有用である。   The navigation device according to the present invention is useful, for example, as a car navigation device installed in a vehicle, a navigation device in a mobile terminal such as a mobile phone, a drive simulator that simulates driving, or a game.

第1の実施形態に係るナビゲーション装置の構成を示す機能ブロック図Functional block diagram showing the configuration of the navigation device according to the first embodiment 第1の実施形態に係る地図DB3に格納される地図情報のうち、ノードデータの一例を示す図The figure which shows an example of node data among the map information stored in map DB3 which concerns on 1st Embodiment. 第1の実施形態に係る地図DB3に格納される地図情報のうち、補間データの一例を示す図The figure which shows an example of interpolation data among the map information stored in map DB3 which concerns on 1st Embodiment. 第1の実施形態に係る地図DB3に格納される地図情報のうち、リンクデータの一例を示す図The figure which shows an example of link data among the map information stored in map DB3 which concerns on 1st Embodiment. ノードデータ、補間ノードデータ、およびリンクデータを用いて表される地図の一例を示す図The figure which shows an example of the map represented using node data, interpolation node data, and link data 実写案内生成部11における案内図形および実写案内画像を生成する動作の流れを示すフローチャートThe flowchart which shows the flow of the operation | movement which produces | generates the guidance figure in the shooting guide production | generation part 11, and a shooting guide image カメラ視野空間の求め方を説明するための図Diagram for explaining how to determine the camera viewing space 3次元地図およびカメラ視野空間を車両進行方向に対してその上方向からの様子を示す図The figure which shows a mode from the upper direction with respect to a vehicle advancing direction about a three-dimensional map and camera visual field space 案内図形の形状および配置位置の求め方を説明するための図The figure for explaining how to obtain the shape and arrangement position of the guide figure 第1の実施形態に係る実写案内画像の表示例Display example of live-action guidance image according to the first embodiment 道路形状ガイドの配置位置の求め方を説明するための図The figure for explaining how to obtain the arrangement position of the road shape guide 実写案内画像に道路形状ガイド画像を重畳表示した表示例Display example of road shape guide image superimposed on live-action guide image 4つの道路からなる交差点の形状の一例を示す図The figure which shows an example of the shape of the intersection which consists of four roads 5つの道路からなる交差点の形状の一例を示す図The figure which shows an example of the shape of the intersection which consists of five roads 接続角度の算出方法を説明するための図Diagram for explaining how to calculate connection angle 本発明に係るナビゲーション装置の動作の流れを示すフローチャートThe flowchart which shows the flow of operation | movement of the navigation apparatus concerning this invention. 実写案内モードAにおける実写案内画像の表示例Display example of live-action guide image in live-action guide mode A 実写案内モードBにおける実写案内画像の表示例Display example of live-action guide image in live-action guide mode B 車両の前方の様子を示す実写画像における先行車両等の障害物による遮蔽度を説明するための図The figure for demonstrating the shielding degree by obstructions, such as a preceding vehicle, in the real image which shows the mode of the front of a vehicle 交差点領域について説明するための図Diagram for explaining the intersection area 重なり領域について、およびその求め方を説明するための図Diagram for explaining overlap area and how to find it 案内対象交差点を右に曲がる場合の、設定される交差点領域について説明するための図The figure for demonstrating the intersection area set when turning to the guidance intersection at the right 案内経路が遮蔽されていない場合の実写案内画像の表示例Example of displaying a live-action guidance image when the guide route is not occluded 案内経路が遮蔽されている場合の実写案内画像の表示例Display example of live action guide image when guide route is blocked 案内経路のエッジの探索領域を説明するための図The figure for demonstrating the search area | region of the edge of a guide route 第2の実施形態に係るナビゲーション装置の構成を示す機能ブロック図Functional block diagram showing a configuration of a navigation device according to the second embodiment 地図DBに記憶されている施設データの一例を示す図The figure which shows an example of the facility data memorize | stored in map DB 第2の実施形態に係るCG表示を用いた場合の実写案内画像の表示例Display example of live-action guidance image when CG display according to the second embodiment is used 第2の実施形態に係る強調表示を用いた場合の実写案内画像の表示例Display example of live-action guidance image when highlighting according to the second embodiment is used

符号の説明Explanation of symbols

1 画像取得部
2 測位部
3 地図DB
4 操作入力部
5 表示部
6、16 制御部
7 自車位置判定部
8 経路探索部
9 案内制御部
10 地図案内生成部
11 実写案内生成部
12 道路形状ガイド生成部
13 必要度算出部
14 ランドマーク案内生成部
100、200 ナビゲーション装置
1 Image acquisition unit 2 Positioning unit 3 Map DB
DESCRIPTION OF SYMBOLS 4 Operation input part 5 Display part 6, 16 Control part 7 Own vehicle position determination part 8 Route search part 9 Guidance control part 10 Map guidance production | generation part 11 Live-action guidance production | generation part 12 Road shape guide production | generation part 13 Necessity calculation part 14 Landmark Guidance generator 100, 200 Navigation device

Claims (13)

車両の前方の様子を示す実写画像を画面に表示して経路案内を行うナビゲーション装置であって、
前記実写画像を用いて実写案内画像を生成する実写案内生成部と、
前記実写案内画像に表示されている道路の形状を示す道路形状ガイド画像を生成する道路形状ガイド生成部と、
前記道路形状ガイド画像の表示の必要性の度合いを示す必要度を算出する必要度算出部と、
前記必要度算出部によって算出された必要度に基づいて、前記実写案内生成部によって生成された実写案内画像に、前記道路形状ガイド生成部によって生成された道路形状ガイド画像を重畳表示する案内制御部とを備えた、ナビゲーション装置。
A navigation device that provides route guidance by displaying a live-action image showing a state in front of a vehicle on a screen,
A live-action guide generating unit for generating a live-action guide image using the live-action image;
A road shape guide generating unit for generating a road shape guide image indicating the shape of the road displayed in the live-action guide image;
A necessity calculation unit for calculating a necessity indicating the degree of necessity of display of the road shape guide image;
A guidance control unit that superimposes and displays the road shape guide image generated by the road shape guide generation unit on the live-action guide image generated by the real-life guide generation unit based on the necessity calculated by the necessity calculation unit. And a navigation device.
前記必要度算出部は、案内対象交差点と当該案内対象交差点の1つ手前の交差点との間の距離および/または前記案内対象交差点と当該案内対象交差点の1つ奥側の交差点との間の距離に応じて、接近度を算出する交差点接近度算出部を含み、前記交差点接近度算出部によって算出された接近度に基づいて前記必要度を算出することを特徴とする、請求項1に記載のナビゲーション装置。   The necessity calculation unit is configured to determine a distance between the guidance target intersection and an intersection just before the guidance target intersection and / or a distance between the guidance target intersection and one intersection on the back side of the guidance target intersection. The intersection degree calculating unit that calculates the degree of approach according to the information, and the degree of necessity is calculated based on the degree of approach calculated by the intersection degree calculating unit. Navigation device. 前記必要度算出部は、案内対象交差点の形状の複雑さを示す複雑度を算出する複雑度算出部を含み、前記複雑度算出部によって算出された複雑度に基づいて前記必要度を算出することを特徴とする、請求項1に記載のナビゲーション装置。   The necessity calculation unit includes a complexity calculation unit that calculates complexity indicating the complexity of the shape of the guidance target intersection, and calculates the necessity based on the complexity calculated by the complexity calculation unit. The navigation device according to claim 1, wherein: 前記複雑度算出部は、前記案内対象交差点に接続する道路数に基づいて前記複雑度を算出することを特徴とする、請求項3に記載のナビゲーション装置。   The navigation device according to claim 3, wherein the complexity calculation unit calculates the complexity based on the number of roads connected to the guidance target intersection. 前記複雑度算出部は、自車が現在走行している道路と、前記案内対象交差点における自車が進むべき道路とのなす角度に基づいて前記複雑度を算出することを特徴とする、請求項3または請求項4に記載のナビゲーション装置。   The complexity calculation unit calculates the complexity based on an angle between a road on which the host vehicle is currently traveling and a road on which the host vehicle is to travel at the guidance target intersection. The navigation device according to claim 3 or claim 4. 前記必要度算出部は、前記実写画像における車両前方方向の障害物による遮蔽度を算出する遮蔽度算出部を含み、前記遮蔽度算出部によって算出された遮蔽度に基づいて前記必要度を算出することを特徴とする、請求項1に記載のナビゲーション装置。   The necessary degree calculating unit includes a shielding degree calculating unit that calculates a shielding degree due to an obstacle in the vehicle front direction in the photographed image, and calculates the necessity degree based on the shielding degree calculated by the shielding degree calculating unit. The navigation device according to claim 1, wherein: 前記遮蔽度算出部は、前記実写画像において、案内対象交差点が表示されている領域である交差点領域のうち、前記障害物と重なる領域の占める割合を、前記遮蔽度として算出することを特徴とする、請求項6に記載のナビゲーション装置。   The shielding degree calculating unit calculates, as the shielding degree, a ratio of an area overlapping the obstacle in an intersection area that is an area where a guidance target intersection is displayed in the photographed image. The navigation device according to claim 6. 前記必要度算出部は、前記実写画像において、案内対象交差点が表示されている領域である交差点領域の全てまたは一部が含まれているか否かを判定する案内対象交差点判定部を含み、前記案内対象交差点判定部の前記判定結果に基づいて前記必要度を算出することを特徴とする、請求項1に記載のナビゲーション装置。   The necessity calculation unit includes a guidance target intersection determination unit that determines whether or not all or part of an intersection area that is an area where a guidance target intersection is displayed is included in the photographed image. The navigation device according to claim 1, wherein the degree of necessity is calculated based on the determination result of the target intersection determination unit. 前記必要度算出部は、自車の現在位置から、案内対象交差点までの距離を算出する距離算出部を含み、前記距離算出部によって算出された前記距離に基づいて前記必要度を算出することを特徴とする、請求項1に記載のナビゲーション装置。   The necessity calculation unit includes a distance calculation unit that calculates a distance from the current position of the host vehicle to a guidance target intersection, and calculates the necessity based on the distance calculated by the distance calculation unit. The navigation device according to claim 1, wherein the navigation device is characterized. 前記必要度算出部は、前記案内対象交差点の周辺に当該案内対象交差点の目印となる前記案内対象物が存在するか否かを判定する案内対象物判定部を含み、前記案内対象物判定部の前記判定結果に基づいて前記必要度を算出することを特徴とする、請求項1に記載のナビゲーション装置。   The degree-of-necessity calculation unit includes a guidance target object determination unit that determines whether or not the guidance target object serving as a landmark of the guidance target intersection exists around the guidance target intersection. The navigation device according to claim 1, wherein the degree of necessity is calculated based on the determination result. 前記実写案内生成部は、前記案内対象物判定部によって前記案内対象交差点の周辺に前記案内対象物が存在すると判定された場合に、当該案内対象物を示す画像を生成し、当該画像を前記実写画像に重畳して前記実写案内画像として生成するランドマーク案内生成部を含む、請求項10に記載のナビゲーション装置。   The live-action guidance generation unit generates an image indicating the guidance target object when the guidance target object determination unit determines that the guidance target object is present around the guidance target intersection, and the image is displayed as the live-action guide The navigation apparatus according to claim 10, further comprising a landmark guide generation unit that generates a live-action guide image superimposed on an image. 車両の前方の様子を示す実写画像を画面に表示して経路案内を行うナビゲーション装置のためのナビゲーション方法であって、
前記実写画像を用いて実写案内画像を生成する実写案内生成ステップと、
前記実写案内画像に表示されている道路の形状を示す道路形状ガイドを生成する道路形状ガイド生成ステップと、
前記道路形状ガイド画像の表示の必要性の度合いを示す必要度を算出する必要度算出ステップと、
前記必要度算出ステップにおいて算出された必要度に基づいて、前記実写案内生成ステップにおいて生成された実写案内画像に、前記道路形状ガイド生成部において生成された道路形状ガイド画像を重畳表示する案内制御ステップとを備えた、ナビゲーション方法。
A navigation method for a navigation device that displays a live-action image showing a state in front of a vehicle and performs route guidance,
A live-action guide generating step for generating a live-action guide image using the live-action image;
A road shape guide generating step for generating a road shape guide indicating the shape of the road displayed in the live-action guide image;
A necessity calculation step of calculating a necessity indicating the degree of necessity of display of the road shape guide image;
A guidance control step of superimposing and displaying the road shape guide image generated in the road shape guide generation unit on the live-action guide image generated in the live-action guide generation step based on the necessity calculated in the necessity level calculation step. And a navigation method.
車両の前方の様子を示す実写画像を画面に表示して経路案内を行うナビゲーション装置のためのナビゲーションプログラムあって、
前記ナビゲーション装置のコンピュータに、
前記実写画像を用いて実写案内画像を生成する実写案内生成ステップと、
前記実写案内画像に表示されている道路の形状を示す道路形状ガイドを生成する道路形状ガイド生成ステップと、
前記道路形状ガイド画像の表示の必要性の度合いを示す必要度を算出する必要度算出ステップと、
前記必要度算出ステップにおいて算出された必要度に基づいて、前記実写案内生成ステップにおいて生成された実写案内画像に、前記道路形状ガイド生成部において生成された道路形状ガイド画像を重畳表示する案内制御ステップとを実行させる、ナビゲーションプログラム。
There is a navigation program for a navigation device that performs route guidance by displaying on the screen a live-action image that shows the situation in front of the vehicle,
In the computer of the navigation device,
A live-action guide generating step for generating a live-action guide image using the live-action image;
A road shape guide generating step for generating a road shape guide indicating the shape of the road displayed in the live-action guide image;
A necessity calculation step of calculating a necessity indicating the degree of necessity of display of the road shape guide image;
Guidance control step of superimposing and displaying the road shape guide image generated in the road shape guide generation unit on the live-action guide image generated in the live-action guide generation step based on the necessity calculated in the necessity level calculation step And a navigation program to execute.
JP2006314381A 2006-11-21 2006-11-21 Navigation device, navigation method, and program thereof Withdrawn JP2008128827A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006314381A JP2008128827A (en) 2006-11-21 2006-11-21 Navigation device, navigation method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006314381A JP2008128827A (en) 2006-11-21 2006-11-21 Navigation device, navigation method, and program thereof

Publications (2)

Publication Number Publication Date
JP2008128827A true JP2008128827A (en) 2008-06-05
JP2008128827A5 JP2008128827A5 (en) 2008-12-25

Family

ID=39554798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006314381A Withdrawn JP2008128827A (en) 2006-11-21 2006-11-21 Navigation device, navigation method, and program thereof

Country Status (1)

Country Link
JP (1) JP2008128827A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010203969A (en) * 2009-03-04 2010-09-16 Pioneer Electronic Corp Navigation device, display control method, display control program, and recording medium
JP2011134091A (en) * 2009-12-24 2011-07-07 Honda Motor Co Ltd Image processing apparatus, image processing method, and image processing program
JP2011179875A (en) * 2010-02-26 2011-09-15 Pioneer Electronic Corp Display device, control method, program, and storage medium
WO2013111302A1 (en) * 2012-01-26 2013-08-01 パイオニア株式会社 Display device, control method, program, and storage medium
WO2014024512A1 (en) * 2012-08-10 2014-02-13 アイシン・エィ・ダブリュ株式会社 Intersection guidance system, method and program
WO2014024513A1 (en) * 2012-08-10 2014-02-13 アイシン・エィ・ダブリュ株式会社 Intersection guidance system, method and program
JP2014211431A (en) * 2013-04-02 2014-11-13 株式会社Jvcケンウッド Navigation device, and display control method
JP2016532914A (en) * 2013-06-24 2016-10-20 グーグル インコーポレイテッド Image processing support for autonomous vehicles using environmental information
JP2016182906A (en) * 2015-03-26 2016-10-20 アルパイン株式会社 Operation support system
JP2019174456A (en) * 2018-03-29 2019-10-10 株式会社リコー Image control device, display device, vehicle, image control method, and program
US10863166B2 (en) 2016-11-07 2020-12-08 Samsung Electronics Co., Ltd. Method and apparatus for generating three-dimensional (3D) road model
CN113566838A (en) * 2021-06-29 2021-10-29 中国联合网络通信集团有限公司 Navigation method and system based on route complexity and mobile terminal

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010203969A (en) * 2009-03-04 2010-09-16 Pioneer Electronic Corp Navigation device, display control method, display control program, and recording medium
JP2011134091A (en) * 2009-12-24 2011-07-07 Honda Motor Co Ltd Image processing apparatus, image processing method, and image processing program
JP2011179875A (en) * 2010-02-26 2011-09-15 Pioneer Electronic Corp Display device, control method, program, and storage medium
JP5702476B2 (en) * 2012-01-26 2015-04-15 パイオニア株式会社 Display device, control method, program, storage medium
WO2013111302A1 (en) * 2012-01-26 2013-08-01 パイオニア株式会社 Display device, control method, program, and storage medium
JPWO2013111302A1 (en) * 2012-01-26 2015-05-11 パイオニア株式会社 Display device, control method, program, storage medium
WO2014024513A1 (en) * 2012-08-10 2014-02-13 アイシン・エィ・ダブリュ株式会社 Intersection guidance system, method and program
US9739628B2 (en) 2012-08-10 2017-08-22 Aisin Aw Co., Ltd Intersection guide system, method, and program
CN104471354A (en) * 2012-08-10 2015-03-25 爱信艾达株式会社 Intersection guidance system, method and program
JP2014037978A (en) * 2012-08-10 2014-02-27 Aisin Aw Co Ltd Intersection guide system, method and program
WO2014024512A1 (en) * 2012-08-10 2014-02-13 アイシン・エィ・ダブリュ株式会社 Intersection guidance system, method and program
US9347786B2 (en) 2012-08-10 2016-05-24 Aisin Aw Co., Ltd. Intersection guide system, method, and program
JP2014211431A (en) * 2013-04-02 2014-11-13 株式会社Jvcケンウッド Navigation device, and display control method
JP2016532914A (en) * 2013-06-24 2016-10-20 グーグル インコーポレイテッド Image processing support for autonomous vehicles using environmental information
JP2016182906A (en) * 2015-03-26 2016-10-20 アルパイン株式会社 Operation support system
US10863166B2 (en) 2016-11-07 2020-12-08 Samsung Electronics Co., Ltd. Method and apparatus for generating three-dimensional (3D) road model
US11632536B2 (en) 2016-11-07 2023-04-18 Samsung Electronics Co., Ltd. Method and apparatus for generating three-dimensional (3D) road model
JP2019174456A (en) * 2018-03-29 2019-10-10 株式会社リコー Image control device, display device, vehicle, image control method, and program
JP7383888B2 (en) 2018-03-29 2023-11-21 株式会社リコー Image control device, display device, moving object, image control method, and program
CN113566838A (en) * 2021-06-29 2021-10-29 中国联合网络通信集团有限公司 Navigation method and system based on route complexity and mobile terminal

Similar Documents

Publication Publication Date Title
JP4895313B2 (en) Navigation apparatus and method
JP2008128827A (en) Navigation device, navigation method, and program thereof
JP4560090B2 (en) Navigation device and navigation method
JP4550927B2 (en) Navigation device
EP2080983B1 (en) Navigation system, mobile terminal device, and route guiding method
JP4138574B2 (en) Car navigation system
JP4679182B2 (en) Map display method, map display program, and map display device
JP4257661B2 (en) Navigation device
US20100250116A1 (en) Navigation device
JP2009020089A (en) System, method, and program for navigation
JP2007121001A (en) Navigation device
JP2007198962A (en) Guidance display device for vehicle
JP5218607B2 (en) Navigation device
JP4899746B2 (en) Route guidance display device
WO2009084129A1 (en) Navigation device
JP3876972B2 (en) GUIDE IMAGE GENERATION DEVICE, GUIDE IMAGE DISPLAY DEVICE, NAVIGATION DEVICE, AND PROGRAM
JP2011052960A (en) Navigation device
KR100839578B1 (en) Vehicle Navigation Apparatus and Method of Controlling Image-based Route Guidance
JPWO2007142084A1 (en) Navigation device
JP2007206014A (en) Navigation device
JP2007256048A (en) Navigation system
JP2005265573A (en) Vehicle mounted navigation device, navigation system
JP2008002965A (en) Navigation device and method therefor
JP2007263849A (en) Navigation device
JP2008157680A (en) Navigation apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081106

A621 Written request for application examination

Effective date: 20081106

Free format text: JAPANESE INTERMEDIATE CODE: A621

A761 Written withdrawal of application

Effective date: 20091022

Free format text: JAPANESE INTERMEDIATE CODE: A761