JP2007040844A - On-vehicle navigation device - Google Patents

On-vehicle navigation device Download PDF

Info

Publication number
JP2007040844A
JP2007040844A JP2005225747A JP2005225747A JP2007040844A JP 2007040844 A JP2007040844 A JP 2007040844A JP 2005225747 A JP2005225747 A JP 2005225747A JP 2005225747 A JP2005225747 A JP 2005225747A JP 2007040844 A JP2007040844 A JP 2007040844A
Authority
JP
Japan
Prior art keywords
landscape
information
image
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005225747A
Other languages
Japanese (ja)
Other versions
JP4737523B2 (en
Inventor
Takashi Nakagawa
隆志 中川
Yoshihisa Yamaguchi
喜久 山口
Hiroichi Kato
博一 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Osaka University NUC
Original Assignee
Mitsubishi Electric Corp
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Osaka University NUC filed Critical Mitsubishi Electric Corp
Priority to JP2005225747A priority Critical patent/JP4737523B2/en
Publication of JP2007040844A publication Critical patent/JP2007040844A/en
Application granted granted Critical
Publication of JP4737523B2 publication Critical patent/JP4737523B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an on-vehicle navigation device capable of providing high-quality guidance information to drivers. <P>SOLUTION: The on-vehicle navigation device, implementing guidance to display on a displaying section by superimposing content information on landscape imageries ahead, is equipped with an image acquiring section 6 acquiring landscape imageries of landscape ahead photoed with a camera; a landscape information filtering section 8 which discriminates landscape images that are suitable as a background images from landscape images acquired at the image acquiring section to output landscape information containing the discriminated landscape images and information used for deciding whether it is suitable as the background image; a landscape information accumulating section accumulating landscape information outputted from the landscape information filtering section; an optimal landscape information selecting section 10 selecting landscape information, on which content information is superimposed, from landscape information accumulated in the landscape information accumulating section; and a content combining section 11 for combining the landscape imageries included in landscape information selected at the optimal landscape information selecting section and content information to display on displaying section as guidance information. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、車両前方の風景画像の上に案内情報を表示する車載ナビゲーション装置に関する。   The present invention relates to an in-vehicle navigation device that displays guidance information on a landscape image in front of a vehicle.

従来、車載カメラで撮影した車両前方の風景画像を車載ディスプレイに表示するとともに、その風景画像の上に、別途作成された案内のための矢印を重畳して表示することにより運転者を誘導する車載ナビゲーション装置が知られている。例えば、特許文献1は、車載カメラで撮影した車両前方の交差点を含む風景画像の上に、運転者が進むべき交差点での進路を示す矢印図形を重畳表示して案内を行う車載用ナビゲーション装置の走行案内画像表示方法を開示している。   Conventionally, an on-vehicle display that displays a landscape image in front of a vehicle photographed by a vehicle-mounted camera on a vehicle-mounted display and displays a separately-created guidance arrow on the landscape image. Navigation devices are known. For example, Patent Document 1 discloses an in-vehicle navigation device that provides guidance by displaying an arrow graphic indicating a course at an intersection where a driver should travel on a landscape image including an intersection in front of a vehicle photographed by an in-vehicle camera. A driving guidance image display method is disclosed.

また、特許文献2は、車載カメラで撮影した車両前方の風景画像上に、運転者の進路を示す矢印図形を重畳表示して運転者に案内を行う際に、車載カメラの撮影方向を、車線変更時やカーブ走行時に、車両の進行方向ではなく、道路形状に沿った方向に向けることにより、望ましい前方映像を取得する車両用前方画像撮影装置および車両用案内表示装置を開示している。   Further, Patent Document 2 discloses the direction of shooting of the in-vehicle camera when the guidance is given to the driver by superimposing an arrow graphic indicating the course of the driver on a landscape image in front of the vehicle captured by the in-vehicle camera. A vehicle front image capturing device and a vehicle guidance display device that acquire a desired front image by directing in a direction along a road shape instead of a traveling direction of a vehicle when changing or traveling on a curve are disclosed.

さらに、特許文献3は、車載カメラで撮影した車両前方の風景画像上に、運転者の進路を示す矢印図形を重畳表示して運転者に案内を行う際に、複数の車載カメラを装備することにより、前方車両により前方風景が遮られる場合に、利用する車載カメラを切り替えて、望ましい前方映像を取得する車両用走行案内装置を開示している。   Furthermore, Patent Document 3 is equipped with a plurality of in-vehicle cameras when guiding the driver by displaying an arrow graphic indicating the driver's path superimposed on a landscape image in front of the vehicle photographed by the in-vehicle camera. Thus, a vehicle travel guide device is disclosed that switches a vehicle-mounted camera to be used and obtains a desired forward image when a front landscape is obstructed by a front vehicle.

特開平7−63572号公報JP-A-7-63572 特開平10−287177号公報Japanese Patent Laid-Open No. 10-287177 特開平11−023305号公報Japanese Patent Laid-Open No. 11-023305

ところで、カメラで撮影した車両前方の風景画像上の対応する位置に、運転者に対する様々な誘導のための情報を重ねて表示する場合は、重ね合わせることに関して次のような問題がある。   By the way, in the case where information for various guidance for the driver is superimposed and displayed at a corresponding position on the landscape image in front of the vehicle photographed by the camera, there are the following problems regarding the superposition.

自車の振動、右左折などの転回、路面の凹凸などによる自車の動揺に起因して、カメラで撮影した風景画像にブレがある場合、他の走行車両が風景画像に映り込むことにより案内したい対象が隠蔽されてしまう場合、降雨や降雪、夜間、逆光などにより案内対象が明確に撮影されていない場合などといった、案内情報を重ね合わせる背景画像として不適切な場合がある。このような風景画像を「不適切な画像」という。   If the landscape image taken by the camera is blurred due to the vibration of the vehicle, turning left and right, turning of the vehicle due to unevenness on the road surface, etc., guidance is provided by other traveling vehicles appearing in the landscape image When the target to be hidden is hidden, the background image on which the guidance information is superimposed may be inappropriate, for example, when the guidance target is not clearly photographed due to rain, snow, nighttime, backlight, or the like. Such a landscape image is called an “inappropriate image”.

また、車載ナビゲーション装置に内蔵された自車位置検出部によって計算される自車の位置および姿勢の正確さの度合い、および/または、カメラ位置姿勢計測部によって計測されるカメラの位置および姿勢の正確さの度合いにより、風景画像上に重ね合わされる誘導や案内のための情報が、本来重ね合わされる位置からずれてしまう場合がある。これを「不適切な位置姿勢」という。   In addition, the degree of accuracy of the position and posture of the vehicle calculated by the vehicle position detection unit built in the vehicle-mounted navigation device and / or the accuracy of the position and posture of the camera measured by the camera position and posture measurement unit. Depending on the degree, the information for guidance and guidance superimposed on the landscape image may deviate from the originally superimposed position. This is called “inappropriate position and orientation”.

さらに、運転者に提供する誘導や案内などの情報の種類によって、最適な背景としての風景画像の構図が考えられるが、取得した風景画像がその構図を満たしていない場合がある。これを「不適切な構図」という。運転者に対しては、常に、上述した不適切な画像、不適切な位置姿勢および不適切な構図をできるだけ回避した質の高い情報の提供が要求される。   Furthermore, although the composition of a landscape image as an optimal background can be considered depending on the type of information such as guidance and guidance provided to the driver, the acquired landscape image may not satisfy the composition. This is called “inappropriate composition”. The driver is always required to provide high-quality information that avoids the above-described inappropriate image, inappropriate position and orientation, and inappropriate composition as much as possible.

従来の車載ナビゲーション装置にあっては、取得した風景画像において、交差点など重畳表示の対象が他車の存在や自車の進行方向の影響で隠蔽されていたり撮影されない場合や、撮影されても重畳表示の対象が画像の周辺部になる等、運転者の案内のために不適切な風景画像を撮影することを回避するため、上述した特許文献2および特許文献3に示されるように、カメラの撮影方向を制御する制御装置を設けたり、複数台のカメラを設けることが行われている。   In a conventional in-vehicle navigation device, in an acquired landscape image, an object to be superimposed, such as an intersection, is hidden or not photographed due to the presence of another vehicle or the traveling direction of the own vehicle, or superimposed even if photographed. In order to avoid taking inappropriate landscape images for driver guidance, such as the display target being the peripheral part of the image, as shown in Patent Document 2 and Patent Document 3 described above, A control device that controls the shooting direction or a plurality of cameras are provided.

しかしながら、これらの方法は、カメラの制御装置や複数のカメラを設置する必要があるので費用がかかる一方、逆光下や降雪時や降雨時の撮影といった気象条件によって不適切な風景画像しか撮影できない状況に関しては効果がきわめて限定的である。   However, these methods are expensive because it is necessary to install a camera control device and multiple cameras, but only inappropriate landscape images can be taken due to weather conditions such as shooting under backlight, snowfall, or rain. The effect is very limited.

この発明は、上述した諸問題を解消するためになされたものであり、運転者に対して質の高い案内情報を提供できる車載ナビゲーション装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide an in-vehicle navigation device capable of providing high-quality guidance information to a driver.

この発明に係る車載ナビゲーション装置は、前方の風景画像にコンテンツ情報を重畳して表示部に表示することにより案内を行う車載ナビゲーション装置において、前方の風景をカメラで撮影した風景画像を取得する映像取得部と、映像取得部で取得された風景画像から背景画像として好適な風景画像を選別し、該選別された風景画像と背景画像として好適であるかどうかの判断に使用した情報とを含む風景情報を出力する風景情報フィルタ部と、風景情報フィルタ部から出力される風景情報を蓄積する風景情報蓄積部と、風景情報蓄積部に蓄積されている風景情報からコンテンツ情報を重畳させるのに最適な風景情報を選択する最適風景情報選択部と、最適風景情報選択部で選択された風景情報に含まれる風景画像とコンテンツ情報とを合成して案内情報として表示部に表示させるコンテンツ合成部とを備えている。   The in-vehicle navigation device according to the present invention is an in-vehicle navigation device that performs guidance by superimposing content information on a front landscape image and displaying the content information on a display unit, and acquires a landscape image obtained by capturing the front landscape with a camera. Information that is selected from the landscape image acquired by the image acquisition unit and the landscape image suitable for the background image and used for determining whether the image is suitable for the background image. Landscape information filter unit that outputs image, a landscape information storage unit that stores landscape information output from the landscape information filter unit, and a landscape that is optimal for superimposing content information from the landscape information stored in the landscape information storage unit The optimal landscape information selection unit for selecting information and the landscape image included in the landscape information selected by the optimal landscape information selection unit are combined with the content information. To and a content combining unit for displaying on the display unit as guidance information.

この発明によれば、ユーザに提示すべきコンテンツ情報を重畳するのに相応しい背景画像を、自らが過去に走行したことによって蓄積された風景画像の中から、精度の高いコンテンツの重ね合わせが可能な風景画像や情報提供のための望ましい構図を有する風景画像といった適切な風景画像を選択できるので、運転者へ提供する案内情報の品質を高めることができる。   According to the present invention, a background image suitable for superimposing content information to be presented to a user can be overlaid with high-accuracy content from landscape images accumulated as a result of traveling in the past. Since an appropriate landscape image such as a landscape image or a landscape image having a desirable composition for providing information can be selected, the quality of the guidance information provided to the driver can be improved.

以下、この発明の実施の形態を、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る車載ナビゲーション装置の構成を示すブロック図である。この車載ナビゲーション装置は、ナビゲーション制御部1、自車位置検出部2、地図データベース3、入力操作部4、カメラ5、映像取得部6、カメラ位置姿勢計測部7、風景情報フィルタ部8、風景情報蓄積部9、最適風景情報選択部10、コンテンツ合成部11および表示部12から構成されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing the configuration of the in-vehicle navigation device according to Embodiment 1 of the present invention. This in-vehicle navigation device includes a navigation control unit 1, a vehicle position detection unit 2, a map database 3, an input operation unit 4, a camera 5, a video acquisition unit 6, a camera position / orientation measurement unit 7, a landscape information filter unit 8, and landscape information. The storage unit 9, the optimum landscape information selection unit 10, the content composition unit 11, and the display unit 12 are included.

ナビゲーション制御部1は、車載ナビゲーション装置の全体を制御する。例えば、ナビゲーション制御部1は、自車位置検出部2から取得した自車の現在位置から、入力操作部4から入力された目的地までの誘導経路を、地図データベース3を参照して計算する経路計算や、この計算によって得られた誘導経路に沿った案内情報の生成といった、運転者を目的地に誘導するための基本的な機能を提供するための処理を行う。   The navigation control unit 1 controls the entire in-vehicle navigation device. For example, the navigation control unit 1 calculates a guidance route from the current position of the vehicle acquired from the vehicle position detection unit 2 to the destination input from the input operation unit 4 with reference to the map database 3. Processing for providing basic functions for guiding the driver to the destination, such as calculation and generation of guidance information along the guidance route obtained by the calculation, is performed.

また、ナビゲーション制御部1は、車両の現在位置、目的地または誘導経路に関連する交通情報や、観光地、飲食店、物販店等に関する情報の検索、ユーザが入力した条件にマッチした施設の検索といった処理を行う。さらに、ナビゲーション制御部1は、例えば矢印図形のような、風景画像に重ね合わせてユーザに提供すべきコンテンツを表す情報(以下、「コンテンツ情報」という)を、風景情報フィルタ部8、最適風景情報選択部19およびコンテンツ合成部11に提供する。   In addition, the navigation control unit 1 searches for traffic information related to the current position of the vehicle, the destination or the guidance route, information on sightseeing spots, restaurants, merchandise stores, etc., and searches for facilities that match the conditions entered by the user. The process is performed. Further, the navigation control unit 1 displays information (hereinafter referred to as “content information”) representing content to be provided to the user in a superimposed manner on a landscape image, such as an arrow graphic, for example, the landscape information filter unit 8, the optimum landscape information. This is provided to the selection unit 19 and the content composition unit 11.

自車位置検出部2は、自車の現在の位置および姿勢を検出する。この自車位置検出部2は、例えばGPS(グローバルポジショニングシステム)、FM多重放送によって提供される誤差情報を用いてGPSによる測位結果を補正するD−GPS(ディファレンシャルGPS)または他の人工衛星を用いた測位方式、道路に設置された光ビーコンや電波ビーコンから供給される位置情報を用いる方式、車両の進行方向と走行距離から位置を得る自律航法、車両は道路上を走行するといった制約条件に基づき地図データベース3に登録されている道路の位置へ車両位置を補正するマップマッチング方式など、多様な位置検出方式を1つまたは2つ以上を組合せて実現することができる。この自車位置検出部2で検出された自車の現在の位置および姿勢を表す情報は、ナビゲーション制御部1、カメラ位置姿勢計測部7および風景情報フィルタ部8に送られる。   The own vehicle position detection unit 2 detects the current position and posture of the own vehicle. The vehicle position detection unit 2 uses, for example, GPS (Global Positioning System), D-GPS (differential GPS) that corrects the positioning result by GPS using error information provided by FM multiplex broadcasting, or other artificial satellites. Based on the constraints such as positioning method, position information supplied from optical beacon and radio wave beacon installed on the road, autonomous navigation to obtain the position from the traveling direction and distance of the vehicle, and the vehicle traveling on the road Various position detection methods such as a map matching method for correcting the vehicle position to the road position registered in the map database 3 can be realized by combining one or two or more. Information representing the current position and posture of the vehicle detected by the vehicle position detection unit 2 is sent to the navigation control unit 1, the camera position / orientation measurement unit 7, and the landscape information filter unit 8.

地図データベース3は、2次元地図情報の他に、3次元形状情報、3次元景観情報および施設情報を記憶している。3次元形状情報は、地盤や池、湖、山、谷などの地形、建物、道路や鉄道の高架、トンネルといった構造物などの3次元形状をモデル化した情報から成る。3次元景観情報は、3次元形状情報に、3次元形状を構成する面の色やイメージに関するデータを加えた情報から成る。施設情報は、構造物、施設、観光名所などの位置、名称、電話番号、住所などの情報から成る。この地図データベース3は、ナビゲーション制御部1およびカメラ位置姿勢計測部7によって参照される。   The map database 3 stores 3D shape information, 3D landscape information, and facility information in addition to 2D map information. The three-dimensional shape information includes information obtained by modeling a three-dimensional shape such as a ground, a terrain such as a pond, a lake, a mountain, and a valley, a building, a structure such as a road, a railway overpass, and a tunnel. The three-dimensional landscape information consists of information obtained by adding data relating to the color and image of the surface constituting the three-dimensional shape to the three-dimensional shape information. The facility information includes information such as the position, name, telephone number, and address of structures, facilities, and tourist attractions. The map database 3 is referred to by the navigation control unit 1 and the camera position / orientation measurement unit 7.

入力操作部4は、リモートコントローラ、タッチパネル、音声認識装置などから構成されており、ユーザである運転者または同乗者が目的地を入力したり、車載ナビゲーション装置が提供する情報を選択するために使用される。この入力操作部4から入力された目的地や選択結果を示す情報は、ナビゲーション制御部1に送られる。   The input operation unit 4 includes a remote controller, a touch panel, a voice recognition device, and the like, and is used for a driver or a passenger who is a user to input a destination or to select information provided by an in-vehicle navigation device. Is done. Information indicating the destination and selection result input from the input operation unit 4 is sent to the navigation control unit 1.

カメラ5は、車両の所定位置に設置され、車両前方の風景を撮影する。このカメラ5で撮影することにより得られた映像信号は、映像取得部6に送られる。映像取得部6は、カメラ5から送られてくる映像信号を、コンピュータで処理可能なイメージ情報に変換する。この映像取得部6における変換によって得られたイメージ情報によって表された風景画像は、カメラ位置姿勢計測部7および風景情報フィルタ部8に送られる。   The camera 5 is installed at a predetermined position of the vehicle and captures a landscape in front of the vehicle. A video signal obtained by photographing with the camera 5 is sent to the video acquisition unit 6. The video acquisition unit 6 converts the video signal sent from the camera 5 into image information that can be processed by a computer. The landscape image represented by the image information obtained by the conversion in the video acquisition unit 6 is sent to the camera position / orientation measurement unit 7 and the landscape information filter unit 8.

カメラ位置姿勢計測部7は、あらかじめ計測しておいた、車両を基準とした座標系におけるカメラ5の位置および姿勢を表す情報と、自車位置検出部2から得られる自車の緯度および経度といった地表の座標系における自車の位置および姿勢を表す情報とを用いて、地表の座標系におけるカメラ5の位置および姿勢を計算する。このカメラ位置姿勢計測部7において計算された、地表の座標系におけるカメラ5の位置および姿勢を表す情報(以下、「カメラ位置姿勢情報」という)は、風景情報フィルタ部8および最適風景情報選択部10に送られる。   The camera position / orientation measurement unit 7 includes information indicating the position and orientation of the camera 5 in a coordinate system with reference to the vehicle, and the latitude and longitude of the vehicle obtained from the vehicle position detection unit 2. The position and orientation of the camera 5 in the ground surface coordinate system are calculated using information representing the position and orientation of the vehicle in the ground surface coordinate system. Information representing the position and orientation of the camera 5 in the coordinate system of the ground surface (hereinafter referred to as “camera position and orientation information”) calculated by the camera position and orientation measurement unit 7 is a landscape information filter unit 8 and an optimum landscape information selection unit. 10 is sent.

なお、カメラ位置姿勢計測部7に、映像取得部6からイメージ情報として送られてくる風景画像に対する画像認識的処理を行う機能を設け、風景画像中の道路上の中央線、停止線、ビルの輪郭等を抽出し、さらに、地図データベース3から取得した道路情報や3次元形状情報とのマッチング処理を行うことによって、カメラ5の位置および姿勢の計測精度を向上させるように構成することができる。   The camera position / orientation measurement unit 7 is provided with a function for performing image recognition processing on a landscape image sent as image information from the video acquisition unit 6 so that a center line, a stop line, and a building on the road in the landscape image are displayed. By extracting a contour and the like, and further performing a matching process with road information and three-dimensional shape information acquired from the map database 3, it is possible to improve the measurement accuracy of the position and orientation of the camera 5.

風景情報フィルタ部8は、ナビゲーション制御部1から得られるコンテンツ情報、カメラ位置姿勢計測部7から得られるカメラ位置姿勢情報(画像認識的処理が行われる場合は、該画像認識的処理による精度補正の状態を表す情報を含む)、自車位置検出部2から得られる自車の位置、姿勢およびそれらの精度を表す情報、ならびに、映像取得部6からコンテンツを重ね合わせる背景となる風景画像のイメージ情報を取得する。そして、これらの情報を用いて、この風景画像に対して適切な重ね合わせが可能かどうか、風景画像自体の質はどうか、コンテンツを重ね合わせる対象が撮影されているかどうか、構図として望ましいかどうか等を判断し、これら判断基準を満たす風景画像を選別し、選別した風景画像と判断基準として用いた情報とを1セットにし、風景情報として風景情報蓄積部9に格納する。この風景情報フィルタ部8において行われる処理の詳細は後述する。   The landscape information filter unit 8 includes content information obtained from the navigation control unit 1 and camera position and orientation information obtained from the camera position and orientation measurement unit 7 (if image recognition processing is performed, accuracy correction by the image recognition processing is performed). Information indicating the state), information indicating the position and posture of the host vehicle obtained from the host vehicle position detection unit 2 and accuracy thereof, and image information of a landscape image serving as a background to superimpose content from the video acquisition unit 6 To get. Using this information, it is possible to properly overlay this landscape image, the quality of the landscape image itself, whether the subject to be superimposed is taken, whether it is desirable as a composition, etc. Are selected, landscape images satisfying these determination criteria are selected, the selected landscape images and information used as the determination criteria are set as one set, and stored as landscape information in the landscape information storage unit 9. Details of the processing performed in the landscape information filter unit 8 will be described later.

最適風景情報選択部10は、ナビゲーション制御部1から得られるコンテンツ情報とカメラ位置姿勢計測部7から得られるカメラ位置姿勢情報とに基づいて、コンテンツ情報とカメラ5の位置および姿勢とに一致または近接する風景情報を風景情報蓄積部9から検索し、最も適した風景画像を選択してコンテンツ合成部11に送る。この最適風景情報選択部10において行われる処理の詳細は後述する。   The optimum landscape information selection unit 10 matches or approaches the content information and the position and orientation of the camera 5 based on the content information obtained from the navigation control unit 1 and the camera position and orientation information obtained from the camera position and orientation measurement unit 7. The landscape information to be searched is searched from the landscape information storage unit 9, the most suitable landscape image is selected and sent to the content composition unit 11. Details of processing performed in the optimum landscape information selection unit 10 will be described later.

風景情報蓄積部9は、風景情報フィルタ部8で選別された風景画像と選別の判断基準として用いられた情報とを1セットにした風景情報を整理して蓄積し、最適風景情報選択部10からの要求に応じて、カメラ5の位置および姿勢やコンテンツ情報の内容の一致または近接を条件に、該当する風景情報を検索して最適風景情報選択部10に送る。   The landscape information storage unit 9 organizes and stores the landscape information in which the landscape image selected by the landscape information filter unit 8 and the information used as the selection criterion are arranged as one set. In response to the request, the corresponding landscape information is searched and sent to the optimum landscape information selection unit 10 on condition that the position and orientation of the camera 5 and the content information match or approach each other.

コンテンツ合成部11は、最適風景情報選択部10で選択された最適な風景情報を用いて、ナビゲーション制御部1から得られるコンテンツ情報と風景画像を表すイメージ情報とを合成し、表示部12に送る。表示部12は、例えば液晶パネルから構成されており、コンテンツ合成部11から送られてくる情報に従って、風景画像上に様々な案内や誘導を行うコンテンツを重ね合わせた表示を行い、運転者に提示する。   The content synthesizing unit 11 synthesizes the content information obtained from the navigation control unit 1 and the image information representing the landscape image using the optimal landscape information selected by the optimal landscape information selecting unit 10, and sends it to the display unit 12. . The display unit 12 is composed of, for example, a liquid crystal panel, and in accordance with the information sent from the content synthesis unit 11, displays a superimposed image of various guidance and guidance content on the landscape image and presents it to the driver. To do.

次に、風景情報フィルタ部8で行われる風景情報フィルタ処理の一例を、図2に示すフローチャートを参照しながら説明する。なお、以下に説明する風景情報フィルタ処理では、風景情報として、図3に示すような、「取得時刻」、「風景画像」、「カメラ位置姿勢」、「カメラ位置姿勢の正確さの度合い」、「コンテンツ情報」および「構図評価値」が用いられるものとする。   Next, an example of landscape information filter processing performed in the landscape information filter unit 8 will be described with reference to the flowchart shown in FIG. In the landscape information filtering process described below, as acquisition information, as shown in FIG. 3, “acquisition time”, “landscape image”, “camera position and orientation”, “degree of accuracy of camera position and orientation”, It is assumed that “content information” and “composition evaluation value” are used.

まず、最新の風景情報、つまり現在時刻における風景情報の構築が行われる(ステップST11)。具体的には、まず、図示しない時計機構から現在時刻が取得されるとともに、映像取得部6から風景画像が取得される。次いで、カメラ位置姿勢計測部7からカメラ位置姿勢情報が取得される。次いで、自車位置検出部2から得られる自車位置を算出するために用いられた情報と、カメラ位置姿勢計測部7から得られる画像認識的処理によるカメラ位置および姿勢の補正に用いられた情報から、カメラ位置姿勢の正確さの度合いが以下のようにして算出される。   First, the latest landscape information, that is, landscape information at the current time is constructed (step ST11). Specifically, first, the current time is acquired from a clock mechanism (not shown), and a landscape image is acquired from the video acquisition unit 6. Next, camera position and orientation information is acquired from the camera position and orientation measurement unit 7. Next, information used to calculate the vehicle position obtained from the vehicle position detection unit 2 and information used to correct the camera position and posture by image recognition processing obtained from the camera position and orientation measurement unit 7. From this, the degree of accuracy of the camera position and orientation is calculated as follows.

すなわち、GPS、車速センサ、方位センサおよびマップマッチングを利用して自車の位置および姿勢を計測する場合、GPSによる測位に利用する衛星の数をns、方位センサによって計測される方位の変化速度をSd(deg/sec)とする。カメラ5の位置および姿勢の確からしさは、一般に、利用する衛星の数が大きいほど高く、右左折や方向転換時のように方位が変化している時は、方位センサの計測時間遅れやマップマッチングの特性に起因して低くなると考えられる。また、カメラ位置姿勢計測部7における画像認識的処理によってカメラ位置および姿勢の補正ができたか否かを示す値をCc(補正済みなら「1」、補正できないなら「0」)とする。これらの値を使用してカメラ位置姿勢の正確さ度合いCcpを、下式(1)に従って求める。
Ccp=k*ns−l*Sd+m*Cc…(1)
ここで、k、lおよびmはCcpに与える影響を調整するパラメータであり、システム設計者によって調整される。これらのパラメータk、lおよびmにより、カメラ位置姿勢の正確さ度合いの微調整が行われる。
That is, when measuring the position and orientation of the vehicle using GPS, a vehicle speed sensor, a direction sensor, and map matching, the number of satellites used for positioning by GPS is ns, and the direction change speed measured by the direction sensor is Sd (deg / sec). In general, the accuracy of the position and orientation of the camera 5 increases as the number of satellites used increases. When the direction changes, such as when turning left or right or turning, the direction sensor measurement time is delayed or map matching is performed. This is considered to be low due to the characteristics of Also, a value indicating whether or not the camera position and orientation can be corrected by the image recognition processing in the camera position and orientation measurement unit 7 is Cc (“1” if corrected, “0” if not corrected). Using these values, the accuracy Ccp of the camera position and orientation is obtained according to the following equation (1).
Ccp = k * ns−1 * Sd + m * Cc (1)
Here, k, l, and m are parameters for adjusting the influence on Ccp, and are adjusted by the system designer. By these parameters k, l and m, fine adjustment of the degree of accuracy of the camera position and orientation is performed.

次いで、風景情報フィルタ部8は、ナビゲーション制御部1からコンテンツ情報、つまり運転者に提示したい情報の種類(例えば、交差点への転回方向指示、ビル内の店の案内、遠方の山や湖の案内等)と、その種類によって示される対象の地表を基準とした位置(例えば、緯度、経度、標高)を取得する。以上のようにして取得または算出された情報を、図3に示すような構造を有する風景情報として構築する。   Next, the landscape information filter unit 8 receives the content information from the navigation control unit 1, that is, the type of information to be presented to the driver (for example, the direction of turning to an intersection, guidance for a store in a building, guidance for a distant mountain or lake) Etc.) and the position (for example, latitude, longitude, altitude) based on the target ground surface indicated by the type. The information acquired or calculated as described above is constructed as landscape information having a structure as shown in FIG.

上述した風景情報の構築が終了すると、次いで、この風景情報は、後の処理で利用するために、一次保管場所に保存される(ステップST12)。この一次保管場所は、過去数分〜数十分程度分の風景情報を保管しておき、古くなったものから順に削除するような構造を有するのが好ましい。   When the construction of the landscape information described above is completed, the landscape information is then stored in a primary storage location for use in later processing (step ST12). The primary storage location preferably has a structure in which landscape information for the past several minutes to several tens of minutes is stored and deleted in order from the oldest.

次いで、正確さの度合いが調べられる(ステップST13)。すなわち、まず、風景情報に含まれるカメラ位置姿勢の正確さの度合いCcpが取り出され、あらかじめ定められたしきい値である定数Accと比較される。この比較において、カメラ位置姿勢の正確さの度合いCcpが定数Acc以下である場合、つまり、カメラ位置姿勢の正確さの度合いCcpが基準よりも不正確である場合には、この風景情報に対するステップST14からステップST19までの処理は行われず、風景情報フィルタ処理は終了する。   Next, the degree of accuracy is checked (step ST13). That is, first, the accuracy Ccp of the camera position and orientation included in the landscape information is extracted and compared with a constant Acc that is a predetermined threshold value. In this comparison, when the camera position / posture accuracy degree Ccp is equal to or less than the constant Acc, that is, when the camera position / posture accuracy degree Ccp is less accurate than the reference, step ST14 for the landscape information is performed. To ST19 are not performed, and the landscape information filter process is terminated.

上述した定数Accは、最適風景情報選択部10の動作結果に影響を与えることに留意して、システム開発者の試行錯誤によって決定するように構成できる。また、ユーザである運転者が入力操作部4から入力するように構成することもできる。さらに、コンテンツ情報の種類によって定数Accを使い分けるように構成することもできる。このステップST13を経ることにより、ステップST14以下では、カメラ5の位置および姿勢が、ある程度正確な風景情報に対してのみ処理が行われることになる。   The above-described constant Acc can be configured to be determined by trial and error of the system developer, noting that the operation result of the optimum landscape information selection unit 10 is affected. Moreover, it can also comprise so that the driver | operator who is a user may input from the input operation part 4. FIG. Further, the constant Acc can be properly used depending on the type of content information. By passing through this step ST13, in step ST14 and subsequent steps, processing is performed only for landscape information in which the position and posture of the camera 5 are somewhat accurate.

上記ステップST13において、カメラ位置姿勢の正確さの度合いCcpが定数Accより大きいことが判断された場合は、次いで、イメージ判断処理が行われる(ステップST14)。すなわち、このイメージ判断処理では、風景情報を構成するイメージ情報の質が、重ね合わせの素材として一定レベルに達しているか否かが判断される。このステップST14のイメージ判断処理の詳細を、図4に示すフローチャートを参照しながら説明する。   If it is determined in step ST13 that the degree of accuracy Ccp of the camera position and orientation is larger than the constant Acc, image determination processing is then performed (step ST14). That is, in this image determination process, it is determined whether or not the quality of the image information constituting the landscape information has reached a certain level as a material for superimposition. Details of the image determination processing in step ST14 will be described with reference to the flowchart shown in FIG.

イメージ判断処理では、まず、明るさの分布計算が行われる(ステップST21)。すなわち、処理対象となっている現在の風景情報に含まれる風景画像を構成する各画素の明るさに注目し、風景画像全体に対する中央値、分散値などといった統計値が計算される。次いで、明るさ分布は適切であるかどうかが調べられる(ステップST22)。ステップST21で計算した中央値が著しく明るい場合は画像が明るすぎ、中央値が著しく暗い場合は画像が暗すぎ、分散値がきわめて小さい場合はコントラストが低いので、何れも重ね合わせるための素材としての風景画像として適切ではないと判断される。このステップST22で、明るさ分布が適切でないと判断された場合は、イメージ判断の結果はNGである旨を記憶し(ステップST23)、その後、シーケンスは、図2のステップST15にリターンする。このように、システム設計者が、これらの統計値に対するしきい値を調整することにより、適切な素材としての風景画像を選択できる。   In the image determination process, first, brightness distribution calculation is performed (step ST21). That is, paying attention to the brightness of each pixel constituting the landscape image included in the current landscape information to be processed, statistical values such as a median value and a variance value for the entire landscape image are calculated. Next, it is checked whether or not the brightness distribution is appropriate (step ST22). When the median calculated in step ST21 is extremely bright, the image is too bright, when the median is extremely dark, the image is too dark, and when the variance is extremely small, the contrast is low. It is determined that it is not appropriate as a landscape image. If it is determined in this step ST22 that the brightness distribution is not appropriate, it is stored that the result of the image determination is NG (step ST23), and then the sequence returns to step ST15 in FIG. In this way, the system designer can select a landscape image as an appropriate material by adjusting the threshold values for these statistical values.

上記ステップST22において、明るさ分布が適切であると判断されると、明るさの分布補正処理が行われる(ステップST24)。このように、極端に悪いイメージ情報(風景画像)を排除した上で、明るさ分布が適切である画像の補正を行うことにより、イメージ情報の質を向上させることができる。なお、ここでは画素単位で明るさの統計処理を行うように構成したが、これ以外にも様々な既存の画像処理的な手法により、質の悪い画像の排除や補正による質の向上を図るように構成できる。   If it is determined in step ST22 that the brightness distribution is appropriate, brightness distribution correction processing is performed (step ST24). As described above, by excluding extremely bad image information (landscape image) and correcting an image having an appropriate brightness distribution, the quality of the image information can be improved. In this example, the statistical processing of brightness is performed on a pixel-by-pixel basis. However, in addition to this, various existing image processing techniques are used to improve quality by eliminating or correcting poor quality images. Can be configured.

次に、ブレの計算が行われる(ステップST25)。この実施の形態1における「ブレ」とは、カメラ5を設置している自車の振動や転回によって、映像が不鮮明になったり、たとえ鮮明であっても、自車の転回や路面の凹凸によって風景画像が大きく動く場合をいう。このように、風景画像が大きく動く場合には、カメラ5の位置および姿勢を計測した結果が、実際の自車の動きよりも遅れて得られることが多く、その結果、処理している画像とカメラ5の位置および姿勢との間に時間的なずれが発生し、重ね合わせ表示の際に表示上のずれが発生しやすい状況にある。   Next, blur calculation is performed (step ST25). The “blurring” in the first embodiment is caused by the turning of the own vehicle or the unevenness of the road surface even if the image becomes unclear due to the vibration or turning of the own vehicle in which the camera 5 is installed. This is when the landscape image moves greatly. As described above, when the landscape image moves greatly, the result of measuring the position and orientation of the camera 5 is often obtained later than the actual movement of the own vehicle, and as a result, There is a time lag between the position and orientation of the camera 5 and a situation where a display lag is likely to occur during superimposed display.

このステップST25では、このような状況を検出するために、図2に示すフローチャートのステップST12で保存された一定期間の過去の風景画像と処理している画像とに対して画像認識的処理が行われ、両画像の間において対応する特徴のある点の動き具合が計算される。そして、計算された対応する特徴点の移動量の平均値や中央値といった統計値がブレの評価点として用いられる。対応する点が認識できない場合には、評価点を最低点とする。   In step ST25, in order to detect such a situation, image recognition processing is performed on the past landscape image stored in step ST12 of the flowchart shown in FIG. 2 and the image being processed. Then, the degree of movement of the corresponding characteristic point between the two images is calculated. Then, a statistical value such as the average value or median value of the calculated movement amount of the corresponding feature point is used as the blur evaluation point. If the corresponding point cannot be recognized, the evaluation score is the lowest score.

なお、上述した画像認識的処理を用いる以外にも、例えば、ハンドルの切り角や、各車輪を支持するサスペンションの変位状態などといった車両状態を計測することによっても、これらのブレの状態を推測することが可能である。この場合、ハンドルの切り角の大きさや、サスペンションの変位量または変位速度の平均値などをブレの評価点として用いることができる。   In addition to using the image recognizing process described above, for example, these blurring states are also estimated by measuring a vehicle state such as a turning angle of a steering wheel or a displacement state of a suspension supporting each wheel. It is possible. In this case, the magnitude of the turning angle of the steering wheel, the average value of the displacement amount or the displacement speed of the suspension, and the like can be used as the evaluation points for blurring.

次いで、ブレは許容範囲であるかどうかが調べられる(ステップST26)。すなわち、ステップST24で算出したブレの評価点が所定のしきい値以上であるかどうかが調べられる。このステップST26において、ブレが許容範囲でないことが判断された場合、シーケンスは、ステップST23に進み、上述したように、イメージ判断の結果はNGである旨が記憶され、その後、シーケンスは、図2に示すフローチャートのステップST15にリターンする。   Next, it is checked whether or not the blur is within an allowable range (step ST26). That is, it is checked whether or not the blur evaluation score calculated in step ST24 is greater than or equal to a predetermined threshold value. If it is determined in step ST26 that the blur is not within the allowable range, the sequence proceeds to step ST23, and as described above, the fact that the result of the image determination is NG is stored, and then the sequence is as shown in FIG. Return to step ST15 of the flowchart shown in FIG.

一方、ステップST26において、ブレが許容範囲であることが判断された場合、次いで、イメージ判断の結果はOKである旨が記憶され(ステップST27)、その後、シーケンスは、図2に示すフローチャートのステップST15にリターンする。   On the other hand, if it is determined in step ST26 that the blur is within the allowable range, then it is stored that the result of the image determination is OK (step ST27), and then the sequence is the step of the flowchart shown in FIG. Return to ST15.

図2に示すフローチャートのステップST15では、適切なイメージ情報であるかどうかが調べられる。すなわち、ステップST14で得られたイメージ判断の結果に基づき、現在の風景画像を構成するイメージ情報が素材として適切か否かが判断される。ここで、適切なイメージ情報でないことが判断された場合は、この風景情報に対するステップST16からステップST19までの処理は行われず、風景情報フィルタ処理は終了する。   In step ST15 of the flowchart shown in FIG. 2, it is checked whether the image information is appropriate. That is, based on the image determination result obtained in step ST14, it is determined whether or not the image information constituting the current landscape image is appropriate as a material. If it is determined that the image information is not appropriate, the process from step ST16 to step ST19 is not performed on the landscape information, and the landscape information filter process ends.

一方、ステップST15において、適切なイメージ情報であることが判断されると、次いで、ターゲット隠蔽判断処理が行われる(ステップST16)。このターゲット隠蔽判断処理においては、コンテンツ情報を重畳する対象(以下、「ターゲット」という)がイメージ情報に含まれるか否かを判断するための処理が行われる。この処理については、次の処理のパターンがある。
(a)あらかじめ地図データベース3に格納されているような固定されている建造物がコンテンツの位置の手前に存在するためターゲットが見えなくなる場合
(b)コンテンツの位置がカメラ5の視野角から外れることによってターゲットが見えなくなる場合
(c)周辺の自動車など動的に変化するものによってターゲットが隠蔽される場合
(d)フロントガラスへの降雪や降雨によって、視野が隠蔽される場合
On the other hand, if it is determined in step ST15 that the image information is appropriate, then target concealment determination processing is performed (step ST16). In the target concealment determination process, a process for determining whether or not the image information includes a target on which content information is superimposed (hereinafter referred to as “target”) is performed. This process has the following process pattern.
(A) A fixed building such as that stored in advance in the map database 3 is present in front of the content position, so that the target cannot be seen. (B) The content position deviates from the viewing angle of the camera 5. (C) When the target is concealed by a dynamically changing object such as a surrounding car (d) When the field of view is concealed by snowfall or rain on the windshield

上記(a)および(b)については、コンテンツの位置と、カメラ位置姿勢、他の建造物の3次元形状データによる幾何学的計算、または、コンテンツの位置とカメラ位置姿勢、カメラ5の視野角による幾何学的計算によって判断が可能である。また、(c)および(d)については、カメラ5からの映像に対する画像認識的手法により検出することが可能である。例えば、ステップST12で格納された一定期間の過去の風景情報および現在の風景情報の各イメージ情報を利用し、イメージ情報間の特徴点の対応関係を明らかにする。イメージ情報間の特徴点の動きと、カメラ位置および姿勢の動きを組み合わせれば、静的な建物に関する特徴点の動きは、カメラ位置および姿勢の動きと対応するものになっている。   Regarding (a) and (b) above, the position of the content and the camera position and orientation, the geometric calculation based on the three-dimensional shape data of other buildings, or the position and the camera position and orientation of the content, and the viewing angle of the camera 5 Judgment can be made by geometrical calculation. Further, (c) and (d) can be detected by an image recognition method for the video from the camera 5. For example, using the image information of the past landscape information and the current landscape information for a certain period stored in step ST12, the correspondence between the feature points between the image information is clarified. If the movement of the feature point between the image information and the movement of the camera position and posture are combined, the movement of the feature point relating to the static building corresponds to the movement of the camera position and posture.

一方、(c)の他車に関する特徴点の動きは、他車自体の動きにも影響を受けるため、カメラ位置および姿勢の動きだけには対応しない。このような自車の動きで説明できない特徴点が含まれる領域については、他車が存在しているとみなすことができる。また、(d)については、カメラ位置や姿勢に全く影響を受けることなく、画像が固定されることになるため、このような領域も特定できる。これら(c)および(d)で特定できた領域にコンテンツの位置が一致する場合には、他車が隠蔽していると判断できる。   On the other hand, since the movement of the feature point related to the other vehicle in (c) is also affected by the movement of the other vehicle itself, it does not correspond only to the movement of the camera position and posture. Such a region including feature points that cannot be explained by the movement of the host vehicle can be regarded as the presence of another vehicle. For (d), since the image is fixed without being affected at all by the camera position and orientation, such a region can also be specified. If the position of the content matches the area identified in (c) and (d), it can be determined that the other vehicle is hiding.

なお、ここでは、画像認識的手法を用いてターゲットの隠蔽を判断するように構成したが、これに限定するものではなく、例えば自車にレーダ装置などといったセンサを備え、このセンサによる検出結果を用いてターゲットの隠蔽の有無を判断するように構成することもできる。   In this case, the target concealment is determined using an image recognition method. However, the present invention is not limited to this. For example, the vehicle includes a sensor such as a radar device, and the detection result by the sensor is displayed. It can also be configured to determine whether or not the target is concealed.

次いで、ステップST16におけるターゲット隠蔽判断処理の結果に基づき、ターゲットが隠蔽されているかどうかが調べられる(ステップST17)。ここで、ターゲットが隠蔽されていることが判断されると、この風景情報に対するステップST18およびステップST19の処理は行われず、風景情報フィルタ処理は終了する。   Next, based on the result of the target concealment determination process in step ST16, it is checked whether or not the target is concealed (step ST17). Here, if it is determined that the target is concealed, the process of step ST18 and step ST19 is not performed on the landscape information, and the landscape information filter process is terminated.

一方、ステップST17において、ターゲットが隠蔽されていないことが判断されると、次いで、構図評価処理が行われる(ステップST18)。すなわち、重ね合わせを行うコンテンツの位置とカメラ位置との距離や画像上のターゲットの位置から、構図の良否が構図の評価点として定量化される。例えば、交差点での右左折を案内する場合は、カメラ5が交差点の真ん中を画像の中央に捉えた上で、目印のための交差点周辺の建物を画像に含むような構図が望ましい。そこで、画像上において、交差点の真ん中と、画像の中央との画面上における距離を、画素数でpとする。カメラ5と対象(この場合、交差点中央)との最適な距離をDbest、カメラ5と対象との実際の距離をDとしたときの構図の評価点Eを、下式(2)を用いて算出する。
E=k*p+(1−k)|D−Dbest|…(2)
ここで、kは、0<k<1の範囲で、適切な構図の評価点になるように配慮して決定される。この評価点Eは小さい値ほど、優れた構図であることを示している。
On the other hand, if it is determined in step ST17 that the target is not concealed, composition evaluation processing is then performed (step ST18). That is, the quality of the composition is quantified as an evaluation point of the composition from the distance between the position of the content to be superimposed and the camera position and the position of the target on the image. For example, when guiding a left or right turn at an intersection, it is desirable that the camera 5 captures the center of the intersection in the center of the image and includes a building around the intersection for the landmark in the image. Therefore, on the image, the distance on the screen between the center of the intersection and the center of the image is p in terms of the number of pixels. The evaluation point E of the composition is calculated using the following equation (2), where Dbest is the optimum distance between the camera 5 and the object (in this case, the center of the intersection), and D is the actual distance between the camera 5 and the object. To do.
E = k * p + (1-k) | D-Dbest | ... (2)
Here, k is determined in consideration of an evaluation score of an appropriate composition within a range of 0 <k <1. The smaller the evaluation score E, the better the composition.

また、道路周辺のビルや店の場合には、対象となるターゲットを十分に認識できるほどの距離に近づくことが重要であったり、山や湖などといったランドマークの案内の場合には、遠くても早めに案内を出すことを優先するなど、上記式(2)のkやDbestは、提示する情報の種類や、対象の大きさに応じてシステム開発者が調整する。この構図の評価点Eは、図2に示すように、風景情報に格納される。   In the case of buildings and shops around the road, it is important to get close enough to recognize the target, or in the case of landmarks such as mountains and lakes, it is far away. The system developer adjusts k and Dbest in the above formula (2) according to the type of information to be presented and the size of the target. The evaluation point E of this composition is stored in the landscape information as shown in FIG.

次いで、上述した処理によって作成された風景情報が風景情報蓄積部9に格納される(ステップST19)。以上により、風景情報フィルタ部8における風景情報フィルタ処理は終了する。   Next, the landscape information created by the above-described processing is stored in the landscape information storage unit 9 (step ST19). Thus, the landscape information filter process in the landscape information filter unit 8 ends.

なお、この風景情報フィルタ部8における風景情報フィルタ処理は、一定時間毎に周期的に実施することができる。また、映像取得部6が映像を取得したタイミングで実施するように構成することもできる。   The landscape information filtering process in the landscape information filter unit 8 can be performed periodically at regular intervals. Moreover, it can also comprise so that it may implement at the timing which the image | video acquisition part 6 acquired the image | video.

次に、最適風景情報選択部10で行われる最適風景情報選択処理の詳細を、図5に示すフローチャートを参照しながら説明する。   Next, details of the optimum landscape information selection process performed by the optimum landscape information selection unit 10 will be described with reference to the flowchart shown in FIG.

まず、カメラ位置姿勢計測部7から得られる現在のカメラ位置および姿勢を表すカメラ位置姿勢情報とナビゲーション制御部1から得られるコンテンツ情報とに基づいて、利用可能な複数の風景情報が風景情報蓄積部9から選択されて読み込まれる(ステップST31)。すなわち、最適風景情報選択部10は、ターゲットが一致している風景情報の中から、現在のカメラ位置および姿勢が一定の範囲で近いものを取得する。この範囲は、適切な値を調整した上で決定することができる。   First, based on the camera position / orientation information representing the current camera position and orientation obtained from the camera position / orientation measurement unit 7 and the content information obtained from the navigation control unit 1, a plurality of available landscape information is stored in the landscape information storage unit. 9 is selected and read (step ST31). In other words, the optimal landscape information selection unit 10 acquires the current camera position and posture that are close within a certain range from the landscape information that matches the target. This range can be determined after adjusting an appropriate value.

次いで、読み込まれた複数の風景情報の中から、最も構図の評価点の優れたものが最良風景情報として選択される(ステップST32)。なお、ステップST31では、数秒前といったきわめて近い過去の風景情報の他にも、例えば数ヶ月前に同様の案内がなされときに蓄積された風景情報が得られることがある。最適な風景情報として、近い過去の風景情報と遠い過去の風景情報が頻繁に切り替わることがないように、遠い過去の風景情報は、現在が降雪や降雨によって視界が遮られている場合や、全くの夜間で見えない場合などに限って利用されるように構成できる。このステップST32において選択された最良の風景情報は、最適風景情報選択部10の処理結果としてコンテンツ合成部11に送られ、この最良の風景情報に基づきコンテンツが合成されてユーザに提供される。   Next, from the plurality of read landscape information, the one having the best composition evaluation point is selected as the best landscape information (step ST32). In step ST31, in addition to past landscape information that is very close to several seconds ago, for example, landscape information accumulated when a similar guidance is given several months ago may be obtained. As the optimal landscape information, the distant past landscape information may not be frequently switched between the near past landscape information and the distant past landscape information. It can be configured to be used only when it is not visible at night. The best landscape information selected in step ST32 is sent to the content composition unit 11 as a processing result of the optimum landscape information selection unit 10, and the content is synthesized based on this best landscape information and provided to the user.

なお、これら最適風景情報選択部10は、あらかじめ定められた周期で、最適風景情報選択処理を繰り返し実行するように構成できる。また、ナビゲーション制御部1によって表示するコンテンツが変更された場合や、映像取得部6が映像を取得したタイミング、または、これらの組み合せで実行するように構成することもできる。   The optimum landscape information selection unit 10 can be configured to repeatedly execute the optimum landscape information selection process at a predetermined cycle. Moreover, it can also be configured such that the content displayed by the navigation control unit 1 is changed, the timing at which the video acquisition unit 6 acquires the video, or a combination thereof.

以上説明したように、この発明の実施の形態1に係る車載ナビゲーション装置によれば、ユーザに提示すべきコンテンツ情報を重畳するのに相応しい背景画像を、自らが過去に走行したことによって蓄積された風景画像の中から、精度の高いコンテンツの重ね合わせが可能な風景画像や情報提供のための望ましい構図を有する風景画像といった適切な風景画像を選択できるので、運転者へ提供する案内情報の品質を高めることができる。   As described above, according to the in-vehicle navigation device according to the first embodiment of the present invention, the background image suitable for superimposing the content information to be presented to the user is accumulated as a result of traveling in the past. From the landscape image, it is possible to select an appropriate landscape image such as a landscape image capable of overlaying highly accurate content and a landscape image having a desirable composition for providing information, so that the quality of the guidance information provided to the driver can be improved. Can be increased.

実施の形態2.
上述した実施の形態1に係る車載ナビゲーション装置では、「不適切な画像」、「不適切な位置姿勢」および「不適切な構図」を回避した質の高い情報を提供できるように構成したが、この実施の形態2に係る車載ナビゲーション装置は、さらに、不適切な画像更新を回避するようにしたものである。
Embodiment 2. FIG.
The in-vehicle navigation device according to the first embodiment described above is configured to provide high-quality information that avoids “inappropriate image”, “inappropriate position and orientation”, and “inappropriate composition”. The in-vehicle navigation device according to the second embodiment further avoids inappropriate image updating.

運転者は、運転中は通常車両の前方を中心として周囲を直接に監視して運転しなければならず、車載ナビゲーション装置の画像を注視することは危険である。そのため動画のように頻繁に画像を更新し、必要以上に運転者の注意を画面に引きつけること(不適切な画像更新)を避けるために、風景画像の更新周期を制御する必要がある。そこで、この実施の形態2に係る車載ナビゲーション装置では、実施の形態1に示した「不適切な画像」、「不適切な位置姿勢」および「不適切な構図」に加え、「不適切な画像更新」についても回避できるように制御する。   During driving, the driver usually has to monitor the surroundings directly around the front of the vehicle, and it is dangerous to watch the image of the in-vehicle navigation device. Therefore, it is necessary to control the update cycle of the landscape image in order to update the image frequently like a moving image and avoid attracting the driver's attention to the screen more than necessary (inappropriate image update). Therefore, in the in-vehicle navigation device according to the second embodiment, in addition to the “inappropriate image”, “inappropriate position and orientation”, and “inappropriate composition” shown in the first embodiment, “Update” is also controlled so that it can be avoided.

この実施の形態2に係る車載ナビゲーション装置の構成は、最適画像情報選択部10で行われる処理を除き、上述した実施の形態1に係る車載ナビゲーション装置の構成と同じである。以下では、最適画像情報選択部10で実行される最適画像情報選択処理についてのみ説明する。   The configuration of the in-vehicle navigation device according to the second embodiment is the same as the configuration of the in-vehicle navigation device according to the above-described first embodiment except for the processing performed by the optimum image information selection unit 10. Hereinafter, only the optimum image information selection process executed by the optimum image information selection unit 10 will be described.

図6は、実施の形態2に係る車載ナビゲーション装置の最適画像情報選択部10で行われる最適画像情報選択処理の詳細を示すフローチャートである。ステップST31およびステップST32は、図5のフローチャートに示した処理と同じである。すなわち、まず、カメラ位置姿勢計測部7から得られる現在のカメラ位置および姿勢を表すカメラ位置姿勢情報とナビゲーション制御部1から得られるコンテンツ情報とに基づいて、利用可能な複数の風景情報が風景情報蓄積部9から選択されて読み込まれる(ステップST31)。次いで、読み込まれた複数の風景情報の中から、最も構図の評価点の優れたものが最良風景情報として選択される(ステップST32)。   FIG. 6 is a flowchart showing details of the optimum image information selection process performed by the optimum image information selection unit 10 of the in-vehicle navigation device according to the second embodiment. Step ST31 and step ST32 are the same as the processing shown in the flowchart of FIG. That is, first, based on the camera position / orientation information indicating the current camera position and orientation obtained from the camera position / orientation measurement unit 7 and the content information obtained from the navigation control unit 1, a plurality of available landscape information is obtained as landscape information. It is selected and read from the storage unit 9 (step ST31). Next, from the plurality of read landscape information, the one having the best composition evaluation point is selected as the best landscape information (step ST32).

次いで、現在使用している風景の採用時刻Tdispが取得される(ステップST33)。この時刻Tdispは、最適風景情報選択部10で風景情報を更新した時刻である。次いで、現在時刻tと時刻Tdispの差が最小画像更新時間Tminを超えているか否かが調べられる(ステップST34)。最新画像更新時間Tminは、頻繁な画像更新を防止するために設けられており、例えば、1秒とか5秒などといった値があらかじめ与えられている。この最新画像更新時間Tminの値は、運転者が設定するように構成することもできる。   Next, the adoption time Tdisp of the scenery currently used is acquired (step ST33). This time Tdisp is the time when the optimum landscape information selection unit 10 updates the landscape information. Next, it is checked whether or not the difference between the current time t and the time Tdisp exceeds the minimum image update time Tmin (step ST34). The latest image update time Tmin is provided in order to prevent frequent image update, and a value such as 1 second or 5 seconds is given in advance. The value of the latest image update time Tmin can be configured to be set by the driver.

ステップST34において、現在時刻tと時刻Tdispの差が最小画像更新時間Tminを超えていることが判断されると、次いで、ステップST32において選択された最良風景情報が、最適風景情報選択部10の最適風景情報として採用され(ステップST35)、この採用された最適風景情報がコンテンツ合成部11に提供される。また、時刻Tdispに現在時刻tを代入される。以上により、最適風景情報選択処理が終了する。上記ステップST34において、現在時刻tと時刻Tdispの差が最小画像更新時間Tminを超えていないことが判断されると、ステップST35の処理はスキップされ、最適風景情報選択処理が終了する。   If it is determined in step ST34 that the difference between the current time t and the time Tdisp exceeds the minimum image update time Tmin, then the best landscape information selected in step ST32 is the optimum landscape information selection unit 10's optimum. Adopted as landscape information (step ST35), the adopted optimal landscape information is provided to the content composition unit 11. Also, the current time t is substituted for the time Tdisp. Thus, the optimum landscape information selection process ends. If it is determined in step ST34 that the difference between the current time t and the time Tdisp does not exceed the minimum image update time Tmin, the process in step ST35 is skipped, and the optimum landscape information selection process ends.

以上説明したように、この発明の実施の形態2に係る車載ナビゲーション装置によれば、重ね合わせの精度が高く、望ましい構図の重ね合わせ表示を望ましい更新周期で運転者に提供することができる。   As described above, according to the vehicle-mounted navigation device according to Embodiment 2 of the present invention, the overlay accuracy is high, and the overlay display of the desired composition can be provided to the driver at the desired update cycle.

実施の形態3.
図7は、この発明の実施の形態3に係る車載ナビゲーション装置を含むナビゲーションシステムの構成を示す図である。このナビゲーションシステムは、複数の自動車A16、B17およびC18にそれぞれ搭載される複数の車載ナビゲーション装置とセンタ19とから構成されている。
Embodiment 3 FIG.
FIG. 7 is a diagram showing a configuration of a navigation system including an in-vehicle navigation device according to Embodiment 3 of the present invention. This navigation system includes a plurality of in-vehicle navigation devices and a center 19 that are respectively mounted on a plurality of automobiles A16, B17, and C18.

自動車A16、B17およびC18に搭載される各車載ナビゲーション装置の構成は同一であるので、以下では、自動車A16に搭載される車載ナビゲーション装置についてのみ説明する。この自動車A16に搭載される車載ナビゲーション装置は、実施の形態1に係る車載ナビゲーション装置に、通信部13が追加されて構成されている。通信部13は、当該車載ナビゲーション装置とセンタ19との間の通信を制御する。具体的には、通信部13は、風景情報蓄積部9に蓄積された風景情報をセンタ19に送信するとともに、センタ19から送られてくる風景情報を受信して風景情報蓄積部9に格納する。   Since the configurations of the in-vehicle navigation devices mounted on the automobiles A16, B17, and C18 are the same, only the in-vehicle navigation device mounted on the automobile A16 will be described below. The in-vehicle navigation device mounted on the automobile A16 is configured by adding the communication unit 13 to the in-vehicle navigation device according to the first embodiment. The communication unit 13 controls communication between the in-vehicle navigation device and the center 19. Specifically, the communication unit 13 transmits the landscape information stored in the landscape information storage unit 9 to the center 19 and receives the landscape information transmitted from the center 19 and stores it in the landscape information storage unit 9. .

センタ19は、通信部14と共通風景情報蓄積部15とから構成されている。通信部14は、当該センタ19と各自動車A16〜C18に搭載された車載ナビゲーション装置との間の通信を制御する。具体的には、通信部14は、共通風景情報蓄積部15に蓄積された風景情報を各自動車A16〜C18に搭載された車載ナビゲーション装置に送信するとともに、各自動車A16〜C18に搭載された車載ナビゲーション装置から送られてくる風景情報を受信して共通風景情報蓄積部15に格納する。   The center 19 includes a communication unit 14 and a common landscape information storage unit 15. The communication unit 14 controls communication between the center 19 and the in-vehicle navigation devices mounted on the automobiles A16 to C18. Specifically, the communication unit 14 transmits the landscape information stored in the common landscape information storage unit 15 to the in-vehicle navigation device mounted on each of the cars A16 to C18, and the onboard mounted on each of the cars A16 to C18. The landscape information sent from the navigation device is received and stored in the common landscape information storage unit 15.

上述した通信部13と通信部14との間の通信は、無線LANや携帯電話といった無線、道路側に設置された光ビーコンとの間で送受される赤外線などの光、インターネットや専用線などの有線、これらの組み合せなどを利用して行うことができる。   The communication between the communication unit 13 and the communication unit 14 described above is performed by wireless such as a wireless LAN or a cellular phone, light such as infrared rays transmitted and received between an optical beacon installed on the road side, the Internet, a dedicated line, etc. It can be performed using a cable or a combination of these.

上記のように構成される、この発明の実施の形態3に係る車載ナビゲーション装置では、風景情報フィルタ部8と最適風景情報選択部10は、実施の形態1で説明した処理と同じ処理を実施するが、風景情報蓄積部9に蓄積されている風景情報を、一定周期毎、またはエンジン始動や通信路が確保されたタイミングをトリガーとして、センタ19の共通風景情報蓄積部15に送る。   In the in-vehicle navigation device according to the third embodiment of the present invention configured as described above, the landscape information filter unit 8 and the optimum landscape information selection unit 10 perform the same processing as that described in the first embodiment. However, the landscape information stored in the landscape information storage unit 9 is sent to the common landscape information storage unit 15 of the center 19 at regular intervals or triggered by the timing at which the engine is started or the communication path is secured.

また、最適風景情報選択部10から要求された風景情報が風景情報蓄積部9に存在しない場合は、共通風景情報蓄積部15から他車が提供した風景情報が取得され、最適風景情報選択部10に提供される。このような共通風景情報蓄積部15に蓄積された風景情報の取得は、必要なときに行うように構成できる。また、通信路が確保されたときに、今後の経路上で必要になりそうな風景情報を共通風景情報蓄積部15から一括して取得しておき、風景情報蓄積部9に保存しておくように構成することもできる。さらに、運転者による操作に応じて共通風景情報蓄積部15から風景情報を取得し、風景情報蓄積部9に保存しておくように構成することもできる。   If the landscape information requested by the optimal landscape information selection unit 10 does not exist in the landscape information storage unit 9, the landscape information provided by another vehicle is acquired from the common landscape information storage unit 15, and the optimal landscape information selection unit 10 Provided to. Such acquisition of the landscape information stored in the common landscape information storage unit 15 can be performed when necessary. In addition, when a communication path is secured, scenery information that is likely to be required in the future route is collectively acquired from the common scenery information accumulation unit 15 and stored in the scenery information accumulation unit 9. It can also be configured. Furthermore, it is also possible to obtain landscape information from the common landscape information storage unit 15 according to an operation by the driver and store it in the landscape information storage unit 9.

以上説明したように、この実施の形態3に係る車載ナビゲーション装置によれば、複数の自動車の車載ナビゲーション装置が風景情報をセンタ19に蓄積し、各自動車の車載ナビゲーション装置が、センタ19に蓄積された風景情報を共通に使用できるように構成したので、各自動車に搭載された車載ナビゲーション装置は、自ら走行したことがない地域の風景についても、他車によってセンタ19に蓄積された風景情報を利用することにより、風景画像にコンテンツを重ね合わせて表示することが可能になる。   As described above, according to the in-vehicle navigation device according to the third embodiment, the in-vehicle navigation devices of a plurality of automobiles store the landscape information in the center 19, and the in-vehicle navigation devices of each automobile are stored in the center 19. The vehicle-mounted navigation device installed in each vehicle uses the landscape information stored in the center 19 by other vehicles, even for local landscapes that have never traveled. By doing so, it is possible to display the content superimposed on the landscape image.

この発明の実施の形態1に係る車載ナビゲーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted navigation apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る車載ナビゲーション装置の風景情報フィルタ部において実行される風景情報フィルタ処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the landscape information filter process performed in the landscape information filter part of the vehicle-mounted navigation apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る車載ナビゲーション装置で使用される風景情報の構造の例を示す図である。It is a figure which shows the example of the structure of the landscape information used with the vehicle-mounted navigation apparatus which concerns on Embodiment 1 of this invention. 図3のステップST14で行われるイメージ判断処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the image determination process performed by step ST14 of FIG. この発明の実施の形態1に係る車載ナビゲーション装置の最適風景情報選択部において行われる最適風景情報選択処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the optimal landscape information selection process performed in the optimal landscape information selection part of the vehicle-mounted navigation apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態2に係る車載ナビゲーション装置の最適風景情報選択部において行われる最適風景情報選択処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the optimal scenery information selection process performed in the optimal scenery information selection part of the vehicle-mounted navigation apparatus which concerns on Embodiment 2 of this invention. この発明の実施の形態3に係る車載ナビゲーション装置およびこれを用いたナビゲーションシステムの構成を示す図である。It is a figure which shows the structure of the vehicle-mounted navigation apparatus which concerns on Embodiment 3 of this invention, and a navigation system using the same.

符号の説明Explanation of symbols

1 ナビゲーション制御部、2 自車位置検出部、3 地図データベース、4 入力操作部、5 カメラ、6 映像取得部、7 カメラ位置姿勢計測部、8 風景情報フィルタ部、10 最適風景情報選択部、11 コンテンツ合成部、12 表示部、13 通信部、14 通信部、15 共通風景情報蓄積部、16 自動車A、17 自動車B、18 自動車C、19 センタ。
DESCRIPTION OF SYMBOLS 1 Navigation control part, 2 Own vehicle position detection part, 3 Map database, 4 Input operation part, 5 Camera, 6 Image | video acquisition part, 7 Camera position and orientation measurement part, 8 Landscape information filter part, 10 Optimal scenery information selection part, 11 Content composition unit, 12 display unit, 13 communication unit, 14 communication unit, 15 common landscape information storage unit, 16 car A, 17 car B, 18 car C, 19 center.

Claims (5)

前方の風景画像にコンテンツ情報を重畳して表示部に表示することにより案内を行う車載ナビゲーション装置において、
前方の風景をカメラで撮影した風景画像を取得する映像取得部と、
前記映像取得部で取得された風景画像から背景画像として好適な風景画像を選別し、該選別された風景画像と背景画像として好適であるかどうかの判断に使用した情報とを含む風景情報を出力する風景情報フィルタ部と、
前記風景情報フィルタ部から出力される風景情報を蓄積する風景情報蓄積部と、
前記風景情報蓄積部に蓄積されている風景情報から前記コンテンツ情報を重畳させるのに最適な風景情報を選択する最適風景情報選択部と、
前記最適風景情報選択部で選択された風景情報に含まれる風景画像と前記コンテンツ情報とを合成して案内情報として前記表示部に表示させるコンテンツ合成部
とを備えた車載ナビゲーション装置。
In an in-vehicle navigation device that performs guidance by superimposing content information on a front landscape image and displaying it on a display unit,
A video acquisition unit for acquiring a landscape image obtained by photographing the landscape in front with a camera;
A landscape image suitable as a background image is selected from the landscape image acquired by the video acquisition unit, and landscape information including the selected landscape image and information used to determine whether the image is suitable as a background image is output. A landscape information filter section
A landscape information storage unit for storing landscape information output from the landscape information filter unit;
An optimal landscape information selection unit for selecting optimal landscape information for superimposing the content information from the landscape information stored in the landscape information storage unit;
A vehicle-mounted navigation device comprising: a content synthesis unit that synthesizes a landscape image included in the landscape information selected by the optimum landscape information selection unit and the content information and displays the synthesized information as guidance information on the display unit.
自車の位置および姿勢を検出する自車位置検出部と、
カメラの位置および姿勢を計測するカメラ位置姿勢計測部と、
コンテンツ情報を提供するナビゲーション制御部とを備え、
風景情報フィルタ部は、
映像取得部によって取得された風景画像から、前記自車位置検出部で検出された自車の位置および姿勢、前記カメラ位置姿勢計測部で計測されたカメラの位置および姿勢、ならびに、前記ナビゲーション制御部から提供されるコンテンツの各状態に基づき、背景画像として好適な風景画像を選別する
ことを特徴とする請求項1記載の車載ナビゲーション装置。
A vehicle position detector for detecting the position and posture of the vehicle;
A camera position and orientation measurement unit that measures the position and orientation of the camera;
A navigation control unit that provides content information,
The landscape information filter section
From the landscape image acquired by the video acquisition unit, the position and orientation of the own vehicle detected by the own vehicle position detection unit, the position and orientation of the camera measured by the camera position and orientation measurement unit, and the navigation control unit The vehicle-mounted navigation device according to claim 1, wherein a landscape image suitable as a background image is selected based on each state of the content provided from.
最適風景情報選択部は、
ナビゲーション制御部から提供されるコンテンツ情報とカメラ位置姿勢計測部で計測されたカメラの位置および姿勢を表す情報とに基づき、コンテンツ情報を重畳させるのに最適な風景情報を選択する
ことを特徴とする請求項2記載の車載ナビゲーション装置。
The optimal landscape information selection section
Selecting optimal landscape information for superimposing content information based on content information provided from a navigation control unit and information representing a camera position and orientation measured by a camera position and orientation measurement unit The in-vehicle navigation device according to claim 2.
最適風景情報選択部は、所定時間以上の周期で、風景情報蓄積部に蓄積されている風景情報からコンテンツを重畳させるのに最適な風景情報を選択して更新を行うことを特徴とする請求項1記載の車載ナビゲーション装置。   The optimal landscape information selection unit selects and updates the optimal landscape information for superimposing content from the landscape information stored in the landscape information storage unit at a period of a predetermined time or more. The vehicle-mounted navigation device according to 1. 風景情報蓄積部に蓄積されている風景情報を外部に送信するとともに、外部から風景情報を受信して前記風景情報蓄積部に蓄積する通信部を備えたことを特徴とする請求項1または請求項4記載の車載ナビゲーション装置。
2. The communication device according to claim 1, further comprising: a communication unit that transmits the landscape information stored in the landscape information storage unit to the outside, and receives the landscape information from the outside and stores it in the landscape information storage unit. 4. The in-vehicle navigation device according to 4.
JP2005225747A 2005-08-03 2005-08-03 Car navigation system Expired - Fee Related JP4737523B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005225747A JP4737523B2 (en) 2005-08-03 2005-08-03 Car navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005225747A JP4737523B2 (en) 2005-08-03 2005-08-03 Car navigation system

Publications (2)

Publication Number Publication Date
JP2007040844A true JP2007040844A (en) 2007-02-15
JP4737523B2 JP4737523B2 (en) 2011-08-03

Family

ID=37798962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005225747A Expired - Fee Related JP4737523B2 (en) 2005-08-03 2005-08-03 Car navigation system

Country Status (1)

Country Link
JP (1) JP4737523B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013185871A (en) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd Mobile object position attitude estimation device and method
JP2017198647A (en) * 2016-04-26 2017-11-02 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC System and method for presenting media content in autonomous vehicles
CN110954125A (en) * 2018-09-27 2020-04-03 上海博泰悦臻电子设备制造有限公司 Vehicle navigation background switching system and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09113291A (en) * 1995-10-19 1997-05-02 Toshiba Corp Map displaying and processing device
JP2003269971A (en) * 2002-03-20 2003-09-25 Denso Corp In-vehicle navigation device
JP2004257979A (en) * 2003-02-27 2004-09-16 Sanyo Electric Co Ltd Navigation apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09113291A (en) * 1995-10-19 1997-05-02 Toshiba Corp Map displaying and processing device
JP2003269971A (en) * 2002-03-20 2003-09-25 Denso Corp In-vehicle navigation device
JP2004257979A (en) * 2003-02-27 2004-09-16 Sanyo Electric Co Ltd Navigation apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013185871A (en) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd Mobile object position attitude estimation device and method
JP2017198647A (en) * 2016-04-26 2017-11-02 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC System and method for presenting media content in autonomous vehicles
CN110954125A (en) * 2018-09-27 2020-04-03 上海博泰悦臻电子设备制造有限公司 Vehicle navigation background switching system and method

Also Published As

Publication number Publication date
JP4737523B2 (en) 2011-08-03

Similar Documents

Publication Publication Date Title
US8103442B2 (en) Navigation device and its method
US8094192B2 (en) Driving support method and driving support apparatus
JP2019508677A (en) Control of vehicle components using maps
JP5223768B2 (en) Vehicle display device
US20120185165A1 (en) Navigation device with camera-info
US20090187333A1 (en) Method and System for Displaying Navigation Instructions
US20090171582A1 (en) Vehicle navigation system
US20070233370A1 (en) Navigation system
JP2003333586A (en) Imaging apparatus, and control method for imaging apparatus
JP5028662B2 (en) Road white line detection method, road white line detection program, and road white line detection device
JP6207715B2 (en) Navigation system, image server, portable terminal, navigation support method, and navigation support program
JP2011152865A (en) On-vehicle image pickup device
JP4797849B2 (en) Driving support image display system and in-vehicle device
JP4858212B2 (en) Car navigation system
JP2005214857A (en) Navigation system, and guide image preparation method
JP2010134640A (en) Information acquisition apparatus
JP2010154304A (en) Mobile camera system and driving method
JP4737523B2 (en) Car navigation system
US8666655B2 (en) Systems and methods for navigation
JP4600391B2 (en) Display device, display system, and display method
JP2006344133A (en) Road division line detector
JP5517176B2 (en) Image adjustment apparatus, control method, program, and storage medium
JP4725503B2 (en) In-vehicle device, driving support system, and driving support method
JP5231595B2 (en) Navigation device
JP2009014555A (en) Navigation device, navigation method, and navigation program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080730

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080821

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100408

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110420

R150 Certificate of patent or registration of utility model

Ref document number: 4737523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees