JP2004125446A - Navigation device and navigation program - Google Patents

Navigation device and navigation program Download PDF

Info

Publication number
JP2004125446A
JP2004125446A JP2002286316A JP2002286316A JP2004125446A JP 2004125446 A JP2004125446 A JP 2004125446A JP 2002286316 A JP2002286316 A JP 2002286316A JP 2002286316 A JP2002286316 A JP 2002286316A JP 2004125446 A JP2004125446 A JP 2004125446A
Authority
JP
Japan
Prior art keywords
map
image
vehicle position
vehicle
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002286316A
Other languages
Japanese (ja)
Inventor
Takao Yahiro
八尋 隆生
Tomohiro Harada
原田 智広
Fukunari Iguchi
井口 福也
Naoya Koga
古賀 直哉
Yoshiko Higeta
日下田 佳子
Satoshi Hara
原   聡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2002286316A priority Critical patent/JP2004125446A/en
Publication of JP2004125446A publication Critical patent/JP2004125446A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation device and its program capable of displaying the circumferential map information in detail, while grasping a situation of a point relating to a route. <P>SOLUTION: When a user performs the scenic image reading-out operation or in a case when a vehicle is close to a predetermined distance from a positional coordinate of the scenic image stored in the memory, and the photographing direction and the vehicle traveling direction are approximately agreed with each other, the scenic image of the close position is read out form a memory. On the other hand, the map data of the circumference of a vehicle position to be displayed on a display part is obtained from a camera through the memory by a map data processing part, the processing for transparency is performed on a background part of a map, so that a backing image is transmitted through the background part of the map when the map is superposed to the scenic image, and an image composing part superposes the map processed by the map data processing part to the camera image taken out from the memory to create a composite image, and displays the image on the displaying part. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、車両位置を検出し、地図上に車両位置を表示するナビゲーション装置に関し、特に地図上の所定地点の道路状況を示す画像に地図データを重ねて表示可能なナビゲーション装置、およびナビゲーションプログラムに関する。
【0002】
【従来の技術】
近年、デジタル技術と自動車の普及に伴い、ナビゲーション装置、プログラムなどの車載用ナビゲーション技術が急速に進歩している。ナビゲーション技術は、設定した目的地までの最適な誘導経路(単に「経路」とも呼ぶ)を、予め準備した道路地図データに基づき各区間道路の重み付け換算等により計算・設定し、車両の走行に伴い経路中の重要地点で右左折等の案内を画面表示などで行うものである。
【0003】
そして、車両が経路中の右左折地点に所定距離まで接近した場合には、予め用意した交差点ごとの風景画像や車両に設定したカメラからの車両前方映像を地図表示に換えてモニターに表示すると共に、その交差点風景表示に右左折方向を示す矢印を合成して表示させていた(例えば、特許文献1参照)。
【0004】
【特許文献1】
特開平7−63572号公報(段落0010他、第7図、第8図、第9図)
【0005】
【発明が解決しようとする課題】
しかしながら、車両前方の交差点画像と車両進行方向を示す矢印を地図に替えて画面に表示させる上記のような従来技術では、右左折すべき交差点に接近した場合、周辺の地図を表示させる事ができず、右左折し終わった直後の状況を予め把握しておくことができないという課題が有った。この課題の1つの解決法として、右左折交差点の風景画像と地図とを2画面で表示する遠い右方法も考えられるが、車両に設置されるモニタには大きさに限度があり、この場合は右左折すべき交差点の風景映像が小さくなり、右左折交差点自体の状況を把握しづらくなるという課題があった。
【0006】
本発明は、上記のような従来技術の課題を解決するために提案されたもので、その目的は、経路に関する地点の状況を詳細に把握しつつ、周辺の地図情報も詳細に表示可能なナビゲーション装置、及びプログラムを提供する事である。
【0007】
【課題を解決するための手段】
上記目的を達成するため、請求項1の発明は、車両位置を検出する車両位置検出部と、道路データを含む地図データが記憶された記憶部と、上記地図とともに上記車両位置を表示する表示部と、上記車両位置検出部により検出された車両位置に応じて上記記憶部より地図を読み出すと共に、読み出された地図上に車両位置を重ねて上記表示部に表示させる表示制御手段と、を備えたナビゲーション装置において、道路状況を撮影したカメラ映像を含む映像データを記憶する道路状況画像記憶手段と、上記カメラ映像に地図を重ねて表示させた際に下地画像が地図の背景部分を透過するように地図の背景部分を透過処理する地図データ加工処理手段と、指令信号を発生する指令信号発生部と、上記指令信号が発生した際に、地図データ加工処理手段により加工された地図を上記道路状況画像記憶手段に記憶されたカメラ映像に重ねて合成する画像合成手段と、を備えたことを要旨としている。
【0008】
請求項4の発明は、請求項1の発明をコンピュータのプログラムという見方から捉えたもので、車両位置を検出し、地図とともに上記車両位置を表示し、上記車両位置検出部により検出された車両位置に応じて上記地図を読み出すと共に、読み出された地図上に車両位置を重ねて表示させるナビゲーションプログラムにおいて、道路状況を撮影したカメラ映像を含む映像データを記憶し、指令信号が発生した際に、下地画像が地図の背景部分を透過するように地図の背景部分を透過処理すると共に、前記透過処理された地図に記憶されたカメラ映像を重ねて合成する事を要旨としている。
【0009】
請求項2の発明では、請求項1記載のナビゲーション装置において、上記指令信号発生部は車両位置が所定の位置から予め定められた範囲に入った際に上記指令信号を発生し、上記カメラ映像が事前に撮影した車両前方風景であり、上記映像データは位置データと撮影方向が記憶されている事を要旨としている。
【0010】
請求項5の発明では、請求項4記載のナビゲーションプログラムにおいて、上記指令信号は車両位置が所定の位置から予め定められた範囲に入った際に発生され、上記カメラ映像が事前に撮影した車両前方風景であり、上記カメラ映像は位置データと撮影方向が記憶されている事を要旨としている。
【0011】
これらの態様では、車両が所定地点に接近した際に自動的に所定地点に対応したカメラの映像が地図情報と合成されて表示される。
【0012】
請求項3の発明では、請求項1記載のナビゲーション装置において、上記地図データ加工処理手段が、上記カメラ映像に地図を重ねた際に下地画像が地図の背景部分を透過するようにすると共に、上記背景部分周囲を縁取りし、且つ縁取り色をカメラ画像の色と反対色としたこととを要旨としている。
【0013】
請求項6の発明では、請求項4記載のナビゲーションプログラムにおいて、上記カメラ映像に地図を重ねた際に下地画像が地図の背景部分を透過するようにすると共に、上記背景部分周囲を縁取りし、且つ縁取り色をカメラ画像の色と反対色としたこととを要旨としている。
【0014】
これらの態様では、カメラ映像に地図を重ねた際に地図の背景部分背景部分周囲を縁取りし、且つ縁取り色をカメラ画像の色と反対色とし、カメラ画像と地図との境界部分が強調され、カメラ画像により地図が見にくくなることがない。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態(以下「実施形態」と呼ぶ)にいて図面を参照して具体的に説明する。尚、本実施形態は、コンピュータをプログラムで制御することにより実現できるが、この場合のハードウェアやプログラムの実施態様は各種変更可能であるから、以下の説明では、本発明及び本実施形態の各機能を実現する仮想的ブロック図を用いる。
【0016】
[1.構成]
本実施形態は、本発明のナビゲーション装置を示し、プログラム、そのようなプログラムを記録した記録媒体としても把握可能であり、そのようなプログラムをインターネットなどの通信ネットワークを介して各車両のナビゲーション装置にダウンロードして実行させることも本発明の一態様である。
【0017】
まず、本ナビゲーション装置は、ユーザが設定した目的までの経路を、予め用意された道路データに基づいて探索及び設定し、その経路に沿った各案内を行うナビゲーション装置であり、図1の機能ブロック図示す各要素を備えている。
【0018】
すなわち、絶対位置・方位検出部1は、本装置が搭載された自動車(自車と呼ぶ)の現在位置すなわち自車位置について、地表での絶対的な位置座標や方位を計算するために、例えば、GPS衛星から送られてくるGPS電波をアンテナやレシーバなどで受信するための部分である。また、相対方位検出部2は、ジャイ口などを使って自車の相対的な方位を検出するための部分である。また、車速検出部3は、自動車より得られる車速パルスを処理することで自車の速度を計算する部分である。
【0019】
また、メインCPU及びその周辺回路4は、本装置全体を制御する制御回路の役割を果たす部分である。また、メモリ群Mは、本装置の動作に必要な各種のメモリで、例えば、プログラム格納用のROM5は本装置の起動時にメインCPUによりアクセスされる。また、ワークエリアなどを提供するダイナミックRAM(DRAM)6にはメインプログラムがロードされる。また、設定などの情報をバックアップするSRAM(スタティックRAM)7はメイン電源がオフになっている間もバッテリーパックアップされ、オンになったときにメモリ内容を提供する。尚、後述するカメラ16からの映像はこのSRAM7に撮影日時と撮影座標データと、撮影方向データと共に記憶される。また、表示用のVRAM(ビデオRAM)8は表示部10に表示すべき画像のビットマップデータを格納する。
【0020】
また、表示部10は、地図や操作メニューなど各種の情報を、図示しない液晶表示画面に表示する部分であり、音声合成との併用が望ましい。また、入力部11は、ユーザがスイッチなどから命令などの情報を入力するための部分であり、タッチセンサ機能、リモコンユニット、赤外線送受信ユニットなどを備える。また、ユーザインタフェース部9は、I/O制御回路やデバイスドライバなどを使って、表示部10及び入力部11と、メインCPU及びその周辺回路4とを結ぶユーザインタフェースである。
【0021】
また、CD/DVD−ROM制御部12は、CD−ROMやDVD−ROMに記録された地図データなど各種データをデータベースから読み出す手段であり、道路のネットワーク構造や周辺の建物などを表す道路データを予め記憶する記憶手段である。
【0022】
また、FM多重受信及び処理部13は、FM放送波を受信しこの放送波からVICSサービスの交通情報など所望のデータを取り出す処理を行う部分であり、交通情報は渋滞情報を含む。また、光/ビーコン受信及び処理部14は、路肩などに設置された光ビーコンや電波ビーコンから、各ビーコンの識別情報やVICSサービスの交通情報などの情報を受信及び処理する部分である。また、音声認識部15は、入力されるユーザの発声から命令語などの単語を認識する部分である。カメラ16は、車両のダッシュボード上等に設置され、車両前方の道路風景を撮影するCCDカメラである。
【0023】
〔1−2.メインCPU及びその周辺回路の役割〕
さらに、メインCPU及びその周辺回路4は、上記のようなプログラムに基くコンピュータの自律的制御処理により、図1に示す下記の各部分としての役割を実現するように構成されている。すなわち、現在位置検出部40は、自車の現在位置(自車位置)を逐次計算するための手段であり、具体的には、GPS航法測位と自律航法測位とを組み合わせることで自車位置を計算するように構成される。
【0024】
ここで、GPS航法測位は、人工衛星からの電波に基づいて絶対位置・方位検出部1で得られる情報を使って現在位置を計算するものである。また、自律航法測位は、地磁気及び自車の速度に基づいて相対方位検出部2及び車速検出部3から得られる情報を使って現在位置を計算するものである。
【0025】
また、目的地指定部41は、データベースからの施設検索や地図上でのカーソル指定などにより目的地の入力を受け付ける手段であり、経路設定部42、入力された目的地までの経路を前記道路データに基いて計算及び設定する手段である。また、地図表示部43は、算出された前記自車位置及び前記道路データに基づいて、周辺の地図上におけるその自車位置と、前記経路の少なくとも一部とを表示部10に二次元や三次元表示などで表示する手段であり、案内部44は、経路のうち表示する部分や点滅強調などの要素を決めたり、合成音声の併用などにより誘導案内を制御する手段である。地図データ処理部45は、カメラ16から得られ映像に地図を重ねた際に下地画像が地図の背景部分を透過するように地図の背景部分を透過処理する手段である。更に、画像合成部46は、地図データ加工処理部45により加工された地図をカメラ16により撮影されたSRAM7に記憶されたカメラ映像に重ねて合成する手段である。
【0026】
[2.作用]
上記のように構成された本実施の形態は次のように作用する。まず、ユーザの操作に伴い車両前方の風景映像が撮影位置座標、撮影方向、及び撮影日時データと共にメモリ群Mに記憶される。そして、ユーザの風景画像読み出し操作、或いは、車両がSRAM7に記憶されている風景画像の位置座標から所定距離以内に近づき且つ撮影方向と車両進行方向が略一致した場合、接近した位置の風景映像をSRAM7から読み出す。他方、表示部に表示すべき車両位置周辺の地図データは地図データ処理部45により、カメラ16からSRAM7を介して得られて風景映像に地図を重ねた際に下地画像が地図の背景部分を透過するように地図の背景部分を透過処理され、画像合成部46により、地図データ加工処理部45により加工された地図をSRAM7から呼び出されたカメラ映像に重ねて合成され、表示部10に図2のような表示を行う。
【0027】
図2中、17は道路、18は河川で有り、所定の色で表示される、23は縁取り、19は車両位置を示すマーク、20は以前撮影され、メモリに記憶されている風景映像位置を示すカメラマークである。又、道路17や河川以外の背景部分21、及び22は透過処理がなされ、その部分にメモリから呼び出されたカメラマーク20に対応した風景映像が表示される。尚、地図データ処理部45は地図データの背景と道路、河川との境界部分を背景の風景の色と反対色、例えば、空などの明るい部分の道路境界は黒い縁取り、背景の風景が地面などの暗い境界部分では、白い縁取り処理を地図データに施した後に、画像合成部46により背景映像と合成させ、背景と地図との区別を容易に行うことを可能にしている。
【0028】
図3は本発明の機能を実現するための第1の形態を示すフローチャートで、ユーザが入力部11から画面選択ボタンを操作し、カメラ背景モードを選択すると、ステップ2に移行し、メモリ群Mに記憶されている車両前方に位置する風景画像を読み出し、風景画像の色の明るさを画面ドット単位で記録する(ステップ2a)。ステップ2aで記録した風景画像の色の明るさを基に地図道路の縁取りを反対の明るさとなるように配色する(ステップ2b)。続いて、地図データ中道路や河川、鉄道、施設以外の地面部分(背景部分)を透明色にして、地図データを先ほど読み出しておいた風景画像上に重ねて合成する(ステップ2c)。そして、ステップ2の処理後、合成された地図と風景映像とを表示部10に表示する(ステップ3)。
【0029】
尚、図4は図3のステップ2bを詳しく示したもので、描画しようとする地図道路の画面ドット位置を取得し(ステップ21)、ステップ21で得た道路各ドット近傍のカメラ側画面ドットの色の明るさをそれぞれ取得する(ステップ22)。そして、描画しようとする道路の画面ドット位置に近いカメラ側ドットがそれぞれ明るいか判断され(ステップ23)、明るい場合は暗い色で道路を縁取り処理し(ステップ24)、逆に暗い場合は明るい色で道路の縁取り処理を行う(ステップ25)。
【0030】
[3.効果]
以上のように、本実施の形態では、車両前方の風景映像に背景部分を透明にした地図データが重ねて表示されるため、地図の表示と共に車両前方の道路状況が詳細に把握できるようになる。
【0031】
また、本実施の形態では、車両前方の風景映像に背景部分を透明にした地図データが重ねて表示する際、風景画像の各ドット位置の明るさに応じて道路の縁取り色を反対色にしているため、風景画像と道路とを明確に区別する事が可能となる。
【0032】
[4.他の実施の形態]
尚、本発明は上記実施例に限定されるものでなく、次に例示するような他の実施形態も含むものである。例えば、図3のステップ1の代わりに、図5のフローチャートのように、車両の現在位置を取得し(ステップ1a)、車両前方の300mのエリア内にカメラ16から取得済みの風景映像の座標が有るかを判断し(ステップ1b)、有る場合は図3のステップ2に移行するようにしてもよい。
【0033】
その場合は、自動的に車両前方に位置する風景画像が地図と共に合成されて表示されるので、運転者は運転にゆとりをもって、先方エリアの状況を周囲の地図データと共に把握する事ができる。
【0034】
【発明の効果】
以上説明したように、本発明によれば、経路に関する地点の状況を詳細に把握しつつ、周辺の地図情報も詳細に表示可能なナビゲーション装置、及びプログラムを提供する事ができる。
【図面の簡単な説明】
【図1】本発明の実施の形態によるナビゲーション装置の構成を示すブロック図。
【図2】本発明の一実施の形態に画面表示を示す図。
【図3】本発明の一実施の形態における動作フローチャート。
【図4】本発明の一実施の形態における地図道路の縁取り配色処理を示すフローチャート。
【図5】本発明の他の実施の形態における動作フローチャート。
【符号の説明】
1 絶対位置、方位検出部
2 相対方位検出部
3 車速検出部
4 メインCPU及びその周辺回路
5 ROM
9 ユーザーインターフェース部
10 表示部
11 入カ部
13 FM多重放送受信及び処理部
14 光ビーコンと電波ビーコン及び処理部
15 音声認識部
16 カメラ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a navigation device that detects a vehicle position and displays the vehicle position on a map, and in particular, to a navigation device and a navigation program that can display map data superimposed on an image indicating a road condition at a predetermined point on a map. .
[0002]
[Prior art]
2. Description of the Related Art In recent years, with the spread of digital technology and automobiles, in-vehicle navigation technologies such as navigation devices and programs have rapidly advanced. The navigation technology calculates and sets an optimal guide route (also simply referred to as a “route”) to a set destination by weighting conversion of each section road based on road map data prepared in advance, and as the vehicle travels. Guidance such as turning right or left at an important point in the route is provided on a screen or the like.
[0003]
Then, when the vehicle approaches the right or left turn point on the route to a predetermined distance, the landscape image for each intersection prepared in advance or the image in front of the vehicle from the camera set for the vehicle is displayed on a monitor instead of a map display. In addition, an arrow indicating a right / left turn direction is combined with the intersection scenery display and displayed (for example, see Patent Document 1).
[0004]
[Patent Document 1]
JP-A-7-63572 (Paragraph 0010, etc., FIGS. 7, 8 and 9)
[0005]
[Problems to be solved by the invention]
However, in the above-described conventional technology in which an intersection image in front of the vehicle and an arrow indicating the vehicle traveling direction are displayed on a screen instead of a map, when approaching an intersection to be turned left or right, a map of the surrounding area can be displayed. However, there is a problem that it is not possible to grasp in advance the situation immediately after the end of a right or left turn. As one solution to this problem, a far right method of displaying a landscape image and a map of a right / left turn intersection on two screens is also conceivable. However, the size of a monitor installed in a vehicle is limited. There is a problem that the landscape image of the intersection where the vehicle should make a right or left turn becomes smaller, making it difficult to grasp the situation of the right / left turn intersection itself.
[0006]
The present invention has been proposed in order to solve the above-mentioned problems of the prior art, and an object of the present invention is to provide a navigation system capable of displaying the map information of the surrounding area in detail while grasping the situation of the point on the route in detail. It is to provide devices and programs.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, a first aspect of the present invention provides a vehicle position detecting unit that detects a vehicle position, a storage unit that stores map data including road data, and a display unit that displays the vehicle position together with the map. Display control means for reading a map from the storage unit in accordance with the vehicle position detected by the vehicle position detection unit, and superimposing the vehicle position on the read map and displaying the vehicle position on the display unit. A navigation device for storing road condition image storage means for storing image data including a camera image of a road condition, wherein a background image is transmitted through a background portion of the map when a map is superimposed and displayed on the camera image. A map data processing means for transmitting a background portion of the map, a command signal generating unit for generating a command signal, and a map data processing process when the command signal is generated. And the processed map as a subject matter to be provided with an image synthesizing means for synthesizing overlapped on the stored camera images to the road condition image storage means by stages.
[0008]
The invention of claim 4 captures the invention of claim 1 from the viewpoint of a computer program, detects a vehicle position, displays the vehicle position along with a map, and detects the vehicle position detected by the vehicle position detection unit. In the navigation program that reads the map in accordance with the above, and displays the vehicle position on the read map in a superimposed manner, stores video data including a camera video of a road condition, and when a command signal is generated, The gist is that the background portion of the map is transparently transmitted so that the background image is transparent to the background portion of the map, and the camera image stored on the transparently processed map is overlaid and synthesized.
[0009]
According to a second aspect of the present invention, in the navigation device according to the first aspect, the command signal generating unit generates the command signal when the vehicle position enters a predetermined range from a predetermined position, and the camera image is displayed. It is a scene in front of the vehicle taken in advance, and the gist is that the video data stores position data and a shooting direction.
[0010]
According to a fifth aspect of the present invention, in the navigation program according to the fourth aspect, the command signal is generated when the vehicle position enters a predetermined range from a predetermined position, and the camera image is captured in advance in the vehicle. It is a landscape, and the gist of the camera image is that position data and a shooting direction are stored.
[0011]
In these modes, when the vehicle approaches the predetermined point, the image of the camera corresponding to the predetermined point is automatically combined with the map information and displayed.
[0012]
According to a third aspect of the present invention, in the navigation device according to the first aspect, the map data processing means causes the background image to pass through a background portion of the map when the map is superimposed on the camera image, and The gist is that the periphery of the background portion is bordered, and the border color is set to a color opposite to the color of the camera image.
[0013]
According to a sixth aspect of the present invention, in the navigation program according to the fourth aspect, when the map is superimposed on the camera image, the background image is transmitted through a background portion of the map, and the periphery of the background portion is bordered; The gist is that the border color is set to the opposite color to the color of the camera image.
[0014]
In these aspects, when the map is superimposed on the camera image, the background portion of the map is bordered around the background portion, and the border color is set to the opposite color to the color of the camera image, and the boundary portion between the camera image and the map is emphasized, The map does not become difficult to see due to the camera image.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention (hereinafter, referred to as “embodiments”) will be specifically described with reference to the drawings. Note that the present embodiment can be realized by controlling a computer with a program. However, in this case, the hardware and the embodiment of the program can be variously changed. Therefore, in the following description, each of the present invention and the present embodiment will be described. A virtual block diagram that realizes functions is used.
[0016]
[1. Constitution]
This embodiment shows the navigation device of the present invention, and can be grasped as a program, a recording medium on which such a program is recorded, and such a program is transmitted to a navigation device of each vehicle via a communication network such as the Internet. Downloading and executing is also an aspect of the present invention.
[0017]
First, the present navigation device is a navigation device that searches and sets a route to a purpose set by a user based on road data prepared in advance, and performs each guidance along the route. Each component shown is provided.
[0018]
In other words, the absolute position / azimuth detecting unit 1 calculates, for example, the absolute position coordinates and the azimuth on the ground surface of the current position of the vehicle (referred to as the own vehicle) on which the present device is mounted, that is, the own vehicle position. , For receiving GPS radio waves transmitted from GPS satellites with an antenna or a receiver. The relative azimuth detecting unit 2 is a part for detecting the relative azimuth of the own vehicle using a jay mouth or the like. The vehicle speed detection unit 3 is a part that calculates the speed of the own vehicle by processing a vehicle speed pulse obtained from the vehicle.
[0019]
The main CPU and its peripheral circuit 4 are parts that serve as a control circuit for controlling the entire device. The memory group M is various memories necessary for the operation of the present apparatus. For example, the ROM 5 for storing programs is accessed by the main CPU when the present apparatus is started. A main program is loaded into a dynamic RAM (DRAM) 6 which provides a work area and the like. The SRAM (static RAM) 7, which backs up information such as settings, is battery-backed up while the main power is off, and provides memory contents when the main power is turned on. An image from the camera 16 described later is stored in the SRAM 7 together with the shooting date and time, shooting coordinate data, and shooting direction data. A display VRAM (video RAM) 8 stores bitmap data of an image to be displayed on the display unit 10.
[0020]
The display unit 10 is a part for displaying various information such as a map and an operation menu on a liquid crystal display screen (not shown), and is desirably used together with speech synthesis. The input unit 11 is a part for the user to input information such as a command from a switch or the like, and includes a touch sensor function, a remote control unit, an infrared transmitting / receiving unit, and the like. The user interface unit 9 is a user interface that connects the display unit 10 and the input unit 11 to the main CPU and its peripheral circuits 4 using an I / O control circuit, a device driver, and the like.
[0021]
The CD / DVD-ROM control unit 12 is a means for reading various data such as map data recorded on a CD-ROM or a DVD-ROM from a database, and stores road data representing a road network structure and surrounding buildings. This is storage means for storing in advance.
[0022]
The FM multiplex reception and processing unit 13 is a part that performs processing for receiving FM broadcast waves and extracting desired data such as VICS service traffic information from the broadcast waves, and the traffic information includes congestion information. The light / beacon receiving and processing unit 14 is a part that receives and processes information such as identification information of each beacon and traffic information of a VICS service from an optical beacon or a radio beacon installed on a road shoulder or the like. The voice recognition unit 15 is a part that recognizes a word such as a command word from an input utterance of the user. The camera 16 is a CCD camera that is installed on a dashboard of a vehicle or the like and captures a road scene ahead of the vehicle.
[0023]
[1-2. Role of main CPU and its peripheral circuits]
Further, the main CPU and its peripheral circuit 4 are configured to realize the role of each of the following parts shown in FIG. 1 by the autonomous control processing of the computer based on the above-mentioned program. That is, the current position detection unit 40 is a means for sequentially calculating the current position (own vehicle position) of the own vehicle. Specifically, the current position detecting unit 40 detects the own vehicle position by combining GPS navigation positioning and autonomous navigation positioning. Configured to calculate.
[0024]
Here, in the GPS navigation positioning, the current position is calculated using information obtained by the absolute position / azimuth detecting unit 1 based on radio waves from artificial satellites. In the autonomous navigation positioning, the current position is calculated using information obtained from the relative azimuth detecting unit 2 and the vehicle speed detecting unit 3 based on the geomagnetism and the speed of the own vehicle.
[0025]
The destination specifying unit 41 is a means for receiving an input of a destination by searching for a facility from a database or specifying a cursor on a map, and the like. Means for calculating and setting based on In addition, the map display unit 43 displays two-dimensional or tertiary information on the display unit 10 based on the calculated vehicle position and the road data, and displays the vehicle position on a surrounding map and at least a part of the route. The guide section 44 is a means for displaying the original display or the like, and the guide section 44 is a means for determining a portion to be displayed in the route or an element such as blinking emphasis, or controlling the guidance by using a combined voice. The map data processing unit 45 is means for performing a transparency process on the background portion of the map so that the background image passes through the background portion of the map when the map is superimposed on the video obtained from the camera 16. Further, the image synthesizing unit 46 is means for superimposing and synthesizing the map processed by the map data processing unit 45 on the camera image captured by the camera 16 and stored in the SRAM 7.
[0026]
[2. Action]
This embodiment configured as described above operates as follows. First, a landscape image in front of the vehicle is stored in the memory group M along with the shooting position coordinates, the shooting direction, and the shooting date and time data according to the operation of the user. When the user approaches the scenery image reading operation or when the vehicle approaches within a predetermined distance from the position coordinates of the scenery image stored in the SRAM 7 and the photographing direction and the vehicle traveling direction substantially match, the scenery image at the approached position is displayed. Read from SRAM7. On the other hand, map data around the vehicle position to be displayed on the display unit is obtained by the map data processing unit 45 from the camera 16 via the SRAM 7, and when the map is superimposed on the landscape image, the background image passes through the background portion of the map. The background portion of the map is transparently processed so that the map processed by the map data processing unit 45 is superimposed on the camera image called from the SRAM 7 by the image synthesizing unit 46, and is synthesized on the display unit 10 as shown in FIG. Such a display is performed.
[0027]
In FIG. 2, reference numeral 17 denotes a road, 18 denotes a river, which is displayed in a predetermined color, 23 denotes an outline, 19 denotes a mark indicating a vehicle position, and 20 denotes a landscape image position which has been photographed and stored in a memory. It is a camera mark shown. In addition, the background portions 21 and 22 other than the road 17 and the river are subjected to transmission processing, and a landscape image corresponding to the camera mark 20 called from the memory is displayed in that portion. The map data processing unit 45 sets the boundary between the map data background and roads and rivers in a color opposite to the color of the background scenery. For example, the road boundary of a bright portion such as the sky has a black border, and the background scenery has a ground surface. In the dark boundary portion, after performing white border processing on the map data, the image data is combined with the background video by the image combining unit 46, so that the background and the map can be easily distinguished.
[0028]
FIG. 3 is a flowchart showing a first mode for realizing the function of the present invention. When the user operates the screen selection button from the input unit 11 and selects the camera background mode, the process proceeds to step 2 and the memory group M Is read out, and the brightness of the color of the landscape image is recorded for each screen dot (step 2a). Based on the brightness of the color of the landscape image recorded in step 2a, the outline of the map road is colored so as to have the opposite brightness (step 2b). Subsequently, the ground portion (background portion) other than the roads, rivers, railways, and facilities in the map data is made transparent, and the map data is superimposed on the previously read landscape image and synthesized (step 2c). Then, after the processing of step 2, the combined map and landscape image are displayed on the display unit 10 (step 3).
[0029]
FIG. 4 shows step 2b in FIG. 3 in detail. The screen dot position of the map road to be drawn is obtained (step 21), and the camera side screen dots near each dot of the road obtained in step 21 are obtained. The brightness of each color is obtained (step 22). Then, it is determined whether the camera-side dots close to the screen dot position of the road to be drawn are bright (step 23). If the dots are bright, the road is bordered with a dark color (step 24). Performs a road bordering process (step 25).
[0030]
[3. effect]
As described above, in the present embodiment, since map data with a transparent background portion is superimposed and displayed on a landscape image in front of the vehicle, the road condition in front of the vehicle can be grasped in detail together with the display of the map. .
[0031]
Further, in the present embodiment, when map data with a transparent background portion is superimposed and displayed on a landscape image in front of the vehicle, the border color of the road is set to the opposite color according to the brightness of each dot position of the landscape image. Therefore, it is possible to clearly distinguish a landscape image from a road.
[0032]
[4. Other Embodiments]
It should be noted that the present invention is not limited to the above embodiment, but includes other embodiments as exemplified below. For example, instead of step 1 in FIG. 3, the current position of the vehicle is acquired (step 1a) as shown in the flowchart of FIG. 5, and the coordinates of the scenery image acquired from the camera 16 in the area 300 m ahead of the vehicle are displayed. It may be determined whether or not there is (step 1b), and if there is, the process may shift to step 2 in FIG.
[0033]
In this case, the scenery image located in front of the vehicle is automatically combined with the map and displayed, so that the driver can grasp the situation of the destination area together with the surrounding map data with a comfortable driving.
[0034]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a navigation device and a program that can display surrounding map information in detail while grasping the situation of points related to a route in detail.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a navigation device according to an embodiment of the present invention.
FIG. 2 is a diagram showing a screen display according to an embodiment of the present invention.
FIG. 3 is an operation flowchart according to the embodiment of the present invention.
FIG. 4 is a flowchart illustrating a process of coloring a border of a map road according to the embodiment of the present invention;
FIG. 5 is an operation flowchart according to another embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Absolute position and direction detection part 2 Relative direction detection part 3 Vehicle speed detection part 4 Main CPU and its peripheral circuit 5 ROM
9 User interface unit 10 Display unit 11 Input unit 13 FM multiplex broadcast reception and processing unit 14 Optical beacon and radio beacon and processing unit 15 Voice recognition unit 16 Camera

Claims (6)

車両位置を検出する車両位置検出部と、
道路データを含む地図データが記憶された記憶部と、
上記地図とともに上記車両位置を表示する表示部と、
上記車両位置検出部により検出された車両位置に応じて上記記憶部より地図を読み出すと共に、読み出された地図上に車両位置を重ねて上記表示部に表示させる表示制御手段と、を備えたナビゲーション装置において、
道路状況を撮影したカメラ映像を含む映像データを記憶する道路状況画像記憶手段と、
上記カメラ映像に地図を重ねて表示させた際に下地画像が地図の背景部分を透過するように地図の背景部分を透過処理する地図データ加工処理手段と、
指令信号を発生する指令信号発生部と、
上記指令信号が発生した際に、地図データ加工処理手段により加工された地図を上記道路状況画像記憶手段に記憶されたカメラ映像に重ねて合成する画像合成手段と、を備えた事を特徴としたナビゲーション装置。
A vehicle position detection unit that detects a vehicle position;
A storage unit in which map data including road data is stored;
A display unit for displaying the vehicle position together with the map,
Display control means for reading a map from the storage unit in accordance with the vehicle position detected by the vehicle position detection unit, and superimposing the vehicle position on the read map and displaying the vehicle position on the display unit. In the device,
Road condition image storage means for storing video data including a camera video of a road condition,
Map data processing means for transmitting the background portion of the map so that the background image is transparent to the background portion of the map when the map is superimposed on the camera image and displayed;
A command signal generator for generating a command signal;
Image composing means for superimposing a map processed by the map data processing means on a camera image stored in the road condition image storing means when the command signal is generated. Navigation device.
上記指令信号発生部は車両位置が所定の位置から予め定められた範囲に入った際に上記指令信号を発生し、
上記カメラ映像が事前に撮影した車両前方風景であり、上記映像データは位置データと撮影方向が記憶されている事を特徴とした請求項1記載のナビゲーション装置。
The command signal generating unit generates the command signal when the vehicle position enters a predetermined range from a predetermined position,
2. The navigation device according to claim 1, wherein the camera image is a scene in front of the vehicle which has been photographed in advance, and the image data stores position data and a photographing direction.
上記地図データ加工処理手段が、上記カメラ映像に地図を重ねた際に下地画像が地図の背景部分を透過するようにすると共に、上記背景部分周囲を縁取りし、且つ縁取り色をカメラ画像の色と反対色としたこととを特徴とした請求項1記載のナビゲーション装置。The map data processing means causes the background image to pass through the background portion of the map when the map is overlaid on the camera image, and borders the periphery of the background portion, and sets the border color to the color of the camera image. 2. The navigation device according to claim 1, wherein the navigation device has an opposite color. 車両位置を検出し、地図とともに上記車両位置を表示し、上記車両位置検出部により検出された車両位置に応じて上記地図を読み出すと共に、読み出された地図上に車両位置を重ねて表示させるナビゲーションプログラムにおいて、
道路状況を撮影したカメラ映像を含む映像データを記憶し、指令信号が発生した際に、下地画像が地図の背景部分を透過するように地図の背景部分を透過処理すると共に、前記透過処理された地図に記憶されたカメラ映像を重ねて合成する事を特徴としたナビゲーションプログラム。
Navigation for detecting a vehicle position, displaying the vehicle position together with a map, reading the map in accordance with the vehicle position detected by the vehicle position detection unit, and displaying the vehicle position on the read map in a superimposed manner. In the program,
Image data including a camera image of a road condition is stored, and when a command signal is generated, the background portion of the map is transmitted through the background portion of the map so that the background image is transmitted through the background portion of the map. A navigation program characterized by overlapping and synthesizing camera images stored on a map.
上記指令信号は車両位置が所定の位置から予め定められた範囲に入った際に発生され、上記カメラ映像が事前に撮影した車両前方風景であり、上記カメラ映像は位置データと撮影方向が記憶されている事を特徴とした請求項4記載のナビゲーションプログラム。The command signal is generated when the vehicle position enters a predetermined range from a predetermined position, the camera image is a scene in front of the vehicle taken in advance, and the camera image stores position data and a shooting direction. The navigation program according to claim 4, wherein 上記カメラ映像に地図を重ねた際に下地画像が地図の背景部分を透過するようにすると共に、上記背景部分周囲を縁取りし、且つ縁取り色をカメラ画像の色と反対色としたこととを特徴とした請求項4記載のナビゲーションプログラム。When the map is superimposed on the camera image, the background image is made to pass through the background portion of the map, the periphery of the background portion is bordered, and the border color is set to a color opposite to the color of the camera image. The navigation program according to claim 4, wherein
JP2002286316A 2002-09-30 2002-09-30 Navigation device and navigation program Pending JP2004125446A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002286316A JP2004125446A (en) 2002-09-30 2002-09-30 Navigation device and navigation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002286316A JP2004125446A (en) 2002-09-30 2002-09-30 Navigation device and navigation program

Publications (1)

Publication Number Publication Date
JP2004125446A true JP2004125446A (en) 2004-04-22

Family

ID=32279402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002286316A Pending JP2004125446A (en) 2002-09-30 2002-09-30 Navigation device and navigation program

Country Status (1)

Country Link
JP (1) JP2004125446A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006078357A (en) * 2004-09-10 2006-03-23 Alpine Electronics Inc Navigation system and navigation method
JP2006201081A (en) * 2005-01-21 2006-08-03 Matsushita Electric Ind Co Ltd Device for controlling display
KR100704889B1 (en) 2006-01-24 2007-04-09 주식회사 노바일렉트로닉 Navigation system
JP2008146579A (en) * 2006-12-13 2008-06-26 Sumitomo Electric Ind Ltd In-vehicle device, drive support system and drive support method
JP2009025237A (en) * 2007-07-23 2009-02-05 Pioneer Electronic Corp Information display, navigation system, information display method, information display program, and recording medium
WO2009084133A1 (en) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation Navigation device
WO2009101679A1 (en) * 2008-02-13 2009-08-20 Pioneer Corporation Picture display device, picture display method and picture display program
JP2013180072A (en) * 2012-03-01 2013-09-12 Okumura Yu-Ki Co Ltd Pachinko game machine
CN109737948A (en) * 2019-01-08 2019-05-10 青岛一舍科技有限公司 Real-time positioning system and its localization method in a kind of scenic spot based on image
JP2020053795A (en) * 2018-09-26 2020-04-02 株式会社Jvcケンウッド Display control device, image management server device, display system, display control method, and program
JPWO2021024290A1 (en) * 2019-08-02 2021-02-11

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006078357A (en) * 2004-09-10 2006-03-23 Alpine Electronics Inc Navigation system and navigation method
EP1840509A4 (en) * 2005-01-21 2010-12-15 Panasonic Corp Display controller
JP2006201081A (en) * 2005-01-21 2006-08-03 Matsushita Electric Ind Co Ltd Device for controlling display
EP1840509A1 (en) * 2005-01-21 2007-10-03 Matsushita Electric Industrial Co., Ltd. Display controller
KR100704889B1 (en) 2006-01-24 2007-04-09 주식회사 노바일렉트로닉 Navigation system
JP2008146579A (en) * 2006-12-13 2008-06-26 Sumitomo Electric Ind Ltd In-vehicle device, drive support system and drive support method
JP2009025237A (en) * 2007-07-23 2009-02-05 Pioneer Electronic Corp Information display, navigation system, information display method, information display program, and recording medium
WO2009084133A1 (en) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation Navigation device
WO2009101679A1 (en) * 2008-02-13 2009-08-20 Pioneer Corporation Picture display device, picture display method and picture display program
JP2013180072A (en) * 2012-03-01 2013-09-12 Okumura Yu-Ki Co Ltd Pachinko game machine
JP2020053795A (en) * 2018-09-26 2020-04-02 株式会社Jvcケンウッド Display control device, image management server device, display system, display control method, and program
CN109737948A (en) * 2019-01-08 2019-05-10 青岛一舍科技有限公司 Real-time positioning system and its localization method in a kind of scenic spot based on image
JPWO2021024290A1 (en) * 2019-08-02 2021-02-11
WO2021024290A1 (en) * 2019-08-02 2021-02-11 日産自動車株式会社 Image processing device, and image processing method
CN114208161A (en) * 2019-08-02 2022-03-18 日产自动车株式会社 Image processing apparatus, image processing method, and program
JP7168091B2 (en) 2019-08-02 2022-11-09 日産自動車株式会社 Image processing device and image processing method
US11748920B2 (en) 2019-08-02 2023-09-05 Nissan Motor Co., Ltd. Image processing device, and image processing method

Similar Documents

Publication Publication Date Title
US20120287279A1 (en) Parking support apparatus
WO2013002037A1 (en) Parking assistance device
JPH11108684A (en) Car navigation system
JP2008500561A (en) MAP DATA CREATION DEVICE, MOBILE BODY HAVING THE SAME, AND MAP DATA CREATION METHOD
JP2005214857A (en) Navigation system, and guide image preparation method
CN106525065A (en) Electronic map navigation method and device
JP2004125446A (en) Navigation device and navigation program
JP2008241276A (en) Onboard navigation apparatus
JPH09210707A (en) Navigation device
JP4136529B2 (en) Information processing apparatus, system thereof, method thereof, program thereof, recording medium recording the program, and navigation apparatus
JP2004117294A (en) Navigation system, method, and program
JP5517176B2 (en) Image adjustment apparatus, control method, program, and storage medium
CN111176338A (en) Navigation method, electronic device and storage medium
JP2003329464A (en) Device and method for reproducing travel information record
WO2013111302A1 (en) Display device, control method, program, and storage medium
JPH07306054A (en) Navigation system
JP2009036676A (en) Information processor, and additional information providing method and program
JPH10214397A (en) Course guide device
JP2011119902A (en) Display device for vehicle
JP2008107223A (en) Route guiding apparatus, route guiding method, route guiding program and recording medium
JP2008039642A (en) Navigation device, and image generation method and program
JP4526285B2 (en) On-vehicle electronic device and map display method in the device
JP2001304873A (en) Navigation unit for vehicle, its information communicating method, and computer-readable storage medium
JP2009264835A (en) Navigation device, navigation method and navigation program
JP2004117264A (en) Navigation system, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20050921

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Effective date: 20080317

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080722