JP2004151063A - Navigation system - Google Patents

Navigation system Download PDF

Info

Publication number
JP2004151063A
JP2004151063A JP2002319623A JP2002319623A JP2004151063A JP 2004151063 A JP2004151063 A JP 2004151063A JP 2002319623 A JP2002319623 A JP 2002319623A JP 2002319623 A JP2002319623 A JP 2002319623A JP 2004151063 A JP2004151063 A JP 2004151063A
Authority
JP
Japan
Prior art keywords
video
information
data table
image
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002319623A
Other languages
Japanese (ja)
Inventor
Atsuko Tada
厚子 多田
Tsutomu Togo
努 藤後
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002319623A priority Critical patent/JP2004151063A/en
Publication of JP2004151063A publication Critical patent/JP2004151063A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform effective guidance by registering beforehand into an image, additional information (a weather, a time zone at day or night or the like, or the like) in addition to position information at a photographing time of the image, selecting and displaying the image having the additional information optimum to the present position even in the case of the same spot at a navigation time, and displaying the image fit to the weather, the time zone or the like at actual traveling, in a navigation system for displaying the present position and a designated route on a map. <P>SOLUTION: This navigation system is equipped with a database acquired by linking and registering an image photographed at a previous traveling time, position information at that time, and the additional information comprising at least the weather and the time zone, a means for retrieving the database based on the present position or on the present position and the traveling direction and extracting the image coincident to the highest degree, and a means for displaying the extracted image in addition to the present position and the designated route. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、地図上に現在位置と指定された経路を表示するナビゲーションシステムに関するものである。
【0002】
【従来の技術】
従来のナビゲーションシステムは、車に搭載した撮影装置で走行する道路などを実際に撮影した実景映像を記録装置に記録する。そして、次に、同じ道を誘導するときに、地図情報に加えて実景映像を記憶装置から読み出して表示し、案内を実景をもとにわかりやすく表示する技術がある(特許文献1参照)。
【0003】
【特許公報1】
特開平05−240724号公報の特許請求の範囲など参照。
【0004】
【発明が解決しようとする課題】
上述した従来の技術では、ナビゲーション装置で撮影した実景映像を利用するには、一度通ってそのときに撮影した実景映像がないと利用できない、即ち、同一道を2回目以降に走行しようとしたときにのみしか実景映像が表示されないという問題ある。
【0005】
また、上述した技術では、ある地点の実景映像は、一種類のみ決まってしまうため、同じ地点の複数種類の実景映像(例えば昼、夜などの時間帯、および雨、晴れなどの天気状況などの実景映像)を管理できなく、選択された1種類の実景映像を表示できるのみで、実走行時の状況に合致した実景映像を表示し得ないという問題があった。
【0006】
本発明は、これらの問題を解決するため、映像に当該映像の撮影時の位置情報に加えて付加情報(天候、夜昼などの時間帯など)を登録しておき、ナビゲーション時に同一地点であっても現位置に最適な付加情報の映像を選択して表示し、実走行の天候、時間帯などに合致した映像を表示して効果的な道案内することを目的としている。
【0007】
【課題を解決するための手段】
図1を参照して課題を解決するための手段を説明する。
【0008】
図1において、ナビゲーション情報作成部1は、走行時に搭載した撮像装置で実景の映像を撮影した位置情報、更に、当該地点の少なくとも天候、時間帯の付加情報を合わせてリンク付けて登録用データテーブル11に登録したりなどするものである。
【0009】
ナビゲーション情報利用部21は、現在位置あるいは現在位置と走行方向をもとに登録用データテーブル11を検索して該当する映像を現在位置と指定された経路に加えて表示したりなどするものである。
【0010】
次に、動作を説明する。
ナビゲーション情報利用部21が現在位置あるいは現在位置と走行方向をもとに登録用データテーブル11を検索して最も一致する映像を抽出し、抽出した映像を現在位置と指定された経路に加えて表示するようにしている。
【0011】
この際、ナビゲーション情報作成部1が走行時に搭載した撮像装置で実景の映像を撮影した位置情報、更に、当該地点の少なくとも天候、時間帯の付加情報を合わせてリンク付けて登録用データテーブル11に登録するようにしている。
【0012】
また、付加情報は、映像の道についての音声、テキスト、あるいは映像による説明であり、当該映像の表示時に合わせて当該説明を再生するようにしている。
【0013】
また、映像にリンク付ける位置情報として、映像を撮影したある位置から他の位置まの区間とし、当該区間が最も一致した映像を抽出するようにしている。
【0014】
また、登録用データテーブル11は、異なるナビゲーション情報作成部1からの情報をネットワークを介して登録用データテーブル11として統合し、各利用者のナビゲーション情報利用部21が統合した登録用データテーブル11を検索して最も一致する映像を抽出して表示するようにしている。
【0015】
従って、映像に当該映像の撮影時の位置情報に加えて付加情報(天候、夜昼などの時間帯など)を登録しておき、ナビゲーション時に同一地点であっても現位置に最適な付加情報の映像を選択して表示することにより、実走行の天候、時間帯などに合致した映像を表示して効果的な道案内することが可能となる。
【0016】
【発明の実施の形態】
次に、図1から図7を用いて本発明の実施の形態および動作を順次詳細に説明する。
【0017】
図1は、本発明のシステム構成図を示す。
図1において、ナビゲーション情報作成部1は、走行時に搭載した撮像装置で撮影した映像および当該映像を撮影した位置情報、更に、当該地点の少なくとも天候、時間帯の付加情報を合わせてリンク付けて登録用データテーブル11に登録したりなどするものであって、ここでは、GPS受信機2、撮像装置3、入力装置4、付加情報提供装置5、情報制御部6、発信装置7などから構成されるものである。
【0018】
GPS受信機2は、移動体に搭載したナビゲーションシステムを構成する当該ナビゲーション情報作成部1の位置を検出(周知の技術)するものである。
【0019】
撮像装置3は、ナビゲーションシステムを搭載した移動体(例えば車)が走行するときの道の実景を撮像するものであって、例えばビデオカメラである。
【0020】
入力装置4は、各種操作指示(コマンド)を入力したりし、撮像装置3で道の実景を撮影開始したりなどするものである。
【0021】
付加情報提供装置5は、撮影した映像に付加する情報(例えば時間帯(昼,夜など)、天候(天気が晴れ、曇り、雨、雪など)をセンサから取り込んだり、利用者が音声で入力したりなどするものである。
【0022】
情報制御部6は、GPS受信機2、撮像装置3、入力装置4および付加情報提供装置5からの位置情報、映像、各種操作指示、付加情報を取り込んで所定のフォーマットに作成して登録用データテーブル11に登録したりなどするものである(図3参照)。
【0023】
発信装置7は、情報制御部6で作成したデータを、無線で基地局8に送信して登録用データテーブル11に登録したりなどするものである。
【0024】
基地局8は、登録用データテーブル11にデータを登録するために、各利用者からのデータを受信するための基地局である。
【0025】
情報管理部9は、各利用者のナビゲーション情報作成部1から受信したデータを、登録用データテーブル11に登録するものであって、登録手段10などから構成されるものである。
【0026】
登録手段10は、各利用者のナビゲーション情報作成部1から受信したデータを、登録用データテーブル11に登録するものである。
【0027】
基地局10は、情報管理部9とナビゲーションシステムを構成するナビゲーション情報利用部21とを無線で接続してデータを送受信するものである。
【0028】
ナビゲーション情報利用部21は、現在位置あるいは現在位置と走行方向をもとに登録用データテーブル11を検索して該当する映像を現在位置と指定された経路に加えて表示したりなどするものであって、発信装置22、受信装置23、情報制御部24、入力装置26、条件入力部27、表示部28、および地図情報記憶装置29などから構成されるものである。
【0029】
発信装置22および受信装置23は、ナビゲーション情報利用部21と基地局12を介して情報管理部9との間で、無線でデータの送受信を行うものである。
【0030】
情報制御部24は、現在位置あるいは現在位置と走行方向をもとに登録用データテーブル11を検索して該当する映像を取り込んだり、GPS受信機2によって取得した現在の位置情報(経度、緯度)、更に、現在位置を含む地図を取り出して表示部28上に表示したりなどするものであって、ここでは、検索手段25などから構成されるものである。
【0031】
検索手段25は、現在位置あるいは現在位置と走行方向をもとに登録用データテーブル11を検索して該当する映像を抽出したりなどするものである(図6.図7参照)。
【0032】
入力装置26は、各種操作指示などを入力するものである。
条件入力装置27は、付加情報を入力したりなどするものである。
【0033】
表示部28は、映像、地図、経路情報などを表示するものである。
地図情報記憶装置29は、地図情報を記憶したものである。
【0034】
次に、図2のフローチャートの順番に従い、図1の構成のもとで登録用データテーブル11に映像、位置情報および付加情報などを登録するときの手順を詳細に説明する。
【0035】
図2は、本発明の動作説明フローチャート(登録)を示す。
図2において、S1は、GPS、カメラを搭載した車において録画開始する。これは、図1のGPS受信機2、カメラに相当する撮影装置3を搭載した車(移動体)で、当該カメラによる道の例えば進行方向の映像を撮影して録画開始すると共に、位置情報を対応づけて記録する。
【0036】
S2は、A地点の位置情報と映像を録画し、一定時間あるいは一定区間毎にリンク付けて記録、この時、付加情報(昼、夜などの時間帯、晴、曇り、雨、雪などの天候)を記録する。これらS1、S2は、例えば後述する図3の(a)に示すように登録、即ち、一定時間、あるいは一定区間毎に、図示の例えば第1行目のエントリを作成し、位置(開始位置)A、画像位置(映像データ中の先頭からのフレームNo)、付加情報(夜昼などの時間帯、晴、曇、雨,雪などの天候)、日時(映像を撮影した日時)などを記録する。
【0037】
S3は、道についての説明文を入力する。
S4は、映像データにリンク付けする。これらS3、S4は、S1で撮影開始した映像に写っている道について、説明文(例えば工事中で片道通行で、渋滞する恐れ有りなど)を音声、キー入力、あるいはメニューから選択して入力し、後述する図3の(b)に示すように、映像のフレーム番号などにリンク付けする。
【0038】
S5は、登録する。これは、図1の登録用データテーブル11に、後述する
図3の(a),(b)に示すように登録する。
【0039】
S6は、編集する。これは、S1からS5で登録した例えば後述する図3の(a)の登録用データテーブル(編集前)11を、図3の(d)の登録用データテーブル(編集後)11に示すように編集、ここでは、図3の(a)の登録用データテーブル(編集前)11の第1行目の▲1▼エントリの区間を、後述する図5に示すよう2つに分割して▲2▼と▲3▼のエントリのように編集して登録する。
【0040】
以上によって、車に図1のナビゲーションシステム(ナビゲーション情報作成部1およびナビゲーション情報利用部21)を搭載し、ナビゲーション情報作成部1が撮影した映像、位置情報、入力された説明文などをまとめて図3の(a)の登録用データテーブル(編集前)11を作成し、編集して図3の(d)の登録用データテーブル(編集後)11として登録することが可能となる。
【0041】
図3は、本発明のテーブル/データ例を示す。
図3の(a)は、登録用データテーブル(編集前)11の例を示す。この登録用データテーブル(編集前)11は、既述した図2のS5で登録した編集前のものであって、ここでは所定距離毎、時間毎、映像フレーム毎、あるいは指定される毎に、図示の下記の情報を対応づけてそれぞれ登録したものである。
【0042】
・位置(緯度、経度):
・画像位置:
・付加情報:
・日時:
・その他:
ここで、位置(緯度、経度)は、図2のS1、S2で映像を撮影開始したときの、GPS受信機2で検出した現在位置の緯度、経度の情報である。画像位置は、同様に、映像を撮影開始したときの当該映像データのフレーム番号である。付加情報は、同様に、映像を撮影開始したときの時間帯(朝、昼、夕方、夜などの時間帯)、天候(晴、曇、雨、雪などの天候)などである。日時は、同様に、映像の撮影開始したときの日時である。
【0043】
以上のように、所定距離毎、時間毎、映像フレーム毎、指定される毎に、映像に対応づけて位置(緯度、経度)、付加情報(夜、雨など)および日時をそれぞれ記録して登録用データテーブル11に蓄積することにより、以降の車で走行時に、区間毎に登録用データテーブル11を検索して一致する区間があり、かつそのときの付加情報のうちの最も一致するエントリを取り出してその映像を、ナビゲーション中の画面に表示した地図と当該地図上の現在の位置、走行方向に合わせて同時に表示し、走行状態(例えば夜、雨)に最適な以前の実映像を表示して走行の手助けを行うことが可能となる。
【0044】
また、図3の(a)で、AとBとの間のA’の位置で案文(分割)する編集指示を行うと、当該図3の(a)の▲1▼のエントリが、分割されて図3の(d)の▲2▼と▲3▼の2つのエントリに編集される、即ち、▲1▼のエントリの先頭位置Aから分割位置のA’までを▲2▼のエントリ、更に、分割の位置A’からBまでを▲3▼のエントリに分割し、図示のようにする。
【0045】
図3の(b)は、映像データの例を示す。映像データは、フレームNo(フレーム番号)に対応づけて位置を管理する。
【0046】
図3の(c)は、説明内容を映像データにリンク付けた例を示す。ここでは、説明内容(音声、文字、画像)は、リンク情報に映像データ中のリンク付ける位置のフレーム番号を設定し、映像データとリンク付けている。
【0047】
以上のように、説明内容、例えばカメラで道の進行方向を撮影しているときに、落石などに注意する必要がある場合に、”現在の位置は落石の恐れがあるので、要注意”と音声で利用者が発声することで、自動的にそのときの映像のフレーム番号をリンク情報として設定し、リンク付けを行う。これにより、映像を再生して表示したときに、当該映像のリンク場所にきたときに、自動的に記録した”現在の位置は落石の恐れがあるので、要注意”を自動音声で発声して説明内容を利用者(運転者)に知らせることが可能となる。
【0048】
図3の(c)は、登録用データテーブル(編集後)の例を示す。これは、上述したように、図3の(a)の▲1▼のエントリを、▲2▼のエントリと、▲3▼のエントリの2つに分割して編集したものである。この分割は、例えば後述する図5に示すように、編集前は、A(開始点)から中間点B,終了点Cがそれぞれの区間(一定時間毎、所定距離毎、所定映像フレーム毎、指定される毎で決まる区間)として図3の(a)の登録用データテーブル(編集前)11に登録し、登録後にAとBの間に交叉点A’があった場合、当該A’で自動分割して図示のように登録する。
【0049】
以上のように、登録用データテーブル(編集前)11に登録された区間について、交叉点などの目安となる地点がある場合に、可及的に分割して細かい区間にすることにより、走行時に一致する区間が多くなり、よりきめ細かくかつ効率的に一致する区間の映像を登録用データテーブル11から取り出してその映像(実映像)を、地図上に現在位置、走行方向に合わせて同時に表示することが可能となる。
【0050】
図4は、本発明の動作説明フローチャート(編集)を示す。ここで、テーブル11は、既述した図3の登録用データテーブル11を表す。
【0051】
図4において、S11は、テーブル11の現位置から進行方向を算出する。
S12は、進行方向にある交差点を地図情報から見つける。これらS11、S12は、例えば図5に示すように、現在位置がAであり、経路の進行方向が右側のB、更に、下方向のCで終点とすると、現在位置Aから見て進行方向にある交差点、ここでは交差点の位置A’を地図上から見つける。
【0052】
S13は、交差点が大きいか判別する。これは、S12で見つけた交差点が所定サイズによりも大きいか判別する。YESの場合には、S14に進む。NOの場合には、S12に戻り、進行方向に次の交差点について繰り返す。
【0053】
S14は、交差点の位置情報がテーブル11にあるか判別する。これは、例えば図5で見つけた交差点の位置A’が、既述した図3の(a)のテーブル(編集前)11の位置の欄に登録されているか判別する。ここでは、登録されていないので、NOとなり、S15に進む。一方、YESの場合には、登録されていたので、S21に進む。
【0054】
S15は、S14のNOで、交差点の例えばA’がテーブル(編集前)11の位置の欄にないと判明したので、前後の位置情報から案分し、交差点のフレーム位置を算出する。これは、交差点の例えばA’がテーブル(編集前)11の位置の欄にないと判明したので、前後の位置情報であるA(フレーム位置0)とC(フレーム位置600)とから交差点のフレーム位置(例えば300)を算出する。
【0055】
S16は、編集後のテーブル11に案分した交差点の位置を終了点としてデータを追加する。これは、例えば図3の(d)の▲2▼のエントリを登録する。
【0056】
S17は、次の開始点X=案分した交差点の位置(ここでは、フレーム位置300)とする。
【0057】
S18は、リンク情報(音声、文字、映像)があるか判別する。これは、既述した図3の(b)に示すように、映像データに対応づけてリンク情報でリンク付けされた説明内容(音声、文字,映像)があるか判別する。YESの場合には、図3の(b)に示すように、リンク情報(映像のフレーム番号)に対応づけて説明内容(音声,文字、画像)を追加して登録する。
【0058】
S20は、次の開始点Xが終点か判別する。YESの場合には、編集を終了する。NOの場合には、経路の終点にたどり着いていないため、S11を繰り返す。
【0059】
また、S21は、S14のYESで例えば図5のA’の情報を、既述したS15からS17で図3の(c)の▲2▼のエントリに示すように追加登録し、S20のNO,S11,S12,S13のYES,S14のYESとなり、当該案分したA’の進行方向のここでは、Bに到達してテーブル11に登録されていると判明したので、編集後のテーブル11に交差点の位置(ここでは、B)を終点としたデータを追加する。これにより、図3の(d)の▲3▼のエントリが追加登録される。
【0060】
S22は、次の開始点をX=交差点の位置とする。ここでは、例えば図5のBを次の交差点の位置とし、S18に進む。
【0061】
以上によって、既述した図3の(a)の登録用データテーブル(編集前)11を入力とし、大きな交差点で案分した図3の(d)の登録用データテーブル(編集後)11を編集すると共に図3の(c)のような説明内容を追加登録することが可能となる。
【0062】
図5は、本発明の説明図を示す。ここで、開始点がAで、右方向の進行方向にB,更に,下方向の進行方向にCが図3の(a)の登録用データテーブル(編集前)11に既に登録されており、既述した図4のフローチャートに従い、交差点A’を案分して追加する様子を示すものである。A’を追加したことにより、図3の(a)の登録用データテーブル(編集前)11のエントリ▲1▼が、図3の(d)の登録用データテーブル(編集後)11のエントリ▲2▼,▲3▼に分割して登録すると共に、更に、図3の(c)の説明内容をリンク情報(映像のフレーム番号)でリンクして登録する。
【0063】
図6は、本発明の動作説明フローチャート(検索)を示す。
図6において、S31は、GPSを搭載した車においてナビゲーション操作開始する。
【0064】
S32は、目的地を入力し経路を探索する。
S33は、経路に一致するデータを全て抽出しリスト化する。これは、例えば図5の出発点A,目的地Cが入力されると経路を探索し、当該経路に一致する区間を、例えば図3の(d)の登録用データテーブル(編集後)11から探索してここでは、▲2▼と、▲3▼のエントリを取り出す。この際、他の利用者が同様にして登録した共有の登録用データテーブル11を探索し、経路に一致する区間のデータを全て取り出す。そして、これら取り出したデータについて、出発地から目的地に向けて各区間毎に探索して取り出したデータのリスト(一覧表)を作成する。
【0065】
S34は、利用者によりリストから選択する。これは、区間毎にリストが表示されるので、その中から利用者が最適なものを選択、例えば付加情報として、夜,昼などの時間帯、更に、晴、曇,雨,雪などの天候が表示されるのでこれらを見て現状に一番適したものを利用者が選択する。また、現在の時間帯をタイマから取得、およびセンサで天候を検出し、一致する付加情報の映像を自動選択するようにしてもよい。
【0066】
S35は、全区間選択されたか判別する。これは、出発地から目的地までの経路の全ての区間についてリスト中から適切なデータがそれぞれ選択終了したか判別する。YESの場合には、S36に進む。NOの場合には、S33に戻り、他の区間についてS33、S34を繰り返す。
【0067】
S36は、GPS位置情報をもとに、映像を表示、説明文があればそれを再生する。これは、車が走行するに従い、GPS受信機2から取得した現在位置をもとに、現在位置と少し進行方向の位置の映像があれば、それを再生して実映像を表示すると共に、説明文がリンク付けされていれば当該説明文も合わせて再生し、道案内を行う。また、本実施例では、走行時にGPS受信機2から取得した現在位置情報をもとに、映像を表示しているが、走行前にS31〜S35で検索した区間を繋ぎ合わせた映像を再生し、事前に道路状態を確認することも可能である。
【0068】
以上のように、出発地(現在地)と目的地をもとに経路を探索して当該経路に含まれる区間のデータ(映像)を全て抽出してリスト表示し、選択されたデータ(映像)をGPS受信機2から取得した現在位置に追従して自動表示すると共に説明文がリンクされていれば当該説明文も合わせて再生することにより、道案内時に、夜,昼などの時間帯,更に晴、曇、雨,雪などの天候に合致した以前に撮影した映像、説明文を抽出して表示し、効率的な道案内を行うことが可能となる。
【0069】
図7は、本発明の動作説明フローチャート(選択)を示す。
図7において、S41は、区間の一致するものを抽出する。これは、既述した図6のS33で、出発地から目的地まで探索して見つけた経路について、図3の(d)の登録用データテーブル11を検索して当該経路の任意の区間に一致するものを出発点に近い方から取り出す。
【0070】
S42は、1つか判別する。YESの場合には、当該区間には1つのデータ(映像)しかないと判明したので、S46に進む。NOの場合には、S43に進む。
【0071】
S43は、付加情報の一致するものを抽出する。これは、例えば昼,夜などの時間帯、晴、曇、雨,雪などの天候などの付加情報が一致するものを抽出する。
【0072】
S44は、決定する。これらS41からS46によって、出発地から目的地までの経路に含まれる区間のデータ(映像)を既述した図3の(d)の登録用データテーブル11から全て抽出し、区間のデータが複数あるときは付加情報(夜,昼などの時間帯、晴、曇、雨,雪などの天候)が現状に一致するデータを選択し、各区間毎に最適な1つのデータ(映像)を決定することが可能となる。
【0073】
S47、S48は、区間が分割されたか判別、即ち、S42からS46の決定で、経路上の1つの区間が複数の区間に分割されたか判別し,YESの場合には、同様(S41からS46)にして当該1つの区間が分割された各区間について最適なデータをそれぞれ選択して終了し、NOの場合には区間が分割されないのでそのまま終了する。
【0074】
以上によって、出発地から目的地に向かう経路について、登録用データテーブル11を検索して当該経路に含まれる区間の全てのデータを抽出し、これらの中から付加情報をもとに現状に最も一致するデータをそれぞれ選択することが可能となる。そして、GPS受信機2で検出した現在位置に追従し、当該現在位置および進行方向に少し進んだ位置のデータ(映像)を表示し、説明文がリンク付けされていれば当該説明文も合わせて再生することにより、現在の位置、状況(夜,昼の時間帯、晴、曇、雨、雪などの天候)に一致した最適な以前の実映像を再生して効率的な道案内を行うことが可能となる。
【0075】
【発明の効果】
以上説明したように、本発明によれば、映像に当該映像の撮影時の位置情報に加えて付加情報(天候、夜昼などの時間帯など)を登録しておき、ナビゲーション時に同一地点であっても現位置に最適な付加情報の映像を選択して表示する構成を採用しているため、実走行の天候、時間帯などに合致した映像を表示して効果的な道案内することが可能となる。
【図面の簡単な説明】
【図1】本発明のシステム構成図である。
【図2】本発明の動作説明フローチャート(登録)である。
【図3】本発明のテーブル/データ例である。
【図4】本発明の動作説明フローチャート(編集)である。
【図5】本発明の説明図である。
【図6】本発明の動作説明フローチャート(検索)である。
【図7】本発明の動作説明フローチャート(選択)である。
【符号の説明】
1:ナビゲーション情報作成部
2:GPS受信機
3:撮像装置
4:入力装置
5:付加情報提供装置
6:情報制御部
7、22:発信装置
8、12:基地局
9:情報管理部
10:登録手段
11:登録用データテーブル
23:受信装置
24:情報制御部
25:検索手段
26:入力装置
27:条件入力装置
28:表示部
29:地図情報記憶装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a navigation system that displays a current position and a designated route on a map.
[0002]
[Prior art]
2. Description of the Related Art A conventional navigation system records, on a recording device, an actual scene image of a road or the like that is actually photographed by a photographing device mounted on a car. Then, when guiding the same road, there is a technique for reading out and displaying a real scene image in addition to the map information from the storage device and displaying the guidance in an easy-to-understand manner based on the real scene (see Patent Document 1).
[0003]
[Patent Publication 1]
See, for example, the claims of JP-A-05-240724.
[0004]
[Problems to be solved by the invention]
In the above-described conventional technology, in order to use a real scene image photographed by a navigation device, it is not possible to use it without passing through the actual scene image photographed at that time, that is, when traveling on the same road for the second time or later. However, there is a problem that only the actual scene image is displayed.
[0005]
Further, in the above-described technology, since only one type of real scene image at a certain point is determined, a plurality of types of real scene images at the same point (for example, time zones such as day and night, and weather conditions such as rain and fine weather). However, there is a problem that it is not possible to manage the actual scene image), and it is only possible to display the selected one type of actual scene image, and it is not possible to display the actual scene image that matches the situation during actual driving.
[0006]
According to the present invention, in order to solve these problems, additional information (weather, time zone such as night and day, etc.) is registered in the video in addition to the position information at the time of shooting the video, and the same location is used during navigation. It is also intended to select and display an image of additional information that is optimal for the current position, display an image that matches the actual driving weather, time zone, and the like, and provide effective route guidance.
[0007]
[Means for Solving the Problems]
Means for solving the problem will be described with reference to FIG.
[0008]
In FIG. 1, a navigation information creating unit 1 links a position data obtained by capturing an image of a real scene with an imaging device mounted at the time of traveling, and at least the additional information of at least the weather and time zone of the point to link and register a registration data table. 11 or the like.
[0009]
The navigation information utilization unit 21 searches the registration data table 11 based on the current position or the current position and the traveling direction, and displays a corresponding image in addition to the current position and the designated route. .
[0010]
Next, the operation will be described.
The navigation information utilization unit 21 searches the registration data table 11 based on the current position or the current position and the traveling direction, extracts the video that matches the most, and displays the extracted video in addition to the current position and the designated route. I am trying to do it.
[0011]
At this time, the registration information table 11 is linked to the position information of the actual image taken by the imaging device mounted on the vehicle when the navigation information creating unit 1 is running, and the additional information of at least the weather and the time zone of the point. I try to register.
[0012]
The additional information is a sound, text, or video description of the path of the video, and the description is reproduced when the video is displayed.
[0013]
In addition, as position information to be linked to a video, a section from a certain position where the video was shot to another position is extracted, and a video in which the section most closely matches is extracted.
[0014]
The registration data table 11 integrates information from different navigation information creating units 1 as a registration data table 11 via a network, and registers the registration data table 11 integrated by the navigation information using units 21 of the respective users. A search is performed to extract and display the best matching video.
[0015]
Therefore, additional information (weather, time zone such as night and day, etc.) is registered in the video in addition to the position information at the time of shooting of the video, and the video of the additional information optimal for the current position even at the same point during navigation is registered. By selecting and displaying, it is possible to display an image that matches the weather, time zone, and the like of actual driving, and to provide effective road guidance.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, an embodiment and operation of the present invention will be sequentially described in detail with reference to FIGS.
[0017]
FIG. 1 shows a system configuration diagram of the present invention.
In FIG. 1, a navigation information creating unit 1 links and registers a video taken by an imaging device mounted at the time of traveling, position information of the video taken, and additional information of at least weather and time zone of the point. And the like, and is registered in the data table 11 for use. In this case, it is composed of a GPS receiver 2, an imaging device 3, an input device 4, an additional information providing device 5, an information control unit 6, a transmitting device 7, and the like. Things.
[0018]
The GPS receiver 2 detects the position of the navigation information creating unit 1 that constitutes a navigation system mounted on a moving object (a well-known technique).
[0019]
The imaging device 3 captures an actual scene of a road when a moving object (e.g., a car) equipped with a navigation system travels, and is, for example, a video camera.
[0020]
The input device 4 is for inputting various operation instructions (commands), and for starting the photographing of the actual scene of the road with the imaging device 3.
[0021]
The additional information providing device 5 takes in information (for example, time zone (day, night, etc.) and weather (sunny, cloudy, rainy, snowy, etc.) to be added to the captured video from a sensor, or a user inputs by voice. It is something to do.
[0022]
The information control unit 6 takes in positional information, video, various operation instructions, and additional information from the GPS receiver 2, the imaging device 3, the input device 4, and the additional information providing device 5, creates them in a predetermined format, and registers the data for registration. The information is registered in the table 11 (see FIG. 3).
[0023]
The transmitting device 7 transmits the data created by the information control unit 6 to the base station 8 wirelessly and registers the data in the registration data table 11.
[0024]
The base station 8 is a base station for receiving data from each user in order to register data in the registration data table 11.
[0025]
The information management unit 9 registers the data received from the navigation information creation unit 1 of each user in the registration data table 11, and includes a registration unit 10 and the like.
[0026]
The registration unit 10 registers the data received from the navigation information creation unit 1 of each user in the registration data table 11.
[0027]
The base station 10 transmits and receives data by wirelessly connecting the information management unit 9 and a navigation information utilization unit 21 constituting a navigation system.
[0028]
The navigation information utilization unit 21 searches the registration data table 11 based on the current position or the current position and the traveling direction, and displays the corresponding image in addition to the current position and the designated route. It comprises a transmission device 22, a reception device 23, an information control unit 24, an input device 26, a condition input unit 27, a display unit 28, a map information storage device 29, and the like.
[0029]
The transmission device 22 and the reception device 23 wirelessly transmit and receive data between the information management unit 9 via the navigation information utilization unit 21 and the base station 12.
[0030]
The information control unit 24 retrieves the registration data table 11 based on the current position or the current position and the traveling direction to fetch a corresponding video, or the current position information (longitude, latitude) acquired by the GPS receiver 2 In addition, a map including the current position is taken out and displayed on the display unit 28. In this case, the map includes a search unit 25 and the like.
[0031]
The search means 25 searches the registration data table 11 based on the current position or the current position and the traveling direction to extract a corresponding video (see FIGS. 6 and 7).
[0032]
The input device 26 is for inputting various operation instructions and the like.
The condition input device 27 is for inputting additional information and the like.
[0033]
The display unit 28 displays images, maps, route information, and the like.
The map information storage device 29 stores map information.
[0034]
Next, according to the order of the flowchart of FIG. 2, a procedure for registering the video, the position information, the additional information, and the like in the registration data table 11 with the configuration of FIG. 1 will be described in detail.
[0035]
FIG. 2 shows a flowchart (registration) for explaining the operation of the present invention.
In FIG. 2, S1 starts recording in a vehicle equipped with a GPS and a camera. This means that, in a vehicle (moving body) equipped with the GPS receiver 2 and the photographing device 3 corresponding to the camera in FIG. Record in association.
[0036]
At step S2, the position information and the image of the point A are recorded and linked and recorded for a certain time or every certain section. At this time, additional information (time periods such as day and night, fine weather, cloudy weather, rainy weather, snowy weather, etc.) ). These S1 and S2 are registered, for example, as shown in FIG. 3A to be described later, that is, for example, an entry on the first line shown in the drawing is created for a certain time or for every certain section, and the position (start position) A, image position (frame No. from the beginning in video data), additional information (time zone such as night and day, weather such as fine, cloudy, rain, snow, etc.), date and time (date and time when video was captured), etc. are recorded.
[0037]
In step S3, a description about the road is input.
S4 links to the video data. In steps S3 and S4, a description (for example, one-way traffic during construction and a risk of congestion) for the road appearing in the image started in S1 is input by voice, key input, or from a menu. As shown in FIG. 3B to be described later, a link is made to a frame number of a video.
[0038]
S5 registers. This is registered in the registration data table 11 of FIG. 1 as shown in FIGS. 3A and 3B described later.
[0039]
In step S6, editing is performed. This is because, for example, the registration data table (before editing) 11 of FIG. 3A (to be described later) registered in S1 to S5 is changed to the registration data table (after editing) 11 of FIG. Editing, here, the section of (1) entry in the first row of the registration data table (before editing) 11 in FIG. 3A is divided into two sections as shown in FIG. Edit and register like entries ▼ and ③.
[0040]
As described above, the navigation system shown in FIG. 1 (the navigation information creation unit 1 and the navigation information utilization unit 21) is mounted on the car, and the video, the position information, the input description, and the like captured by the navigation information creation unit 1 are collectively illustrated. 3 (a) can be created, edited, and registered as the registration data table (after editing) 11 of FIG. 3 (d).
[0041]
FIG. 3 shows a table / data example of the present invention.
FIG. 3A shows an example of the registration data table (before editing) 11. The registration data table (before editing) 11 is a data table before editing registered in S5 of FIG. 2 described above, and here, every predetermined distance, every time, every video frame, or every time specified, The following information shown is registered in association with each other.
[0042]
・ Position (latitude, longitude):
・ Image position:
·Additional information:
・ Date:
・ Others:
Here, the position (latitude, longitude) is information on the latitude and longitude of the current position detected by the GPS receiver 2 when the video is started in S1 and S2 in FIG. Similarly, the image position is the frame number of the video data at the time of starting shooting the video. Similarly, the additional information includes a time zone when the video is started to be shot (a time zone such as morning, noon, evening, night, etc.) and weather (weather such as fine, cloudy, rain, snow, etc.). The date and time is the date and time when the shooting of the video was started.
[0043]
As described above, the position (latitude, longitude), additional information (night, rain, etc.), and the date and time are recorded and registered for each predetermined distance, each time, each video frame, and each time specified. When the vehicle is driven by a subsequent car, the registration data table 11 is searched for each section, and there is a matching section, and the most matching entry of the additional information at that time is extracted. And simultaneously display the image according to the map displayed on the screen during navigation, the current position on the map, and the traveling direction, and display the previous actual image optimal for the traveling state (for example, night or rain). It is possible to assist driving.
[0044]
Also, in FIG. 3A, when an edit instruction for dividing (dividing) a proposal at a position A ′ between A and B is performed, the entry (1) in FIG. 3A is divided. 3 (d) of FIG. 3 is edited into the two entries of (2) and (3), that is, from the head position A of the entry of (1) to the division position A 'of the entry of (2), , The division positions A ′ to B are divided into the entries of (3), as shown in the figure.
[0045]
FIG. 3B shows an example of video data. The position of the video data is managed in association with the frame number (frame number).
[0046]
FIG. 3C shows an example in which the description content is linked to video data. Here, in the description contents (audio, text, image), a frame number of a link position in the video data is set in the link information, and is linked to the video data.
[0047]
As described above, when it is necessary to pay attention to falling rocks while taking the explanation contents, for example, when shooting the direction of travel of the road with a camera, "Be careful because the current position is likely to fall. When the user utters by voice, the frame number of the video at that time is automatically set as link information, and linking is performed. With this, when the video is played back and displayed, when the video comes to the link location of the video, the automatically recorded “Precautions must be taken because the current position is likely to be dropped, It is possible to inform the user (driver) of the contents of the explanation.
[0048]
FIG. 3C shows an example of the registration data table (after editing). As described above, the entry (1) in FIG. 3A is edited by dividing the entry (1) into the entry (2) and the entry (3). For example, as shown in FIG. 5 to be described later, before the editing, the intermediate point B and the end point C are divided into sections (every fixed time, every predetermined distance, every predetermined video frame, 3A) is registered in the registration data table (before editing) 11 in FIG. 3A, and if there is an intersection A ′ between A and B after registration, the A ′ is automatically used. Divide and register as shown.
[0049]
As described above, when a section registered in the registration data table (before editing) 11 has a reference point such as an intersection, the section is divided as much as possible into small sections, so The number of matching sections increases, and the video of the section that matches more finely and efficiently is extracted from the registration data table 11 and the video (actual video) is simultaneously displayed on the map according to the current position and the traveling direction. Becomes possible.
[0050]
FIG. 4 is a flowchart (edit) for explaining the operation of the present invention. Here, the table 11 represents the registration data table 11 of FIG. 3 described above.
[0051]
In FIG. 4, S11 calculates a traveling direction from the current position of the table 11.
In S12, an intersection in the traveling direction is found from the map information. In these steps S11 and S12, as shown in FIG. 5, for example, assuming that the current position is A and the traveling direction of the route is B on the right side, and further the end point is C in the downward direction, the traveling direction is viewed from the current position A. An intersection, here the position A 'of the intersection is found on the map.
[0052]
In S13, it is determined whether or not the intersection is large. This is to determine whether the intersection found in S12 is larger than a predetermined size. In the case of YES, the process proceeds to S14. In the case of NO, the process returns to S12 and repeats for the next intersection in the traveling direction.
[0053]
In S14, it is determined whether or not the position information of the intersection exists in the table 11. For example, it is determined whether or not the position A ′ of the intersection found in FIG. 5 is registered in the position column of the table (before editing) 11 in FIG. Here, since it has not been registered, the determination is NO, and the process proceeds to S15. On the other hand, if YES, it means that it has been registered, and so goes to S21.
[0054]
In S15, since NO in S14, for example, it is determined that the intersection A 'is not in the column of the position of the table (before editing) 11, the frame position of the intersection is calculated based on the position information before and after. This is because, for example, it is found that the intersection A ′ is not in the column of the position of the table (before editing) 11, so the frame information of the intersection is obtained from the preceding and following positional information A (frame position 0) and C (frame position 600). The position (for example, 300) is calculated.
[0055]
In step S16, data is added to the edited table 11 with the probable intersection position as the end point. This registers, for example, the entry (2) in FIG. 3 (d).
[0056]
In step S17, the next start point X is set to the position of the assumed intersection (here, the frame position 300).
[0057]
In step S18, it is determined whether or not there is link information (audio, text, video). That is, as shown in FIG. 3B described above, it is determined whether or not there is an explanation content (voice, character, video) linked with the link information in association with the video data. In the case of YES, as shown in FIG. 3B, description contents (audio, text, image) are added and registered in association with link information (frame number of video).
[0058]
In S20, it is determined whether or not the next start point X is the end point. In the case of YES, the editing ends. In the case of NO, S11 is repeated because the route has not been reached.
[0059]
In S21, the information of A 'in FIG. 5, for example, is additionally registered as shown in the entry (2) in FIG. 3C from S15 to S17 as described in S14 with YES in S14. S11, S12, S13: YES, S14: YES, and it is determined that the travel direction of the prorated A 'has reached B and registered in the table 11 here. At the position (here, B) is added. As a result, the entry (3) in FIG. 3D is additionally registered.
[0060]
In S22, the next start point is set to X = the position of the intersection. Here, for example, B in FIG. 5 is set as the position of the next intersection, and the process proceeds to S18.
[0061]
As described above, the registration data table (before editing) 11 of FIG. 3A described above is input, and the registration data table (after editing) 11 of FIG. At the same time, it is possible to additionally register explanation contents as shown in FIG.
[0062]
FIG. 5 shows an explanatory diagram of the present invention. Here, the start point is A, B in the rightward traveling direction, and C in the downward traveling direction are already registered in the registration data table (before editing) 11 in FIG. FIG. 6 shows how the intersection A ′ is prorated and added according to the flowchart of FIG. 4 described above. By adding A ′, the entry (1) of the registration data table (before editing) 11 in FIG. 3A is changed to the entry (1) of the registration data table (after editing) 11 in FIG. In addition to dividing into 2 and 3 and registering them, the contents of explanation in FIG. 3C are linked and registered with link information (frame number of video).
[0063]
FIG. 6 is a flowchart (search) for explaining the operation of the present invention.
In FIG. 6, in step S31, a navigation operation starts in a vehicle equipped with a GPS.
[0064]
In step S32, a destination is input and a route is searched.
In step S33, all data matching the route are extracted and listed. For example, when a starting point A and a destination C in FIG. 5 are input, a route is searched, and a section corresponding to the route is searched from the registration data table (after editing) 11 in FIG. Here, the search is performed, and here, the entries of (2) and (3) are extracted. At this time, the shared registration data table 11 registered by another user in the same manner is searched, and all the data in the section matching the route is extracted. Then, a list (list) of the extracted data is created by searching for each section from the departure point to the destination.
[0065]
In S34, the user selects from the list. This is because a list is displayed for each section, and the user selects the most appropriate one from the list. For example, as additional information, time zones such as night and day, and weather such as clear, cloudy, rain, snow, etc. Is displayed, and the user sees them and selects the most suitable one for the current situation. Alternatively, the current time zone may be obtained from a timer, the weather may be detected by a sensor, and the video of the matching additional information may be automatically selected.
[0066]
A step S35 decides whether or not all sections have been selected. That is, it is determined whether or not appropriate data has been selected from the list for all sections of the route from the departure point to the destination. In the case of YES, the process proceeds to S36. In the case of NO, the process returns to S33, and S33 and S34 are repeated for another section.
[0067]
In step S36, the video is displayed on the basis of the GPS position information, and if there is a description, it is reproduced. This is because, as the vehicle travels, based on the current position acquired from the GPS receiver 2, if there is an image at a position slightly different from the current position in the traveling direction, it is reproduced and the actual image is displayed. If the sentence is linked, the explanation is reproduced together with the sentence and guidance is provided. Further, in the present embodiment, the video is displayed based on the current position information acquired from the GPS receiver 2 during traveling, but the video in which the sections searched in S31 to S35 are connected before traveling is reproduced. It is also possible to check the road condition in advance.
[0068]
As described above, the route is searched based on the departure place (current location) and the destination, all the data (video) of the section included in the route are extracted and displayed in a list, and the selected data (video) is displayed. Automatically displaying the current position acquired from the GPS receiver 2 and automatically displaying the description, if the description is linked, also reproduces the description together, so that the time zone such as night, daytime, etc. can be used during route guidance. It is possible to extract and display previously shot images and explanations that match the weather such as cloudy, rainy, snowy, etc., and to provide efficient route guidance.
[0069]
FIG. 7 shows a flowchart (selection) for explaining the operation of the present invention.
In FIG. 7, in step S41, those having the same section are extracted. This is because, for the route found by searching from the departure point to the destination in S33 of FIG. 6 described above, the registration data table 11 of FIG. Take what you want from the one near the starting point.
[0070]
In S42, one is determined. In the case of YES, it is determined that there is only one data (video) in the section, and the process proceeds to S46. In the case of NO, the process proceeds to S43.
[0071]
A step S43 extracts a match of the additional information. In this case, the information which coincides with additional information such as time zones such as day and night, and weather such as fine, cloudy, rain, and snow is extracted.
[0072]
S44 is determined. Through S41 to S46, all the data (video) of the section included in the route from the departure point to the destination is extracted from the registration data table 11 of FIG. 3D described above, and there are a plurality of section data. In some cases, select data for which additional information (time zones such as night and day, weather such as clear, cloudy, rain, snow, etc.) matches the current situation, and determine one optimal data (video) for each section. Becomes possible.
[0073]
In S47 and S48, it is determined whether the section is divided, that is, it is determined whether one section on the route is divided into a plurality of sections by the determination in S42 to S46, and in the case of YES, the same (S41 to S46) Then, the optimum data is selected for each of the sections into which the one section is divided, and the processing is terminated. In the case of NO, the section is not divided and the processing ends.
[0074]
As described above, for the route from the departure point to the destination, the registration data table 11 is searched to extract all the data of the section included in the route, and from these, the data that best matches the current state based on the additional information. Data to be performed can be selected. Then, following the current position detected by the GPS receiver 2, the data (video) of the current position and a position slightly advanced in the traveling direction are displayed, and if the description is linked, the description is also added. By playing back, play back the optimal previous actual video that matches the current position and situation (night, daytime, weather such as sunny, cloudy, rain, snow, etc.) and provide efficient route guidance Becomes possible.
[0075]
【The invention's effect】
As described above, according to the present invention, in addition to the position information at the time of shooting the video, additional information (weather, time zone such as night and day, etc.) is registered in the video, and the same location is used during navigation. Also adopts a configuration that selects and displays the video of the additional information that is optimal for the current position, so that it is possible to display video that matches the actual driving weather, time zone, etc., and to provide effective route guidance Become.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of the present invention.
FIG. 2 is an operation explanatory flowchart (registration) of the present invention.
FIG. 3 is a table / data example of the present invention.
FIG. 4 is a flowchart (edit) for explaining the operation of the present invention.
FIG. 5 is an explanatory diagram of the present invention.
FIG. 6 is a flowchart (search) for explaining the operation of the present invention.
FIG. 7 is a flowchart (selection) for explaining the operation of the present invention.
[Explanation of symbols]
1: Navigation information creation unit 2: GPS receiver 3: Imaging device 4: Input device 5: Additional information providing device 6: Information control unit 7, 22: Transmission device 8, 12: Base station 9: Information management unit 10: Registration Means 11: Registration data table 23: Receiving device 24: Information control unit 25: Search unit 26: Input device 27: Condition input device 28: Display unit 29: Map information storage device

Claims (5)

地図上に現在位置と指定された経路を表示するナビゲーションシステムにおいて、
以前に走行したときに撮影した映像と、そのときの位置情報と、少なくとも天候、時間帯からなる付加情報をリンク付けて登録するデータテーブルと、
現在位置あるいは現在位置と走行方向をもとに前記データテーブルを検索して最も一致する映像を抽出する手段と、
前記抽出した映像を、前記現在位置と指定された経路に加えて表示する手段とを備えたことを特徴とするナビゲーションシステム。
In a navigation system that displays the current position and a specified route on a map,
A data table for linking and registering images taken during a previous run, positional information at that time, and additional information including at least weather and time zone;
Means for searching the data table based on the current position or the current position and the traveling direction to extract the most matching video,
Means for displaying the extracted video in addition to the current position and the designated route.
前記データテーブルは、走行時に搭載した撮像装置で実景の映像を撮影した位置情報、更に、当該地点の少なくとも天候、時間帯の付加情報を合わせてリンク付けて登録することを特徴とする請求項1記載のナビゲーションシステム。2. The data table according to claim 1, wherein the information is linked with position information obtained by capturing an image of a real scene by an image pickup device mounted at the time of traveling, and further added with at least weather information and time zone information of the point. The navigation system described. 前記付加情報は、映像の道についての音声、テキスト、あるいは映像による説明であり、当該映像の表示時に合わせて当該説明を再生することを特徴とする請求項1あるいは請求項2記載のナビゲーションシステム。3. The navigation system according to claim 1, wherein the additional information is an audio, text, or video description of a video path, and the description is reproduced when the video is displayed. 前記映像にリンク付ける位置情報として、映像を撮影したある位置から他の位置までの区間とし、当該区間が最も一致した映像を抽出することを特徴とする請求項1から請求項3に記載のいずれかのナビゲーションシステム。The position information to be linked to the video is a section from a position where the video is photographed to another position, and a video in which the section is most matched is extracted. Navigation system. 前記データテーブルは、異なる利用者が登録したデータテーブルをネットワークを介して統合し、各利用者に統合したデータテーブルを検索させて最も一致する映像を配信することを特徴とする請求項1から請求項3に記載のいずれかのナビゲーションシステム。The data table according to claim 1, wherein the data tables registered by different users are integrated via a network, each user is searched for the integrated data table, and the most matching video is delivered. Item 4. The navigation system according to any one of Items 3.
JP2002319623A 2002-11-01 2002-11-01 Navigation system Withdrawn JP2004151063A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002319623A JP2004151063A (en) 2002-11-01 2002-11-01 Navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002319623A JP2004151063A (en) 2002-11-01 2002-11-01 Navigation system

Publications (1)

Publication Number Publication Date
JP2004151063A true JP2004151063A (en) 2004-05-27

Family

ID=32462418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002319623A Withdrawn JP2004151063A (en) 2002-11-01 2002-11-01 Navigation system

Country Status (1)

Country Link
JP (1) JP2004151063A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119591A (en) * 2004-09-22 2006-05-11 Mitsubishi Electric Corp Map information generation method, map information generation program and map information collection apparatus
JP2008500561A (en) * 2004-06-03 2008-01-10 シャープ株式会社 MAP DATA CREATION DEVICE, MOBILE BODY HAVING THE SAME, AND MAP DATA CREATION METHOD
JP2008537649A (en) * 2005-02-16 2008-09-18 ソニック ソリューションズ Content creation, organization and / or playback based on embedded parameter identifiers
JP2008242691A (en) * 2007-03-27 2008-10-09 Equos Research Co Ltd Information delivery service system and onboard information delivery device
JP2011108282A (en) * 2004-06-30 2011-06-02 Nokia Corp Searching and specifying items based on metadata
US8019536B2 (en) * 2007-12-28 2011-09-13 At&T Intellectual Property I, L.P. Methods, devices, and computer program products for geo-tagged photographic image augmented GPS navigation
JP2013016004A (en) * 2011-07-04 2013-01-24 Clarion Co Ltd Moving image information providing server, moving image information providing system, and navigation device
JP2014070933A (en) * 2012-09-28 2014-04-21 Jvc Kenwood Corp Image generation device, and route image generation method
US9299065B2 (en) 2012-02-17 2016-03-29 Blackberry Limited Intelligent downloading of message attachments to mobile devices
JP2021005830A (en) * 2019-06-27 2021-01-14 株式会社Jvcケンウッド Control device for video distribution, control method for video distribution, and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008500561A (en) * 2004-06-03 2008-01-10 シャープ株式会社 MAP DATA CREATION DEVICE, MOBILE BODY HAVING THE SAME, AND MAP DATA CREATION METHOD
JP2011108282A (en) * 2004-06-30 2011-06-02 Nokia Corp Searching and specifying items based on metadata
JP2006119591A (en) * 2004-09-22 2006-05-11 Mitsubishi Electric Corp Map information generation method, map information generation program and map information collection apparatus
JP2008537649A (en) * 2005-02-16 2008-09-18 ソニック ソリューションズ Content creation, organization and / or playback based on embedded parameter identifiers
JP2008242691A (en) * 2007-03-27 2008-10-09 Equos Research Co Ltd Information delivery service system and onboard information delivery device
US8204683B2 (en) * 2007-12-28 2012-06-19 At&T Intellectual Property I, L.P. Methods, devices, and computer program products for geo-tagged photographic image augmented files
US8019536B2 (en) * 2007-12-28 2011-09-13 At&T Intellectual Property I, L.P. Methods, devices, and computer program products for geo-tagged photographic image augmented GPS navigation
US8543332B2 (en) 2007-12-28 2013-09-24 At&T Intellectual Property I, L.P. Methods, devices, and computer program products for geo-tagged photographic image augmented files
US8775072B2 (en) 2007-12-28 2014-07-08 At&T Intellectual Property I, L.P. Methods, devices, and computer program products for geo-tagged photographic image augmented files
US10088329B2 (en) 2007-12-28 2018-10-02 At&T Intellectual Property I, L.P. Methods, devices, and computer program products for geo-tagged photographic image augmented files
JP2013016004A (en) * 2011-07-04 2013-01-24 Clarion Co Ltd Moving image information providing server, moving image information providing system, and navigation device
US9299065B2 (en) 2012-02-17 2016-03-29 Blackberry Limited Intelligent downloading of message attachments to mobile devices
JP2014070933A (en) * 2012-09-28 2014-04-21 Jvc Kenwood Corp Image generation device, and route image generation method
JP2021005830A (en) * 2019-06-27 2021-01-14 株式会社Jvcケンウッド Control device for video distribution, control method for video distribution, and program
JP7447399B2 (en) 2019-06-27 2024-03-12 株式会社Jvcケンウッド Video distribution control device, video distribution control method, and program

Similar Documents

Publication Publication Date Title
US20030214582A1 (en) Video delivery apparatus and video information delivery system
JP4321128B2 (en) Image server, image collection device, and image display terminal
JP4323123B2 (en) A mobile system that identifies sites of interest
CN102568240A (en) Traffic Information System, Traffic Information Acquisition Device And Traffic Information Supply Device
JP6083752B2 (en) Driving support method, center device, driving support system
EP1403784A2 (en) Method, apparatus, and computer program for generating albums
CN1673686A (en) Navigation systems
JP5187617B2 (en) Image recording apparatus and image recording method
JP4965475B2 (en) Virtual moving display device
JP7275556B2 (en) Information processing system, program, and information processing method
JP2004151063A (en) Navigation system
CN112836079A (en) Image data distribution system and image data display terminal
JP2003202235A (en) Delivery device, display device, delivery method, and information delivery and display system
JPH11160080A (en) Mobile body information system
JP6606354B2 (en) Route display method, route display device, and database creation method
JP2010045436A (en) Camera and photographing system
JP2005294893A (en) Image distribution system
JP2012244193A (en) Reproduction section extraction method, program and storage medium, and reproduction section extraction device and transport equipment mounting apparatus
JP2008107927A (en) Information transfer system for vehicle
EP1345133A1 (en) Information service method and its computer program
JP2004212232A (en) Scenery displaying dynamic image navigation system
JP2006337154A (en) Photograph display device
JP4207317B2 (en) Destination identification support device and navigation system provided with the device
JP2003029625A (en) Mapping method
JP2003284061A (en) Video recording equipment

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110