JP2004151063A - Navigation system - Google Patents
Navigation system Download PDFInfo
- Publication number
- JP2004151063A JP2004151063A JP2002319623A JP2002319623A JP2004151063A JP 2004151063 A JP2004151063 A JP 2004151063A JP 2002319623 A JP2002319623 A JP 2002319623A JP 2002319623 A JP2002319623 A JP 2002319623A JP 2004151063 A JP2004151063 A JP 2004151063A
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- data table
- image
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、地図上に現在位置と指定された経路を表示するナビゲーションシステムに関するものである。
【0002】
【従来の技術】
従来のナビゲーションシステムは、車に搭載した撮影装置で走行する道路などを実際に撮影した実景映像を記録装置に記録する。そして、次に、同じ道を誘導するときに、地図情報に加えて実景映像を記憶装置から読み出して表示し、案内を実景をもとにわかりやすく表示する技術がある(特許文献1参照)。
【0003】
【特許公報1】
特開平05−240724号公報の特許請求の範囲など参照。
【0004】
【発明が解決しようとする課題】
上述した従来の技術では、ナビゲーション装置で撮影した実景映像を利用するには、一度通ってそのときに撮影した実景映像がないと利用できない、即ち、同一道を2回目以降に走行しようとしたときにのみしか実景映像が表示されないという問題ある。
【0005】
また、上述した技術では、ある地点の実景映像は、一種類のみ決まってしまうため、同じ地点の複数種類の実景映像(例えば昼、夜などの時間帯、および雨、晴れなどの天気状況などの実景映像)を管理できなく、選択された1種類の実景映像を表示できるのみで、実走行時の状況に合致した実景映像を表示し得ないという問題があった。
【0006】
本発明は、これらの問題を解決するため、映像に当該映像の撮影時の位置情報に加えて付加情報(天候、夜昼などの時間帯など)を登録しておき、ナビゲーション時に同一地点であっても現位置に最適な付加情報の映像を選択して表示し、実走行の天候、時間帯などに合致した映像を表示して効果的な道案内することを目的としている。
【0007】
【課題を解決するための手段】
図1を参照して課題を解決するための手段を説明する。
【0008】
図1において、ナビゲーション情報作成部1は、走行時に搭載した撮像装置で実景の映像を撮影した位置情報、更に、当該地点の少なくとも天候、時間帯の付加情報を合わせてリンク付けて登録用データテーブル11に登録したりなどするものである。
【0009】
ナビゲーション情報利用部21は、現在位置あるいは現在位置と走行方向をもとに登録用データテーブル11を検索して該当する映像を現在位置と指定された経路に加えて表示したりなどするものである。
【0010】
次に、動作を説明する。
ナビゲーション情報利用部21が現在位置あるいは現在位置と走行方向をもとに登録用データテーブル11を検索して最も一致する映像を抽出し、抽出した映像を現在位置と指定された経路に加えて表示するようにしている。
【0011】
この際、ナビゲーション情報作成部1が走行時に搭載した撮像装置で実景の映像を撮影した位置情報、更に、当該地点の少なくとも天候、時間帯の付加情報を合わせてリンク付けて登録用データテーブル11に登録するようにしている。
【0012】
また、付加情報は、映像の道についての音声、テキスト、あるいは映像による説明であり、当該映像の表示時に合わせて当該説明を再生するようにしている。
【0013】
また、映像にリンク付ける位置情報として、映像を撮影したある位置から他の位置まの区間とし、当該区間が最も一致した映像を抽出するようにしている。
【0014】
また、登録用データテーブル11は、異なるナビゲーション情報作成部1からの情報をネットワークを介して登録用データテーブル11として統合し、各利用者のナビゲーション情報利用部21が統合した登録用データテーブル11を検索して最も一致する映像を抽出して表示するようにしている。
【0015】
従って、映像に当該映像の撮影時の位置情報に加えて付加情報(天候、夜昼などの時間帯など)を登録しておき、ナビゲーション時に同一地点であっても現位置に最適な付加情報の映像を選択して表示することにより、実走行の天候、時間帯などに合致した映像を表示して効果的な道案内することが可能となる。
【0016】
【発明の実施の形態】
次に、図1から図7を用いて本発明の実施の形態および動作を順次詳細に説明する。
【0017】
図1は、本発明のシステム構成図を示す。
図1において、ナビゲーション情報作成部1は、走行時に搭載した撮像装置で撮影した映像および当該映像を撮影した位置情報、更に、当該地点の少なくとも天候、時間帯の付加情報を合わせてリンク付けて登録用データテーブル11に登録したりなどするものであって、ここでは、GPS受信機2、撮像装置3、入力装置4、付加情報提供装置5、情報制御部6、発信装置7などから構成されるものである。
【0018】
GPS受信機2は、移動体に搭載したナビゲーションシステムを構成する当該ナビゲーション情報作成部1の位置を検出(周知の技術)するものである。
【0019】
撮像装置3は、ナビゲーションシステムを搭載した移動体(例えば車)が走行するときの道の実景を撮像するものであって、例えばビデオカメラである。
【0020】
入力装置4は、各種操作指示(コマンド)を入力したりし、撮像装置3で道の実景を撮影開始したりなどするものである。
【0021】
付加情報提供装置5は、撮影した映像に付加する情報(例えば時間帯(昼,夜など)、天候(天気が晴れ、曇り、雨、雪など)をセンサから取り込んだり、利用者が音声で入力したりなどするものである。
【0022】
情報制御部6は、GPS受信機2、撮像装置3、入力装置4および付加情報提供装置5からの位置情報、映像、各種操作指示、付加情報を取り込んで所定のフォーマットに作成して登録用データテーブル11に登録したりなどするものである(図3参照)。
【0023】
発信装置7は、情報制御部6で作成したデータを、無線で基地局8に送信して登録用データテーブル11に登録したりなどするものである。
【0024】
基地局8は、登録用データテーブル11にデータを登録するために、各利用者からのデータを受信するための基地局である。
【0025】
情報管理部9は、各利用者のナビゲーション情報作成部1から受信したデータを、登録用データテーブル11に登録するものであって、登録手段10などから構成されるものである。
【0026】
登録手段10は、各利用者のナビゲーション情報作成部1から受信したデータを、登録用データテーブル11に登録するものである。
【0027】
基地局10は、情報管理部9とナビゲーションシステムを構成するナビゲーション情報利用部21とを無線で接続してデータを送受信するものである。
【0028】
ナビゲーション情報利用部21は、現在位置あるいは現在位置と走行方向をもとに登録用データテーブル11を検索して該当する映像を現在位置と指定された経路に加えて表示したりなどするものであって、発信装置22、受信装置23、情報制御部24、入力装置26、条件入力部27、表示部28、および地図情報記憶装置29などから構成されるものである。
【0029】
発信装置22および受信装置23は、ナビゲーション情報利用部21と基地局12を介して情報管理部9との間で、無線でデータの送受信を行うものである。
【0030】
情報制御部24は、現在位置あるいは現在位置と走行方向をもとに登録用データテーブル11を検索して該当する映像を取り込んだり、GPS受信機2によって取得した現在の位置情報(経度、緯度)、更に、現在位置を含む地図を取り出して表示部28上に表示したりなどするものであって、ここでは、検索手段25などから構成されるものである。
【0031】
検索手段25は、現在位置あるいは現在位置と走行方向をもとに登録用データテーブル11を検索して該当する映像を抽出したりなどするものである(図6.図7参照)。
【0032】
入力装置26は、各種操作指示などを入力するものである。
条件入力装置27は、付加情報を入力したりなどするものである。
【0033】
表示部28は、映像、地図、経路情報などを表示するものである。
地図情報記憶装置29は、地図情報を記憶したものである。
【0034】
次に、図2のフローチャートの順番に従い、図1の構成のもとで登録用データテーブル11に映像、位置情報および付加情報などを登録するときの手順を詳細に説明する。
【0035】
図2は、本発明の動作説明フローチャート(登録)を示す。
図2において、S1は、GPS、カメラを搭載した車において録画開始する。これは、図1のGPS受信機2、カメラに相当する撮影装置3を搭載した車(移動体)で、当該カメラによる道の例えば進行方向の映像を撮影して録画開始すると共に、位置情報を対応づけて記録する。
【0036】
S2は、A地点の位置情報と映像を録画し、一定時間あるいは一定区間毎にリンク付けて記録、この時、付加情報(昼、夜などの時間帯、晴、曇り、雨、雪などの天候)を記録する。これらS1、S2は、例えば後述する図3の(a)に示すように登録、即ち、一定時間、あるいは一定区間毎に、図示の例えば第1行目のエントリを作成し、位置(開始位置)A、画像位置(映像データ中の先頭からのフレームNo)、付加情報(夜昼などの時間帯、晴、曇、雨,雪などの天候)、日時(映像を撮影した日時)などを記録する。
【0037】
S3は、道についての説明文を入力する。
S4は、映像データにリンク付けする。これらS3、S4は、S1で撮影開始した映像に写っている道について、説明文(例えば工事中で片道通行で、渋滞する恐れ有りなど)を音声、キー入力、あるいはメニューから選択して入力し、後述する図3の(b)に示すように、映像のフレーム番号などにリンク付けする。
【0038】
S5は、登録する。これは、図1の登録用データテーブル11に、後述する
図3の(a),(b)に示すように登録する。
【0039】
S6は、編集する。これは、S1からS5で登録した例えば後述する図3の(a)の登録用データテーブル(編集前)11を、図3の(d)の登録用データテーブル(編集後)11に示すように編集、ここでは、図3の(a)の登録用データテーブル(編集前)11の第1行目の▲1▼エントリの区間を、後述する図5に示すよう2つに分割して▲2▼と▲3▼のエントリのように編集して登録する。
【0040】
以上によって、車に図1のナビゲーションシステム(ナビゲーション情報作成部1およびナビゲーション情報利用部21)を搭載し、ナビゲーション情報作成部1が撮影した映像、位置情報、入力された説明文などをまとめて図3の(a)の登録用データテーブル(編集前)11を作成し、編集して図3の(d)の登録用データテーブル(編集後)11として登録することが可能となる。
【0041】
図3は、本発明のテーブル/データ例を示す。
図3の(a)は、登録用データテーブル(編集前)11の例を示す。この登録用データテーブル(編集前)11は、既述した図2のS5で登録した編集前のものであって、ここでは所定距離毎、時間毎、映像フレーム毎、あるいは指定される毎に、図示の下記の情報を対応づけてそれぞれ登録したものである。
【0042】
・位置(緯度、経度):
・画像位置:
・付加情報:
・日時:
・その他:
ここで、位置(緯度、経度)は、図2のS1、S2で映像を撮影開始したときの、GPS受信機2で検出した現在位置の緯度、経度の情報である。画像位置は、同様に、映像を撮影開始したときの当該映像データのフレーム番号である。付加情報は、同様に、映像を撮影開始したときの時間帯(朝、昼、夕方、夜などの時間帯)、天候(晴、曇、雨、雪などの天候)などである。日時は、同様に、映像の撮影開始したときの日時である。
【0043】
以上のように、所定距離毎、時間毎、映像フレーム毎、指定される毎に、映像に対応づけて位置(緯度、経度)、付加情報(夜、雨など)および日時をそれぞれ記録して登録用データテーブル11に蓄積することにより、以降の車で走行時に、区間毎に登録用データテーブル11を検索して一致する区間があり、かつそのときの付加情報のうちの最も一致するエントリを取り出してその映像を、ナビゲーション中の画面に表示した地図と当該地図上の現在の位置、走行方向に合わせて同時に表示し、走行状態(例えば夜、雨)に最適な以前の実映像を表示して走行の手助けを行うことが可能となる。
【0044】
また、図3の(a)で、AとBとの間のA’の位置で案文(分割)する編集指示を行うと、当該図3の(a)の▲1▼のエントリが、分割されて図3の(d)の▲2▼と▲3▼の2つのエントリに編集される、即ち、▲1▼のエントリの先頭位置Aから分割位置のA’までを▲2▼のエントリ、更に、分割の位置A’からBまでを▲3▼のエントリに分割し、図示のようにする。
【0045】
図3の(b)は、映像データの例を示す。映像データは、フレームNo(フレーム番号)に対応づけて位置を管理する。
【0046】
図3の(c)は、説明内容を映像データにリンク付けた例を示す。ここでは、説明内容(音声、文字、画像)は、リンク情報に映像データ中のリンク付ける位置のフレーム番号を設定し、映像データとリンク付けている。
【0047】
以上のように、説明内容、例えばカメラで道の進行方向を撮影しているときに、落石などに注意する必要がある場合に、”現在の位置は落石の恐れがあるので、要注意”と音声で利用者が発声することで、自動的にそのときの映像のフレーム番号をリンク情報として設定し、リンク付けを行う。これにより、映像を再生して表示したときに、当該映像のリンク場所にきたときに、自動的に記録した”現在の位置は落石の恐れがあるので、要注意”を自動音声で発声して説明内容を利用者(運転者)に知らせることが可能となる。
【0048】
図3の(c)は、登録用データテーブル(編集後)の例を示す。これは、上述したように、図3の(a)の▲1▼のエントリを、▲2▼のエントリと、▲3▼のエントリの2つに分割して編集したものである。この分割は、例えば後述する図5に示すように、編集前は、A(開始点)から中間点B,終了点Cがそれぞれの区間(一定時間毎、所定距離毎、所定映像フレーム毎、指定される毎で決まる区間)として図3の(a)の登録用データテーブル(編集前)11に登録し、登録後にAとBの間に交叉点A’があった場合、当該A’で自動分割して図示のように登録する。
【0049】
以上のように、登録用データテーブル(編集前)11に登録された区間について、交叉点などの目安となる地点がある場合に、可及的に分割して細かい区間にすることにより、走行時に一致する区間が多くなり、よりきめ細かくかつ効率的に一致する区間の映像を登録用データテーブル11から取り出してその映像(実映像)を、地図上に現在位置、走行方向に合わせて同時に表示することが可能となる。
【0050】
図4は、本発明の動作説明フローチャート(編集)を示す。ここで、テーブル11は、既述した図3の登録用データテーブル11を表す。
【0051】
図4において、S11は、テーブル11の現位置から進行方向を算出する。
S12は、進行方向にある交差点を地図情報から見つける。これらS11、S12は、例えば図5に示すように、現在位置がAであり、経路の進行方向が右側のB、更に、下方向のCで終点とすると、現在位置Aから見て進行方向にある交差点、ここでは交差点の位置A’を地図上から見つける。
【0052】
S13は、交差点が大きいか判別する。これは、S12で見つけた交差点が所定サイズによりも大きいか判別する。YESの場合には、S14に進む。NOの場合には、S12に戻り、進行方向に次の交差点について繰り返す。
【0053】
S14は、交差点の位置情報がテーブル11にあるか判別する。これは、例えば図5で見つけた交差点の位置A’が、既述した図3の(a)のテーブル(編集前)11の位置の欄に登録されているか判別する。ここでは、登録されていないので、NOとなり、S15に進む。一方、YESの場合には、登録されていたので、S21に進む。
【0054】
S15は、S14のNOで、交差点の例えばA’がテーブル(編集前)11の位置の欄にないと判明したので、前後の位置情報から案分し、交差点のフレーム位置を算出する。これは、交差点の例えばA’がテーブル(編集前)11の位置の欄にないと判明したので、前後の位置情報であるA(フレーム位置0)とC(フレーム位置600)とから交差点のフレーム位置(例えば300)を算出する。
【0055】
S16は、編集後のテーブル11に案分した交差点の位置を終了点としてデータを追加する。これは、例えば図3の(d)の▲2▼のエントリを登録する。
【0056】
S17は、次の開始点X=案分した交差点の位置(ここでは、フレーム位置300)とする。
【0057】
S18は、リンク情報(音声、文字、映像)があるか判別する。これは、既述した図3の(b)に示すように、映像データに対応づけてリンク情報でリンク付けされた説明内容(音声、文字,映像)があるか判別する。YESの場合には、図3の(b)に示すように、リンク情報(映像のフレーム番号)に対応づけて説明内容(音声,文字、画像)を追加して登録する。
【0058】
S20は、次の開始点Xが終点か判別する。YESの場合には、編集を終了する。NOの場合には、経路の終点にたどり着いていないため、S11を繰り返す。
【0059】
また、S21は、S14のYESで例えば図5のA’の情報を、既述したS15からS17で図3の(c)の▲2▼のエントリに示すように追加登録し、S20のNO,S11,S12,S13のYES,S14のYESとなり、当該案分したA’の進行方向のここでは、Bに到達してテーブル11に登録されていると判明したので、編集後のテーブル11に交差点の位置(ここでは、B)を終点としたデータを追加する。これにより、図3の(d)の▲3▼のエントリが追加登録される。
【0060】
S22は、次の開始点をX=交差点の位置とする。ここでは、例えば図5のBを次の交差点の位置とし、S18に進む。
【0061】
以上によって、既述した図3の(a)の登録用データテーブル(編集前)11を入力とし、大きな交差点で案分した図3の(d)の登録用データテーブル(編集後)11を編集すると共に図3の(c)のような説明内容を追加登録することが可能となる。
【0062】
図5は、本発明の説明図を示す。ここで、開始点がAで、右方向の進行方向にB,更に,下方向の進行方向にCが図3の(a)の登録用データテーブル(編集前)11に既に登録されており、既述した図4のフローチャートに従い、交差点A’を案分して追加する様子を示すものである。A’を追加したことにより、図3の(a)の登録用データテーブル(編集前)11のエントリ▲1▼が、図3の(d)の登録用データテーブル(編集後)11のエントリ▲2▼,▲3▼に分割して登録すると共に、更に、図3の(c)の説明内容をリンク情報(映像のフレーム番号)でリンクして登録する。
【0063】
図6は、本発明の動作説明フローチャート(検索)を示す。
図6において、S31は、GPSを搭載した車においてナビゲーション操作開始する。
【0064】
S32は、目的地を入力し経路を探索する。
S33は、経路に一致するデータを全て抽出しリスト化する。これは、例えば図5の出発点A,目的地Cが入力されると経路を探索し、当該経路に一致する区間を、例えば図3の(d)の登録用データテーブル(編集後)11から探索してここでは、▲2▼と、▲3▼のエントリを取り出す。この際、他の利用者が同様にして登録した共有の登録用データテーブル11を探索し、経路に一致する区間のデータを全て取り出す。そして、これら取り出したデータについて、出発地から目的地に向けて各区間毎に探索して取り出したデータのリスト(一覧表)を作成する。
【0065】
S34は、利用者によりリストから選択する。これは、区間毎にリストが表示されるので、その中から利用者が最適なものを選択、例えば付加情報として、夜,昼などの時間帯、更に、晴、曇,雨,雪などの天候が表示されるのでこれらを見て現状に一番適したものを利用者が選択する。また、現在の時間帯をタイマから取得、およびセンサで天候を検出し、一致する付加情報の映像を自動選択するようにしてもよい。
【0066】
S35は、全区間選択されたか判別する。これは、出発地から目的地までの経路の全ての区間についてリスト中から適切なデータがそれぞれ選択終了したか判別する。YESの場合には、S36に進む。NOの場合には、S33に戻り、他の区間についてS33、S34を繰り返す。
【0067】
S36は、GPS位置情報をもとに、映像を表示、説明文があればそれを再生する。これは、車が走行するに従い、GPS受信機2から取得した現在位置をもとに、現在位置と少し進行方向の位置の映像があれば、それを再生して実映像を表示すると共に、説明文がリンク付けされていれば当該説明文も合わせて再生し、道案内を行う。また、本実施例では、走行時にGPS受信機2から取得した現在位置情報をもとに、映像を表示しているが、走行前にS31〜S35で検索した区間を繋ぎ合わせた映像を再生し、事前に道路状態を確認することも可能である。
【0068】
以上のように、出発地(現在地)と目的地をもとに経路を探索して当該経路に含まれる区間のデータ(映像)を全て抽出してリスト表示し、選択されたデータ(映像)をGPS受信機2から取得した現在位置に追従して自動表示すると共に説明文がリンクされていれば当該説明文も合わせて再生することにより、道案内時に、夜,昼などの時間帯,更に晴、曇、雨,雪などの天候に合致した以前に撮影した映像、説明文を抽出して表示し、効率的な道案内を行うことが可能となる。
【0069】
図7は、本発明の動作説明フローチャート(選択)を示す。
図7において、S41は、区間の一致するものを抽出する。これは、既述した図6のS33で、出発地から目的地まで探索して見つけた経路について、図3の(d)の登録用データテーブル11を検索して当該経路の任意の区間に一致するものを出発点に近い方から取り出す。
【0070】
S42は、1つか判別する。YESの場合には、当該区間には1つのデータ(映像)しかないと判明したので、S46に進む。NOの場合には、S43に進む。
【0071】
S43は、付加情報の一致するものを抽出する。これは、例えば昼,夜などの時間帯、晴、曇、雨,雪などの天候などの付加情報が一致するものを抽出する。
【0072】
S44は、決定する。これらS41からS46によって、出発地から目的地までの経路に含まれる区間のデータ(映像)を既述した図3の(d)の登録用データテーブル11から全て抽出し、区間のデータが複数あるときは付加情報(夜,昼などの時間帯、晴、曇、雨,雪などの天候)が現状に一致するデータを選択し、各区間毎に最適な1つのデータ(映像)を決定することが可能となる。
【0073】
S47、S48は、区間が分割されたか判別、即ち、S42からS46の決定で、経路上の1つの区間が複数の区間に分割されたか判別し,YESの場合には、同様(S41からS46)にして当該1つの区間が分割された各区間について最適なデータをそれぞれ選択して終了し、NOの場合には区間が分割されないのでそのまま終了する。
【0074】
以上によって、出発地から目的地に向かう経路について、登録用データテーブル11を検索して当該経路に含まれる区間の全てのデータを抽出し、これらの中から付加情報をもとに現状に最も一致するデータをそれぞれ選択することが可能となる。そして、GPS受信機2で検出した現在位置に追従し、当該現在位置および進行方向に少し進んだ位置のデータ(映像)を表示し、説明文がリンク付けされていれば当該説明文も合わせて再生することにより、現在の位置、状況(夜,昼の時間帯、晴、曇、雨、雪などの天候)に一致した最適な以前の実映像を再生して効率的な道案内を行うことが可能となる。
【0075】
【発明の効果】
以上説明したように、本発明によれば、映像に当該映像の撮影時の位置情報に加えて付加情報(天候、夜昼などの時間帯など)を登録しておき、ナビゲーション時に同一地点であっても現位置に最適な付加情報の映像を選択して表示する構成を採用しているため、実走行の天候、時間帯などに合致した映像を表示して効果的な道案内することが可能となる。
【図面の簡単な説明】
【図1】本発明のシステム構成図である。
【図2】本発明の動作説明フローチャート(登録)である。
【図3】本発明のテーブル/データ例である。
【図4】本発明の動作説明フローチャート(編集)である。
【図5】本発明の説明図である。
【図6】本発明の動作説明フローチャート(検索)である。
【図7】本発明の動作説明フローチャート(選択)である。
【符号の説明】
1:ナビゲーション情報作成部
2:GPS受信機
3:撮像装置
4:入力装置
5:付加情報提供装置
6:情報制御部
7、22:発信装置
8、12:基地局
9:情報管理部
10:登録手段
11:登録用データテーブル
23:受信装置
24:情報制御部
25:検索手段
26:入力装置
27:条件入力装置
28:表示部
29:地図情報記憶装置[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a navigation system that displays a current position and a designated route on a map.
[0002]
[Prior art]
2. Description of the Related Art A conventional navigation system records, on a recording device, an actual scene image of a road or the like that is actually photographed by a photographing device mounted on a car. Then, when guiding the same road, there is a technique for reading out and displaying a real scene image in addition to the map information from the storage device and displaying the guidance in an easy-to-understand manner based on the real scene (see Patent Document 1).
[0003]
[Patent Publication 1]
See, for example, the claims of JP-A-05-240724.
[0004]
[Problems to be solved by the invention]
In the above-described conventional technology, in order to use a real scene image photographed by a navigation device, it is not possible to use it without passing through the actual scene image photographed at that time, that is, when traveling on the same road for the second time or later. However, there is a problem that only the actual scene image is displayed.
[0005]
Further, in the above-described technology, since only one type of real scene image at a certain point is determined, a plurality of types of real scene images at the same point (for example, time zones such as day and night, and weather conditions such as rain and fine weather). However, there is a problem that it is not possible to manage the actual scene image), and it is only possible to display the selected one type of actual scene image, and it is not possible to display the actual scene image that matches the situation during actual driving.
[0006]
According to the present invention, in order to solve these problems, additional information (weather, time zone such as night and day, etc.) is registered in the video in addition to the position information at the time of shooting the video, and the same location is used during navigation. It is also intended to select and display an image of additional information that is optimal for the current position, display an image that matches the actual driving weather, time zone, and the like, and provide effective route guidance.
[0007]
[Means for Solving the Problems]
Means for solving the problem will be described with reference to FIG.
[0008]
In FIG. 1, a navigation
[0009]
The navigation
[0010]
Next, the operation will be described.
The navigation
[0011]
At this time, the registration information table 11 is linked to the position information of the actual image taken by the imaging device mounted on the vehicle when the navigation
[0012]
The additional information is a sound, text, or video description of the path of the video, and the description is reproduced when the video is displayed.
[0013]
In addition, as position information to be linked to a video, a section from a certain position where the video was shot to another position is extracted, and a video in which the section most closely matches is extracted.
[0014]
The registration data table 11 integrates information from different navigation
[0015]
Therefore, additional information (weather, time zone such as night and day, etc.) is registered in the video in addition to the position information at the time of shooting of the video, and the video of the additional information optimal for the current position even at the same point during navigation is registered. By selecting and displaying, it is possible to display an image that matches the weather, time zone, and the like of actual driving, and to provide effective road guidance.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, an embodiment and operation of the present invention will be sequentially described in detail with reference to FIGS.
[0017]
FIG. 1 shows a system configuration diagram of the present invention.
In FIG. 1, a navigation
[0018]
The
[0019]
The imaging device 3 captures an actual scene of a road when a moving object (e.g., a car) equipped with a navigation system travels, and is, for example, a video camera.
[0020]
The input device 4 is for inputting various operation instructions (commands), and for starting the photographing of the actual scene of the road with the imaging device 3.
[0021]
The additional
[0022]
The
[0023]
The transmitting device 7 transmits the data created by the
[0024]
The
[0025]
The information management unit 9 registers the data received from the navigation
[0026]
The
[0027]
The
[0028]
The navigation
[0029]
The
[0030]
The
[0031]
The search means 25 searches the registration data table 11 based on the current position or the current position and the traveling direction to extract a corresponding video (see FIGS. 6 and 7).
[0032]
The
The
[0033]
The
The map
[0034]
Next, according to the order of the flowchart of FIG. 2, a procedure for registering the video, the position information, the additional information, and the like in the registration data table 11 with the configuration of FIG. 1 will be described in detail.
[0035]
FIG. 2 shows a flowchart (registration) for explaining the operation of the present invention.
In FIG. 2, S1 starts recording in a vehicle equipped with a GPS and a camera. This means that, in a vehicle (moving body) equipped with the
[0036]
At step S2, the position information and the image of the point A are recorded and linked and recorded for a certain time or every certain section. At this time, additional information (time periods such as day and night, fine weather, cloudy weather, rainy weather, snowy weather, etc.) ). These S1 and S2 are registered, for example, as shown in FIG. 3A to be described later, that is, for example, an entry on the first line shown in the drawing is created for a certain time or for every certain section, and the position (start position) A, image position (frame No. from the beginning in video data), additional information (time zone such as night and day, weather such as fine, cloudy, rain, snow, etc.), date and time (date and time when video was captured), etc. are recorded.
[0037]
In step S3, a description about the road is input.
S4 links to the video data. In steps S3 and S4, a description (for example, one-way traffic during construction and a risk of congestion) for the road appearing in the image started in S1 is input by voice, key input, or from a menu. As shown in FIG. 3B to be described later, a link is made to a frame number of a video.
[0038]
S5 registers. This is registered in the registration data table 11 of FIG. 1 as shown in FIGS. 3A and 3B described later.
[0039]
In step S6, editing is performed. This is because, for example, the registration data table (before editing) 11 of FIG. 3A (to be described later) registered in S1 to S5 is changed to the registration data table (after editing) 11 of FIG. Editing, here, the section of (1) entry in the first row of the registration data table (before editing) 11 in FIG. 3A is divided into two sections as shown in FIG. Edit and register like entries ▼ and ③.
[0040]
As described above, the navigation system shown in FIG. 1 (the navigation
[0041]
FIG. 3 shows a table / data example of the present invention.
FIG. 3A shows an example of the registration data table (before editing) 11. The registration data table (before editing) 11 is a data table before editing registered in S5 of FIG. 2 described above, and here, every predetermined distance, every time, every video frame, or every time specified, The following information shown is registered in association with each other.
[0042]
・ Position (latitude, longitude):
・ Image position:
·Additional information:
・ Date:
・ Others:
Here, the position (latitude, longitude) is information on the latitude and longitude of the current position detected by the
[0043]
As described above, the position (latitude, longitude), additional information (night, rain, etc.), and the date and time are recorded and registered for each predetermined distance, each time, each video frame, and each time specified. When the vehicle is driven by a subsequent car, the registration data table 11 is searched for each section, and there is a matching section, and the most matching entry of the additional information at that time is extracted. And simultaneously display the image according to the map displayed on the screen during navigation, the current position on the map, and the traveling direction, and display the previous actual image optimal for the traveling state (for example, night or rain). It is possible to assist driving.
[0044]
Also, in FIG. 3A, when an edit instruction for dividing (dividing) a proposal at a position A ′ between A and B is performed, the entry (1) in FIG. 3A is divided. 3 (d) of FIG. 3 is edited into the two entries of (2) and (3), that is, from the head position A of the entry of (1) to the division position A 'of the entry of (2), , The division positions A ′ to B are divided into the entries of (3), as shown in the figure.
[0045]
FIG. 3B shows an example of video data. The position of the video data is managed in association with the frame number (frame number).
[0046]
FIG. 3C shows an example in which the description content is linked to video data. Here, in the description contents (audio, text, image), a frame number of a link position in the video data is set in the link information, and is linked to the video data.
[0047]
As described above, when it is necessary to pay attention to falling rocks while taking the explanation contents, for example, when shooting the direction of travel of the road with a camera, "Be careful because the current position is likely to fall. When the user utters by voice, the frame number of the video at that time is automatically set as link information, and linking is performed. With this, when the video is played back and displayed, when the video comes to the link location of the video, the automatically recorded “Precautions must be taken because the current position is likely to be dropped, It is possible to inform the user (driver) of the contents of the explanation.
[0048]
FIG. 3C shows an example of the registration data table (after editing). As described above, the entry (1) in FIG. 3A is edited by dividing the entry (1) into the entry (2) and the entry (3). For example, as shown in FIG. 5 to be described later, before the editing, the intermediate point B and the end point C are divided into sections (every fixed time, every predetermined distance, every predetermined video frame, 3A) is registered in the registration data table (before editing) 11 in FIG. 3A, and if there is an intersection A ′ between A and B after registration, the A ′ is automatically used. Divide and register as shown.
[0049]
As described above, when a section registered in the registration data table (before editing) 11 has a reference point such as an intersection, the section is divided as much as possible into small sections, so The number of matching sections increases, and the video of the section that matches more finely and efficiently is extracted from the registration data table 11 and the video (actual video) is simultaneously displayed on the map according to the current position and the traveling direction. Becomes possible.
[0050]
FIG. 4 is a flowchart (edit) for explaining the operation of the present invention. Here, the table 11 represents the registration data table 11 of FIG. 3 described above.
[0051]
In FIG. 4, S11 calculates a traveling direction from the current position of the table 11.
In S12, an intersection in the traveling direction is found from the map information. In these steps S11 and S12, as shown in FIG. 5, for example, assuming that the current position is A and the traveling direction of the route is B on the right side, and further the end point is C in the downward direction, the traveling direction is viewed from the current position A. An intersection, here the position A 'of the intersection is found on the map.
[0052]
In S13, it is determined whether or not the intersection is large. This is to determine whether the intersection found in S12 is larger than a predetermined size. In the case of YES, the process proceeds to S14. In the case of NO, the process returns to S12 and repeats for the next intersection in the traveling direction.
[0053]
In S14, it is determined whether or not the position information of the intersection exists in the table 11. For example, it is determined whether or not the position A ′ of the intersection found in FIG. 5 is registered in the position column of the table (before editing) 11 in FIG. Here, since it has not been registered, the determination is NO, and the process proceeds to S15. On the other hand, if YES, it means that it has been registered, and so goes to S21.
[0054]
In S15, since NO in S14, for example, it is determined that the intersection A 'is not in the column of the position of the table (before editing) 11, the frame position of the intersection is calculated based on the position information before and after. This is because, for example, it is found that the intersection A ′ is not in the column of the position of the table (before editing) 11, so the frame information of the intersection is obtained from the preceding and following positional information A (frame position 0) and C (frame position 600). The position (for example, 300) is calculated.
[0055]
In step S16, data is added to the edited table 11 with the probable intersection position as the end point. This registers, for example, the entry (2) in FIG. 3 (d).
[0056]
In step S17, the next start point X is set to the position of the assumed intersection (here, the frame position 300).
[0057]
In step S18, it is determined whether or not there is link information (audio, text, video). That is, as shown in FIG. 3B described above, it is determined whether or not there is an explanation content (voice, character, video) linked with the link information in association with the video data. In the case of YES, as shown in FIG. 3B, description contents (audio, text, image) are added and registered in association with link information (frame number of video).
[0058]
In S20, it is determined whether or not the next start point X is the end point. In the case of YES, the editing ends. In the case of NO, S11 is repeated because the route has not been reached.
[0059]
In S21, the information of A 'in FIG. 5, for example, is additionally registered as shown in the entry (2) in FIG. 3C from S15 to S17 as described in S14 with YES in S14. S11, S12, S13: YES, S14: YES, and it is determined that the travel direction of the prorated A 'has reached B and registered in the table 11 here. At the position (here, B) is added. As a result, the entry (3) in FIG. 3D is additionally registered.
[0060]
In S22, the next start point is set to X = the position of the intersection. Here, for example, B in FIG. 5 is set as the position of the next intersection, and the process proceeds to S18.
[0061]
As described above, the registration data table (before editing) 11 of FIG. 3A described above is input, and the registration data table (after editing) 11 of FIG. At the same time, it is possible to additionally register explanation contents as shown in FIG.
[0062]
FIG. 5 shows an explanatory diagram of the present invention. Here, the start point is A, B in the rightward traveling direction, and C in the downward traveling direction are already registered in the registration data table (before editing) 11 in FIG. FIG. 6 shows how the intersection A ′ is prorated and added according to the flowchart of FIG. 4 described above. By adding A ′, the entry (1) of the registration data table (before editing) 11 in FIG. 3A is changed to the entry (1) of the registration data table (after editing) 11 in FIG. In addition to dividing into 2 and 3 and registering them, the contents of explanation in FIG. 3C are linked and registered with link information (frame number of video).
[0063]
FIG. 6 is a flowchart (search) for explaining the operation of the present invention.
In FIG. 6, in step S31, a navigation operation starts in a vehicle equipped with a GPS.
[0064]
In step S32, a destination is input and a route is searched.
In step S33, all data matching the route are extracted and listed. For example, when a starting point A and a destination C in FIG. 5 are input, a route is searched, and a section corresponding to the route is searched from the registration data table (after editing) 11 in FIG. Here, the search is performed, and here, the entries of (2) and (3) are extracted. At this time, the shared registration data table 11 registered by another user in the same manner is searched, and all the data in the section matching the route is extracted. Then, a list (list) of the extracted data is created by searching for each section from the departure point to the destination.
[0065]
In S34, the user selects from the list. This is because a list is displayed for each section, and the user selects the most appropriate one from the list. For example, as additional information, time zones such as night and day, and weather such as clear, cloudy, rain, snow, etc. Is displayed, and the user sees them and selects the most suitable one for the current situation. Alternatively, the current time zone may be obtained from a timer, the weather may be detected by a sensor, and the video of the matching additional information may be automatically selected.
[0066]
A step S35 decides whether or not all sections have been selected. That is, it is determined whether or not appropriate data has been selected from the list for all sections of the route from the departure point to the destination. In the case of YES, the process proceeds to S36. In the case of NO, the process returns to S33, and S33 and S34 are repeated for another section.
[0067]
In step S36, the video is displayed on the basis of the GPS position information, and if there is a description, it is reproduced. This is because, as the vehicle travels, based on the current position acquired from the
[0068]
As described above, the route is searched based on the departure place (current location) and the destination, all the data (video) of the section included in the route are extracted and displayed in a list, and the selected data (video) is displayed. Automatically displaying the current position acquired from the
[0069]
FIG. 7 shows a flowchart (selection) for explaining the operation of the present invention.
In FIG. 7, in step S41, those having the same section are extracted. This is because, for the route found by searching from the departure point to the destination in S33 of FIG. 6 described above, the registration data table 11 of FIG. Take what you want from the one near the starting point.
[0070]
In S42, one is determined. In the case of YES, it is determined that there is only one data (video) in the section, and the process proceeds to S46. In the case of NO, the process proceeds to S43.
[0071]
A step S43 extracts a match of the additional information. In this case, the information which coincides with additional information such as time zones such as day and night, and weather such as fine, cloudy, rain, and snow is extracted.
[0072]
S44 is determined. Through S41 to S46, all the data (video) of the section included in the route from the departure point to the destination is extracted from the registration data table 11 of FIG. 3D described above, and there are a plurality of section data. In some cases, select data for which additional information (time zones such as night and day, weather such as clear, cloudy, rain, snow, etc.) matches the current situation, and determine one optimal data (video) for each section. Becomes possible.
[0073]
In S47 and S48, it is determined whether the section is divided, that is, it is determined whether one section on the route is divided into a plurality of sections by the determination in S42 to S46, and in the case of YES, the same (S41 to S46) Then, the optimum data is selected for each of the sections into which the one section is divided, and the processing is terminated. In the case of NO, the section is not divided and the processing ends.
[0074]
As described above, for the route from the departure point to the destination, the registration data table 11 is searched to extract all the data of the section included in the route, and from these, the data that best matches the current state based on the additional information. Data to be performed can be selected. Then, following the current position detected by the
[0075]
【The invention's effect】
As described above, according to the present invention, in addition to the position information at the time of shooting the video, additional information (weather, time zone such as night and day, etc.) is registered in the video, and the same location is used during navigation. Also adopts a configuration that selects and displays the video of the additional information that is optimal for the current position, so that it is possible to display video that matches the actual driving weather, time zone, etc., and to provide effective route guidance Become.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of the present invention.
FIG. 2 is an operation explanatory flowchart (registration) of the present invention.
FIG. 3 is a table / data example of the present invention.
FIG. 4 is a flowchart (edit) for explaining the operation of the present invention.
FIG. 5 is an explanatory diagram of the present invention.
FIG. 6 is a flowchart (search) for explaining the operation of the present invention.
FIG. 7 is a flowchart (selection) for explaining the operation of the present invention.
[Explanation of symbols]
1: Navigation information creation unit 2: GPS receiver 3: Imaging device 4: Input device 5: Additional information providing device 6: Information control unit 7, 22:
Claims (5)
以前に走行したときに撮影した映像と、そのときの位置情報と、少なくとも天候、時間帯からなる付加情報をリンク付けて登録するデータテーブルと、
現在位置あるいは現在位置と走行方向をもとに前記データテーブルを検索して最も一致する映像を抽出する手段と、
前記抽出した映像を、前記現在位置と指定された経路に加えて表示する手段とを備えたことを特徴とするナビゲーションシステム。In a navigation system that displays the current position and a specified route on a map,
A data table for linking and registering images taken during a previous run, positional information at that time, and additional information including at least weather and time zone;
Means for searching the data table based on the current position or the current position and the traveling direction to extract the most matching video,
Means for displaying the extracted video in addition to the current position and the designated route.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002319623A JP2004151063A (en) | 2002-11-01 | 2002-11-01 | Navigation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002319623A JP2004151063A (en) | 2002-11-01 | 2002-11-01 | Navigation system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004151063A true JP2004151063A (en) | 2004-05-27 |
Family
ID=32462418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002319623A Withdrawn JP2004151063A (en) | 2002-11-01 | 2002-11-01 | Navigation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004151063A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006119591A (en) * | 2004-09-22 | 2006-05-11 | Mitsubishi Electric Corp | Map information generation method, map information generation program and map information collection apparatus |
JP2008500561A (en) * | 2004-06-03 | 2008-01-10 | シャープ株式会社 | MAP DATA CREATION DEVICE, MOBILE BODY HAVING THE SAME, AND MAP DATA CREATION METHOD |
JP2008537649A (en) * | 2005-02-16 | 2008-09-18 | ソニック ソリューションズ | Content creation, organization and / or playback based on embedded parameter identifiers |
JP2008242691A (en) * | 2007-03-27 | 2008-10-09 | Equos Research Co Ltd | Information delivery service system and onboard information delivery device |
JP2011108282A (en) * | 2004-06-30 | 2011-06-02 | Nokia Corp | Searching and specifying items based on metadata |
US8019536B2 (en) * | 2007-12-28 | 2011-09-13 | At&T Intellectual Property I, L.P. | Methods, devices, and computer program products for geo-tagged photographic image augmented GPS navigation |
JP2013016004A (en) * | 2011-07-04 | 2013-01-24 | Clarion Co Ltd | Moving image information providing server, moving image information providing system, and navigation device |
JP2014070933A (en) * | 2012-09-28 | 2014-04-21 | Jvc Kenwood Corp | Image generation device, and route image generation method |
US9299065B2 (en) | 2012-02-17 | 2016-03-29 | Blackberry Limited | Intelligent downloading of message attachments to mobile devices |
JP2021005830A (en) * | 2019-06-27 | 2021-01-14 | 株式会社Jvcケンウッド | Control device for video distribution, control method for video distribution, and program |
-
2002
- 2002-11-01 JP JP2002319623A patent/JP2004151063A/en not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008500561A (en) * | 2004-06-03 | 2008-01-10 | シャープ株式会社 | MAP DATA CREATION DEVICE, MOBILE BODY HAVING THE SAME, AND MAP DATA CREATION METHOD |
JP2011108282A (en) * | 2004-06-30 | 2011-06-02 | Nokia Corp | Searching and specifying items based on metadata |
JP2006119591A (en) * | 2004-09-22 | 2006-05-11 | Mitsubishi Electric Corp | Map information generation method, map information generation program and map information collection apparatus |
JP2008537649A (en) * | 2005-02-16 | 2008-09-18 | ソニック ソリューションズ | Content creation, organization and / or playback based on embedded parameter identifiers |
JP2008242691A (en) * | 2007-03-27 | 2008-10-09 | Equos Research Co Ltd | Information delivery service system and onboard information delivery device |
US8204683B2 (en) * | 2007-12-28 | 2012-06-19 | At&T Intellectual Property I, L.P. | Methods, devices, and computer program products for geo-tagged photographic image augmented files |
US8019536B2 (en) * | 2007-12-28 | 2011-09-13 | At&T Intellectual Property I, L.P. | Methods, devices, and computer program products for geo-tagged photographic image augmented GPS navigation |
US8543332B2 (en) | 2007-12-28 | 2013-09-24 | At&T Intellectual Property I, L.P. | Methods, devices, and computer program products for geo-tagged photographic image augmented files |
US8775072B2 (en) | 2007-12-28 | 2014-07-08 | At&T Intellectual Property I, L.P. | Methods, devices, and computer program products for geo-tagged photographic image augmented files |
US10088329B2 (en) | 2007-12-28 | 2018-10-02 | At&T Intellectual Property I, L.P. | Methods, devices, and computer program products for geo-tagged photographic image augmented files |
JP2013016004A (en) * | 2011-07-04 | 2013-01-24 | Clarion Co Ltd | Moving image information providing server, moving image information providing system, and navigation device |
US9299065B2 (en) | 2012-02-17 | 2016-03-29 | Blackberry Limited | Intelligent downloading of message attachments to mobile devices |
JP2014070933A (en) * | 2012-09-28 | 2014-04-21 | Jvc Kenwood Corp | Image generation device, and route image generation method |
JP2021005830A (en) * | 2019-06-27 | 2021-01-14 | 株式会社Jvcケンウッド | Control device for video distribution, control method for video distribution, and program |
JP7447399B2 (en) | 2019-06-27 | 2024-03-12 | 株式会社Jvcケンウッド | Video distribution control device, video distribution control method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20030214582A1 (en) | Video delivery apparatus and video information delivery system | |
JP4321128B2 (en) | Image server, image collection device, and image display terminal | |
JP4323123B2 (en) | A mobile system that identifies sites of interest | |
CN102568240A (en) | Traffic Information System, Traffic Information Acquisition Device And Traffic Information Supply Device | |
JP6083752B2 (en) | Driving support method, center device, driving support system | |
EP1403784A2 (en) | Method, apparatus, and computer program for generating albums | |
CN1673686A (en) | Navigation systems | |
JP5187617B2 (en) | Image recording apparatus and image recording method | |
JP4965475B2 (en) | Virtual moving display device | |
JP7275556B2 (en) | Information processing system, program, and information processing method | |
JP2004151063A (en) | Navigation system | |
CN112836079A (en) | Image data distribution system and image data display terminal | |
JP2003202235A (en) | Delivery device, display device, delivery method, and information delivery and display system | |
JPH11160080A (en) | Mobile body information system | |
JP6606354B2 (en) | Route display method, route display device, and database creation method | |
JP2010045436A (en) | Camera and photographing system | |
JP2005294893A (en) | Image distribution system | |
JP2012244193A (en) | Reproduction section extraction method, program and storage medium, and reproduction section extraction device and transport equipment mounting apparatus | |
JP2008107927A (en) | Information transfer system for vehicle | |
EP1345133A1 (en) | Information service method and its computer program | |
JP2004212232A (en) | Scenery displaying dynamic image navigation system | |
JP2006337154A (en) | Photograph display device | |
JP4207317B2 (en) | Destination identification support device and navigation system provided with the device | |
JP2003029625A (en) | Mapping method | |
JP2003284061A (en) | Video recording equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060110 |