JP2013134228A - Navigation system, method, and computer program - Google Patents
Navigation system, method, and computer program Download PDFInfo
- Publication number
- JP2013134228A JP2013134228A JP2011286598A JP2011286598A JP2013134228A JP 2013134228 A JP2013134228 A JP 2013134228A JP 2011286598 A JP2011286598 A JP 2011286598A JP 2011286598 A JP2011286598 A JP 2011286598A JP 2013134228 A JP2013134228 A JP 2013134228A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- information
- point
- user
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、ナビゲーションシステム、方法及びコンピュータプログラムの技術に関する。 The present invention relates to a navigation system, method, and computer program technology.
近年の携帯電話及びスマートフォン等は、例えば、GPS(Global Positioning System)信号受信デバイスを備える。そして、ユーザが所望の「出発地」と「目的地」を入力すると、ユーザを出発地から目的地まで案内するルートを生成する。このとき、例えば、「到着時刻を優先」又は「走行しやすい道路を優先」等のルート検索条件を指定することができる。 Recent mobile phones, smart phones, and the like include, for example, a GPS (Global Positioning System) signal receiving device. When the user inputs a desired “departure place” and “destination”, a route for guiding the user from the departure place to the destination is generated. At this time, for example, a route search condition such as “priority on arrival time” or “priority on easy-to-run road” can be designated.
また、近年の携帯電話及びスマートフォン等は、GPS信号受信デバイスに加えて、カメラデバイスを備えており、撮影した写真にその写真を撮影した地点を示す情報(以下「地点情報」という)を付与することができる。そして、その撮影した写真及び地点情報を、他のユーザと共有することができる(例えば、特許文献1)。 Moreover, recent mobile phones, smartphones, and the like are equipped with a camera device in addition to a GPS signal receiving device, and give information (hereinafter referred to as “point information”) indicating a point where the photograph was taken to the photograph taken. be able to. And the taken photograph and point information can be shared with other users (for example, patent documents 1).
従来のルート検索は、所定の経由地を設定することにより、出発地から経由地を経由して目的地まで到達するためのルートを検索できる。しかしながら、経由地は一般的に住所又はPOI(Point Of Interesting)等を設定することしかできなかった。 In the conventional route search, by setting a predetermined waypoint, a route for reaching the destination from the departure point via the waypoint can be searched. However, in general, the transit point can only set an address or a POI (Point Of Interesting).
本発明の目的は、経由地を多様な条件に基づいて設定することができるナビゲーション装置、システム、方法及びコンピュータプログラムを提供することにある。 An object of the present invention is to provide a navigation device, system, method, and computer program capable of setting a waypoint based on various conditions.
本発明の別の目的は、ルート検索を行う検索ユーザの友達がおすすめ情報又は検索ユーザの属性及び嗜好等に基づくおすすめ情報等を経由地に設定することができるナビゲーション装置、システム、方法及びコンピュータプログラムを提供することにある。 Another object of the present invention is a navigation device, system, method, and computer program in which a friend of a search user who performs a route search can set recommended information or recommended information based on the search user's attributes and preferences, etc. as a transit point Is to provide.
本発明の一実施形態に係るナビゲーションシステムは、所定の地点で撮影された動画データと、その動画データの撮影地点と、その動画データを撮影したユーザと、の対応関係を有する動画情報を管理する動画管理手段と、ユーザ同士の関係性を有する関係性情報を管理する関係性管理手段と、或るユーザから出発地から目的地までのルート検索を要求されると、関係性情報に基づいて或るユーザと関係性の高い他のユーザを抽出し、動画情報に基づいて他のユーザが撮影した動画データを特定し、出発地から当該動画データの撮影地点を経由して目的地に到達し得るルート候補を生成するルート候補生成手段と、を備える。 A navigation system according to an embodiment of the present invention manages moving image information having a correspondence relationship between moving image data shot at a predetermined point, a shooting point of the moving image data, and a user who shot the moving image data. When a video search means, a relation management means for managing relation information having a relation between users, and a route search from a departure place to a destination from a certain user are requested, Other users who have a high relationship with the user to be identified, moving image data taken by other users based on the moving image information is identified, and the destination can be reached from the departure point via the shooting point of the moving image data Route candidate generation means for generating a route candidate.
本発明に係るナビゲーションシステムは、ユーザの友達等が公開している情報に基づいて出発地から目的地までのルートを生成する。また、本発明に係るナビゲーションシステムは、ユーザの属性又は嗜好等に基づいて出発地から目的地までのルートを生成しても良い。また、本発明に係るナビゲーションシステムは、現在地点に関連付けられている動画を再生しても良い。以下、図面を用いながら、本発明に係る実施形態について説明する。 The navigation system according to the present invention generates a route from a departure place to a destination based on information published by a user's friends and the like. Further, the navigation system according to the present invention may generate a route from the departure place to the destination based on the user's attributes or preferences. In addition, the navigation system according to the present invention may reproduce a moving image associated with the current location. Hereinafter, embodiments according to the present invention will be described with reference to the drawings.
図1は、本発明の第1の実施形態に係るナビゲーションシステムの構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of a navigation system according to the first embodiment of the present invention.
ナビゲーションシステム1は、撮影装置2と、センタサーバ3と、ナビゲーション装置4とを含み、これら装置2〜4は、通信網5で接続されている。本実施形態では、撮影装置2とナビゲーション装置4とを別装置として説明するが、これらは1つの装置であっても良い。
The
通信網5は、各装置2〜4の間において双方向のデータ通信を可能とする。通信網5は、有線であっても無線であっても良い。通信網5は、例えば、インターネット網若しくは携帯通信網、又はこれらの組み合わせ等より構成される。
The communication network 5 enables bidirectional data communication between the
撮影装置2は、被写体を撮影して写真データ又は動画データを生成できる。以下では動画データを例に説明するが、写真データであっても本発明は適用可能である。撮影装置2は、現在地点を測位して地点情報を生成できる。撮影装置2は、生成した動画データ及び地点情報等を、通信網5を介して、センタサーバ3にアップロードできる。撮影装置2は、例えば、携帯電話、スマートフォン、PC(Personal Computer)、自動車、バイク又は自転車等に搭載され得る。撮影装置2の詳細については後述する。
The photographing
センタサーバ3は、撮影装置2からアップロードされた動画データ及び地点情報等を管理する。センタサーバ3は、ルート検索の要求を受けると、出発地から目的地までの案内ルートを生成する。センタサーバ3は、生成した案内ルートをナビゲーション装置4に送信する。センタサーバ3の詳細については後述する。
The
ナビゲーション装置4は、出発地と目的地を含むルート検索の要求をセンタサーバ3に送信し、センタサーバ3から出発地から目的地までの案内ルートを受信する。ナビゲーション装置4は、案内ルートに基づき、ユーザを目的地まで案内する。ナビゲーション装置4の詳細については後述する。
The
図2は、撮影装置2のハードウェア構成の一例を示すブロック図である。
FIG. 2 is a block diagram illustrating an example of a hardware configuration of the
撮影装置2は、CPU(Central Processing Unit)21と、メモリ22と、撮影デバイス23と、入力デバイス24と、表示デバイス25と、測位デバイス26と、記憶デバイス27と、通信デバイス28とを備える。各要素21〜28は、双方向にデータ通信可能なバス29で接続されている。
The photographing
CPU21は、例えば、記憶デバイス27からコンピュータプログラム(以下「プログラム」という)を読み出して実行し、各デバイス23〜27を制御する。これにより、CPU21は、後述する撮影装置2が有する各機能51〜56(図5参照)等を実現する。
For example, the
メモリ22は、CPU21がプログラムを実行する際に一時的に必要とするデータを保持する。メモリは、例えば、DRAM(Dynamic Random Access Memory)等で構成される。
The
撮影デバイス23は、被写体を撮影して静止画データ(例えば、写真)又は動画データ等を生成する。動画データは、例えば記憶デバイス27に保持される。撮影デバイス23は、例えば、カメラレンズ及びCCD等で構成される。
The photographing
入力デバイス24は、ユーザからの入力を受け付けるインタフェース(以下「I/F」という)である。ユーザは、入力デバイス24を介して、例えば、動画撮影の開始及び終了の指示を撮影装置2に伝えることができる。ユーザは、入力デバイス24を介して、例えば、所定の動画データをセンタサーバ3にアップロードする指示を撮影装置2に伝えることができる。入力デバイス24は、例えば、物理的なボタン又はタッチセンサ等で構成される。
The
表示デバイス25は、ユーザに対して画像等を表示するI/Fである。例えば、表示デバイス25は、撮影中の被写体の映像を表示する。表示デバイス25は、例えば、有機EL(electroluminescence)ディスプレイ又は液晶ディスプレイ等で構成される。なお、入力デバイス24と表示デバイス25とが一体型のデバイスであっても良い。
The
測位デバイス26は、衛星測位システム(例えばGPS)を利用して、撮影装置2の現在地点を測位する。測位デバイス26は、例えば、測位衛星から送出されている測位信号を受信可能な受信機等で構成される。若しくは、測位デバイス26は、通信網5に係る無線基地局から送信されている通信信号を利用して現在地点を測位するデバイスであっても良い。
The
記憶デバイス27は、プログラム及び各種データ等を保持する。記憶デバイス27は、例えば、HDD(Hard Disk Drive)又はフラッシュメモリ等で構成される。
The
通信デバイス28は、撮影装置2から通信網5に送信されるデータ及び通信網5から撮影装置2が受信するデータを制御する。通信デバイス28は、例えば、無線送受信機等で構成される。
The
図3は、センタサーバ3のハードウェア構成の一例を示すブロック図である。
FIG. 3 is a block diagram illustrating an example of a hardware configuration of the
センタサーバ3は、CPU31と、メモリ32と、記憶デバイス33と、通信デバイス34とを備える。各要素31〜34は、双方向にデータ通信可能なバス39で接続されている。これらCPU31、メモリ32、記憶デバイス33及び通信デバイス34の説明は、図2に示したCPU21、メモリ22、記憶デバイス27及び通信デバイス28の説明と重複するので省略する。
The
図4は、ナビゲーション装置4のハードウェア構成の一例を示すブロック図である。
FIG. 4 is a block diagram illustrating an example of a hardware configuration of the
ナビゲーション装置4は、CPU41と、メモリ42と、入力デバイス43と、表示デバイス44と、測位デバイス45と、記憶デバイス46と、通信デバイス47とを備える。各要素41〜37は、双方向にデータ通信可能なバス49で接続されている。これらCPU41、メモリ42、測位デバイス45、記憶デバイス46及び通信デバイス47の説明は、図2に示したCPU21、メモリ22、測位デバイス26、記憶デバイス27及び通信デバイス28の説明と重複するので省略する。
The
入力デバイス43は、ユーザからの入力を受け付けるI/Fである。ユーザは、入力デバイス43を介して、例えば、出発地及び目的地等の検索条件をナビゲーション装置4に伝えることができる。入力デバイス24は、例えば、物理的なボタン又はタッチセンサ等によって構成される。
The
表示デバイス44は、ユーザに対して画像等を表示するI/Fである。表示デバイス44は、例えば、地図、案内ルート及び動画データの再生映像等を表示する。表示デバイス44は、例えば、有機ELディスプレイ又は液晶ディスプレイ等で構成される。なお、入力デバイス43と表示デバイス44とが一体型のデバイスであっても良い。
The
図5は、撮影装置2が有する機能構成の一例を示すブロック図である。
FIG. 5 is a block diagram illustrating an example of a functional configuration of the photographing
撮影装置2は、地点特定部51と、撮影部52と、区間情報生成部53と、動画記憶部54と、区間情報記憶部55と、送信部56とを有する。
The
地点特定部51は、測位デバイス26が受信した測位信号に基づき、撮影装置2の現在地点を特定する。そして、地点特定部51は、その特定した現在地点を示す地点情報を生成する。地点特定部51は、地図情報を用いて、現在地点を道路上に補正するマップマッチング処理を行っても良い。地点情報は、例えば、測位日時104、経度105及び緯度106等の値(図6参照)を有する。
The
撮影部52は、撮影デバイス23を制御して被写体を撮影し、動画データを生成する。撮影部52は、その生成した動画データを動画記憶部54に登録する。その際、撮影部52は、その動画データを一意に識別可能な動画ID(Identification)102の値(図6参照)を付与する。撮影部52は、撮影開始時と撮影終了時に、その旨を区間情報生成部53に通知する。動画が撮影された区間に対応する区間情報100(図6参照)を生成するためである。そして、撮影部52は、その通知に動画ID102の値を含める。動画データと区間情報100とを対応付けるためである。
The photographing
区間情報生成部53は、撮影部52から撮影開始の通知を受けると、地点特定部87から現在地点を示す経度105及び緯度106の情報を取得する。すなわち、撮影開始地点の経度105及び緯度106の情報を取得する。区間情報生成部53は、撮影部52から撮影終了の通知を受けるまでの間、地点特定部87から、所定の周期で経度105及び緯度106の情報を取得して保持する。このとき、区間情報生成部53は、経度105及び緯度106を測位した測位日時104も合わせて保持する。区間情報生成部53は、撮影部52から撮影終了の通知を受けると、通知に含まれる動画ID102の値と、これまで保持した1以上の測位日時104、経度105及び緯度106とを対応付けて区間情報100(図6参照)を生成し、区間情報記憶部55に登録する。この区間情報100を撮影情報と呼んでも良い。以下、区間情報100について詳細に説明する。
When the section
図6は、区間情報100のデータの一例を示すデータ構成図である。
FIG. 6 is a data configuration diagram illustrating an example of the data of the
区間情報100は、例えば、データ項目として、区間ID101と、動画ID102と、動画フレーム103と、測位日時104と、経度105及び緯度106を有する。すなわち、区間情報100とは、これらデータ項目101〜106の値を有するデータブロックである。
The
区間ID101の値は、区間情報100を一意に識別可能な値である。動画ID102の値は、上記の通り動画を一意に識別可能な値である。区間情報100は、区間ID101の値と動画ID102の値とは1対1の対応関係にある。
The value of the
動画フレーム103の値は、動画ID102の値に対応する動画データにおいて、各フレームが再生される時間である。
The value of the moving
測位日時104の値は、各動画フレームが撮影された日時である。従って、最初の動画フレームに対応する測位日時の値104aが撮影開始時刻に対応し、最後の動画フレームに対応する測位日時の値104dが撮影終了時刻に対応する。
The value of the
経度105及び緯度106の値は、各動画フレームが撮影された日時において測位された地点を示す値である。すなわち、各動画フレームの撮影地点を示す値である。ここで、或る第1の動画フレーム(例えば、行108a)が撮影された地点を第1の撮影地点とし、その後の第2の動画フレーム(例えば、行108b)が撮影された地点を第2の撮影地点とし、第1の撮影地点から第2の撮影地点までの区間をサブ区間とする。そして、第1の動画フレームから、第2の動画フレームの直前の動画フレームまでの1以上の動画フレームを、サブ区間に対応する動画フレーム群と言う。すなわち、サブ区間に対応する動画フレーム群は、サブ区間において撮影された動画フレーム群である。サブ区間の長さは任意に設定可能であって良い。
The values of the
例えば、区間情報100に係る行108bのデータブロックは、動画ID「MOV100」の動画フレーム「00:00:04」は、経度「N35.306263」及び緯度「E139.549499」の地点において撮影されたものであることを示す。以下、図5の説明に戻る。
For example, in the data block in the
送信部56は、ユーザの指示により又は自動的に、動画記憶部54に保持されている動画データと、区間情報記憶部55に保持されている区間情報100と、をセンタサーバ3に送信する。
The
図7は、センタサーバ3の機能構成の一例を示すブロック図である。
FIG. 7 is a block diagram illustrating an example of a functional configuration of the
センタサーバ3は、受信部61と、動画DB(DataBase)63と、区間情報DB64と、SNS情報DB62と、特徴情報生成部65と、特徴情報DB67と、ルート候補生成部69と、送信部70とを有する。
The
受信部61は、撮影装置2から送信された動画データ及び区間情報100を受信すると、それぞれ、動画DB63及び区間情報DB64に登録する。受信部61は、ナビゲーション装置4から送信されたルート検索要求を受信すると、それをルート候補生成部69に伝える。
When receiving the moving image data and the
動画DB63は、1以上の動画データを保持及び管理する。動画DB63からは、例えば、動画ID102の値を検索キーに、所望の動画データを抽出できる。
The moving
区間情報DB64は、1以上の区間情報100を保持及び管理する。区間情報DB64からは、例えば、区間ID101の値、又は経度105及び緯度106の値を検索キーにして、所望の区間情報100を抽出できる。
The
SNS(Social Networking Service)情報DB62は、1以上のSNS情報110を保持及び管理する。SNS情報110は、ユーザ同士の関係性を示す情報を有する。例えば、SNS情報110は、或るユーザの友達のユーザは誰か、又は友達の中でもより親しい友達は誰か、等の情報を有する。SNS情報110は、或るユーザの属性(性別、年齢、住所、出身校等)、嗜好及び興味等の情報を有する。SNS情報110は、或るユーザがどのコミュニティ、所属組織及び団体等に属しているか等の情報を有する。SNS情報110は、或るユーザが登録した動画データ及び位置情報、並びにコメント等に関する情報等を有する。SNS情報110は、その動画データ等をどの友達に公開するか(又は公開しないか)等の情報を有する。以下、SNS情報110について一例を用いて詳細に説明する。
An SNS (Social Networking Service)
図8は、SNS情報110のデータの一例を示すデータ構成図である。
FIG. 8 is a data configuration diagram illustrating an example of the data of the
SNS情報110は、例えばデータ項目として、ユーザID111と、ユーザ名112と、公開情報113と、公開範囲114とを有する。
The
ユーザID111の値は、各ユーザを一意に識別可能なID値である。ユーザ名112の値は、そのユーザID111の値に対応するユーザの名前に関する情報である。公開情報113の値は、そのユーザID111の値に対応するユーザが友達等に公開している動画データ等を示す情報である。公開範囲114の値は、その公開情報113の値が示す動画データ等の公開範囲(すなわち、どの友達等に公開するか)を示す情報である。
The value of the
例えば、図8に示すSNS情報110は、ユーザID111の値「U100」に対応するユーザ名112の値は「SUZUKI」であることを示す。更に、SNS情報110は、ユーザID111の値「U100」のユーザが公開している情報は、動画ID「MOV100」の動画データ、写真ID「PIC100」の写真データ、コメントID「TXT100」のコメントデータ及び区間ID「C100」の区間情報であることを示す。更に、SNS情報110は、ユーザIDの値が「U100」のユーザは、ユーザID111の値が「U200」と「U300」のユーザに、動画ID「MOV100」の動画データを公開していることを示す。以下、図7の説明に戻る。
For example, the
特徴情報生成部65は、区間情報DB64に保持される区間毎に特徴情報120を生成する。特徴情報120を生成する方法の一例を次に示す。例えば、特徴情報生成部65は、区間情報DB64から或る区間を抽出する。特徴情報生成部65は、その区間に対応する動画データを動画DB63から抽出する。特徴情報生成部65は、その動画データ等に関連するコメント等の情報をSNS情報DB62から抽出する。特徴情報生成部65は、これら抽出した各種情報を解析して、特徴情報120を生成する。以下、特徴情報120について詳細に説明する。
The feature
図9は、特徴情報120が有するデータの一例を示すデータ構成図である。
FIG. 9 is a data configuration diagram illustrating an example of data included in the
特徴情報120は、例えばデータ項目として、区間ID101と、公開情報113と、特徴キーワード123とを有する。区間ID101と公開情報113については、上記で説明した通りである。
The
特徴キーワード123の値は、公開情報113の値が示す動画データ等に関する特徴を表すキーワードである。この特徴キーワード123の値は、特徴情報生成部65が、公開情報113の値が示す動画データ等を解析することによって生成される。例えば、特徴情報生成部65は、動画ID「MOV100」の動画データに山の紅葉の風景が撮影されていることを解析して、「風景」「山」「自然」「紅葉」「秋」等の特徴キーワード123aを抽出する。例えば、特徴情報生成部65は、この区間の動画を撮影したユーザID111の値「U100」が示すユーザの属性、嗜好及び興味等の情報を解析して、「男性」「30才代」「ドライブ好き」「写真好き」等の特徴キーワード123bを抽出する。なお、これらの特徴キーワード123の値は、ユーザに直接入力されても良い。
The value of the
すなわち、特徴情報120には、或る区間の特徴を示すキーワードが含まれ得る。この特徴情報120は、後述するルート候補を生成する際に用いられる。以下、図7の説明に戻る。
That is, the
ルート候補生成部69は、受信部61から受け取ったルート検索条件に含まれる出発地及び目的地に基づいて、出発地から目的地まで到着し得る1以上のルート候補を生成する。ルート候補生成部69は、経由地が指定された場合、出発地から経由地を経由して目的地まで到着し得る1以上のルート候補を生成する。ルート検索を要求してきたユーザ(以下「ルート検索ユーザ」という)は、経由地に動画データまたは動画区間内の任意の地点を指定することができる。動画データまたは動画区間内の任意の地点が経由地に指定された場合、ルート候補生成部69は、その動画区間の一部または全部を経由するルート候補を生成する。
The route
経由地には、或る地点の住所又はPOI(Point Of Interesting)等が指定されても良い。また、経由地は複数指定されても良い。 An address of a certain point or POI (Point Of Interesting) or the like may be designated as the transit point. A plurality of waypoints may be designated.
ルート候補生成部69は、例えば、ルート検索条件によって「友達のおすすめ区間を優先」が指定された場合、ルート検索を要求してきたユーザ(以下「ルート検索ユーザ」という)の友達のおすすめ区間を通るルート候補を生成する。具体的には、ルート候補生成部69は、SNS情報DB62を参照して、ルート検索ユーザの友達を特定し、その友達が動画データを撮影した区間を通るルート候補を生成する。ルート検索条件によって特定の友達が指定された場合(例えば「Aさんのおすすめ区間を優先」)、ルート候補生成部69は、その指定された友達のおすすめ区間を通るルート候補を生成する。
For example, when “prefer friend's recommended section” is designated by the route search condition, the route
ルート候補生成部69は、例えば、ルート検索条件によって「あなたの嗜好に適合するおすすめ区間を優先」が指定された場合、ルート検索ユーザの嗜好(及び属性)に適合する区間を通るルート候補を生成する。具体的には、ルート候補生成部69は、特徴情報DB67から、ルート検索ユーザの嗜好(及び属性)等に適合する特徴キーワード123を有する特徴情報120を抽出し、その特徴を有する動画データが撮影された区間を通るルート候補を生成する。
The route
送信部70は、ルート検索を要求してきたユーザのナビゲーション装置4に、ルート候補生成部69で生成したルート候補を返信する。送信部70は、ルート候補と共に、そのルート候補上及びそのルート候補の周辺で撮影された動画データ等と、区間情報100と、特徴情報120とを合わせてナビゲーション装置4に返信しても良い。
The
図10は、ナビゲーション装置4の機能構成の一例を示すブロック図である。
FIG. 10 is a block diagram illustrating an example of a functional configuration of the
ナビゲーション装置4は、送受信部81と、ルート検索部82と、動画記憶部54と、ルート情報記憶部84と、ナビゲーション処理部86と、動画再生部85と、地点特定部87とを有する。
The
送受信部81は、通信デバイス47を制御して、センタサーバ3にルート検索要求を送信したり、センタサーバ3からルート候補等の情報を受信したりする。
The transmission /
ルート検索部82は、ユーザから出発地及び目的地が指定されると、出発地から目的地まで到達し得るルートを検索する。また、ルート検索部82は、経由地が指定されると、出発地から経由地を通って目的地まで到達し得るルートを検索する。本実施例では、実際にルートを検索するのはセンタサーバ3である。よって、ルート検索部82は、出発地及び目的地(指定された場合は経由地も)を含むルート検索条件を生成してセンタサーバ3に送信し、センタサーバ3において生成されたルート候補を受信する。このとき、ルート検索部82は、ルート候補上及びそのルート候補の周辺で撮影された動画データ等と、区間情報100と、特徴情報120とを合わせて受信しても良い。
When a departure place and a destination are designated by the user, the
ルート検索部82は、センタサーバ3から受信したルート候補、区間情報100及び特徴情報120等を、ルート情報記憶部84に登録する。ルート検索部82は、センタサーバ3から受信した動画データ等を動画記憶部54に登録する。以下、ルート検索画面の表示例を用いて、ルート検索部82について詳細に説明する。
The
図11は、ナビゲーション装置4に係るルート検索画面の表示例である。
FIG. 11 is a display example of a route search screen according to the
ルート検索画面200は、例えば、出発地と目的地入力領域205と、検索条件選択領域207と、ルート検索結果表示領域210とを有する。
The
まず、ユーザが所定の検索条件で出発地206aから目的地206cまでのルートを検索する場合について説明する。
First, a case where the user searches for a route from the
ユーザは、出発地206aに「現在地」、目的地206cに「新潟駅」を入力したとする。この段階では、経由地206bはまだ入力されていないとする。そして、ユーザは、検索条件から「友達のおすすめ区間を優先」208bを選択してルート検索を実行する。
It is assumed that the user inputs “current location” as the
すると、ルート検索結果表示領域210に、例えば、ルート候補213aが表示される。このルート候補213aは、ユーザの友達が動画を撮影した区間で動画区間214aと214bを通るように生成されている。そして、動画区間214aで撮影された動画データ212aと、動画区間214bで撮影された動画212bが、ルート検索結果表示領域210に表示される。ここで、ルート候補213a上及びそのルート候補213aの周辺において撮影された動画データ212c、212dとその動画区間214c、214dも合わせてルート検索結果表示領域210に表示される。ユーザは、これら動画データ212c、212dを経由地に指定することができる。
Then, for example, the
次に、ユーザが、動画データを経由地に設定する場合について説明する。ユーザは、経由地206に動画データ「B」(212d)を選択して入力したとする。すると、ルート候補213aは、動画データ212dが撮影された動画区間214dを経由地とするルート候補に変更されて、ルート検索結果表示領域210に表示される。
Next, a case where the user sets moving image data as a waypoint will be described. It is assumed that the user selects and inputs the moving image data “B” (212d) at the waypoint 206. Then, the
なお、上述では、「友達のおすすめ区間を優先」208bを検索条件としてルート候補を生成した後に経由地を指定する場合について説明したが、もちろん「到着時刻を優先」201a又は「嗜好に適合するおすすめ区間を優先」208cを検索条件としても、同様のことを行うことができる。 In the above description, the route is specified after the route candidate is generated using “preferred recommended section of friend” 208b as a search condition. Of course, “prefer arrival time” 201a or “recommended to suit preference” The same operation can be performed using “priority of section” 208c as a search condition.
また、経由地を指定した後で、検索条件を指定してルート候補を生成させることもできる。この場合、地図上に予め表示されている動画データを経由地に指定すると、出発地から動画データが撮影された動画区間を経由地として目的地に到着し得るルート候補が生成される。 In addition, after designating a waypoint, a route candidate can be generated by designating a search condition. In this case, when the moving image data displayed in advance on the map is designated as the transit point, route candidates that can arrive at the destination are generated using the moving image section in which the moving image data is captured from the departure point.
次に、ユーザが、ルート候補213aに基づく走行シミュレーションを開始した場合について説明する。ユーザが、「走行シミュレーション開始」ボタン231を押下すると、ルート候補213aを走行した場合の走行シミュレーション画面(例えば、図13参照)が表示される。このとき、仮想的な現在地点が、例えば、動画区間214a内に移動すると、その動画区間214aに対応する動画データ212aが再生される。
Next, a case where the user starts a travel simulation based on the
次に、ユーザが、ルート候補213aに基づくルート案内を開始した場合について説明する。ユーザが、「ルート案内開始」ボタン232を押下すると、ナビゲーション装置4は、ルート候補213aを案内ルートとして、出発地から目的地までのルート案内を開始する。そして、現実の現在地点が、例えば、動画区間214a内に移動すると、その動画区間214aに対応する動画データ212aが再生される。以下、図10の説明に戻る。
Next, a case where the user starts route guidance based on the
動画再生部85は、ナビゲーション処理部86からの指示に従って、動画記憶部54から動画データを抽出して再生する。また、動画再生部85は、ナビゲーション処理部86からの指示に従って、動画の再生開始、一時停止、スキップ等の処理を行う。
The moving
地点特定部87は、測位デバイス45が受信する測位信号に基づいて、ナビゲーション装置4の現在地点を特定する。
The
ナビゲーション処理部86は、ユーザからルート案内開始の指示を受けると、出発地から目的地までのルート案内を開始する。ナビゲーション処理部86は、ルート情報記憶部84から案内ルートを抽出し、地図情報と重畳して表示する。ナビゲーション処理部86は、所定の周期で地点特定部87から地点情報を取得し、現在地点を地図情報に重畳して表示する。
When the
ナビゲーション処理部86は、現在地点が、案内ルート上の区間情報100が示す区間を通過する際、その区間情報100に対応する動画データを動画再生部85に再生させる。このとき、ナビゲーション処理部86は動画再生部85を制御して、動画データの再生中に表示されている画像の撮影地点と、現在地点とが同期するように動画データを再生する。以下、動画再生に関する処理を詳細に説明する。
When the current point passes through the section indicated by the
図12は、動画再生処理の概要を説明する模式図である。ナビゲーション処理部86は動画再生部85を制御して、区間に対応する動画データを再生する際、現在地点と、その現在地点で撮影された動画のフレーム映像とがほぼ同期されるように再生する。以下、これについて、図12を用いて詳細に説明する。
FIG. 12 is a schematic diagram for explaining the outline of the moving image reproduction process. When the
図12(a)の図は、撮影装置2を搭載した自動車(以下「撮影自動車」という)301が、地点P1から地点P3までの動画を撮影した場合の模式図である。ここで、撮影自動車301が、地点P1から速度VでΔT時間走行したときの地点DはV×ΔTである。
The diagram of FIG. 12A is a schematic diagram when a vehicle (hereinafter referred to as “photographed vehicle”) 301 equipped with the photographing
図12(b)の図は、ナビゲーション装置4を搭載した自動車(以下「ナビ自動車」という)302が、地点P1から地点P3までが撮影された動画を再生した場合の模式図である。
The diagram of FIG. 12B is a schematic diagram in the case where an automobile (hereinafter referred to as “navigation automobile”) 302 on which the
ナビ自動車302が、地点P1から速度V1(<V)でΔT時間走行したときの地点D1はV1×ΔTである。この場合、普通に動画を再生すると、地点D1において再生時間ΔTの動画フレームが再生される。すなわち、ナビ自動車302の現在地点がD1であるにもかかわらず、撮影自動車301が地点Dで撮影した動画フレームが再生されてしまう。
The point D1 when the
一方、ナビ自動車302が、地点P1から速度V2(>V)でΔT時間走行したときの地点D2はV2×ΔTである。この場合も同じく、普通に動画を再生すると、地点D2において再生時間ΔTの動画フレームが再生される。すなわち、ナビ自動車302の現在地点がD2であるにもかかわらず、撮影自動車301が地点Dで撮影した動画フレームが再生されてしまう。
On the other hand, the point D2 when the
上述の通り、普通に動画を再生しただけでは、ナビ自動車302の現在地点に対応する動画フレームを再生できない。
As described above, the moving image frame corresponding to the current location of the
そこで、ナビゲーション処理部86は、ナビ自動車302が地点Dを通過した後における動画の再生時間がΔT未満の場合、再生時間ΔTの動画フレームにスキップして再生を開始するように動画再生部85に指示する。ナビゲーション処理部86は、ナビ自動車302が地点Dを通過する前に動画の再生時間がΔTに到達した場合、ナビ自動車302が地点Dを通過するまで再生を一時停止するように動画再生部85に指示する。これにより、所定の区間においてナビ自動車302の現在地点と動画フレームの映像とをほぼ同期させて表示させることができる。
Therefore, when the playback time of the moving image after the
図13は、ナビゲーション装置4に係るナビゲーション画面の表示例である。ナビゲーション画面400は、地図領域401と、動画領域402と、操作領域403とを有する。
FIG. 13 is a display example of a navigation screen according to the
地図領域401には、地図、案内ルート及び現在地点等が表示される。動画領域402には、現在地点に対応する動画フレームの再生映像が表示される。操作領域403には、ナビゲーション及び動画再生に関する指示を行うためのボタンが表示される。
In the
図13に示す動画領域402には、動画区間P1〜P2に対応する動画データが再生されている。現在地点がP2を通過した時点に、動画区間P1〜P2に対応する動画データの再生が完了していない場合は、次の動画区間P2〜P3に対応する動画データの再生を開始する。現在地点がP2を通過する前に、動画区間P1〜P2に対応する動画データの再生が終了してしまった場合は、現在地点がP2を通過するまで、動画区間P1〜P2に対応する動画データの再生を一時停止する。
In the moving
これにより、動画領域402に、現在地点と、その現在地点において撮影された動画フレームとを同期させて表示することができる。
Thereby, it is possible to display the current position and the moving image frame photographed at the current position in synchronization in the moving
図14は、ルート候補の生成処理を示すフローチャートの例である。以下、図14を参照しながら、ルート候補の生成方法について説明する。 FIG. 14 is an example of a flowchart illustrating a route candidate generation process. Hereinafter, a route candidate generation method will be described with reference to FIG.
ルート候補生成部69は、ナビゲーション装置4から出発地及び目的地並びにルート検索条件を含むルート検索要求を受信すると(S101)、検索条件に友達又は嗜好に基づくおすすめ区間を優先してルート候補を生成する旨の指示があるか否かを判断する(S102)。
When the route
検索条件に友達又は嗜好に基づくおすすめ区間を優先してルート候補を生成する旨の指示がない場合(S102:NO)、ルート候補生成部69は、出発地から目的地までの通常(例えば、目的地まで最短時刻で到着し得る)のルート候補を生成し(S104)、ステップS105の処理に進む。
If there is no instruction to generate a route candidate in preference to a recommended section based on friends or preferences in the search condition (S102: NO), the route
検索条件に友達又は嗜好に基づくおすすめ区間を優先してルート候補を生成する旨の指示がある場合(S102:YES)、ルート候補生成部69は、おすすめ区間を通るルート候補を生成し(S103)、ステップS105の処理に進む。このステップS103の処理の詳細については後述する。
When the search condition includes an instruction to generate a route candidate with priority on a recommended section based on friends or preferences (S102: YES), the route
ルート候補生成部69は、その生成したルート候補上及びそのルート候補の周辺において撮影された動画データを抽出する(S105)。
The route
ルート候補生成部69は、その生成したルート候補と、その抽出した動画データと、をナビゲーション装置4に提示する(S106)。
The route
ルート候補生成部69は、ナビゲーション装置4から或る動画データを経由地に指定された場合は(S107:YES)、その動画データの撮影地点を経由地とするルート候補を生成し(S108)、ステップS109の処理に進む。一方、ルート候補生成部69は、ナビゲーション装置4から新たに動画データを経由地に指定されない場合は(S107:NO)、そのままステップS109の処理に進む。
When a certain moving image data is designated as a route point from the navigation device 4 (S107: YES), the route
ルート候補生成部69は、ユーザからルート案内開始の指示がなされた場合(S1098:YES)、当該ルート生成処理を終了し、ルート案内処理を開始する。一方、ユーザからルート案内開始の指示がなされない場合(S109:NO)、ルート候補生成部69は、ステップS107の処理に戻る。
The route
図15は、おすすめ区間を通るルート候補の生成処理を示すフローチャートの例である。以下、図15を参照しながら、おすすめ区間を通るルート候補の生成方法について説明する。 FIG. 15 is an example of a flowchart illustrating a process for generating a route candidate passing through the recommended section. Hereinafter, a method for generating route candidates passing through the recommended section will be described with reference to FIG.
ルート候補生成部69は、ルート検索要求を送信したユーザのユーザID111の値(以下「ルート検索ユーザ」という)に対応するSNS情報110を、SNS情報DB62から抽出する(S201)。
The route
ルート候補生成部69は、その抽出したSNS情報110から、ルート検索ユーザの友達等の情報と、ルート検索ユーザの属性及び嗜好等の情報と、を抽出する(S202)。
The route
ルート候補生成部69は、その抽出した友達等が動画を撮影した区間と、その抽出した属性及び嗜好等に適合する動画が撮影された区間と、をおすすめ区間として抽出する(S203)。
The route
ルート候補生成部69は、その抽出したおすすめ区間と通るルート候補を生成する(S204)。
The route
以上の処理により、ナビゲーション装置4は、ユーザが選択した動画が撮影された地点を経由地とするルート候補を提示できる。また、ナビゲーション装置4は、ユーザの友達が動画を撮影した地点を通過するルート候補を提示できる。また、ナビゲーション装置4は、ユーザの嗜好等に適合する動画が撮影された地点を通過するルート候補を提示できる。
Through the above processing, the
図16は、走行シミュレーション処理又はルート案内処理を示すフローチャートの例である。以下、図15を参照しながら、走行シミュレーション又はルート案内の方法について説明する。 FIG. 16 is an example of a flowchart showing a travel simulation process or a route guidance process. Hereinafter, a method of running simulation or route guidance will be described with reference to FIG.
ナビゲーション処理部86は、ユーザから走行シミュレーションの実行開始又はルート案内開始が指示されると、ルート候補の1つを案内ルートとしてセットする(S301)。ナビゲーション処理部86は、そのセットした案内ルートに含まれる区間情報100を、ルート情報DBから抽出する(S302)。
The
ナビゲーション処理部86は、その区間情報100に含まれる動画データの再生開始地点と再生終了地点とを、案内ルート上にセットする(S303)。
The
ナビゲーション処理部86は、ルート案内を開始する(S304)。ナビゲーション処理部86は、地点特定部87から定期的に現在地点を取得する(S305)。ナビゲーション処理部86は、現在地点が動画再生区間内であるか否かを判定する(S306)。
The
現在地点が動画再生区間外である場合(S306:NO)、ナビゲーション処理部86は、現在地点が動画データの再生開始地点を通過したか否かを判定する(S310)。ここで、現在地点が動画データの再生開始地点を通過した場合(S310:YES)、ナビゲーション処理部86は、その区間に対応する動画データの再生を開始し(S311)、ステップS312の処理に進む。現在地点が動画データの再生開始地点を通過していない場合(S310:NO)、ナビゲーション処理部86は、特に何もせずにステップS312の処理に進む。
When the current location is outside the video playback section (S306: NO), the
ステップS306において、現在地点が動画データの再生区間内である場合(S306:YES)、ナビゲーション処理部86は、現在地点が動画データの再生終了地点を通過したか否かを判定する(S307)。ここで、現在地点が動画データの再生終了地点を通過した場合(S307:YES)、ナビゲーション処理部86は、その区間に対応する動画データの再生を終了し(S308)、ステップS312の処理に進む。一方、現在地点が動画データの再生終了地点を通過していない場合(S307:NO)、ナビゲーション処理部86は、引き続き動画再生を継続し(S309)、ステップS312の処理に進む。
In step S306, when the current location is within the playback section of the video data (S306: YES), the
ナビゲーション処理部86は、現在地点が目的地付近に到着したか否かを判定する(S312)。現在地点が目的地付近に到着していない場合(S312:NO)、ナビゲーション処理部86は、ステップS305の処理に戻る。現在地点が目的地付近に到着している場合(S312:YES)、ナビゲーション処理部86は、当該処理を終了する。
The
図17は、現在地点に適合するように動画を再生する処理を示すフローチャートの例である。以下、図16を用いて、図15のステップS309に係る動画再生の処理を詳細に説明する。 FIG. 17 is an example of a flowchart showing a process of playing back a moving image so as to match the current location. Hereinafter, the moving image reproduction processing according to step S309 in FIG. 15 will be described in detail with reference to FIG.
ナビゲーション処理部86は、現在地点が新しいサブ区間に移行したか否かを判定する(S401)。
The
現在地点が新しいサブ区間に移行した場合(S401:NO)、ナビゲーション処理部86は、動画再生部85を制御して、その新しいサブ区間に対応する動画時間までスキップして再生する(S402)。すなわち、前回のサブ区間に対応する動画の再生が途中であっても、現在地点が新しいサブ区間に移行した場合は、その新しいサブ区間に対応する動画の再生を開始する。
When the current location is shifted to a new sub-section (S401: NO), the
現在地点が新しいサブ区間に移行していない(同じサブ区間の)場合(S401:YES)、ナビゲーション処理部86は、そのサブ区間に対応する動画の再生を完了したか否かを判定する(S403)。
If the current location has not shifted to a new subsection (same subsection) (S401: YES), the
そのサブ区間に対応する動画の再生が完了した場合(S403:YES)、ナビゲーション処理部86は動画再生部85を制御して、その時点で動画の再生を一時停止する(S404)。すなわち、現在地点が新しいサブ区間に移行して新しいサブ区間に対応する動画の再生が開始されるまで動画の再生一時停止する。
When the reproduction of the moving image corresponding to the sub-section is completed (S403: YES), the
サブ区間に対応する動画の再生が完了していない場合(S403:NO)、ナビゲーション処理部86は動画再生部85を制御して、引き続き動画を再生する(S403)。
When the reproduction of the moving image corresponding to the sub-section has not been completed (S403: NO), the
以上の処理により、ナビゲーション装置4は、現在地点と、その現在地点で撮影された動画をほぼ同期させて再生することができる。すなわち、ナビゲーション装置4は、現在地点で撮影された動画フレームを表示することができる。
Through the above processing, the
第2の実施形態では、ナビゲーション装置4において、現在地点と、その現在地点で撮影された動画をほぼ同期させて再生する場合の変形例を示す。
In the second embodiment, in the
図18は、第2の実施形態に係る撮影装置94の機能構成の一例を示すブロック図である。撮影装置は、地点特定部51と、撮影部52と、区間情報生成部96と、動画記憶部54と、区間情報記憶部55と、送信部56と、速度検出部95と、動画圧縮部96とを有する。以下、図5に示した撮影装置2と相違する機能ブロックについてのみ説明し、同様の機能ブロックについては同じ符号を付して説明を省略する。
FIG. 18 is a block diagram illustrating an example of a functional configuration of the
速度検出部95は、撮影装置94の現在の速度を検出又は算出する。速度検出部95は、撮影装置94が備える速度検出デバイス(不図示)が検出した走行速度に関する情報(以下「速度情報」という)に基づいて現在の走行速度を検出する。又は、速度検出部95は、地点特定部51によって所定の周期で測位される地点情報の時間的な移動距離に基づいて、現在の速度を算出しても良い。
The
区間情報生成部96は、図5に示した区間情報生成部53が有する機能に加えて、撮影動画に走行速度を対応付けた区間情報800(図19参照)を生成する。すなわち、区間情報生成部96は、速度検出部95から速度情報を取得し、撮影中の動画の所定区間(又は所定フレーム)に対応付ける。以下、区間情報800のデータの一例を参照しながら、区間情報生成部96の機能について更に説明する。
The section
図19は、第2の実施形態に係る区間情報800のデータの一例を示すデータ構成図である。
FIG. 19 is a data configuration diagram showing an example of the data of the
区間情報800は、例えば、データ項目として、区間ID101と、動画ID102と、動画フレーム103と、測位日時104と、経度105及び緯度106と、速度107を有する。データ項目101〜106については、図6を用いて説明済みなので、ここでの説明を省略する。
The
速度107は、いわゆるサブ区間における撮影装置94の走行速度である。区間情報生成部96は、速度107の値を、サブ区間における走行速度の平均としても良いし、サブ区間の或る瞬間における走行速度としても良い。図18の説明に戻る。
The
動画圧縮部97は、撮影された動画データがセンタサーバ3に送信される前に、区間情報800に基づいて動画データを圧縮する。例えば、動画圧縮部97は、図19に示した
区間情報800に基づいて、速度107の値が「0」であるサブ区間801b及び801cに対応する動画フレームを間引く(又は圧縮する)。なぜなら、速度107の値が「0」と言うことは、撮影装置94が(例えば、信号待ち等で)停止している状態であり、そこで撮影されている映像は同じ地点を撮影し続けているだけの可能性が高いからである。これにより、撮影装置94は、動画データをより短時間でセンタサーバ3にアップロードすることができる。また、ナビゲーション装置90は、動画データをより短時間でセンタサーバ3からダウンロードすることができる。
The moving
図20は、第2の実施形態に係るナビゲーション装置90の機能構成の一例を示すブロック図である。
FIG. 20 is a block diagram illustrating an example of a functional configuration of the
ナビゲーション装置90は、送受信部81と、ルート検索部82と、動画記憶部54と、ルート情報記憶部84と、ナビゲーション処理部91と、動画再生部92と、地点特定部87と、速度検出部93とを有する。以下、図10に示したナビゲーション装置4と相違する機能ブロックについてのみ説明し、同様の機能ブロックについては同じ符号を付して説明を省略する。
The
速度検出部93は、ナビゲーション装置90の現在の速度を検出又は算出する。速度検出部93は、ナビゲーション装置90が備える速度検出デバイス(不図示)が検出した速度情報に基づいて現在の速度を検出する。又は、速度検出部93は、地点特定部87によって所定の周期で測位される地点情報の時間的な移動距離に基づいて、現在の速度を算出しても良い。
The
ナビゲーション処理部91は、動画再生区間において、速度検出部93にて検出されたナビゲーション装置90の現在の速度と、現在地点における動画が撮影されたときの速度との比率(以下「再生比率」という)を算出する。そして、ナビゲーション処理部91は動画再生部92を制御して、再生比率に示す再生速度で動画を再生する。この処理の詳細については後述する。他の処理については図10に示すナビゲーション処理部86と同様であるので説明を省略する。動画再生部92は、ナビゲーション処理部91からの指示された再生速度で動画を再生する。
The
図21は、ナビゲーション装置90の走行速度に基づいて動画の再生速度を制御する処理を示すフローチャートの例である。
FIG. 21 is an example of a flowchart showing a process for controlling the moving image playback speed based on the traveling speed of the
ステップS501〜S504の処理は、図16に示すステップS401〜S404の処理と同様なので説明を省略する。以下、ステップS505以降の処理のみを説明する。 The processing in steps S501 to S504 is the same as the processing in steps S401 to S404 shown in FIG. Hereinafter, only the processing after step S505 will be described.
ナビゲーション処理部91は、現在地点に係るサブ区間を撮影した撮影装置2の走行速度「V1」を取得又は算出する(S505)。
The
ナビゲーション処理部91は、現在地点に係るナビゲーション装置90の走行速度「V2」を算出する(S506)。
The
ナビゲーション処理部91は動画再生部85を制御して、このサブ区間に対応する動画データを「V2/V1」倍の再生速度で再生する(S507)。
The
以上の処理により、ナビゲーション装置90は、現在地点と、その現在地点で撮影された動画データとをより同期させて再生することができる。すなわち、ナビゲーション装置90は、現在地点で撮影された動画フレームの映像を表示することができる。
Through the above processing, the
上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。 The above-described embodiments of the present invention are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention.
例えば、本実施形態では、センタサーバ3でルート候補を生成しているが、ナビゲーション装置4でルート候補を生成しても良い。この場合、例えば、次の処理を行う。ナビゲーション装置4は、センタサーバ3にユーザIDとの値を送信し、そのユーザIDの値に対応する友達が動画を撮影した区間及びユーザの嗜好等に適合する動画が撮影された区間の情報とその動画データを取得する。そして、ナビゲーション装置4は、これら取得した動画データをユーザに提示する。ユーザが或る動画データを経由地として指定すると、ナビゲーション装置4は、出発地からその動画データが撮影された区間を通って目的地に到着し得るルート候補を生成する。これにより、センタサーバ3が、ルート候補を生成する機能を有さない場合であっても、本実施形態を実現できる。
For example, in the present embodiment, the route candidate is generated by the
1…ナビゲーションシステム 2,94…撮影装置 3…センタサーバ 4,90…ナビゲーション装置
DESCRIPTION OF
Claims (7)
ユーザ同士の関係性を有する関係性情報を管理する関係性管理手段と、
或るユーザから出発地から目的地までのルート検索を要求されると、前記関係性情報に基づいて前記或るユーザと関係性の高い他のユーザを抽出し、前記動画情報に基づいて前記他のユーザが撮影した動画データを特定し、前記出発地から当該動画データの撮影地点を経由して前記目的地に到達し得るルート候補を生成するルート候補生成手段と
を備えるナビゲーションシステム。
Movie management means for managing movie information having a correspondence relationship between movie data shot at a predetermined point, a shooting point of the movie data, and a user who shot the movie data;
A relationship management means for managing relationship information having relationships between users;
When a route search from a departure point to a destination is requested by a certain user, another user having a high relationship with the certain user is extracted based on the relationship information, and the other user is extracted based on the moving image information. A navigation system comprising: route candidate generation means for specifying moving image data shot by a user and generating a route candidate that can reach the destination from the departure point via the shooting point of the moving image data.
動画データの特徴を有する特徴情報を管理する特徴情報管理手段と、
を更に備え、
前記ルート候補生成手段は、更に、前記嗜好情報に基づいて前記或るユーザの嗜好を特定し、その特定した嗜好と適合する特徴を有する動画データを抽出し、前記出発地から当該動画データの撮影地点を経由して前記目的地に到達し得るルート候補を生成する
ことを特徴とする請求項1に記載のナビゲーションシステム。
Preference information management means for managing preference information having user preferences;
Feature information management means for managing feature information having features of video data;
Further comprising
The route candidate generation means further identifies the preference of the certain user based on the preference information, extracts moving image data having characteristics that match the identified preference, and captures the moving image data from the departure location. The navigation system according to claim 1, wherein a route candidate that can reach the destination via a point is generated.
ことを特徴とする請求項2に記載のナビゲーションシステム。
The feature of the moving image data is extracted based on a video of the moving image data, POI (Point Of Interesting) information in the vicinity of a shooting point of the moving image data, or a combination thereof. Navigation system.
前記提示手段によって提示された1以上の前記動画データから、1以上の前記動画データを選択可能な選択手段と、を更に備え、
前記選択手段によって1以上の動画データが選択された場合、
前記ルート候補生成手段は、前記出発地から、前記選択された1以上の前記動画データの撮影地点を経由して、前記目的地に到達し得るルート候補を生成する
ことを特徴とする請求項1乃至3のいずれか1項に記載のナビゲーションシステム。
Presenting means capable of presenting one or more moving image data highly related to the certain user;
Selecting means capable of selecting one or more moving image data from the one or more moving image data presented by the presenting means;
When one or more moving image data is selected by the selection unit,
The route candidate generation means generates a route candidate that can reach the destination from the departure point via the selected shooting point of the one or more moving image data. 4. The navigation system according to any one of items 1 to 3.
ことを特徴とする請求項4に記載のナビゲーションシステム。
The presenting means presents only video data having shooting points on and around a route that can be reached within a predetermined time from the starting point to the destination. Navigation system.
ナビゲーション方法。
When a route search from a departure point to a destination is requested from a certain user, another user having a high relationship with the certain user is extracted based on the relationship information having the relationship between the users, The video data shot by the other user is identified based on the video data shot at the point, the video data shooting point of the video data, and the video information having a correspondence relationship with the user who shot the video data, and the departure A navigation method for generating route candidates that can reach the destination from the ground via the shooting point of the moving image data.
或るユーザから出発地から目的地までのルート検索を要求されると、ユーザ同士の関係性を有する関係性情報に基づいて前記或るユーザと関係性の高い他のユーザを抽出し、所定の地点で撮影された動画データと、前記動画データの撮影地点と、前記動画データを撮影したユーザとの対応関係を有する動画情報に基づいて前記他のユーザが撮影した動画データを特定し、前記出発地から当該動画データの撮影地点を経由して前記目的地に到達し得るルート候補を生成する
ナビゲーションプログラム。 When executed on a computer,
When a route search from a departure point to a destination is requested from a certain user, another user having a high relationship with the certain user is extracted based on the relationship information having the relationship between the users, The video data shot by the other user is identified based on the video data shot at the point, the video data shooting point of the video data, and the video information having a correspondence relationship with the user who shot the video data, and the departure A navigation program for generating route candidates that can reach the destination from the ground via the shooting point of the video data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011286598A JP2013134228A (en) | 2011-12-27 | 2011-12-27 | Navigation system, method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011286598A JP2013134228A (en) | 2011-12-27 | 2011-12-27 | Navigation system, method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013134228A true JP2013134228A (en) | 2013-07-08 |
Family
ID=48911001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011286598A Pending JP2013134228A (en) | 2011-12-27 | 2011-12-27 | Navigation system, method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013134228A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015069258A (en) * | 2013-09-27 | 2015-04-13 | 大日本印刷株式会社 | Video capturing/reproduction system, video capturing/reproduction method, video sharing server, video sharing method, and program |
JP2016200884A (en) * | 2015-04-08 | 2016-12-01 | 株式会社ユニモト | Sightseeing customer invitation system, sightseeing customer invitation method, database for sightseeing customer invitation, information processor, communication terminal device and control method and control program therefor |
JP2017224242A (en) * | 2016-06-17 | 2017-12-21 | アルパイン株式会社 | Information provision device, method, and program |
JP2018029290A (en) * | 2016-08-18 | 2018-02-22 | 株式会社東芝 | Moving image reproduction apparatus, moving image reproduction system, and moving image reproduction method |
JP2020107291A (en) * | 2018-12-28 | 2020-07-09 | 株式会社デンソーテン | In-vehicle apparatus, data collection system, and control method of in-vehicle apparatus |
JP2020135835A (en) * | 2019-02-26 | 2020-08-31 | 株式会社富士通アドバンストエンジニアリング | Video retrieval program, video retrieval method and video retrieval device |
US10895464B2 (en) | 2018-01-09 | 2021-01-19 | Toyota Jidosha Kabushiki Kaisha | Navigation device, recording medium storing navigation program, and navigation system |
JP2021131914A (en) * | 2020-11-27 | 2021-09-09 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. | Navigation map evaluation method, apparatus, device and readable storage medium |
US11391593B2 (en) | 2018-01-17 | 2022-07-19 | Toyota Jidosha Kabushiki Kaisha | Vehicle-mounted device, server, navigation system, recording medium storing map display program, and map display method |
-
2011
- 2011-12-27 JP JP2011286598A patent/JP2013134228A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015069258A (en) * | 2013-09-27 | 2015-04-13 | 大日本印刷株式会社 | Video capturing/reproduction system, video capturing/reproduction method, video sharing server, video sharing method, and program |
JP2016200884A (en) * | 2015-04-08 | 2016-12-01 | 株式会社ユニモト | Sightseeing customer invitation system, sightseeing customer invitation method, database for sightseeing customer invitation, information processor, communication terminal device and control method and control program therefor |
JP2017224242A (en) * | 2016-06-17 | 2017-12-21 | アルパイン株式会社 | Information provision device, method, and program |
JP2018029290A (en) * | 2016-08-18 | 2018-02-22 | 株式会社東芝 | Moving image reproduction apparatus, moving image reproduction system, and moving image reproduction method |
US10895464B2 (en) | 2018-01-09 | 2021-01-19 | Toyota Jidosha Kabushiki Kaisha | Navigation device, recording medium storing navigation program, and navigation system |
US11391593B2 (en) | 2018-01-17 | 2022-07-19 | Toyota Jidosha Kabushiki Kaisha | Vehicle-mounted device, server, navigation system, recording medium storing map display program, and map display method |
JP2020107291A (en) * | 2018-12-28 | 2020-07-09 | 株式会社デンソーテン | In-vehicle apparatus, data collection system, and control method of in-vehicle apparatus |
JP2020135835A (en) * | 2019-02-26 | 2020-08-31 | 株式会社富士通アドバンストエンジニアリング | Video retrieval program, video retrieval method and video retrieval device |
JP7227475B2 (en) | 2019-02-26 | 2023-02-22 | 富士通株式会社 | Video search program, video search method, and video search device |
JP2021131914A (en) * | 2020-11-27 | 2021-09-09 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. | Navigation map evaluation method, apparatus, device and readable storage medium |
JP7204822B2 (en) | 2020-11-27 | 2023-01-16 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Navigation map evaluation method, device, equipment and readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013134228A (en) | Navigation system, method, and computer program | |
US8264570B2 (en) | Location name registration apparatus and location name registration method | |
US9990585B2 (en) | Information processing apparatus, information processing method and computer-readable storage medium for generating course information | |
US20120268620A1 (en) | Information providing apparatus, information providing method, and program | |
JP6083752B2 (en) | Driving support method, center device, driving support system | |
KR101643238B1 (en) | Cooperative provision of personalized user functions using shared and personal devices | |
AU2012223882A1 (en) | Method and apparatus for sharing media based on social network in communication system | |
US9014969B2 (en) | Guidance system, server, terminal device, and guidance method | |
JP2009239397A (en) | Imaging apparatus, imaging system, control method of imaging apparatus, and control program | |
JP5858754B2 (en) | Imaging apparatus, display method, and program | |
JP7028608B2 (en) | Information processing equipment, information processing methods, and programs | |
JP2011053103A (en) | Data server for transmitting map and animation, and linkage display system for animation-map | |
US9185461B2 (en) | Spot notification method, spot notification device, and spot notification device program | |
JP2006338553A (en) | Content reproducing device | |
CN114398554A (en) | Content search method, device, equipment and medium | |
JP2019121319A (en) | Vehicle photographing support device and program | |
US20140333786A1 (en) | System and method for remotely creating and processing media files | |
JP2013134225A (en) | Navigation device, system, method, and computer program | |
JP2012019374A (en) | Electronic album creation server, information processor, electronic album creation system, and control method of electronic album creation server | |
JP5511001B2 (en) | Imaging apparatus, imaging guide system, and program | |
JP2015018421A (en) | Terminal device, contribution information transmission method, contribution information transmission program, and contribution information sharing system | |
JP2013021473A (en) | Information processing device, information acquisition method, and computer program | |
JP2012253421A (en) | Image display device, imaging apparatus, and image display program | |
JP2014194710A (en) | Information distribution system dependent on user attribute | |
JP2014233007A (en) | Image processing apparatus, image processing system, image processing method, and program |