JP2013134228A - Navigation system, method, and computer program - Google Patents

Navigation system, method, and computer program Download PDF

Info

Publication number
JP2013134228A
JP2013134228A JP2011286598A JP2011286598A JP2013134228A JP 2013134228 A JP2013134228 A JP 2013134228A JP 2011286598 A JP2011286598 A JP 2011286598A JP 2011286598 A JP2011286598 A JP 2011286598A JP 2013134228 A JP2013134228 A JP 2013134228A
Authority
JP
Japan
Prior art keywords
moving image
information
point
user
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011286598A
Other languages
Japanese (ja)
Inventor
Kenji Honda
健司 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2011286598A priority Critical patent/JP2013134228A/en
Publication of JP2013134228A publication Critical patent/JP2013134228A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a route candidate matching an attribute, taste, etc., of a user.SOLUTION: A navigation system includes moving image management means of managing moving image information having correspondence among moving image data photographed at a predetermined point, the photographic point of the moving image data, and a user who photographs the moving image data; relativity management means of managing relativity information having relativity between users; and route candidate generation means of extracting the other user having high relativity with one user on the basis of the relativity information when the one user makes a request for route retrieval from a starting point to a destination, specifying moving image data that the other user photographs on the basis of the relativity information, and generating a route candidate from the starting point to the destination via the photography point of the moving image data.

Description

本発明は、ナビゲーションシステム、方法及びコンピュータプログラムの技術に関する。   The present invention relates to a navigation system, method, and computer program technology.

近年の携帯電話及びスマートフォン等は、例えば、GPS(Global Positioning System)信号受信デバイスを備える。そして、ユーザが所望の「出発地」と「目的地」を入力すると、ユーザを出発地から目的地まで案内するルートを生成する。このとき、例えば、「到着時刻を優先」又は「走行しやすい道路を優先」等のルート検索条件を指定することができる。   Recent mobile phones, smart phones, and the like include, for example, a GPS (Global Positioning System) signal receiving device. When the user inputs a desired “departure place” and “destination”, a route for guiding the user from the departure place to the destination is generated. At this time, for example, a route search condition such as “priority on arrival time” or “priority on easy-to-run road” can be designated.

また、近年の携帯電話及びスマートフォン等は、GPS信号受信デバイスに加えて、カメラデバイスを備えており、撮影した写真にその写真を撮影した地点を示す情報(以下「地点情報」という)を付与することができる。そして、その撮影した写真及び地点情報を、他のユーザと共有することができる(例えば、特許文献1)。   Moreover, recent mobile phones, smartphones, and the like are equipped with a camera device in addition to a GPS signal receiving device, and give information (hereinafter referred to as “point information”) indicating a point where the photograph was taken to the photograph taken. be able to. And the taken photograph and point information can be shared with other users (for example, patent documents 1).

特開2008−84282号公報JP 2008-84282 A

従来のルート検索は、所定の経由地を設定することにより、出発地から経由地を経由して目的地まで到達するためのルートを検索できる。しかしながら、経由地は一般的に住所又はPOI(Point Of Interesting)等を設定することしかできなかった。   In the conventional route search, by setting a predetermined waypoint, a route for reaching the destination from the departure point via the waypoint can be searched. However, in general, the transit point can only set an address or a POI (Point Of Interesting).

本発明の目的は、経由地を多様な条件に基づいて設定することができるナビゲーション装置、システム、方法及びコンピュータプログラムを提供することにある。   An object of the present invention is to provide a navigation device, system, method, and computer program capable of setting a waypoint based on various conditions.

本発明の別の目的は、ルート検索を行う検索ユーザの友達がおすすめ情報又は検索ユーザの属性及び嗜好等に基づくおすすめ情報等を経由地に設定することができるナビゲーション装置、システム、方法及びコンピュータプログラムを提供することにある。   Another object of the present invention is a navigation device, system, method, and computer program in which a friend of a search user who performs a route search can set recommended information or recommended information based on the search user's attributes and preferences, etc. as a transit point Is to provide.

本発明の一実施形態に係るナビゲーションシステムは、所定の地点で撮影された動画データと、その動画データの撮影地点と、その動画データを撮影したユーザと、の対応関係を有する動画情報を管理する動画管理手段と、ユーザ同士の関係性を有する関係性情報を管理する関係性管理手段と、或るユーザから出発地から目的地までのルート検索を要求されると、関係性情報に基づいて或るユーザと関係性の高い他のユーザを抽出し、動画情報に基づいて他のユーザが撮影した動画データを特定し、出発地から当該動画データの撮影地点を経由して目的地に到達し得るルート候補を生成するルート候補生成手段と、を備える。   A navigation system according to an embodiment of the present invention manages moving image information having a correspondence relationship between moving image data shot at a predetermined point, a shooting point of the moving image data, and a user who shot the moving image data. When a video search means, a relation management means for managing relation information having a relation between users, and a route search from a departure place to a destination from a certain user are requested, Other users who have a high relationship with the user to be identified, moving image data taken by other users based on the moving image information is identified, and the destination can be reached from the departure point via the shooting point of the moving image data Route candidate generation means for generating a route candidate.

本発明の第1の実施形態に係るナビゲーションシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the navigation system which concerns on the 1st Embodiment of this invention. 撮影装置2のハードウェア構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a hardware configuration of an image capturing device 2. FIG. センタサーバ3のハードウェア構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a hardware configuration of a center server 3. FIG. ナビゲーション装置4のハードウェア構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a hardware configuration of a navigation device 4. FIG. 撮影装置2が有する機能構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a functional configuration that the photographing apparatus 2 has. 区間情報100のデータの一例を示すデータ構成図である。It is a data block diagram which shows an example of the data of the area information. センタサーバ3の機能構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a functional configuration of a center server 3. FIG. SNS情報110のデータの一例を示すデータ構成図である。It is a data block diagram which shows an example of the data of the SNS information 110. 特徴情報120が有するデータの一例を示すデータ構成図である。It is a data block diagram which shows an example of the data which the characteristic information 120 has. ナビゲーション装置4の機能構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a functional configuration of a navigation device 4. FIG. ナビゲーション装置4に係るルート検索画面の表示例である。6 is a display example of a route search screen according to the navigation device 4. 動画再生処理の概要を説明する模式図である。It is a schematic diagram explaining the outline | summary of a moving image reproduction process. ナビゲーション装置4に係るナビゲーション画面の表示例である。4 is a display example of a navigation screen according to the navigation device 4. ルート候補の生成処理を示すフローチャートの例である。It is an example of the flowchart which shows the production | generation process of a route candidate. おすすめ区間を通るルート候補の生成処理を示すフローチャートの例である。It is an example of the flowchart which shows the production | generation process of the route candidate which passes through a recommendation area. 走行シミュレーション処理又はルート案内処理を示すフローチャートの例である。It is an example of the flowchart which shows a driving | running | working simulation process or a route guidance process. 現在地点に適合するように動画を再生する処理を示すフローチャートの例である。It is an example of the flowchart which shows the process which reproduces | regenerates a moving image so that it may adapt to the present location. 第2の実施形態に係る撮影装置94の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the imaging device 94 which concerns on 2nd Embodiment. 第2の実施形態に係る区間情報800のデータの一例を示すデータ構成図である。It is a data block diagram which shows an example of the data of the area information 800 which concerns on 2nd Embodiment. 第2の実施形態に係るナビゲーション装置90の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the navigation apparatus 90 which concerns on 2nd Embodiment. ナビゲーション装置90の走行速度に基づいて動画の再生速度を制御する処理を示すフローチャートの例である。It is an example of the flowchart which shows the process which controls the reproduction speed of a moving image based on the travel speed of the navigation apparatus.

本発明に係るナビゲーションシステムは、ユーザの友達等が公開している情報に基づいて出発地から目的地までのルートを生成する。また、本発明に係るナビゲーションシステムは、ユーザの属性又は嗜好等に基づいて出発地から目的地までのルートを生成しても良い。また、本発明に係るナビゲーションシステムは、現在地点に関連付けられている動画を再生しても良い。以下、図面を用いながら、本発明に係る実施形態について説明する。   The navigation system according to the present invention generates a route from a departure place to a destination based on information published by a user's friends and the like. Further, the navigation system according to the present invention may generate a route from the departure place to the destination based on the user's attributes or preferences. In addition, the navigation system according to the present invention may reproduce a moving image associated with the current location. Hereinafter, embodiments according to the present invention will be described with reference to the drawings.

図1は、本発明の第1の実施形態に係るナビゲーションシステムの構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a navigation system according to the first embodiment of the present invention.

ナビゲーションシステム1は、撮影装置2と、センタサーバ3と、ナビゲーション装置4とを含み、これら装置2〜4は、通信網5で接続されている。本実施形態では、撮影装置2とナビゲーション装置4とを別装置として説明するが、これらは1つの装置であっても良い。   The navigation system 1 includes a photographing device 2, a center server 3, and a navigation device 4, and these devices 2 to 4 are connected by a communication network 5. In the present embodiment, the imaging device 2 and the navigation device 4 are described as separate devices, but they may be a single device.

通信網5は、各装置2〜4の間において双方向のデータ通信を可能とする。通信網5は、有線であっても無線であっても良い。通信網5は、例えば、インターネット網若しくは携帯通信網、又はこれらの組み合わせ等より構成される。   The communication network 5 enables bidirectional data communication between the devices 2 to 4. The communication network 5 may be wired or wireless. The communication network 5 is configured by, for example, the Internet network, a mobile communication network, or a combination thereof.

撮影装置2は、被写体を撮影して写真データ又は動画データを生成できる。以下では動画データを例に説明するが、写真データであっても本発明は適用可能である。撮影装置2は、現在地点を測位して地点情報を生成できる。撮影装置2は、生成した動画データ及び地点情報等を、通信網5を介して、センタサーバ3にアップロードできる。撮影装置2は、例えば、携帯電話、スマートフォン、PC(Personal Computer)、自動車、バイク又は自転車等に搭載され得る。撮影装置2の詳細については後述する。   The photographing device 2 can photograph a subject and generate photo data or moving image data. Hereinafter, moving image data will be described as an example. However, the present invention can be applied even to photo data. The imaging device 2 can generate location information by positioning the current location. The imaging device 2 can upload the generated moving image data, point information, and the like to the center server 3 via the communication network 5. The imaging device 2 can be mounted on, for example, a mobile phone, a smartphone, a PC (Personal Computer), an automobile, a motorcycle, or a bicycle. Details of the photographing apparatus 2 will be described later.

センタサーバ3は、撮影装置2からアップロードされた動画データ及び地点情報等を管理する。センタサーバ3は、ルート検索の要求を受けると、出発地から目的地までの案内ルートを生成する。センタサーバ3は、生成した案内ルートをナビゲーション装置4に送信する。センタサーバ3の詳細については後述する。   The center server 3 manages the moving image data uploaded from the image capturing device 2, the point information, and the like. Upon receiving the route search request, the center server 3 generates a guide route from the departure point to the destination. The center server 3 transmits the generated guidance route to the navigation device 4. Details of the center server 3 will be described later.

ナビゲーション装置4は、出発地と目的地を含むルート検索の要求をセンタサーバ3に送信し、センタサーバ3から出発地から目的地までの案内ルートを受信する。ナビゲーション装置4は、案内ルートに基づき、ユーザを目的地まで案内する。ナビゲーション装置4の詳細については後述する。   The navigation device 4 transmits a route search request including the departure point and the destination to the center server 3, and receives a guidance route from the departure point to the destination from the center server 3. The navigation device 4 guides the user to the destination based on the guidance route. Details of the navigation device 4 will be described later.

図2は、撮影装置2のハードウェア構成の一例を示すブロック図である。   FIG. 2 is a block diagram illustrating an example of a hardware configuration of the imaging device 2.

撮影装置2は、CPU(Central Processing Unit)21と、メモリ22と、撮影デバイス23と、入力デバイス24と、表示デバイス25と、測位デバイス26と、記憶デバイス27と、通信デバイス28とを備える。各要素21〜28は、双方向にデータ通信可能なバス29で接続されている。   The photographing apparatus 2 includes a CPU (Central Processing Unit) 21, a memory 22, a photographing device 23, an input device 24, a display device 25, a positioning device 26, a storage device 27, and a communication device 28. The elements 21 to 28 are connected by a bus 29 capable of bidirectional data communication.

CPU21は、例えば、記憶デバイス27からコンピュータプログラム(以下「プログラム」という)を読み出して実行し、各デバイス23〜27を制御する。これにより、CPU21は、後述する撮影装置2が有する各機能51〜56(図5参照)等を実現する。   For example, the CPU 21 reads out and executes a computer program (hereinafter referred to as “program”) from the storage device 27 and controls the devices 23 to 27. Thereby, CPU21 implement | achieves each function 51-56 (refer FIG. 5) etc. which the imaging device 2 mentioned later has.

メモリ22は、CPU21がプログラムを実行する際に一時的に必要とするデータを保持する。メモリは、例えば、DRAM(Dynamic Random Access Memory)等で構成される。   The memory 22 holds data temporarily required when the CPU 21 executes a program. The memory is composed of, for example, a DRAM (Dynamic Random Access Memory).

撮影デバイス23は、被写体を撮影して静止画データ(例えば、写真)又は動画データ等を生成する。動画データは、例えば記憶デバイス27に保持される。撮影デバイス23は、例えば、カメラレンズ及びCCD等で構成される。   The photographing device 23 photographs a subject and generates still image data (for example, a photograph) or moving image data. The moving image data is held in the storage device 27, for example. The photographing device 23 is composed of, for example, a camera lens and a CCD.

入力デバイス24は、ユーザからの入力を受け付けるインタフェース(以下「I/F」という)である。ユーザは、入力デバイス24を介して、例えば、動画撮影の開始及び終了の指示を撮影装置2に伝えることができる。ユーザは、入力デバイス24を介して、例えば、所定の動画データをセンタサーバ3にアップロードする指示を撮影装置2に伝えることができる。入力デバイス24は、例えば、物理的なボタン又はタッチセンサ等で構成される。   The input device 24 is an interface (hereinafter referred to as “I / F”) that receives input from the user. For example, the user can transmit an instruction to start and end moving image shooting to the image capturing apparatus 2 via the input device 24. For example, the user can transmit an instruction to upload predetermined moving image data to the center server 3 to the photographing apparatus 2 via the input device 24. The input device 24 includes, for example, a physical button or a touch sensor.

表示デバイス25は、ユーザに対して画像等を表示するI/Fである。例えば、表示デバイス25は、撮影中の被写体の映像を表示する。表示デバイス25は、例えば、有機EL(electroluminescence)ディスプレイ又は液晶ディスプレイ等で構成される。なお、入力デバイス24と表示デバイス25とが一体型のデバイスであっても良い。   The display device 25 is an I / F that displays an image or the like to the user. For example, the display device 25 displays an image of the subject being shot. The display device 25 is configured by, for example, an organic EL (electroluminescence) display or a liquid crystal display. The input device 24 and the display device 25 may be an integrated device.

測位デバイス26は、衛星測位システム(例えばGPS)を利用して、撮影装置2の現在地点を測位する。測位デバイス26は、例えば、測位衛星から送出されている測位信号を受信可能な受信機等で構成される。若しくは、測位デバイス26は、通信網5に係る無線基地局から送信されている通信信号を利用して現在地点を測位するデバイスであっても良い。   The positioning device 26 measures the current location of the imaging device 2 using a satellite positioning system (for example, GPS). The positioning device 26 is composed of, for example, a receiver that can receive a positioning signal transmitted from a positioning satellite. Alternatively, the positioning device 26 may be a device that measures the current location using a communication signal transmitted from a radio base station related to the communication network 5.

記憶デバイス27は、プログラム及び各種データ等を保持する。記憶デバイス27は、例えば、HDD(Hard Disk Drive)又はフラッシュメモリ等で構成される。   The storage device 27 holds programs and various data. The storage device 27 is configured by, for example, an HDD (Hard Disk Drive) or a flash memory.

通信デバイス28は、撮影装置2から通信網5に送信されるデータ及び通信網5から撮影装置2が受信するデータを制御する。通信デバイス28は、例えば、無線送受信機等で構成される。   The communication device 28 controls data transmitted from the imaging device 2 to the communication network 5 and data received by the imaging device 2 from the communication network 5. The communication device 28 is composed of, for example, a wireless transceiver.

図3は、センタサーバ3のハードウェア構成の一例を示すブロック図である。   FIG. 3 is a block diagram illustrating an example of a hardware configuration of the center server 3.

センタサーバ3は、CPU31と、メモリ32と、記憶デバイス33と、通信デバイス34とを備える。各要素31〜34は、双方向にデータ通信可能なバス39で接続されている。これらCPU31、メモリ32、記憶デバイス33及び通信デバイス34の説明は、図2に示したCPU21、メモリ22、記憶デバイス27及び通信デバイス28の説明と重複するので省略する。   The center server 3 includes a CPU 31, a memory 32, a storage device 33, and a communication device 34. The elements 31 to 34 are connected by a bus 39 capable of bidirectional data communication. The description of the CPU 31, the memory 32, the storage device 33, and the communication device 34 is omitted because it overlaps with the description of the CPU 21, the memory 22, the storage device 27, and the communication device 28 shown in FIG.

図4は、ナビゲーション装置4のハードウェア構成の一例を示すブロック図である。   FIG. 4 is a block diagram illustrating an example of a hardware configuration of the navigation device 4.

ナビゲーション装置4は、CPU41と、メモリ42と、入力デバイス43と、表示デバイス44と、測位デバイス45と、記憶デバイス46と、通信デバイス47とを備える。各要素41〜37は、双方向にデータ通信可能なバス49で接続されている。これらCPU41、メモリ42、測位デバイス45、記憶デバイス46及び通信デバイス47の説明は、図2に示したCPU21、メモリ22、測位デバイス26、記憶デバイス27及び通信デバイス28の説明と重複するので省略する。   The navigation device 4 includes a CPU 41, a memory 42, an input device 43, a display device 44, a positioning device 45, a storage device 46, and a communication device 47. The elements 41 to 37 are connected by a bus 49 capable of bidirectional data communication. The description of the CPU 41, the memory 42, the positioning device 45, the storage device 46, and the communication device 47 is omitted because it overlaps with the description of the CPU 21, the memory 22, the positioning device 26, the storage device 27, and the communication device 28 shown in FIG. .

入力デバイス43は、ユーザからの入力を受け付けるI/Fである。ユーザは、入力デバイス43を介して、例えば、出発地及び目的地等の検索条件をナビゲーション装置4に伝えることができる。入力デバイス24は、例えば、物理的なボタン又はタッチセンサ等によって構成される。   The input device 43 is an I / F that accepts input from the user. The user can inform the navigation device 4 of search conditions such as a departure place and a destination via the input device 43. The input device 24 is configured by, for example, a physical button or a touch sensor.

表示デバイス44は、ユーザに対して画像等を表示するI/Fである。表示デバイス44は、例えば、地図、案内ルート及び動画データの再生映像等を表示する。表示デバイス44は、例えば、有機ELディスプレイ又は液晶ディスプレイ等で構成される。なお、入力デバイス43と表示デバイス44とが一体型のデバイスであっても良い。   The display device 44 is an I / F that displays an image or the like to the user. The display device 44 displays, for example, a map, a guidance route, a reproduced video of moving image data, and the like. The display device 44 is configured by, for example, an organic EL display or a liquid crystal display. The input device 43 and the display device 44 may be an integrated device.

図5は、撮影装置2が有する機能構成の一例を示すブロック図である。   FIG. 5 is a block diagram illustrating an example of a functional configuration of the photographing apparatus 2.

撮影装置2は、地点特定部51と、撮影部52と、区間情報生成部53と、動画記憶部54と、区間情報記憶部55と、送信部56とを有する。   The imaging device 2 includes a point specifying unit 51, an imaging unit 52, a section information generating unit 53, a moving image storage unit 54, a section information storage unit 55, and a transmission unit 56.

地点特定部51は、測位デバイス26が受信した測位信号に基づき、撮影装置2の現在地点を特定する。そして、地点特定部51は、その特定した現在地点を示す地点情報を生成する。地点特定部51は、地図情報を用いて、現在地点を道路上に補正するマップマッチング処理を行っても良い。地点情報は、例えば、測位日時104、経度105及び緯度106等の値(図6参照)を有する。   The point specifying unit 51 specifies the current point of the imaging device 2 based on the positioning signal received by the positioning device 26. And the spot specific | specification part 51 produces | generates the spot information which shows the specified present location. The point specifying unit 51 may perform map matching processing for correcting the current point on the road using the map information. The point information has values (see FIG. 6) such as positioning date and time 104, longitude 105, and latitude 106, for example.

撮影部52は、撮影デバイス23を制御して被写体を撮影し、動画データを生成する。撮影部52は、その生成した動画データを動画記憶部54に登録する。その際、撮影部52は、その動画データを一意に識別可能な動画ID(Identification)102の値(図6参照)を付与する。撮影部52は、撮影開始時と撮影終了時に、その旨を区間情報生成部53に通知する。動画が撮影された区間に対応する区間情報100(図6参照)を生成するためである。そして、撮影部52は、その通知に動画ID102の値を含める。動画データと区間情報100とを対応付けるためである。   The photographing unit 52 controls the photographing device 23 to photograph a subject and generates moving image data. The photographing unit 52 registers the generated moving image data in the moving image storage unit 54. At that time, the photographing unit 52 assigns a value (see FIG. 6) of a moving image ID (Identification) 102 that can uniquely identify the moving image data. The imaging unit 52 notifies the section information generation unit 53 of the start and end of shooting. This is because the section information 100 (see FIG. 6) corresponding to the section in which the moving image is shot is generated. And the imaging | photography part 52 includes the value of moving image ID102 in the notification. This is because the moving image data and the section information 100 are associated with each other.

区間情報生成部53は、撮影部52から撮影開始の通知を受けると、地点特定部87から現在地点を示す経度105及び緯度106の情報を取得する。すなわち、撮影開始地点の経度105及び緯度106の情報を取得する。区間情報生成部53は、撮影部52から撮影終了の通知を受けるまでの間、地点特定部87から、所定の周期で経度105及び緯度106の情報を取得して保持する。このとき、区間情報生成部53は、経度105及び緯度106を測位した測位日時104も合わせて保持する。区間情報生成部53は、撮影部52から撮影終了の通知を受けると、通知に含まれる動画ID102の値と、これまで保持した1以上の測位日時104、経度105及び緯度106とを対応付けて区間情報100(図6参照)を生成し、区間情報記憶部55に登録する。この区間情報100を撮影情報と呼んでも良い。以下、区間情報100について詳細に説明する。   When the section information generation unit 53 receives a notification of the start of shooting from the shooting unit 52, the section information generation unit 53 acquires information on the longitude 105 and the latitude 106 indicating the current point from the point specifying unit 87. That is, information on the longitude 105 and latitude 106 of the shooting start point is acquired. The section information generation unit 53 acquires and stores information on the longitude 105 and the latitude 106 from the point specifying unit 87 at a predetermined period until receiving a notification of the end of shooting from the shooting unit 52. At this time, the section information generation unit 53 also holds the positioning date and time 104 obtained by positioning the longitude 105 and the latitude 106 together. When the section information generation unit 53 receives a notification of the end of shooting from the shooting unit 52, the section information generation unit 53 associates the value of the moving image ID 102 included in the notification with one or more positioning dates 104, longitude 105, and latitude 106 stored so far. The section information 100 (see FIG. 6) is generated and registered in the section information storage unit 55. This section information 100 may be called photographing information. Hereinafter, the section information 100 will be described in detail.

図6は、区間情報100のデータの一例を示すデータ構成図である。   FIG. 6 is a data configuration diagram illustrating an example of the data of the section information 100.

区間情報100は、例えば、データ項目として、区間ID101と、動画ID102と、動画フレーム103と、測位日時104と、経度105及び緯度106を有する。すなわち、区間情報100とは、これらデータ項目101〜106の値を有するデータブロックである。   The section information 100 includes, for example, a section ID 101, a moving picture ID 102, a moving picture frame 103, a positioning date 104, a longitude 105, and a latitude 106 as data items. That is, the section information 100 is a data block having the values of these data items 101 to 106.

区間ID101の値は、区間情報100を一意に識別可能な値である。動画ID102の値は、上記の通り動画を一意に識別可能な値である。区間情報100は、区間ID101の値と動画ID102の値とは1対1の対応関係にある。   The value of the section ID 101 is a value that can uniquely identify the section information 100. The value of the moving image ID 102 is a value that can uniquely identify the moving image as described above. In the section information 100, the value of the section ID 101 and the value of the moving image ID 102 have a one-to-one correspondence.

動画フレーム103の値は、動画ID102の値に対応する動画データにおいて、各フレームが再生される時間である。   The value of the moving image frame 103 is a time during which each frame is reproduced in the moving image data corresponding to the value of the moving image ID 102.

測位日時104の値は、各動画フレームが撮影された日時である。従って、最初の動画フレームに対応する測位日時の値104aが撮影開始時刻に対応し、最後の動画フレームに対応する測位日時の値104dが撮影終了時刻に対応する。   The value of the positioning date 104 is the date when each moving image frame was shot. Therefore, the positioning date and time value 104a corresponding to the first moving image frame corresponds to the shooting start time, and the positioning date and time value 104d corresponding to the last moving image frame corresponds to the shooting end time.

経度105及び緯度106の値は、各動画フレームが撮影された日時において測位された地点を示す値である。すなわち、各動画フレームの撮影地点を示す値である。ここで、或る第1の動画フレーム(例えば、行108a)が撮影された地点を第1の撮影地点とし、その後の第2の動画フレーム(例えば、行108b)が撮影された地点を第2の撮影地点とし、第1の撮影地点から第2の撮影地点までの区間をサブ区間とする。そして、第1の動画フレームから、第2の動画フレームの直前の動画フレームまでの1以上の動画フレームを、サブ区間に対応する動画フレーム群と言う。すなわち、サブ区間に対応する動画フレーム群は、サブ区間において撮影された動画フレーム群である。サブ区間の長さは任意に設定可能であって良い。   The values of the longitude 105 and the latitude 106 are values that indicate the locations that were measured at the date and time when each moving image frame was captured. That is, it is a value indicating the shooting point of each moving image frame. Here, a point at which a certain first moving image frame (for example, row 108a) is shot is set as the first shooting point, and a point at which the subsequent second moving image frame (for example, row 108b) is shot is set as the second shooting point. And a section from the first shooting point to the second shooting point is a sub-section. One or more video frames from the first video frame to the video frame immediately before the second video frame are referred to as a video frame group corresponding to the sub-interval. That is, the moving image frame group corresponding to the sub-section is a moving image frame group photographed in the sub-section. The length of the sub-interval may be arbitrarily set.

例えば、区間情報100に係る行108bのデータブロックは、動画ID「MOV100」の動画フレーム「00:00:04」は、経度「N35.306263」及び緯度「E139.549499」の地点において撮影されたものであることを示す。以下、図5の説明に戻る。   For example, in the data block in the row 108b related to the section information 100, the moving image frame “00:00:04” of the moving image ID “MOV100” was captured at a point of longitude “N35.306263” and latitude “E139.554999”. Indicates that it is a thing. Returning to the description of FIG.

送信部56は、ユーザの指示により又は自動的に、動画記憶部54に保持されている動画データと、区間情報記憶部55に保持されている区間情報100と、をセンタサーバ3に送信する。   The transmission unit 56 transmits the moving image data held in the moving image storage unit 54 and the section information 100 held in the section information storage unit 55 to the center server 3 according to a user instruction or automatically.

図7は、センタサーバ3の機能構成の一例を示すブロック図である。   FIG. 7 is a block diagram illustrating an example of a functional configuration of the center server 3.

センタサーバ3は、受信部61と、動画DB(DataBase)63と、区間情報DB64と、SNS情報DB62と、特徴情報生成部65と、特徴情報DB67と、ルート候補生成部69と、送信部70とを有する。   The center server 3 includes a receiving unit 61, a moving image DB (DataBase) 63, a section information DB 64, an SNS information DB 62, a feature information generating unit 65, a feature information DB 67, a route candidate generating unit 69, and a transmitting unit 70. And have.

受信部61は、撮影装置2から送信された動画データ及び区間情報100を受信すると、それぞれ、動画DB63及び区間情報DB64に登録する。受信部61は、ナビゲーション装置4から送信されたルート検索要求を受信すると、それをルート候補生成部69に伝える。   When receiving the moving image data and the section information 100 transmitted from the photographing apparatus 2, the receiving unit 61 registers the moving image data and the section information DB 64 in the moving image DB 63 and the section information DB 64, respectively. When receiving the route search request transmitted from the navigation device 4, the reception unit 61 notifies the route candidate generation unit 69 of the request.

動画DB63は、1以上の動画データを保持及び管理する。動画DB63からは、例えば、動画ID102の値を検索キーに、所望の動画データを抽出できる。   The moving image DB 63 holds and manages one or more moving image data. From the moving image DB 63, for example, desired moving image data can be extracted using the value of the moving image ID 102 as a search key.

区間情報DB64は、1以上の区間情報100を保持及び管理する。区間情報DB64からは、例えば、区間ID101の値、又は経度105及び緯度106の値を検索キーにして、所望の区間情報100を抽出できる。   The section information DB 64 holds and manages one or more section information 100. From the section information DB 64, for example, the desired section information 100 can be extracted using the section ID 101 value or the longitude 105 and latitude 106 values as search keys.

SNS(Social Networking Service)情報DB62は、1以上のSNS情報110を保持及び管理する。SNS情報110は、ユーザ同士の関係性を示す情報を有する。例えば、SNS情報110は、或るユーザの友達のユーザは誰か、又は友達の中でもより親しい友達は誰か、等の情報を有する。SNS情報110は、或るユーザの属性(性別、年齢、住所、出身校等)、嗜好及び興味等の情報を有する。SNS情報110は、或るユーザがどのコミュニティ、所属組織及び団体等に属しているか等の情報を有する。SNS情報110は、或るユーザが登録した動画データ及び位置情報、並びにコメント等に関する情報等を有する。SNS情報110は、その動画データ等をどの友達に公開するか(又は公開しないか)等の情報を有する。以下、SNS情報110について一例を用いて詳細に説明する。   An SNS (Social Networking Service) information DB 62 holds and manages one or more SNS information 110. The SNS information 110 has information indicating the relationship between users. For example, the SNS information 110 includes information such as who is a friend of a certain user or who is a close friend among friends. The SNS information 110 includes information such as attributes (gender, age, address, school of origin, etc.), preferences, and interests of a certain user. The SNS information 110 includes information such as which community, organization, organization, etc. a certain user belongs to. The SNS information 110 includes moving image data and position information registered by a certain user, information on comments, and the like. The SNS information 110 includes information such as to which friend (or not to disclose) the moving image data and the like. Hereinafter, the SNS information 110 will be described in detail using an example.

図8は、SNS情報110のデータの一例を示すデータ構成図である。   FIG. 8 is a data configuration diagram illustrating an example of the data of the SNS information 110.

SNS情報110は、例えばデータ項目として、ユーザID111と、ユーザ名112と、公開情報113と、公開範囲114とを有する。   The SNS information 110 includes, for example, a user ID 111, a user name 112, public information 113, and a public range 114 as data items.

ユーザID111の値は、各ユーザを一意に識別可能なID値である。ユーザ名112の値は、そのユーザID111の値に対応するユーザの名前に関する情報である。公開情報113の値は、そのユーザID111の値に対応するユーザが友達等に公開している動画データ等を示す情報である。公開範囲114の値は、その公開情報113の値が示す動画データ等の公開範囲(すなわち、どの友達等に公開するか)を示す情報である。   The value of the user ID 111 is an ID value that can uniquely identify each user. The value of the user name 112 is information regarding the name of the user corresponding to the value of the user ID 111. The value of the public information 113 is information indicating moving image data or the like that is disclosed to a friend or the like by the user corresponding to the value of the user ID 111. The value of the disclosure range 114 is information indicating the disclosure range of the moving image data or the like indicated by the value of the disclosure information 113 (that is, to which friends or the like).

例えば、図8に示すSNS情報110は、ユーザID111の値「U100」に対応するユーザ名112の値は「SUZUKI」であることを示す。更に、SNS情報110は、ユーザID111の値「U100」のユーザが公開している情報は、動画ID「MOV100」の動画データ、写真ID「PIC100」の写真データ、コメントID「TXT100」のコメントデータ及び区間ID「C100」の区間情報であることを示す。更に、SNS情報110は、ユーザIDの値が「U100」のユーザは、ユーザID111の値が「U200」と「U300」のユーザに、動画ID「MOV100」の動画データを公開していることを示す。以下、図7の説明に戻る。   For example, the SNS information 110 illustrated in FIG. 8 indicates that the value of the user name 112 corresponding to the value “U100” of the user ID 111 is “SUZUKI”. Further, the SNS information 110 includes information published by the user with the value “U100” of the user ID 111: movie data with the movie ID “MOV100”, photo data with the photo ID “PIC100”, and comment data with the comment ID “TXT100”. And section information of section ID “C100”. Further, the SNS information 110 indicates that a user with a user ID value “U100” discloses video data with a video ID “MOV100” to users with user ID 111 values “U200” and “U300”. Show. Returning to the description of FIG.

特徴情報生成部65は、区間情報DB64に保持される区間毎に特徴情報120を生成する。特徴情報120を生成する方法の一例を次に示す。例えば、特徴情報生成部65は、区間情報DB64から或る区間を抽出する。特徴情報生成部65は、その区間に対応する動画データを動画DB63から抽出する。特徴情報生成部65は、その動画データ等に関連するコメント等の情報をSNS情報DB62から抽出する。特徴情報生成部65は、これら抽出した各種情報を解析して、特徴情報120を生成する。以下、特徴情報120について詳細に説明する。   The feature information generation unit 65 generates feature information 120 for each section held in the section information DB 64. An example of a method for generating the feature information 120 is as follows. For example, the feature information generation unit 65 extracts a certain section from the section information DB 64. The feature information generation unit 65 extracts moving image data corresponding to the section from the moving image DB 63. The feature information generation unit 65 extracts information such as comments related to the moving image data from the SNS information DB 62. The feature information generation unit 65 analyzes the various pieces of extracted information and generates feature information 120. Hereinafter, the feature information 120 will be described in detail.

図9は、特徴情報120が有するデータの一例を示すデータ構成図である。   FIG. 9 is a data configuration diagram illustrating an example of data included in the feature information 120.

特徴情報120は、例えばデータ項目として、区間ID101と、公開情報113と、特徴キーワード123とを有する。区間ID101と公開情報113については、上記で説明した通りである。   The feature information 120 includes, for example, a section ID 101, public information 113, and a feature keyword 123 as data items. The section ID 101 and the public information 113 are as described above.

特徴キーワード123の値は、公開情報113の値が示す動画データ等に関する特徴を表すキーワードである。この特徴キーワード123の値は、特徴情報生成部65が、公開情報113の値が示す動画データ等を解析することによって生成される。例えば、特徴情報生成部65は、動画ID「MOV100」の動画データに山の紅葉の風景が撮影されていることを解析して、「風景」「山」「自然」「紅葉」「秋」等の特徴キーワード123aを抽出する。例えば、特徴情報生成部65は、この区間の動画を撮影したユーザID111の値「U100」が示すユーザの属性、嗜好及び興味等の情報を解析して、「男性」「30才代」「ドライブ好き」「写真好き」等の特徴キーワード123bを抽出する。なお、これらの特徴キーワード123の値は、ユーザに直接入力されても良い。   The value of the feature keyword 123 is a keyword that represents the feature related to the moving image data indicated by the value of the public information 113. The value of the feature keyword 123 is generated by the feature information generation unit 65 analyzing the moving image data indicated by the value of the public information 113. For example, the feature information generation unit 65 analyzes that the scenery of the autumn leaves of the mountain is captured in the moving picture data of the moving picture ID “MOV100”, and “landscape” “mountain” “nature” “autumn leaves” “autumn” etc. The feature keyword 123a is extracted. For example, the feature information generation unit 65 analyzes information such as user attributes, preferences, interests, and the like indicated by the value “U100” of the user ID 111 that captured the moving image of this section, and displays “male” “30s” “drive” Feature keywords 123b such as “like” and “photo lover” are extracted. Note that the values of these feature keywords 123 may be directly input to the user.

すなわち、特徴情報120には、或る区間の特徴を示すキーワードが含まれ得る。この特徴情報120は、後述するルート候補を生成する際に用いられる。以下、図7の説明に戻る。   That is, the feature information 120 may include a keyword indicating the feature of a certain section. This feature information 120 is used when generating route candidates to be described later. Returning to the description of FIG.

ルート候補生成部69は、受信部61から受け取ったルート検索条件に含まれる出発地及び目的地に基づいて、出発地から目的地まで到着し得る1以上のルート候補を生成する。ルート候補生成部69は、経由地が指定された場合、出発地から経由地を経由して目的地まで到着し得る1以上のルート候補を生成する。ルート検索を要求してきたユーザ(以下「ルート検索ユーザ」という)は、経由地に動画データまたは動画区間内の任意の地点を指定することができる。動画データまたは動画区間内の任意の地点が経由地に指定された場合、ルート候補生成部69は、その動画区間の一部または全部を経由するルート候補を生成する。   The route candidate generating unit 69 generates one or more route candidates that can arrive from the starting point to the destination based on the starting point and the destination included in the route search condition received from the receiving unit 61. The route candidate generation unit 69 generates one or more route candidates that can reach the destination from the departure point via the route point when the route point is designated. A user who has requested a route search (hereinafter referred to as “route search user”) can specify moving image data or an arbitrary point in a moving image section as a transit point. When any point in the moving image data or moving image section is designated as the transit point, the route candidate generation unit 69 generates a route candidate that passes through part or all of the moving image interval.

経由地には、或る地点の住所又はPOI(Point Of Interesting)等が指定されても良い。また、経由地は複数指定されても良い。   An address of a certain point or POI (Point Of Interesting) or the like may be designated as the transit point. A plurality of waypoints may be designated.

ルート候補生成部69は、例えば、ルート検索条件によって「友達のおすすめ区間を優先」が指定された場合、ルート検索を要求してきたユーザ(以下「ルート検索ユーザ」という)の友達のおすすめ区間を通るルート候補を生成する。具体的には、ルート候補生成部69は、SNS情報DB62を参照して、ルート検索ユーザの友達を特定し、その友達が動画データを撮影した区間を通るルート候補を生成する。ルート検索条件によって特定の友達が指定された場合(例えば「Aさんのおすすめ区間を優先」)、ルート候補生成部69は、その指定された友達のおすすめ区間を通るルート候補を生成する。   For example, when “prefer friend's recommended section” is designated by the route search condition, the route candidate generation unit 69 passes through a friend's recommended section of the user who has requested the route search (hereinafter referred to as “route search user”). Generate route candidates. Specifically, the route candidate generation unit 69 refers to the SNS information DB 62, identifies a friend of the route search user, and generates a route candidate that passes through a section in which the friend has captured the video data. When a specific friend is specified by the route search condition (for example, “Mr. A's recommended section is prioritized”), the route candidate generation unit 69 generates a route candidate that passes through the specified friend's recommended section.

ルート候補生成部69は、例えば、ルート検索条件によって「あなたの嗜好に適合するおすすめ区間を優先」が指定された場合、ルート検索ユーザの嗜好(及び属性)に適合する区間を通るルート候補を生成する。具体的には、ルート候補生成部69は、特徴情報DB67から、ルート検索ユーザの嗜好(及び属性)等に適合する特徴キーワード123を有する特徴情報120を抽出し、その特徴を有する動画データが撮影された区間を通るルート候補を生成する。   The route candidate generation unit 69 generates a route candidate that passes through a section that matches the preference (and attribute) of the route search user, for example, when “preferred recommended section that suits your preference” is specified by the route search condition. To do. Specifically, the route candidate generation unit 69 extracts feature information 120 having a feature keyword 123 that matches the preference (and attribute) of the route search user from the feature information DB 67, and video data having the feature is captured. A route candidate passing through the specified section is generated.

送信部70は、ルート検索を要求してきたユーザのナビゲーション装置4に、ルート候補生成部69で生成したルート候補を返信する。送信部70は、ルート候補と共に、そのルート候補上及びそのルート候補の周辺で撮影された動画データ等と、区間情報100と、特徴情報120とを合わせてナビゲーション装置4に返信しても良い。   The transmission unit 70 returns the route candidate generated by the route candidate generation unit 69 to the navigation device 4 of the user who has requested the route search. The transmission unit 70 may return the moving image data taken on and around the route candidate, the section information 100, and the feature information 120 together with the route candidate to the navigation device 4.

図10は、ナビゲーション装置4の機能構成の一例を示すブロック図である。   FIG. 10 is a block diagram illustrating an example of a functional configuration of the navigation device 4.

ナビゲーション装置4は、送受信部81と、ルート検索部82と、動画記憶部54と、ルート情報記憶部84と、ナビゲーション処理部86と、動画再生部85と、地点特定部87とを有する。   The navigation device 4 includes a transmission / reception unit 81, a route search unit 82, a moving image storage unit 54, a route information storage unit 84, a navigation processing unit 86, a moving image playback unit 85, and a point specifying unit 87.

送受信部81は、通信デバイス47を制御して、センタサーバ3にルート検索要求を送信したり、センタサーバ3からルート候補等の情報を受信したりする。   The transmission / reception unit 81 controls the communication device 47 to transmit a route search request to the center server 3 and receive information such as route candidates from the center server 3.

ルート検索部82は、ユーザから出発地及び目的地が指定されると、出発地から目的地まで到達し得るルートを検索する。また、ルート検索部82は、経由地が指定されると、出発地から経由地を通って目的地まで到達し得るルートを検索する。本実施例では、実際にルートを検索するのはセンタサーバ3である。よって、ルート検索部82は、出発地及び目的地(指定された場合は経由地も)を含むルート検索条件を生成してセンタサーバ3に送信し、センタサーバ3において生成されたルート候補を受信する。このとき、ルート検索部82は、ルート候補上及びそのルート候補の周辺で撮影された動画データ等と、区間情報100と、特徴情報120とを合わせて受信しても良い。   When a departure place and a destination are designated by the user, the route search unit 82 searches for a route that can be reached from the departure place to the destination. In addition, when a route point is specified, the route search unit 82 searches for a route that can reach the destination from the departure point through the route point. In this embodiment, it is the center server 3 that actually searches for a route. Therefore, the route search unit 82 generates a route search condition including the departure point and the destination (and a transit point if specified) and transmits it to the center server 3, and receives the route candidate generated in the center server 3. To do. At this time, the route search unit 82 may receive the moving image data taken on and around the route candidate, the section information 100, and the feature information 120 together.

ルート検索部82は、センタサーバ3から受信したルート候補、区間情報100及び特徴情報120等を、ルート情報記憶部84に登録する。ルート検索部82は、センタサーバ3から受信した動画データ等を動画記憶部54に登録する。以下、ルート検索画面の表示例を用いて、ルート検索部82について詳細に説明する。   The route search unit 82 registers the route candidate, the section information 100, the feature information 120, and the like received from the center server 3 in the route information storage unit 84. The route search unit 82 registers the moving image data received from the center server 3 in the moving image storage unit 54. Hereinafter, the route search unit 82 will be described in detail using a display example of a route search screen.

図11は、ナビゲーション装置4に係るルート検索画面の表示例である。   FIG. 11 is a display example of a route search screen according to the navigation device 4.

ルート検索画面200は、例えば、出発地と目的地入力領域205と、検索条件選択領域207と、ルート検索結果表示領域210とを有する。   The route search screen 200 includes, for example, a departure point and destination input region 205, a search condition selection region 207, and a route search result display region 210.

まず、ユーザが所定の検索条件で出発地206aから目的地206cまでのルートを検索する場合について説明する。   First, a case where the user searches for a route from the departure point 206a to the destination 206c under a predetermined search condition will be described.

ユーザは、出発地206aに「現在地」、目的地206cに「新潟駅」を入力したとする。この段階では、経由地206bはまだ入力されていないとする。そして、ユーザは、検索条件から「友達のおすすめ区間を優先」208bを選択してルート検索を実行する。   It is assumed that the user inputs “current location” as the departure point 206a and “Niigata Station” as the destination 206c. At this stage, it is assumed that the transit point 206b has not been input yet. Then, the user selects “Preferred friend's recommended section” 208b from the search condition and executes route search.

すると、ルート検索結果表示領域210に、例えば、ルート候補213aが表示される。このルート候補213aは、ユーザの友達が動画を撮影した区間で動画区間214aと214bを通るように生成されている。そして、動画区間214aで撮影された動画データ212aと、動画区間214bで撮影された動画212bが、ルート検索結果表示領域210に表示される。ここで、ルート候補213a上及びそのルート候補213aの周辺において撮影された動画データ212c、212dとその動画区間214c、214dも合わせてルート検索結果表示領域210に表示される。ユーザは、これら動画データ212c、212dを経由地に指定することができる。   Then, for example, the route candidate 213a is displayed in the route search result display area 210. This route candidate 213a is generated so as to pass through the moving image sections 214a and 214b in the section where the user's friend has taken a moving image. Then, the moving image data 212a shot in the moving image section 214a and the moving image 212b shot in the moving image section 214b are displayed in the route search result display area 210. Here, the moving image data 212c and 212d photographed on the route candidate 213a and in the vicinity of the route candidate 213a and the moving image sections 214c and 214d are also displayed in the route search result display area 210. The user can designate these moving image data 212c and 212d as a waypoint.

次に、ユーザが、動画データを経由地に設定する場合について説明する。ユーザは、経由地206に動画データ「B」(212d)を選択して入力したとする。すると、ルート候補213aは、動画データ212dが撮影された動画区間214dを経由地とするルート候補に変更されて、ルート検索結果表示領域210に表示される。   Next, a case where the user sets moving image data as a waypoint will be described. It is assumed that the user selects and inputs the moving image data “B” (212d) at the waypoint 206. Then, the route candidate 213a is changed to a route candidate having the moving image section 214d where the moving image data 212d is photographed as a transit point, and is displayed in the route search result display area 210.

なお、上述では、「友達のおすすめ区間を優先」208bを検索条件としてルート候補を生成した後に経由地を指定する場合について説明したが、もちろん「到着時刻を優先」201a又は「嗜好に適合するおすすめ区間を優先」208cを検索条件としても、同様のことを行うことができる。   In the above description, the route is specified after the route candidate is generated using “preferred recommended section of friend” 208b as a search condition. Of course, “prefer arrival time” 201a or “recommended to suit preference” The same operation can be performed using “priority of section” 208c as a search condition.

また、経由地を指定した後で、検索条件を指定してルート候補を生成させることもできる。この場合、地図上に予め表示されている動画データを経由地に指定すると、出発地から動画データが撮影された動画区間を経由地として目的地に到着し得るルート候補が生成される。   In addition, after designating a waypoint, a route candidate can be generated by designating a search condition. In this case, when the moving image data displayed in advance on the map is designated as the transit point, route candidates that can arrive at the destination are generated using the moving image section in which the moving image data is captured from the departure point.

次に、ユーザが、ルート候補213aに基づく走行シミュレーションを開始した場合について説明する。ユーザが、「走行シミュレーション開始」ボタン231を押下すると、ルート候補213aを走行した場合の走行シミュレーション画面(例えば、図13参照)が表示される。このとき、仮想的な現在地点が、例えば、動画区間214a内に移動すると、その動画区間214aに対応する動画データ212aが再生される。   Next, a case where the user starts a travel simulation based on the route candidate 213a will be described. When the user presses the “Start driving simulation” button 231, a driving simulation screen (see, for example, FIG. 13) when driving the route candidate 213 a is displayed. At this time, for example, when the virtual current location moves into the moving image segment 214a, the moving image data 212a corresponding to the moving image segment 214a is reproduced.

次に、ユーザが、ルート候補213aに基づくルート案内を開始した場合について説明する。ユーザが、「ルート案内開始」ボタン232を押下すると、ナビゲーション装置4は、ルート候補213aを案内ルートとして、出発地から目的地までのルート案内を開始する。そして、現実の現在地点が、例えば、動画区間214a内に移動すると、その動画区間214aに対応する動画データ212aが再生される。以下、図10の説明に戻る。   Next, a case where the user starts route guidance based on the route candidate 213a will be described. When the user presses the “start route guidance” button 232, the navigation device 4 starts route guidance from the departure point to the destination using the route candidate 213 a as a guidance route. Then, when the actual current location moves into, for example, the moving image section 214a, moving image data 212a corresponding to the moving image section 214a is reproduced. Returning to the description of FIG.

動画再生部85は、ナビゲーション処理部86からの指示に従って、動画記憶部54から動画データを抽出して再生する。また、動画再生部85は、ナビゲーション処理部86からの指示に従って、動画の再生開始、一時停止、スキップ等の処理を行う。   The moving image reproducing unit 85 extracts moving image data from the moving image storage unit 54 and reproduces it in accordance with an instruction from the navigation processing unit 86. In addition, the moving image reproduction unit 85 performs processing such as reproduction start, pause, and skip of the moving image in accordance with an instruction from the navigation processing unit 86.

地点特定部87は、測位デバイス45が受信する測位信号に基づいて、ナビゲーション装置4の現在地点を特定する。   The point specifying unit 87 specifies the current point of the navigation device 4 based on the positioning signal received by the positioning device 45.

ナビゲーション処理部86は、ユーザからルート案内開始の指示を受けると、出発地から目的地までのルート案内を開始する。ナビゲーション処理部86は、ルート情報記憶部84から案内ルートを抽出し、地図情報と重畳して表示する。ナビゲーション処理部86は、所定の周期で地点特定部87から地点情報を取得し、現在地点を地図情報に重畳して表示する。   When the navigation processing unit 86 receives an instruction to start route guidance from the user, the navigation processing unit 86 starts route guidance from the departure point to the destination. The navigation processing unit 86 extracts the guidance route from the route information storage unit 84 and displays it by superimposing it with the map information. The navigation processing unit 86 acquires the point information from the point specifying unit 87 at a predetermined cycle, and displays the current point superimposed on the map information.

ナビゲーション処理部86は、現在地点が、案内ルート上の区間情報100が示す区間を通過する際、その区間情報100に対応する動画データを動画再生部85に再生させる。このとき、ナビゲーション処理部86は動画再生部85を制御して、動画データの再生中に表示されている画像の撮影地点と、現在地点とが同期するように動画データを再生する。以下、動画再生に関する処理を詳細に説明する。   When the current point passes through the section indicated by the section information 100 on the guidance route, the navigation processing unit 86 causes the moving image reproduction unit 85 to reproduce the moving image data corresponding to the section information 100. At this time, the navigation processing unit 86 controls the moving image reproduction unit 85 to reproduce the moving image data so that the shooting point of the image displayed during the reproduction of the moving image data is synchronized with the current point. Hereinafter, processing related to moving image reproduction will be described in detail.

図12は、動画再生処理の概要を説明する模式図である。ナビゲーション処理部86は動画再生部85を制御して、区間に対応する動画データを再生する際、現在地点と、その現在地点で撮影された動画のフレーム映像とがほぼ同期されるように再生する。以下、これについて、図12を用いて詳細に説明する。   FIG. 12 is a schematic diagram for explaining the outline of the moving image reproduction process. When the navigation processing unit 86 controls the video reproduction unit 85 to reproduce the video data corresponding to the section, the navigation processing unit 86 performs reproduction so that the current location and the frame image of the video captured at the current location are substantially synchronized. . Hereinafter, this will be described in detail with reference to FIG.

図12(a)の図は、撮影装置2を搭載した自動車(以下「撮影自動車」という)301が、地点P1から地点P3までの動画を撮影した場合の模式図である。ここで、撮影自動車301が、地点P1から速度VでΔT時間走行したときの地点DはV×ΔTである。   The diagram of FIG. 12A is a schematic diagram when a vehicle (hereinafter referred to as “photographed vehicle”) 301 equipped with the photographing device 2 captures a moving image from the point P1 to the point P3. Here, the point D when the photographing automobile 301 travels at the speed V from the point P1 for ΔT time is V × ΔT.

図12(b)の図は、ナビゲーション装置4を搭載した自動車(以下「ナビ自動車」という)302が、地点P1から地点P3までが撮影された動画を再生した場合の模式図である。   The diagram of FIG. 12B is a schematic diagram in the case where an automobile (hereinafter referred to as “navigation automobile”) 302 on which the navigation device 4 is mounted reproduces a moving image taken from the point P1 to the point P3.

ナビ自動車302が、地点P1から速度V1(<V)でΔT時間走行したときの地点D1はV1×ΔTである。この場合、普通に動画を再生すると、地点D1において再生時間ΔTの動画フレームが再生される。すなわち、ナビ自動車302の現在地点がD1であるにもかかわらず、撮影自動車301が地点Dで撮影した動画フレームが再生されてしまう。   The point D1 when the navigation car 302 travels from the point P1 at the speed V1 (<V) for ΔT time is V1 × ΔT. In this case, when a moving image is normally reproduced, a moving image frame having a reproduction time ΔT is reproduced at the point D1. That is, even though the current location of the navigation vehicle 302 is D1, a moving image frame captured at the location D by the imaging vehicle 301 is reproduced.

一方、ナビ自動車302が、地点P1から速度V2(>V)でΔT時間走行したときの地点D2はV2×ΔTである。この場合も同じく、普通に動画を再生すると、地点D2において再生時間ΔTの動画フレームが再生される。すなわち、ナビ自動車302の現在地点がD2であるにもかかわらず、撮影自動車301が地点Dで撮影した動画フレームが再生されてしまう。   On the other hand, the point D2 when the navigation car 302 travels from the point P1 at the speed V2 (> V) for ΔT time is V2 × ΔT. In this case as well, when a moving image is normally reproduced, a moving image frame having a reproduction time ΔT is reproduced at the point D2. That is, although the current location of the navigation vehicle 302 is D2, the moving image frame captured at the location D by the imaging vehicle 301 is reproduced.

上述の通り、普通に動画を再生しただけでは、ナビ自動車302の現在地点に対応する動画フレームを再生できない。   As described above, the moving image frame corresponding to the current location of the navigation car 302 cannot be reproduced only by reproducing the moving image normally.

そこで、ナビゲーション処理部86は、ナビ自動車302が地点Dを通過した後における動画の再生時間がΔT未満の場合、再生時間ΔTの動画フレームにスキップして再生を開始するように動画再生部85に指示する。ナビゲーション処理部86は、ナビ自動車302が地点Dを通過する前に動画の再生時間がΔTに到達した場合、ナビ自動車302が地点Dを通過するまで再生を一時停止するように動画再生部85に指示する。これにより、所定の区間においてナビ自動車302の現在地点と動画フレームの映像とをほぼ同期させて表示させることができる。   Therefore, when the playback time of the moving image after the navigation car 302 passes the point D is less than ΔT, the navigation processing unit 86 causes the moving image playback unit 85 to skip to the moving image frame of the playback time ΔT and start playback. Instruct. If the playback time of the moving image reaches ΔT before the navigation car 302 passes the point D, the navigation processing unit 86 instructs the moving picture playback unit 85 to pause the playback until the navigation car 302 passes the point D. Instruct. As a result, the current location of the navigation automobile 302 and the video frame image can be displayed in a substantially synchronized manner in a predetermined section.

図13は、ナビゲーション装置4に係るナビゲーション画面の表示例である。ナビゲーション画面400は、地図領域401と、動画領域402と、操作領域403とを有する。   FIG. 13 is a display example of a navigation screen according to the navigation device 4. The navigation screen 400 includes a map area 401, a moving image area 402, and an operation area 403.

地図領域401には、地図、案内ルート及び現在地点等が表示される。動画領域402には、現在地点に対応する動画フレームの再生映像が表示される。操作領域403には、ナビゲーション及び動画再生に関する指示を行うためのボタンが表示される。   In the map area 401, a map, a guide route, a current location, and the like are displayed. In the moving image area 402, a playback image of a moving image frame corresponding to the current location is displayed. In the operation area 403, buttons for giving instructions regarding navigation and moving image reproduction are displayed.

図13に示す動画領域402には、動画区間P1〜P2に対応する動画データが再生されている。現在地点がP2を通過した時点に、動画区間P1〜P2に対応する動画データの再生が完了していない場合は、次の動画区間P2〜P3に対応する動画データの再生を開始する。現在地点がP2を通過する前に、動画区間P1〜P2に対応する動画データの再生が終了してしまった場合は、現在地点がP2を通過するまで、動画区間P1〜P2に対応する動画データの再生を一時停止する。   In the moving image area 402 shown in FIG. 13, moving image data corresponding to the moving image sections P1 and P2 is reproduced. If the reproduction of the moving image data corresponding to the moving image segments P1 to P2 is not completed when the current point passes P2, the reproduction of the moving image data corresponding to the next moving image segments P2 to P3 is started. If the playback of the video data corresponding to the video segments P1 to P2 has ended before the current location passes P2, the video data corresponding to the video segments P1 to P2 until the current location passes P2. Pause playback.

これにより、動画領域402に、現在地点と、その現在地点において撮影された動画フレームとを同期させて表示することができる。   Thereby, it is possible to display the current position and the moving image frame photographed at the current position in synchronization in the moving image area 402.

図14は、ルート候補の生成処理を示すフローチャートの例である。以下、図14を参照しながら、ルート候補の生成方法について説明する。   FIG. 14 is an example of a flowchart illustrating a route candidate generation process. Hereinafter, a route candidate generation method will be described with reference to FIG.

ルート候補生成部69は、ナビゲーション装置4から出発地及び目的地並びにルート検索条件を含むルート検索要求を受信すると(S101)、検索条件に友達又は嗜好に基づくおすすめ区間を優先してルート候補を生成する旨の指示があるか否かを判断する(S102)。   When the route candidate generation unit 69 receives a route search request including the departure point, the destination, and the route search condition from the navigation device 4 (S101), the route candidate generation unit 69 generates a route candidate by giving priority to a recommended section based on friends or preferences in the search condition. It is determined whether there is an instruction to do so (S102).

検索条件に友達又は嗜好に基づくおすすめ区間を優先してルート候補を生成する旨の指示がない場合(S102:NO)、ルート候補生成部69は、出発地から目的地までの通常(例えば、目的地まで最短時刻で到着し得る)のルート候補を生成し(S104)、ステップS105の処理に進む。   If there is no instruction to generate a route candidate in preference to a recommended section based on friends or preferences in the search condition (S102: NO), the route candidate generation unit 69 performs normal (for example, destination) from the departure point to the destination A route candidate that can arrive at the ground at the shortest time is generated (S104), and the process proceeds to step S105.

検索条件に友達又は嗜好に基づくおすすめ区間を優先してルート候補を生成する旨の指示がある場合(S102:YES)、ルート候補生成部69は、おすすめ区間を通るルート候補を生成し(S103)、ステップS105の処理に進む。このステップS103の処理の詳細については後述する。   When the search condition includes an instruction to generate a route candidate with priority on a recommended section based on friends or preferences (S102: YES), the route candidate generation unit 69 generates a route candidate that passes through the recommended section (S103). The process proceeds to step S105. Details of the processing in step S103 will be described later.

ルート候補生成部69は、その生成したルート候補上及びそのルート候補の周辺において撮影された動画データを抽出する(S105)。   The route candidate generation unit 69 extracts moving image data photographed on the generated route candidate and in the vicinity of the route candidate (S105).

ルート候補生成部69は、その生成したルート候補と、その抽出した動画データと、をナビゲーション装置4に提示する(S106)。   The route candidate generation unit 69 presents the generated route candidate and the extracted moving image data to the navigation device 4 (S106).

ルート候補生成部69は、ナビゲーション装置4から或る動画データを経由地に指定された場合は(S107:YES)、その動画データの撮影地点を経由地とするルート候補を生成し(S108)、ステップS109の処理に進む。一方、ルート候補生成部69は、ナビゲーション装置4から新たに動画データを経由地に指定されない場合は(S107:NO)、そのままステップS109の処理に進む。   When a certain moving image data is designated as a route point from the navigation device 4 (S107: YES), the route candidate generating unit 69 generates a route candidate having the shooting point of the moving image data as a route point (S108). The process proceeds to step S109. On the other hand, if no new moving image data is designated as a transit point from the navigation device 4 (S107: NO), the route candidate generation unit 69 proceeds to the process of step S109 as it is.

ルート候補生成部69は、ユーザからルート案内開始の指示がなされた場合(S1098:YES)、当該ルート生成処理を終了し、ルート案内処理を開始する。一方、ユーザからルート案内開始の指示がなされない場合(S109:NO)、ルート候補生成部69は、ステップS107の処理に戻る。   The route candidate generation unit 69 ends the route generation process and starts the route guidance process when the user gives an instruction to start route guidance (S1098: YES). On the other hand, when the user does not give an instruction to start route guidance (S109: NO), the route candidate generating unit 69 returns to the process of step S107.

図15は、おすすめ区間を通るルート候補の生成処理を示すフローチャートの例である。以下、図15を参照しながら、おすすめ区間を通るルート候補の生成方法について説明する。   FIG. 15 is an example of a flowchart illustrating a process for generating a route candidate passing through the recommended section. Hereinafter, a method for generating route candidates passing through the recommended section will be described with reference to FIG.

ルート候補生成部69は、ルート検索要求を送信したユーザのユーザID111の値(以下「ルート検索ユーザ」という)に対応するSNS情報110を、SNS情報DB62から抽出する(S201)。   The route candidate generation unit 69 extracts the SNS information 110 corresponding to the value of the user ID 111 of the user who transmitted the route search request (hereinafter referred to as “route search user”) from the SNS information DB 62 (S201).

ルート候補生成部69は、その抽出したSNS情報110から、ルート検索ユーザの友達等の情報と、ルート検索ユーザの属性及び嗜好等の情報と、を抽出する(S202)。   The route candidate generation unit 69 extracts information such as friends of the route search user and information such as attributes and preferences of the route search user from the extracted SNS information 110 (S202).

ルート候補生成部69は、その抽出した友達等が動画を撮影した区間と、その抽出した属性及び嗜好等に適合する動画が撮影された区間と、をおすすめ区間として抽出する(S203)。   The route candidate generation unit 69 extracts, as recommended sections, sections in which the extracted friends and the like have photographed moving images and sections in which moving images that match the extracted attributes and preferences are photographed (S203).

ルート候補生成部69は、その抽出したおすすめ区間と通るルート候補を生成する(S204)。   The route candidate generating unit 69 generates a route candidate that passes through the extracted recommended section (S204).

以上の処理により、ナビゲーション装置4は、ユーザが選択した動画が撮影された地点を経由地とするルート候補を提示できる。また、ナビゲーション装置4は、ユーザの友達が動画を撮影した地点を通過するルート候補を提示できる。また、ナビゲーション装置4は、ユーザの嗜好等に適合する動画が撮影された地点を通過するルート候補を提示できる。   Through the above processing, the navigation device 4 can present route candidates that use the point where the moving image selected by the user is taken as a transit point. Moreover, the navigation apparatus 4 can present the route candidate which passes the point which the user's friend imaged the moving image. Moreover, the navigation apparatus 4 can present a route candidate that passes through a point where a moving image that matches the user's preference or the like is taken.

図16は、走行シミュレーション処理又はルート案内処理を示すフローチャートの例である。以下、図15を参照しながら、走行シミュレーション又はルート案内の方法について説明する。   FIG. 16 is an example of a flowchart showing a travel simulation process or a route guidance process. Hereinafter, a method of running simulation or route guidance will be described with reference to FIG.

ナビゲーション処理部86は、ユーザから走行シミュレーションの実行開始又はルート案内開始が指示されると、ルート候補の1つを案内ルートとしてセットする(S301)。ナビゲーション処理部86は、そのセットした案内ルートに含まれる区間情報100を、ルート情報DBから抽出する(S302)。   The navigation processing unit 86 sets one of route candidates as a guide route when an instruction to start running simulation or start route guidance is given by the user (S301). The navigation processing unit 86 extracts the section information 100 included in the set guidance route from the route information DB (S302).

ナビゲーション処理部86は、その区間情報100に含まれる動画データの再生開始地点と再生終了地点とを、案内ルート上にセットする(S303)。   The navigation processing unit 86 sets the reproduction start point and reproduction end point of the moving image data included in the section information 100 on the guidance route (S303).

ナビゲーション処理部86は、ルート案内を開始する(S304)。ナビゲーション処理部86は、地点特定部87から定期的に現在地点を取得する(S305)。ナビゲーション処理部86は、現在地点が動画再生区間内であるか否かを判定する(S306)。   The navigation processing unit 86 starts route guidance (S304). The navigation processing unit 86 periodically acquires the current location from the location specifying unit 87 (S305). The navigation processing unit 86 determines whether or not the current location is within the moving image playback section (S306).

現在地点が動画再生区間外である場合(S306:NO)、ナビゲーション処理部86は、現在地点が動画データの再生開始地点を通過したか否かを判定する(S310)。ここで、現在地点が動画データの再生開始地点を通過した場合(S310:YES)、ナビゲーション処理部86は、その区間に対応する動画データの再生を開始し(S311)、ステップS312の処理に進む。現在地点が動画データの再生開始地点を通過していない場合(S310:NO)、ナビゲーション処理部86は、特に何もせずにステップS312の処理に進む。   When the current location is outside the video playback section (S306: NO), the navigation processing unit 86 determines whether or not the current location has passed the video data playback start location (S310). Here, when the current point passes the reproduction start point of the moving image data (S310: YES), the navigation processing unit 86 starts reproducing the moving image data corresponding to the section (S311), and proceeds to the process of step S312. . If the current point does not pass the reproduction start point of the moving image data (S310: NO), the navigation processing unit 86 proceeds to the process of step S312 without doing anything.

ステップS306において、現在地点が動画データの再生区間内である場合(S306:YES)、ナビゲーション処理部86は、現在地点が動画データの再生終了地点を通過したか否かを判定する(S307)。ここで、現在地点が動画データの再生終了地点を通過した場合(S307:YES)、ナビゲーション処理部86は、その区間に対応する動画データの再生を終了し(S308)、ステップS312の処理に進む。一方、現在地点が動画データの再生終了地点を通過していない場合(S307:NO)、ナビゲーション処理部86は、引き続き動画再生を継続し(S309)、ステップS312の処理に進む。   In step S306, when the current location is within the playback section of the video data (S306: YES), the navigation processing unit 86 determines whether or not the current location has passed the playback end location of the video data (S307). Here, when the current point passes the reproduction end point of the moving image data (S307: YES), the navigation processing unit 86 ends the reproduction of the moving image data corresponding to the section (S308), and proceeds to the process of step S312. . On the other hand, when the current point does not pass the reproduction end point of the moving image data (S307: NO), the navigation processing unit 86 continues to reproduce the moving image (S309), and proceeds to the process of step S312.

ナビゲーション処理部86は、現在地点が目的地付近に到着したか否かを判定する(S312)。現在地点が目的地付近に到着していない場合(S312:NO)、ナビゲーション処理部86は、ステップS305の処理に戻る。現在地点が目的地付近に到着している場合(S312:YES)、ナビゲーション処理部86は、当該処理を終了する。   The navigation processing unit 86 determines whether or not the current point has arrived near the destination (S312). If the current point has not arrived near the destination (S312: NO), the navigation processing unit 86 returns to the process of step S305. If the current location has arrived near the destination (S312: YES), the navigation processing unit 86 ends the processing.

図17は、現在地点に適合するように動画を再生する処理を示すフローチャートの例である。以下、図16を用いて、図15のステップS309に係る動画再生の処理を詳細に説明する。   FIG. 17 is an example of a flowchart showing a process of playing back a moving image so as to match the current location. Hereinafter, the moving image reproduction processing according to step S309 in FIG. 15 will be described in detail with reference to FIG.

ナビゲーション処理部86は、現在地点が新しいサブ区間に移行したか否かを判定する(S401)。   The navigation processing unit 86 determines whether or not the current location has shifted to a new subsection (S401).

現在地点が新しいサブ区間に移行した場合(S401:NO)、ナビゲーション処理部86は、動画再生部85を制御して、その新しいサブ区間に対応する動画時間までスキップして再生する(S402)。すなわち、前回のサブ区間に対応する動画の再生が途中であっても、現在地点が新しいサブ区間に移行した場合は、その新しいサブ区間に対応する動画の再生を開始する。   When the current location is shifted to a new sub-section (S401: NO), the navigation processing unit 86 controls the moving picture reproduction unit 85 to skip and reproduce the moving picture time corresponding to the new sub-section (S402). In other words, even when the video corresponding to the previous sub-section is being played back, if the current location is shifted to a new sub-section, the playback of the video corresponding to the new sub-section is started.

現在地点が新しいサブ区間に移行していない(同じサブ区間の)場合(S401:YES)、ナビゲーション処理部86は、そのサブ区間に対応する動画の再生を完了したか否かを判定する(S403)。   If the current location has not shifted to a new subsection (same subsection) (S401: YES), the navigation processing unit 86 determines whether or not the reproduction of the moving image corresponding to the subsection has been completed (S403). ).

そのサブ区間に対応する動画の再生が完了した場合(S403:YES)、ナビゲーション処理部86は動画再生部85を制御して、その時点で動画の再生を一時停止する(S404)。すなわち、現在地点が新しいサブ区間に移行して新しいサブ区間に対応する動画の再生が開始されるまで動画の再生一時停止する。   When the reproduction of the moving image corresponding to the sub-section is completed (S403: YES), the navigation processing unit 86 controls the moving image reproducing unit 85, and temporarily stops the reproduction of the moving image (S404). That is, the playback of the moving image is paused until the current point moves to the new sub-section and the playback of the moving image corresponding to the new sub-section is started.

サブ区間に対応する動画の再生が完了していない場合(S403:NO)、ナビゲーション処理部86は動画再生部85を制御して、引き続き動画を再生する(S403)。   When the reproduction of the moving image corresponding to the sub-section has not been completed (S403: NO), the navigation processing unit 86 controls the moving image reproducing unit 85 to continuously reproduce the moving image (S403).

以上の処理により、ナビゲーション装置4は、現在地点と、その現在地点で撮影された動画をほぼ同期させて再生することができる。すなわち、ナビゲーション装置4は、現在地点で撮影された動画フレームを表示することができる。   Through the above processing, the navigation device 4 can reproduce the current location and the moving image taken at the current location almost in synchronization. That is, the navigation device 4 can display a moving image frame shot at the current location.

第2の実施形態では、ナビゲーション装置4において、現在地点と、その現在地点で撮影された動画をほぼ同期させて再生する場合の変形例を示す。   In the second embodiment, in the navigation device 4, a modification is shown in the case where the current location and a moving image shot at the current location are played back almost synchronously.

図18は、第2の実施形態に係る撮影装置94の機能構成の一例を示すブロック図である。撮影装置は、地点特定部51と、撮影部52と、区間情報生成部96と、動画記憶部54と、区間情報記憶部55と、送信部56と、速度検出部95と、動画圧縮部96とを有する。以下、図5に示した撮影装置2と相違する機能ブロックについてのみ説明し、同様の機能ブロックについては同じ符号を付して説明を省略する。   FIG. 18 is a block diagram illustrating an example of a functional configuration of the imaging device 94 according to the second embodiment. The photographing apparatus includes a point specifying unit 51, a photographing unit 52, a section information generating unit 96, a moving image storage unit 54, a section information storing unit 55, a transmitting unit 56, a speed detecting unit 95, and a moving image compressing unit 96. And have. Hereinafter, only functional blocks different from those of the imaging device 2 illustrated in FIG. 5 will be described, and the same functional blocks are denoted by the same reference numerals and description thereof is omitted.

速度検出部95は、撮影装置94の現在の速度を検出又は算出する。速度検出部95は、撮影装置94が備える速度検出デバイス(不図示)が検出した走行速度に関する情報(以下「速度情報」という)に基づいて現在の走行速度を検出する。又は、速度検出部95は、地点特定部51によって所定の周期で測位される地点情報の時間的な移動距離に基づいて、現在の速度を算出しても良い。   The speed detection unit 95 detects or calculates the current speed of the imaging device 94. The speed detector 95 detects the current travel speed based on information (hereinafter referred to as “speed information”) related to the travel speed detected by a speed detection device (not shown) included in the photographing apparatus 94. Alternatively, the speed detection unit 95 may calculate the current speed based on the temporal movement distance of the point information measured by the point specifying unit 51 at a predetermined cycle.

区間情報生成部96は、図5に示した区間情報生成部53が有する機能に加えて、撮影動画に走行速度を対応付けた区間情報800(図19参照)を生成する。すなわち、区間情報生成部96は、速度検出部95から速度情報を取得し、撮影中の動画の所定区間(又は所定フレーム)に対応付ける。以下、区間情報800のデータの一例を参照しながら、区間情報生成部96の機能について更に説明する。   The section information generation unit 96 generates section information 800 (see FIG. 19) in which the traveling speed is associated with the captured moving image in addition to the functions of the section information generation unit 53 illustrated in FIG. That is, the section information generation unit 96 acquires speed information from the speed detection unit 95 and associates it with a predetermined section (or a predetermined frame) of the moving image being shot. Hereinafter, the function of the section information generation unit 96 will be further described with reference to an example of the data of the section information 800.

図19は、第2の実施形態に係る区間情報800のデータの一例を示すデータ構成図である。   FIG. 19 is a data configuration diagram showing an example of the data of the section information 800 according to the second embodiment.

区間情報800は、例えば、データ項目として、区間ID101と、動画ID102と、動画フレーム103と、測位日時104と、経度105及び緯度106と、速度107を有する。データ項目101〜106については、図6を用いて説明済みなので、ここでの説明を省略する。   The section information 800 includes, for example, a section ID 101, a moving picture ID 102, a moving picture frame 103, a positioning date and time 104, a longitude 105 and a latitude 106, and a speed 107 as data items. Since the data items 101 to 106 have been described with reference to FIG. 6, description thereof is omitted here.

速度107は、いわゆるサブ区間における撮影装置94の走行速度である。区間情報生成部96は、速度107の値を、サブ区間における走行速度の平均としても良いし、サブ区間の或る瞬間における走行速度としても良い。図18の説明に戻る。   The speed 107 is a traveling speed of the photographing device 94 in a so-called sub-section. The section information generation unit 96 may use the value of the speed 107 as the average of the traveling speeds in the sub-sections or the traveling speed at a certain moment in the sub-sections. Returning to the description of FIG.

動画圧縮部97は、撮影された動画データがセンタサーバ3に送信される前に、区間情報800に基づいて動画データを圧縮する。例えば、動画圧縮部97は、図19に示した
区間情報800に基づいて、速度107の値が「0」であるサブ区間801b及び801cに対応する動画フレームを間引く(又は圧縮する)。なぜなら、速度107の値が「0」と言うことは、撮影装置94が(例えば、信号待ち等で)停止している状態であり、そこで撮影されている映像は同じ地点を撮影し続けているだけの可能性が高いからである。これにより、撮影装置94は、動画データをより短時間でセンタサーバ3にアップロードすることができる。また、ナビゲーション装置90は、動画データをより短時間でセンタサーバ3からダウンロードすることができる。
The moving image compression unit 97 compresses moving image data based on the section information 800 before the captured moving image data is transmitted to the center server 3. For example, the moving image compression unit 97 thins out (or compresses) moving image frames corresponding to the sub-intervals 801b and 801c having the speed 107 value of “0” based on the interval information 800 illustrated in FIG. This is because when the value of the speed 107 is “0”, the photographing apparatus 94 is stopped (for example, waiting for a signal), and the image being photographed continues to photograph the same point. This is because there is a high possibility of only. Thereby, the imaging device 94 can upload the moving image data to the center server 3 in a shorter time. Further, the navigation device 90 can download the moving image data from the center server 3 in a shorter time.

図20は、第2の実施形態に係るナビゲーション装置90の機能構成の一例を示すブロック図である。   FIG. 20 is a block diagram illustrating an example of a functional configuration of the navigation device 90 according to the second embodiment.

ナビゲーション装置90は、送受信部81と、ルート検索部82と、動画記憶部54と、ルート情報記憶部84と、ナビゲーション処理部91と、動画再生部92と、地点特定部87と、速度検出部93とを有する。以下、図10に示したナビゲーション装置4と相違する機能ブロックについてのみ説明し、同様の機能ブロックについては同じ符号を付して説明を省略する。   The navigation device 90 includes a transmission / reception unit 81, a route search unit 82, a moving image storage unit 54, a route information storage unit 84, a navigation processing unit 91, a moving image playback unit 92, a point specifying unit 87, and a speed detection unit. 93. Hereinafter, only functional blocks different from the navigation device 4 shown in FIG. 10 will be described, and the same functional blocks will be denoted by the same reference numerals and description thereof will be omitted.

速度検出部93は、ナビゲーション装置90の現在の速度を検出又は算出する。速度検出部93は、ナビゲーション装置90が備える速度検出デバイス(不図示)が検出した速度情報に基づいて現在の速度を検出する。又は、速度検出部93は、地点特定部87によって所定の周期で測位される地点情報の時間的な移動距離に基づいて、現在の速度を算出しても良い。   The speed detection unit 93 detects or calculates the current speed of the navigation device 90. The speed detector 93 detects the current speed based on speed information detected by a speed detection device (not shown) included in the navigation device 90. Alternatively, the speed detection unit 93 may calculate the current speed based on the temporal movement distance of the point information measured by the point specifying unit 87 at a predetermined cycle.

ナビゲーション処理部91は、動画再生区間において、速度検出部93にて検出されたナビゲーション装置90の現在の速度と、現在地点における動画が撮影されたときの速度との比率(以下「再生比率」という)を算出する。そして、ナビゲーション処理部91は動画再生部92を制御して、再生比率に示す再生速度で動画を再生する。この処理の詳細については後述する。他の処理については図10に示すナビゲーション処理部86と同様であるので説明を省略する。動画再生部92は、ナビゲーション処理部91からの指示された再生速度で動画を再生する。   The navigation processing unit 91 is a ratio between the current speed of the navigation device 90 detected by the speed detection unit 93 and the speed at which the video at the current location was shot (hereinafter referred to as “playback ratio”) in the video playback section. ) Is calculated. Then, the navigation processing unit 91 controls the moving image reproduction unit 92 to reproduce the moving image at the reproduction speed indicated by the reproduction ratio. Details of this processing will be described later. Other processes are the same as those of the navigation processing unit 86 shown in FIG. The moving image reproducing unit 92 reproduces the moving image at the reproduction speed instructed from the navigation processing unit 91.

図21は、ナビゲーション装置90の走行速度に基づいて動画の再生速度を制御する処理を示すフローチャートの例である。   FIG. 21 is an example of a flowchart showing a process for controlling the moving image playback speed based on the traveling speed of the navigation device 90.

ステップS501〜S504の処理は、図16に示すステップS401〜S404の処理と同様なので説明を省略する。以下、ステップS505以降の処理のみを説明する。   The processing in steps S501 to S504 is the same as the processing in steps S401 to S404 shown in FIG. Hereinafter, only the processing after step S505 will be described.

ナビゲーション処理部91は、現在地点に係るサブ区間を撮影した撮影装置2の走行速度「V1」を取得又は算出する(S505)。   The navigation processing unit 91 acquires or calculates the traveling speed “V1” of the imaging device 2 that has captured the sub-section related to the current location (S505).

ナビゲーション処理部91は、現在地点に係るナビゲーション装置90の走行速度「V2」を算出する(S506)。   The navigation processing unit 91 calculates the traveling speed “V2” of the navigation device 90 related to the current location (S506).

ナビゲーション処理部91は動画再生部85を制御して、このサブ区間に対応する動画データを「V2/V1」倍の再生速度で再生する(S507)。   The navigation processing unit 91 controls the moving image reproducing unit 85 to reproduce the moving image data corresponding to this sub-section at a reproduction speed “V2 / V1” (S507).

以上の処理により、ナビゲーション装置90は、現在地点と、その現在地点で撮影された動画データとをより同期させて再生することができる。すなわち、ナビゲーション装置90は、現在地点で撮影された動画フレームの映像を表示することができる。   Through the above processing, the navigation device 90 can reproduce the current location and the moving image data captured at the current location more synchronously. That is, the navigation device 90 can display the video of the moving image frame captured at the current location.

上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。   The above-described embodiments of the present invention are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention.

例えば、本実施形態では、センタサーバ3でルート候補を生成しているが、ナビゲーション装置4でルート候補を生成しても良い。この場合、例えば、次の処理を行う。ナビゲーション装置4は、センタサーバ3にユーザIDとの値を送信し、そのユーザIDの値に対応する友達が動画を撮影した区間及びユーザの嗜好等に適合する動画が撮影された区間の情報とその動画データを取得する。そして、ナビゲーション装置4は、これら取得した動画データをユーザに提示する。ユーザが或る動画データを経由地として指定すると、ナビゲーション装置4は、出発地からその動画データが撮影された区間を通って目的地に到着し得るルート候補を生成する。これにより、センタサーバ3が、ルート候補を生成する機能を有さない場合であっても、本実施形態を実現できる。   For example, in the present embodiment, the route candidate is generated by the center server 3, but the route candidate may be generated by the navigation device 4. In this case, for example, the following processing is performed. The navigation device 4 transmits the value of the user ID to the center server 3, information on a section where a friend corresponding to the value of the user ID has shot a video, and a section where a video that matches the user's preferences is shot, Get the video data. Then, the navigation device 4 presents the acquired moving image data to the user. When the user designates certain moving image data as a transit point, the navigation device 4 generates route candidates that can arrive at the destination from the departure point through the section where the moving image data was captured. Thereby, even if the center server 3 does not have a function of generating route candidates, this embodiment can be realized.

1…ナビゲーションシステム 2,94…撮影装置 3…センタサーバ 4,90…ナビゲーション装置
DESCRIPTION OF SYMBOLS 1 ... Navigation system 2,94 ... Shooting device 3 ... Center server 4,90 ... Navigation device

Claims (7)

所定の地点で撮影された動画データと、前記動画データの撮影地点と、前記動画データを撮影したユーザと、の対応関係を有する動画情報を管理する動画管理手段と、
ユーザ同士の関係性を有する関係性情報を管理する関係性管理手段と、
或るユーザから出発地から目的地までのルート検索を要求されると、前記関係性情報に基づいて前記或るユーザと関係性の高い他のユーザを抽出し、前記動画情報に基づいて前記他のユーザが撮影した動画データを特定し、前記出発地から当該動画データの撮影地点を経由して前記目的地に到達し得るルート候補を生成するルート候補生成手段と
を備えるナビゲーションシステム。
Movie management means for managing movie information having a correspondence relationship between movie data shot at a predetermined point, a shooting point of the movie data, and a user who shot the movie data;
A relationship management means for managing relationship information having relationships between users;
When a route search from a departure point to a destination is requested by a certain user, another user having a high relationship with the certain user is extracted based on the relationship information, and the other user is extracted based on the moving image information. A navigation system comprising: route candidate generation means for specifying moving image data shot by a user and generating a route candidate that can reach the destination from the departure point via the shooting point of the moving image data.
ユーザの嗜好を有する嗜好情報を管理する嗜好情報管理手段と、
動画データの特徴を有する特徴情報を管理する特徴情報管理手段と、
を更に備え、
前記ルート候補生成手段は、更に、前記嗜好情報に基づいて前記或るユーザの嗜好を特定し、その特定した嗜好と適合する特徴を有する動画データを抽出し、前記出発地から当該動画データの撮影地点を経由して前記目的地に到達し得るルート候補を生成する
ことを特徴とする請求項1に記載のナビゲーションシステム。
Preference information management means for managing preference information having user preferences;
Feature information management means for managing feature information having features of video data;
Further comprising
The route candidate generation means further identifies the preference of the certain user based on the preference information, extracts moving image data having characteristics that match the identified preference, and captures the moving image data from the departure location. The navigation system according to claim 1, wherein a route candidate that can reach the destination via a point is generated.
前記動画データの特徴は、前記動画データの映像又は前記動画データの撮影地点付近のPOI(Point Of Interesting)情報、若しくはこれらの組み合わせに基づいて抽出される
ことを特徴とする請求項2に記載のナビゲーションシステム。
The feature of the moving image data is extracted based on a video of the moving image data, POI (Point Of Interesting) information in the vicinity of a shooting point of the moving image data, or a combination thereof. Navigation system.
前記或るユーザと関係性の高い1以上の前記動画データを提示可能な提示手段と、
前記提示手段によって提示された1以上の前記動画データから、1以上の前記動画データを選択可能な選択手段と、を更に備え、
前記選択手段によって1以上の動画データが選択された場合、
前記ルート候補生成手段は、前記出発地から、前記選択された1以上の前記動画データの撮影地点を経由して、前記目的地に到達し得るルート候補を生成する
ことを特徴とする請求項1乃至3のいずれか1項に記載のナビゲーションシステム。
Presenting means capable of presenting one or more moving image data highly related to the certain user;
Selecting means capable of selecting one or more moving image data from the one or more moving image data presented by the presenting means;
When one or more moving image data is selected by the selection unit,
The route candidate generation means generates a route candidate that can reach the destination from the departure point via the selected shooting point of the one or more moving image data. 4. The navigation system according to any one of items 1 to 3.
前記提示手段は、前記出発地から前記目的地まで所定の時間内で到達し得るルート上及びそのルートの周辺に撮影地点を有する動画データのみを提示する
ことを特徴とする請求項4に記載のナビゲーションシステム。
The presenting means presents only video data having shooting points on and around a route that can be reached within a predetermined time from the starting point to the destination. Navigation system.
或るユーザから出発地から目的地までのルート検索を要求されると、ユーザ同士の関係性を有する関係性情報に基づいて前記或るユーザと関係性の高い他のユーザを抽出し、所定の地点で撮影された動画データと、前記動画データの撮影地点と、前記動画データを撮影したユーザとの対応関係を有する動画情報に基づいて前記他のユーザが撮影した動画データを特定し、前記出発地から当該動画データの撮影地点を経由して前記目的地に到達し得るルート候補を生成する
ナビゲーション方法。
When a route search from a departure point to a destination is requested from a certain user, another user having a high relationship with the certain user is extracted based on the relationship information having the relationship between the users, The video data shot by the other user is identified based on the video data shot at the point, the video data shooting point of the video data, and the video information having a correspondence relationship with the user who shot the video data, and the departure A navigation method for generating route candidates that can reach the destination from the ground via the shooting point of the moving image data.
コンピュータに実行されると、
或るユーザから出発地から目的地までのルート検索を要求されると、ユーザ同士の関係性を有する関係性情報に基づいて前記或るユーザと関係性の高い他のユーザを抽出し、所定の地点で撮影された動画データと、前記動画データの撮影地点と、前記動画データを撮影したユーザとの対応関係を有する動画情報に基づいて前記他のユーザが撮影した動画データを特定し、前記出発地から当該動画データの撮影地点を経由して前記目的地に到達し得るルート候補を生成する
ナビゲーションプログラム。
When executed on a computer,
When a route search from a departure point to a destination is requested from a certain user, another user having a high relationship with the certain user is extracted based on the relationship information having the relationship between the users, The video data shot by the other user is identified based on the video data shot at the point, the video data shooting point of the video data, and the video information having a correspondence relationship with the user who shot the video data, and the departure A navigation program for generating route candidates that can reach the destination from the ground via the shooting point of the video data.
JP2011286598A 2011-12-27 2011-12-27 Navigation system, method, and computer program Pending JP2013134228A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011286598A JP2013134228A (en) 2011-12-27 2011-12-27 Navigation system, method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011286598A JP2013134228A (en) 2011-12-27 2011-12-27 Navigation system, method, and computer program

Publications (1)

Publication Number Publication Date
JP2013134228A true JP2013134228A (en) 2013-07-08

Family

ID=48911001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011286598A Pending JP2013134228A (en) 2011-12-27 2011-12-27 Navigation system, method, and computer program

Country Status (1)

Country Link
JP (1) JP2013134228A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069258A (en) * 2013-09-27 2015-04-13 大日本印刷株式会社 Video capturing/reproduction system, video capturing/reproduction method, video sharing server, video sharing method, and program
JP2016200884A (en) * 2015-04-08 2016-12-01 株式会社ユニモト Sightseeing customer invitation system, sightseeing customer invitation method, database for sightseeing customer invitation, information processor, communication terminal device and control method and control program therefor
JP2017224242A (en) * 2016-06-17 2017-12-21 アルパイン株式会社 Information provision device, method, and program
JP2018029290A (en) * 2016-08-18 2018-02-22 株式会社東芝 Moving image reproduction apparatus, moving image reproduction system, and moving image reproduction method
JP2020107291A (en) * 2018-12-28 2020-07-09 株式会社デンソーテン In-vehicle apparatus, data collection system, and control method of in-vehicle apparatus
JP2020135835A (en) * 2019-02-26 2020-08-31 株式会社富士通アドバンストエンジニアリング Video retrieval program, video retrieval method and video retrieval device
US10895464B2 (en) 2018-01-09 2021-01-19 Toyota Jidosha Kabushiki Kaisha Navigation device, recording medium storing navigation program, and navigation system
JP2021131914A (en) * 2020-11-27 2021-09-09 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Navigation map evaluation method, apparatus, device and readable storage medium
US11391593B2 (en) 2018-01-17 2022-07-19 Toyota Jidosha Kabushiki Kaisha Vehicle-mounted device, server, navigation system, recording medium storing map display program, and map display method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069258A (en) * 2013-09-27 2015-04-13 大日本印刷株式会社 Video capturing/reproduction system, video capturing/reproduction method, video sharing server, video sharing method, and program
JP2016200884A (en) * 2015-04-08 2016-12-01 株式会社ユニモト Sightseeing customer invitation system, sightseeing customer invitation method, database for sightseeing customer invitation, information processor, communication terminal device and control method and control program therefor
JP2017224242A (en) * 2016-06-17 2017-12-21 アルパイン株式会社 Information provision device, method, and program
JP2018029290A (en) * 2016-08-18 2018-02-22 株式会社東芝 Moving image reproduction apparatus, moving image reproduction system, and moving image reproduction method
US10895464B2 (en) 2018-01-09 2021-01-19 Toyota Jidosha Kabushiki Kaisha Navigation device, recording medium storing navigation program, and navigation system
US11391593B2 (en) 2018-01-17 2022-07-19 Toyota Jidosha Kabushiki Kaisha Vehicle-mounted device, server, navigation system, recording medium storing map display program, and map display method
JP2020107291A (en) * 2018-12-28 2020-07-09 株式会社デンソーテン In-vehicle apparatus, data collection system, and control method of in-vehicle apparatus
JP2020135835A (en) * 2019-02-26 2020-08-31 株式会社富士通アドバンストエンジニアリング Video retrieval program, video retrieval method and video retrieval device
JP7227475B2 (en) 2019-02-26 2023-02-22 富士通株式会社 Video search program, video search method, and video search device
JP2021131914A (en) * 2020-11-27 2021-09-09 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Navigation map evaluation method, apparatus, device and readable storage medium
JP7204822B2 (en) 2020-11-27 2023-01-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Navigation map evaluation method, device, equipment and readable storage medium

Similar Documents

Publication Publication Date Title
JP2013134228A (en) Navigation system, method, and computer program
US8264570B2 (en) Location name registration apparatus and location name registration method
US9990585B2 (en) Information processing apparatus, information processing method and computer-readable storage medium for generating course information
US20120268620A1 (en) Information providing apparatus, information providing method, and program
JP6083752B2 (en) Driving support method, center device, driving support system
KR101643238B1 (en) Cooperative provision of personalized user functions using shared and personal devices
AU2012223882A1 (en) Method and apparatus for sharing media based on social network in communication system
US9014969B2 (en) Guidance system, server, terminal device, and guidance method
JP2009239397A (en) Imaging apparatus, imaging system, control method of imaging apparatus, and control program
JP5858754B2 (en) Imaging apparatus, display method, and program
JP7028608B2 (en) Information processing equipment, information processing methods, and programs
JP2011053103A (en) Data server for transmitting map and animation, and linkage display system for animation-map
US9185461B2 (en) Spot notification method, spot notification device, and spot notification device program
JP2006338553A (en) Content reproducing device
CN114398554A (en) Content search method, device, equipment and medium
JP2019121319A (en) Vehicle photographing support device and program
US20140333786A1 (en) System and method for remotely creating and processing media files
JP2013134225A (en) Navigation device, system, method, and computer program
JP2012019374A (en) Electronic album creation server, information processor, electronic album creation system, and control method of electronic album creation server
JP5511001B2 (en) Imaging apparatus, imaging guide system, and program
JP2015018421A (en) Terminal device, contribution information transmission method, contribution information transmission program, and contribution information sharing system
JP2013021473A (en) Information processing device, information acquisition method, and computer program
JP2012253421A (en) Image display device, imaging apparatus, and image display program
JP2014194710A (en) Information distribution system dependent on user attribute
JP2014233007A (en) Image processing apparatus, image processing system, image processing method, and program