JP5987357B2 - Server, electronic device system and program - Google Patents

Server, electronic device system and program Download PDF

Info

Publication number
JP5987357B2
JP5987357B2 JP2012044311A JP2012044311A JP5987357B2 JP 5987357 B2 JP5987357 B2 JP 5987357B2 JP 2012044311 A JP2012044311 A JP 2012044311A JP 2012044311 A JP2012044311 A JP 2012044311A JP 5987357 B2 JP5987357 B2 JP 5987357B2
Authority
JP
Japan
Prior art keywords
image
moving image
server
moving
viewer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012044311A
Other languages
Japanese (ja)
Other versions
JP2013183218A5 (en
JP2013183218A (en
Inventor
裕之 秋谷
裕之 秋谷
靖弘 高田
靖弘 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012044311A priority Critical patent/JP5987357B2/en
Publication of JP2013183218A publication Critical patent/JP2013183218A/en
Publication of JP2013183218A5 publication Critical patent/JP2013183218A5/ja
Application granted granted Critical
Publication of JP5987357B2 publication Critical patent/JP5987357B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、サーバ、電子機器システムおよびプログラムに関する。
The present invention relates to a server , an electronic device system, and a program.

GPS受信機で取得した位置情報(緯度,経度情報)を動画に対応づけて記録可能な電子カメラが知られている。また、このような位置情報付き動画と地図とをリンクさせ、地図上の任意の位置に、その位置で撮像した動画が存在するか否かを明示するシステムも知られている。ある位置で撮影した動画が存在する場合は、地図上の該当する位置にその動画の1フレームをサムネイル表示し、サムネイル画像の選択操作がなされると、その動画を再生する。さらに、地図上の指定位置に複数の動画がある場合に、再生する動画の選択を容易に行えるようにしたものもある(例えば、特許文献1参照)。   There is known an electronic camera capable of recording position information (latitude and longitude information) acquired by a GPS receiver in association with a moving image. In addition, a system that links such a moving image with position information and a map and clearly indicates whether or not a moving image captured at that position exists at an arbitrary position on the map is also known. If there is a moving image shot at a certain position, one frame of the moving image is displayed as a thumbnail at the corresponding position on the map, and when a thumbnail image selection operation is performed, the moving image is reproduced. Furthermore, when there are a plurality of moving images at a specified position on the map, there is one that can easily select a moving image to be reproduced (for example, see Patent Document 1).

特開2009−147542号公報JP 2009-147542 A

しかしながら、一般に地図上で選択した動画を再生する際に、その動画の主要部分を頭出しする機能はないため、特に参考にならない(見たくない)シーンをも含めて動画を観賞しなければならず、時間の無駄である。   However, in general, when playing a video selected on a map, there is no function to cue out the main part of the video, so you must watch the video including scenes that are not particularly useful (you do not want to see them). It is a waste of time.

本発明に係るサーバは、投稿された複数の動画像の各々に代表画像が設定され、設定された各々の前記代表画像を閲覧者の端末に同時に表示させるサーバであって、前記閲覧者の端末に記憶され、前記複数の動画像に含まれる第1動画像の第1代表画像に関する情報を、前記閲覧者の端末から取得する取得部と、前記取得部によって前記第1代表画像に関する情報を取得した場合、前記第1動画像に設定された第2代表画像に変えて、前記第1代表画像を前記第1動画像の代表画像として前記閲覧者の端末に送信する制御部とを備える。
本発明に係る電子機器システムは、請求項1から請求項16のいずれか一項に記載のサーバと、前記閲覧者の端末とを備える。
本発明に係るプログラムは、投稿された複数の動画像の各々に代表画像が設定され、設定された各々の前記代表画像を閲覧者の端末に同時に表示させるサーバのコンピュータに実行させるためのプログラムであって、前記閲覧者の端末に記憶され、前記複数の動画像に含まれる第1動画像の第1代表画像に関する情報を、前記閲覧者の端末から取得する処理と、前記第1代表画像に関する情報を取得した場合、前記第1動画像に設定された第2代表画像に変えて、前記第1代表画像を前記第1動画像の代表画像として前記閲覧者の端末に送信する処理とをサーバのコンピュータに実行させる。
Server according to the present invention is representative images set to each of a plurality of moving images posted, a server for displaying simultaneously the representative image of each set in the viewer's terminal, the viewer terminal And acquiring information related to the first representative image of the first moving image included in the plurality of moving images from the browser terminal, and acquiring information related to the first representative image by the acquiring unit. If you, and a first place of the second representative image set in the moving image, the control unit transmitting the first representative image in the viewer's terminal as a representative image of the first moving image.
Electronic device system according to the present invention includes a server as claimed in any one of claims 16, and a terminal of the viewer.
The program according to the present invention is a program for causing a computer of a server to display a representative image for each of a plurality of posted moving images and to display each of the set representative images simultaneously on a viewer's terminal. A process of acquiring information about a first representative image of a first moving image stored in the viewer's terminal and included in the plurality of moving images from the viewer's terminal ; and when acquiring the information, the first change to the second representative image set in the moving image, the process and a server to be transmitted to the viewer's terminal a first representative image as a representative image of the first moving picture To run on a computer.

本発明によれば、ユーザが地図上で選択した動画の主要部分を直ぐに見ることができる。   According to the present invention, it is possible to immediately see the main part of the moving image selected by the user on the map.

本発明の一実施形態における動画再生システムの構成図。The block diagram of the moving image reproduction system in one Embodiment of this invention. 動画再生システム(動画共有サービス)のサーバで実行される処理の手順例を示すフローチャート。The flowchart which shows the example of a procedure of the process performed by the server of a moving image reproduction system (moving image sharing service). インデックス処理の詳細を示すフローチャート。The flowchart which shows the detail of an index process. インデックス作成A処理の詳細を示すフローチャート。The flowchart which shows the detail of index creation A process. インデックス作成B処理の詳細を示すフローチャート。The flowchart which shows the detail of index creation B process. インデックス作成C処理の詳細を示すフローチャート。The flowchart which shows the detail of index creation C process. インデックス作成D処理の詳細を示すフローチャート。The flowchart which shows the detail of index creation D process. インデックス作成E処理の詳細を示すフローチャート。The flowchart which shows the detail of index creation E process. インデックス作成F処理の詳細を示すフローチャート。The flowchart which shows the detail of index creation F process. インデックス作成G処理の詳細を示すフローチャート。The flowchart which shows the detail of index creation G process. 地図表示の初期画面を示す図。The figure which shows the initial screen of a map display. 地図上における動画ルートおよびインデックス画像の表示例を示す図。The figure which shows the example of a display of the moving image route and index image on a map. 図12と同様の図で、「ランドマーク」選択時の表示例を示す図。FIG. 13 is a view similar to FIG. 12 and showing a display example when “Landmark” is selected. 「ランドマーク」選択時の他の表示例を示す図。The figure which shows the other example of a display at the time of "landmark" selection. 「ランドマーク」選択時の他の表示例を示す図。The figure which shows the other example of a display at the time of "landmark" selection. 「ランドマーク」選択時の他の表示例を示す図。The figure which shows the other example of a display at the time of "landmark" selection. 検索を行った場合の表示例を示す図。The figure which shows the example of a display at the time of searching. 検索を行った場合の他の表示例を示す図。The figure which shows the other example of a display at the time of searching.

図1〜図18により本発明の実施の形態を説明する。
以下に説明する動画再生装置(システム)は、表示された地図で特定される地域に関連する動画を再生可能とするもので、特にカメラを移動させながら撮影した動画(例えば、自動車、自転車、航空機などに搭載したカメラで撮影した動画や、歩きながら撮影した動画)を再生する際の便宜を図ったものである。
An embodiment of the present invention will be described with reference to FIGS.
A moving image playback apparatus (system) described below is capable of playing back a moving image related to an area specified by a displayed map, and particularly, a moving image (for example, an automobile, a bicycle, an aircraft, etc.) shot while moving a camera. For example, a movie taken with a camera mounted on the camera or a movie taken while walking) is played back.

動画撮影が可能なカメラ(ビデオカメラや動画機能付きデジタルスチルカメラなど)のうち、GPS受信機を備えたものでは、所定時間おきに動画ファイルにカメラの位置情報(撮影位置情報)を埋め込むことができる。本装置では、その位置情報を利用して地図上にカメラの移動経路を示す線を表示し、その移動経路に対応させて、動画のいずれかのフレームをインデックス画像としてサムネイル表示する。そして、ユーザがサムネイル画像に対して再生操作を行うことで、その動画を再生する。
以下の説明では、上記カメラの移動経路を示す線を「動画ルート」、動画ルートに対応する動画を「ルート動画」と呼ぶ。
Among cameras capable of shooting moving images (such as video cameras and digital still cameras with moving image functions) equipped with a GPS receiver, camera position information (shooting position information) may be embedded in a moving image file every predetermined time. it can. In this apparatus, a line indicating the movement path of the camera is displayed on the map using the position information, and any frame of the moving image is displayed as a thumbnail as an index image in correspondence with the movement path. Then, when the user performs a reproduction operation on the thumbnail image, the moving image is reproduced.
In the following description, a line indicating the moving route of the camera is referred to as “moving image route”, and a moving image corresponding to the moving image route is referred to as “route moving image”.

装置(システム)の形態としては、ネットワーク上のサーバに上記の機能を組み込み、利用者が各端末からネットワークを介してサーバにアクセスし、動画を投稿したり、投稿された動画を地図上で再生できるようにするサービスが考えられる。インターネット回線を用いたものでもよいし、より小規模なネットワークでもよい。サーバとの接続は、Webブラウザを用いてもよいし、専用のアプリケーションソフトウェアを用いてもよい。あるいはネットワークを利用せず、個々のコンピュータにおいて利用するためのアプリケーションソフトウェアとして上記の機能が提供されるようにしてもよい。   As a form of the device (system), the above functions are incorporated in a server on the network, and a user accesses the server from each terminal via the network to post a video or play a posted video on a map. A service to enable this is conceivable. It may be an internet line or a smaller network. For connection to the server, a Web browser may be used, or dedicated application software may be used. Alternatively, the above functions may be provided as application software for use in individual computers without using a network.

以下、不特定多数の利用者を対象とした動画共有サービスを例に挙げて詳細に説明する。
図1は本システムの概略構成図である。各サービス利用者(以下、ユーザ)は、パーソナルコンピュータ(以下、ユーザPC)10や、携帯電話機からインターネット回線20を経由してサービス提供者のサーバ30にアクセスする。
Hereinafter, a moving image sharing service for an unspecified number of users will be described in detail as an example.
FIG. 1 is a schematic configuration diagram of this system. Each service user (hereinafter referred to as a user) accesses the server 30 of the service provider from the personal computer (hereinafter referred to as user PC) 10 or a mobile phone via the Internet line 20.

サーバ30は、通信を行うための通信部31と、地図表示を行うための地図データベースDB1や動画データベースDB2、各種プログラムなどが格納される記憶部32と、プログラムを実行するためのCPU33とを有している。動画データベースDB2には、ユーザからアップロードにより投稿された動画が登録される。CPU33は、ユーザから動画が投稿されると、後述する検索処理を実現するために、その動画ファイルに埋め込まれた種々の動画情報(撮影情報等)を読み出し、それらの動画情報や、動画情報を解析して得られる情報を動画ファイルに対応づけて動画データベースDB2に格納する。   The server 30 includes a communication unit 31 for performing communication, a map database DB1 and a moving image database DB2 for performing map display, a storage unit 32 for storing various programs, and a CPU 33 for executing the program. doing. A moving image posted by uploading from a user is registered in the moving image database DB2. When a video is posted from the user, the CPU 33 reads various types of video information (shooting information, etc.) embedded in the video file in order to realize search processing described later, and displays the video information and video information. The information obtained by the analysis is stored in the moving image database DB2 in association with the moving image file.

ユーザPC10は、PC本体11と、マウスやキーボード等の操作部12と、表示装置としてのディスプレイ13とを有する。   The user PC 10 includes a PC main body 11, an operation unit 12 such as a mouse and a keyboard, and a display 13 as a display device.

図2〜図10はサーバ30のCPU33によって実行されるプログラムの処理手順を示している。
このプログラムは、予めサーバ30の記憶部32に組み込まれたもので、動画の観賞を目的としたユーザを対象としたものである。ユーザがPC10からWebブラウザ等を用いてサーバ30にアクセスし、所定の操作を行うと、サーバ30のCPU33によってこのプログラムが実行される。なお、記憶部32の動画データベースDB2には、投稿者としてのユーザによってアップロードされた複数の動画が既に格納されているものとする。
2 to 10 show a processing procedure of a program executed by the CPU 33 of the server 30. FIG.
This program is incorporated in the storage unit 32 of the server 30 in advance, and is intended for a user for the purpose of watching a moving image. When the user accesses the server 30 from the PC 10 using a web browser or the like and performs a predetermined operation, the CPU 33 of the server 30 executes this program. It is assumed that a plurality of moving images uploaded by a user as a contributor are already stored in the moving image database DB2 of the storage unit 32.

図2のステップS1では地図データベースDB1から地図情報を取得し、ステップS2では、取得した地図情報に基づいて、ユーザPC10のディスプレイ13に地図画面(初期画面)を表示する。   In step S1 of FIG. 2, map information is acquired from the map database DB1, and in step S2, a map screen (initial screen) is displayed on the display 13 of the user PC 10 based on the acquired map information.

図11はディスプレイ13に表示された地図画面の一例を示している。地図画面では、地図表示部41が中央に配置されるとともに、その周辺にユーザ操作部として、インデックス選択部42、検索部43、動画再生操作部44、表示条件入力部45などが配置される。初期状態では、例えば日本全域を含む広域地図が地図表示部41に表示される。地図表示部41においては、ユーザがマウス操作等によって地図の縮尺を自由に変更でき、また地図上をマウスでドラッグするなどして表示範囲を自由に変更できる。
なお、初期画面で表示される地図範囲を各ユーザが設定できるようにしてもよい。
FIG. 11 shows an example of the map screen displayed on the display 13. On the map screen, a map display unit 41 is arranged in the center, and an index selection unit 42, a search unit 43, a moving image reproduction operation unit 44, a display condition input unit 45, and the like are arranged as user operation units around the map display unit 41. In the initial state, for example, a wide area map including the entire region of Japan is displayed on the map display unit 41. In the map display unit 41, the user can freely change the scale of the map by operating the mouse or the like, and can freely change the display range by dragging the map with the mouse.
In addition, you may enable it for each user to set the map range displayed on an initial screen.

初期画面表示後、CPU33はステップS3〜S8のループでいずれかのユーザ操作を待ち、ステップS3で終了操作が確認されると、処理を終了させる。ステップS4で上記縮尺や表示範囲の変更操作(地図操作)が確認されると、それに応じてステップS9で縮尺や表示範囲を変更する(地図画面変更)。ステップS10では、動画データベースDB2を検索し、現在の表示地図範囲に対応するルート動画ファイルが存在する場合は、その動画に対する動画ルートを地図上に表示する。動画ルートは、動画ファイルから所定の時間周期で埋め込まれた撮影位置情報を読み出し、撮影開始から終了までの各位置情報に対応する地図上の点を線で結ぶことで作成され、表示される。
なお、動画ルートの表示は、表示された地図の縮尺率がある程度以上のときにのみ行うようにすることが望ましい。
After displaying the initial screen, the CPU 33 waits for any user operation in a loop of steps S3 to S8, and terminates the process when the end operation is confirmed in step S3. When the operation for changing the scale or display range (map operation) is confirmed in step S4, the scale or display range is changed in step S9 accordingly (map screen change). In step S10, the moving image database DB2 is searched, and if there is a route moving image file corresponding to the current display map range, the moving image route for the moving image is displayed on the map. The moving image route is created and displayed by reading shooting position information embedded at a predetermined time period from a moving image file and connecting points on the map corresponding to each position information from the start to the end of shooting with a line.
It is desirable to display the moving image route only when the scale of the displayed map is a certain level or higher.

図12はある地域を地図表示部41に表示した例を示している。地図上には、5つの動画に対応する動画ルートR1〜R5が表示されている。図では5本の動画ルートを線種を変えて示してあるが、実際には線の色を変えて表示することで区別し易くなる。また、複数の動画ルートが同一部分を通る場合は、ルート線が互いに重ならないようにずらして表示する。なお、車載カメラ等で撮影した動画の場合、動画ルートは図のように道路に沿った線となるが、空撮の場合はそうとは限らない。
なお1箇所に留まって撮影した動画や、移動範囲の短い動画については、動画ルートは点あるは短い線で表示されるため、後述するインデックス表示を行うと動画ルートが視認されないことがあり得る。
FIG. 12 shows an example in which a certain area is displayed on the map display unit 41. On the map, moving image routes R1 to R5 corresponding to five moving images are displayed. In the figure, five moving image routes are shown with different line types, but in practice, it is easy to distinguish them by changing the line color. In addition, when a plurality of moving image routes pass through the same part, the route lines are displayed so as not to overlap each other. In the case of a moving image taken with an in-vehicle camera or the like, the moving image route is a line along the road as shown in the figure, but this is not necessarily the case with aerial shooting.
Note that for moving images shot at one place or moving images with a short moving range, the moving image route is displayed with dots or short lines, and therefore the moving image route may not be visually recognized when index display described later is performed.

次に、インデックス処理について説明する。
ここでいうインデックスとは、ルート動画から抽出されたいずれかのフレームの画像(インデックス画像)を指す。インデックス画像を動画ルートに対応させてサムネイル表示することで、その動画ルートに対応する動画の内容をユーザに知らしめることができる。
Next, index processing will be described.
The index here refers to an image (index image) of any frame extracted from the root moving image. By displaying the index image as a thumbnail corresponding to the moving image route, it is possible to inform the user of the contents of the moving image corresponding to the moving image route.

図12においては、動画ルートR1,R2に対する各2個のインデックス画像SN1,SN2:SN3,SN4が各ルートに重ねて表示されている。   In FIG. 12, two index images SN1, SN2: SN3, SN4 for the moving image routes R1, R2 are displayed so as to overlap each route.

後述するように、CPU33は、まず各動画の主要部分(基本的にはユーザが見たいと思われる部分、あるいは撮影者が見せたいと思われる部分)を推定し、その主要部分に含まれるいずれかのフレーム画像をインデックス画像とする。主要部分の推定およびインデックス画像の抽出は、種々の観点から行うことができ、1本の動画ルートに対するインデックス画像が2以上の場合もあり、また1つも表示されない場合もある。   As will be described later, the CPU 33 first estimates a main part (basically a part that the user wants to see or a part that the photographer wants to see) of each moving image, and includes any of the main parts included in the main part. Such a frame image is set as an index image. The estimation of the main part and the extraction of the index image can be performed from various viewpoints, and there may be two or more index images for one moving image route, or none may be displayed.

インデックス画像を如何なる観点から作成するかは、インデックス選択部42においてユーザが選択可能である。インデックス選択部42には、「撮影開始」、「ランドマーク」、「速度変化」、「映像変化」、「おすすめ」、「再生回数」、「ユーザ指定」の7個の項目がある。ユーザは、各項目のチェックボックスにチェックを入れることで、1または複数の項目を選択できる。   From what point of view the index image is created, the index selection unit 42 can be selected by the user. The index selection unit 42 has seven items of “shooting start”, “landmark”, “speed change”, “video change”, “recommendation”, “number of reproductions”, and “user designation”. The user can select one or a plurality of items by checking a check box of each item.

CPU33は、ステップS10の動画ルート表示後、ステップS11のインデックス処理に進む。インデックス処理の詳細を示す図3において、ステップS101では、インデックス項目としての「撮影開始」が選択されているか否かを判定し、肯定されるとステップS102でインデックス作成A処理を行う。   After displaying the moving image route in step S10, the CPU 33 proceeds to index processing in step S11. In FIG. 3 showing the details of the index processing, it is determined in step S101 whether or not “shooting start” as an index item is selected. If the determination is affirmative, index creation A processing is performed in step S102.

インデックス作成A処理の詳細を示す図4において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
ステップS201では、動画の撮影開始点が現在の表示地図範囲内にあるか否かを判定する。ステップS201が肯定されるとステップS202に進み、そのルート動画の撮影開始フレームの画像をインデックス画像とする。ステップS203では、インデックス画像を当該動画ルートの撮影開始点に対応する地図上の位置に表示する。これによりユーザは、各ルート動画の撮影開始点および撮影開始フレームの内容を容易に確認できる。もし、撮影開始点が現在の表示地図範囲外であれば、インデックスの作成および表示は行わない。
In FIG. 4 showing the details of the index creation A process, the CPU 33 performs the following process on all route videos currently being displayed.
In step S201, it is determined whether or not the shooting start point of the moving image is within the current display map range. If step S201 is affirmed, the process proceeds to step S202, and an image of the shooting start frame of the route moving image is set as an index image. In step S203, the index image is displayed at a position on the map corresponding to the shooting start point of the moving image route. Thereby, the user can easily confirm the contents of the shooting start point and the shooting start frame of each route moving image. If the shooting start point is outside the current display map range, the index is not created and displayed.

図3のステップS103では、「ランドマーク」が選択されているか否かを判定し、肯定されると、ステップS104でインデックス作成B処理を行う。   In step S103 of FIG. 3, it is determined whether or not “landmark” is selected. If the determination is affirmative, index creation B processing is performed in step S104.

インデックス作成B処理の詳細を示す図5において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
ステップS301では、表示地図範囲内にランドマークが存在するか否かを判定し、肯定されるとステップS302でランドマークの位置情報を取得する。ランドマークに関する情報は、本システムがデータベースとして有していてもよいが、有していないない場合は、所定のWebサービスを介して入手するようにすればよい。例えば、全世界の地理データを収めたデータベースを有し、それらのデータをWebサービスを通じて提供するプロジェクトが実在し、かかるサービスを介してランドマークの位置情報(緯度、経度情報)などを取得することができる。
In FIG. 5 showing the details of the index creation B process, the CPU 33 performs the following process on all route videos currently being displayed.
In step S301, it is determined whether or not a landmark exists within the display map range. If the landmark is affirmed, the landmark position information is acquired in step S302. Information about landmarks may be included in the system as a database, but if not, it may be obtained through a predetermined Web service. For example, there is a project that has a database containing geographical data of the whole world and provides such data through a web service, and the location information (latitude and longitude information) of landmarks is acquired through such a service. Can do.

ここで、図12の例では、インデックス選択部42において「ランドマーク」が選択されている。表示地図範囲内には「塔」および「寺院」の2つのランドマークが存在し、これらのランドマークに対応するシンボルマークMK1,MK2が、地図上のそれぞれの存在位置に表示されている。   Here, in the example of FIG. 12, “Landmark” is selected in the index selection unit 42. Two landmarks of “tower” and “temple” exist in the display map range, and symbol marks MK1 and MK2 corresponding to these landmarks are displayed at respective positions on the map.

図5のステップS303では、表示地図範囲内のルート動画を解析し、ランドマークとしての対象物が映っている部分を抽出し、その部分をその動画の主要部分とする。対象物が映っているか否かは、例えば次のようにして判別することができる。   In step S303 in FIG. 5, the route moving image within the display map range is analyzed, a portion where the object as a landmark is reflected is extracted, and the portion is set as a main portion of the moving image. Whether or not the object is reflected can be determined, for example, as follows.

ルート動画を撮影したカメラが電子コンパスを有していれば、撮影レンズが向いている方向をカメラが認識でき、その情報をカメラの位置情報とともに、所定の時間周期で動画ファイルに埋め込むことができる。また、撮影レンズの焦点距離の情報も同様に動画ファイルに埋め込むことができる。CPU33は、これらの情報を動画ファイルから読取り、レンズの向き情報と、カメラの位置情報と、対象物の位置情報とに基づき、各時点において撮影レンズが対象物を向いているか(対象物が映っているか)否かを判定する。また、カメラと対象物のそれぞれ位置情報から両者の距離が判明し、これに焦点距離情報を加味することで、対象物がどの程度の大きさで映っているか否かも推定できる。   If the camera that shot the route movie has an electronic compass, the camera can recognize the direction in which the taking lens is facing, and the information can be embedded in the movie file along with the position information of the camera at a predetermined time period. . Similarly, information on the focal length of the taking lens can be embedded in the moving image file. The CPU 33 reads these pieces of information from the moving image file, and based on the lens orientation information, the camera position information, and the target object position information, whether the photographing lens faces the target object at each time point (the target object is reflected). Whether or not) is determined. In addition, the distance between the camera and the object can be determined from the position information, and the focal distance information can be added to the distance to estimate the size of the object.

ここで、レンズは対象物に向けられていても、カメラと対象物との間に遮蔽物が存在し、実際には対象物が映っていないということもあり得る。そこで、対象物の有無をより厳密に判定するならば、上記の方法で対象物が映っていると判定されたフレームに対し、更に画像解析を行い、パターンマッチングにより対象物が真に映っているか否かを判定し、映っていると判定されたフレームのみを抽出するようにしてもよい。パターンマッチングの元となるランドマークの画像は、サーバ30が予め有していてもよいし、外部のWebサービス等から入手するようにしてもよい。また、撮影レンズの向きを示す情報を持たない動画については、最初からパターンマッチングのみによってランドマークが映っているか否かを判別するようにしてもよい。   Here, even if the lens is directed toward the object, there may be a shielding object between the camera and the object, and the object is not actually reflected. Therefore, if the presence or absence of an object is determined more strictly, whether or not the object is truly reflected by pattern matching after further image analysis is performed on the frame in which the object is determined to be reflected by the above method. It may be determined whether or not, and only the frame determined to be reflected may be extracted. The landmark image that is the basis of pattern matching may be stored in the server 30 in advance, or may be obtained from an external Web service or the like. In addition, for a moving image that does not have information indicating the direction of the photographic lens, it may be determined from the beginning whether or not a landmark is reflected only by pattern matching.

CPU33は、ステップS304において、対象物が映っていると判定されたフレームが連続する部分をその動画の主要部分とする。次いでステップS305では、その主要部分からいずれかのフレームの画像をインデックス画像として抽出する(詳細は後述する)。ステップS306では、抽出されたインデックス画像を対応する動画ルート上の対応する位置に表示する。対応する位置とは、撮影時にそのインデックス画像が得られた地点に対応する地図上の位置であり、これは動画に埋め込まれた撮影位置情報から認識できる。
なお、ランドマークが映っていないルート動画に対しては、「ランドマーク」に対するインデックス画像の抽出および表示はなされない。
In step S304, the CPU 33 sets, as a main part of the moving image, a portion in which frames determined to show the object are continuous. Next, in step S305, an image of any frame is extracted from the main part as an index image (details will be described later). In step S306, the extracted index image is displayed at a corresponding position on the corresponding moving image route. The corresponding position is a position on the map corresponding to a point where the index image is obtained at the time of shooting, and can be recognized from shooting position information embedded in the moving image.
It should be noted that the index image for the “landmark” is not extracted and displayed for the route moving image in which the landmark is not shown.

次に、インデックス画像の抽出および表示方法について説明する。
図13は、動画ルートR11,R12の各主要部分M11,M12の先頭フレームの画像をインデックス画像SN11,SN12として抽出した例を示している。つまり、移動中にカメラがランドマークを捕らえ始めたときのフレームがインデックス画像SN11,SN12となり、地図上の主要部分M11,M12の先頭位置に表示される。
Next, an index image extraction and display method will be described.
FIG. 13 shows an example in which the images of the top frames of the main portions M11 and M12 of the moving image routes R11 and R12 are extracted as index images SN11 and SN12. That is, the frame when the camera starts to capture the landmark during movement becomes the index images SN11 and SN12, and is displayed at the head position of the main parts M11 and M12 on the map.

ここで、上述したように各動画ルートは色を変えて表示されるが、個々の動画ルートのうち、主要部分(ランドマークが映っている部分)に相当する箇所は線を強調表示することで、非主要部分(ランドマークが映っていない部分)と容易に区別できる。強調表示の手法としては、例えば主要部分と非主要部分とで線の色を変える、主要部分は太線で表示する、主要部分は線を点滅表示するなどの方法が考えられる。図13では色の濃い部分が主要部分を表している。   Here, as described above, each moving image route is displayed with a different color, but in each moving image route, a portion corresponding to a main portion (a portion where a landmark is reflected) is highlighted. , And easily distinguishable from non-major parts (parts where no landmarks are shown). As a highlighting method, for example, a method of changing the color of the line between the main part and the non-main part, displaying the main part with a thick line, and displaying the main part with a blinking line can be considered. In FIG. 13, the dark part represents the main part.

また、地図上に多くの動画ルートが表示される場合は、インデックス表示も煩雑となるが、各インデックス画像を対応する動画ルート(主要部分)と同色の矩形枠で囲むことで、動画ルートとインデックス画像との対応関係が視覚的に容易に判別できる。これらの措置は、「ランドマーク」以外の他のインデックス項目に対しても同様に適用可能である。   Also, when many video routes are displayed on the map, the index display becomes complicated, but by enclosing each index image with a rectangular frame of the same color as the corresponding video route (main part), the video route and index are displayed. The correspondence with the image can be easily determined visually. These measures can be similarly applied to index items other than “Landmark”.

さらに、画面の煩雑さを解消するために、表示される動画の数をユーザが制限できるようにしてもよい。本例では、表示条件入力部45に表示条件および最大表示数を入力することで、入力値を超える数の動画(動画ルートとインデックス画像)が表示されないようになっている。表示条件としては、「撮影日時の新しい順」の他に、「撮影日時の古い順」、「再生回数の多い順」、「投稿日時の新しい順」、「投稿日時の古い順」などが選択肢として存在する。なお、表示数制限は、ルート動画と、後述する非ルート動画に対して個別に行えるようにしてもよい。   Furthermore, in order to eliminate the complexity of the screen, the user may be able to limit the number of displayed videos. In this example, by inputting the display condition and the maximum display number to the display condition input unit 45, the number of moving images (moving image route and index image) exceeding the input value is not displayed. As the display condition, in addition to “Sequential shooting date / time”, “Sequential shooting date / time”, “Sorted by number of views”, “Newest posting date / time”, “Posted oldest date”, etc. Exists as. Note that the display number limitation may be performed individually for the root moving image and the non-root moving image described later.

図14に示す例では、インデックス画像SN21が動画ルートR21の主要部分M21の中途に表示されている。この表示位置は、主要部分M21のうち当該ランドマークに最も近い(撮影位置とランドマーク位置との距離が最も短い)位置であり、インデックス画像SN21も当該位置にて取得されたフレームの画像となる。なお、インデックス画像とその表示位置は必ずしも一致させる必要はなく、例えば主要部分の先頭に相当する位置に、ランドマークの最も近い位置で得られたフレームの画像をインデックス画像として表示してもよい。   In the example shown in FIG. 14, the index image SN21 is displayed in the middle of the main part M21 of the moving image route R21. This display position is the position closest to the landmark in the main portion M21 (the distance between the shooting position and the landmark position is the shortest), and the index image SN21 is also an image of the frame acquired at the position. . Note that the index image and its display position do not necessarily match. For example, an image of a frame obtained at a position closest to a landmark may be displayed as an index image at a position corresponding to the head of the main part.

図15は図14と同様の動画ルートR21に対し、主要部分に複数のインデックス画像を表示した例を示している。例えば、主要部分において所定時間または所定移動距離ごとのフレーム画像をインデックス画像として複数抽出し、それぞれの画像を対応する位置に表示することが考えられる。このように単一の動画ルートに複数のインデックス画像が存在する場合は、それらが同一の動画ルートに対応する画像であることが分かるように、複数のインデックス画像を重ねて表示することが望ましい。逆に同一の移動経路に対して複数の動画ルートが存在する場合、異なる動画ルートのインデックス画像は、互いに重ならないように表示することが望ましい。なお、インデックス画像を重ねて表示すると、下のインデックス画像は全体を視認できないため、例えば重なったインデックス画像にマウスポインタを合わせると、重なっていた複数の動画が重ならないように並んで表示されるようにしてもよい。   FIG. 15 shows an example in which a plurality of index images are displayed in the main part for the moving image route R21 similar to FIG. For example, it is conceivable to extract a plurality of frame images for each predetermined time or predetermined moving distance as index images in the main part and display each image at a corresponding position. As described above, when a plurality of index images exist in a single moving image route, it is desirable to display the plurality of index images so that they are images corresponding to the same moving image route. Conversely, when there are a plurality of moving image routes for the same movement route, it is desirable to display the index images of different moving image routes so as not to overlap each other. In addition, if the index images are displayed in an overlapping manner, the entire index image below cannot be visually recognized. For example, when the mouse pointer is moved to the overlapping index images, multiple overlapping videos are displayed side by side so that they do not overlap. It may be.

図16も複数のインデックス画像を表示する例であるが、この例では、上述したレンズ方位情報に応じて地図平面におけるインデックス画像の向きを変えている。これによれば、インデックス画像を見て撮影者が何を撮影したかが分かる。   FIG. 16 also shows an example in which a plurality of index images are displayed. In this example, the direction of the index image on the map plane is changed according to the lens orientation information described above. According to this, it is possible to know what the photographer photographed by looking at the index image.

なお、基本的には主要部分のいずれのフレーム画像をインデックス画像としてもよい。例えば主要部分からランダムにインデックス画像を抽出するようにしてもよい。   Basically, any frame image of the main part may be used as the index image. For example, an index image may be extracted at random from the main part.

詳細は後述するが、表示されたインデックス画像に対してユーザが再生操作を行うと、その動画の主要部分の再生がなされる。したがって、ランドマークの動画を見たいユーザは、インデックス選択部42で「ランドマーク」を選択すれば、ランドマークが映っている動画を直ぐに見つけられるだけでなく、その動画のランドマークが映っている部分を直ぐに見ることができる。   Although details will be described later, when the user performs a reproduction operation on the displayed index image, the main part of the moving image is reproduced. Therefore, if a user who wants to see a moving image of a landmark selects “landmark” by the index selection unit 42, the user can not only find a moving image showing the landmark immediately, but also the landmark of the moving image is displayed. You can see the part immediately.

次に、図3のステップS105で「速度変化」が選択されていると判定された場合、CPU33はステップS106でインデックス作成C処理を行う。インデックス作成C処理の詳細を示す図6において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。   Next, when it is determined in step S105 in FIG. 3 that “speed change” is selected, the CPU 33 performs index creation C processing in step S106. In FIG. 6 showing the details of the index creation C process, the CPU 33 performs the following process on all route moving images that are currently displayed.

ステップS401では、ルート動画を撮影したときのカメラの移動速度を求める。例えば、カメラでルート動画を撮影する際に、周期的に位置情報と日時情報とがセットで動画ファイルに埋め込まれる設定にしておけば、それらの情報を読み出すことで、その動画におけるカメラの移動速度を求めることができる。ここでは、所定時間ごとに動画を幾つかのパートに分割し、パートごとに移動平均速度を求める。パートの時間をユーザが指定できるようにしてもよい。   In step S401, the moving speed of the camera when shooting the route moving image is obtained. For example, when shooting a route movie with a camera, if you set the position information and date and time information to be embedded in a movie file as a set periodically, the camera movement speed in that movie can be read by reading that information Can be requested. Here, the moving image is divided into several parts every predetermined time, and the moving average speed is obtained for each part. The user may be able to specify the part time.

ステップS402では、移動平均速度の変化を解析し、ルート動画の主要部分を推定する。例えば移動平均速度が所定値以上低下した箇所が確認されたら、撮影者が何らかの対象物に注目して移動速度を緩めたと推定できる。したがって、動画のうち移動平均速度が所定値以上低下してから再び所定値以上増加するまでの部分(撮影者が注目した対象物が映っていると推定される部分)を主要部分と判断する。あるいは、移動平均速度が所定値以上低下した箇所から最後までを主要部分と判断してもよい。ステップS403では、主要部分からインデックス画像を抽出し、ステップS404でその画像を対応する位置に表示する。例えば、移動平均速度が所定値以上低下した箇所のフレーム画像(主要部分の先頭のフレーム画像)をインデックス画像とすればよい。   In step S402, a change in the moving average speed is analyzed, and a main part of the route moving image is estimated. For example, if a place where the moving average speed is reduced by a predetermined value or more is confirmed, it can be estimated that the photographer has relaxed the moving speed by paying attention to some object. Therefore, a portion of the moving image from when the moving average speed decreases by a predetermined value or more to a time when the moving average speed increases again by a predetermined value or more (a portion estimated to show the object that the photographer has noticed) is determined as the main portion. Or you may judge from the location from which the moving average speed fell more than predetermined value to the last as a main part. In step S403, an index image is extracted from the main part, and in step S404, the image is displayed at a corresponding position. For example, a frame image (a first frame image of the main part) where the moving average speed has decreased by a predetermined value or more may be used as the index image.

図3のステップS107で「映像変化」が選択されていると判定された場合、CPU33はステップS108でインデックス作成D処理を行う。インデックス作成D処理の詳細を示す図7において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。   If it is determined in step S107 in FIG. 3 that “video change” has been selected, the CPU 33 performs index creation D processing in step S108. In FIG. 7 showing the details of the index creation D process, the CPU 33 performs the following process on all route moving images that are currently displayed.

ステップS501では動画のデータレートを解析し、ステップS502でその結果に基づいて主要部分を推定する。ここで、可変データレート(ビットレート)でエンコードされた動画の場合、動きの激しい部分はデータレートが高く、動きのない部分ではデータレートは低い。移動しながらの動画撮影の場合は、カメラを一定方向に向けたままのシーンでは、映像の変化が激しいためデータレートは高く、一方、何らかの対象物を追い続けたシーンではデータレートは低い。そこで、動画のデータレートを解析し、データレートが所定値以上低下した箇所から次にデータレートが所定値以上高くなった箇所を主要部分と判断する。あるいは、データレートが所定値以上低下した箇所から最後までの主要部分と判断してもよい。   In step S501, the data rate of the moving image is analyzed, and in step S502, the main part is estimated based on the result. Here, in the case of a moving image encoded at a variable data rate (bit rate), the data rate is high in a portion where movement is intense, and the data rate is low in a portion where there is no movement. In the case of moving image shooting while moving, the data rate is high in a scene where the camera is pointed in a certain direction because the change in video is severe, whereas the data rate is low in a scene in which a certain object is followed. Therefore, the data rate of the moving image is analyzed, and a portion where the data rate is next increased by a predetermined value or higher is determined as a main portion from a portion where the data rate is decreased by a predetermined value or more. Alternatively, it may be determined that the main part is from the point where the data rate has decreased by a predetermined value or more to the end.

ステップS503では、主要部分からインデックス画像を抽出し、ステップS504でその画像を対応する位置に表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。   In step S503, an index image is extracted from the main part, and in step S504, the image is displayed at a corresponding position. For example, the top frame image of the main part may be used as the index image.

なお、データレートの大きな変化がない動画については、「映像変化」に関するインデックス画像の抽出および表示は行わない。   It should be noted that index images relating to “video changes” are not extracted and displayed for moving images that have no significant change in data rate.

図3のステップS109で「おすすめ」が選択されていると判定された場合、CPU33はステップS110でインデックス作成E処理を行う。インデックス作成E処理の詳細を示す図8において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。   If it is determined in step S109 in FIG. 3 that “recommendation” is selected, the CPU 33 performs index creation E processing in step S110. In FIG. 8 showing the details of the index creation E process, the CPU 33 performs the following process on all route moving images that are currently displayed.

ステップS601では、ルート動画に対する推奨部分の有無を判定する。推奨部分は、動画の投稿者(多くは撮影者)が設定するもので、例えば、特に見せたい部分を推奨部分として、その先頭箇所と終了箇所とを示す情報を動画ファイルに埋め込むことができる。CPU33は、これらの情報の有無を判定し、存在すればステップS602でその推奨部分を主要部分とし、存在しなければそのままリターンする。   In step S601, it is determined whether or not there is a recommended portion for the route moving image. The recommended part is set by a video contributor (mostly a photographer). For example, the recommended part is a part that is particularly desired to be shown, and information indicating the beginning and end of the part can be embedded in the video file. The CPU 33 determines the presence / absence of such information, and if it exists, the recommended part is set as the main part in step S602, and if it does not exist, the process directly returns.

ステップS603では、主要部分からインデックス画像を抽出し、ステップS604でその画像を対応する位置に表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。   In step S603, an index image is extracted from the main part, and in step S604, the image is displayed at a corresponding position. For example, the top frame image of the main part may be used as the index image.

図3のステップS111で「再生回数」が選択されていると判定された場合、CPU33はステップS112でインデックス作成F処理を行う。インデックス作成F処理の詳細を示す図9において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。   If it is determined in step S111 in FIG. 3 that “number of times of reproduction” has been selected, the CPU 33 performs index creation F processing in step S112. In FIG. 9 showing the details of the index creation F process, the CPU 33 performs the following process on all route moving images that are currently displayed.

ステップS701では、個々の動画から再生回数の最も多い領域を抽出する。これを実現するためにCPU33は、登録された各動画を所定時間ごとに幾つかの領域に分け、各領域の再生回数をカウントする処理を常時行う。その際、所定時間(例えば、10秒)以上連続して再生された領域のみ再生回数をカウントアップするようにする。再生時間が所定時間に満たない場合は、その領域の映像はそのユーザにとって特に興味のあるものではないと判断し、カウントアップは行わない。ステップS701で抽出される領域は、個々の動画のうち最も再生回数の多い1領域であってもよいし、再生回数が所定回数以上の全領域であってもよい。   In step S701, an area with the largest number of reproductions is extracted from each moving image. In order to realize this, the CPU 33 divides each registered moving image into several areas every predetermined time, and always performs a process of counting the number of reproductions of each area. At that time, the number of times of reproduction is counted up only for an area reproduced continuously for a predetermined time (for example, 10 seconds) or more. If the playback time is less than the predetermined time, it is determined that the video in that area is not particularly interesting to the user, and no count-up is performed. The area extracted in step S701 may be one area where the number of times of reproduction is the largest among the individual moving images, or may be all areas where the number of times of reproduction is equal to or greater than a predetermined number.

ステップS702では、ステップS701で抽出した領域を主要領域とする。ステップS703では、主要部分からインデックス画像を抽出し、ステップS704でその画像を対応する位置に表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。   In step S702, the area extracted in step S701 is set as the main area. In step S703, an index image is extracted from the main part, and in step S704, the image is displayed at a corresponding position. For example, the top frame image of the main part may be used as the index image.

図3のステップS113で「ユーザ指定」が選択されていると判定された場合、CPU33はステップS114でインデックス作成G処理を行う。インデックス作成G処理の詳細を示す図10において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。   If it is determined in step S113 in FIG. 3 that “user designation” has been selected, the CPU 33 performs index creation G processing in step S114. In FIG. 10 showing the details of the index creation G process, the CPU 33 performs the following process on all route moving images that are currently displayed.

ステップS801では、ルート動画に対してユーザ(動画投稿者としてのユーザではなく、閲覧者としてのユーザ)による範囲指定があるか否かを判定する。範囲指定の詳細は後述するが、範囲指定がない場合はリターンし、範囲指定がある場合はステップS802で指定範囲を主要部分とする。ステップS803では、主要部分からインデックス画像を抽出し、ステップS804でその画像を対応する位置に表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。あるいは、主要部分からユーザがインデックス画像を選べるようにしてもよい。
なお、ユーザに操作により、インデックス画像の表示/非表示を個別に切換えられるようにしてもよい。
In step S801, it is determined whether or not there is a range designation by the user (the user as a viewer, not the user as the video poster) for the root video. Details of the range specification will be described later. If there is no range specification, the process returns. If there is a range specification, the specified range is set as the main part in step S802. In step S803, an index image is extracted from the main part, and in step S804, the image is displayed at a corresponding position. For example, the top frame image of the main part may be used as the index image. Alternatively, the user may select an index image from the main part.
It should be noted that display / non-display of the index image may be individually switched by an operation by the user.

以上のインデックス処理(図2のステップS11)が終了すると、CPU33はステップS3に戻って次の操作を待つ。ステップS5でインデックス項目選択操作が確認されると、ステップS12に進む。インデックス項目選択操作は、ユーザがインデックス選択部42のチェックボックスにチェックを入れる、あるいはチェックを外す操作である。チェックが入れられた場合は、その項目に応じたインデックス作成処理(図3のA〜F処理のいずれか)を行い、チェックが外された場合は、その項目に応じたインデックス画像の表示を解除する。   When the above index processing (step S11 in FIG. 2) ends, the CPU 33 returns to step S3 and waits for the next operation. When the index item selection operation is confirmed in step S5, the process proceeds to step S12. The index item selection operation is an operation in which the user checks or unchecks the check box of the index selection unit 42. If a check is entered, an index creation process corresponding to the item (any one of the processes A to F in FIG. 3) is performed. If a check is removed, the index image display corresponding to the item is canceled. To do.

ここで、動画閲覧者としてのユーザは、ルート動画を観賞して気に入った部分が見つかった場合、その部分の先頭フレームと最終フレームとを指定することで、範囲指定することができる。CPU33は、ステップS6でユーザによる範囲指定操作を確認すると、その範囲指定情報を各ユーザ固有の情報として動画に対応づけて記憶する。例えば、範囲指定操作がなされたユーザPC10の記憶部にその範囲指定情報を記憶することで、各ユーザとの対応がつく。記憶された範囲指定情報は、ユーザによって範囲指定解除操作がなされない限りは保持される。CPU33は、上述したステップS801の判定処理において、ユーザPC10の記憶部から範囲指定情報の読取り動作を行い、その結果に基づいて各動画に対する範囲指定の有無を判断する。ステップS14では、範囲指定操作を表示に反映させるために、上述したインデックス作成G処理(図10)を行う。   Here, when a user as a video viewer finds a favorite part by watching the root video, the user can specify a range by specifying the first frame and the last frame of the part. When the CPU 33 confirms the range designation operation by the user in step S6, the CPU 33 stores the range designation information in association with the moving image as information unique to each user. For example, by storing the range designation information in the storage unit of the user PC 10 in which the range designation operation has been performed, correspondence with each user can be achieved. The stored range designation information is retained unless a range designation cancellation operation is performed by the user. In the determination process of step S801 described above, the CPU 33 reads range designation information from the storage unit of the user PC 10, and determines whether or not a range is designated for each moving image based on the result. In step S14, the above-described index creation G process (FIG. 10) is performed in order to reflect the range designation operation on the display.

以上は位置情報が埋め込まれた動画について説明したが、本システムは、位置情報を持たない動画ファイル、例えばGPS受信機を持たないカメラで撮影された動画ファイルをも扱うことができる。ただし、位置情報がないと動画ルートを作成できないため、上述したルート動画とは別にインデックス画像を取得する必要がある。以下、位置情報のない動画を非ルート動画と呼ぶ。   Although the above has described a moving image in which position information is embedded, the present system can also handle a moving image file that does not have position information, for example, a moving image file shot by a camera that does not have a GPS receiver. However, since the moving image route cannot be created without the position information, it is necessary to acquire an index image separately from the above-described route moving image. Hereinafter, a moving image without position information is referred to as a non-root moving image.

非ルート動画を投稿するにあたり、投稿者は予め動画の主要部を指示するとともに、キーワードを入力する。これらの主要部とキーワードは、当該動画ファイルに対応づけられて動画データベースDB2に記憶される。   When posting a non-root video, the contributor instructs the main part of the video in advance and inputs a keyword. These main parts and keywords are associated with the moving image file and stored in the moving image database DB2.

CPU33は、地図表示がなされると、その表示地図範囲に含まれる地名や、ランドマーク名、駅名、その他のキーワードと一致するキーワードが対応づけられた非ルート動画を動画データベースDB2から検索し、見つかった場合はその動画の主要部から抽出したフレームをインデックス画像として表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。あるいは、投稿者がインデックス画像とすべきフレームを指定できるようにしてもよい。図12の例では、上記のようにして検索された非ルート動画のインデックス画像SN5,SN6が、地図表示部41の左下に表示されている。   When the map is displayed, the CPU 33 searches the video database DB2 for a non-route video associated with a place name included in the display map range, a landmark name, a station name, and other keywords matching the keyword, and is found. If it is, the frame extracted from the main part of the moving image is displayed as an index image. For example, the top frame image of the main part may be used as the index image. Alternatively, the poster may be allowed to specify a frame to be used as an index image. In the example of FIG. 12, index images SN5 and SN6 of the non-root moving image searched as described above are displayed at the lower left of the map display unit 41.

次に、検索について説明する。
検索は、興味のあるランドマーク等の動画を手早く探したり、また表示対象となる動画が多すぎる場合に表示を絞り込む目的でなされる。検索操作は、検索操作部43においてユーザがいずれかの検索条件(複数可)を指定し、最下部の検索ボタンをクリックすることでなされる。CPU33は、図2のステップS7で上記検索操作を確認すると、ステップS15において、当該地図表示上で表示可能な動画(ルート動画、非ルート動画)のうち、指定された検索条件に適った動画を動画データベースDB2から検索し、それらの動画を表示対象とする。ステップS16では、検索結果、すなわち表示対象動画の動画ルートとインデックス画像を表示する。インデックス画像の取得方法は上述した通りである。
Next, the search will be described.
The search is made for the purpose of quickly searching for moving pictures such as landmarks of interest or narrowing down the display when there are too many moving pictures to be displayed. The search operation is performed by the user specifying any search condition (s) in the search operation unit 43 and clicking the search button at the bottom. When the CPU 33 confirms the search operation in step S7 of FIG. 2, in step S15, the CPU 33 selects a video that satisfies the specified search condition from among the videos (route video and non-root video) that can be displayed on the map display. A search is made from the moving image database DB2, and those moving images are set as display targets. In step S16, the search result, that is, the moving image route and index image of the display target moving image are displayed. The index image acquisition method is as described above.

検索操作には次のようなものがある。
(1)キーワード入力:ユーザがランドマーク等の名称を上段のテキストボックスに入力する。この場合、CPU33は、そのキーワードに基づいて動画データベースDB2から動画を抽出し、動画ルートとインデックス画像を表示する。キーワードがランドマーク名と一致した場合、CPU33はインデックス選択部42の「ランドマーク」と「ユーザ指定」のチェックを自動的にオンに、その他のチェックをオフとし、インデックス作成B処理およびインデックス作成G処理を行う。このとき、非表示に設定されていたインデックス画像も表示されるようにすることが望ましい。
(2)日時指定:ユーザが指定範囲の最初の日時と最後の日時を入力する。この場合、CPU33は、上記指定範囲内の日付の動画を動画データベースDB2から検索する。あるいは、年、月、季節(春夏秋冬)、祝日(春分の日、海の日など)、時刻等をそれぞれ指定して検索を行えるようにしてもよい。
(3)天気指定:ユーザが撮影時の気象条件(晴れ、雨など)を指定する。この場合、CPU33は、指定された気象条件の下で撮影された動画を検索する。動画撮影時の気象条件は、例えば動画ファイルから得た撮影日時および撮影位置に基づいて外部の気象データ提供サービスから情報を取得することができる。
(4)乗り物指定:撮影時に移動手段として使用した乗り物を選択して指定する。自動車、自転車、徒歩などが選択肢として存在する。移動手段については、撮影者が動画ファイルにその情報を埋め込むようにすることで取得できる。CPU33は、取得した乗り物情報に基づき、その乗り物を利用して撮影された動画の検索を行う。
(5)範囲の選択:ユーザが表示地図範囲上の位置または範囲を指定する。クリックによる1点指定と、ドラッグによる範囲指定を選択することができる。この場合、CPU33は、指定された位置または範囲の場所が移っている動画を検索する。
上記(1)〜(5)のうち2以上の項目を指定した場合は、それらのAND検索となる。
Search operations include the following.
(1) Keyword input: The user inputs a name such as a landmark in the upper text box. In this case, CPU33 extracts a moving image from moving image database DB2 based on the keyword, and displays a moving image route and an index image. When the keyword matches the landmark name, the CPU 33 automatically turns on the “landmark” and “user designation” checks in the index selection unit 42 and turns off the other checks, and performs index creation B processing and index creation G. Process. At this time, it is desirable to display the index image set to non-display.
(2) Date and time designation: The user inputs the first date and the last date and time in the designated range. In this case, the CPU 33 searches the moving image database DB2 for a moving image having a date within the specified range. Alternatively, the year, month, season (spring / summer / autumn / winter), public holidays (spring equinox day, sea day, etc.), time, etc. may be designated to perform the search.
(3) Weather designation: The user designates weather conditions (sunny, rain, etc.) at the time of shooting. In this case, the CPU 33 searches for moving images shot under designated weather conditions. For example, weather conditions at the time of moving image shooting can be acquired from an external weather data providing service based on the shooting date and time and shooting position obtained from a moving image file.
(4) Vehicle designation: Select and designate a vehicle used as a moving means during photographing. Cars, bicycles, walking, etc. exist as options. The moving means can be acquired by the photographer embedding the information in the moving image file. CPU33 searches the moving image image | photographed using the vehicle based on the acquired vehicle information.
(5) Selection of range: The user specifies a position or range on the display map range. One point designation by clicking and range designation by dragging can be selected. In this case, the CPU 33 searches for a moving image whose designated position or range has moved.
When two or more items are designated among the above (1) to (5), the AND search is performed.

図17,図18は検索を行った場合の結果表示例を示し、図17はキーワードとしてランドマークである「塔」の名称を入力し、図18は同様に「寺院」の名称を入力したものである。いずれにおいても撮影年月日が範囲指定されている。図17では、検索によって当該「塔」が映っている主要部分を含む複数のルート動画が抽出されており、それらの動画ルートおよびインデックス画像が表示されている。上述したように、各動画ルートの主要部分は当該「塔」が連続して映っている部分であり、インデックス画像はその主要部分から抽出されたフレームの画像である。図18についても同様である。   FIG. 17 and FIG. 18 show examples of results displayed when a search is performed. FIG. 17 shows the name of the tower “Tower” as a keyword, and FIG. 18 similarly shows the name of a “temple”. It is. In both cases, the shooting date range is specified. In FIG. 17, a plurality of route moving images including the main part showing the “tower” are extracted by the search, and the moving image route and the index image are displayed. As described above, the main part of each moving image route is a part where the “tower” is continuously shown, and the index image is an image of a frame extracted from the main part. The same applies to FIG.

上記以外の検索条件として、撮影時の移動速度を指定できるようにしてもよい。例えば、**Km/h〜@@Km/hのように指定する。この速度は、平均速度であってもよいし、最高速度であってもよい。**Km/h以上(以下)のような指定方法でもよい。ユーザが指定方法を選べるようにしてもよい。いずれのケースにおいても、CPU33は移動速度が指定速度範囲内の動画を表示対象動画として検索する。なお、移動速度については、図6のステップS401で説明した方法で取得できる。撮影地の高度を指定できるようにしてもよい。高度はGPS情報に含まれる。また、例えば「皆既日食」などのイベント名を入力すると、自動的に位置および日時が設定され、それらに基づいて検索が行われるようにしてもよい。   As a search condition other than the above, the moving speed at the time of shooting may be designated. For example, ** Km / h to @@ Km / h are specified. This speed may be an average speed or a maximum speed. ** A designation method such as Km / h or more (or less) may be used. The user may be allowed to select a designation method. In any case, the CPU 33 searches for a moving image whose moving speed is within a specified speed range as a display target moving image. The moving speed can be acquired by the method described in step S401 in FIG. The altitude of the shooting location may be designated. The altitude is included in the GPS information. For example, when an event name such as “total solar eclipse” is input, the position and date / time are automatically set, and a search may be performed based on the position and date / time.

検索部操作部43にある「領域を自動的に変更する」チェックボックスは、入力されたキーワードに応じて表示地図範囲を変更するか否かをユーザが指示するためのものである。チェックがオンのときには、入力されたキーワードに対応する対象物(ランドマークなど)が地図の中心に位置するように、かつ全ての表示対象動画の動画ルートやインデックス画像が表示されるように、地図のスクロールおよび縮尺率の変更をCPU33が自動的に行う。チェックがオフの場合は自動変更はなされない。   The “automatically change region” check box in the search unit operation unit 43 is for the user to instruct whether or not to change the display map range in accordance with the input keyword. When the check is on, the map is displayed so that the target object (landmark, etc.) corresponding to the input keyword is positioned at the center of the map, and the video routes and index images of all display target videos are displayed. The CPU 33 automatically changes the scroll and the scale ratio. If the check is off, no automatic change is made.

次に、動画の再生について説明する。
CPU33は、図2のステップS8で動画の再生関連操作を確認すると、ステップS17でその操作に応じた再生処理を行う。再生関連操作とは、動画再生操作部44(図12)の各ボタンの操作を指す。
Next, the reproduction of moving images will be described.
When the CPU 33 confirms the reproduction-related operation of the moving image in step S8 of FIG. 2, the CPU 33 performs a reproduction process corresponding to the operation in step S17. The reproduction related operation refers to an operation of each button of the moving image reproduction operation unit 44 (FIG. 12).

例えば、ユーザが再生したい動画(ルート動画、非ルート動画)のインデックス画像をクリック等で選択し、再生ボタン44aをクリックすると、CPU33は、その動画のうち当該インデックス画像に対応する主要部分を、そのインデックス画像が表示されていた矩形枠内で再生する。インデックス画像を選択せずに再生ボタン44aを操作すると、インデックス表示がなされている動画が1ずつ順に再生されるようにしてもよい。再生順序は問わないが、インデックス画像の表示位置が地図の中心に近い動画から順に再生されるようにしてもよい。   For example, when the user selects an index image of a moving image (root moving image, non-root moving image) to be reproduced by clicking, and clicks the reproduction button 44a, the CPU 33 selects the main part corresponding to the index image from the moving image. Playback within the rectangular frame where the index image was displayed. When the playback button 44a is operated without selecting an index image, the moving images displayed with the index display may be sequentially played back one by one. The playback order is not limited, but the display position of the index image may be played back in order from the moving image close to the center of the map.

再生ボタン44aを用いず、マウスで地図上の動画ルートをダブルクリックしたり、動画ルートに沿って線を描くようにドラッグすることで、その動画ルートに対応する動画の主要部が再生されるようにしてもよい。その際、撮影時の移動方向と逆方向にドラッグすると、動画が逆方向に再生されるようにしてもよい。   By double-clicking the video route on the map with the mouse or dragging a line along the video route without using the playback button 44a, the main part of the video corresponding to the video route is played back. It may be. At that time, the moving image may be played back in the reverse direction by dragging in the direction opposite to the moving direction at the time of shooting.

動画再生時には、撮影位置と地図上の該当する位置とが常に一致するように、CPU33はルート動画の矩形枠を当該動画ルート上で移動させる。この動作は、動画ファイルに所定周期で埋め込まれている位置情報と時刻情報、および地図の縮尺率等に基づいて矩形枠の位置を逐次演算することで行われる。これによりユーザは、現在の映像がどの位置で撮られているかを確認しながら動画を鑑賞できる。
なお、ルートのない動画の矩形枠は移動しない。
At the time of moving image reproduction, the CPU 33 moves the rectangular frame of the route moving image on the moving image route so that the shooting position always matches the corresponding position on the map. This operation is performed by sequentially calculating the position of the rectangular frame based on the position information and time information embedded in the moving image file at a predetermined period, the scale of the map, and the like. As a result, the user can appreciate the moving image while checking at which position the current image is taken.
Note that the rectangular frame of a moving image without a route does not move.

動画再生時に再生ボタン44aをクリックすると、動画は中断状態となり、矩形枠も停止する。また、全再生ボタン44bを操作すると、表示されている全てのルート動画の主要部分が同時に再生される。その他のボタン操作により、動画の早送り/戻し、主要部分の頭出しなどが行える。   When the playback button 44a is clicked during playback of the moving image, the moving image is interrupted and the rectangular frame is also stopped. Further, when the all playback button 44b is operated, the main part of all the displayed route moving images is played back simultaneously. With other button operations, you can fast-forward / rewind the movie and cue the main part.

なお、インデックス画像にマウスカーソルを重ねると、対応する動画ルートがハイライト表示されるとともに、その動画に関する情報が表示されるようにしてもよい。表示される情報は、「再生時間」、「移動距離」、「平均移動速度」などが考えられる。   When the mouse cursor is superimposed on the index image, the corresponding moving image route may be highlighted and information related to the moving image may be displayed. The displayed information can be “reproduction time”, “movement distance”, “average movement speed”, and the like.

以上は動画の主要部を再生する場合について説明したが、非主要部をも含めて動画を再生できるようにしてもい。   The case where the main part of the moving image is reproduced has been described above, but the moving image may be reproduced including the non-main part.

10 ユーザPC
20 インターネット回線
30 サーバ
31 通信部
32 記憶部
33 CPU
41 地図表示部
42 インデックス選択部
43 検索部
44 動画再生操作部
45 表示条件入力部
DB1 地図データベース
DB2 動画データベース
M11,M12,M21 動画の主要部分
MK1,MK2 ランドマークのシンボル
R1,R2・・・ 動画ルート
SN1,SN2・・・ インデックス画像(サムネイル画像)
10 User PC
20 Internet line 30 Server 31 Communication unit 32 Storage unit 33 CPU
41 Map display section 42 Index selection section 43 Search section 44 Video playback operation section 45 Display condition input section DB1 Map database DB2 Video database M11, M12, M21 Main parts of video MK1, MK2 Landmark symbols R1, R2 ... Video Route SN1, SN2 ... Index image (thumbnail image)

Claims (24)

投稿された複数の動画像の各々に代表画像が設定され、設定された各々の前記代表画像を閲覧者の端末に同時に表示させるサーバであって、
前記閲覧者の端末に記憶され、前記複数の動画像に含まれる第1動画像の第1代表画像に関する情報を、前記閲覧者の端末から取得する取得部と、
前記取得部によって前記第1代表画像に関する情報を取得した場合、前記第1動画像に設定された第2代表画像に変えて、前記第1代表画像を前記第1動画像の代表画像として前記閲覧者の端末に送信する制御部とを備えるサーバ
A representative image is set for each of a plurality of posted moving images, and each of the set representative images is simultaneously displayed on a browser terminal ,
An acquisition unit that acquires information about a first representative image of a first moving image that is stored in the browser terminal and is included in the plurality of moving images, from the viewer terminal ;
When acquiring the information on the first representative image by the acquiring unit, instead of the second representative image set to the first moving picture, said viewing the first representative image as a representative image of the first moving image A server comprising a control unit that transmits to a person's terminal.
請求項1に記載のサーバであって、
前記第1動画像に対する前記第2代表画像の設定は、前記閲覧者とは異なる、前記第1動画像を投稿した投稿者によって設定されるサーバ
The server according to claim 1,
The setting of the second representative image for the first moving picture, wherein the different and viewers, server configured by the author who posted the first moving image.
請求項1に記載のサーバであって、
前記制御部は、前記閲覧者とは異なる閲覧者の端末に前記第2代表画像を送信するサーバ
The server according to claim 1,
The control unit is a server that transmits the second representative image to a terminal of a viewer different from the viewer.
請求項3に記載のサーバであって、
前記制御部は、前記閲覧者とは異なる閲覧者の端末に前記第1代表画像を送信しないサーバ
The server according to claim 3,
The control unit is a server that does not transmit the first representative image to a terminal of a viewer different from the viewer.
請求項1に記載のサーバであって、
前記取得部は、前記閲覧者とは異なる閲覧者によって選択された、前記第1動画像の第3代表画像に関する情報を取得し、
前記制御部は、前記第1動画像に設定された前記第2代表画像に変えて、前記第3代表画像を前記第1動画像の代表画像として前記閲覧者とは異なる閲覧者の端末に送信するサーバ
The server according to claim 1,
The acquisition unit acquires information on a third representative image of the first moving image selected by a viewer different from the viewer,
Wherein, instead of the set the second representative image on the first moving image, transmitted to the third different viewers of the terminal and the viewer the representative image as a representative image of the first moving picture Server .
請求項1に記載のサーバであって、
前記第1動画像は、前記第1動画像を閲覧する閲覧者ごとに前記第1動画像の代表画像が設定されるサーバ
The server according to claim 1,
Wherein the first moving picture, a server representative image is set in the first moving image for each viewer for viewing the first moving image.
請求項1から請求項6のいずれか一項に記載のサーバであって、
前記第1動画像の代表画像は、前記第1動画像に含まれる画像であるサーバ
The server according to any one of claims 1 to 6,
Representative images of the first video image is an image included in the first moving image server.
請求項7に記載のサーバであって、
前記制御部は、前記第1動画像のうち前記第1代表画像を含む一部の動画像を前記閲覧者の端末に送信するサーバ
The server according to claim 7,
Wherein the control unit, the server which transmits a part of the moving image to the viewer's terminals including said first representative images of the first moving picture.
請求項8に記載のサーバであって、
前記制御部は、前記閲覧者によって設定された範囲設定に基づいて、前記一部の動画像を前記閲覧者の端末に送信するサーバ
The server according to claim 8, wherein
The said control part is a server which transmits the said one part moving image to the said viewer's terminal based on the range setting set by the said viewer.
請求項1から請求項9のいずれか一項に記載のサーバであって、
前記制御部は、前記閲覧者による前記第1代表画像の選択に基づいて、前記第1動画像と前記第1代表画像とを関連付けて記憶させる制御を行うサーバ
The server according to any one of claims 1 to 9,
The said control part is a server which performs control which associates and memorize | stores a said 1st moving image and a said 1st representative image based on selection of the said 1st representative image by the said viewer.
請求項1から請求項10のいずれか一項に記載のサーバであって、
前記取得部は、前記第1動画像と前記第1代表画像とが関連付けて記憶されている前記閲覧者の端末から前記第1代表画像に関する情報を取得するサーバ
The server according to any one of claims 1 to 10,
The said acquisition part is a server which acquires the information regarding a said 1st representative image from the said viewer's terminal in which the said 1st moving image and the said 1st representative image are linked | related and memorize | stored.
請求項1から請求項11のいずれか一項に記載のサーバであって、
前記第1動画像は、前記第1動画像が撮像された位置が関連付けられており、
前記第1代表画像は、前記第1動画像に含まれる画像であり、
前記閲覧者の端末は、表示装置を含み、
前記制御部は、前記表示装置に地図を表示させ、前記地図上のうち前記第1動画像が撮像された位置に前記第1代表画像を表示させるサーバ
The server according to any one of claims 1 to 11,
The first moving image is associated with a position where the first moving image is captured,
The first representative image is an image included in the first moving image,
The viewer terminal includes a display device;
The said control part is a server which displays a map on the said display apparatus, and displays the said 1st representative image in the position where the said 1st moving image was imaged among the said maps.
請求項12に記載のサーバであって、
前記制御部は、前記第1動画像が撮像された移動経路を前記地図上に表示させるサーバ
The server according to claim 12, wherein
The said control part is a server which displays the movement path | route where the said 1st moving image was imaged on the said map.
請求項1から請求項13のいずれか一項に記載のサーバであって、
投稿された前記第1動画像を記憶する記憶部を備えるサーバ
The server according to any one of claims 1 to 13,
A server comprising a storage unit for storing the posted first moving image.
請求項1に記載のサーバであって、
前記制御部は、前記第1動画像から予め定められた条件で画像選択し、前記第2代表画像を設定するサーバ
The server according to claim 1,
The control unit is a server that selects an image from the first moving image under a predetermined condition and sets the second representative image.
請求項1に記載のサーバであって、
前記複数の動画像は、前記第1動画像と第2動画像とを含み、
前記制御部は、前記取得部によって前記第1代表画像に関する情報を取得した場合、前記第1代表画像と前記第2動画像に設定された前記第2動画像の代表画像とを前記閲覧者の端末に送信するサーバ
The server according to claim 1,
The plurality of moving images include the first moving image and the second moving image,
When the acquisition unit acquires information related to the first representative image, the control unit displays the first representative image and the representative image of the second moving image set in the second moving image of the viewer. Server to send to the terminal .
請求項1から請求項16のいずれか一項に記載のサーバと、
前記閲覧者の端末とを備える電子機器システム。
The server according to any one of claims 1 to 16 , and
An electronic device system comprising the browser terminal.
投稿された複数の動画像の各々に代表画像が設定され、設定された各々の前記代表画像を閲覧者の端末に同時に表示させるサーバのコンピュータに実行させるためのプログラムであって、
前記閲覧者の端末に記憶され、前記複数の動画像に含まれる第1動画像の第1代表画像に関する情報を、前記閲覧者の端末から取得する処理と、
前記第1代表画像に関する情報を取得した場合、前記第1動画像に設定された第2代表画像に変えて、前記第1代表画像を前記第1動画像の代表画像として前記閲覧者の端末に送信する処理とをサーバのコンピュータに実行させるためのプログラム。
A program for causing a computer of a server to display a representative image for each of a plurality of posted moving images and to display each of the set representative images simultaneously on a viewer's terminal ,
A process of acquiring information related to a first representative image of a first moving image stored in the viewer's terminal and included in the plurality of moving images from the viewer's terminal ;
When acquiring the information on the first representative image in place of the second representative image set to the first moving picture, to said viewer's terminal a first representative image as a representative image of the first moving picture A program for causing a server computer to execute the transmission process.
請求項18に記載のサーバのコンピュータに実行させるためのプログラムであって、 前記第1動画像を投稿した投稿者による設定に基づいて、前記第1動画像に前記第2代表画像を設定する処理をサーバのコンピュータに実行させるためのプログラム。 A program for causing a computer of a server according to claim 18 to execute, wherein the second representative image is set in the first moving image based on a setting by a contributor who posted the first moving image. To run the server on the server computer. 請求項18に記載のサーバのコンピュータに実行させるためのプログラムであって、
前記閲覧者とは異なる閲覧者の端末に前記第2代表画像を送信する処理をサーバのコンピュータに実行させるためのプログラム。
A program for causing a computer of a server according to claim 18 to execute the program,
A program for causing a computer of a server to execute a process of transmitting the second representative image to a terminal of a viewer different from the viewer.
請求項20に記載のサーバのコンピュータに実行させるためのプログラムであって、
前記閲覧者とは異なる閲覧者の端末に前記第1代表画像を送信しない処理をサーバのコンピュータに実行させるためのプログラム。
A program for causing a server computer according to claim 20 to execute the program,
A program for causing a computer of a server to execute a process of not transmitting the first representative image to a terminal of a viewer different from the viewer.
請求項18に記載のサーバのコンピュータに実行させるためのプログラムであって、
前記閲覧者とは異なる閲覧者によって選択された、前記第1動画像の第3代表画像に関する情報を取得する処理と、
前記第1動画像に設定された前記第2代表画像に変えて、前記第3代表画像を前記第1動画像の代表画像として前記閲覧者とは異なる閲覧者の端末に送信する処理とをサーバのコンピュータに実行させるためのプログラム。
A program for causing a computer of a server according to claim 18 to execute the program,
Processing for acquiring information on a third representative image of the first moving image selected by a viewer different from the viewer;
Instead the set the second representative image on the first moving image, said third and processing for transmitting to the different viewers of the terminal and the viewer the representative image as a representative image of the first moving image server To run on a computer.
請求項18から請求項22のいずれか一項に記載のサーバのコンピュータに実行させるためのプログラムであって、
前記第1動画像の代表画像と前記第1動画像とを、閲覧者ごとに記憶させる処理をサーバのコンピュータに実行させるためのプログラム。
A program for causing a computer of a server according to any one of claims 18 to 22 to execute,
A program for causing a server computer to execute processing for storing a representative image of the first moving image and the first moving image for each viewer.
請求項18に記載のサーバのコンピュータに実行させるためのプログラムであって、A program for causing a computer of a server according to claim 18 to execute the program,
前記複数の動画像は、前記第1動画像と第2動画像とを含み、The plurality of moving images include the first moving image and the second moving image,
前記第1代表画像に関する情報を取得した場合、前記第1代表画像と前記第2動画像に設定された前記第2動画像の代表画像とを前記閲覧者の端末に送信する処理をサーバのコンピュータに実行させるためのプログラム。When the information about the first representative image is acquired, a process of transmitting the first representative image and the representative image of the second moving image set in the second moving image to the browser terminal is performed by a server computer. A program to make it run.
JP2012044311A 2012-02-29 2012-02-29 Server, electronic device system and program Active JP5987357B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012044311A JP5987357B2 (en) 2012-02-29 2012-02-29 Server, electronic device system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012044311A JP5987357B2 (en) 2012-02-29 2012-02-29 Server, electronic device system and program

Publications (3)

Publication Number Publication Date
JP2013183218A JP2013183218A (en) 2013-09-12
JP2013183218A5 JP2013183218A5 (en) 2015-04-30
JP5987357B2 true JP5987357B2 (en) 2016-09-07

Family

ID=49273616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012044311A Active JP5987357B2 (en) 2012-02-29 2012-02-29 Server, electronic device system and program

Country Status (1)

Country Link
JP (1) JP5987357B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5879403B1 (en) * 2014-08-08 2016-03-08 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
WO2019039252A1 (en) * 2017-08-24 2019-02-28 富士フイルム株式会社 Medical image processing device and medical image processing method
JP7372031B2 (en) * 2018-09-14 2023-10-31 株式会社小松製作所 Reproduction device, analysis support system and reproduction method
JP2019122027A (en) * 2018-11-09 2019-07-22 株式会社Zeppelin Captured moving image service system, captured moving image display method, communication terminal device and computer program
WO2021161711A1 (en) * 2020-02-13 2021-08-19 パイオニア株式会社 Image generation device, image generation method, image generation program, and recording medium
CN112182278B (en) * 2020-09-23 2023-11-17 深圳市超时空探索科技有限公司 Method and device for simulating card punching footprint
JP2023100091A (en) * 2022-01-05 2023-07-18 株式会社スカイマティクス geographic information system
JP7212808B1 (en) 2022-03-18 2023-01-25 ヤフー株式会社 Video distribution device, video distribution method, and video distribution program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002078956A (en) * 2000-09-06 2002-03-19 Sony Communication Network Corp Game server and game execution method
JP3959525B2 (en) * 2003-03-12 2007-08-15 日本電信電話株式会社 Application server program and application server in video content browsing system
JP4168837B2 (en) * 2003-06-03 2008-10-22 ソニー株式会社 Information generating apparatus, recording apparatus, reproducing apparatus, recording / reproducing system, method thereof, and program
JP2009147542A (en) * 2007-12-12 2009-07-02 Canon Inc Reproduction device
JP2010108012A (en) * 2008-10-28 2010-05-13 Sony Corp Information processing apparatus, information processing method, and program
JP5394781B2 (en) * 2009-03-13 2014-01-22 日立コンシューマエレクトロニクス株式会社 Map information display method and apparatus
JP2011053103A (en) * 2009-09-02 2011-03-17 Denso Corp Data server for transmitting map and animation, and linkage display system for animation-map

Also Published As

Publication number Publication date
JP2013183218A (en) 2013-09-12

Similar Documents

Publication Publication Date Title
JP5987357B2 (en) Server, electronic device system and program
US8264584B2 (en) Image capturing apparatus, additional information providing server, and additional information filtering system
JP5053404B2 (en) Capture and display digital images based on associated metadata
JP5588542B2 (en) Information display device
US20160365115A1 (en) Video editing system and method using time-based highlight identification
US20180181568A1 (en) Providing a thumbnail image that follows a main image
US8584015B2 (en) Presenting media content items using geographical data
US11080908B2 (en) Synchronized display of street view map and video stream
US20160171781A1 (en) Server, client terminal, system, and program for presenting landscapes
US20180132006A1 (en) Highlight-based movie navigation, editing and sharing
US20150242767A1 (en) Aerial view, web-based trip planning techniques using geotagged video and images syncd to a map
CN104255022B (en) Server, client terminal, system and the readable medium of virtual zoom capabilities are added for camera
CN114398554B (en) Content searching method, device, equipment and medium
JP2007266902A (en) Camera
WO2016200692A1 (en) Editing, sharing, and viewing video
JP2010134881A (en) System and method for displaying photographed image
KR20110052247A (en) Camera apparatus for providing photograph image, display apparatus for displaying the photograph image and relating image, and methods thereof
US10446190B1 (en) Fast image sequencing
CN110377791A (en) Fast image sort method
KR101518305B1 (en) Producing method for image contents with position information and using method for image contents with position information
KR102498905B1 (en) Method for sharing videos, apparatus and system using the same
WO2023021759A1 (en) Information processing device and information processing method
TWI655552B (en) Fast image sorting method
CN110674425A (en) Method for realizing travel note sharing based on travel sharing system
JP2011041167A (en) Image pickup device and location information additional equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160725

R150 Certificate of patent or registration of utility model

Ref document number: 5987357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250