JP5987357B2 - Server, electronic device system and program - Google Patents
Server, electronic device system and program Download PDFInfo
- Publication number
- JP5987357B2 JP5987357B2 JP2012044311A JP2012044311A JP5987357B2 JP 5987357 B2 JP5987357 B2 JP 5987357B2 JP 2012044311 A JP2012044311 A JP 2012044311A JP 2012044311 A JP2012044311 A JP 2012044311A JP 5987357 B2 JP5987357 B2 JP 5987357B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving image
- server
- moving
- viewer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、サーバ、電子機器システムおよびプログラムに関する。
The present invention relates to a server , an electronic device system, and a program.
GPS受信機で取得した位置情報(緯度,経度情報)を動画に対応づけて記録可能な電子カメラが知られている。また、このような位置情報付き動画と地図とをリンクさせ、地図上の任意の位置に、その位置で撮像した動画が存在するか否かを明示するシステムも知られている。ある位置で撮影した動画が存在する場合は、地図上の該当する位置にその動画の1フレームをサムネイル表示し、サムネイル画像の選択操作がなされると、その動画を再生する。さらに、地図上の指定位置に複数の動画がある場合に、再生する動画の選択を容易に行えるようにしたものもある(例えば、特許文献1参照)。 There is known an electronic camera capable of recording position information (latitude and longitude information) acquired by a GPS receiver in association with a moving image. In addition, a system that links such a moving image with position information and a map and clearly indicates whether or not a moving image captured at that position exists at an arbitrary position on the map is also known. If there is a moving image shot at a certain position, one frame of the moving image is displayed as a thumbnail at the corresponding position on the map, and when a thumbnail image selection operation is performed, the moving image is reproduced. Furthermore, when there are a plurality of moving images at a specified position on the map, there is one that can easily select a moving image to be reproduced (for example, see Patent Document 1).
しかしながら、一般に地図上で選択した動画を再生する際に、その動画の主要部分を頭出しする機能はないため、特に参考にならない(見たくない)シーンをも含めて動画を観賞しなければならず、時間の無駄である。 However, in general, when playing a video selected on a map, there is no function to cue out the main part of the video, so you must watch the video including scenes that are not particularly useful (you do not want to see them). It is a waste of time.
本発明に係るサーバは、投稿された複数の動画像の各々に代表画像が設定され、設定された各々の前記代表画像を閲覧者の端末に同時に表示させるサーバであって、前記閲覧者の端末に記憶され、前記複数の動画像に含まれる第1動画像の第1代表画像に関する情報を、前記閲覧者の端末から取得する取得部と、前記取得部によって前記第1代表画像に関する情報を取得した場合、前記第1動画像に設定された第2代表画像に変えて、前記第1代表画像を前記第1動画像の代表画像として前記閲覧者の端末に送信する制御部とを備える。
本発明に係る電子機器システムは、請求項1から請求項16のいずれか一項に記載のサーバと、前記閲覧者の端末とを備える。
本発明に係るプログラムは、投稿された複数の動画像の各々に代表画像が設定され、設定された各々の前記代表画像を閲覧者の端末に同時に表示させるサーバのコンピュータに実行させるためのプログラムであって、前記閲覧者の端末に記憶され、前記複数の動画像に含まれる第1動画像の第1代表画像に関する情報を、前記閲覧者の端末から取得する処理と、前記第1代表画像に関する情報を取得した場合、前記第1動画像に設定された第2代表画像に変えて、前記第1代表画像を前記第1動画像の代表画像として前記閲覧者の端末に送信する処理とをサーバのコンピュータに実行させる。
Server according to the present invention is representative images set to each of a plurality of moving images posted, a server for displaying simultaneously the representative image of each set in the viewer's terminal, the viewer terminal And acquiring information related to the first representative image of the first moving image included in the plurality of moving images from the browser terminal, and acquiring information related to the first representative image by the acquiring unit. If you, and a first place of the second representative image set in the moving image, the control unit transmitting the first representative image in the viewer's terminal as a representative image of the first moving image.
Electronic device system according to the present invention includes a server as claimed in any one of claims 16, and a terminal of the viewer.
The program according to the present invention is a program for causing a computer of a server to display a representative image for each of a plurality of posted moving images and to display each of the set representative images simultaneously on a viewer's terminal. A process of acquiring information about a first representative image of a first moving image stored in the viewer's terminal and included in the plurality of moving images from the viewer's terminal ; and when acquiring the information, the first change to the second representative image set in the moving image, the process and a server to be transmitted to the viewer's terminal a first representative image as a representative image of the first moving picture To run on a computer.
本発明によれば、ユーザが地図上で選択した動画の主要部分を直ぐに見ることができる。 According to the present invention, it is possible to immediately see the main part of the moving image selected by the user on the map.
図1〜図18により本発明の実施の形態を説明する。
以下に説明する動画再生装置(システム)は、表示された地図で特定される地域に関連する動画を再生可能とするもので、特にカメラを移動させながら撮影した動画(例えば、自動車、自転車、航空機などに搭載したカメラで撮影した動画や、歩きながら撮影した動画)を再生する際の便宜を図ったものである。
An embodiment of the present invention will be described with reference to FIGS.
A moving image playback apparatus (system) described below is capable of playing back a moving image related to an area specified by a displayed map, and particularly, a moving image (for example, an automobile, a bicycle, an aircraft, etc.) shot while moving a camera. For example, a movie taken with a camera mounted on the camera or a movie taken while walking) is played back.
動画撮影が可能なカメラ(ビデオカメラや動画機能付きデジタルスチルカメラなど)のうち、GPS受信機を備えたものでは、所定時間おきに動画ファイルにカメラの位置情報(撮影位置情報)を埋め込むことができる。本装置では、その位置情報を利用して地図上にカメラの移動経路を示す線を表示し、その移動経路に対応させて、動画のいずれかのフレームをインデックス画像としてサムネイル表示する。そして、ユーザがサムネイル画像に対して再生操作を行うことで、その動画を再生する。
以下の説明では、上記カメラの移動経路を示す線を「動画ルート」、動画ルートに対応する動画を「ルート動画」と呼ぶ。
Among cameras capable of shooting moving images (such as video cameras and digital still cameras with moving image functions) equipped with a GPS receiver, camera position information (shooting position information) may be embedded in a moving image file every predetermined time. it can. In this apparatus, a line indicating the movement path of the camera is displayed on the map using the position information, and any frame of the moving image is displayed as a thumbnail as an index image in correspondence with the movement path. Then, when the user performs a reproduction operation on the thumbnail image, the moving image is reproduced.
In the following description, a line indicating the moving route of the camera is referred to as “moving image route”, and a moving image corresponding to the moving image route is referred to as “route moving image”.
装置(システム)の形態としては、ネットワーク上のサーバに上記の機能を組み込み、利用者が各端末からネットワークを介してサーバにアクセスし、動画を投稿したり、投稿された動画を地図上で再生できるようにするサービスが考えられる。インターネット回線を用いたものでもよいし、より小規模なネットワークでもよい。サーバとの接続は、Webブラウザを用いてもよいし、専用のアプリケーションソフトウェアを用いてもよい。あるいはネットワークを利用せず、個々のコンピュータにおいて利用するためのアプリケーションソフトウェアとして上記の機能が提供されるようにしてもよい。 As a form of the device (system), the above functions are incorporated in a server on the network, and a user accesses the server from each terminal via the network to post a video or play a posted video on a map. A service to enable this is conceivable. It may be an internet line or a smaller network. For connection to the server, a Web browser may be used, or dedicated application software may be used. Alternatively, the above functions may be provided as application software for use in individual computers without using a network.
以下、不特定多数の利用者を対象とした動画共有サービスを例に挙げて詳細に説明する。
図1は本システムの概略構成図である。各サービス利用者(以下、ユーザ)は、パーソナルコンピュータ(以下、ユーザPC)10や、携帯電話機からインターネット回線20を経由してサービス提供者のサーバ30にアクセスする。
Hereinafter, a moving image sharing service for an unspecified number of users will be described in detail as an example.
FIG. 1 is a schematic configuration diagram of this system. Each service user (hereinafter referred to as a user) accesses the
サーバ30は、通信を行うための通信部31と、地図表示を行うための地図データベースDB1や動画データベースDB2、各種プログラムなどが格納される記憶部32と、プログラムを実行するためのCPU33とを有している。動画データベースDB2には、ユーザからアップロードにより投稿された動画が登録される。CPU33は、ユーザから動画が投稿されると、後述する検索処理を実現するために、その動画ファイルに埋め込まれた種々の動画情報(撮影情報等)を読み出し、それらの動画情報や、動画情報を解析して得られる情報を動画ファイルに対応づけて動画データベースDB2に格納する。
The
ユーザPC10は、PC本体11と、マウスやキーボード等の操作部12と、表示装置としてのディスプレイ13とを有する。
The user PC 10 includes a PC
図2〜図10はサーバ30のCPU33によって実行されるプログラムの処理手順を示している。
このプログラムは、予めサーバ30の記憶部32に組み込まれたもので、動画の観賞を目的としたユーザを対象としたものである。ユーザがPC10からWebブラウザ等を用いてサーバ30にアクセスし、所定の操作を行うと、サーバ30のCPU33によってこのプログラムが実行される。なお、記憶部32の動画データベースDB2には、投稿者としてのユーザによってアップロードされた複数の動画が既に格納されているものとする。
2 to 10 show a processing procedure of a program executed by the
This program is incorporated in the
図2のステップS1では地図データベースDB1から地図情報を取得し、ステップS2では、取得した地図情報に基づいて、ユーザPC10のディスプレイ13に地図画面(初期画面)を表示する。
In step S1 of FIG. 2, map information is acquired from the map database DB1, and in step S2, a map screen (initial screen) is displayed on the
図11はディスプレイ13に表示された地図画面の一例を示している。地図画面では、地図表示部41が中央に配置されるとともに、その周辺にユーザ操作部として、インデックス選択部42、検索部43、動画再生操作部44、表示条件入力部45などが配置される。初期状態では、例えば日本全域を含む広域地図が地図表示部41に表示される。地図表示部41においては、ユーザがマウス操作等によって地図の縮尺を自由に変更でき、また地図上をマウスでドラッグするなどして表示範囲を自由に変更できる。
なお、初期画面で表示される地図範囲を各ユーザが設定できるようにしてもよい。
FIG. 11 shows an example of the map screen displayed on the
In addition, you may enable it for each user to set the map range displayed on an initial screen.
初期画面表示後、CPU33はステップS3〜S8のループでいずれかのユーザ操作を待ち、ステップS3で終了操作が確認されると、処理を終了させる。ステップS4で上記縮尺や表示範囲の変更操作(地図操作)が確認されると、それに応じてステップS9で縮尺や表示範囲を変更する(地図画面変更)。ステップS10では、動画データベースDB2を検索し、現在の表示地図範囲に対応するルート動画ファイルが存在する場合は、その動画に対する動画ルートを地図上に表示する。動画ルートは、動画ファイルから所定の時間周期で埋め込まれた撮影位置情報を読み出し、撮影開始から終了までの各位置情報に対応する地図上の点を線で結ぶことで作成され、表示される。
なお、動画ルートの表示は、表示された地図の縮尺率がある程度以上のときにのみ行うようにすることが望ましい。
After displaying the initial screen, the
It is desirable to display the moving image route only when the scale of the displayed map is a certain level or higher.
図12はある地域を地図表示部41に表示した例を示している。地図上には、5つの動画に対応する動画ルートR1〜R5が表示されている。図では5本の動画ルートを線種を変えて示してあるが、実際には線の色を変えて表示することで区別し易くなる。また、複数の動画ルートが同一部分を通る場合は、ルート線が互いに重ならないようにずらして表示する。なお、車載カメラ等で撮影した動画の場合、動画ルートは図のように道路に沿った線となるが、空撮の場合はそうとは限らない。
なお1箇所に留まって撮影した動画や、移動範囲の短い動画については、動画ルートは点あるは短い線で表示されるため、後述するインデックス表示を行うと動画ルートが視認されないことがあり得る。
FIG. 12 shows an example in which a certain area is displayed on the
Note that for moving images shot at one place or moving images with a short moving range, the moving image route is displayed with dots or short lines, and therefore the moving image route may not be visually recognized when index display described later is performed.
次に、インデックス処理について説明する。
ここでいうインデックスとは、ルート動画から抽出されたいずれかのフレームの画像(インデックス画像)を指す。インデックス画像を動画ルートに対応させてサムネイル表示することで、その動画ルートに対応する動画の内容をユーザに知らしめることができる。
Next, index processing will be described.
The index here refers to an image (index image) of any frame extracted from the root moving image. By displaying the index image as a thumbnail corresponding to the moving image route, it is possible to inform the user of the contents of the moving image corresponding to the moving image route.
図12においては、動画ルートR1,R2に対する各2個のインデックス画像SN1,SN2:SN3,SN4が各ルートに重ねて表示されている。 In FIG. 12, two index images SN1, SN2: SN3, SN4 for the moving image routes R1, R2 are displayed so as to overlap each route.
後述するように、CPU33は、まず各動画の主要部分(基本的にはユーザが見たいと思われる部分、あるいは撮影者が見せたいと思われる部分)を推定し、その主要部分に含まれるいずれかのフレーム画像をインデックス画像とする。主要部分の推定およびインデックス画像の抽出は、種々の観点から行うことができ、1本の動画ルートに対するインデックス画像が2以上の場合もあり、また1つも表示されない場合もある。
As will be described later, the
インデックス画像を如何なる観点から作成するかは、インデックス選択部42においてユーザが選択可能である。インデックス選択部42には、「撮影開始」、「ランドマーク」、「速度変化」、「映像変化」、「おすすめ」、「再生回数」、「ユーザ指定」の7個の項目がある。ユーザは、各項目のチェックボックスにチェックを入れることで、1または複数の項目を選択できる。
From what point of view the index image is created, the
CPU33は、ステップS10の動画ルート表示後、ステップS11のインデックス処理に進む。インデックス処理の詳細を示す図3において、ステップS101では、インデックス項目としての「撮影開始」が選択されているか否かを判定し、肯定されるとステップS102でインデックス作成A処理を行う。
After displaying the moving image route in step S10, the
インデックス作成A処理の詳細を示す図4において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
ステップS201では、動画の撮影開始点が現在の表示地図範囲内にあるか否かを判定する。ステップS201が肯定されるとステップS202に進み、そのルート動画の撮影開始フレームの画像をインデックス画像とする。ステップS203では、インデックス画像を当該動画ルートの撮影開始点に対応する地図上の位置に表示する。これによりユーザは、各ルート動画の撮影開始点および撮影開始フレームの内容を容易に確認できる。もし、撮影開始点が現在の表示地図範囲外であれば、インデックスの作成および表示は行わない。
In FIG. 4 showing the details of the index creation A process, the
In step S201, it is determined whether or not the shooting start point of the moving image is within the current display map range. If step S201 is affirmed, the process proceeds to step S202, and an image of the shooting start frame of the route moving image is set as an index image. In step S203, the index image is displayed at a position on the map corresponding to the shooting start point of the moving image route. Thereby, the user can easily confirm the contents of the shooting start point and the shooting start frame of each route moving image. If the shooting start point is outside the current display map range, the index is not created and displayed.
図3のステップS103では、「ランドマーク」が選択されているか否かを判定し、肯定されると、ステップS104でインデックス作成B処理を行う。 In step S103 of FIG. 3, it is determined whether or not “landmark” is selected. If the determination is affirmative, index creation B processing is performed in step S104.
インデックス作成B処理の詳細を示す図5において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
ステップS301では、表示地図範囲内にランドマークが存在するか否かを判定し、肯定されるとステップS302でランドマークの位置情報を取得する。ランドマークに関する情報は、本システムがデータベースとして有していてもよいが、有していないない場合は、所定のWebサービスを介して入手するようにすればよい。例えば、全世界の地理データを収めたデータベースを有し、それらのデータをWebサービスを通じて提供するプロジェクトが実在し、かかるサービスを介してランドマークの位置情報(緯度、経度情報)などを取得することができる。
In FIG. 5 showing the details of the index creation B process, the
In step S301, it is determined whether or not a landmark exists within the display map range. If the landmark is affirmed, the landmark position information is acquired in step S302. Information about landmarks may be included in the system as a database, but if not, it may be obtained through a predetermined Web service. For example, there is a project that has a database containing geographical data of the whole world and provides such data through a web service, and the location information (latitude and longitude information) of landmarks is acquired through such a service. Can do.
ここで、図12の例では、インデックス選択部42において「ランドマーク」が選択されている。表示地図範囲内には「塔」および「寺院」の2つのランドマークが存在し、これらのランドマークに対応するシンボルマークMK1,MK2が、地図上のそれぞれの存在位置に表示されている。
Here, in the example of FIG. 12, “Landmark” is selected in the
図5のステップS303では、表示地図範囲内のルート動画を解析し、ランドマークとしての対象物が映っている部分を抽出し、その部分をその動画の主要部分とする。対象物が映っているか否かは、例えば次のようにして判別することができる。 In step S303 in FIG. 5, the route moving image within the display map range is analyzed, a portion where the object as a landmark is reflected is extracted, and the portion is set as a main portion of the moving image. Whether or not the object is reflected can be determined, for example, as follows.
ルート動画を撮影したカメラが電子コンパスを有していれば、撮影レンズが向いている方向をカメラが認識でき、その情報をカメラの位置情報とともに、所定の時間周期で動画ファイルに埋め込むことができる。また、撮影レンズの焦点距離の情報も同様に動画ファイルに埋め込むことができる。CPU33は、これらの情報を動画ファイルから読取り、レンズの向き情報と、カメラの位置情報と、対象物の位置情報とに基づき、各時点において撮影レンズが対象物を向いているか(対象物が映っているか)否かを判定する。また、カメラと対象物のそれぞれ位置情報から両者の距離が判明し、これに焦点距離情報を加味することで、対象物がどの程度の大きさで映っているか否かも推定できる。
If the camera that shot the route movie has an electronic compass, the camera can recognize the direction in which the taking lens is facing, and the information can be embedded in the movie file along with the position information of the camera at a predetermined time period. . Similarly, information on the focal length of the taking lens can be embedded in the moving image file. The
ここで、レンズは対象物に向けられていても、カメラと対象物との間に遮蔽物が存在し、実際には対象物が映っていないということもあり得る。そこで、対象物の有無をより厳密に判定するならば、上記の方法で対象物が映っていると判定されたフレームに対し、更に画像解析を行い、パターンマッチングにより対象物が真に映っているか否かを判定し、映っていると判定されたフレームのみを抽出するようにしてもよい。パターンマッチングの元となるランドマークの画像は、サーバ30が予め有していてもよいし、外部のWebサービス等から入手するようにしてもよい。また、撮影レンズの向きを示す情報を持たない動画については、最初からパターンマッチングのみによってランドマークが映っているか否かを判別するようにしてもよい。
Here, even if the lens is directed toward the object, there may be a shielding object between the camera and the object, and the object is not actually reflected. Therefore, if the presence or absence of an object is determined more strictly, whether or not the object is truly reflected by pattern matching after further image analysis is performed on the frame in which the object is determined to be reflected by the above method. It may be determined whether or not, and only the frame determined to be reflected may be extracted. The landmark image that is the basis of pattern matching may be stored in the
CPU33は、ステップS304において、対象物が映っていると判定されたフレームが連続する部分をその動画の主要部分とする。次いでステップS305では、その主要部分からいずれかのフレームの画像をインデックス画像として抽出する(詳細は後述する)。ステップS306では、抽出されたインデックス画像を対応する動画ルート上の対応する位置に表示する。対応する位置とは、撮影時にそのインデックス画像が得られた地点に対応する地図上の位置であり、これは動画に埋め込まれた撮影位置情報から認識できる。
なお、ランドマークが映っていないルート動画に対しては、「ランドマーク」に対するインデックス画像の抽出および表示はなされない。
In step S304, the
It should be noted that the index image for the “landmark” is not extracted and displayed for the route moving image in which the landmark is not shown.
次に、インデックス画像の抽出および表示方法について説明する。
図13は、動画ルートR11,R12の各主要部分M11,M12の先頭フレームの画像をインデックス画像SN11,SN12として抽出した例を示している。つまり、移動中にカメラがランドマークを捕らえ始めたときのフレームがインデックス画像SN11,SN12となり、地図上の主要部分M11,M12の先頭位置に表示される。
Next, an index image extraction and display method will be described.
FIG. 13 shows an example in which the images of the top frames of the main portions M11 and M12 of the moving image routes R11 and R12 are extracted as index images SN11 and SN12. That is, the frame when the camera starts to capture the landmark during movement becomes the index images SN11 and SN12, and is displayed at the head position of the main parts M11 and M12 on the map.
ここで、上述したように各動画ルートは色を変えて表示されるが、個々の動画ルートのうち、主要部分(ランドマークが映っている部分)に相当する箇所は線を強調表示することで、非主要部分(ランドマークが映っていない部分)と容易に区別できる。強調表示の手法としては、例えば主要部分と非主要部分とで線の色を変える、主要部分は太線で表示する、主要部分は線を点滅表示するなどの方法が考えられる。図13では色の濃い部分が主要部分を表している。 Here, as described above, each moving image route is displayed with a different color, but in each moving image route, a portion corresponding to a main portion (a portion where a landmark is reflected) is highlighted. , And easily distinguishable from non-major parts (parts where no landmarks are shown). As a highlighting method, for example, a method of changing the color of the line between the main part and the non-main part, displaying the main part with a thick line, and displaying the main part with a blinking line can be considered. In FIG. 13, the dark part represents the main part.
また、地図上に多くの動画ルートが表示される場合は、インデックス表示も煩雑となるが、各インデックス画像を対応する動画ルート(主要部分)と同色の矩形枠で囲むことで、動画ルートとインデックス画像との対応関係が視覚的に容易に判別できる。これらの措置は、「ランドマーク」以外の他のインデックス項目に対しても同様に適用可能である。 Also, when many video routes are displayed on the map, the index display becomes complicated, but by enclosing each index image with a rectangular frame of the same color as the corresponding video route (main part), the video route and index are displayed. The correspondence with the image can be easily determined visually. These measures can be similarly applied to index items other than “Landmark”.
さらに、画面の煩雑さを解消するために、表示される動画の数をユーザが制限できるようにしてもよい。本例では、表示条件入力部45に表示条件および最大表示数を入力することで、入力値を超える数の動画(動画ルートとインデックス画像)が表示されないようになっている。表示条件としては、「撮影日時の新しい順」の他に、「撮影日時の古い順」、「再生回数の多い順」、「投稿日時の新しい順」、「投稿日時の古い順」などが選択肢として存在する。なお、表示数制限は、ルート動画と、後述する非ルート動画に対して個別に行えるようにしてもよい。
Furthermore, in order to eliminate the complexity of the screen, the user may be able to limit the number of displayed videos. In this example, by inputting the display condition and the maximum display number to the display
図14に示す例では、インデックス画像SN21が動画ルートR21の主要部分M21の中途に表示されている。この表示位置は、主要部分M21のうち当該ランドマークに最も近い(撮影位置とランドマーク位置との距離が最も短い)位置であり、インデックス画像SN21も当該位置にて取得されたフレームの画像となる。なお、インデックス画像とその表示位置は必ずしも一致させる必要はなく、例えば主要部分の先頭に相当する位置に、ランドマークの最も近い位置で得られたフレームの画像をインデックス画像として表示してもよい。 In the example shown in FIG. 14, the index image SN21 is displayed in the middle of the main part M21 of the moving image route R21. This display position is the position closest to the landmark in the main portion M21 (the distance between the shooting position and the landmark position is the shortest), and the index image SN21 is also an image of the frame acquired at the position. . Note that the index image and its display position do not necessarily match. For example, an image of a frame obtained at a position closest to a landmark may be displayed as an index image at a position corresponding to the head of the main part.
図15は図14と同様の動画ルートR21に対し、主要部分に複数のインデックス画像を表示した例を示している。例えば、主要部分において所定時間または所定移動距離ごとのフレーム画像をインデックス画像として複数抽出し、それぞれの画像を対応する位置に表示することが考えられる。このように単一の動画ルートに複数のインデックス画像が存在する場合は、それらが同一の動画ルートに対応する画像であることが分かるように、複数のインデックス画像を重ねて表示することが望ましい。逆に同一の移動経路に対して複数の動画ルートが存在する場合、異なる動画ルートのインデックス画像は、互いに重ならないように表示することが望ましい。なお、インデックス画像を重ねて表示すると、下のインデックス画像は全体を視認できないため、例えば重なったインデックス画像にマウスポインタを合わせると、重なっていた複数の動画が重ならないように並んで表示されるようにしてもよい。 FIG. 15 shows an example in which a plurality of index images are displayed in the main part for the moving image route R21 similar to FIG. For example, it is conceivable to extract a plurality of frame images for each predetermined time or predetermined moving distance as index images in the main part and display each image at a corresponding position. As described above, when a plurality of index images exist in a single moving image route, it is desirable to display the plurality of index images so that they are images corresponding to the same moving image route. Conversely, when there are a plurality of moving image routes for the same movement route, it is desirable to display the index images of different moving image routes so as not to overlap each other. In addition, if the index images are displayed in an overlapping manner, the entire index image below cannot be visually recognized. For example, when the mouse pointer is moved to the overlapping index images, multiple overlapping videos are displayed side by side so that they do not overlap. It may be.
図16も複数のインデックス画像を表示する例であるが、この例では、上述したレンズ方位情報に応じて地図平面におけるインデックス画像の向きを変えている。これによれば、インデックス画像を見て撮影者が何を撮影したかが分かる。 FIG. 16 also shows an example in which a plurality of index images are displayed. In this example, the direction of the index image on the map plane is changed according to the lens orientation information described above. According to this, it is possible to know what the photographer photographed by looking at the index image.
なお、基本的には主要部分のいずれのフレーム画像をインデックス画像としてもよい。例えば主要部分からランダムにインデックス画像を抽出するようにしてもよい。 Basically, any frame image of the main part may be used as the index image. For example, an index image may be extracted at random from the main part.
詳細は後述するが、表示されたインデックス画像に対してユーザが再生操作を行うと、その動画の主要部分の再生がなされる。したがって、ランドマークの動画を見たいユーザは、インデックス選択部42で「ランドマーク」を選択すれば、ランドマークが映っている動画を直ぐに見つけられるだけでなく、その動画のランドマークが映っている部分を直ぐに見ることができる。
Although details will be described later, when the user performs a reproduction operation on the displayed index image, the main part of the moving image is reproduced. Therefore, if a user who wants to see a moving image of a landmark selects “landmark” by the
次に、図3のステップS105で「速度変化」が選択されていると判定された場合、CPU33はステップS106でインデックス作成C処理を行う。インデックス作成C処理の詳細を示す図6において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
Next, when it is determined in step S105 in FIG. 3 that “speed change” is selected, the
ステップS401では、ルート動画を撮影したときのカメラの移動速度を求める。例えば、カメラでルート動画を撮影する際に、周期的に位置情報と日時情報とがセットで動画ファイルに埋め込まれる設定にしておけば、それらの情報を読み出すことで、その動画におけるカメラの移動速度を求めることができる。ここでは、所定時間ごとに動画を幾つかのパートに分割し、パートごとに移動平均速度を求める。パートの時間をユーザが指定できるようにしてもよい。 In step S401, the moving speed of the camera when shooting the route moving image is obtained. For example, when shooting a route movie with a camera, if you set the position information and date and time information to be embedded in a movie file as a set periodically, the camera movement speed in that movie can be read by reading that information Can be requested. Here, the moving image is divided into several parts every predetermined time, and the moving average speed is obtained for each part. The user may be able to specify the part time.
ステップS402では、移動平均速度の変化を解析し、ルート動画の主要部分を推定する。例えば移動平均速度が所定値以上低下した箇所が確認されたら、撮影者が何らかの対象物に注目して移動速度を緩めたと推定できる。したがって、動画のうち移動平均速度が所定値以上低下してから再び所定値以上増加するまでの部分(撮影者が注目した対象物が映っていると推定される部分)を主要部分と判断する。あるいは、移動平均速度が所定値以上低下した箇所から最後までを主要部分と判断してもよい。ステップS403では、主要部分からインデックス画像を抽出し、ステップS404でその画像を対応する位置に表示する。例えば、移動平均速度が所定値以上低下した箇所のフレーム画像(主要部分の先頭のフレーム画像)をインデックス画像とすればよい。 In step S402, a change in the moving average speed is analyzed, and a main part of the route moving image is estimated. For example, if a place where the moving average speed is reduced by a predetermined value or more is confirmed, it can be estimated that the photographer has relaxed the moving speed by paying attention to some object. Therefore, a portion of the moving image from when the moving average speed decreases by a predetermined value or more to a time when the moving average speed increases again by a predetermined value or more (a portion estimated to show the object that the photographer has noticed) is determined as the main portion. Or you may judge from the location from which the moving average speed fell more than predetermined value to the last as a main part. In step S403, an index image is extracted from the main part, and in step S404, the image is displayed at a corresponding position. For example, a frame image (a first frame image of the main part) where the moving average speed has decreased by a predetermined value or more may be used as the index image.
図3のステップS107で「映像変化」が選択されていると判定された場合、CPU33はステップS108でインデックス作成D処理を行う。インデックス作成D処理の詳細を示す図7において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
If it is determined in step S107 in FIG. 3 that “video change” has been selected, the
ステップS501では動画のデータレートを解析し、ステップS502でその結果に基づいて主要部分を推定する。ここで、可変データレート(ビットレート)でエンコードされた動画の場合、動きの激しい部分はデータレートが高く、動きのない部分ではデータレートは低い。移動しながらの動画撮影の場合は、カメラを一定方向に向けたままのシーンでは、映像の変化が激しいためデータレートは高く、一方、何らかの対象物を追い続けたシーンではデータレートは低い。そこで、動画のデータレートを解析し、データレートが所定値以上低下した箇所から次にデータレートが所定値以上高くなった箇所を主要部分と判断する。あるいは、データレートが所定値以上低下した箇所から最後までの主要部分と判断してもよい。 In step S501, the data rate of the moving image is analyzed, and in step S502, the main part is estimated based on the result. Here, in the case of a moving image encoded at a variable data rate (bit rate), the data rate is high in a portion where movement is intense, and the data rate is low in a portion where there is no movement. In the case of moving image shooting while moving, the data rate is high in a scene where the camera is pointed in a certain direction because the change in video is severe, whereas the data rate is low in a scene in which a certain object is followed. Therefore, the data rate of the moving image is analyzed, and a portion where the data rate is next increased by a predetermined value or higher is determined as a main portion from a portion where the data rate is decreased by a predetermined value or more. Alternatively, it may be determined that the main part is from the point where the data rate has decreased by a predetermined value or more to the end.
ステップS503では、主要部分からインデックス画像を抽出し、ステップS504でその画像を対応する位置に表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。 In step S503, an index image is extracted from the main part, and in step S504, the image is displayed at a corresponding position. For example, the top frame image of the main part may be used as the index image.
なお、データレートの大きな変化がない動画については、「映像変化」に関するインデックス画像の抽出および表示は行わない。 It should be noted that index images relating to “video changes” are not extracted and displayed for moving images that have no significant change in data rate.
図3のステップS109で「おすすめ」が選択されていると判定された場合、CPU33はステップS110でインデックス作成E処理を行う。インデックス作成E処理の詳細を示す図8において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
If it is determined in step S109 in FIG. 3 that “recommendation” is selected, the
ステップS601では、ルート動画に対する推奨部分の有無を判定する。推奨部分は、動画の投稿者(多くは撮影者)が設定するもので、例えば、特に見せたい部分を推奨部分として、その先頭箇所と終了箇所とを示す情報を動画ファイルに埋め込むことができる。CPU33は、これらの情報の有無を判定し、存在すればステップS602でその推奨部分を主要部分とし、存在しなければそのままリターンする。
In step S601, it is determined whether or not there is a recommended portion for the route moving image. The recommended part is set by a video contributor (mostly a photographer). For example, the recommended part is a part that is particularly desired to be shown, and information indicating the beginning and end of the part can be embedded in the video file. The
ステップS603では、主要部分からインデックス画像を抽出し、ステップS604でその画像を対応する位置に表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。 In step S603, an index image is extracted from the main part, and in step S604, the image is displayed at a corresponding position. For example, the top frame image of the main part may be used as the index image.
図3のステップS111で「再生回数」が選択されていると判定された場合、CPU33はステップS112でインデックス作成F処理を行う。インデックス作成F処理の詳細を示す図9において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
If it is determined in step S111 in FIG. 3 that “number of times of reproduction” has been selected, the
ステップS701では、個々の動画から再生回数の最も多い領域を抽出する。これを実現するためにCPU33は、登録された各動画を所定時間ごとに幾つかの領域に分け、各領域の再生回数をカウントする処理を常時行う。その際、所定時間(例えば、10秒)以上連続して再生された領域のみ再生回数をカウントアップするようにする。再生時間が所定時間に満たない場合は、その領域の映像はそのユーザにとって特に興味のあるものではないと判断し、カウントアップは行わない。ステップS701で抽出される領域は、個々の動画のうち最も再生回数の多い1領域であってもよいし、再生回数が所定回数以上の全領域であってもよい。
In step S701, an area with the largest number of reproductions is extracted from each moving image. In order to realize this, the
ステップS702では、ステップS701で抽出した領域を主要領域とする。ステップS703では、主要部分からインデックス画像を抽出し、ステップS704でその画像を対応する位置に表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。 In step S702, the area extracted in step S701 is set as the main area. In step S703, an index image is extracted from the main part, and in step S704, the image is displayed at a corresponding position. For example, the top frame image of the main part may be used as the index image.
図3のステップS113で「ユーザ指定」が選択されていると判定された場合、CPU33はステップS114でインデックス作成G処理を行う。インデックス作成G処理の詳細を示す図10において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
If it is determined in step S113 in FIG. 3 that “user designation” has been selected, the
ステップS801では、ルート動画に対してユーザ(動画投稿者としてのユーザではなく、閲覧者としてのユーザ)による範囲指定があるか否かを判定する。範囲指定の詳細は後述するが、範囲指定がない場合はリターンし、範囲指定がある場合はステップS802で指定範囲を主要部分とする。ステップS803では、主要部分からインデックス画像を抽出し、ステップS804でその画像を対応する位置に表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。あるいは、主要部分からユーザがインデックス画像を選べるようにしてもよい。
なお、ユーザに操作により、インデックス画像の表示/非表示を個別に切換えられるようにしてもよい。
In step S801, it is determined whether or not there is a range designation by the user (the user as a viewer, not the user as the video poster) for the root video. Details of the range specification will be described later. If there is no range specification, the process returns. If there is a range specification, the specified range is set as the main part in step S802. In step S803, an index image is extracted from the main part, and in step S804, the image is displayed at a corresponding position. For example, the top frame image of the main part may be used as the index image. Alternatively, the user may select an index image from the main part.
It should be noted that display / non-display of the index image may be individually switched by an operation by the user.
以上のインデックス処理(図2のステップS11)が終了すると、CPU33はステップS3に戻って次の操作を待つ。ステップS5でインデックス項目選択操作が確認されると、ステップS12に進む。インデックス項目選択操作は、ユーザがインデックス選択部42のチェックボックスにチェックを入れる、あるいはチェックを外す操作である。チェックが入れられた場合は、その項目に応じたインデックス作成処理(図3のA〜F処理のいずれか)を行い、チェックが外された場合は、その項目に応じたインデックス画像の表示を解除する。
When the above index processing (step S11 in FIG. 2) ends, the
ここで、動画閲覧者としてのユーザは、ルート動画を観賞して気に入った部分が見つかった場合、その部分の先頭フレームと最終フレームとを指定することで、範囲指定することができる。CPU33は、ステップS6でユーザによる範囲指定操作を確認すると、その範囲指定情報を各ユーザ固有の情報として動画に対応づけて記憶する。例えば、範囲指定操作がなされたユーザPC10の記憶部にその範囲指定情報を記憶することで、各ユーザとの対応がつく。記憶された範囲指定情報は、ユーザによって範囲指定解除操作がなされない限りは保持される。CPU33は、上述したステップS801の判定処理において、ユーザPC10の記憶部から範囲指定情報の読取り動作を行い、その結果に基づいて各動画に対する範囲指定の有無を判断する。ステップS14では、範囲指定操作を表示に反映させるために、上述したインデックス作成G処理(図10)を行う。
Here, when a user as a video viewer finds a favorite part by watching the root video, the user can specify a range by specifying the first frame and the last frame of the part. When the
以上は位置情報が埋め込まれた動画について説明したが、本システムは、位置情報を持たない動画ファイル、例えばGPS受信機を持たないカメラで撮影された動画ファイルをも扱うことができる。ただし、位置情報がないと動画ルートを作成できないため、上述したルート動画とは別にインデックス画像を取得する必要がある。以下、位置情報のない動画を非ルート動画と呼ぶ。 Although the above has described a moving image in which position information is embedded, the present system can also handle a moving image file that does not have position information, for example, a moving image file shot by a camera that does not have a GPS receiver. However, since the moving image route cannot be created without the position information, it is necessary to acquire an index image separately from the above-described route moving image. Hereinafter, a moving image without position information is referred to as a non-root moving image.
非ルート動画を投稿するにあたり、投稿者は予め動画の主要部を指示するとともに、キーワードを入力する。これらの主要部とキーワードは、当該動画ファイルに対応づけられて動画データベースDB2に記憶される。 When posting a non-root video, the contributor instructs the main part of the video in advance and inputs a keyword. These main parts and keywords are associated with the moving image file and stored in the moving image database DB2.
CPU33は、地図表示がなされると、その表示地図範囲に含まれる地名や、ランドマーク名、駅名、その他のキーワードと一致するキーワードが対応づけられた非ルート動画を動画データベースDB2から検索し、見つかった場合はその動画の主要部から抽出したフレームをインデックス画像として表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。あるいは、投稿者がインデックス画像とすべきフレームを指定できるようにしてもよい。図12の例では、上記のようにして検索された非ルート動画のインデックス画像SN5,SN6が、地図表示部41の左下に表示されている。
When the map is displayed, the
次に、検索について説明する。
検索は、興味のあるランドマーク等の動画を手早く探したり、また表示対象となる動画が多すぎる場合に表示を絞り込む目的でなされる。検索操作は、検索操作部43においてユーザがいずれかの検索条件(複数可)を指定し、最下部の検索ボタンをクリックすることでなされる。CPU33は、図2のステップS7で上記検索操作を確認すると、ステップS15において、当該地図表示上で表示可能な動画(ルート動画、非ルート動画)のうち、指定された検索条件に適った動画を動画データベースDB2から検索し、それらの動画を表示対象とする。ステップS16では、検索結果、すなわち表示対象動画の動画ルートとインデックス画像を表示する。インデックス画像の取得方法は上述した通りである。
Next, the search will be described.
The search is made for the purpose of quickly searching for moving pictures such as landmarks of interest or narrowing down the display when there are too many moving pictures to be displayed. The search operation is performed by the user specifying any search condition (s) in the
検索操作には次のようなものがある。
(1)キーワード入力:ユーザがランドマーク等の名称を上段のテキストボックスに入力する。この場合、CPU33は、そのキーワードに基づいて動画データベースDB2から動画を抽出し、動画ルートとインデックス画像を表示する。キーワードがランドマーク名と一致した場合、CPU33はインデックス選択部42の「ランドマーク」と「ユーザ指定」のチェックを自動的にオンに、その他のチェックをオフとし、インデックス作成B処理およびインデックス作成G処理を行う。このとき、非表示に設定されていたインデックス画像も表示されるようにすることが望ましい。
(2)日時指定:ユーザが指定範囲の最初の日時と最後の日時を入力する。この場合、CPU33は、上記指定範囲内の日付の動画を動画データベースDB2から検索する。あるいは、年、月、季節(春夏秋冬)、祝日(春分の日、海の日など)、時刻等をそれぞれ指定して検索を行えるようにしてもよい。
(3)天気指定:ユーザが撮影時の気象条件(晴れ、雨など)を指定する。この場合、CPU33は、指定された気象条件の下で撮影された動画を検索する。動画撮影時の気象条件は、例えば動画ファイルから得た撮影日時および撮影位置に基づいて外部の気象データ提供サービスから情報を取得することができる。
(4)乗り物指定:撮影時に移動手段として使用した乗り物を選択して指定する。自動車、自転車、徒歩などが選択肢として存在する。移動手段については、撮影者が動画ファイルにその情報を埋め込むようにすることで取得できる。CPU33は、取得した乗り物情報に基づき、その乗り物を利用して撮影された動画の検索を行う。
(5)範囲の選択:ユーザが表示地図範囲上の位置または範囲を指定する。クリックによる1点指定と、ドラッグによる範囲指定を選択することができる。この場合、CPU33は、指定された位置または範囲の場所が移っている動画を検索する。
上記(1)〜(5)のうち2以上の項目を指定した場合は、それらのAND検索となる。
Search operations include the following.
(1) Keyword input: The user inputs a name such as a landmark in the upper text box. In this case, CPU33 extracts a moving image from moving image database DB2 based on the keyword, and displays a moving image route and an index image. When the keyword matches the landmark name, the
(2) Date and time designation: The user inputs the first date and the last date and time in the designated range. In this case, the
(3) Weather designation: The user designates weather conditions (sunny, rain, etc.) at the time of shooting. In this case, the
(4) Vehicle designation: Select and designate a vehicle used as a moving means during photographing. Cars, bicycles, walking, etc. exist as options. The moving means can be acquired by the photographer embedding the information in the moving image file. CPU33 searches the moving image image | photographed using the vehicle based on the acquired vehicle information.
(5) Selection of range: The user specifies a position or range on the display map range. One point designation by clicking and range designation by dragging can be selected. In this case, the
When two or more items are designated among the above (1) to (5), the AND search is performed.
図17,図18は検索を行った場合の結果表示例を示し、図17はキーワードとしてランドマークである「塔」の名称を入力し、図18は同様に「寺院」の名称を入力したものである。いずれにおいても撮影年月日が範囲指定されている。図17では、検索によって当該「塔」が映っている主要部分を含む複数のルート動画が抽出されており、それらの動画ルートおよびインデックス画像が表示されている。上述したように、各動画ルートの主要部分は当該「塔」が連続して映っている部分であり、インデックス画像はその主要部分から抽出されたフレームの画像である。図18についても同様である。 FIG. 17 and FIG. 18 show examples of results displayed when a search is performed. FIG. 17 shows the name of the tower “Tower” as a keyword, and FIG. 18 similarly shows the name of a “temple”. It is. In both cases, the shooting date range is specified. In FIG. 17, a plurality of route moving images including the main part showing the “tower” are extracted by the search, and the moving image route and the index image are displayed. As described above, the main part of each moving image route is a part where the “tower” is continuously shown, and the index image is an image of a frame extracted from the main part. The same applies to FIG.
上記以外の検索条件として、撮影時の移動速度を指定できるようにしてもよい。例えば、**Km/h〜@@Km/hのように指定する。この速度は、平均速度であってもよいし、最高速度であってもよい。**Km/h以上(以下)のような指定方法でもよい。ユーザが指定方法を選べるようにしてもよい。いずれのケースにおいても、CPU33は移動速度が指定速度範囲内の動画を表示対象動画として検索する。なお、移動速度については、図6のステップS401で説明した方法で取得できる。撮影地の高度を指定できるようにしてもよい。高度はGPS情報に含まれる。また、例えば「皆既日食」などのイベント名を入力すると、自動的に位置および日時が設定され、それらに基づいて検索が行われるようにしてもよい。
As a search condition other than the above, the moving speed at the time of shooting may be designated. For example, ** Km / h to @@ Km / h are specified. This speed may be an average speed or a maximum speed. ** A designation method such as Km / h or more (or less) may be used. The user may be allowed to select a designation method. In any case, the
検索部操作部43にある「領域を自動的に変更する」チェックボックスは、入力されたキーワードに応じて表示地図範囲を変更するか否かをユーザが指示するためのものである。チェックがオンのときには、入力されたキーワードに対応する対象物(ランドマークなど)が地図の中心に位置するように、かつ全ての表示対象動画の動画ルートやインデックス画像が表示されるように、地図のスクロールおよび縮尺率の変更をCPU33が自動的に行う。チェックがオフの場合は自動変更はなされない。
The “automatically change region” check box in the search
次に、動画の再生について説明する。
CPU33は、図2のステップS8で動画の再生関連操作を確認すると、ステップS17でその操作に応じた再生処理を行う。再生関連操作とは、動画再生操作部44(図12)の各ボタンの操作を指す。
Next, the reproduction of moving images will be described.
When the
例えば、ユーザが再生したい動画(ルート動画、非ルート動画)のインデックス画像をクリック等で選択し、再生ボタン44aをクリックすると、CPU33は、その動画のうち当該インデックス画像に対応する主要部分を、そのインデックス画像が表示されていた矩形枠内で再生する。インデックス画像を選択せずに再生ボタン44aを操作すると、インデックス表示がなされている動画が1ずつ順に再生されるようにしてもよい。再生順序は問わないが、インデックス画像の表示位置が地図の中心に近い動画から順に再生されるようにしてもよい。
For example, when the user selects an index image of a moving image (root moving image, non-root moving image) to be reproduced by clicking, and clicks the
再生ボタン44aを用いず、マウスで地図上の動画ルートをダブルクリックしたり、動画ルートに沿って線を描くようにドラッグすることで、その動画ルートに対応する動画の主要部が再生されるようにしてもよい。その際、撮影時の移動方向と逆方向にドラッグすると、動画が逆方向に再生されるようにしてもよい。
By double-clicking the video route on the map with the mouse or dragging a line along the video route without using the
動画再生時には、撮影位置と地図上の該当する位置とが常に一致するように、CPU33はルート動画の矩形枠を当該動画ルート上で移動させる。この動作は、動画ファイルに所定周期で埋め込まれている位置情報と時刻情報、および地図の縮尺率等に基づいて矩形枠の位置を逐次演算することで行われる。これによりユーザは、現在の映像がどの位置で撮られているかを確認しながら動画を鑑賞できる。
なお、ルートのない動画の矩形枠は移動しない。
At the time of moving image reproduction, the
Note that the rectangular frame of a moving image without a route does not move.
動画再生時に再生ボタン44aをクリックすると、動画は中断状態となり、矩形枠も停止する。また、全再生ボタン44bを操作すると、表示されている全てのルート動画の主要部分が同時に再生される。その他のボタン操作により、動画の早送り/戻し、主要部分の頭出しなどが行える。
When the
なお、インデックス画像にマウスカーソルを重ねると、対応する動画ルートがハイライト表示されるとともに、その動画に関する情報が表示されるようにしてもよい。表示される情報は、「再生時間」、「移動距離」、「平均移動速度」などが考えられる。 When the mouse cursor is superimposed on the index image, the corresponding moving image route may be highlighted and information related to the moving image may be displayed. The displayed information can be “reproduction time”, “movement distance”, “average movement speed”, and the like.
以上は動画の主要部を再生する場合について説明したが、非主要部をも含めて動画を再生できるようにしてもい。 The case where the main part of the moving image is reproduced has been described above, but the moving image may be reproduced including the non-main part.
10 ユーザPC
20 インターネット回線
30 サーバ
31 通信部
32 記憶部
33 CPU
41 地図表示部
42 インデックス選択部
43 検索部
44 動画再生操作部
45 表示条件入力部
DB1 地図データベース
DB2 動画データベース
M11,M12,M21 動画の主要部分
MK1,MK2 ランドマークのシンボル
R1,R2・・・ 動画ルート
SN1,SN2・・・ インデックス画像(サムネイル画像)
10 User PC
20
41
Claims (24)
前記閲覧者の端末に記憶され、前記複数の動画像に含まれる第1動画像の第1代表画像に関する情報を、前記閲覧者の端末から取得する取得部と、
前記取得部によって前記第1代表画像に関する情報を取得した場合、前記第1動画像に設定された第2代表画像に変えて、前記第1代表画像を前記第1動画像の代表画像として前記閲覧者の端末に送信する制御部とを備えるサーバ。 A representative image is set for each of a plurality of posted moving images, and each of the set representative images is simultaneously displayed on a browser terminal ,
An acquisition unit that acquires information about a first representative image of a first moving image that is stored in the browser terminal and is included in the plurality of moving images, from the viewer terminal ;
When acquiring the information on the first representative image by the acquiring unit, instead of the second representative image set to the first moving picture, said viewing the first representative image as a representative image of the first moving image A server comprising a control unit that transmits to a person's terminal.
前記第1動画像に対する前記第2代表画像の設定は、前記閲覧者とは異なる、前記第1動画像を投稿した投稿者によって設定されるサーバ。 The server according to claim 1,
The setting of the second representative image for the first moving picture, wherein the different and viewers, server configured by the author who posted the first moving image.
前記制御部は、前記閲覧者とは異なる閲覧者の端末に前記第2代表画像を送信するサーバ。 The server according to claim 1,
The control unit is a server that transmits the second representative image to a terminal of a viewer different from the viewer.
前記制御部は、前記閲覧者とは異なる閲覧者の端末に前記第1代表画像を送信しないサーバ。 The server according to claim 3,
The control unit is a server that does not transmit the first representative image to a terminal of a viewer different from the viewer.
前記取得部は、前記閲覧者とは異なる閲覧者によって選択された、前記第1動画像の第3代表画像に関する情報を取得し、
前記制御部は、前記第1動画像に設定された前記第2代表画像に変えて、前記第3代表画像を前記第1動画像の代表画像として前記閲覧者とは異なる閲覧者の端末に送信するサーバ。 The server according to claim 1,
The acquisition unit acquires information on a third representative image of the first moving image selected by a viewer different from the viewer,
Wherein, instead of the set the second representative image on the first moving image, transmitted to the third different viewers of the terminal and the viewer the representative image as a representative image of the first moving picture Server .
前記第1動画像は、前記第1動画像を閲覧する閲覧者ごとに前記第1動画像の代表画像が設定されるサーバ。 The server according to claim 1,
Wherein the first moving picture, a server representative image is set in the first moving image for each viewer for viewing the first moving image.
前記第1動画像の代表画像は、前記第1動画像に含まれる画像であるサーバ。 The server according to any one of claims 1 to 6,
Representative images of the first video image is an image included in the first moving image server.
前記制御部は、前記第1動画像のうち前記第1代表画像を含む一部の動画像を前記閲覧者の端末に送信するサーバ。 The server according to claim 7,
Wherein the control unit, the server which transmits a part of the moving image to the viewer's terminals including said first representative images of the first moving picture.
前記制御部は、前記閲覧者によって設定された範囲設定に基づいて、前記一部の動画像を前記閲覧者の端末に送信するサーバ。 The server according to claim 8, wherein
The said control part is a server which transmits the said one part moving image to the said viewer's terminal based on the range setting set by the said viewer.
前記制御部は、前記閲覧者による前記第1代表画像の選択に基づいて、前記第1動画像と前記第1代表画像とを関連付けて記憶させる制御を行うサーバ。 The server according to any one of claims 1 to 9,
The said control part is a server which performs control which associates and memorize | stores a said 1st moving image and a said 1st representative image based on selection of the said 1st representative image by the said viewer.
前記取得部は、前記第1動画像と前記第1代表画像とが関連付けて記憶されている前記閲覧者の端末から前記第1代表画像に関する情報を取得するサーバ。 The server according to any one of claims 1 to 10,
The said acquisition part is a server which acquires the information regarding a said 1st representative image from the said viewer's terminal in which the said 1st moving image and the said 1st representative image are linked | related and memorize | stored.
前記第1動画像は、前記第1動画像が撮像された位置が関連付けられており、
前記第1代表画像は、前記第1動画像に含まれる画像であり、
前記閲覧者の端末は、表示装置を含み、
前記制御部は、前記表示装置に地図を表示させ、前記地図上のうち前記第1動画像が撮像された位置に前記第1代表画像を表示させるサーバ。 The server according to any one of claims 1 to 11,
The first moving image is associated with a position where the first moving image is captured,
The first representative image is an image included in the first moving image,
The viewer terminal includes a display device;
The said control part is a server which displays a map on the said display apparatus, and displays the said 1st representative image in the position where the said 1st moving image was imaged among the said maps.
前記制御部は、前記第1動画像が撮像された移動経路を前記地図上に表示させるサーバ。 The server according to claim 12, wherein
The said control part is a server which displays the movement path | route where the said 1st moving image was imaged on the said map.
投稿された前記第1動画像を記憶する記憶部を備えるサーバ。 The server according to any one of claims 1 to 13,
A server comprising a storage unit for storing the posted first moving image.
前記制御部は、前記第1動画像から予め定められた条件で画像選択し、前記第2代表画像を設定するサーバ。 The server according to claim 1,
The control unit is a server that selects an image from the first moving image under a predetermined condition and sets the second representative image.
前記複数の動画像は、前記第1動画像と第2動画像とを含み、
前記制御部は、前記取得部によって前記第1代表画像に関する情報を取得した場合、前記第1代表画像と前記第2動画像に設定された前記第2動画像の代表画像とを前記閲覧者の端末に送信するサーバ。 The server according to claim 1,
The plurality of moving images include the first moving image and the second moving image,
When the acquisition unit acquires information related to the first representative image, the control unit displays the first representative image and the representative image of the second moving image set in the second moving image of the viewer. Server to send to the terminal .
前記閲覧者の端末とを備える電子機器システム。 The server according to any one of claims 1 to 16 , and
An electronic device system comprising the browser terminal.
前記閲覧者の端末に記憶され、前記複数の動画像に含まれる第1動画像の第1代表画像に関する情報を、前記閲覧者の端末から取得する処理と、
前記第1代表画像に関する情報を取得した場合、前記第1動画像に設定された第2代表画像に変えて、前記第1代表画像を前記第1動画像の代表画像として前記閲覧者の端末に送信する処理とをサーバのコンピュータに実行させるためのプログラム。 A program for causing a computer of a server to display a representative image for each of a plurality of posted moving images and to display each of the set representative images simultaneously on a viewer's terminal ,
A process of acquiring information related to a first representative image of a first moving image stored in the viewer's terminal and included in the plurality of moving images from the viewer's terminal ;
When acquiring the information on the first representative image in place of the second representative image set to the first moving picture, to said viewer's terminal a first representative image as a representative image of the first moving picture A program for causing a server computer to execute the transmission process.
前記閲覧者とは異なる閲覧者の端末に前記第2代表画像を送信する処理をサーバのコンピュータに実行させるためのプログラム。 A program for causing a computer of a server according to claim 18 to execute the program,
A program for causing a computer of a server to execute a process of transmitting the second representative image to a terminal of a viewer different from the viewer.
前記閲覧者とは異なる閲覧者の端末に前記第1代表画像を送信しない処理をサーバのコンピュータに実行させるためのプログラム。 A program for causing a server computer according to claim 20 to execute the program,
A program for causing a computer of a server to execute a process of not transmitting the first representative image to a terminal of a viewer different from the viewer.
前記閲覧者とは異なる閲覧者によって選択された、前記第1動画像の第3代表画像に関する情報を取得する処理と、
前記第1動画像に設定された前記第2代表画像に変えて、前記第3代表画像を前記第1動画像の代表画像として前記閲覧者とは異なる閲覧者の端末に送信する処理とをサーバのコンピュータに実行させるためのプログラム。 A program for causing a computer of a server according to claim 18 to execute the program,
Processing for acquiring information on a third representative image of the first moving image selected by a viewer different from the viewer;
Instead the set the second representative image on the first moving image, said third and processing for transmitting to the different viewers of the terminal and the viewer the representative image as a representative image of the first moving image server To run on a computer.
前記第1動画像の代表画像と前記第1動画像とを、閲覧者ごとに記憶させる処理をサーバのコンピュータに実行させるためのプログラム。 A program for causing a computer of a server according to any one of claims 18 to 22 to execute,
A program for causing a server computer to execute processing for storing a representative image of the first moving image and the first moving image for each viewer.
前記複数の動画像は、前記第1動画像と第2動画像とを含み、The plurality of moving images include the first moving image and the second moving image,
前記第1代表画像に関する情報を取得した場合、前記第1代表画像と前記第2動画像に設定された前記第2動画像の代表画像とを前記閲覧者の端末に送信する処理をサーバのコンピュータに実行させるためのプログラム。When the information about the first representative image is acquired, a process of transmitting the first representative image and the representative image of the second moving image set in the second moving image to the browser terminal is performed by a server computer. A program to make it run.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012044311A JP5987357B2 (en) | 2012-02-29 | 2012-02-29 | Server, electronic device system and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012044311A JP5987357B2 (en) | 2012-02-29 | 2012-02-29 | Server, electronic device system and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013183218A JP2013183218A (en) | 2013-09-12 |
JP2013183218A5 JP2013183218A5 (en) | 2015-04-30 |
JP5987357B2 true JP5987357B2 (en) | 2016-09-07 |
Family
ID=49273616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012044311A Active JP5987357B2 (en) | 2012-02-29 | 2012-02-29 | Server, electronic device system and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5987357B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5879403B1 (en) * | 2014-08-08 | 2016-03-08 | ヤフー株式会社 | Information processing apparatus, information processing method, and information processing program |
WO2019039252A1 (en) * | 2017-08-24 | 2019-02-28 | 富士フイルム株式会社 | Medical image processing device and medical image processing method |
JP7372031B2 (en) * | 2018-09-14 | 2023-10-31 | 株式会社小松製作所 | Reproduction device, analysis support system and reproduction method |
JP2019122027A (en) * | 2018-11-09 | 2019-07-22 | 株式会社Zeppelin | Captured moving image service system, captured moving image display method, communication terminal device and computer program |
WO2021161711A1 (en) * | 2020-02-13 | 2021-08-19 | パイオニア株式会社 | Image generation device, image generation method, image generation program, and recording medium |
CN112182278B (en) * | 2020-09-23 | 2023-11-17 | 深圳市超时空探索科技有限公司 | Method and device for simulating card punching footprint |
JP2023100091A (en) * | 2022-01-05 | 2023-07-18 | 株式会社スカイマティクス | geographic information system |
JP7212808B1 (en) | 2022-03-18 | 2023-01-25 | ヤフー株式会社 | Video distribution device, video distribution method, and video distribution program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002078956A (en) * | 2000-09-06 | 2002-03-19 | Sony Communication Network Corp | Game server and game execution method |
JP3959525B2 (en) * | 2003-03-12 | 2007-08-15 | 日本電信電話株式会社 | Application server program and application server in video content browsing system |
JP4168837B2 (en) * | 2003-06-03 | 2008-10-22 | ソニー株式会社 | Information generating apparatus, recording apparatus, reproducing apparatus, recording / reproducing system, method thereof, and program |
JP2009147542A (en) * | 2007-12-12 | 2009-07-02 | Canon Inc | Reproduction device |
JP2010108012A (en) * | 2008-10-28 | 2010-05-13 | Sony Corp | Information processing apparatus, information processing method, and program |
JP5394781B2 (en) * | 2009-03-13 | 2014-01-22 | 日立コンシューマエレクトロニクス株式会社 | Map information display method and apparatus |
JP2011053103A (en) * | 2009-09-02 | 2011-03-17 | Denso Corp | Data server for transmitting map and animation, and linkage display system for animation-map |
-
2012
- 2012-02-29 JP JP2012044311A patent/JP5987357B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013183218A (en) | 2013-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5987357B2 (en) | Server, electronic device system and program | |
US8264584B2 (en) | Image capturing apparatus, additional information providing server, and additional information filtering system | |
JP5053404B2 (en) | Capture and display digital images based on associated metadata | |
JP5588542B2 (en) | Information display device | |
US20160365115A1 (en) | Video editing system and method using time-based highlight identification | |
US20180181568A1 (en) | Providing a thumbnail image that follows a main image | |
US8584015B2 (en) | Presenting media content items using geographical data | |
US11080908B2 (en) | Synchronized display of street view map and video stream | |
US20160171781A1 (en) | Server, client terminal, system, and program for presenting landscapes | |
US20180132006A1 (en) | Highlight-based movie navigation, editing and sharing | |
US20150242767A1 (en) | Aerial view, web-based trip planning techniques using geotagged video and images syncd to a map | |
CN104255022B (en) | Server, client terminal, system and the readable medium of virtual zoom capabilities are added for camera | |
CN114398554B (en) | Content searching method, device, equipment and medium | |
JP2007266902A (en) | Camera | |
WO2016200692A1 (en) | Editing, sharing, and viewing video | |
JP2010134881A (en) | System and method for displaying photographed image | |
KR20110052247A (en) | Camera apparatus for providing photograph image, display apparatus for displaying the photograph image and relating image, and methods thereof | |
US10446190B1 (en) | Fast image sequencing | |
CN110377791A (en) | Fast image sort method | |
KR101518305B1 (en) | Producing method for image contents with position information and using method for image contents with position information | |
KR102498905B1 (en) | Method for sharing videos, apparatus and system using the same | |
WO2023021759A1 (en) | Information processing device and information processing method | |
TWI655552B (en) | Fast image sorting method | |
CN110674425A (en) | Method for realizing travel note sharing based on travel sharing system | |
JP2011041167A (en) | Image pickup device and location information additional equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5987357 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |