JP2013183218A - 動画再生装置および動画再生プログラム - Google Patents

動画再生装置および動画再生プログラム Download PDF

Info

Publication number
JP2013183218A
JP2013183218A JP2012044311A JP2012044311A JP2013183218A JP 2013183218 A JP2013183218 A JP 2013183218A JP 2012044311 A JP2012044311 A JP 2012044311A JP 2012044311 A JP2012044311 A JP 2012044311A JP 2013183218 A JP2013183218 A JP 2013183218A
Authority
JP
Japan
Prior art keywords
moving image
image
index
map
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012044311A
Other languages
English (en)
Other versions
JP2013183218A5 (ja
JP5987357B2 (ja
Inventor
Hiroyuki Akitani
裕之 秋谷
Yasuhiro Takada
靖弘 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012044311A priority Critical patent/JP5987357B2/ja
Publication of JP2013183218A publication Critical patent/JP2013183218A/ja
Publication of JP2013183218A5 publication Critical patent/JP2013183218A5/ja
Application granted granted Critical
Publication of JP5987357B2 publication Critical patent/JP5987357B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ユーザが地図上で選択した動画の主要部分を直ぐに見ることができるようにする。
【解決手段】表示地図範囲内にランドマークが存在する場合は、ランドマークの位置情報を取得する。表示地図範囲内のルート動画(位置情報付き)を解析し、ランドマークとしての対象物が映っている部分を抽出し、その部分をその動画の主要部分とする。主要部分からいずれかのフレームの画像をインデックス画像として抽出し、抽出されたインデックス画像を対応する動画ルート上の対応する位置に表示する。表示されたインデックス画像に対して再生操作を行うと、対応する動画の主要部分が再生される。
【選択図】図5

Description

本発明は、表示された地図で特定される地域に関連する動画を再生可能な動画再生装置および動画再生プログラムに関する。
GPS受信機で取得した位置情報(緯度,経度情報)を動画に対応づけて記録可能な電子カメラが知られている。また、このような位置情報付き動画と地図とをリンクさせ、地図上の任意の位置に、その位置で撮像した動画が存在するか否かを明示するシステムも知られている。ある位置で撮影した動画が存在する場合は、地図上の該当する位置にその動画の1フレームをサムネイル表示し、サムネイル画像の選択操作がなされると、その動画を再生する。さらに、地図上の指定位置に複数の動画がある場合に、再生する動画の選択を容易に行えるようにしたものもある(例えば、特許文献1参照)。
特開2009−147542号公報
しかしながら、一般に地図上で選択した動画を再生する際に、その動画の主要部分を頭出しする機能はないため、特に参考にならない(見たくない)シーンをも含めて動画を観賞しなければならず、時間の無駄である。
本発明に係る動画再生装置は、地図を表示するとともに、その地図が示す地域に関連する動画を再生可能な動画再生装置であって、動画に時系列で対応づけられている複数の撮影位置情報に基づき、当該動画を撮影したときのカメラの移動経路を地図に対応させて認識する経路認識手段と、動画に対してその主要部分を推定し、推定した主要部分に含まれるいずれかのフレームの画像をインデックス画像として抽出する抽出手段と、表示されている地図上に認識された移動経路を表示するとともに、当該移動経路に対応する動画から抽出されたインデックス画像を当該移動経路に対応づけて表示する表示制御手段と、表示されたインデックス画像に対する所定操作に応答して、当該インデックス画像に対応する動画の主要部分を再生する再生手段とを具備することを特徴とする。
本発明に係る動画再生プログラムは、地図を表示するとともに、その地図が示す地域に関連する動画を再生可能なコンピュータに用いられるもので、動画に時系列で対応づけられている複数の撮影位置情報に基づき、当該動画を撮影したときのカメラの移動経路を地図に対応させて認識する処理と、任意の動画に対してその主要部分を推定し、認識した主要部分に含まれるいずれかのフレームの画像をインデックス画像として抽出する処理と、表示されている地図上に認識された移動経路を表示するとともに、当該移動経路に対応する動画から抽出された前記インデックス画像を当該移動経路に対応づけて表示する処理と、表示されたインデックス画像に対する所定操作に応答して、当該インデックス画像に対応する動画の主要部分を再生する再生する処理とを実行させるためのものである。
本発明によれば、ユーザが地図上で選択した動画の主要部分を直ぐに見ることができる。
本発明の一実施形態における動画再生システムの構成図。 動画再生システム(動画共有サービス)のサーバで実行される処理の手順例を示すフローチャート。 インデックス処理の詳細を示すフローチャート。 インデックス作成A処理の詳細を示すフローチャート。 インデックス作成B処理の詳細を示すフローチャート。 インデックス作成C処理の詳細を示すフローチャート。 インデックス作成D処理の詳細を示すフローチャート。 インデックス作成E処理の詳細を示すフローチャート。 インデックス作成F処理の詳細を示すフローチャート。 インデックス作成G処理の詳細を示すフローチャート。 地図表示の初期画面を示す図。 地図上における動画ルートおよびインデックス画像の表示例を示す図。 図12と同様の図で、「ランドマーク」選択時の表示例を示す図。 「ランドマーク」選択時の他の表示例を示す図。 「ランドマーク」選択時の他の表示例を示す図。 「ランドマーク」選択時の他の表示例を示す図。 検索を行った場合の表示例を示す図。 検索を行った場合の他の表示例を示す図。
図1〜図18により本発明の実施の形態を説明する。
以下に説明する動画再生装置(システム)は、表示された地図で特定される地域に関連する動画を再生可能とするもので、特にカメラを移動させながら撮影した動画(例えば、自動車、自転車、航空機などに搭載したカメラで撮影した動画や、歩きながら撮影した動画)を再生する際の便宜を図ったものである。
動画撮影が可能なカメラ(ビデオカメラや動画機能付きデジタルスチルカメラなど)のうち、GPS受信機を備えたものでは、所定時間おきに動画ファイルにカメラの位置情報(撮影位置情報)を埋め込むことができる。本装置では、その位置情報を利用して地図上にカメラの移動経路を示す線を表示し、その移動経路に対応させて、動画のいずれかのフレームをインデックス画像としてサムネイル表示する。そして、ユーザがサムネイル画像に対して再生操作を行うことで、その動画を再生する。
以下の説明では、上記カメラの移動経路を示す線を「動画ルート」、動画ルートに対応する動画を「ルート動画」と呼ぶ。
装置(システム)の形態としては、ネットワーク上のサーバに上記の機能を組み込み、利用者が各端末からネットワークを介してサーバにアクセスし、動画を投稿したり、投稿された動画を地図上で再生できるようにするサービスが考えられる。インターネット回線を用いたものでもよいし、より小規模なネットワークでもよい。サーバとの接続は、Webブラウザを用いてもよいし、専用のアプリケーションソフトウェアを用いてもよい。あるいはネットワークを利用せず、個々のコンピュータにおいて利用するためのアプリケーションソフトウェアとして上記の機能が提供されるようにしてもよい。
以下、不特定多数の利用者を対象とした動画共有サービスを例に挙げて詳細に説明する。
図1は本システムの概略構成図である。各サービス利用者(以下、ユーザ)は、パーソナルコンピュータ(以下、ユーザPC)10や、携帯電話機からインターネット回線20を経由してサービス提供者のサーバ30にアクセスする。
サーバ30は、通信を行うための通信部31と、地図表示を行うための地図データベースDB1や動画データベースDB2、各種プログラムなどが格納される記憶部32と、プログラムを実行するためのCPU33とを有している。動画データベースDB2には、ユーザからアップロードにより投稿された動画が登録される。CPU33は、ユーザから動画が投稿されると、後述する検索処理を実現するために、その動画ファイルに埋め込まれた種々の動画情報(撮影情報等)を読み出し、それらの動画情報や、動画情報を解析して得られる情報を動画ファイルに対応づけて動画データベースDB2に格納する。
ユーザPC10は、PC本体11と、マウスやキーボード等の操作部12と、表示装置としてのディスプレイ13とを有する。
図2〜図10はサーバ30のCPU33によって実行されるプログラムの処理手順を示している。
このプログラムは、予めサーバ30の記憶部32に組み込まれたもので、動画の観賞を目的としたユーザを対象としたものである。ユーザがPC10からWebブラウザ等を用いてサーバ30にアクセスし、所定の操作を行うと、サーバ30のCPU33によってこのプログラムが実行される。なお、記憶部32の動画データベースDB2には、投稿者としてのユーザによってアップロードされた複数の動画が既に格納されているものとする。
図2のステップS1では地図データベースDB1から地図情報を取得し、ステップS2では、取得した地図情報に基づいて、ユーザPC10のディスプレイ13に地図画面(初期画面)を表示する。
図11はディスプレイ13に表示された地図画面の一例を示している。地図画面では、地図表示部41が中央に配置されるとともに、その周辺にユーザ操作部として、インデックス選択部42、検索部43、動画再生操作部44、表示条件入力部45などが配置される。初期状態では、例えば日本全域を含む広域地図が地図表示部41に表示される。地図表示部41においては、ユーザがマウス操作等によって地図の縮尺を自由に変更でき、また地図上をマウスでドラッグするなどして表示範囲を自由に変更できる。
なお、初期画面で表示される地図範囲を各ユーザが設定できるようにしてもよい。
初期画面表示後、CPU33はステップS3〜S8のループでいずれかのユーザ操作を待ち、ステップS3で終了操作が確認されると、処理を終了させる。ステップS4で上記縮尺や表示範囲の変更操作(地図操作)が確認されると、それに応じてステップS9で縮尺や表示範囲を変更する(地図画面変更)。ステップS10では、動画データベースDB2を検索し、現在の表示地図範囲に対応するルート動画ファイルが存在する場合は、その動画に対する動画ルートを地図上に表示する。動画ルートは、動画ファイルから所定の時間周期で埋め込まれた撮影位置情報を読み出し、撮影開始から終了までの各位置情報に対応する地図上の点を線で結ぶことで作成され、表示される。
なお、動画ルートの表示は、表示された地図の縮尺率がある程度以上のときにのみ行うようにすることが望ましい。
図12はある地域を地図表示部41に表示した例を示している。地図上には、5つの動画に対応する動画ルートR1〜R5が表示されている。図では5本の動画ルートを線種を変えて示してあるが、実際には線の色を変えて表示することで区別し易くなる。また、複数の動画ルートが同一部分を通る場合は、ルート線が互いに重ならないようにずらして表示する。なお、車載カメラ等で撮影した動画の場合、動画ルートは図のように道路に沿った線となるが、空撮の場合はそうとは限らない。
なお1箇所に留まって撮影した動画や、移動範囲の短い動画については、動画ルートは点あるは短い線で表示されるため、後述するインデックス表示を行うと動画ルートが視認されないことがあり得る。
次に、インデックス処理について説明する。
ここでいうインデックスとは、ルート動画から抽出されたいずれかのフレームの画像(インデックス画像)を指す。インデックス画像を動画ルートに対応させてサムネイル表示することで、その動画ルートに対応する動画の内容をユーザに知らしめることができる。
図12においては、動画ルートR1,R2に対する各2個のインデックス画像SN1,SN2:SN3,SN4が各ルートに重ねて表示されている。
後述するように、CPU33は、まず各動画の主要部分(基本的にはユーザが見たいと思われる部分、あるいは撮影者が見せたいと思われる部分)を推定し、その主要部分に含まれるいずれかのフレーム画像をインデックス画像とする。主要部分の推定およびインデックス画像の抽出は、種々の観点から行うことができ、1本の動画ルートに対するインデックス画像が2以上の場合もあり、また1つも表示されない場合もある。
インデックス画像を如何なる観点から作成するかは、インデックス選択部42においてユーザが選択可能である。インデックス選択部42には、「撮影開始」、「ランドマーク」、「速度変化」、「映像変化」、「おすすめ」、「再生回数」、「ユーザ指定」の7個の項目がある。ユーザは、各項目のチェックボックスにチェックを入れることで、1または複数の項目を選択できる。
CPU33は、ステップS10の動画ルート表示後、ステップS11のインデックス処理に進む。インデックス処理の詳細を示す図3において、ステップS101では、インデックス項目としての「撮影開始」が選択されているか否かを判定し、肯定されるとステップS102でインデックス作成A処理を行う。
インデックス作成A処理の詳細を示す図4において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
ステップS201では、動画の撮影開始点が現在の表示地図範囲内にあるか否かを判定する。ステップS201が肯定されるとステップS202に進み、そのルート動画の撮影開始フレームの画像をインデックス画像とする。ステップS203では、インデックス画像を当該動画ルートの撮影開始点に対応する地図上の位置に表示する。これによりユーザは、各ルート動画の撮影開始点および撮影開始フレームの内容を容易に確認できる。もし、撮影開始点が現在の表示地図範囲外であれば、インデックスの作成および表示は行わない。
図3のステップS103では、「ランドマーク」が選択されているか否かを判定し、肯定されると、ステップS104でインデックス作成B処理を行う。
インデックス作成B処理の詳細を示す図5において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
ステップS301では、表示地図範囲内にランドマークが存在するか否かを判定し、肯定されるとステップS302でランドマークの位置情報を取得する。ランドマークに関する情報は、本システムがデータベースとして有していてもよいが、有していないない場合は、所定のWebサービスを介して入手するようにすればよい。例えば、全世界の地理データを収めたデータベースを有し、それらのデータをWebサービスを通じて提供するプロジェクトが実在し、かかるサービスを介してランドマークの位置情報(緯度、経度情報)などを取得することができる。
ここで、図12の例では、インデックス選択部42において「ランドマーク」が選択されている。表示地図範囲内には「塔」および「寺院」の2つのランドマークが存在し、これらのランドマークに対応するシンボルマークMK1,MK2が、地図上のそれぞれの存在位置に表示されている。
図5のステップS303では、表示地図範囲内のルート動画を解析し、ランドマークとしての対象物が映っている部分を抽出し、その部分をその動画の主要部分とする。対象物が映っているか否かは、例えば次のようにして判別することができる。
ルート動画を撮影したカメラが電子コンパスを有していれば、撮影レンズが向いている方向をカメラが認識でき、その情報をカメラの位置情報とともに、所定の時間周期で動画ファイルに埋め込むことができる。また、撮影レンズの焦点距離の情報も同様に動画ファイルに埋め込むことができる。CPU33は、これらの情報を動画ファイルから読取り、レンズの向き情報と、カメラの位置情報と、対象物の位置情報とに基づき、各時点において撮影レンズが対象物を向いているか(対象物が映っているか)否かを判定する。また、カメラと対象物のそれぞれ位置情報から両者の距離が判明し、これに焦点距離情報を加味することで、対象物がどの程度の大きさで映っているか否かも推定できる。
ここで、レンズは対象物に向けられていても、カメラと対象物との間に遮蔽物が存在し、実際には対象物が映っていないということもあり得る。そこで、対象物の有無をより厳密に判定するならば、上記の方法で対象物が映っていると判定されたフレームに対し、更に画像解析を行い、パターンマッチングにより対象物が真に映っているか否かを判定し、映っていると判定されたフレームのみを抽出するようにしてもよい。パターンマッチングの元となるランドマークの画像は、サーバ30が予め有していてもよいし、外部のWebサービス等から入手するようにしてもよい。また、撮影レンズの向きを示す情報を持たない動画については、最初からパターンマッチングのみによってランドマークが映っているか否かを判別するようにしてもよい。
CPU33は、ステップS304において、対象物が映っていると判定されたフレームが連続する部分をその動画の主要部分とする。次いでステップS305では、その主要部分からいずれかのフレームの画像をインデックス画像として抽出する(詳細は後述する)。ステップS306では、抽出されたインデックス画像を対応する動画ルート上の対応する位置に表示する。対応する位置とは、撮影時にそのインデックス画像が得られた地点に対応する地図上の位置であり、これは動画に埋め込まれた撮影位置情報から認識できる。
なお、ランドマークが映っていないルート動画に対しては、「ランドマーク」に対するインデックス画像の抽出および表示はなされない。
次に、インデックス画像の抽出および表示方法について説明する。
図13は、動画ルートR11,R12の各主要部分M11,M12の先頭フレームの画像をインデックス画像SN11,SN12として抽出した例を示している。つまり、移動中にカメラがランドマークを捕らえ始めたときのフレームがインデックス画像SN11,SN12となり、地図上の主要部分M11,M12の先頭位置に表示される。
ここで、上述したように各動画ルートは色を変えて表示されるが、個々の動画ルートのうち、主要部分(ランドマークが映っている部分)に相当する箇所は線を強調表示することで、非主要部分(ランドマークが映っていない部分)と容易に区別できる。強調表示の手法としては、例えば主要部分と非主要部分とで線の色を変える、主要部分は太線で表示する、主要部分は線を点滅表示するなどの方法が考えられる。図13では色の濃い部分が主要部分を表している。
また、地図上に多くの動画ルートが表示される場合は、インデックス表示も煩雑となるが、各インデックス画像を対応する動画ルート(主要部分)と同色の矩形枠で囲むことで、動画ルートとインデックス画像との対応関係が視覚的に容易に判別できる。これらの措置は、「ランドマーク」以外の他のインデックス項目に対しても同様に適用可能である。
さらに、画面の煩雑さを解消するために、表示される動画の数をユーザが制限できるようにしてもよい。本例では、表示条件入力部45に表示条件および最大表示数を入力することで、入力値を超える数の動画(動画ルートとインデックス画像)が表示されないようになっている。表示条件としては、「撮影日時の新しい順」の他に、「撮影日時の古い順」、「再生回数の多い順」、「投稿日時の新しい順」、「投稿日時の古い順」などが選択肢として存在する。なお、表示数制限は、ルート動画と、後述する非ルート動画に対して個別に行えるようにしてもよい。
図14に示す例では、インデックス画像SN21が動画ルートR21の主要部分M21の中途に表示されている。この表示位置は、主要部分M21のうち当該ランドマークに最も近い(撮影位置とランドマーク位置との距離が最も短い)位置であり、インデックス画像SN21も当該位置にて取得されたフレームの画像となる。なお、インデックス画像とその表示位置は必ずしも一致させる必要はなく、例えば主要部分の先頭に相当する位置に、ランドマークの最も近い位置で得られたフレームの画像をインデックス画像として表示してもよい。
図15は図14と同様の動画ルートR21に対し、主要部分に複数のインデックス画像を表示した例を示している。例えば、主要部分において所定時間または所定移動距離ごとのフレーム画像をインデックス画像として複数抽出し、それぞれの画像を対応する位置に表示することが考えられる。このように単一の動画ルートに複数のインデックス画像が存在する場合は、それらが同一の動画ルートに対応する画像であることが分かるように、複数のインデックス画像を重ねて表示することが望ましい。逆に同一の移動経路に対して複数の動画ルートが存在する場合、異なる動画ルートのインデックス画像は、互いに重ならないように表示することが望ましい。なお、インデックス画像を重ねて表示すると、下のインデックス画像は全体を視認できないため、例えば重なったインデックス画像にマウスポインタを合わせると、重なっていた複数の動画が重ならないように並んで表示されるようにしてもよい。
図16も複数のインデックス画像を表示する例であるが、この例では、上述したレンズ方位情報に応じて地図平面におけるインデックス画像の向きを変えている。これによれば、インデックス画像を見て撮影者が何を撮影したかが分かる。
なお、基本的には主要部分のいずれのフレーム画像をインデックス画像としてもよい。例えば主要部分からランダムにインデックス画像を抽出するようにしてもよい。
詳細は後述するが、表示されたインデックス画像に対してユーザが再生操作を行うと、その動画の主要部分の再生がなされる。したがって、ランドマークの動画を見たいユーザは、インデックス選択部42で「ランドマーク」を選択すれば、ランドマークが映っている動画を直ぐに見つけられるだけでなく、その動画のランドマークが映っている部分を直ぐに見ることができる。
次に、図3のステップS105で「速度変化」が選択されていると判定された場合、CPU33はステップS106でインデックス作成C処理を行う。インデックス作成C処理の詳細を示す図6において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
ステップS401では、ルート動画を撮影したときのカメラの移動速度を求める。例えば、カメラでルート動画を撮影する際に、周期的に位置情報と日時情報とがセットで動画ファイルに埋め込まれる設定にしておけば、それらの情報を読み出すことで、その動画におけるカメラの移動速度を求めることができる。ここでは、所定時間ごとに動画を幾つかのパートに分割し、パートごとに移動平均速度を求める。パートの時間をユーザが指定できるようにしてもよい。
ステップS402では、移動平均速度の変化を解析し、ルート動画の主要部分を推定する。例えば移動平均速度が所定値以上低下した箇所が確認されたら、撮影者が何らかの対象物に注目して移動速度を緩めたと推定できる。したがって、動画のうち移動平均速度が所定値以上低下してから再び所定値以上増加するまでの部分(撮影者が注目した対象物が映っていると推定される部分)を主要部分と判断する。あるいは、移動平均速度が所定値以上低下した箇所から最後までを主要部分と判断してもよい。ステップS403では、主要部分からインデックス画像を抽出し、ステップS404でその画像を対応する位置に表示する。例えば、移動平均速度が所定値以上低下した箇所のフレーム画像(主要部分の先頭のフレーム画像)をインデックス画像とすればよい。
図3のステップS107で「映像変化」が選択されていると判定された場合、CPU33はステップS108でインデックス作成D処理を行う。インデックス作成D処理の詳細を示す図7において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
ステップS501では動画のデータレートを解析し、ステップS502でその結果に基づいて主要部分を推定する。ここで、可変データレート(ビットレート)でエンコードされた動画の場合、動きの激しい部分はデータレートが高く、動きのない部分ではデータレートは低い。移動しながらの動画撮影の場合は、カメラを一定方向に向けたままのシーンでは、映像の変化が激しいためデータレートは高く、一方、何らかの対象物を追い続けたシーンではデータレートは低い。そこで、動画のデータレートを解析し、データレートが所定値以上低下した箇所から次にデータレートが所定値以上高くなった箇所を主要部分と判断する。あるいは、データレートが所定値以上低下した箇所から最後までの主要部分と判断してもよい。
ステップS503では、主要部分からインデックス画像を抽出し、ステップS504でその画像を対応する位置に表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。
なお、データレートの大きな変化がない動画については、「映像変化」に関するインデックス画像の抽出および表示は行わない。
図3のステップS109で「おすすめ」が選択されていると判定された場合、CPU33はステップS110でインデックス作成E処理を行う。インデックス作成E処理の詳細を示す図8において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
ステップS601では、ルート動画に対する推奨部分の有無を判定する。推奨部分は、動画の投稿者(多くは撮影者)が設定するもので、例えば、特に見せたい部分を推奨部分として、その先頭箇所と終了箇所とを示す情報を動画ファイルに埋め込むことができる。CPU33は、これらの情報の有無を判定し、存在すればステップS602でその推奨部分を主要部分とし、存在しなければそのままリターンする。
ステップS603では、主要部分からインデックス画像を抽出し、ステップS604でその画像を対応する位置に表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。
図3のステップS111で「再生回数」が選択されていると判定された場合、CPU33はステップS112でインデックス作成F処理を行う。インデックス作成F処理の詳細を示す図9において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
ステップS701では、個々の動画から再生回数の最も多い領域を抽出する。これを実現するためにCPU33は、登録された各動画を所定時間ごとに幾つかの領域に分け、各領域の再生回数をカウントする処理を常時行う。その際、所定時間(例えば、10秒)以上連続して再生された領域のみ再生回数をカウントアップするようにする。再生時間が所定時間に満たない場合は、その領域の映像はそのユーザにとって特に興味のあるものではないと判断し、カウントアップは行わない。ステップS701で抽出される領域は、個々の動画のうち最も再生回数の多い1領域であってもよいし、再生回数が所定回数以上の全領域であってもよい。
ステップS702では、ステップS701で抽出した領域を主要領域とする。ステップS703では、主要部分からインデックス画像を抽出し、ステップS704でその画像を対応する位置に表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。
図3のステップS113で「ユーザ指定」が選択されていると判定された場合、CPU33はステップS114でインデックス作成G処理を行う。インデックス作成G処理の詳細を示す図10において、CPU33は、現在表示対象となっている全ルート動画に対し、以下の処理を行う。
ステップS801では、ルート動画に対してユーザ(動画投稿者としてのユーザではなく、閲覧者としてのユーザ)による範囲指定があるか否かを判定する。範囲指定の詳細は後述するが、範囲指定がない場合はリターンし、範囲指定がある場合はステップS802で指定範囲を主要部分とする。ステップS803では、主要部分からインデックス画像を抽出し、ステップS804でその画像を対応する位置に表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。あるいは、主要部分からユーザがインデックス画像を選べるようにしてもよい。
なお、ユーザに操作により、インデックス画像の表示/非表示を個別に切換えられるようにしてもよい。
以上のインデックス処理(図2のステップS11)が終了すると、CPU33はステップS3に戻って次の操作を待つ。ステップS5でインデックス項目選択操作が確認されると、ステップS12に進む。インデックス項目選択操作は、ユーザがインデックス選択部42のチェックボックスにチェックを入れる、あるいはチェックを外す操作である。チェックが入れられた場合は、その項目に応じたインデックス作成処理(図3のA〜F処理のいずれか)を行い、チェックが外された場合は、その項目に応じたインデックス画像の表示を解除する。
ここで、動画閲覧者としてのユーザは、ルート動画を観賞して気に入った部分が見つかった場合、その部分の先頭フレームと最終フレームとを指定することで、範囲指定することができる。CPU33は、ステップS6でユーザによる範囲指定操作を確認すると、その範囲指定情報を各ユーザ固有の情報として動画に対応づけて記憶する。例えば、範囲指定操作がなされたユーザPC10の記憶部にその範囲指定情報を記憶することで、各ユーザとの対応がつく。記憶された範囲指定情報は、ユーザによって範囲指定解除操作がなされない限りは保持される。CPU33は、上述したステップS801の判定処理において、ユーザPC10の記憶部から範囲指定情報の読取り動作を行い、その結果に基づいて各動画に対する範囲指定の有無を判断する。ステップS14では、範囲指定操作を表示に反映させるために、上述したインデックス作成G処理(図10)を行う。
以上は位置情報が埋め込まれた動画について説明したが、本システムは、位置情報を持たない動画ファイル、例えばGPS受信機を持たないカメラで撮影された動画ファイルをも扱うことができる。ただし、位置情報がないと動画ルートを作成できないため、上述したルート動画とは別にインデックス画像を取得する必要がある。以下、位置情報のない動画を非ルート動画と呼ぶ。
非ルート動画を投稿するにあたり、投稿者は予め動画の主要部を指示するとともに、キーワードを入力する。これらの主要部とキーワードは、当該動画ファイルに対応づけられて動画データベースDB2に記憶される。
CPU33は、地図表示がなされると、その表示地図範囲に含まれる地名や、ランドマーク名、駅名、その他のキーワードと一致するキーワードが対応づけられた非ルート動画を動画データベースDB2から検索し、見つかった場合はその動画の主要部から抽出したフレームをインデックス画像として表示する。例えば、主要部分の先頭のフレーム画像をインデックス画像とすればよい。あるいは、投稿者がインデックス画像とすべきフレームを指定できるようにしてもよい。図12の例では、上記のようにして検索された非ルート動画のインデックス画像SN5,SN6が、地図表示部41の左下に表示されている。
次に、検索について説明する。
検索は、興味のあるランドマーク等の動画を手早く探したり、また表示対象となる動画が多すぎる場合に表示を絞り込む目的でなされる。検索操作は、検索操作部43においてユーザがいずれかの検索条件(複数可)を指定し、最下部の検索ボタンをクリックすることでなされる。CPU33は、図2のステップS7で上記検索操作を確認すると、ステップS15において、当該地図表示上で表示可能な動画(ルート動画、非ルート動画)のうち、指定された検索条件に適った動画を動画データベースDB2から検索し、それらの動画を表示対象とする。ステップS16では、検索結果、すなわち表示対象動画の動画ルートとインデックス画像を表示する。インデックス画像の取得方法は上述した通りである。
検索操作には次のようなものがある。
(1)キーワード入力:ユーザがランドマーク等の名称を上段のテキストボックスに入力する。この場合、CPU33は、そのキーワードに基づいて動画データベースDB2から動画を抽出し、動画ルートとインデックス画像を表示する。キーワードがランドマーク名と一致した場合、CPU33はインデックス選択部42の「ランドマーク」と「ユーザ指定」のチェックを自動的にオンに、その他のチェックをオフとし、インデックス作成B処理およびインデックス作成G処理を行う。このとき、非表示に設定されていたインデックス画像も表示されるようにすることが望ましい。
(2)日時指定:ユーザが指定範囲の最初の日時と最後の日時を入力する。この場合、CPU33は、上記指定範囲内の日付の動画を動画データベースDB2から検索する。あるいは、年、月、季節(春夏秋冬)、祝日(春分の日、海の日など)、時刻等をそれぞれ指定して検索を行えるようにしてもよい。
(3)天気指定:ユーザが撮影時の気象条件(晴れ、雨など)を指定する。この場合、CPU33は、指定された気象条件の下で撮影された動画を検索する。動画撮影時の気象条件は、例えば動画ファイルから得た撮影日時および撮影位置に基づいて外部の気象データ提供サービスから情報を取得することができる。
(4)乗り物指定:撮影時に移動手段として使用した乗り物を選択して指定する。自動車、自転車、徒歩などが選択肢として存在する。移動手段については、撮影者が動画ファイルにその情報を埋め込むようにすることで取得できる。CPU33は、取得した乗り物情報に基づき、その乗り物を利用して撮影された動画の検索を行う。
(5)範囲の選択:ユーザが表示地図範囲上の位置または範囲を指定する。クリックによる1点指定と、ドラッグによる範囲指定を選択することができる。この場合、CPU33は、指定された位置または範囲の場所が移っている動画を検索する。
上記(1)〜(5)のうち2以上の項目を指定した場合は、それらのAND検索となる。
図17,図18は検索を行った場合の結果表示例を示し、図17はキーワードとしてランドマークである「塔」の名称を入力し、図18は同様に「寺院」の名称を入力したものである。いずれにおいても撮影年月日が範囲指定されている。図17では、検索によって当該「塔」が映っている主要部分を含む複数のルート動画が抽出されており、それらの動画ルートおよびインデックス画像が表示されている。上述したように、各動画ルートの主要部分は当該「塔」が連続して映っている部分であり、インデックス画像はその主要部分から抽出されたフレームの画像である。図18についても同様である。
上記以外の検索条件として、撮影時の移動速度を指定できるようにしてもよい。例えば、**Km/h〜@@Km/hのように指定する。この速度は、平均速度であってもよいし、最高速度であってもよい。**Km/h以上(以下)のような指定方法でもよい。ユーザが指定方法を選べるようにしてもよい。いずれのケースにおいても、CPU33は移動速度が指定速度範囲内の動画を表示対象動画として検索する。なお、移動速度については、図6のステップS401で説明した方法で取得できる。撮影地の高度を指定できるようにしてもよい。高度はGPS情報に含まれる。また、例えば「皆既日食」などのイベント名を入力すると、自動的に位置および日時が設定され、それらに基づいて検索が行われるようにしてもよい。
検索部操作部43にある「領域を自動的に変更する」チェックボックスは、入力されたキーワードに応じて表示地図範囲を変更するか否かをユーザが指示するためのものである。チェックがオンのときには、入力されたキーワードに対応する対象物(ランドマークなど)が地図の中心に位置するように、かつ全ての表示対象動画の動画ルートやインデックス画像が表示されるように、地図のスクロールおよび縮尺率の変更をCPU33が自動的に行う。チェックがオフの場合は自動変更はなされない。
次に、動画の再生について説明する。
CPU33は、図2のステップS8で動画の再生関連操作を確認すると、ステップS17でその操作に応じた再生処理を行う。再生関連操作とは、動画再生操作部44(図12)の各ボタンの操作を指す。
例えば、ユーザが再生したい動画(ルート動画、非ルート動画)のインデックス画像をクリック等で選択し、再生ボタン44aをクリックすると、CPU33は、その動画のうち当該インデックス画像に対応する主要部分を、そのインデックス画像が表示されていた矩形枠内で再生する。インデックス画像を選択せずに再生ボタン44aを操作すると、インデックス表示がなされている動画が1ずつ順に再生されるようにしてもよい。再生順序は問わないが、インデックス画像の表示位置が地図の中心に近い動画から順に再生されるようにしてもよい。
再生ボタン44aを用いず、マウスで地図上の動画ルートをダブルクリックしたり、動画ルートに沿って線を描くようにドラッグすることで、その動画ルートに対応する動画の主要部が再生されるようにしてもよい。その際、撮影時の移動方向と逆方向にドラッグすると、動画が逆方向に再生されるようにしてもよい。
動画再生時には、撮影位置と地図上の該当する位置とが常に一致するように、CPU33はルート動画の矩形枠を当該動画ルート上で移動させる。この動作は、動画ファイルに所定周期で埋め込まれている位置情報と時刻情報、および地図の縮尺率等に基づいて矩形枠の位置を逐次演算することで行われる。これによりユーザは、現在の映像がどの位置で撮られているかを確認しながら動画を鑑賞できる。
なお、ルートのない動画の矩形枠は移動しない。
動画再生時に再生ボタン44aをクリックすると、動画は中断状態となり、矩形枠も停止する。また、全再生ボタン44bを操作すると、表示されている全てのルート動画の主要部分が同時に再生される。その他のボタン操作により、動画の早送り/戻し、主要部分の頭出しなどが行える。
なお、インデックス画像にマウスカーソルを重ねると、対応する動画ルートがハイライト表示されるとともに、その動画に関する情報が表示されるようにしてもよい。表示される情報は、「再生時間」、「移動距離」、「平均移動速度」などが考えられる。
以上は動画の主要部を再生する場合について説明したが、非主要部をも含めて動画を再生できるようにしてもい。
10 ユーザPC
20 インターネット回線
30 サーバ
31 通信部
32 記憶部
33 CPU
41 地図表示部
42 インデックス選択部
43 検索部
44 動画再生操作部
45 表示条件入力部
DB1 地図データベース
DB2 動画データベース
M11,M12,M21 動画の主要部分
MK1,MK2 ランドマークのシンボル
R1,R2・・・ 動画ルート
SN1,SN2・・・ インデックス画像(サムネイル画像)

Claims (8)

  1. 地図を表示するとともに、その地図が示す地域に関連する動画を再生可能な動画再生装置であって、
    前記動画に時系列で対応づけられている複数の撮影位置情報に基づき、当該動画を撮影したときのカメラの移動経路を前記地図に対応させて認識する経路認識手段と、
    前記動画に対してその主要部分を推定し、推定した主要部分に含まれるいずれかのフレームの画像をインデックス画像として抽出する抽出手段と、
    表示されている地図上に前記認識された移動経路を表示するとともに、当該移動経路に対応する動画から抽出された前記インデックス画像を当該移動経路に対応づけて表示する表示制御手段と、
    前記表示されたインデックス画像に対する所定操作に応答して、当該インデックス画像に対応する動画の前記主要部分を再生する再生手段とを具備することを特徴とする動画再生装置。
  2. 前記抽出手段は、前記動画のうち任意のランドマークが映っている範囲を当該動画の主要部分と認識することを特徴とする請求項1に記載の動画再生装置。
  3. 前記抽出手段は、前記動画に対応づけられた撮影日時情報または前記撮影位置情報の変化に基づいて当該動画の前記主要部分を推定することを特徴とする請求項1に記載の動画再生装置。
  4. 前記抽出手段は、前記動画の再生頻度が所定値以上の部分を当該動画の前記主要部分と推定することを特徴とする請求項1に記載の動画再生装置。
  5. 前記抽出手段は、撮影者によって前記動画に予め対応づけられている範囲を主要部分と推定することを特徴とする請求項1に記載の動画再生装置。
  6. 所定の選択操作に応じて、前記動画の主要部分の推定に用いるアルゴリズムを選択する選択手段を更に備え、前記抽出手段は、前記選択されているアルゴリズムに基づいて前記主要部分の推定およびインデックス画像の抽出を行い、前記表示制御手段は、前記選択されているアルゴリズムに基づいて推定された主要部分から抽出された前記インデックス画像を、当該主要部分に応じた地図上の位置に表示することを特徴とする請求項1に記載の動画再生装置。
  7. 前記表示制御手段は、前記表示された地図上に複数の動画に対する前記移動経路が表示される場合は、各移動経路と各インデックス画像との対応が視覚的に認識できるように前記インデックス画像を表示することを特徴とする請求項1〜6のいずれか1項に記載の動画再生装置。
  8. 地図を表示するとともに、その地図が示す地域に関連する動画を再生可能なコンピュータに、
    前記動画に時系列で対応づけられている複数の撮影位置情報に基づき、当該動画を撮影したときのカメラの移動経路を前記地図に対応させて認識する処理と、
    任意の動画に対してその主要部分を推定し、認識した主要部分に含まれるいずれかのフレームの画像をインデックス画像として抽出する処理と、
    表示されている地図上に前記認識された移動経路を表示するとともに、当該移動経路に対応する動画から抽出された前記インデックス画像を当該移動経路に対応づけて表示する処理と、
    前記表示されたインデックス画像に対する所定操作に応答して、当該インデックス画像に対応する動画の前記主要部分を再生する再生する処理とを実行させるための動画再生プログラム。
JP2012044311A 2012-02-29 2012-02-29 サーバ、電子機器システムおよびプログラム Active JP5987357B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012044311A JP5987357B2 (ja) 2012-02-29 2012-02-29 サーバ、電子機器システムおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012044311A JP5987357B2 (ja) 2012-02-29 2012-02-29 サーバ、電子機器システムおよびプログラム

Publications (3)

Publication Number Publication Date
JP2013183218A true JP2013183218A (ja) 2013-09-12
JP2013183218A5 JP2013183218A5 (ja) 2015-04-30
JP5987357B2 JP5987357B2 (ja) 2016-09-07

Family

ID=49273616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012044311A Active JP5987357B2 (ja) 2012-02-29 2012-02-29 サーバ、電子機器システムおよびプログラム

Country Status (1)

Country Link
JP (1) JP5987357B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016039548A (ja) * 2014-08-08 2016-03-22 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP2019122027A (ja) * 2018-11-09 2019-07-22 株式会社Zeppelin 撮像動画サービスシステム、撮像動画表示方法、通信端末装置、及びコンピュータプログラム
JP2020046757A (ja) * 2018-09-14 2020-03-26 株式会社小松製作所 再生装置、分析支援システム及び再生方法
JPWO2019039252A1 (ja) * 2017-08-24 2020-07-30 富士フイルム株式会社 医療画像処理装置及び医療画像処理方法
CN112182278A (zh) * 2020-09-23 2021-01-05 深圳市超时空探索科技有限公司 一种打卡足迹的模拟方法和装置
JPWO2021161711A1 (ja) * 2020-02-13 2021-08-19
JP7212808B1 (ja) 2022-03-18 2023-01-25 ヤフー株式会社 動画配信装置、動画配信方法、及び動画配信プログラム
WO2023132267A1 (ja) * 2022-01-05 2023-07-13 株式会社スカイマティクス 地理情報システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002078956A (ja) * 2000-09-06 2002-03-19 Sony Communication Network Corp ゲームサーバおよびゲーム実行方法
JP2004272824A (ja) * 2003-03-12 2004-09-30 Nippon Telegr & Teleph Corp <Ntt> 映像コンテンツの閲覧システムにおけるアプリケーションサーバのプログラムおよびアプリケーションサーバ
JP2004363823A (ja) * 2003-06-03 2004-12-24 Sony Corp 記録再生システム
JP2009147542A (ja) * 2007-12-12 2009-07-02 Canon Inc 再生装置
JP2010108012A (ja) * 2008-10-28 2010-05-13 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2010217229A (ja) * 2009-03-13 2010-09-30 Hitachi Ltd 地図情報表示方法及び装置
JP2011053103A (ja) * 2009-09-02 2011-03-17 Denso Corp 地図および動画を送信するデータサーバおよび動画・地図連動表示システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002078956A (ja) * 2000-09-06 2002-03-19 Sony Communication Network Corp ゲームサーバおよびゲーム実行方法
JP2004272824A (ja) * 2003-03-12 2004-09-30 Nippon Telegr & Teleph Corp <Ntt> 映像コンテンツの閲覧システムにおけるアプリケーションサーバのプログラムおよびアプリケーションサーバ
JP2004363823A (ja) * 2003-06-03 2004-12-24 Sony Corp 記録再生システム
JP2009147542A (ja) * 2007-12-12 2009-07-02 Canon Inc 再生装置
JP2010108012A (ja) * 2008-10-28 2010-05-13 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2010217229A (ja) * 2009-03-13 2010-09-30 Hitachi Ltd 地図情報表示方法及び装置
JP2011053103A (ja) * 2009-09-02 2011-03-17 Denso Corp 地図および動画を送信するデータサーバおよび動画・地図連動表示システム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016039548A (ja) * 2014-08-08 2016-03-22 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JPWO2019039252A1 (ja) * 2017-08-24 2020-07-30 富士フイルム株式会社 医療画像処理装置及び医療画像処理方法
JP2020046757A (ja) * 2018-09-14 2020-03-26 株式会社小松製作所 再生装置、分析支援システム及び再生方法
JP7372031B2 (ja) 2018-09-14 2023-10-31 株式会社小松製作所 再生装置、分析支援システム及び再生方法
JP2019122027A (ja) * 2018-11-09 2019-07-22 株式会社Zeppelin 撮像動画サービスシステム、撮像動画表示方法、通信端末装置、及びコンピュータプログラム
JPWO2021161711A1 (ja) * 2020-02-13 2021-08-19
WO2021161711A1 (ja) * 2020-02-13 2021-08-19 パイオニア株式会社 画像生成装置、画像生成方法、画像生成プログラム及び記録媒体
CN112182278A (zh) * 2020-09-23 2021-01-05 深圳市超时空探索科技有限公司 一种打卡足迹的模拟方法和装置
CN112182278B (zh) * 2020-09-23 2023-11-17 深圳市超时空探索科技有限公司 一种打卡足迹的模拟方法和装置
WO2023132267A1 (ja) * 2022-01-05 2023-07-13 株式会社スカイマティクス 地理情報システム
JP7212808B1 (ja) 2022-03-18 2023-01-25 ヤフー株式会社 動画配信装置、動画配信方法、及び動画配信プログラム
JP2023137847A (ja) * 2022-03-18 2023-09-29 ヤフー株式会社 動画配信装置、動画配信方法、及び動画配信プログラム

Also Published As

Publication number Publication date
JP5987357B2 (ja) 2016-09-07

Similar Documents

Publication Publication Date Title
JP5987357B2 (ja) サーバ、電子機器システムおよびプログラム
US20160365115A1 (en) Video editing system and method using time-based highlight identification
JP5588542B2 (ja) 情報表示装置
US11080908B2 (en) Synchronized display of street view map and video stream
US8212784B2 (en) Selection and display of media associated with a geographic area based on gesture input
US8584015B2 (en) Presenting media content items using geographical data
US20190268583A1 (en) Video sequence assembly
US20180132006A1 (en) Highlight-based movie navigation, editing and sharing
KR20110015593A (ko) 장치에 내장된 3d 콘텐츠 집계
CN102215339A (zh) 电子设备及摄像装置
CN114398554B (zh) 内容搜索方法、装置、设备及介质
US20150242767A1 (en) Aerial view, web-based trip planning techniques using geotagged video and images syncd to a map
JP2007266902A (ja) カメラ
Zhang et al. Annotating and navigating tourist videos
WO2016200692A1 (en) Editing, sharing, and viewing video
Seo et al. Sensor-rich video exploration on a map interface
KR20110052247A (ko) 촬영 이미지를 제공하는 촬영 장치, 촬영 이미지 및 연관 이미지를 디스플레이하는 디스플레이 장치 및 그 방법들
US10446190B1 (en) Fast image sequencing
CN110377791A (zh) 快速影像排序方法
KR101518305B1 (ko) 위치정보 연동 영상콘텐츠 제작방법 및 위치정보 연동 영상콘텐츠 활용방법
WO2023021759A1 (ja) 情報処理装置、情報処理方法
JP2017084161A (ja) 画像処理装置、表示装置及びその制御方法
TW201941075A (zh) 快速影像排序方法
CN110674425A (zh) 一种基于游行分享系统实现游记分享的方法
Shiraishi et al. Metadata Generation for Digital Photograph by using Smartphone's Sensors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160725

R150 Certificate of patent or registration of utility model

Ref document number: 5987357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250