JP2014030267A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2014030267A
JP2014030267A JP2013222877A JP2013222877A JP2014030267A JP 2014030267 A JP2014030267 A JP 2014030267A JP 2013222877 A JP2013222877 A JP 2013222877A JP 2013222877 A JP2013222877 A JP 2013222877A JP 2014030267 A JP2014030267 A JP 2014030267A
Authority
JP
Japan
Prior art keywords
information
moving image
video
image information
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013222877A
Other languages
English (en)
Inventor
Yoshihiro Machida
芳広 町田
Koji Kamogawa
浩二 鴨川
Kazunori Iwabuchi
一則 岩渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2013222877A priority Critical patent/JP2014030267A/ja
Publication of JP2014030267A publication Critical patent/JP2014030267A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】
不特定の時刻、不特定の位置で撮影し、かつ、撮影中の位置が移動する、不特定多数の映像音声を含む動画情報の中から、特定の場所で、特定の時刻に撮影された映像音声情報のみを抽出し、表示する有効な手段がない。
【解決手段】
GPS内蔵ビデオカメラを用い撮影した動画情報が、動画情報サーバに入力される。入力された動画情報の、撮影時刻と、撮影された動画情報のデータアドレスと撮影位置を対応付けた動画情報対応テーブルを生成し、記憶する。表示装置からの要求に従い、記憶した動画情報対応テーブルを検索し、指定された時刻、位置の情報を持つ動画情報を取得する。
【選択図】 図1

Description

本発明は、ビデオカメラ、携帯電話、TV、PCなどの映像記録装置や映像表示機器を用いた映像情報配信について、時刻情報と位置情報を有する動画情報の管理方法および表示方法に関し、特に、時刻と位置を指定することにより、指定に合致する動画情報を地図上に表示させ、大量の動画情報の中から容易に所望の動画情報を検索することができる動画情報検索装置に関する。
近年、デジタルカメラやコンピュータの普及により、コンピュータを用いた電子アルバムが一般化するとともに、高速回線によるインターネットを介した様々な画像共有サービスが行われている。たとえば、GPS受信機を有するデジタルカメラで撮影した画像情報を時刻を指定して、3次元地図上に表示する方法があった。(例えば、特許文献1参照)
特開平11−122638号公報
しかしながら、特許文献1に記載のものは1つの動画の撮影視点に応じて背景の3次元地図を移動させるので、同時刻に複数の位置で撮影した複数の映像を同時に表示するマルチアングル表示の使用方法ができない、といった課題があった。
そこで、本発明の目的は、不特定の時刻、不特定の位置で撮影し、かつ、撮影中の位置が移動する、不特定多数の動画情報の中から、特定の位置や場所で、特定の時刻に撮影された動画情報のみを抽出するし、映像表示を行うことのできる動画情報管理装置、および方法を提供することにある。
上記の目的を達成するために、位置検出機能と時刻管理機能を持つ動画撮影装置、または時刻管理機能を持つ位置検出装置と時刻管理機能を持つ動画撮影装置により撮影した、撮影時刻情報と撮影位置情報を有する動画情報の、前記撮影時刻と、前記撮影時刻に撮影された前記動画情報のデータアドレスと、前記撮影位置と、を対応付けた動画情報対応テーブルを生成し、動画情報とともに記憶し、前記記憶した前記動画情報対応テーブルから、特定の撮影時刻と撮影位置を有する前記動画情報のデータアドレスを取得し、前記データアドレスに対応する動画情報を取得する。
不特定の時刻、不特定の位置で撮影し、かつ撮影中の位置が移動する、不特定多数の映像音声からなる動画情報の中から、特定の場所で、特定の時刻に撮影された動画情報のみを抽出し、表示することができる。
システム全体の構成図例である。 第一の実施例を実現した装置例である。 第七の実施例を実現したハードウェア構成例である。 第一の実施例におけるデータフロー例である。 第一の実施例における映像レイヤ例である。 第一の実施例における動画情報対応テーブル例である。 第一の実施例におけるフローチャート例である。 第一の実施例で行うデータ処理方法例である。 第一の実施例における表示例である。 第二の実施例におけるデータフロー例である。 第二の実施例における映像レイヤ例である。 第八の実施例を実現したハードウェア構成例である。 第三の実施例におけるデータフロー例である。 第三の実施例における映像レイヤ例である。 第四の実施例におけるデータフロー例である。 第四の実施例における動画情報対応テーブル例である。 第五の実施例におけるデータフロー例である。 第六の実施例におけるデータフロー例である。
以下、実施の形態について図面を参照して説明する。
図1は、システム全体の構成図の例である。
まず、撮影時刻情報と撮影位置情報を有する動画情報の生成を、位置情報、時刻情報の検出にGPSを使用した場合の方法を説明する。
ビデオカメラ104で動画情報を記録するとともに記録装置付GPS(Global Positioning System)105で時刻情報、位置情報を記録し、動画情報と時刻情報と位置情報を、録画機能付TV103、あるいはPC(Personal Computer)106でひとつの纏まりとして関連付ける。
GPS内蔵ビデオカメラ107、あるいはGPS内蔵の動画撮影機能付の携帯電話108を用いれば、一つの装置で時刻、位置情報を有する動画情報を記録できる。
携帯電話において、基地局との位置関係から位置情報を検出する方法もある。この場合、動画撮影機能付の携帯電話109の位置を位置検出サーバ10Aで検出し、位置情報を携帯電話109に通知することにより、携帯電話109で撮影時刻情報と撮影位置情報を有する動画情報を生成できる。時刻情報は位置検出サーバ10Aからも通知できるし、携帯電話自身で時計機能を持ってもよい。
上記の例で撮影した撮影時刻情報と撮影位置情報を有する動画情報をネットワーク102を介して、動画情報サーバ101に入力し、記憶する。
動画情報は光ディスク110や半導体ディスク111などのリムーバブルメディアを用い入力してもよい。
動画情報サーバ101に記憶された不特定多数の動画情報の中から、ユーザが所望の動画情報を検索し、TV103やPC106で閲覧するために、本発明を実現した動画情報サーバ101が提供する機能を以下、詳細に述べる。
図2はサーバ101の構成例を示す図である。
入力部201は、動画情報を入力するためのものである。
情報処理部202は、入力部201から入力された前記動画情報の前記撮影時刻と、前記撮影時刻に撮影された前記動画情報のデータアドレスと撮影位置を対応付けた動画情報対応テーブルを生成し、動画情報とともに記憶部204に記憶する。
情報処理部202は、記憶部204に記憶した前記動画情報対応テーブルの中から特定の撮影時刻と撮影位置を有する動画情報のデータアドレスを取得し、取得したデータアドレスに対応する動画情報を取得し、出力部203より出力する。
情報処理部202は、特定の撮影時刻と撮影位置を有する動画情報が記憶部204に記憶されておらず、対象の動画情報がない場合は、何も出力しない、あるいは対象の動画情報が無い旨の動画情報を出力部203より出力する。
なお、本実施例において入力部201は1個の構成であるが、図1に示したとおり、動画情報はネットワーク102から入力する他に、光ディスク110や半導体ディスク111などのリムーバブルメディアから入力してもよく、複数の入力部を有してもよい。
図4は第一の実施例におけるデータフローの例である。
動画情報401は、ネットワークあるいはリムーバブルメディアなどを介して、逐次、動画情報サーバ101内の入力部201に入力される。
入力された動画情報に対し、情報処理部202内の動画情報解析部404は、撮影時刻と、撮影された動画情報のデータアドレスと撮影位置を対応付ける解析処理を行い、動画情報対応テーブルを生成する。
動画情報対応テーブルと動画情報は、記憶部204に記憶される。
例えば、閲覧装置であるTV103のユーザにより、時刻、位置の指定が行われると、ネットワーク102を介して、情報処理部202内の動画情報取得部405に通知される。
動画情報取得部405は、記憶部204に記憶した動画情報対応テーブルの中から、指定された時刻、位置の情報を持つ動画情報のデータアドレスを取得し、取得したデータアドレスに対応する動画情報を取得する。
動画情報取得部405は、取得した動画情報を、出力部203からTV103に出力する。
出力された動画情報は、TV103内の動画情報受信部407で受信し、受信した動画情報ごとに、第一の動画情報再生部408から第Nの動画情報再生部409で時刻情報を同期させて再生する。このとき、ユーザが指定した位置に合致する地図情報403を地図情報受信部40Eで受信する。地図情報はネットワークを介して取得してもよいし、TV内部に記憶したものを使用してもよい。
地図情報受信部40Eで受信した地図情報は地図描画部40Fで描画する。
第一の動画情報再生部408、第Nの動画情報再生部409で再生された、それぞれの音声は音声合成部40Aで合成され、映像は動画情報の有する位置情報に合わせて映像合成部40Bで、地図描画部40Fで描画した地図と合成する。
合成した音声は、音声出力部40Cから出力し、合成した映像は映像表示部40Dで表示される。
図5は、図4の映像合成部40Bで特定の時刻の2個の動画と地図を合成する場合の映像レイヤの例である。
地図描画レイヤ705に地図を描画する。
第一の動画映像レイヤ701上に再生した第一の動画映像702を、地図描画レイヤ705に描画した地図表示領域708の地図上の緯度、経度に対応する位置に、例えば映像の中心点を合わせて配置する。映像を拡大、縮小する場合は固定の倍率でもよいし、表示する映像の総数に合わせて、表示領域内に表示可能となるように、自動的に行っても良い。第一の動画映像702を配置する領域以外は透過領域となる。
同様に、第二の動画映像レイヤ703に再生した第二の動画映像704を、地図描画レイヤ705に描画した地図表示領域708の地図上の位置に合わせて配置する。第二の動画映像704を配置する領域以外は透過領域となる。
最終的に地図描画レイヤ705と第一の動画映像レイヤ701、および第二の動画映像レイヤ703を重ね合わせることにより、地図描画レイヤ705上の第一の動画映像表示領域706に第一の動画映像702が、第二の動画映像表示領域707に第二の動画映像704が重ね合わせられ、位置情報を持つ動画映像が地図上に表示される。なお、時刻情報の経過に従い動画映像の撮影位置が変化した場合、位置情報も変化し、映像が地図上を移動することとなる。音声も映像の位置に合わせて定位変化させてもよい。
図6は、図4に示した、情報処理部202内の動画情報解析部404で、2個の動画情報に対し生成した、動画情報対応テーブル508の例である。
動画情報Aは、標準時刻501のT_0からT_10の時刻に撮影され、各標準時刻に撮影した、アドレス情報502はFileAOf_0からFileAOf_10、撮影位置(緯度)503は、N_0からN_10、撮影位置(経度)504はE_0からE_10である。
動画情報Bは、標準時刻501のT_4からT_12の時刻に撮影され、各標準時刻に撮影した、アドレス情報505はFileBOf_0からFileBOf_8、撮影位置(緯度)506は、N_0からN_8、撮影位置(経度)507はE_0からE_8である。
例えば、標準時刻T_6においては、
動画情報Aの、アドレス情報502はFileAOf_6であり、緯度503はN_6、経度504はE_6の撮影位置で撮影されたものと、
動画情報Bの、アドレス情報505はFileBOf_2であり、緯度506はN_2、経度507はE_2の撮影位置で撮影されたものであることがわかる。
動画情報が3個以上でも、同様に対応づけることができるのはいうまでもない。
なお、GPSを用いると、時刻情報、位置情報の他に、高度情報、方位情報なども検出可能なので、これらの情報も合わせて記録することも可能である。
図7は、図4に示した情報処理部202内の動画情報取得部405が、記憶部204から特定の時刻、位置を有する動画情報を取得する処理のフローチャートの例である。
まず、動画情報を表示する装置、例えばTV103のユーザにより、時刻の指定が行われると、ネットワーク102を介して、情報処理部202内に通知され、動画情報取得部405で時刻を取得する。(ステップS100)
時刻の指定方法は時刻のみでもよいし、開始時刻と終了時刻による指定でもよい。
ステップS100と同様に指定位置を取得する。位置の指定方法は住所などによるエリア指定、建物などによるランドマーク指定などでもよく、最終的に緯度、経度で指定できればよい。(ステップS101)
なお、ステップS100とS101の順序は逆でもよいし、1ステップで実行してもよい。
動画情報対応テーブル508の中から、順次各動画情報の対応テーブルを検索し、動画情報があればステップS103に進み、無ければ終了する。(ステップS102)
動画情報対応テーブルの中から動画情報1個分の対応テーブルを取得する。(ステップS103)
ステップS103で取得した動画情報対応テーブルがステップS100で取得した時刻を含むか検索し、あればステップS105に進み、無ければステップS102に戻る。(ステップS104)
ステップS104で検索した指定時刻を含む動画情報対応テーブルの範囲に、ステップS101で取得した位置の情報が含まれるか検索し、あればステップS106に進み、無ければステップS102に戻る。(ステップS105)
ステップS105で検索した指定時刻、指定位置を含む動画情報のデータアドレスを取得する。(ステップS106)
ステップ107で取得したデータアドレスに対応する動画情報を取得し、ステップS102に戻る。(ステップS107)
図8は、図7で説明したフローチャートで行うデータ処理方法の例である。
ステップS100で標準時刻501がT_1からT_9の時刻を取得し、ステップS101で緯度がN_2からN_6、経度がE_2からE_6のエリア位置指定が行われる。
ステップS102で、動画情報A、動画情報Bの存在を確認し、順次、以降の処理を行う。
ステップS103で、動画情報Aの動画情報対応テーブルを取得する。
ステップS104で、動画情報Aに、標準時刻501がT_1からT_9の時刻情報を含むことがわかる。
ステップS105で、ステップS104で検索した動画情報Aのアドレス情報502のFileAOf_1からFileAOf_9の範囲内に、撮影位置(緯度)503にN_2からN_6、撮影位置(経度)504にE_2からE_6の位置情報を含むことがわかる。
ステップS106で、ステップS105で検索した動画情報Aのアドレス情報502のFileAOf_2からFileAOf_6を取得する。
ステップS107で、ステップS106で取得した動画情報Aのアドレス情報502に対応する動画情報を取得する。
上記と同様のステップで、動画情報Bのアドレス情報505のFileBOf_2からFileBOf_5を取得し、対応する動画情報を取得する。
ステップS102で、次の動画情報が無いことを確認し、処理を終了する。
本実施例では記憶済みの動画情報を順次検索する方法を説明したが、動画情報取得部405が複数の動画情報を扱うことにより、高速化することも可能である。また、動画情報取得部405が複数の動画情報を同時並行に扱うことにより、ステップS102からステップS107を同時並行に行い、ステップS107で動画情報を取得するとともに再生を開始することも可能である。
時刻指定を始点のみにし、記憶中の動画情報を検索することも可能である。
図9は、図8を用いて説明した動画情報を取得した際の、TV103での表示例である。
標準時刻501がT_1の画面表示601には、指定された位置情報を持つ映像がないため、地図のみの画面表示となる。
標準時刻501がT_2の画面表示602には、動画情報Aの撮影位置(緯度)503、撮影位置(経度)504に合わせて、地図上の緯度N_2、経度E_2の位置に、動画情報Aのアドレス情報502のFileAOf_2の映像を表示する。
標準時刻501がT_6の画面表示603には、動画情報Aの撮影位置(緯度)503、撮影位置(経度)504に合わせて、地図上の緯度N_6、経度E_6の位置に、動画情報Aのアドレス情報502のFileAOf_6の映像を表示し、動画情報Bの撮影位置(緯度)506、撮影位置(経度)507に合わせて、地図上の緯度N_2、経度E_2の位置に、動画情報Bのアドレス情報505のFileBOf_2の映像を表示する。
本実施例によれば、不特定の時刻、不特定の位置で撮影し、かつ撮影中の位置が移動する、不特定多数の映像音声からなる動画情報の中から、特定の場所で、特定の時刻に撮影された動画情報のみを抽出し、映像表示することができる。
図10は、第二の実施例におけるデータフローの例である。
情報処理部202は、第一の実施例に加え、第一の動画情報再生部411から第Nの動画情報再生部412、音声合成部413、映像合成部414、動画情報生成部415を具備する。
動画情報取得部405が、記憶部204に記憶した動画情報の中から、指定された時刻、位置の情報を持つ少なくとも1つの動画情報を取得し、各動画情報ごとに、第一の動画情報再生部411から第Nの動画情報再生部412で時刻情報の同期を合わせて再生する。再生された個々の音声は音声合成部413で合成し、映像は動画情報の有する位置情報に合わせて映像合成部414で合成する。合成した映像、音声から動画情報生成部415で1個の動画情報を生成する。
生成した動画情報は、出力部203からTV103に出力される。
出力された動画情報は、TV103内の動画情報受信部407で受信し、動画情報再生部416で再生する。本実施例では、動画情報の合成を動画情報サーバ101で行っているので、動画情報再生部を複数要せず、音声合成部も要しない。
本実施例はTV103を表示装置としたが、PC108や携帯電話109でもよい。
また、表示装置の画面サイズ、あるいは再生のための伸張方式に合わせて、音声合成部413、映像合成部414、および動画情報生成部415で合成する画面サイズ、圧縮方式を変更しても良い。
その他の内容は第一の実施例で示した図4と同一なので省略する。
図11は、図10の映像合成部40Bで2個の動画情報と地図を合成する場合の映像レイヤの例である。
地図描画レイヤ705に地図を描画する。
動画映像レイヤ711上には動画情報サーバ101で合成され生成された1つの動画情報の再生映像を表示する。その内容は、地図描画レイヤ705に描画した地図表示領域708の地図上の位置に合わせて配置した第一の映像702と第二の映像704があり、第一の映像702と第二の映像704を配置する領域以外は透過領域となる。
最終的に地図描画レイヤ705に動画映像レイヤ711を重ね合わせることにより、地図描画レイヤ705上の第一の映像表示領域706に第一の映像702が、第二の映像表示領域707に第二の映像704が重ね合わせられ、地図上に映像が表示される。
その他の内容は、第一の実施例と同一なので省略する。
本実施例によれば、第一の実施例で得る効果に加え、動画情報の合成を動画情報サーバ101で行っているので、閲覧装置であるTV103には複数の動画情報再生部を要せず、音声合成部も要しない。また、動画情報サーバ101から出力するのは1つの動画情報になるため、複数の動画情報を出力する場合に比べ、伝送情報量を少なくすることができる。
また、閲覧する装置の画面サイズ、あるいは対応する伸張方式に合わせて、画面サイズ、圧縮方法を変更することにより、多種類の閲覧装置に対応することができる。
図13は第三の実施例におけるデータフローの例である。
情報処理部202は、第二の実施例に加え、地図情報取得部421、地図描画部422を具備する。
例えば、閲覧装置であるTV103のユーザにより、時刻、位置の指定が行われると、地図情報取得部421は、指定された位置の地図情報403を取得する。地図情報は図13に示す通り動画情報サーバ101に記憶してもよいし、他の方法として、ネットワークを介して取得してもよい。
地図情報取得部421で取得した地図情報は地図描画部422で描画する。
第一の動画情報再生部411、第Nの動画情報再生部412で再生されたそれぞれの映像は個々の動画情報の有する位置情報に合わせて映像合成部414で、地図描画部422で描画した地図と合成する。
合成した地図、映像、音声から動画情報生成部415で1個の動画情報を生成する。
生成した動画情報は、出力部203からTV103に出力される。
出力された動画情報は、TV103内の動画情報受信部407で受信し、動画情報再生部416で再生する。本実施例では、動画情報と地図情報の合成を動画情報サーバ101で行っているので、地図受信部、地図描画部を要しない。
その他の内容は第二の実施例で示した図10と同一なので省略する。
図14は、図13の動画情報再生部407で再生した映像レイヤの例である。
映像レイヤは動画映像レイヤ711のみであり、動画情報サーバ101合成され圧縮された1つの動画情報の再生合成を表示する。その内容は、地図表示領域708の地図上の位置に合わせて配置した第一の映像702と第二の映像704があり、地図情報も合わせて1つの映像情報となっている。
その他の内容は、第二の実施例と同一なので省略する。
本実施例によれば、第一の実施例、第二の実施例で得る効果に加え、動画情報と地図情報の合成を動画情報サーバ101で行っているので、閲覧装置であるTV103には地図情報描画部、映像合成部を要しない。
図15は第四の実施例におけるデータフローの例である。
情報処理部202は、第一の実施例に加え、第二の動画情報生成部431を具備する。第二の動画情報生成部431は動画情報の画素数の縮小、映像圧縮、音声圧縮、または圧縮方式を変更することにより、再生時に要する演算性能を第一の動画情報より低減可能な第二の動画情報を生成する機能を持つ。
入力された第一の動画情報401に対し、情報処理部202内の第二の動画情報生成部431で第二の動画情報を生成し、動画情報解析部404で、撮影時刻と、撮影された第一の動画情報のデータアドレスと第二の動画情報のデータアドレスと撮影位置を対応付ける解析処理を行い、動画情報対応テーブルを生成する。
動画情報対応テーブルと第一の動画情報、第二の動画情報は、記憶部204に記憶される。
動画情報取得部405は、記憶部204に記憶した動画情報対応テーブルの中から、指定された時刻、位置の情報を持つ第二の動画情報のデータアドレスを取得し、取得したデータアドレスに対応する第二の動画情報を取得する。取得した第二の動画情報を出力部203から出力する。
その他の内容は第一の実施例で示した図4と同一なので省略する。
図16は、第二の動画情報を加えた動画情報対応テーブル508の例である。
第一の動画情報は、標準時刻501のT_0からT_10の時刻に撮影され、各標準時刻に撮影した、第二の動画情報のアドレス情報512はFileA_SumOf_0からFileASumOf_10である。
例えば、標準時刻T_6に撮影された第二の動画情報のアドレス情報は、FileA_SumOf_6であることがわかる。同一時刻における第一の動画情報、第二の動画情報のデータアドレスが対応づけられていることがわかる。
その他の内容は、第一の実施例と同一なので省略する。
本実施例によれば、第一の動画情報から、動画情報の画素数の縮小、映像圧縮、音声圧縮、または圧縮方式を変更を変更した第二の動画情報を生成することにより、閲覧装置の再生時に要する演算性能を第一の動画情報を用いた場合より低減できる。
図17は第五の実施例におけるデータフローの例である。
情報処理部202は、第二の実施例に加え、第二の動画情報生成部431を具備する。
第二の動画情報生成生成部431の動作は実施例4と同一である。
動画情報取得部405は、記憶部204に記憶した動画情報の中から、指定された時刻、位置の情報を持つ第二の動画情報を取得する。
その他の内容は、第二の実施例と同一なので省略する。
本実施例によれば、動画情報サーバ101内の動画情報再生部に要する性能を低減することにより、負荷を低減することが可能である。
図18は第六の実施例におけるデータフローの例である。
情報処理部202は、第一の実施例に加え、第二の動画情報生成部431を具備する。第二の動画情報生成部431の動作は実施例4と同一である。
動画情報取得部405は、記憶部204に記憶した動画情報の中から、指定された時刻、位置の情報を持つ動画情報を取得する。
取得した動画情報に対し、第二の動画情報生成部431で第二の動画情報情報を生成し、出力部203から出力する。
その他の内容は、第一の実施例と同一なので省略する。
本実施例によれば、第一の動画情報から、動画情報の画素数の縮小、映像圧縮、音声圧縮、または圧縮方式を変更を変更した第二の動画情報を生成することにより、閲覧装置の再生時に要する演算性能を第一の動画情報を用いた場合より低減できる。
また、動画情報対応テーブルには第一の動画情報のデータアドレスを記憶するだけで良いので、動画情報解析部で行う処理を低減することができる。
図3は、第一の実施例における図2の動画情報サーバ101の情報処理部202をCPU301を用いて実現した実施例のハードウェア構成例である。
CPU301には、HDD302、LAN303、メモリ304、光ディスクドライブ305が接続されている。
動画情報はネットワークを介しLAN303から入力される。
または、可搬型の記憶メディアである光ディスクを用いて読み出し装置の光ディスクドライブ305から入力してもよい。なお、可搬型の記憶メディアは光ディスクに限らず、リムーバブルHDD、半導体メモリなどでもよく、対応した読み出し装置を装備してもよい。
入力された動画情報に対し、CPU301で動作する制御プログラムは、撮影時刻と、前記撮影時刻に撮影された動画情報のデータアドレスと撮影位置を対応付けた動画情報対応テーブルを生成し、動画情報とともにHDD302に記憶する。動画情報が入力されるたびに本動作を繰り返す。
ネットワークで接続された機器からLAN303を介して時刻情報、位置情報が通知されると、CPU301で動作する制御プログラムは、HDD302に記憶した動画情報の中から特定の撮影時刻と撮影位置を有する動画情報を取得し、LAN303より出力する。その他の内容は、第一の実施例と同じなので省略する。
図3の構成では、メモリ304に格納された各種プログラムをCPU301が実行して、各処理を実現しているが、情報処理部202の中の各処理部は、各処理を行う回路として集積回路化するなどしてハードウェアで実現することもできる。
本実施例によれば、コンピュータとプログラムを用いて、不特定の時刻、不特定の位置で撮影し、かつ撮影中の位置が移動する、不特定多数の映像音声を含む動画情報の中から、特定の場所で、特定の時刻に撮影された動画情報のみを抽出することができる。
図12は、第二の実施例における図10で説明した情報処理部202内の、第一の動画情報再生部411から第Nの動画情報再生部412、動画情報生成部415をハードウェアで実現した実施例のハードウェア構成例である。
本実施例では、実施例7で示した図3ハードウェア構成に加え、CPU301に第一のデコーダ306から第Nのデコーダ307からなる複数のデコーダとエンコーダ308が接続されている。
CPU301で動作する制御プログラムにより、HDD302に記憶した動画情報の中から特定の撮影時刻と撮影位置を有する動画情報を取得し、それぞれ第一のデコーダ306から第Nのデコーダ307で時刻情報を同期して再生し、メモリ304で合成した後にエンコーダ308で圧縮する。圧縮した動画情報をLAN303より出力する。
その他の内容は、第二の実施例と同じなので省略する。
図12の構成では、メモリ304に格納された各種プログラムをCPU301が実行して、各処理を実現しているが、情報処理部202の中の各処理部は、各処理を行う回路として集積回路化するなどしてハードウェアで実現することもできる。
本実施例によれば、コンピュータとプログラムを用いて、不特定の時刻、不特定の位置で撮影し、かつ撮影中の位置が移動する、不特定多数の映像音声を含む動画情報の中から、特定の場所で、特定の時刻に撮影された動画情報のみを抽出することができる。
また、動画情報の再生と合成をハードウェアで行うことにより、CPUの負荷を低減することが可能である。
上記複数の実施例によれば、不特定の時刻、不特定の位置で撮影し、かつ撮影中の位置が移動する、不特定多数の映像音声からなる動画情報の中から、特定の場所で、特定の時刻に撮影された動画情報のみを抽出し、表示することができる。
また、同時刻に複数の位置で撮影した複数の映像を同時に表示するマルチアングル表示においても、表示装置の性能を高くすることなく表示できる。
101:動画情報サーバ、102:ネットワーク、103:TV、104:ビデオカメラ、105:GPS、106:PC、107:GPS内蔵ビデオカメラ、108:GPS内蔵携帯電話、109:携帯電話、10A:位置検出サーバ、110:光ディスク、111:フラッシュメモリカード、201:入力部、202:情報処理部、203:出力部、204:記憶部、301:CPU、302:HDD、303:LAN、304:メモリ、305:光ディスクドライブ、306:第一のデコーダ、307:第Nのデコーダ、308:エンコーダ401:動画情報、403:地図情報、404:動画情報解析部、405:動画情報取得部、407:動画情報受信部、408:第一の動画情報再生部、409:第Nの動画情報再生部、40A:音声合成部、40B:映像合成部、40C:音声出力部、40D:映像表示部、40E:地図情報受信部、40F:地図描画部、411:第一の動画情報再生部、412:第Nの動画情報再生部、413:音声合成部、414:映像合成部、415:動画情報生成部、416:動画情報再生部、421:地図情報取得部、422:地図描画部、431:第二の動画情報生成部、501:標準時刻、502:動画情報Aのアドレス情報、503:動画情報Aの撮影位置(緯度)、504:動画情報Aの撮影位置(経度)、505:動画情報Bのアドレス情報、506:動画情報Bの撮影位置(緯度)、507:動画情報Bの撮影位置(経度)、508:動画情報対応テーブル、511:第一の動画情報のアドレス情報、512:第二の動画情報のアドレス情報、513:動画情報の撮影位置(緯度)、514:動画情報の撮影位置(経度)、601:T_1の画面表示、602:T_2の画面表示、603:T_6の画面表示701:第一の動画映像レイヤ、702:第一の動画映像、703:第二の動画映像レイヤ、704:第二の動画映像、705:地図描画レイヤ、706:第一の動画映像表示領域、707:第二の動画映像表示領域、708:地図表示領域、711:動画映像レイヤ
上記目的を解決するために、例えば特許請求の範囲に記載の構成を採用する。

Claims (9)

  1. 撮影時刻情報と撮影位置情報を有する動画情報を管理する動画情報管理装置であって、
    前記動画情報を入力する入力部と、
    前記入力部から入力された前記動画情報の撮影時刻と、前記撮影時刻に撮影された前記動画情報のデータアドレスと、撮影位置と、を対応付けた動画情報対応テーブルを生成する情報処理部と、
    前記入力部から入力された前記動画情報と、前記情報処理部で生成した前記動画情報対応テーブルを記憶する記憶部と、
    前記動画情報を出力する出力部と、
    を具備し、
    前記情報処理部は前記記憶部に記憶した前記動画情報対応テーブルから、特定の撮影時刻と撮影位置を有する前記動画情報のデータアドレスを取得し、
    取得したデータアドレスに対応する前記動画情報を取得し、
    取得した前記動画情報を出力部から出力する、
    ことを特徴とする動画情報管理装置。
  2. 請求項1に記載の動画情報管理装置であって、
    前記情報処理部は、前記記憶部に記憶した前記動画情報対応テーブルから、特定の撮影時刻と撮影位置を有する前記動画情報のデータアドレスを取得し、
    取得したデータアドレスに対応する前記動画情報を取得し、
    取得した少なくとも1つの前記動画情報の時刻情報を同期させて再生し、
    再生した映像を、前記撮影位置に合わせて配置し、1つの映像に合成し、
    再生した音声を1つの音声に合成し、
    合成した映像、音声から1つの動画情報を生成し、
    生成した動画情報を前記出力部から出力する、
    ことを特徴とする動画情報管理装置。
  3. 請求項2に記載の動画情報管理装置であって、
    前記情報処理部は、再生した映像を、前記撮影位置に合わせて配置する際に、地図上の位置に合わせて配置し、1つの映像に合成する、
    ことを特徴とする動画情報管理装置。
  4. 請求項2または3に記載の動画情報管理装置であって、
    前記情報処理部は、
    合成した映像、音声から一つの動画情報を生成する際に、
    表示する機器の画面サイズ、または対応する映像、音声の再生方式と同一となるように、動画情報を生成する、
    ことを特徴とする動画情報管理装置。
  5. 請求項1に記載の動画情報管理装置であって、
    前記情報処理部は、
    前記入力部から入力された第一の動画情報から、
    画素数の縮小、映像圧縮、音声圧縮、または圧縮方式の変更を施した第二の動画情報を生成し、
    撮影時刻と、前記撮影時刻に撮影された、前記第一の動画情報のデータアドレスと、前記第二の動画情報のデータアドレスと、前記撮影位置を対応付けた動画情報対応テーブルを生成し、
    前記記憶部は、
    前記入力部から入力された前記第一の動画情報と、前記情報処理部で生成した前記第二の動画情報と前記動画情報対応テーブルを記憶し、
    前記情報処理部は、
    前記記憶部に記憶した前記動画情報対応テーブルから、特定の撮影時刻と撮影位置を有する前記第二の動画情報のデータアドレスを取得し、
    取得したデータアドレスに対応する前記第二の動画情報を取得し、
    取得した前記第二の動画情報を前記出力部から出力する、
    ことを特徴とする動画情報管理装置。
  6. 請求項1に記載の動画情報管理装置であって、
    前記情報処理部は、
    前記記憶部から取得した第一の動画情報から、
    画素数の縮小、映像圧縮、音声圧縮、または圧縮方式の変更を施した第二の動画情報を生成し、生成した前記第二の動画情報を出力部から出力する、
    ことを特徴とする動画情報管理装置。
  7. 請求項1に記載の動画情報管理装置であって、
    前記動画情報は、
    位置検出機能と時刻管理機能を持つ動画撮影装置により記録された撮影時刻情報と撮影位置情報を有する動画情報、または、
    時刻管理機能を持つ位置検出装置により記録された時刻情報と、位置情報および時刻管理機能を持つ動画撮影装置により撮影された動画情報の組み合わせである、
    ことを特徴とする動画情報管理装置。
  8. 撮影時刻情報と撮影位置情報を有する動画情報を管理する動画情報管理方法であって、
    前記動画情報を入力し、
    入力された前記動画情報の撮影時刻と、前記撮影時刻に撮影された前記動画情報のデータアドレスと、撮影位置と、を対応付けた動画情報対応テーブルを生成し、
    入力された前記動画情報と、生成した前記動画情報対応テーブルを記憶し、
    記憶した前記動画情報対応テーブルから、特定の撮影時刻と撮影位置を有する前記動画情報のデータアドレスを取得し、
    取得したデータアドレスに対応する前記動画情報を取得し、
    取得した前記動画情報を出力する、
    ことを特徴とする動画情報管理方法。
  9. 動画情報を合成する動画情報合成方法であって
    撮影時刻情報と撮影位置情報を有する少なくとも1つの動画情報の、
    時刻情報を同期させて再生し、
    再生した映像を、撮影位置に合わせて配置し、1つの映像に合成し、
    再生した音声を1つの音声に合成する、
    ことを特徴とする動画情報合成方法。
JP2013222877A 2013-10-28 2013-10-28 撮像装置 Pending JP2014030267A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013222877A JP2014030267A (ja) 2013-10-28 2013-10-28 撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013222877A JP2014030267A (ja) 2013-10-28 2013-10-28 撮像装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009010498A Division JP5401103B2 (ja) 2009-01-21 2009-01-21 動画情報管理装置、および方法

Publications (1)

Publication Number Publication Date
JP2014030267A true JP2014030267A (ja) 2014-02-13

Family

ID=50202485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013222877A Pending JP2014030267A (ja) 2013-10-28 2013-10-28 撮像装置

Country Status (1)

Country Link
JP (1) JP2014030267A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018037886A (ja) * 2016-08-31 2018-03-08 株式会社東芝 画像配信装置、画像配信システム、および画像配信方法
JP2021039768A (ja) * 2020-10-28 2021-03-11 株式会社東芝 画像配信装置、画像配信システム、および画像配信方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344897A (ja) * 2001-05-16 2002-11-29 Mitsubishi Electric Corp 映像表示装置
JP2003153230A (ja) * 2001-11-08 2003-05-23 Hitachi Ltd 画像情報提供システム
JP2005051278A (ja) * 2001-07-30 2005-02-24 Matsushita Electric Ind Co Ltd 映像記録装置
JP2007166036A (ja) * 2005-12-09 2007-06-28 Fujitsu Ltd 映像生成プログラム、映像生成サポートプログラム、イベント映像生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344897A (ja) * 2001-05-16 2002-11-29 Mitsubishi Electric Corp 映像表示装置
JP2005051278A (ja) * 2001-07-30 2005-02-24 Matsushita Electric Ind Co Ltd 映像記録装置
JP2003153230A (ja) * 2001-11-08 2003-05-23 Hitachi Ltd 画像情報提供システム
JP2007166036A (ja) * 2005-12-09 2007-06-28 Fujitsu Ltd 映像生成プログラム、映像生成サポートプログラム、イベント映像生成方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018037886A (ja) * 2016-08-31 2018-03-08 株式会社東芝 画像配信装置、画像配信システム、および画像配信方法
JP2021039768A (ja) * 2020-10-28 2021-03-11 株式会社東芝 画像配信装置、画像配信システム、および画像配信方法
JP7055853B2 (ja) 2020-10-28 2022-04-18 株式会社東芝 画像配信装置、画像配信システム、および画像配信方法

Similar Documents

Publication Publication Date Title
US8965271B1 (en) Method and mechanism for coordinated capture and organization of multimedia data
KR102314594B1 (ko) 이미지 디스플레이 방법 및 전자 장치
KR20160056888A (ko) 여러 사용자 주석들을 검색하고 그것들을 콘텐트 내에 오버레이하여 비디오들을 브라우징하기
JP2009223865A (ja) 携帯端末装置およびコンピュータプログラム
JP2011078008A (ja) コンテンツ共有装置、コンテンツ編集装置、コンテンツ共有プログラム、およびコンテンツ編集プログラム
US8260119B2 (en) Content editing apparatus
JP5401103B2 (ja) 動画情報管理装置、および方法
CN101945169A (zh) 一种摄像和播放的方法、系统、移动通讯终端
JP5596844B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
JP2016506700A (ja) 混合媒体通信
KR20100059493A (ko) 영상 합성 시스템 및 그 방법
US20160100110A1 (en) Apparatus, Method And Computer Program Product For Scene Synthesis
JP2014030267A (ja) 撮像装置
JP2017059121A (ja) 画像管理装置、画像管理方法及びプログラム
JP2008079111A (ja) 画像再生システム
JP2014106618A (ja) サーバ装置、端末装置、arコンテンツ提供方法、およびプログラム
JP2005191892A (ja) 情報取得装置及びこれを用いたマルチメディア情報作成システム
JP2012244343A (ja) マルチ映像再生装置及びマルチ映像再生方法
KR20150106472A (ko) 컨텐츠 제공 방법 및 장치
JP6977847B2 (ja) 画像管理装置、画像管理方法及びプログラム
JP5409852B2 (ja) 仮想風景表示装置及び仮想風景表示方法
JP2007208596A (ja) データ再生機器、データ再生方法およびプログラム
JP4968621B2 (ja) 画像再生システム
KR100636192B1 (ko) 영상 재생 방법 및 촬영 장치
JP2016123046A (ja) 画像処理装置、画像処理方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131028

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140310

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150407