JP2020107971A - 撮像装置、録音装置、情報処理装置、撮像方法、録音方法、動画編集方法およびプログラム - Google Patents

撮像装置、録音装置、情報処理装置、撮像方法、録音方法、動画編集方法およびプログラム Download PDF

Info

Publication number
JP2020107971A
JP2020107971A JP2018243563A JP2018243563A JP2020107971A JP 2020107971 A JP2020107971 A JP 2020107971A JP 2018243563 A JP2018243563 A JP 2018243563A JP 2018243563 A JP2018243563 A JP 2018243563A JP 2020107971 A JP2020107971 A JP 2020107971A
Authority
JP
Japan
Prior art keywords
recording
moving image
imaging device
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018243563A
Other languages
English (en)
Inventor
純一 内田
Junichi Uchida
純一 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2018243563A priority Critical patent/JP2020107971A/ja
Publication of JP2020107971A publication Critical patent/JP2020107971A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】信複数の録音装置を互いに距離を離して設置した場合であっても、編集時の作業工程を減少させることができる撮像装置、録音機器、情報処理装置、撮像方法、録音方法、動画編集方法およびプログラムを提供する。【解決手段】撮像装置10は、撮像素子101bが生成した動画データと、位置検出部111cが検出した複数の録音装置の各々と撮像装置1との相対的な位置関係と、方向検出部111dが検出した所定時間毎の撮像装置1の撮影方向と、を対応付けて記録部110に記録する記録制御部111iを備える。【選択図】図2

Description

本開示は、被写体を撮像することによって画像データを生成する撮像装置、音声の入力を受け付ける録音装置、画像データに対して処理を行う情報処理装置、撮像方法、録音方法、動画編集方法およびプログラムに関する。
従来、TV会議システムにおいて、発言者を自動的かつ正確に特定し、特定した発言者を撮像する技術が知られている(特許文献1参照)。この技術では、複数のマイクロフォンと、パン、チルトおよびズーム可能な撮像装置と、を設け、複数のマイクロフォンの各々が集音した集音信号に基づいて、マイクロフォンを使用した話者の方向および話者と撮像装置との距離を算出し、この算出したデータに基づいて、撮像装置の撮影条件を制御する。
特開2005−151471号公報
しかしながら、上述した特許文献1では、マイクロフォンで集音することができない遠くの音を録音する場合、録音機能を備えた録音機器を用いて録音を行っている。このため、上述した特許文献1では、撮影対象物が移動する、複数の録音機器を互いに距離を離して設置し、編集時に最も音声を集音できた録音装置に切り替える作業を行いながら編集作業を行わなければならず、作業工数が掛かるという問題点があった。
本開示は、上記に鑑みてなされたものであって、複数の録音装置を互いに距離を離して設置した場合であっても、編集時の作業工程を減少させることができる撮像装置、録音装置、情報処理装置、撮像方法、録音方法、動画編集方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本開示に係る撮像装置は、互いに距離を離して設置された複数の録音装置と双方向に通信することができる撮像装置であって、光学系が結像した被写体像を連続的に撮像することによって動画データを生成する撮像素子と、前記複数の録音装置の各々と当該撮像装置との相対的な位置関係を検出する位置検出部と、所定の時間毎に当該撮像装置の撮影方向を検出する方向検出部と、前記動画データと、前記相対的な位置関係と、前記撮影方向と、を対応付けて記録媒体に記録する記録制御部と、を備える。
また、本開示に係る録音装置は、動画撮影することができる撮像装置と双方向に通信する録音装置であって、音声を収音することによって音声データを生成する収音部と、前記撮像装置から受信した前記撮像装置の焦点距離に関する焦点距離情報に基づいて、前記収音部の録音感度を制御する音声制御部と、を備える。
また、本開示に係る情報処理装置は、少なくとも撮像装置が生成した動画データを記録する動画ファイルであって、少なくとも前記動画データと、複数の録音装置の各々と前記撮像装置との相対的な位置関係と、所定の時間毎の撮像装置の撮影方向と、を対応付けた動画ファイル、および前記撮像装置が前記動画データの生成時に、互いに距離を離して前記撮像装置の撮影範囲内に設置された複数の録音装置が生成した複数の音声データであって、前記動画データと時間軸が同じ複数の音声データを記録する複数の音声ファイルを取得する取得部と、前記相対的な位置関係と前記撮影方向とに基づいて、前記複数の録音装置の中から前記所定の時間毎に当該撮像装置の撮影方向に位置する最適な録音装置を判定する判定部と、前記動画データにおける所定の時間毎に前記撮像装置の撮影方向に位置すると判定された前記最適な録音装置によって生成された音声データを、前記所定の時間内における前記動画データの音声データとして選択し、該選択した音声データを前記動画データに同期合成する動画編集部と、を備える。
また、本開示に係る撮像方法は、互いに距離を離して設置された複数の録音装置と双方向に通信することができる撮像装置が実行する撮像方法であって、光学系が結像した被写体像を連続的に撮像することによって動画データを生成し、前記複数の録音装置の各々と当該撮像装置との相対的な位置関係を検出し、所定の時間毎に当該撮像装置の撮影方向を検出し、前記動画データと、前記相対的な位置関係と、前記撮影方向と、を対応付けて記録媒体に記録する。
また、本開示に係る録音方法は、動画撮影することができる撮像装置と双方向に通信する録音装置が実行する録音方法であって、音声を収音することによって音声データを生成し、前記撮像装置から受信した前記撮像装置の焦点距離に関する焦点距離情報を受信し、前記焦点距離情報に基づいて、前記音声データの生成時の録音感度を制御する。
また、本開示に係る動画編集方法は、情報処理装置が実行する動画編集方法であって、少なくとも撮像装置が生成した動画データを記録する動画ファイルであって、少なくとも前記動画データと、複数の録音装置の各々と前記撮像装置との相対的な位置関係と、所定の時間毎の撮像装置の撮影方向と、を対応付けた動画ファイル、および前記撮像装置が前記動画データの生成時に、互いに距離を離して前記撮像装置の撮影範囲内に設置された複数の録音装置が生成した複数の音声データであって、前記動画データと時間軸が同じ複数の音声データを記録する複数の音声ファイルを取得し、前記相対的な位置関係と前記撮影方向とに基づいて、前記複数の録音装置の中から前記所定の時間毎に当該撮像装置の撮影方向に位置する最適な録音装置を判定し、前記動画データにおける所定の時間毎に前記撮像装置の撮影方向に位置すると判定された前記最適な録音装置によって生成された音声データを、前記所定の時間内における前記動画データの音声データとして選択し、該選択した音声データを前記動画データに同期合成する。
また、本開示に係るプログラムは、互いに距離を離して設置された複数の録音装置と双方向に通信することができる撮像装置に、光学系が結像した被写体像を連続的に撮像することによって動画データを生成させ、前記複数の録音装置の各々と当該撮像装置との相対的な位置関係を検出させ、所定の時間毎に当該撮像装置の撮影方向を検出させ、前記動画データと、前記相対的な位置関係と、前記撮影方向と、を対応付けて記録媒体に記録する。
また、本開示に係るプログラムは、録音装置に、音声を収音することによって音声データを生成し、前記撮像装置から受信した前記撮像装置の焦点距離に関する焦点距離情報を受信させ、前記焦点距離情報に基づいて、前記音声データの生成時の録音感度を制御する。
また、本開示に係るプログラムは、情報処理装置に、少なくとも撮像装置が生成した動画データを記録する動画ファイルであって、少なくとも前記動画データと、複数の録音装置の各々と前記撮像装置との相対的な位置関係と、所定の時間毎の撮像装置の撮影方向と、を対応付けた動画ファイル、および前記撮像装置が前記動画データの生成時に、互いに距離を離して前記撮像装置の撮影範囲内に設置された複数の録音装置が生成した複数の音声データであって、前記動画データと時間軸が同じ複数の音声データを記録する複数の音声ファイルを取得し、前記相対的な位置関係と前記撮影方向とに基づいて、前記複数の録音装置の中から前記所定の時間毎に当該撮像装置の撮影方向に位置する最適な録音装置を判定し、前記動画データにおける所定の時間毎に前記撮像装置の撮影方向に位置すると判定された前記最適な録音装置によって生成された音声データを、前記所定の時間内における前記動画データの音声データとして選択し、該選択した音声データを前記動画データに同期合成する。
本開示によれば、複数の録音装置を互いに距離を離して設置した場合であっても、編集時の作業工程を減少させることができるという効果を奏する。
図1は、実施の形態1に係る動画撮影システムの概要を示す模式図である。 図2は、実施の形態1に係る撮像装置の機能構成を示すブロック図である。 図3は、実施の形態1に係る録音装置の機能構成を示すブロック図である。 図4は、実施の形態1に係る情報処理装置の機能構成を示すブロック図である。 図5は、互いに異なる位置に2つの録音装置を配置した状態で撮像装置を用いて動画撮影を行っている状況下を示す図である。 図6は、互いに異なる位置に2つの録音装置を配置した状態で撮像装置を用いて動画撮影を行っている状況下を示す図である。 図7は、互いに異なる位置に2つの録音装置を配置した状態で撮像装置の画角を望遠側で動画撮影を行っている状況下を示す図である。 図8は、互いに異なる位置に2つの録音装置を配置した状態で撮像装置の画角を広角側で動画撮影を行っている状況下を示す図である。 図9は、実施の形態1に係る撮像装置が実行する処理の概要を示すフローチャートである。 図10は、実施の形態1に係る録音装置が実行する処理の概要を示すフローチャートである。 図11は、実施の形態1に係る情報処理装置が実行する処理の概要を示すフローチャートである。 図12は、実施の形態1に係る判定部の判定方法を模式的に説明する図である。 図13は、実施の形態1に係る動画編集部による動画編集方法を模式的に説明する図である。 図14は、実施の形態1に係る動画ファイルの一例を模式的に示す図である。 図15は、実施の形態2に係る撮像装置の機能構成を示すブロック図である。
以下、本開示を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本開示が限定されるものでない。また、以下の説明において参照する各図は、本開示の内容を理解でき得る程度に形状、大きさ、および位置関係を概略的に示してあるに過ぎない。即ち、本開示は、各図で例示された形状、大きさ、および位置関係のみに限定されるものでない。
(実施の形態1)
〔動画撮影システムの概要〕
図1は、実施の形態1に係る動画撮影システムの概要を示す模式図である。図1に示す動画撮影システム1は、被写体に対する画像データを生成する静止画撮影または動画データを生成する動画撮影を撮影することができる撮像装置10と、互いに距離を離して配置され、音声の入力を受け付けて音声データを録音する複数の録音装置20と、動画データおよび音声データの合成または編集を行う情報処理装置30と、を備える。図1では、3台の録音装置20(録音装置20A〜録音装置20C)を例に説明するが、これに限定されることなく、互いに距離を離して配置することができれば、2台以上であってもよい。さらに、複数の録音装置20は、撮像装置10の撮像範囲内に設置される。
〔撮像装置の構成〕
まず、撮像装置10の構成について説明する。図2は、撮像装置10の機能構成を示すブロック図である。
図2に示す撮像装置10は、撮像部101と、収音部102と、GPS(Global Positioning System)部103と、地磁気センサ104と、時計105と、操作部106と、第1通信部107と、第2通信部108と、表示部109と、記録部110と、制御部111と、を備える。
撮像部101は、制御部111の制御のもと、被写体像を撮像し、この被写体像の画像データ(静止画データ)を生成する。また、撮像部101は、制御部111の制御のもと、被写体像を連続的に撮像し、この被写体像の動画データを生成する。撮像部101は、撮像部101は、画像データまたは動画データを制御部111へ出力する。撮像部101は、光学系101aと、撮像素子101bと、を有する。
光学系101aは、被写体像を撮像素子101bの受光面に結像する。光学系101aは、制御部111の制御のもと、所定の位置にピント位置を合焦させる。光学系101aは、焦点距離(画角)を変更することができる。光学系101aは、複数のレンズ、および複数のレンズのうちフォーカスレンズを光軸O1に沿って移動させるステッピングモータ等の駆動部およびフォーカスレンズの位置を検出する光カプラやエンコーダ等の検出センサ、シャッタおよび絞り等を有する。
撮像素子101bは、制御部111の制御のもと、光学系101aが結像した被写体像を撮像することによって画像データまたは動画データを生成し、この画像データおよび動画データを制御部111へ出力する。撮像素子101bは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を用いて構成される。
収音部102は、制御部111の制御のもと、音声を収音し、収音した音声を音声データに変換して制御部111へ出力する。収音部102は、マイクロフォン、マイクロフォンが収音した音声を音声データに変換する変換部および音声データに対して増幅処理やノイズ除去処理等を行う信号処理回路等を有する。
GPS部103は、地上の物体の位置を測位する測定手段であるGPS(Global Positioning System)を構成する複数のGPS衛星から送信されてくる衛星の軌道情報を受信し、この受信した軌道情報に基づいて、撮影時や画像再生時における撮像装置10の位置情報(以下、「撮影位置情報」という)を取得し、この撮影位置情報を制御部111へ出力する。ここで、撮影位置情報は、経度、緯度および時刻情報である。
地磁気センサ104は、光学系101aの光軸O1が略水平になる場合において、光学系101aの光軸が視野領域を向いた方向を基準方位としたときの撮像装置10の撮像方向(方位)を検出し、この検出結果を制御部111へ出力する。具体的には、地磁気センサ104は、地磁気の垂直方向と水平方向の成分を検出し、北を基準とする基準方位と撮像装置10における光学系101aの光軸O1とがなす角度を方位角として検出することによって撮像装置10の撮像方向を検出する。地磁気センサ104は、例えば、地磁気センサ、加速度センサおよびジャイロセンサ等を用いて構成される。
時計105は、時間を計時し、この計時結果を制御部111へ出力する。時計105は、計時機能の他、撮像部101によって生成された画像データや動画データの日時に関する日時情報を生成し、この日時情報を制御部111へ出力する。
操作部106は、撮像装置10の各種の指示を与える指示信号の入力を受け付ける。操作部106は、プッシュスイッチ、ジョグダイヤル、リング、タッチパネルおよび回転レバー等を用いて構成される。
第1通信部107は、制御部111の制御のもと、録音装置20または情報処理装置30との間で通信に必要な信号を含む各種データの無線通信を所定のプロトコルに従って行う。第1通信部107は、Bluetooth(登録商標)通信を採用している。なお、第1通信部107は、Bluetooth通信の他、赤外線通信(IrDA(Infrared Data Association))等、他の通信を採用しても構わない。例えば、Bluetoothの場合、機器の役割としては、近距離の一対一関係のマスター、スレーブの関係となり、概略接続処理としては、マスターが、所望のスレーブを検索し接続を行うため、問い合わせと応答の関係だけで通信が成り立ち、簡便である。つまり、大まかな接続シーケンスとしては、まず、マスターは、スレーブ機器が存在するかの問い合わせ(Inquiry)を行う。続いて、スレーブは、マスターからの問い合わせ(Inquiry)に対し、応答を返す。その後、マスターは、応答があったスレーブのうち、所望のスレーブと接続する。ただし、データ通信は、マスターからのデータ送受信指示により、データ送受信を行い、マスターが許可しないとデータ送受信できない。第1通信部107は、例えばアンテナと送受信回路とを有するブルートゥース通信モジュールを用いて構成される。
第2通信部108は、制御部111の制御のもと、録音装置20または情報処理装置30との間で通信に必要な信号を含む各種データの無線通信を所定のプロトコルに従って行う。第2通信部108は、Wi-Fi(Wireless Fidelity)(登録商標)通信を採用している。例えば、Wi-Fiの場合、ローカルネットワークを想定し、機器の役割として、アクセスポイント、ステーションの関係があり、概略の接続処理としては、アクセスポイントが構築している無線ネットワークに、ステーションが接続する関係となる。大まかな接続シーケンスとしては、まず、アクセスポイントは、無線ネットワークを構築し、自分のネットワーク識別子(SSID)を報知する。続いて、ステーションは、報知されているネットワーク識別子(SSID)を検索し、所望のネットワーク(アクセスポイント)に接続する。多くの機器とのネットワークを想定するので、カバー範囲も広く、干渉の問題を考慮しながら厳密な識別ステップを踏むことになる。このため、接続確立に時間がかかることがある。ただし、データ通信は、アクセスポイント、ステーションそれぞれのタイミングでデータの送受信が可能である。なお、第2通信部108は、Wi-Fi(Wireless Fidelity)以外に、4G無線を利用した通信を採用してもよい。もちろん、第2通信部108は、3G無線を利用した通信、5G無線を利用した通信およびWiMAX(Worldwide Interoperability for Microwave Access)通信等、他の通信を採用しても構わない。なお、第2通信部108は、例えばアンテナと送受信回路とを有するWi−Fi通信モジュールを用いて構成される。なお、実施の形態1では、第1通信部107および第2通信部108が送信部として機能する。
表示部109は、制御部111の制御のもと、画像データに対応する画像または動画データに対応する動画を表示する。また、表示部109は、撮像装置10に関する各種情報を表示する。表示部109は、例えば有機EL(Electro Luminescence)や液晶の表示パネルを用いて構成される。
記録部110は、SDRAM(Synchronous Dynamic Random Access Memory)、ROM(Read Only Memory)、Flashメモリおよび記録媒体等を用いて構成され、撮像装置10に関する各種情報を記録する。記録部110は、撮像装置10が実行する各種のプログラムを記録するプログラム記録部110aと、動画データを格納した動画ファイルを記録する動画データ記録部110bと、音声データを格納した音声ファイルを記録する音声データ記録部110cと、を有する。
制御部111は、メモリと、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)およびDSP(Digital Signal Processing)のいずれか1つ以上のハードウェアを用いて構成される。制御部111は、撮像装置10を構成する各部を統括的に制御する。
ここで、制御部111の詳細な構成について説明する。制御部111は、画像処理部111aと、音声処理部111bと、位置検出部111cと、方向検出部111dと、撮影制御部111eと、表示制御部111fと、焦点距離検出部111gと、ピント位置検出部111hと、記録制御部111iと、を有する。
画像処理部111aは、撮像素子101bが生成した画像データや動画データに対して所定の画像処理を行う。例えば、画像処理部111aは、画像データに対して、ホワイトバランス調整処理、ノイズ低減処理、デモザイキング処理、JPEG変換処理およびMPEG変換処理等を行う。
音声処理部111bは、収音部102が生成した音声データに対して、所定の音声処理を行う。音声処理部111bは、音声データに対して、ノイズ低減処理や増幅処理を行う。
位置検出部111cは、複数の録音装置20の各々と撮像装置10との相対的な位置関係を検出する。具体的には、位置検出部111cは、複数の録音装置20の各々から取得した位置情報(以下、「録音位置情報」という)と、撮像装置10のGPS部103が検出した撮影位置情報と、に基づいて、複数の録音装置20の各々と撮像装置10との相対的な位置関係を検出する。例えば、位置検出部111cは、録音位置情報に含まれる緯度および経度と、撮影位置情報に含まれる緯度および経度とに基づいて、撮像装置10と複数の録音装置20の各々の距離および向き(方位)を算出することによって、複数の録音装置20の各々と撮像装置10との相対的な位置関係を検出する。なお、位置検出部111cは、複数の録音装置20の録音位置情報を、操作部106によって入力された録音位置情報を用いて、複数の録音装置20の各々と撮像装置10との相対的な位置関係を検出してもよい。さらに、位置検出部111cは、撮像素子101bに含まれる測距センサや位相差センサによって検出された撮像装置10から録音装置20までの測距距離に基づいて、複数の録音装置20の各々と撮像装置10との相対的な位置関係を検出してもよい。
方向検出部111dは、所定の時間毎に撮像装置10の撮影方向を検出する。具体的には、方向検出部111dは、地磁気センサ104が検出した検出結果に基づいて、撮像装置10の撮影方向を検出する。ここで、所定の時間毎とは、撮像素子101bが生成する画像データの1フレーム毎、または所定のフレーム毎、例えば60フレーム毎(1秒毎)に撮像装置10の撮影方向を検出する。
撮影制御部111eは、撮像部101の撮影動作を制御する。撮影制御部111eは、撮像素子101bが生成した画像データに基づいて、光学系101aのピント位置や撮像素子101bによる録音感度を制御する。例えば、撮影制御部111eは、撮像素子101bが生成した画像データに基づいて、光学系101aのフォーカスレンズを光軸O1上に沿って移動させることによってユーザが所望する被写体にピンチ位置を合焦させる。
表示制御部111fは、表示部109の表示態様を制御する。表示制御部111fは、撮像装置10に関する各種情報を表示部109に表示させる。
焦点距離検出部111gは、現在の光学系101aの焦点距離を検出する。例えば、焦点距離検出部111gは、光学系101aに設けられた図示しない光カプラやエンコーダ等が検出した検出結果に基づいて、現在の光学系101aの焦点距離(画角)を検出する。
ピント位置検出部111hは、撮像素子101bが生成した画像データに基づいて、光学系101aのピント位置を検出する。例えば、ピント位置検出部111hは、画像データに含まれる高周波成分に基づいて、光学系101aのピント位置を検出する。なお、ピント位置検出部111hは、撮像素子101bに埋め込まれた位相差画素や測距画素から出力された信号に基づいて、光学系101aのピント位置を検出してもよい。
記録制御部111iは、撮像素子101bが生成した動画データと、位置検出部111cが検出した撮像装置10と複数の録音装置20の各々との相対的な位置関係と、方向検出部111dが検出した撮像装置10の撮影方向と、を対応付けて記録部110に記録する。また、記録制御部111iは、撮像素子101bが生成した動画データと、位置検出部111cが検出した撮像装置10と複数の録音装置20の各々との相対的な位置関係と、方向検出部111dが検出した撮像装置10の撮影方向と、ピント位置検出部111hが検出したピント位置と、を対応付けて記録部110に記録する。
〔録音装置の構成〕
次に、録音装置20の構成について説明する。図3は、録音装置20の機能構成を示すブロック図である。なお、録音装置20A〜録音装置20Cは、互いに同じ構成のため、録音装置20を表現して構成を説明する。
図3に示す録音装置20は、第1通信部201と、第2通信部202と、収音部203と、GPS部204と、時計205と、操作部206と、表示部207と、記録部208と、制御部209と、を備える。
第1通信部201は、制御部209の制御のもと、撮像装置10または情報処理装置30との間で通信に必要な信号を含む各種データの無線通信を所定のプロトコルに従って行う。第1通信部201は、Bluetooth通信を採用している。
第2通信部202は、制御部209の制御のもと、撮像装置10または情報処理装置30との間で通信に必要な信号を含む各種データの無線通信を所定のプロトコルに従って行う。第2通信部202は、Wi-Fi通信を採用している。
収音部203は、制御部209の制御のもと、音声を収音し、収音した音声を音声データに変換して制御部209へ出力する。収音部203は、マイクロフォン、マイクロフォンが収音した音声を音声データに変換する変換部および音声データに対して増幅処理やノイズ除去処理等を行う信号処理回路等を有する。なお、マイクロフォンは、ステレオマイクロフォン、モノラルマイクロフォンのどちらであってもよい。
GPS部204は、複数のGPS衛星から送信されてくる衛星の軌道情報を受信し、この受信した軌道情報に基づいて、撮影時や画像再生時における録音装置20の位置情報を取得し、この位置情報を制御部209へ出力する。
時計205は、時間を計時し、この計時結果を制御部209へ出力する。時計205は、計時機能の他、収音部203によって生成された音声データの日時に関する日時情報を生成し、この日時情報を制御部209へ出力する。
操作部206は、録音装置20の各種の指示を与える指示信号の入力を受け付ける。操作部206は、プッシュスイッチ、ジョグダイヤル、リング、タッチパネルおよび回転レバー等を用いて構成される。
表示部207は、録音装置20に関する各種情報を表示する。表示部207は、有機ELや液晶等の表示パネルを用いて構成される。
記録部208は、SDRAM(Synchronous Dynamic Random Access Memory)、ROM(Read Only Memory)、Flashメモリおよび記録媒体等を用いて構成され、録音装置20に関する各種情報を記録する。記録部208は、録音装置20が実行する各種情報を記録するプログラム記録部208aと、音声データを格納した音声ファイルを記録する音声データ記録部208bと、を有する。
制御部209は、録音装置20を構成する各部を統括的に制御する。制御部209は、メモリと、CPU等のハードウェアを有するプロセッサと、を用いて構成される。制御部209は、音声処理部209aと、音声制御部209bと、を有する。
音声処理部209aは、収音部203が生成した音声データに対して所定の音声処理を行う。例えば、音声処理部209aは、音声データに対して、ノイズ低減処理や増幅処理等を行う。
音声制御部209bは、収音部203の動作を制御する。音声制御部209bは、収音部203による録音感度や指向性を制御する。例えば、音声制御部209bは、第1通信部201または第2通信部202を経由して受信した撮像装置10の焦点距離(画角)に基づいて、収音部203の録音感度や指向性を制御する。
〔情報処理装置の構成〕
次に、情報処理装置30の構成について説明する。図4は、情報処理装置30の機能構成を示すブロック図である。
図4に示す情報処理装置30は、操作部301と、取得部302と、再生部303と、記録部304と、制御部305と、を備える。
操作部301は、情報処理装置30に関する各種の指示を与える指示信号の入力を受け付ける。操作部301は、例えばキーボード、マウスおよびタッチパネル等を用いて構成される。
取得部302は、制御部305の制御のもと、撮像装置10または録音装置20との間で通信に必要な信号を含む各種データの通信を所定のプロトコルに従って無線または有線によって行う。取得部302は、通信モジュールを用いて構成される。
再生部303は、制御部305の制御のもと、動画データに対応する動画を音声とともに再生する。再生部303は、液晶や有機EL等の表示パネルとスピーカー等を用いて構成される。
記録部304は、情報処理装置30に関する各種情報を記録する。記録部304は、情報処理装置30が実行する各種プログラムを記録するプログラム記録部304aと、動画データを格納した動画ファイルを記録する動画データ記録部304bと、を有する。
制御部305は、情報処理装置30を構成する各部を統括的に制御する。制御部305は、メモリと、CPU等を有するハードウェアを用いて構成される。制御部305は、判定部305aと、動画編集部305bと、記録制御部305cと、を有する。
判定部305aは、複数の録音装置20と撮像装置10との相対的な位置関係と、撮像装置10の撮影方向とに基づいて、複数の録音装置20の中から所定の時間毎に撮像装置10の撮影方向に位置する最適な録音装置を判定する。具体的には、判定部305aは、撮像装置10の撮影方向に複数の録音装置20が位置する場合、撮像装置10のピント位置に基づいて、撮像装置10の撮影方向に位置する複数の録音装置の中から最適な録音装置を判定する。
動画編集部305bは、動画データにおける所定の時間毎に撮像装置10の撮影方向に位置すると判定された最適な録音装置20によって生成された音声データであって、動画データと時間軸が同じ音声データを、所定の時間内における動画データの音声データとして選択し、この選択した音声データを動画データに同期合成する。ここで、動画データと時間軸が同じ音声データとは、動画データの撮影開始時刻と同じ時刻に録音装置20が録音を開始することによって生成された音声データである。即ち、動画データと時間軸が同じ音声データとは、動画データおよび音声データとの開始時刻が互いに同じ時刻で同期が取れているものである。
記録制御部305cは、動画編集部305bが編集した動画データと、音声データと、選択した採用時間と、を対応付けて記録部304に記録する。
〔動画撮影システムの処理の概要〕
次に、動画撮影システム1が実行する処理の概要について説明する。図5は、互いに異なる位置に2つの録音装置20を配置した状態で撮像装置10を用いて動画撮影を行っている状況下を示す図である。図6は、互いに異なる位置に2つの録音装置20を配置した状態で撮像装置10を用いて動画撮影を行っている状況下を示す図である。図7は、互いに異なる位置に2つの録音装置20を配置した状態で撮像装置10の画角を望遠側で動画撮影を行っている状況下を示す図である。図8は、互いに異なる位置に2つの録音装置20を配置した状態で撮像装置10の画角を広角側で動画撮影を行っている状況下を示す図である。
図5に示すように、動画撮影の被写体である対象物A1(鳥)が録音装置20Aの収音範囲R1内にいる場合、ユーザは、撮像装置10の光軸O1を含む撮影領域W1を対象物A1かつ録音装置20Aが配置された位置に向けて動画撮影を行う。また、図5に示す状況下から対象物A1が録音装置20Aの収音範囲R1から録音装置20Bの収音範囲R2内へ移動した場合、図6に示すように、ユーザは、撮像装置10の光軸O1を含む撮影領域W1を録音装置20Aが配置された位置から録音装置20Bが配置された位置へ向けて動画撮影を行う。
従来では、ユーザは、移動する対象物A1の動画撮影が終了した後に、編集時に録音装置20Aおよび録音装置20Bの各々の音声データを確認することによって、所定の時間毎に対象物A1の音を一番収音している音声データに切り替えて動画データの時刻に同期させる編集作業を行っていた。このため、従来では、編集時の作業工数が膨大になる問題点があった。
これに対して、撮像装置10は、動画データにおける所定の時刻毎に、撮像装置10の光軸O1を含む撮影領域に位置する録音装置20に、タイムスタンプを示す情報を送信する。これにより、ユーザは、編集時に動画データと複数の音声データとの同期合成を容易にすることができるので、編集時の作業工数を減少させることができる。
また、図7に示すように、撮像装置10の画角が望遠側(画角がα1°)である場合において、撮像装置10のピント位置が録音装置20Bより近い位置に配置された録音装置20Aの収音範囲R1に位置する対象物A1に合焦しているとき、撮像装置10は、画角が望遠側であっても、撮像装置10から対象物A1までの距離が近いと判定し、録音装置20Aにタイムスタンプを示す情報を送信する。
さらに、図7に示す状況下から対象物A1が撮像装置10から近い位置に配置された録音装置20Aの収音範囲R1から撮像装置10から遠い位置に配置された録音装置20Bの収音範囲R2に移動した場合において、撮像装置10の画角が広角側(画角がβ1°(β1°>α1°))であり、かつ、撮像装置10のピント位置が録音装置20Bの収音範囲R2に位置する対象物A1に合焦しているとき、撮像装置10は、撮像装置10の画角が広角であっても、撮像装置10から対象物A1までの距離が遠いと判定し、録音装置20Bにタイムスタンプを示す情報を送信する。
〔撮像装置の処理〕
次に、撮像装置10が実行する処理について説明する。図9は、撮像装置10が実行する処理の概要を示すフローチャートである。なお、図9では、撮像装置10が実行する複数のモードのうち、説明を簡略するため、動画モードおよび再生モードのみについて説明する。
図9に示すように、撮像装置10が動画モードに設定されている場合(ステップS100:Yes)において、操作部106から動画撮影を指示する指示信号が入力された場合(ステップS101:Yes)、撮像装置10は、動画撮影を開始する(ステップS102)。この場合、撮像装置10は、撮像部101が動画データの生成を開始し、かつ、時計105が動画データにタイムラインを付加するための計時を開始する。
続いて、撮像装置10が複数の録音装置20と連携しながら動画撮影を行う連携モードに設定されている場合(ステップS103:Yes)、制御部111は、複数の録音装置20に対して、第1通信部107または第2通信部108に動画撮影の開始を行ったことを示す開始信号を送信させる(ステップS104)。
その後、制御部111は、複数の録音装置20に対して、第1通信部107または第2通信部108に連携情報を送信させ(ステップS105)、複数の録音装置20から連携応答情報を受信する(ステップS106)。ここで、連携情報には、撮像装置10を識別する識別情報と、撮像装置10の撮影位置を示す撮影位置情報と、撮像装置10の焦点距離情報と、撮像装置10による動画データを開始する旨の通知信号、タイムスタンプ、動画データのファイル形式等が含まれる。また、連携応答情報には、録音装置20の録音位置情報、録音装置20を識別する識別情報(例えば機器IDや年式、機種名)、録音装置20の状態を示す状態情報(例えばスタンバイモードから録音モードに遷移したことを示すモード情報等)および音声データの録音タイミングの時刻情報等が含まれる。
続いて、制御部111が撮影位置、撮影方向および撮影情報を取得する(ステップS107)。具体的には、位置検出部111cは、GPS部103が検出した位置情報を取得し、取得した位置情報に基づいて、撮像装置10の撮影位置情報を検出する。また、方向検出部111dは、地磁気センサ104が検出した検出結果を取得し、取得した検出結果に基づいて、撮像装置10の撮像方向を検出する。さらに、焦点距離検出部111gは、光学系101aから焦点距離に関する焦点距離情報を撮影情報の一つとして検出する。さらにまた、ピント位置検出部111hは、撮像素子101bが生成した画像データに基づいて、光学系101aのピント位置を撮影情報の一つとして検出する。
その後、操作部106から動画撮影を終了する指示信号が入力された場合(ステップS108:Yes)、撮像装置10は、ステップS109へ移行する。これに対して、操作部106から動画撮影を終了する指示信号が入力されていない場合(ステップS108:No)、撮像装置10は、ステップS103へ戻る。
ステップS109において、撮像装置10が複数の録音装置20と連携する連携モードである場合(ステップS109:Yes)、制御部111は、複数の録音装置20に対して、第1通信部107または第2通信部108に動画撮影を終了したことを示す終了信号を送信させる(ステップS110)。ステップS110の後、撮像装置10は、後述するステップS111へ移行する。これに対して、撮像装置10が複数の録音装置20と連携する連携モードでない場合(ステップS109:No)、撮像装置10は、後述するステップS111へ移行する。
ステップS111において、制御部111は、画像ファイルを生成して記録部110に記録する。ステップS111の後、撮像装置10は、本処理を終了する。
ステップS103において、撮像装置10が連携モードに設定されていない場合(ステップS103:No)、撮像装置10は、ステップS108へ移行する。
ステップS100において、撮像装置10が撮影モードに設定されていない場合(ステップS100:No)、撮像装置10は、ステップS112へ移行する。
続いて、撮像装置10が再生モードに設定されている場合(ステップS112:Yes)、撮像装置10は、記録部110が記録する画像データに対応する画像または動画データに対応する動画を表示部109に表示させる再生処理を実行する(ステップS113)。ステップS113の後、撮像装置10は、本処理を終了する。
ステップS112において、撮像装置10が再生モードに設定されていない場合(ステップS112:No)、撮像装置10は、本処理を終了する。
〔録音装置の処理〕
次に、録音装置20が実行する処理について説明する。図10は、録音装置20が実行する処理の概要を示すフローチャートである。なお、図10では、一つの録音装置20(録音装置20A)の処理について説明するが、他の録音装置20(録音装置20B,20C)も同様の処理を行う。
図10に示すように、まず、録音装置20が録音モードに設定され(ステップS201:Yes)、かつ、録音装置20が撮像装置10と連携する連携モードに設定されている場合(ステップS202:Yes)において、第1通信部201または第2通信部202を経由して撮像装置10から動画撮影を開始する開始信号を受信したとき(ステップS203:Yes)、録音装置20は、音声データに撮像装置10と連携しながら録音することを示す連携情報を付与する(ステップS204)。ここで、連携情報には、撮像装置10を識別する識別情報と、撮像装置10の撮影位置を示す撮影位置情報と、撮像装置10の焦点距離情報と、が含まれる。この場合、音声制御部209bは、連携情報に含まれる撮像装置10の焦点距離情報に基づいて、収音部203の録音感度を制御する。これにより、録音装置20は、撮像装置10の焦点距離に応じて、収音部203の収音範囲を制御することができるので、撮像装置10の焦点距離に応じた録音を行うことができる。
続いて、制御部209は、第1通信部201または第2通信部202に連携応答を送信させる(ステップS205)。具体的には、制御部209は、GPS部204が検出した録音装置20の録音位置に関する録音位置情報と、録音装置20を識別する識別情報と、撮像装置10から開始信号を受信したことを示す受信完了情報と、を含む連携応答を送信する。これにより、ユーザは、撮像装置10と録音装置20とが連携を取れていることを把握することができる。
その後、制御部209は、収音部203によって音声を収音させることによって音声データを生成する録音を開始する(ステップS206)。
続いて、第1通信部201または第2通信部202を経由して撮像装置10から動画撮影を終了する終了信号を受信した場合(ステップS207:Yes)、制御部209は、収音部203による音声データの生成を停止させることによって録音を終了する(ステップS208)。
その後、制御部209は、音声データを格納した音声ファイルを生成することによって記録部208に記録する(ステップS209)。
続いて、操作部206から終了する指示信号が入力された場合(ステップS210:Yes)、録音装置20は、本処理を終了する。これに対して、操作部206から終了する指示信号が入力されていない場合(ステップS210:No)、録音装置20は、ステップS201へ戻る。
ステップS203において、第1通信部201または第2通信部202を経由して撮像装置10から動画撮影を開始する開始信号を受信していないとき(ステップS203:No)、録音装置20は、ステップS210へ移行する。
ステップS202において、録音装置20が連携モードに設定されていない場合(ステップS202:No)、録音装置20は、後述するステップS211へ移行する。
続いて、操作部206から録音を開始する開始信号が入力された場合(ステップS211:Yes)、制御部209は、録音装置20による録音を開始する(ステップS212)。ステップS212の後、録音装置20は、後述するステップS213へ移行する。これに対して、操作部206から録音を開始する開始信号が入力されていない場合(ステップS211:No)、録音装置20は、ステップS210へ移行する。
ステップS213において、操作部206から録音を終了する終了信号が入力された場合(ステップS213:Yes)、録音装置20は、ステップS208へ移行する。これに対して、操作部206から録音を終了する終了信号が入力されていない場合(ステップS213:No)、録音装置20は、この判定を繰り返す。
ステップS201において、録音装置20が録音モードに設定されていない場合(ステップS201:No)、録音装置20は、後述するステップS214へ移行する。
ステップS214において、録音装置20が再生モードに設定されている場合(ステップS214:Yes)、録音装置20は、記録部208が記録する音声データを再生する再生処理を実行する(ステップS215)。ステップS215の後、録音装置20は、ステップS210へ移行する。
ステップS214において、録音装置20が再生モードに設定されていない場合(ステップS214;No)、録音装置20は、後述するステップS210へ移行する。
〔情報処理装置の処理〕
次に、情報処理装置30が実行する処理について説明する。図11は、情報処理装置30が実行する処理の概要を示すフローチャートである。
図11に示すように、取得部302は、撮像装置10から複数の動画ファイルを取得し(ステップS301)、複数の録音装置20の各々から音声ファイルを取得する(ステップS302)。
続いて、制御部305は、操作部301の操作に応じて指定された動画ファイルに格納された動画データに対応する動画を再生部303に再生させる(ステップS303)。
その後、判定部305aは、動画ファイルに含まれる複数の録音装置20と撮像装置10との相対的な位置関係と、動画ファイルに撮像装置10の撮影方向とに基づいて、複数の録音装置20の中から所定の時間毎に撮像装置10の撮影方向に位置する最適な録音装置20を判定することによって最適な録音装置20を選択する(ステップS304)。具体的には、判定部305aは、撮像装置10の撮影方向に複数の録音装置20が位置する場合、撮像装置10のピント位置に基づいて、撮像装置10の撮影方向に位置する複数の録音装置の中から最適な録音装置を判定することによって最適な録音装置を選択する。この場合、判定部305aは、指定された動画ファイルの日時と同じ音声ファイルを選択する。
図12は、判定部305aの判定方法を模式的に説明する図である。図12に示すように、判定部305aは、動画ファイルに含まれる撮影位置情報に含まれる経度および緯度、複数の音声ファイルの各々に含まれる録音位置情報に含まれる経度および緯度に基づく、複数の録音装置20と撮像装置10との相対的な位置関係を判定する。そして、判定部305aは、所定の方向(北)と撮像装置10の光軸O1とがなる角度γ1とに基づく撮影方向と、に基づいて、複数の録音装置20A,20B,20Cの中から所定の時間毎に撮像装置10の撮影方向に位置する最適な録音装置20を判定することによって最適な録音装置20を選択する。この場合において、判定部305aは、撮像装置10の撮影方向に複数の録音装置20、例えば録音装置20Aおよび録音装置20Cが位置する場合、撮像装置10のピント位置L1に基づいて、撮像装置10の撮影方向に位置する録音装置20A,20Cの中から最適な録音装置、例えば録音装置20Cと判定することによって最適な録音装置20Cを選択する。
図11に戻り、ステップS306以降の説明を続ける。
ステップS306において、動画編集部305bは、動画データにおける所定の時間毎に撮像装置10の撮影方向に位置すると判定された最適な録音装置20によって生成された音声データであって、動画データと時間軸が同じ音声データを、所定の時間内における動画データの音声データとして選択し、この選択した音声データを動画データに同期合成する。
図13は、動画編集部305bによる動画編集方法を模式的に説明する図である。図13において、横軸が時間を示す。また、図13において、上段から(a)が撮像装置10による動画データのタイムラインを示し、(b)が録音装置20Aの音声データのタイムラインを示し、(c)が録音装置20Bの音声データのタイムラインを示し、(d)が録音装置20Cの音声データのタイムラインを示す。
図13に示すように、動画編集部305bは、動画データの時間T1において撮像装置10の撮影方向に位置すると判定された最適な録音装置20が録音装置20Aの場合、録音装置20Aによって生成された音声データを、時間T1における動画データの音声データとして選択し、この選択した音声データを動画データに同期合成する。同様に、動画編集部305bは、動画データにおける所定の時間毎に撮像装置10の撮影方向に位置すると判定部305aによって判定された最適な録音装置20によって生成された音声データを、所定の時間内における動画データの音声データとして選択し、該選択した音声データを動画データに順次同期させることによって合成する(時間T2〜時間T4を参照)。この場合において、判定部305aによって撮像装置10の撮影方向に最適な録音装置20がないと判定された場合、判定部305aによって最適な録音装置20がないと判定された時間に撮像装置10の収音部102が生成した音声データを、動画データの音声データとして同期させて合成する。これにより、最適な音声データがない場合であっても、必要な音声データを補間することができるので、滑らか音声データの編集を行うことができる。
続いて、操作部301から動画編集操作を終了する指示信号が入力された場合(ステップS306:Yes)、記録制御部305cは、動画編集部305bが動画データにおける所定の時間毎に音声データを同期合成することによって生成した動画データを格納した動画ファイルを生成する(ステップS307)。具体的には、図14に示すように、記録制御部305cは、動画ファイルF1を生成する。動画ファイルF1には、動画データとM1と、撮影位置情報f1、録音装置20A相対位置情報f2、採用時間f3、録音装置20B相対位置情報f4、採用時間f5、録音装置20C相対位置情報f6、採用時間f7が含まれる。ステップS307の後、情報処理装置30は、本処理を終了する。
ステップS306において、操作部301から動画編集操作を終了する指示信号が入力されていない場合(ステップS306:No)、情報処理装置30は、上述したステップS303へ戻る。
以上説明した実施の形態1によれば、記録制御部111iが撮像素子101bによって生成された動画データと、位置検出部111cによって検出された複数の録音装置20の各々と撮像装置10との相対的な位置関係と、方向検出部111dによって検出された所定時間毎の撮像装置10の撮影方向と、を対応付けて記録部110に記録するので、複数の録音装置20を互いに距離を離して設置した場合であっても、編集時の作業工程を減少させることができる。
また、実施の形態1によれば、記録制御部111iがピント位置検出部111hによって検出されたピント位置と、複数の録音装置20の各々と撮像装置10との相対的な位置関係と、所定時間毎の撮像装置10の撮影方向と、を対応付けて記録部110に記録するので、同じ撮影方向に複数の録音装置20が位置する場合であっても、適切な録音装置20を選択することができる。
また、実施の形態1によれば、位置検出部111cが複数の録音装置20の各々が配置された配置位置を示す配置位置情報と、撮像装置10の撮影位置を示す撮影位置情報と、に基づいて、複数の録音装置20の各々と撮像装置10との距離を相対的な位置関係として検出するので、複数の録音装置20の各々の位置を精度よく検出することができる。
また、実施の形態1によれば、撮像素子101bによって動画データの撮影を開始した場合、第1通信部107または第2通信部108が複数の録音装置20の各々へ音声データの記録の開始を指示する開始信号を送信する一方、撮像素子101bが動画データの撮影を終了した場合、第1通信部107または第2通信部108が複数の録音装置20の各々へ音声データの記録の停止を指示する停止信号を送信するので、撮像装置10が生成した動画データと時間軸が同じ音声データを得ることができる。
また、実施の形態1によれば、第1通信部107または第2通信部108が焦点距離検出部111gによって検出された焦点距離情報を複数の録音装置20の各々へ送信するので、録音装置20が撮像装置10の焦点距離に応じた録音感度で音声データの録音を行うことができる。
(実施の形態2)
次に、実施の形態2について説明する。上述した実施の形態1では、情報処理装置30が動画データと音声データとの編集を行っていたが、実施の形態2では、撮像装置のみで動画データと音声データとの編集を行う。以下においては、実施の形態2に係る撮像装置の構成について説明する。なお、上述した実施の形態1に係る動画撮影システム1と同様の構成には同一の符号を付して詳細な説明を省略する。
〔撮像装置の構成〕
図15は、実施の形態2に係る撮像装置の機能構成を示すブロック図である。図15に示す撮像装置10Aは、上述した実施の形態1に係る撮像装置10の制御部111に換えて、制御部111Aを備える。
制御部111Aは、上述した実施の形態1に係る制御部111の構成に加えて、上述した情報処理装置30の制御部305が有する判定部305aと動画編集部305bと同一の機能を有する判定部111jと、動画編集部111kと、を有する。なお、実施の形態2では、第1通信部107または第2通信部108が複数の録音装置20の各々が生成した複数の音声データを取得する取得部として機能する。もちろん、図示しないインターフェースを撮像装置10Aに設け、有線接続によって複数の録音装置20の各々が生成した複数の音声データを取得するようにしてもよい。
判定部111jは、上述した判定部305aと同一の機能を有し、複数の録音装置20と撮像装置10Aとの相対的な位置関係と、撮像装置10Aの撮影方向とに基づいて、複数の録音装置20の中から所定の時間毎に撮像装置1A0の撮影方向に位置する最適な録音装置を判定する。具体的には、判定部111jは、撮像装置10Aの撮影方向に複数の録音装置20が位置する場合、撮像装置10Aのピント位置に基づいて、撮像装置10の撮影方向に位置する複数の録音装置の中から最適な録音装置を判定する。
動画編集部111kは、上述した動画編集部305bと同一の機能を有し、動画データにおける所定の時間毎に撮像装置10の撮影方向に位置すると判定された最適な録音装置20によって生成された音声データを、所定の時間内における動画データの音声データとして選択し、この選択した音声データを動画データに同期合成する。動画編集部111kは、判定部111jによって撮像装置10Aの撮影方向に最適な録音装置20がないと判定された場合、判定部111jによって最適な録音装置20がないと判定された時間に収音部102が生成した音声データを、動画データの音声データとして同期させて記録部110に記録する
以上説明した実施の形態2によれば、上述した実施の形態1と同様の効果を奏し、複数の録音装置20を互いに距離を離して設置した場合であっても、撮像装置10Aのみで、編集時の作業工程を減少させることができる。
また、実施の形態2によれば、動画編集部111kが動画データにおける所定の時間毎に撮像装置10の撮影方向に位置すると判定された最適な録音装置20によって生成された音声データを、所定の時間内における動画データの音声データとして選択し、この選択した音声データを動画データに同期合成するので、編集時の作業工程を減少させることができる。
また、実施の形態2によれば、判定部111jが撮像装置10Aの撮影方向に複数の録音装置20が位置する場合、撮像装置10Aのピント位置に基づいて、撮像装置10の撮影方向に位置する複数の録音装置の中から最適な録音装置を判定するので、同じ撮影方向に複数の録音装置20が位置する場合であっても、動画編集部111kが適切な録音装置20を選択することができる。
また、実施の形態2によれば、動画編集部111kが判定部111jによって撮像装置10Aの撮影方向に最適な録音装置20がないと判定された場合、判定部111jによって最適な録音装置20がないと判定された時間に収音部102が生成した音声データを、動画データの音声データとして同期させて記録部110に記録するので、音声データが連続的に連なる動画データを生成することができる。
(その他の実施の形態)
上述した本開示の実施の形態1,2に係る動画撮影システムに開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した本開示の実施の形態に係る情報提供システムに記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、上述した本開示の実施の形態に係る情報提供システムで説明した構成要素を適宜組み合わせてもよい。
また、本開示の実施の形態1,2に係る動画撮影システムでは、上述してきた「部」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。
また、本開示の実施の形態1,2に係る動画撮影システムに実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本開示の実施の形態1,2に係る動画撮影システムに実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本開示を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。また、こうした、単純な分岐処理からなるプログラムに限らず、より多くの判定項目を総合的に判定して分岐させてもよい。その場合、ユーザにマニュアル操作を促して学習を繰り返すうちに機械学習するような人工知能の技術を併用しても良い。また、多くの専門家が行う操作パターンを学習させて、さらに複雑な条件を入れ込む形で深層学習をさせて実行してもよい。
以上、本願の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、本発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本開示を実施することが可能である。
1・・・動画撮影システム;10,10A・・・撮像装置;20,20A,20B,20C・・・録音装置;30・・・情報処理装置;101・・・撮像部;101a・・・光学系;101b・・・撮像素子;102,203・・・収音部;103,204・・・GPS部;104・・・地磁気センサ;105,205・・・時計;106,206,301・・・操作部;107,201・・・第1通信部;108,202・・・第2通信部;109,207・・・表示部;110,208,304・・・記録部;110a,208a,304a・・・プログラム記録部;110b,304b・・・動画データ記録部;110c,208b・・・音声データ記録部;111,111A,209,305・・・制御部;111a・・・画像処理部;111b・・・音声処理部;111c・・・位置検出部;111d・・・方向検出部;111e・・・撮影制御部;111f・・・表示制御部;111g・・・焦点距離検出部;111h・・・ピント位置検出部;111i,305c・・・記録制御部;111j,305a・・・判定部;111k,305b・・・動画編集部;209a・・・音声処理部;209b・・・音声制御部;301・・・操作部;303・・・再生部;F1・・・動画ファイル

Claims (18)

  1. 互いに距離を離して設置された複数の録音装置と双方向に通信することができる撮像装置であって、
    光学系が結像した被写体像を連続的に撮像することによって動画データを生成する撮像素子と、
    前記複数の録音装置の各々と当該撮像装置との相対的な位置関係を検出する位置検出部と、
    所定の時間毎に当該撮像装置の撮影方向を検出する方向検出部と、
    前記動画データと、前記相対的な位置関係と、前記撮影方向と、を対応付けて記録媒体に記録する記録制御部と、
    を備える、
    撮像装置。
  2. 請求項1に記載の撮像装置であって、
    前記相対的な位置関係と前記撮影方向とに基づいて、前記複数の録音装置の中から前記所定の時間毎に当該撮像装置の撮影方向に位置する最適な録音装置を判定する判定部と、
    前記動画データにおける所定の時間毎に前記撮像装置の撮影方向に位置すると判定された前記最適な録音装置によって生成された音声データを、前記所定の時間内における前記動画データの音声データとして選択し、該選択した音声データを前記動画データに同期合成する動画編集部と、
    をさらに備える、
    撮像装置。
  3. 請求項2に記載の撮像装置であって、
    前記光学系のピント位置を検出する検出部をさらに備え、
    前記記録制御部は、
    前記動画データと、前記相対的な位置関係と、前記撮影方向と、前記ピント位置と、を対応付けて記録媒体に記録する、
    撮像装置。
  4. 請求項3に記載の撮像装置であって、
    前記判定部は、
    当該撮像装置の撮影方向に複数の録音装置が位置する場合、前記ピント位置に基づいて、当該撮像装置の撮影方向に位置する複数の録音装置の中から最適な録音装置を判定する、
    撮像装置。
  5. 請求項2〜4のいずれか一つに記載の撮像装置であって、
    音声を収音することによって音声データを生成する収音部をさらに備え、
    前記動画編集部は、
    前記判定部によって前記撮像装置の撮影方向に前記最適な録音装置がないと判定された場合、前記判定部によって前記最適な録音装置がないと判定された時間に前記収音部が生成した音声データを、前記動画データの音声データとして同期させて前記記録媒体に記録する、
    撮像装置。
  6. 請求項2〜5のいずれか一つに記載の撮像装置であって、
    前記位置検出部は、
    前記複数の録音装置の各々が配置された配置位置を示す配置位置情報と、当該撮像装置の撮影位置を示す撮影位置情報と、に基づいて、前記複数の録音装置の各々と当該撮像装置との距離を前記相対的な位置関係として検出する、
    撮像装置。
  7. 請求項2〜6のいずれか一つに記載の撮像装置であって、
    前記複数の録音装置の各々が生成した複数の音声データを取得する取得部をさらに備え、
    前記動画編集部は、
    前記判定部によって前記所定の時間毎に前記撮像装置の撮影方向に位置すると判定された前記最適な録音装置によって生成された音声データを、前記所定の時間内における前記動画データの音声データとして選択し、該選択した音声データを前記動画データに同期合成させて前記記録媒体に記録する、
    撮像装置。
  8. 請求項2〜7のいずれか一つに記載の撮像装置であって、
    前記撮像素子が前記動画データの撮影を開始した場合、前記複数の録音装置の各々へ音声データの記録の開始を指示する開始信号を送信する一方、前記撮像素子が前記動画データの撮影を終了した場合、前記複数の録音装置の各々へ音声データの記録の停止を指示する停止信号を送信する送信部をさらに備える、
    撮像装置。
  9. 請求項8に記載の撮像装置であって、
    前記光学系の焦点距離を検出する焦点距離検出部をさらに備え、
    前記送信部は、
    前記最適な録音装置に、前記焦点距離に関する焦点距離情報を送信する、
    撮像装置。
  10. 動画撮影することができる撮像装置と双方向に通信する録音装置であって、
    音声を収音することによって音声データを生成する収音部と、
    前記撮像装置から受信した前記撮像装置の焦点距離に関する焦点距離情報に基づいて、前記収音部の録音感度を制御する音声制御部と、
    を備える、
    録音装置。
  11. 請求項10に記載の録音装置であって、
    前記撮像装置から前記音声データの録音の開始を指示する指示信号を受信した場合、前記撮像装置に前記指示信号を受信したことを示す連携応答情報を送信する通信部をさらに備える、
    録音装置。
  12. 少なくとも撮像装置が生成した動画データを記録する動画ファイルであって、少なくとも前記動画データと、複数の録音装置の各々と前記撮像装置との相対的な位置関係と、所定の時間毎の撮像装置の撮影方向と、を対応付けた動画ファイル、および前記撮像装置が前記動画データの生成時に、互いに距離を離して前記撮像装置の撮影範囲内に設置された複数の録音装置が生成した複数の音声データであって、前記動画データと時間軸が同じ複数の音声データを記録する複数の音声ファイルを取得する取得部と、
    前記相対的な位置関係と前記撮影方向とに基づいて、前記複数の録音装置の中から前記所定の時間毎に当該撮像装置の撮影方向に位置する最適な録音装置を判定する判定部と、
    前記動画データにおける所定の時間毎に前記撮像装置の撮影方向に位置すると判定された前記最適な録音装置によって生成された音声データを、前記所定の時間内における前記動画データの音声データとして選択し、該選択した音声データを前記動画データに同期合成する動画編集部と、
    を備える、
    情報処理装置。
  13. 互いに距離を離して設置された複数の録音装置と双方向に通信することができる撮像装置が実行する撮像方法であって、
    光学系が結像した被写体像を連続的に撮像することによって動画データを生成し、
    前記複数の録音装置の各々と当該撮像装置との相対的な位置関係を検出し、
    所定の時間毎に当該撮像装置の撮影方向を検出し、
    前記動画データと、前記相対的な位置関係と、前記撮影方向と、を対応付けて記録媒体に記録する、
    撮像方法。
  14. 動画撮影することができる撮像装置と双方向に通信する録音装置が実行する録音方法であって、
    音声を収音することによって音声データを生成し、
    前記撮像装置から受信した前記撮像装置の焦点距離に関する焦点距離情報を受信し、
    前記焦点距離情報に基づいて、前記音声データの生成時の録音感度を制御する、
    録音方法。
  15. 情報処理装置が実行する動画編集方法であって、
    少なくとも撮像装置が生成した動画データを記録する動画ファイルであって、少なくとも前記動画データと、複数の録音装置の各々と前記撮像装置との相対的な位置関係と、所定の時間毎の撮像装置の撮影方向と、を対応付けた動画ファイル、および前記撮像装置が前記動画データの生成時に、互いに距離を離して前記撮像装置の撮影範囲内に設置された複数の録音装置が生成した複数の音声データであって、前記動画データと時間軸が同じ複数の音声データを記録する複数の音声ファイルを取得し、
    前記相対的な位置関係と前記撮影方向とに基づいて、前記複数の録音装置の中から前記所定の時間毎に当該撮像装置の撮影方向に位置する最適な録音装置を判定し、
    前記動画データにおける所定の時間毎に前記撮像装置の撮影方向に位置すると判定された前記最適な録音装置によって生成された音声データを、前記所定の時間内における前記動画データの音声データとして選択し、該選択した音声データを前記動画データに同期合成する、
    動画編集方法。
  16. 互いに距離を離して設置された複数の録音装置と双方向に通信することができる撮像装置に、
    光学系が結像した被写体像を連続的に撮像することによって動画データを生成させ、
    前記複数の録音装置の各々と当該撮像装置との相対的な位置関係を検出させ、
    所定の時間毎に当該撮像装置の撮影方向を検出させ、
    前記動画データと、前記相対的な位置関係と、前記撮影方向と、を対応付けて記録媒体に記録する、
    プログラム。
  17. 動画撮影することができる撮像装置と双方向に通信する録音装置に、
    音声を収音することによって音声データを生成し、
    前記撮像装置から受信した前記撮像装置の焦点距離に関する焦点距離情報を受信させ、
    前記焦点距離情報に基づいて、前記音声データの生成時の録音感度を制御する、
    プログラム。
  18. 情報処理装置に、
    少なくとも撮像装置が生成した動画データを記録する動画ファイルであって、少なくとも前記動画データと、複数の録音装置の各々と前記撮像装置との相対的な位置関係と、所定の時間毎の撮像装置の撮影方向と、を対応付けた動画ファイル、および前記撮像装置が前記動画データの生成時に、互いに距離を離して前記撮像装置の撮影範囲内に設置された複数の録音装置が生成した複数の音声データであって、前記動画データと時間軸が同じ複数の音声データを記録する複数の音声ファイルを取得し、
    前記相対的な位置関係と前記撮影方向とに基づいて、前記複数の録音装置の中から前記所定の時間毎に当該撮像装置の撮影方向に位置する最適な録音装置を判定し、
    前記動画データにおける所定の時間毎に前記撮像装置の撮影方向に位置すると判定された前記最適な録音装置によって生成された音声データを、前記所定の時間内における前記動画データの音声データとして選択し、該選択した音声データを前記動画データに同期合成する、
    プログラム。
JP2018243563A 2018-12-26 2018-12-26 撮像装置、録音装置、情報処理装置、撮像方法、録音方法、動画編集方法およびプログラム Pending JP2020107971A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018243563A JP2020107971A (ja) 2018-12-26 2018-12-26 撮像装置、録音装置、情報処理装置、撮像方法、録音方法、動画編集方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018243563A JP2020107971A (ja) 2018-12-26 2018-12-26 撮像装置、録音装置、情報処理装置、撮像方法、録音方法、動画編集方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2020107971A true JP2020107971A (ja) 2020-07-09

Family

ID=71450978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018243563A Pending JP2020107971A (ja) 2018-12-26 2018-12-26 撮像装置、録音装置、情報処理装置、撮像方法、録音方法、動画編集方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2020107971A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11950030B2 (en) 2021-03-30 2024-04-02 Canon Kabushiki Kaisha Electronic apparatus and method of controlling the same, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11950030B2 (en) 2021-03-30 2024-04-02 Canon Kabushiki Kaisha Electronic apparatus and method of controlling the same, and recording medium

Similar Documents

Publication Publication Date Title
US7460781B2 (en) Photographing system
RU2665304C2 (ru) Способ и устройство для установки параметра фотосъемки
JP2015050695A (ja) 動画生成システム、動画生成方法及びプログラム
KR20160035996A (ko) 동기 촬영 시스템, 조작 단말, 및 동기 촬영 방법
JP4748075B2 (ja) 画像同期システム及び画像同期方法
KR20070089643A (ko) 화상 처리 시스템 및 방법, 화상 처리 장치 및 방법, 촬상장치 및 방법, 프로그램 기록 매체, 및 프로그램
JP2015094925A (ja) 焦点調節装置、焦点調節方法およびプログラム、並びに焦点調節装置を有する撮像装置
KR101579735B1 (ko) 동기화 방법
JP2010171625A (ja) 撮像装置、録音装置、および動画撮影システム
US20130293768A1 (en) Imaging apparatus, imaging method, imaging program and computer readable information recording medium
JP6004807B2 (ja) 画像処理装置、その制御方法、プログラム
JP2020107971A (ja) 撮像装置、録音装置、情報処理装置、撮像方法、録音方法、動画編集方法およびプログラム
WO2014208378A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、情報処理システム
JPWO2011108377A1 (ja) 連携動作機器、連携動作方法、連携動作制御プログラム及び機器連携システム
JP6818439B2 (ja) ウェアラブル機器、情報処理装置、及びそれらの制御方法、並びにプログラム
JP2008085582A (ja) 画像管理システム、撮影装置、画像管理サーバ、および画像管理方法
JP2013187826A (ja) 撮像装置、撮像システム、及び撮像方法
JP2011188374A (ja) 撮影機器
JP2016009950A (ja) 音声処理装置
JP5413616B2 (ja) 再生制御装置、画像同期システム、再生制御方法及びプログラム
EP2763395A1 (en) Imaging apparatus
JP2022180926A (ja) 音声処理装置、撮像装置、それらの制御方法、およびプログラム
JP2010171626A (ja) 動画生成装置および動画生成方法
JP2019097187A (ja) 撮影システム、撮影方法及びプログラム
JP2011114769A (ja) 撮像装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210823