JP2020043420A - Video audio processing system and control method of the same - Google Patents
Video audio processing system and control method of the same Download PDFInfo
- Publication number
- JP2020043420A JP2020043420A JP2018167901A JP2018167901A JP2020043420A JP 2020043420 A JP2020043420 A JP 2020043420A JP 2018167901 A JP2018167901 A JP 2018167901A JP 2018167901 A JP2018167901 A JP 2018167901A JP 2020043420 A JP2020043420 A JP 2020043420A
- Authority
- JP
- Japan
- Prior art keywords
- video
- audio
- data
- unit
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、映像音声処理システムおよび映像音声処理システムの制御方法に関する。 The present invention relates to a video / audio processing system and a control method for the video / audio processing system.
特許文献1では、撮像装置は、画像を取得する撮像ユニットと、画像を表示する画像表示ユニットとともに、入力された外部音声を複数の音声信号に変換して出力するマイクユニットを備える。撮像装置は、表示ユニットで表示された画像に対して、画像内の特定の被写体を指定し、指定された被写体の座標情報と撮影画角とに基づいて、撮像ユニットからの特定の被写体の方向を算出する。そして、撮像装置は、算出された特定の被写体の方向に基づいて、複数の音声信号から特定の被写体の方向に対応した合成音声信号を生成し、合成音声信号を外部に出力する。
In
特許文献1では、1つのカメラに対し、1つのマイクロフォンを用意することを前提としている。複数のカメラが録画と共に録音をするには、録音するすべてのカメラにマイクロフォンを接続するか、または内蔵マイクを搭載したカメラを用意する必要がある。ユーザは、カメラの台数分のマイクロフォンを用意すると、費用が増えるので、録音機能を断念してしまう。
In
特許文献1では、撮像ユニットとマイクロフォンの位置がそれぞれ固定であり、ユーザは、撮像ユニットに対するマイクロフォンの相対位置を変更することができないことを前提としている。そのため、ユーザの意思で撮像ユニットとマイクロフォンの数を決定し、それぞれを任意の位置に設置する場合では、設置場所によって、撮像ユニットからの被写体の方向と、マイクロフォンからの被写体の方向とが異なってしまう。この場合、カメラの映像に合わせて集音方向を指定し、音声を配信することができない。
In
本発明の目的は、複数の映像データと複数の音声データを適切に関連付けることができるようにすることである。 An object of the present invention is to make it possible to appropriately associate a plurality of video data with a plurality of audio data.
本発明の映像音声処理システムは、複数の映像データを生成する複数の撮像手段と、複数の場所または複数の方向の音声を集音し、前記複数の撮像手段に対応する複数の音声データを生成する音声入力手段と、前記複数の映像データと前記複数の音声データを関連付ける関連付け手段とを有する。 A video and audio processing system according to the present invention includes a plurality of imaging units that generate a plurality of video data, and a plurality of locations or directions in which sound is collected to generate a plurality of audio data corresponding to the plurality of imaging units. And an associating means for associating the plurality of video data with the plurality of audio data.
本発明によれば、複数の映像データと複数の音声データを適切に関連付けることができる。 According to the present invention, it is possible to appropriately associate a plurality of video data with a plurality of audio data.
(第1の実施形態)
図1(a)は、本発明の第1の実施形態による映像音声処理システム100の構成例を示す図である。映像音声処理システム100は、カメラ1101と、カメラ1102と、カメラ1103と、マイクロフォン2000と、サーバ装置3000と、ネットワーク4000とを有する。カメラ1101と、カメラ1102と、カメラ1103と、マイクロフォン2000と、サーバ装置3000は、ネットワーク4000を介して、相互に通信可能である。マイクロフォン2000の数は、カメラ1101〜1103の数より少ない。
(First embodiment)
FIG. 1A is a diagram illustrating a configuration example of a video and
カメラ1101は、映像データを生成し、映像データをネットワーク4000を介して送信するネットワークカメラであり、撮像装置に相当する。カメラ1102とカメラ1103は、それぞれ、カメラ1101と同様である。なお、映像音声処理システム100は、カメラ1101〜1103以外にも、複数のカメラを備えてもよい。カメラ1101〜1103は、ズーム駆動機構、パン駆動機構、チルト駆動機構等を備えてもよい。
The
マイクロフォン2000は、音声を入力し、入力した音声をネットワーク4000を介して送信するネットワークマイクロフォンであり、音声入力装置に相当する。図1(b)は、マイクロフォン2000の構成例を示す図である。マイクロフォン2000は、複数のマイクロフォン(集音部)2011〜2018を有する。マイクロフォン2011〜2018の数は、8個に限定されず、増やしても、減らしてもよい。
The
サーバ装置3000は、カメラ1101〜1103およびマイクロフォン2000に対して、ネットワーク4000を介して相互に通信可能である。カメラ1101〜1103、マイクロフォン2000およびサーバ装置3000は、それぞれ、ネットワーク4000を介して、他の装置に各種コマンドを送信し、コマンドを受信した場合には、送信した装置にレスポンスを送信する。サーバ装置3000は、パーソナルコンピュータ(PC)等の処理装置の一例である。
The
ネットワーク4000は、例えばEthernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等から構成される。なお、ネットワーク4000は、カメラ1101〜1103とマイクロフォン2000とサーバ装置3000との間の通信を行うことができるものであれば、その通信規格、規模、構成を問わない。例えば、ネットワーク4000は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されていてもよい。なお、カメラ1101〜1103は、例えば、PoE(Power Over Ethernet(登録商標))に対応する監視カメラでもよく、LANケーブルを介して電力を供給されてもよい。
The
図2は、カメラ1101とマイクロフォン2000とサーバ装置3000の構成例を示す図である。カメラ1101は、撮像部1001と、画像処理部1002と、制御部1003と、通信部1004と、記憶部1005とを有する。なお、カメラ1102および1103は、カメラ1101と同様の構成を有する。
FIG. 2 is a diagram illustrating a configuration example of the
撮像部1001は、レンズと、CCDまたはCMOS等の撮像素子とを有し、レンズ設定等によって決定される画角によって被写体を撮像し、光電変換により、映像信号を生成する。画像処理部1002は、撮像部1001により生成された映像信号に対して、所定の画像処理および圧縮符号化処理を行い、映像データを生成する。なお、制御部1003は、ユーザにより設定された撮像条件または制御部1003が自動で決定した撮像条件に基づいて、撮像部1001および画像処理部1002を制御する。ここで、撮像条件は、撮像ゲイン条件、ガンマ条件、ダイナミックレンジ条件、露出条件、フォーカス条件等を含む。
The
制御部1003は、図3に示すように、CPU301とROM302とRAM303を有する。制御部1003は、マイクロフォン2000とサーバ装置3000等からネットワーク4000経由で受信したカメラ制御コマンドを解析し、カメラ制御コマンドに応じた処理を行う。例えば、制御部1003は、画像処理部1002に対して、画質調整の指示、ズームやフォーカス制御の指示、パンチルト動作の指示、音声データと映像データの結合および送信を行う。また、制御部1003は、CPU301を有し、カメラ1101の各構成要素を統括的に制御し、各種パラメータ等の設定を行う。また、制御部1003は、データを記憶するROM302およびRAM303を有し、RAM302またはROM303に記憶されたプログラムを実行する。RAM303は、制御部1003が実行するプログラムの格納領域、プログラム実行中のワーク領域、データの格納領域等を有する。また、制御部1003は、計時手段を有し、取得した各データに対してタイムスタンプ等を付与することができる。
The
通信部1004は、マイクロフォン2000が送信した音声データをネットワーク4000経由で受信し、適切なパケット処理を行った後に、制御部1003へ出力する。また、通信部1004は、マイクロフォン2000からコマンドを受信し、受信したコマンドに対するレスポンスをマイクロフォン2000へ送信する。また、通信部1004は、映像データをネットワーク4000経由でサーバ装置3000に送信する。また、通信部1004は、サーバ装置3000が送信するカメラ制御コマンドを受信し、適切なパケット処理等を行った後に、制御部1003へ出力する。また、通信部1004は、サーバ装置3000から受信したコマンドに対するレスポンスをサーバ装置3000へ送信する。
The
記憶部1005は、カメラ1101によって生成された映像データとマイクロフォン2000によって生成された音声データを関連付けるための情報を記憶する。
続いて、図2を参照して、マイクロフォン2000の各部構成と機能を説明する。マイクロフォン2000は、集音部2001と、音声処理部2002と、制御部2003と、通信部2004と、記憶部2005とを有する。なお、8個のマイクロフォン2011〜2018の各々は、少なくとも別々の集音部2001を有する。
Next, the configuration and function of each unit of the
集音部2001は、振動膜および固定板等の電極から構成され、音圧による振動膜の振動に応じて電極間の距離が変わることにより、電圧が変動することで音声を電気の音声信号へ変換する。また、集音部2001は、音声信号の電圧を増幅するためのアンプを含んでもよい。
The
音声処理部2002は、集音部2001により生成された音声信号に対して、音声処理および圧縮符号化処理を行い、音声データを生成する。なお、制御部2003は、ユーザにより設定された音声入力条件または制御部2003が自動で決定した音声入力条件に基づいて、集音部2001および音声処理部2002を制御する。ここで、音声入力条件は、音量ゲイン条件、音声周波数特性条件、音声指向方向条件、音声指向範囲条件等を含む。
The
制御部2003は、図3に示すように、CPU301とROM302とRAM303を有する。制御部2003は、カメラ1101とサーバ装置3000等からネットワーク4000経由で受信した制御コマンドを解析し、制御コマンドに応じた処理を行う。例えば、制御部2003は、音声処理を行った音声データの送信先の制御指示を行う。また、制御部2003は、CPU301を有し、マイクロフォン2000の各構成要素を統括的に制御し、各種パラメータ等の設定を行う。また、制御部2003は、データを記憶するROM302およびRAM303を有し、ROM302またはRAM303に記憶されたプログラムを実行する。なお、RAM303は、制御部2003が実行するプログラムの格納領域、プログラム実行中のワーク領域、データの格納領域等を有する。また、制御部2003は、計時手段を有し、取得した各データに対してタイムスタンプ等を付与することができる。また、制御部2003は、2つのマイクロフォン2011および2012等の音声信号を、指向性処理(目的の方向からの音声を強調し、目的以外の方向からの音声を抑制する信号処理)し、指向性処理した音声信号を出力する。
The
図4(a)および図4(b)を用いて、指向性処理を説明する。図4(a)は、音源からの音が、マイクロフォン2011およびマイクロフォン2012に対して、角度θの方向から到達する様子を示している。マイクロフォン2011とマイクロフォン2012は、距離D2を隔てて配置されている。この場合において、音源とマイクロフォン2011との距離と、音源とマイクロフォン2012との距離の差Lは、次式で表される。
L=D2×cosθ
The directivity processing will be described with reference to FIGS. 4A and 4B. FIG. 4A illustrates a state in which a sound from a sound source reaches the
L = D2 × cos θ
また、音速をVとすると、音源からの音がマイクロフォン2011に到達してから、音源からの音がマイクロフォン2012に到達するまでの時間Tは、次式で表される。
T=L/V=D2×cosθ/V
Further, assuming that the sound speed is V, the time T from when the sound from the sound source reaches the
T = L / V = D2 × cos θ / V
図4(b)は、D2=50mm、V=346.75m/sとした場合の、角度θに対する、LとTの値、および、Tの差分を示している。例えば、θ=0degのとき、L=50mm、T=144μsである。θ=15degのとき、L=48mm、T=139μsである。θ=0degとθ=15degのTの差分は、5μsである。 FIG. 4B shows the difference between the values of L and T and the angle T with respect to the angle θ when D2 = 50 mm and V = 346.75 m / s. For example, when θ = 0 deg, L = 50 mm and T = 144 μs. When θ = 15 deg, L = 48 mm and T = 139 μs. The difference between T at θ = 0 deg and θ = 15 deg is 5 μs.
制御部2003は、時間Tを基にして、指向性処理の演算を行う。例えば、正面方向(90deg)の音声を強調したい(指向性を持たせたい)場合を説明する。その場合、制御部2003は、マイクロフォン2011とマイクロフォン2012に同時に到達する音声(T=0μsの音声)を強調し、時間差をもって到達する音声(T≠0μsの音声)を抑制するための演算を行う。
The
通信部2004は、音声データをネットワーク4000経由でサーバ装置3000に送信する。また、通信部2004は、サーバ装置3000から送信される制御コマンドを受信し、適切なパケット処理等を行った後に、制御部2003へ出力する。また、通信部2004は、サーバ装置3000から受信したコマンドに対するレスポンスをサーバ装置3000へ送信する。
The
記憶部2005は、カメラ1101〜1103によって生成された映像データとマイクロフォン2000によって生成された音声データを関連付けるための情報を記憶する。
The
続いて、図2を参照して、サーバ装置3000の各部構成と機能について説明する。サーバ装置3000は、例えば、パーソナルコンピュータ等の汎用コンピュータである。サーバ装置3000は、通信部3001と、システム制御部3002と、記憶部3003とを有する。
Next, the configuration and function of each unit of the
通信部3001は、ネットワーク4000を介して、カメラ1101〜1103から映像データを受信し、マイクロフォン2000から音声データを受信する。また、通信部3001は、カメラ1101〜1103またはマイクロフォン2000に対して制御コマンドを送信し、この制御コマンドに対するレスポンスを受信する。
The
システム制御部3002は、図3に示すように、CPU301とROM302とRAM303を有する。システム制御部3002は、ユーザの操作に応じてカメラ制御コマンドを生成し、カメラ制御コマンドを通信部3001を介してカメラ1101〜1103へ送信する。また、システム制御部3002は、通信部3001を介して受信したカメラ1101〜1103からの映像データを記憶部3003に保存する。また、システム制御部3002は、CPU301を有し、サーバ装置3000の各構成要素を統括的に制御し、各種パラメータ等の設定を行う。また、システム制御部3002は、データを記憶するROM302およびRAM303を有し、ROM302またはRAM303に記憶されたプログラムを実行する。なお、RAM303は、システム制御部3002が実行するプログラムの格納領域、プログラム実行中のワーク領域、データの格納領域等を有する。また、システム制御部3002は、計時手段を有し、取得した各データに対してタイムスタンプ等を付与することができる。
The
記憶部3003は、カメラ1101〜1103およびマイクロフォン2000が取得したデータを保存する。システム制御部3002は、記憶部3003に記憶されているデータを読み出し、転送する。
The
図5は、部屋5000に設置したカメラ1101〜1107およびマイクロフォン2000の配置、カメラ1101〜1107の撮影範囲1201〜1207、およびマイクロフォン2000の集音範囲A〜Hを示す図である。カメラ1102〜1107は、カメラ1101と同様の構成を有し、ネットワーク4000に接続される。マイクロフォン2000の数は、カメラ1101〜1107の数より少ない。図5を参照しながら、マイクロフォン2000の指向性処理における集音範囲の決定方法について説明する。カメラ1101〜1107が部屋5000に設置されている場合、サーバ装置3000は、カメラ管理ソフトウェアにより、図5のように部屋5000を上から見た方向で表示する。サーバ装置3000は、カメラ1101〜1107の撮影範囲1201〜1207を表示し、ユーザの設定またはカメラ1101〜1107の画角に合わせて撮影範囲1201〜1207を自動的に設定する。マイクロフォン2000の指向性の設定可能な集音範囲A、B、C、D、E、F、G、Hのエリアを分割し、マイクロフォン2000に対して集音範囲A〜Hのいずれかを選択することにより、集音エリアを指定することができる。例えば、マイクロフォン2000の指向性を集音範囲AおよびBと指定した場合、集音範囲AおよびBのエリアにある音源の音のみを集音することができる。集音範囲A〜Hは、マイクロフォン2011〜2018に対応する。マイクロフォン2000は、複数の場所または複数の方向の音声を集音し、複数の場所または複数の方向の音声を指向性処理することにより、複数のカメラ1101〜1107に対応する複数の音声データを生成する。
FIG. 5 is a diagram showing the arrangement of the
図6(a)〜(e)は、カメラ1101〜1107の映像データとマイクロフォン2000の音声データを関連付けるためのIDとIPアドレスと指向性の対応関係を示す図である。本実施の形態では、カメラ1101〜1107のそれぞれに1つのIPアドレスが割り当てられ、マイクロフォン2000には、複数のIPアドレスを有するように複数の通信デバイスが備えられているものとする。図6(a)に示すように、1つのカメラに対して1つのIDが割り当てられる。例えば、カメラ1101のIDは1である。カメラ1102のIDは2である。カメラ1103のIDは3である。カメラ1104のIDは4である。カメラ1105のIDは5である。カメラ1106のIDは6である。カメラ1107のIDは7である。
FIGS. 6A to 6E are diagrams showing a correspondence relationship between an ID, an IP address, and directivity for associating video data of the
図6(a)は、カメラ1101〜1107のIDとIPアドレス(識別情報)との対応関係を示すテーブルの図である。図6(b)は、カメラ1101〜1107のIDごとのマイクロフォン2000の指向性の集音範囲を示すテーブルの図である。マイクロフォン2000の指向性の集音範囲は、マイクロフォン2000の指向性を示す情報である。例えば、カメラ1101のID「1」は、カメラ1101の撮影範囲1201に対応する指向性の集音範囲AおよびBが設定される。
FIG. 6A is a diagram of a table showing the correspondence between the IDs of the
図6(c)は、カメラ1101〜1107のIDと音声データに対応する通信デバイスのIPアドレス(識別情報)との対応関係を示すテーブルの図である。例えば、カメラ1101のID「1」に対して、集音範囲AおよびBの音声データを出力するための通信デバイスのIPアドレスが関連付けられている。また、カメラ1102のID「2」に対して、集音範囲AおよびHの音声データを出力するための通信デバイスのIPアドレスが関連付けられている。図6(d)は、カメラ1101〜1107のIDに対するカメラのIPアドレスと対応する音声データを出力する通信デバイスのIPアドレスとの対応関係を示すテーブルの図である。図6(e)は、カメラのIDおよびIPアドレス、対応する音声データを出力する通信デバイスのIDおよびIPアドレスの対応関係を示すものであり、カメラのIDが「1」の例を示している。
FIG. 6C is a table showing the correspondence between the IDs of the
図7(a)〜(c)は、映像音声処理システム100の制御方法を示すフローチャートである。図7(a)は、マイクロフォン2000の制御方法を示すフローチャートである。ステップS701では、マイクロフォン2011〜2018の集音部2001は、集音し、音声を電気の音声信号に変換する。音声処理部2002は、音声信号に対して、音声処理および圧縮符号化処理を行い、音声データを生成する。
7A to 7C are flowcharts illustrating a control method of the video and
ステップS702では、制御部2003は、記憶2005に記憶されている図6(b)のテーブルを参照し、各カメラ1101〜1107のIDに対応するマイクロフォン2000の指向性の集音範囲を読み出す。
In step S702, the
ステップS703では、制御部2003は、マイクロフォン2011〜2018の音声データに対して、ステップS702で読み出した各カメラ1101〜1107のIDの指向性の集音範囲に基づいて指向性処理を行い、各IDの音声データを生成する。例えば、制御部2003は、カメラ2011のIDに対して、マイクロフォン2000の指向性の集音範囲AおよびBの指向性処理を行い、カメラ2011のIDの音声データを生成する。
In step S703, the
ステップS704では、制御部2003は、記憶部2005に記憶されている図6(c)のテーブルを参照し、各カメラ1101〜1107のIDに対応する音声データのIPアドレスを読み出す。
In step S704, the
ステップS705では、制御部2003は、ステップS704で読み出した各カメラ1101〜1107のIDに対応する音声データを出力する通信デバイスのIPアドレスと、ステップS703で生成された各IDの音声データとをそれぞれ対応付ける。そして、制御部2003は、対応付けたIPアドレスと音声データをサーバ装置3000に送信する。
In step S705, the
図7(b)は、カメラ1101〜1107の制御方法を示すフローチャートである。ステップS711では、カメラ1101〜1107の撮像部1001は、被写体を撮像し、映像信号を生成する。カメラ1101〜1107の画像処理部1002は、映像信号に対して、画像処理および圧縮符号化処理を行い、映像データを生成する。
FIG. 7B is a flowchart illustrating a control method of the
ステップS712では、カメラ1101〜1107の制御部1003は、記憶部1005に記憶されている図6(a)のテーブルを参照し、自己のカメラのIDに対応するIPアドレスを読み出す。カメラ1101〜1107の制御部1003は、自己のカメラのIDに対応するIPアドレスと、自己のIDのカメラで生成された映像データとをそれぞれ対応付けて、サーバ装置3000に送信する。
In step S712, the
図7(c)は、サーバ装置3000の制御方法を示すフローチャートである。ステップS721では、システム制御部3002は、通信部3001を介して、カメラ1101〜1107から各IDのIPアドレスと映像データを受信する。また、システム制御部3002は、通信部3001を介して、マイクロフォン2000から各IDに対応する音声データを出力する通信デバイスのIPアドレスと音声データを受信する。
FIG. 7C is a flowchart illustrating a control method of the
ステップS722では、システム制御部3002は、記憶部3003に記憶されている図6(d)のテーブルを基に、各カメラ1101〜1107のIDに対応するIPアドレスと対応する音声データを出力する通信デバイスのIPアドレスの組み合わせを読み出す。
In step S722, the
ステップS723では、システム制御部3002は、同じIDのカメラのIPアドレスと音声データのIPアドレスを基に、対応する映像データと音声データを関連付け、MPEGファイルとして記憶部3003に記録する。システム制御部3002は、カメラのIPアドレスを基に、映像データと音声データを含むMPEGファイルを再生することができる。
In step S723, the
(第2の実施形態)
第1の実施形態では、図7(c)に示すように、サーバ装置3000によって、同じIDの映像データと音声データの関連付けを行った。本発明の第2の実施形態では、カメラ1101〜1107が、同じIDの映像データと音声データを関連付ける。カメラ1101〜1107とマイクロフォン2000とサーバ装置3000の構成および接続は、第1の実施形態と同じであるため説明を省略する。また、指向性処理も、第1の実施形態と同じであるため説明を省略する。以下、本実施形態が第1の実施形態と異なる点を説明する。
(Second embodiment)
In the first embodiment, as shown in FIG. 7C, the video data and the audio data having the same ID are associated by the
図8(a)〜(c)は、本発明の第2の実施形態による映像音声処理システム100の制御方法を示すフローチャートである。図8(a)は、マイクロフォン2000の制御方法を示すフローチャートである。マイクロフォン2000は、ステップS801〜S804の処理を行う。ステップS801〜S804の処理は、図7(a)のステップS701〜S704の処理と同じです。ステップS805では、制御部2003は、ステップS804で読み出した各カメラ1101〜1107のIDに対応する音声データのIPアドレスと、ステップS803で生成された各IDの音声データとを対応付けて、カメラ1101〜1107に送信する。
FIGS. 8A to 8C are flowcharts illustrating a control method of the video and
図8(b)は、カメラ1101〜1107の制御方法を示すフローチャートである。図6(e)に示すように、カメラ1101の記憶部1005は、自己のカメラ1101のIDに対応するIPアドレスと音声データの組み合わせのテーブルを記憶する。同様に、カメラ1102〜1107の記憶部1005は、それぞれ、自己のカメラ1101のIDに対応するIPアドレスと音声データの組み合わせのテーブルを記憶する。
FIG. 8B is a flowchart illustrating a control method of the
ステップS811では、カメラ1101〜1107の撮像部1001は、被写体を撮像し、映像信号を生成する。カメラ1101〜1107の画像処理部1002は、映像信号に対して、画像処理および圧縮符号化処理を行い、映像データを生成する。
In step S811, the
ステップS812では、カメラ1101の制御部1003は、記憶部1005に記憶されている図6(e)のテーブルを参照し、自己のカメラ1101のIDに対応する音声データを出力する通信デバイスのIPアドレスを読み出す。同様に、カメラ1102〜1107の制御部1003は、それぞれ、記憶部1005に記憶されているテーブルを参照し、自己のカメラ1102〜1107のIDに対応する音声データを出力する通信デバイスのIPアドレスを読み出す。
In step S812, the
ステップS813では、カメラ1101〜1107の制御部1003は、ステップS812で読み出した自己のカメラ1102〜1107のIDに対応するIPアドレスを有する通信デバイスから出力される音声データをマイクロフォン2000から受信する。カメラ1101〜1107の制御部1003は、それぞれ、上記の音声データを受信できた場合には、ステップS814に進み、上記の音声データを受信できなかった場合には、ステップS815に進む。ステップS815では、制御部1003は、通信部1004を介して、ステップS811で生成された映像データと自己のカメラのIDに対応するIPアドレスをサーバ装置3000に送信する。
In step S813, the
ステップS814では、カメラ1101〜1107の制御部1003は、記憶部1005内の図6(e)等のテーブルを基に、自己のカメラのIDに対応するIPアドレスと対応する音声データを出力する通信デバイスのIPアドレスの組み合わせを読み出す。カメラ1101〜1107の制御部1003は、自己のカメラのIDに対応するIPアドレスと音声データを出力する通信デバイスのIPアドレスを基に、自己のカメラのIDの映像データ(S811)と音声データ(S813)を関連付ける。そして、カメラ1101〜1107の制御部1003は、関連付けた映像データと音声データを含むMPEGファイルを生成する。その後、カメラ1101〜1107の制御部1003は、ステップS815に進む。ステップS815では、制御部1003は、通信部1004を介して、自己のカメラのIDの映像データおよび音声データを含むMPEGファイルと映像データのIPアドレスとをサーバ装置3000に送信する。
In step S814, the
図8(c)は、サーバ装置3000の制御方法を示すフローチャートである。ステップS821では、システム制御部3002は、通信部3001を介して、カメラ1101〜1107から各IDの映像データと音声データを含むMPEGファイルとカメラのIPアドレス、または各IDの映像データとカメラのIPアドレスを受信する。システム制御部3002は、カメラのIPアドレスを基に、映像データと音声データを含むMPEGファイル、または映像データを再生することができる。
FIG. 8C is a flowchart illustrating a control method of the
第1の実施形態および第2の実施形態では、カメラ1101〜1107のIPアドレスおよびマイクロフォン2000が有する通信デバイスのIPアドレスを用いて映像データおよび音声データの関連付けを行っていたが、これに限定されない。マイクロフォン2000が複数の通信デバイスを有さない場合、単純にカメラ1101〜1107のIDを識別情報とし、音声を収集する指向性の範囲を関連付けることでもよい。すなわち、この場合、図6(a)および(b)を有するだけでもよい。
In the first and second embodiments, the association between the video data and the audio data is performed using the IP addresses of the
(第3の実施形態)
図9(a)は、本発明の第3の実施形態によるマイクロフォン2000の位置に対するカメラ1101の撮影範囲1201の極座標の算出方法を示す図である。サーバ装置3000は、カメラ1101の撮影範囲1201の極座標を算出し、その極座標を基にカメラ1101の指向性方向と指向性範囲を算出する。以下、本実施形態が第1および第2の実施形態と異なる点を説明する。
(Third embodiment)
FIG. 9A is a diagram illustrating a method of calculating the polar coordinates of the
まず、システム制御部3002は、ユーザの指示に応じて、カメラ1101の位置座標a(Xa,Ya)と、カメラ1101の撮影方向と、カメラ1101の撮影角度と、カメラ1101の撮影距離を設定する。次に、システム制御部3002は、ユーザの指示に応じて、マイクロフォン2000の位置座標を設定する。
First, the
次に、システム制御部3002は、上記の情報を基に、カメラ1101の撮影範囲1201の頂点座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)を算出する。次に、システム制御部3002は、次式により、マイクロフォン2000の位置座標に対する撮影範囲1201の頂点座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)を極座標(ra,θa)、(rb,θb)、(rc,θc)に変換する。
Next, the
システム制御部3002は、上記と同様に、マイクロフォン2000の位置座標に対するカメラ1102〜1107の撮影範囲1202〜1207の頂点座標を極座標に変換する。
The
図9(b)は、本実施形態によるマイクロフォン2000に対するカメラ1101の撮影範囲1201の極座標の他の算出方法を示す図である。サーバ装置3000は、カメラ1101の撮影範囲1201の極座標を算出し、その極座標を基にカメラ1101の指向性方向と指向性範囲を算出する。
FIG. 9B is a diagram illustrating another method of calculating the polar coordinates of the
まず、システム制御部3002は、ユーザの指示に応じて、カメラ1101の設置領域の座標を設定する。次に、システム制御部3002は、ユーザの指示に応じて、マイクロフォン2000の位置座標を設定する。
First, the
次に、システム制御部3002は、上記の情報を基に、カメラ1101の撮影範囲1201の頂点座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)、d(Xd,Yd)を算出する。システム制御部3002は、次式により、マイクロフォン2000の位置座標を基準に、頂点座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)、d(Xd,Yd)を極座標(ra,θa)、(rb,θb)、(rc,θc)、(rd,θd)に変換する。
Next, the
システム制御部3002は、上記と同様に、マイクロフォン2000の位置座標に対するカメラ1102〜1107の撮影範囲1202〜1207の頂点座標を極座標に変換する。
The
図10(a)は、カメラ1101の撮影範囲1201に対応するマイクロフォン2000の指向性方向θ1と指向性範囲φ1を示す図である。サーバ装置3000は、図9(a)または(b)の極座標を算出した後、カメラ1101の撮影範囲1201に対応するマイクロフォン2000の指向性方向θ1と指向性範囲φ1を算出する。
FIG. 10A is a diagram showing the directivity direction θ1 and the directivity range φ1 of the
まず、システム制御部3002は、マイクロフォン2000の位置座標と撮影範囲1201の両端とを結ぶ2直線901および902の角度を算出する。次に、システム制御部3002は、2直線901および902の角度の平均の角度θ1を、カメラ1101の撮影範囲1201に対応するマイクロフォン2000の指向性方向として算出する。次に、システム制御部3002は、2直線901および902の角度の差の角度φ1を、カメラ1101の撮影範囲1201に対応するマイクロフォン2000の指向性範囲として算出する。
First, the
システム制御部3002は、上記と同様に、カメラ1102〜1107の撮影範囲1202〜1207に対応するマイクロフォン2000の指向性方向θ2〜θ7および指向性範囲φ2〜φ7を算出する。
The
図10(b)は、カメラ1101〜1107のIDごとのマイクロフォン2000の指向性方向および指向性範囲を示すテーブルの図である。マイクロフォン2000の指向性方向および指向性範囲は、マイクロフォン2000の指向性を示す情報である。サーバ装置3000は、図10(a)の算出の後、図10(b)のテーブルを生成する。システム制御部3002は、図10(a)の算出の後、図10(b)のように、カメラ1101〜1107のIDに対するマイクロフォン2000の指向性方向θ1〜θ7および指向性範囲φ1〜φ7を示すテーブルを生成する。図10(b)のテーブルは、図6(b)のテーブルの代わりに使用される。サーバ装置3000は、図10(b)のテーブルをマイクロフォン2000に送信する。マイクロフォン2000は、記憶部2005に図10(b)のテーブルを保存し、図10(b)のテーブルを基に、図7(a)のステップS703の指向性処理を行う。
FIG. 10B is a diagram of a table showing the directivity direction and the directivity range of the
第1〜第3の実施形態によれば、マイクロフォン2000の数がカメラ1101〜1107の数より少なく、ユーザが任意にマイクロフォン2000とカメラ1101〜1107の設置場所を指定することができる。映像音声処理システム100は、カメラ1101〜1107の映像に合わせた音声を集音し、各カメラ1101〜1107の映像データと音声データを適切に関連付ける(結合する)ことができる。
According to the first to third embodiments, the number of
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.
なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that each of the above-described embodiments is merely an example of a concrete example for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features.
1101〜1107 カメラ、2000 マイクロフォン、3000 サーバ装置、4000 ネットワーク 1101-1107 camera, 2000 microphone, 3000 server device, 4000 network
Claims (15)
複数の場所または複数の方向の音声を集音し、前記複数の撮像手段に対応する複数の音声データを生成する音声入力手段と、
前記複数の映像データと前記複数の音声データを関連付ける関連付け手段とを有することを特徴とする映像音声処理システム。 A plurality of imaging means for generating a plurality of video data,
Sound input means for collecting sounds in a plurality of locations or directions and generating a plurality of sound data corresponding to the plurality of image pickup means;
A video and audio processing system comprising: an association unit that associates the plurality of video data with the plurality of audio data.
前記音声入力手段は、前記複数の音声データと前記複数の音声データの識別情報を前記関連付け手段に送信し、
前記関連付け手段は、前記複数の映像データの識別情報と前記複数の音声データの識別情報を基に、前記複数の映像データと前記複数の音声データを関連付けることを特徴とする請求項1〜8のいずれか1項に記載の映像音声処理システム。 The plurality of imaging units each transmit the identification information of the plurality of video data and the plurality of video data to the association unit,
The voice input unit transmits identification information of the plurality of voice data and the plurality of voice data to the association unit,
The method according to claim 1, wherein the associating unit associates the plurality of video data with the plurality of audio data based on identification information of the plurality of video data and identification information of the plurality of audio data. The video / audio processing system according to claim 1.
前記関連付け手段は、前記複数の音声データの識別情報を基に、前記撮像手段により生成された複数の映像データと前記複数の音声データを関連付けることを特徴とする請求項1〜8のいずれか1項に記載の映像音声処理システム。 The voice input unit transmits identification information of the plurality of voice data and the plurality of voice data to the association unit,
9. The apparatus according to claim 1, wherein the associating unit associates the plurality of video data generated by the imaging unit with the plurality of audio data based on identification information of the plurality of audio data. The video / audio processing system according to the item.
音声入力装置と、
処理装置とを有し、
前記複数の撮像装置は、前記複数の撮像手段をそれぞれ有し、
前記音声入力装置は、前記音声入力手段を有し、
前記処理装置は、前記関連付け手段を有することを特徴とする請求項1〜8のいずれか1項に記載の映像音声処理システム。 A plurality of imaging devices;
A voice input device,
And a processing device,
The plurality of imaging devices each include the plurality of imaging units,
The voice input device has the voice input unit,
The video / audio processing system according to claim 1, wherein the processing device includes the association unit.
前記音声入力装置は、前記複数の音声データと前記複数の音声データの識別情報を前記処理装置に送信し、
前記処理装置は、前記複数の映像データの識別情報と前記複数の音声データの識別情報を基に、前記複数の映像データと前記複数の音声データを関連付けることを特徴とする請求項11に記載の映像音声処理システム。 The plurality of imaging devices each transmit the identification information of the plurality of video data and the plurality of video data to the processing device,
The voice input device transmits identification information of the plurality of voice data and the plurality of voice data to the processing device,
The method according to claim 11, wherein the processing device associates the plurality of video data with the plurality of audio data based on identification information of the plurality of video data and identification information of the plurality of audio data. Video and audio processing system.
音声入力装置とを有し、
前記複数の撮像装置の各々は、前記撮像手段と前記関連付け手段とを有し、
前記音声入力装置は、前記音声入力手段を有することを特徴とする請求項1〜8のいずれか1項に記載の映像音声処理システム。 A plurality of imaging devices;
A voice input device,
Each of the plurality of imaging devices has the imaging unit and the association unit,
9. The video / audio processing system according to claim 1, wherein the audio input device includes the audio input unit.
前記複数の撮像装置は、それぞれ、前記複数の音声データの識別情報を基に、前記複数の映像データと前記複数の音声データを関連付けることを特徴とする請求項13に記載の映像音声処理システム。 The voice input device transmits identification information of the plurality of voice data and the plurality of voice data to the plurality of imaging devices,
14. The video and audio processing system according to claim 13, wherein each of the plurality of imaging devices associates the plurality of video data with the plurality of audio data based on identification information of the plurality of audio data.
音声入力手段により、複数の場所または複数の方向の音声を集音し、前記複数の撮像手段に対応する複数の音声データを生成するステップと、
関連付け手段により、前記複数の映像データと前記複数の音声データを関連付けるステップとを有することを特徴とする映像音声処理システムの制御方法。 Generating a plurality of video data by a plurality of imaging means;
A step of collecting sounds in a plurality of places or in a plurality of directions by voice input means and generating a plurality of voice data corresponding to the plurality of imaging means;
Associating the plurality of video data with the plurality of audio data by an associating unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018167901A JP7337491B2 (en) | 2018-09-07 | 2018-09-07 | AUDIO VIDEO PROCESSING SYSTEM AND CONTROL METHOD FOR VIDEO AUDIO PROCESSING SYSTEM |
US16/552,268 US10939030B2 (en) | 2018-09-07 | 2019-08-27 | Video audio processing system and method of controlling the video audio processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018167901A JP7337491B2 (en) | 2018-09-07 | 2018-09-07 | AUDIO VIDEO PROCESSING SYSTEM AND CONTROL METHOD FOR VIDEO AUDIO PROCESSING SYSTEM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020043420A true JP2020043420A (en) | 2020-03-19 |
JP7337491B2 JP7337491B2 (en) | 2023-09-04 |
Family
ID=69798797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018167901A Active JP7337491B2 (en) | 2018-09-07 | 2018-09-07 | AUDIO VIDEO PROCESSING SYSTEM AND CONTROL METHOD FOR VIDEO AUDIO PROCESSING SYSTEM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7337491B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003008972A (en) * | 2001-06-19 | 2003-01-10 | Matsushita Electric Ind Co Ltd | Imaging unit and method |
JP2016010021A (en) * | 2014-06-25 | 2016-01-18 | 株式会社リコー | Image/voice distribution system, image/voice distribution device, and image/voice distribution program |
JP2016118987A (en) * | 2014-12-22 | 2016-06-30 | パナソニックIpマネジメント株式会社 | Abnormality sound detection system |
JP2016152557A (en) * | 2015-02-18 | 2016-08-22 | パナソニックIpマネジメント株式会社 | Sound collection system and sound collection setting method |
-
2018
- 2018-09-07 JP JP2018167901A patent/JP7337491B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003008972A (en) * | 2001-06-19 | 2003-01-10 | Matsushita Electric Ind Co Ltd | Imaging unit and method |
JP2016010021A (en) * | 2014-06-25 | 2016-01-18 | 株式会社リコー | Image/voice distribution system, image/voice distribution device, and image/voice distribution program |
JP2016118987A (en) * | 2014-12-22 | 2016-06-30 | パナソニックIpマネジメント株式会社 | Abnormality sound detection system |
JP2016152557A (en) * | 2015-02-18 | 2016-08-22 | パナソニックIpマネジメント株式会社 | Sound collection system and sound collection setting method |
Also Published As
Publication number | Publication date |
---|---|
JP7337491B2 (en) | 2023-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9875410B2 (en) | Camera system for transmitting and receiving an audio signal and operating method of the same | |
WO2016098315A1 (en) | Microphone array, monitoring system, and sound pickup setting method | |
JP6493860B2 (en) | Monitoring control system and monitoring control method | |
CN105611167B (en) | focusing plane adjusting method and electronic equipment | |
JP6217930B2 (en) | Sound speed correction system | |
US20130121505A1 (en) | Microphone array configuration and method for operating the same | |
JP5939341B1 (en) | Monitoring system and monitoring method | |
JP2017028608A (en) | Video conference terminal equipment | |
JP2012186551A (en) | Control device, control system, and control method | |
US10939030B2 (en) | Video audio processing system and method of controlling the video audio processing system | |
CN112672251A (en) | Control method and system of loudspeaker, storage medium and loudspeaker | |
JP2017034312A (en) | Communication device, communication system, and program | |
JP7337491B2 (en) | AUDIO VIDEO PROCESSING SYSTEM AND CONTROL METHOD FOR VIDEO AUDIO PROCESSING SYSTEM | |
KR101976937B1 (en) | Apparatus for automatic conference notetaking using mems microphone array | |
TW201318421A (en) | System and method for controlling image capturing device | |
JP2008061186A (en) | Directional characteristic control apparatus, sound collecting device and sound collecting system | |
EP3240266A1 (en) | An apparatus, electronic device, system and method for capturing audio signals | |
JP6832507B2 (en) | Manufacturing method of microphone array device, microphone array system and microphone array device | |
JP6471955B2 (en) | Monitoring system and directivity control method in monitoring system | |
JP6835205B2 (en) | Shooting sound pickup device, sound pick-up control system, shooting sound pick-up device control method, and shooting sound pick-up control system control method | |
JP2000209689A (en) | Sound processor, its control method and recording medium | |
JP2011114720A (en) | Intercom system with external abnormality detection function | |
JP2016009950A (en) | Voice processor | |
JP2022180926A (en) | Voice processing apparatus, imaging apparatus, method for controlling those, and program | |
JP2020043415A (en) | Display unit, display unit control method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230823 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7337491 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |