JP7337491B2 - AUDIO VIDEO PROCESSING SYSTEM AND CONTROL METHOD FOR VIDEO AUDIO PROCESSING SYSTEM - Google Patents
AUDIO VIDEO PROCESSING SYSTEM AND CONTROL METHOD FOR VIDEO AUDIO PROCESSING SYSTEM Download PDFInfo
- Publication number
- JP7337491B2 JP7337491B2 JP2018167901A JP2018167901A JP7337491B2 JP 7337491 B2 JP7337491 B2 JP 7337491B2 JP 2018167901 A JP2018167901 A JP 2018167901A JP 2018167901 A JP2018167901 A JP 2018167901A JP 7337491 B2 JP7337491 B2 JP 7337491B2
- Authority
- JP
- Japan
- Prior art keywords
- address
- audio
- sound
- microphone
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、映像音声処理システムおよび映像音声処理システムの制御方法に関する。 The present invention relates to a video/audio processing system and a control method for the video/audio processing system.
特許文献1では、撮像装置は、画像を取得する撮像ユニットと、画像を表示する画像表示ユニットとともに、入力された外部音声を複数の音声信号に変換して出力するマイクユニットを備える。撮像装置は、表示ユニットで表示された画像に対して、画像内の特定の被写体を指定し、指定された被写体の座標情報と撮影画角とに基づいて、撮像ユニットからの特定の被写体の方向を算出する。そして、撮像装置は、算出された特定の被写体の方向に基づいて、複数の音声信号から特定の被写体の方向に対応した合成音声信号を生成し、合成音声信号を外部に出力する。
In
特許文献1では、1つのカメラに対し、1つのマイクロフォンを用意することを前提としている。複数のカメラが録画と共に録音をするには、録音するすべてのカメラにマイクロフォンを接続するか、または内蔵マイクを搭載したカメラを用意する必要がある。ユーザは、カメラの台数分のマイクロフォンを用意すると、費用が増えるので、録音機能を断念してしまう。
In
特許文献1では、撮像ユニットとマイクロフォンの位置がそれぞれ固定であり、ユーザは、撮像ユニットに対するマイクロフォンの相対位置を変更することができないことを前提としている。そのため、ユーザの意思で撮像ユニットとマイクロフォンの数を決定し、それぞれを任意の位置に設置する場合では、設置場所によって、撮像ユニットからの被写体の方向と、マイクロフォンからの被写体の方向とが異なってしまう。この場合、カメラの映像に合わせて集音方向を指定し、音声を配信することができない。
本発明の目的は、複数の映像データと複数の音声データを適切に関連付けることができるようにすることである。 SUMMARY OF THE INVENTION An object of the present invention is to appropriately associate a plurality of video data with a plurality of audio data.
本発明の映像音声処理システムは、複数の映像データを生成する複数の撮像装置と、音声の指向性処理を行う複数の集音範囲が設定され、当該集音範囲ごとに、集音部により集音された音声を指向性処理することにより、前記集音範囲ごとの音声データを生成する音声入力装置と、処理装置と、を有し、前記音声入力装置は、前記生成された複数の音声データのそれぞれに対応する通信デバイスのIPアドレスが設定され、前記生成された複数の音声データと、当該音声データに対応する前記通信デバイスのIPアドレスと、を前記複数の撮像装置に送信し、前記複数の撮像装置は、それぞれ、自身の撮像装置に対応する前記通信デバイスのIPアドレスを記憶し、当該記憶されたIPアドレスに一致するIPアドレスと共に前記音声入力装置から受信した音声データと、前記自身の撮像装置により撮像された映像データとを含むファイルを生成し、当該生成されたファイルを前記処理装置に送信し、前記処理装置は、前記ファイルを受信する。 In the video/audio processing system of the present invention, a plurality of imaging devices for generating a plurality of video data and a plurality of sound collection ranges for performing sound directivity processing are set, and a sound collection unit collects data for each sound collection range. an audio input device that generates audio data for each of the sound collection ranges by performing directivity processing on the sounded audio; and a processing device, wherein the audio input device receives the generated audio data. is set, and the plurality of generated audio data and the IP address of the communication device corresponding to the audio data are transmitted to the plurality of imaging devices; each of the imaging devices stores the IP address of the communication device corresponding to its own imaging device, and the audio data received from the audio input device together with the IP address matching the stored IP address; and video data captured by an imaging device, the generated file is transmitted to the processing device, and the processing device receives the file.
本発明によれば、複数の映像データと複数の音声データを適切に関連付けることができる。 According to the present invention, it is possible to appropriately associate a plurality of video data and a plurality of audio data.
(第1の実施形態)
図1(a)は、本発明の第1の実施形態による映像音声処理システム100の構成例を示す図である。映像音声処理システム100は、カメラ1101と、カメラ1102と、カメラ1103と、マイクロフォン2000と、サーバ装置3000と、ネットワーク4000とを有する。カメラ1101と、カメラ1102と、カメラ1103と、マイクロフォン2000と、サーバ装置3000は、ネットワーク4000を介して、相互に通信可能である。マイクロフォン2000の数は、カメラ1101~1103の数より少ない。
(First embodiment)
FIG. 1(a) is a diagram showing a configuration example of a video/
カメラ1101は、映像データを生成し、映像データをネットワーク4000を介して送信するネットワークカメラであり、撮像装置に相当する。カメラ1102とカメラ1103は、それぞれ、カメラ1101と同様である。なお、映像音声処理システム100は、カメラ1101~1103以外にも、複数のカメラを備えてもよい。カメラ1101~1103は、ズーム駆動機構、パン駆動機構、チルト駆動機構等を備えてもよい。
A
マイクロフォン2000は、音声を入力し、入力した音声をネットワーク4000を介して送信するネットワークマイクロフォンであり、音声入力装置に相当する。図1(b)は、マイクロフォン2000の構成例を示す図である。マイクロフォン2000は、複数のマイクロフォン(集音部)2011~2018を有する。マイクロフォン2011~2018の数は、8個に限定されず、増やしても、減らしてもよい。
Microphone 2000 is a network microphone that inputs voice and transmits the input voice via
サーバ装置3000は、カメラ1101~1103およびマイクロフォン2000に対して、ネットワーク4000を介して相互に通信可能である。カメラ1101~1103、マイクロフォン2000およびサーバ装置3000は、それぞれ、ネットワーク4000を介して、他の装置に各種コマンドを送信し、コマンドを受信した場合には、送信した装置にレスポンスを送信する。サーバ装置3000は、パーソナルコンピュータ(PC)等の処理装置の一例である。
ネットワーク4000は、例えばEthernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等から構成される。なお、ネットワーク4000は、カメラ1101~1103とマイクロフォン2000とサーバ装置3000との間の通信を行うことができるものであれば、その通信規格、規模、構成を問わない。例えば、ネットワーク4000は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されていてもよい。なお、カメラ1101~1103は、例えば、PoE(Power Over Ethernet(登録商標))に対応する監視カメラでもよく、LANケーブルを介して電力を供給されてもよい。
The
図2は、カメラ1101とマイクロフォン2000とサーバ装置3000の構成例を示す図である。カメラ1101は、撮像部1001と、画像処理部1002と、制御部1003と、通信部1004と、記憶部1005とを有する。なお、カメラ1102および1103は、カメラ1101と同様の構成を有する。
FIG. 2 is a diagram showing a configuration example of the
撮像部1001は、レンズと、CCDまたはCMOS等の撮像素子とを有し、レンズ設定等によって決定される画角によって被写体を撮像し、光電変換により、映像信号を生成する。画像処理部1002は、撮像部1001により生成された映像信号に対して、所定の画像処理および圧縮符号化処理を行い、映像データを生成する。なお、制御部1003は、ユーザにより設定された撮像条件または制御部1003が自動で決定した撮像条件に基づいて、撮像部1001および画像処理部1002を制御する。ここで、撮像条件は、撮像ゲイン条件、ガンマ条件、ダイナミックレンジ条件、露出条件、フォーカス条件等を含む。
The
制御部1003は、図3に示すように、CPU301とROM302とRAM303を有する。制御部1003は、マイクロフォン2000とサーバ装置3000等からネットワーク4000経由で受信したカメラ制御コマンドを解析し、カメラ制御コマンドに応じた処理を行う。例えば、制御部1003は、画像処理部1002に対して、画質調整の指示、ズームやフォーカス制御の指示、パンチルト動作の指示、音声データと映像データの結合および送信を行う。また、制御部1003は、CPU301を有し、カメラ1101の各構成要素を統括的に制御し、各種パラメータ等の設定を行う。また、制御部1003は、データを記憶するROM302およびRAM303を有し、RAM302またはROM303に記憶されたプログラムを実行する。RAM303は、制御部1003が実行するプログラムの格納領域、プログラム実行中のワーク領域、データの格納領域等を有する。また、制御部1003は、計時手段を有し、取得した各データに対してタイムスタンプ等を付与することができる。
The
通信部1004は、マイクロフォン2000が送信した音声データをネットワーク4000経由で受信し、適切なパケット処理を行った後に、制御部1003へ出力する。また、通信部1004は、マイクロフォン2000からコマンドを受信し、受信したコマンドに対するレスポンスをマイクロフォン2000へ送信する。また、通信部1004は、映像データをネットワーク4000経由でサーバ装置3000に送信する。また、通信部1004は、サーバ装置3000が送信するカメラ制御コマンドを受信し、適切なパケット処理等を行った後に、制御部1003へ出力する。また、通信部1004は、サーバ装置3000から受信したコマンドに対するレスポンスをサーバ装置3000へ送信する。
The
記憶部1005は、カメラ1101によって生成された映像データとマイクロフォン2000によって生成された音声データを関連付けるための情報を記憶する。
続いて、図2を参照して、マイクロフォン2000の各部構成と機能を説明する。マイクロフォン2000は、集音部2001と、音声処理部2002と、制御部2003と、通信部2004と、記憶部2005とを有する。なお、8個のマイクロフォン2011~2018の各々は、少なくとも別々の集音部2001を有する。
Next, with reference to FIG. 2, the configuration and function of each part of
集音部2001は、振動膜および固定板等の電極から構成され、音圧による振動膜の振動に応じて電極間の距離が変わることにより、電圧が変動することで音声を電気の音声信号へ変換する。また、集音部2001は、音声信号の電圧を増幅するためのアンプを含んでもよい。
The
音声処理部2002は、集音部2001により生成された音声信号に対して、音声処理および圧縮符号化処理を行い、音声データを生成する。なお、制御部2003は、ユーザにより設定された音声入力条件または制御部2003が自動で決定した音声入力条件に基づいて、集音部2001および音声処理部2002を制御する。ここで、音声入力条件は、音量ゲイン条件、音声周波数特性条件、音声指向方向条件、音声指向範囲条件等を含む。
The
制御部2003は、図3に示すように、CPU301とROM302とRAM303を有する。制御部2003は、カメラ1101とサーバ装置3000等からネットワーク4000経由で受信した制御コマンドを解析し、制御コマンドに応じた処理を行う。例えば、制御部2003は、音声処理を行った音声データの送信先の制御指示を行う。また、制御部2003は、CPU301を有し、マイクロフォン2000の各構成要素を統括的に制御し、各種パラメータ等の設定を行う。また、制御部2003は、データを記憶するROM302およびRAM303を有し、ROM302またはRAM303に記憶されたプログラムを実行する。なお、RAM303は、制御部2003が実行するプログラムの格納領域、プログラム実行中のワーク領域、データの格納領域等を有する。また、制御部2003は、計時手段を有し、取得した各データに対してタイムスタンプ等を付与することができる。また、制御部2003は、2つのマイクロフォン2011および2012等の音声信号を、指向性処理(目的の方向からの音声を強調し、目的以外の方向からの音声を抑制する信号処理)し、指向性処理した音声信号を出力する。
The
図4(a)および図4(b)を用いて、指向性処理を説明する。図4(a)は、音源からの音が、マイクロフォン2011およびマイクロフォン2012に対して、角度θの方向から到達する様子を示している。マイクロフォン2011とマイクロフォン2012は、距離D2を隔てて配置されている。この場合において、音源とマイクロフォン2011との距離と、音源とマイクロフォン2012との距離の差Lは、次式で表される。
L=D2×cosθ
Directivity processing will be described with reference to FIGS. 4(a) and 4(b). FIG. 4A shows how sound from a sound source reaches the
L=D2×cos θ
また、音速をVとすると、音源からの音がマイクロフォン2011に到達してから、音源からの音がマイクロフォン2012に到達するまでの時間Tは、次式で表される。
T=L/V=D2×cosθ/V
Assuming that the speed of sound is V, the time T from when the sound from the sound source reaches the
T=L/V=D2×cos θ/V
図4(b)は、D2=50mm、V=346.75m/sとした場合の、角度θに対する、LとTの値、および、Tの差分を示している。例えば、θ=0degのとき、L=50mm、T=144μsである。θ=15degのとき、L=48mm、T=139μsである。θ=0degとθ=15degのTの差分は、5μsである。 FIG. 4B shows the values of L and T and the difference in T with respect to the angle θ when D2=50 mm and V=346.75 m/s. For example, when θ=0 deg, L=50 mm and T=144 μs. When θ=15 deg, L=48 mm and T=139 μs. The difference in T between θ=0 deg and θ=15 deg is 5 μs.
制御部2003は、時間Tを基にして、指向性処理の演算を行う。例えば、正面方向(90deg)の音声を強調したい(指向性を持たせたい)場合を説明する。その場合、制御部2003は、マイクロフォン2011とマイクロフォン2012に同時に到達する音声(T=0μsの音声)を強調し、時間差をもって到達する音声(T≠0μsの音声)を抑制するための演算を行う。
Based on the time T, the
通信部2004は、音声データをネットワーク4000経由でサーバ装置3000に送信する。また、通信部2004は、サーバ装置3000から送信される制御コマンドを受信し、適切なパケット処理等を行った後に、制御部2003へ出力する。また、通信部2004は、サーバ装置3000から受信したコマンドに対するレスポンスをサーバ装置3000へ送信する。
記憶部2005は、カメラ1101~1103によって生成された映像データとマイクロフォン2000によって生成された音声データを関連付けるための情報を記憶する。
続いて、図2を参照して、サーバ装置3000の各部構成と機能について説明する。サーバ装置3000は、例えば、パーソナルコンピュータ等の汎用コンピュータである。サーバ装置3000は、通信部3001と、システム制御部3002と、記憶部3003とを有する。
Next, with reference to FIG. 2, the configuration and function of each part of the
通信部3001は、ネットワーク4000を介して、カメラ1101~1103から映像データを受信し、マイクロフォン2000から音声データを受信する。また、通信部3001は、カメラ1101~1103またはマイクロフォン2000に対して制御コマンドを送信し、この制御コマンドに対するレスポンスを受信する。
システム制御部3002は、図3に示すように、CPU301とROM302とRAM303を有する。システム制御部3002は、ユーザの操作に応じてカメラ制御コマンドを生成し、カメラ制御コマンドを通信部3001を介してカメラ1101~1103へ送信する。また、システム制御部3002は、通信部3001を介して受信したカメラ1101~1103からの映像データを記憶部3003に保存する。また、システム制御部3002は、CPU301を有し、サーバ装置3000の各構成要素を統括的に制御し、各種パラメータ等の設定を行う。また、システム制御部3002は、データを記憶するROM302およびRAM303を有し、ROM302またはRAM303に記憶されたプログラムを実行する。なお、RAM303は、システム制御部3002が実行するプログラムの格納領域、プログラム実行中のワーク領域、データの格納領域等を有する。また、システム制御部3002は、計時手段を有し、取得した各データに対してタイムスタンプ等を付与することができる。
The
記憶部3003は、カメラ1101~1103およびマイクロフォン2000が取得したデータを保存する。システム制御部3002は、記憶部3003に記憶されているデータを読み出し、転送する。
図5は、部屋5000に設置したカメラ1101~1107およびマイクロフォン2000の配置、カメラ1101~1107の撮影範囲1201~1207、およびマイクロフォン2000の集音範囲A~Hを示す図である。カメラ1102~1107は、カメラ1101と同様の構成を有し、ネットワーク4000に接続される。マイクロフォン2000の数は、カメラ1101~1107の数より少ない。図5を参照しながら、マイクロフォン2000の指向性処理における集音範囲の決定方法について説明する。カメラ1101~1107が部屋5000に設置されている場合、サーバ装置3000は、カメラ管理ソフトウェアにより、図5のように部屋5000を上から見た方向で表示する。サーバ装置3000は、カメラ1101~1107の撮影範囲1201~1207を表示し、ユーザの設定またはカメラ1101~1107の画角に合わせて撮影範囲1201~1207を自動的に設定する。マイクロフォン2000の指向性の設定可能な集音範囲A、B、C、D、E、F、G、Hのエリアを分割し、マイクロフォン2000に対して集音範囲A~Hのいずれかを選択することにより、集音エリアを指定することができる。例えば、マイクロフォン2000の指向性を集音範囲AおよびBと指定した場合、集音範囲AおよびBのエリアにある音源の音のみを集音することができる。集音範囲A~Hは、マイクロフォン2011~2018に対応する。マイクロフォン2000は、複数の場所または複数の方向の音声を集音し、複数の場所または複数の方向の音声を指向性処理することにより、複数のカメラ1101~1107に対応する複数の音声データを生成する。
FIG. 5 shows the arrangement of
図6(a)~(e)は、カメラ1101~1107の映像データとマイクロフォン2000の音声データを関連付けるためのIDとIPアドレスと指向性の対応関係を示す図である。本実施の形態では、カメラ1101~1107のそれぞれに1つのIPアドレスが割り当てられ、マイクロフォン2000には、複数のIPアドレスを有するように複数の通信デバイスが備えられているものとする。図6(a)に示すように、1つのカメラに対して1つのIDが割り当てられる。例えば、カメラ1101のIDは1である。カメラ1102のIDは2である。カメラ1103のIDは3である。カメラ1104のIDは4である。カメラ1105のIDは5である。カメラ1106のIDは6である。カメラ1107のIDは7である。
6A to 6E are diagrams showing correspondence relationships between IDs, IP addresses, and directivities for associating video data from
図6(a)は、カメラ1101~1107のIDとIPアドレス(識別情報)との対応関係を示すテーブルの図である。図6(b)は、カメラ1101~1107のIDごとのマイクロフォン2000の指向性の集音範囲を示すテーブルの図である。マイクロフォン2000の指向性の集音範囲は、マイクロフォン2000の指向性を示す情報である。例えば、カメラ1101のID「1」は、カメラ1101の撮影範囲1201に対応する指向性の集音範囲AおよびBが設定される。
FIG. 6A is a diagram of a table showing the correspondence between the IDs of the
図6(c)は、カメラ1101~1107のIDと音声データに対応する通信デバイスのIPアドレス(識別情報)との対応関係を示すテーブルの図である。例えば、カメラ1101のID「1」に対して、集音範囲AおよびBの音声データを出力するための通信デバイスのIPアドレスが関連付けられている。また、カメラ1102のID「2」に対して、集音範囲AおよびHの音声データを出力するための通信デバイスのIPアドレスが関連付けられている。図6(d)は、カメラ1101~1107のIDに対するカメラのIPアドレスと対応する音声データを出力する通信デバイスのIPアドレスとの対応関係を示すテーブルの図である。図6(e)は、カメラのIDおよびIPアドレス、対応する音声データを出力する通信デバイスのIDおよびIPアドレスの対応関係を示すものであり、カメラのIDが「1」の例を示している。
FIG. 6(c) is a table showing the correspondence between the IDs of the
図7(a)~(c)は、映像音声処理システム100の制御方法を示すフローチャートである。図7(a)は、マイクロフォン2000の制御方法を示すフローチャートである。ステップS701では、マイクロフォン2011~2018の集音部2001は、集音し、音声を電気の音声信号に変換する。音声処理部2002は、音声信号に対して、音声処理および圧縮符号化処理を行い、音声データを生成する。
7A to 7C are flow charts showing the control method of the video/
ステップS702では、制御部2003は、記憶2005に記憶されている図6(b)のテーブルを参照し、各カメラ1101~1107のIDに対応するマイクロフォン2000の指向性の集音範囲を読み出す。
In step S702, the
ステップS703では、制御部2003は、マイクロフォン2011~2018の音声データに対して、ステップS702で読み出した各カメラ1101~1107のIDの指向性の集音範囲に基づいて指向性処理を行い、各IDの音声データを生成する。例えば、制御部2003は、カメラ2011のIDに対して、マイクロフォン2000の指向性の集音範囲AおよびBの指向性処理を行い、カメラ2011のIDの音声データを生成する。
In step S703, the
ステップS704では、制御部2003は、記憶部2005に記憶されている図6(c)のテーブルを参照し、各カメラ1101~1107のIDに対応する音声データのIPアドレスを読み出す。
In step S704, the
ステップS705では、制御部2003は、ステップS704で読み出した各カメラ1101~1107のIDに対応する音声データを出力する通信デバイスのIPアドレスと、ステップS703で生成された各IDの音声データとをそれぞれ対応付ける。そして、制御部2003は、対応付けたIPアドレスと音声データをサーバ装置3000に送信する。
In step S705, the
図7(b)は、カメラ1101~1107の制御方法を示すフローチャートである。ステップS711では、カメラ1101~1107の撮像部1001は、被写体を撮像し、映像信号を生成する。カメラ1101~1107の画像処理部1002は、映像信号に対して、画像処理および圧縮符号化処理を行い、映像データを生成する。
FIG. 7B is a flow chart showing a control method for the cameras 1101-1107. In step S711, the
ステップS712では、カメラ1101~1107の制御部1003は、記憶部1005に記憶されている図6(a)のテーブルを参照し、自己のカメラのIDに対応するIPアドレスを読み出す。カメラ1101~1107の制御部1003は、自己のカメラのIDに対応するIPアドレスと、自己のIDのカメラで生成された映像データとをそれぞれ対応付けて、サーバ装置3000に送信する。
In step S712, the
図7(c)は、サーバ装置3000の制御方法を示すフローチャートである。ステップS721では、システム制御部3002は、通信部3001を介して、カメラ1101~1107から各IDのIPアドレスと映像データを受信する。また、システム制御部3002は、通信部3001を介して、マイクロフォン2000から各IDに対応する音声データを出力する通信デバイスのIPアドレスと音声データを受信する。
FIG. 7(c) is a flow chart showing a control method of the
ステップS722では、システム制御部3002は、記憶部3003に記憶されている図6(d)のテーブルを基に、各カメラ1101~1107のIDに対応するIPアドレスと対応する音声データを出力する通信デバイスのIPアドレスの組み合わせを読み出す。
In step S722, based on the table of FIG. 6D stored in the
ステップS723では、システム制御部3002は、同じIDのカメラのIPアドレスと音声データのIPアドレスを基に、対応する映像データと音声データを関連付け、MPEGファイルとして記憶部3003に記録する。システム制御部3002は、カメラのIPアドレスを基に、映像データと音声データを含むMPEGファイルを再生することができる。
In step S723, the
(第2の実施形態)
第1の実施形態では、図7(c)に示すように、サーバ装置3000によって、同じIDの映像データと音声データの関連付けを行った。本発明の第2の実施形態では、カメラ1101~1107が、同じIDの映像データと音声データを関連付ける。カメラ1101~1107とマイクロフォン2000とサーバ装置3000の構成および接続は、第1の実施形態と同じであるため説明を省略する。また、指向性処理も、第1の実施形態と同じであるため説明を省略する。以下、本実施形態が第1の実施形態と異なる点を説明する。
(Second embodiment)
In the first embodiment, as shown in FIG. 7C, the
図8(a)~(c)は、本発明の第2の実施形態による映像音声処理システム100の制御方法を示すフローチャートである。図8(a)は、マイクロフォン2000の制御方法を示すフローチャートである。マイクロフォン2000は、ステップS801~S804の処理を行う。ステップS801~S804の処理は、図7(a)のステップS701~S704の処理と同じです。ステップS805では、制御部2003は、ステップS804で読み出した各カメラ1101~1107のIDに対応する音声データのIPアドレスと、ステップS803で生成された各IDの音声データとを対応付けて、カメラ1101~1107に送信する。
FIGS. 8A to 8C are flow charts showing the control method of the video/
図8(b)は、カメラ1101~1107の制御方法を示すフローチャートである。図6(e)に示すように、カメラ1101の記憶部1005は、自己のカメラ1101のIDに対応するIPアドレスと音声データの組み合わせのテーブルを記憶する。同様に、カメラ1102~1107の記憶部1005は、それぞれ、自己のカメラ1101のIDに対応するIPアドレスと音声データの組み合わせのテーブルを記憶する。
FIG. 8B is a flow chart showing a control method for the cameras 1101-1107. As shown in FIG. 6E, the
ステップS811では、カメラ1101~1107の撮像部1001は、被写体を撮像し、映像信号を生成する。カメラ1101~1107の画像処理部1002は、映像信号に対して、画像処理および圧縮符号化処理を行い、映像データを生成する。
In step S811, the
ステップS812では、カメラ1101の制御部1003は、記憶部1005に記憶されている図6(e)のテーブルを参照し、自己のカメラ1101のIDに対応する音声データを出力する通信デバイスのIPアドレスを読み出す。同様に、カメラ1102~1107の制御部1003は、それぞれ、記憶部1005に記憶されているテーブルを参照し、自己のカメラ1102~1107のIDに対応する音声データを出力する通信デバイスのIPアドレスを読み出す。
In step S812, the
ステップS813では、カメラ1101~1107の制御部1003は、ステップS812で読み出した自己のカメラ1102~1107のIDに対応するIPアドレスを有する通信デバイスから出力される音声データをマイクロフォン2000から受信する。カメラ1101~1107の制御部1003は、それぞれ、上記の音声データを受信できた場合には、ステップS814に進み、上記の音声データを受信できなかった場合には、ステップS815に進む。ステップS815では、制御部1003は、通信部1004を介して、ステップS811で生成された映像データと自己のカメラのIDに対応するIPアドレスをサーバ装置3000に送信する。
In step S813, the
ステップS814では、カメラ1101~1107の制御部1003は、記憶部1005内の図6(e)等のテーブルを基に、自己のカメラのIDに対応するIPアドレスと対応する音声データを出力する通信デバイスのIPアドレスの組み合わせを読み出す。カメラ1101~1107の制御部1003は、自己のカメラのIDに対応するIPアドレスと音声データを出力する通信デバイスのIPアドレスを基に、自己のカメラのIDの映像データ(S811)と音声データ(S813)を関連付ける。そして、カメラ1101~1107の制御部1003は、関連付けた映像データと音声データを含むMPEGファイルを生成する。その後、カメラ1101~1107の制御部1003は、ステップS815に進む。ステップS815では、制御部1003は、通信部1004を介して、自己のカメラのIDの映像データおよび音声データを含むMPEGファイルと映像データのIPアドレスとをサーバ装置3000に送信する。
In step S814, the
図8(c)は、サーバ装置3000の制御方法を示すフローチャートである。ステップS821では、システム制御部3002は、通信部3001を介して、カメラ1101~1107から各IDの映像データと音声データを含むMPEGファイルとカメラのIPアドレス、または各IDの映像データとカメラのIPアドレスを受信する。システム制御部3002は、カメラのIPアドレスを基に、映像データと音声データを含むMPEGファイル、または映像データを再生することができる。
FIG. 8(c) is a flow chart showing a control method of the
第1の実施形態および第2の実施形態では、カメラ1101~1107のIPアドレスおよびマイクロフォン2000が有する通信デバイスのIPアドレスを用いて映像データおよび音声データの関連付けを行っていたが、これに限定されない。マイクロフォン2000が複数の通信デバイスを有さない場合、単純にカメラ1101~1107のIDを識別情報とし、音声を収集する指向性の範囲を関連付けることでもよい。すなわち、この場合、図6(a)および(b)を有するだけでもよい。
In the first and second embodiments, the IP addresses of the
(第3の実施形態)
図9(a)は、本発明の第3の実施形態によるマイクロフォン2000の位置に対するカメラ1101の撮影範囲1201の極座標の算出方法を示す図である。サーバ装置3000は、カメラ1101の撮影範囲1201の極座標を算出し、その極座標を基にカメラ1101の指向性方向と指向性範囲を算出する。以下、本実施形態が第1および第2の実施形態と異なる点を説明する。
(Third embodiment)
FIG. 9(a) is a diagram showing a method of calculating the polar coordinates of the
まず、システム制御部3002は、ユーザの指示に応じて、カメラ1101の位置座標a(Xa,Ya)と、カメラ1101の撮影方向と、カメラ1101の撮影角度と、カメラ1101の撮影距離を設定する。次に、システム制御部3002は、ユーザの指示に応じて、マイクロフォン2000の位置座標を設定する。
First, the
次に、システム制御部3002は、上記の情報を基に、カメラ1101の撮影範囲1201の頂点座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)を算出する。次に、システム制御部3002は、次式により、マイクロフォン2000の位置座標に対する撮影範囲1201の頂点座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)を極座標(ra,θa)、(rb,θb)、(rc,θc)に変換する。
Next, the
システム制御部3002は、上記と同様に、マイクロフォン2000の位置座標に対するカメラ1102~1107の撮影範囲1202~1207の頂点座標を極座標に変換する。
The
図9(b)は、本実施形態によるマイクロフォン2000に対するカメラ1101の撮影範囲1201の極座標の他の算出方法を示す図である。サーバ装置3000は、カメラ1101の撮影範囲1201の極座標を算出し、その極座標を基にカメラ1101の指向性方向と指向性範囲を算出する。
FIG. 9B is a diagram showing another method of calculating the polar coordinates of the
まず、システム制御部3002は、ユーザの指示に応じて、カメラ1101の設置領域の座標を設定する。次に、システム制御部3002は、ユーザの指示に応じて、マイクロフォン2000の位置座標を設定する。
First, the
次に、システム制御部3002は、上記の情報を基に、カメラ1101の撮影範囲1201の頂点座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)、d(Xd,Yd)を算出する。システム制御部3002は、次式により、マイクロフォン2000の位置座標を基準に、頂点座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)、d(Xd,Yd)を極座標(ra,θa)、(rb,θb)、(rc,θc)、(rd,θd)に変換する。
Next, based on the above information, the
システム制御部3002は、上記と同様に、マイクロフォン2000の位置座標に対するカメラ1102~1107の撮影範囲1202~1207の頂点座標を極座標に変換する。
The
図10(a)は、カメラ1101の撮影範囲1201に対応するマイクロフォン2000の指向性方向θ1と指向性範囲φ1を示す図である。サーバ装置3000は、図9(a)または(b)の極座標を算出した後、カメラ1101の撮影範囲1201に対応するマイクロフォン2000の指向性方向θ1と指向性範囲φ1を算出する。
FIG. 10A is a diagram showing the directivity direction θ1 and the directivity range φ1 of the
まず、システム制御部3002は、マイクロフォン2000の位置座標と撮影範囲1201の両端とを結ぶ2直線901および902の角度を算出する。次に、システム制御部3002は、2直線901および902の角度の平均の角度θ1を、カメラ1101の撮影範囲1201に対応するマイクロフォン2000の指向性方向として算出する。次に、システム制御部3002は、2直線901および902の角度の差の角度φ1を、カメラ1101の撮影範囲1201に対応するマイクロフォン2000の指向性範囲として算出する。
First, the
システム制御部3002は、上記と同様に、カメラ1102~1107の撮影範囲1202~1207に対応するマイクロフォン2000の指向性方向θ2~θ7および指向性範囲φ2~φ7を算出する。
The
図10(b)は、カメラ1101~1107のIDごとのマイクロフォン2000の指向性方向および指向性範囲を示すテーブルの図である。マイクロフォン2000の指向性方向および指向性範囲は、マイクロフォン2000の指向性を示す情報である。サーバ装置3000は、図10(a)の算出の後、図10(b)のテーブルを生成する。システム制御部3002は、図10(a)の算出の後、図10(b)のように、カメラ1101~1107のIDに対するマイクロフォン2000の指向性方向θ1~θ7および指向性範囲φ1~φ7を示すテーブルを生成する。図10(b)のテーブルは、図6(b)のテーブルの代わりに使用される。サーバ装置3000は、図10(b)のテーブルをマイクロフォン2000に送信する。マイクロフォン2000は、記憶部2005に図10(b)のテーブルを保存し、図10(b)のテーブルを基に、図7(a)のステップS703の指向性処理を行う。
FIG. 10(b) is a diagram of a table showing the directivity direction and directivity range of the
第1~第3の実施形態によれば、マイクロフォン2000の数がカメラ1101~1107の数より少なく、ユーザが任意にマイクロフォン2000とカメラ1101~1107の設置場所を指定することができる。映像音声処理システム100は、カメラ1101~1107の映像に合わせた音声を集音し、各カメラ1101~1107の映像データと音声データを適切に関連付ける(結合する)ことができる。
According to the first to third embodiments, the number of
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments are merely examples of specific implementations of the present invention, and the technical scope of the present invention should not be construed to be limited by these. That is, the present invention can be embodied in various forms without departing from its technical concept or main features.
1101~1107 カメラ、2000 マイクロフォン、3000 サーバ装置、4000 ネットワーク 1101-1107 cameras, 2000 microphones, 3000 server devices, 4000 networks
Claims (3)
音声の指向性処理を行う複数の集音範囲が設定され、当該集音範囲ごとに、集音部により集音された音声を指向性処理することにより、前記集音範囲ごとの音声データを生成する音声入力装置と、
処理装置と、
を有し、
前記音声入力装置は、前記生成された複数の音声データのそれぞれに対応する通信デバイスのIPアドレスが設定され、前記生成された複数の音声データと、当該音声データに対応する前記通信デバイスのIPアドレスと、を前記複数の撮像装置に送信し、
前記複数の撮像装置は、それぞれ、自身の撮像装置に対応する前記通信デバイスのIPアドレスを記憶し、当該記憶されたIPアドレスに一致するIPアドレスと共に前記音声入力装置から受信した音声データと、前記自身の撮像装置により撮像された映像データとを含むファイルを生成し、当該生成されたファイルを前記処理装置に送信し、
前記処理装置は、前記ファイルを受信することを特徴とする映像音声処理システム。 a plurality of imaging devices that generate a plurality of video data;
A plurality of sound collection ranges are set for sound directivity processing, and sound data is generated for each sound collection range by performing directivity processing on sound collected by the sound collection unit for each sound collection range. a voice input device that
a processor;
has
The voice input device is set with an IP address of a communication device corresponding to each of the plurality of generated voice data, and the plurality of generated voice data and the IP address of the communication device corresponding to the voice data. and transmitting to the plurality of imaging devices,
Each of the plurality of imaging devices stores an IP address of the communication device corresponding to its own imaging device, and audio data received from the audio input device together with an IP address matching the stored IP address; generating a file containing video data captured by its own imaging device, and transmitting the generated file to the processing device;
The audio/video processing system, wherein the processing device receives the file.
前記処理装置は、前記ファイルと前記自身の撮像装置のIPアドレスとを受信して当該ファイルを再生することを特徴とする請求項1に記載の映像音声処理システム。 Each of the plurality of imaging devices stores an IP address of the communication device corresponding to its own imaging device, and audio data received from the audio input device together with an IP address matching the stored IP address; generating a file containing video data captured by its own imaging device, and transmitting the generated file to the processing device together with the IP address of its own imaging device;
2. The audio/video processing system according to claim 1 , wherein said processing device receives said file and an IP address of said own imaging device and reproduces said file.
音声入力装置により、音声の指向性処理を行う複数の集音範囲が設定され、当該集音範囲ごとに、集音部により集音された音声を指向性処理することにより、前記集音範囲ごとの音声データを生成し、
前記音声入力装置により、前記生成された複数の音声データのそれぞれに対応する通信デバイスのIPアドレスが設定され、前記生成された複数の音声データと、当該音声データに対応する前記通信デバイスのIPアドレスと、を前記複数の撮像装置に送信し、
前記複数の撮像装置により、それぞれ、自身の撮像装置に対応する前記通信デバイスのIPアドレスを記憶し、当該記憶されたIPアドレスに一致するIPアドレスと共に前記音声入力装置から受信した音声データと、前記自身の撮像装置により撮像された映像データとを含むファイルを生成し、当該生成されたファイルを処理装置に送信し、
前記処理装置により、前記ファイルを受信することを特徴とする映像音声処理システムの制御方法。 Generate a plurality of video data by a plurality of imaging devices,
A plurality of sound collection ranges are set by the sound input device for performing sound directivity processing, and for each of the sound collection ranges, the sound collected by the sound collection unit is subjected to directivity processing, so that for each sound collection range generate audio data of
An IP address of a communication device corresponding to each of the plurality of generated voice data is set by the voice input device, and the plurality of generated voice data and the IP address of the communication device corresponding to the voice data are set. and transmitting to the plurality of imaging devices,
each of the plurality of image pickup devices stores an IP address of the communication device corresponding to the image pickup device, audio data received from the audio input device together with the IP address matching the stored IP address; generating a file containing video data captured by its own imaging device, and transmitting the generated file to the processing device;
A control method for an audiovisual processing system, wherein the file is received by the processing device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018167901A JP7337491B2 (en) | 2018-09-07 | 2018-09-07 | AUDIO VIDEO PROCESSING SYSTEM AND CONTROL METHOD FOR VIDEO AUDIO PROCESSING SYSTEM |
US16/552,268 US10939030B2 (en) | 2018-09-07 | 2019-08-27 | Video audio processing system and method of controlling the video audio processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018167901A JP7337491B2 (en) | 2018-09-07 | 2018-09-07 | AUDIO VIDEO PROCESSING SYSTEM AND CONTROL METHOD FOR VIDEO AUDIO PROCESSING SYSTEM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020043420A JP2020043420A (en) | 2020-03-19 |
JP7337491B2 true JP7337491B2 (en) | 2023-09-04 |
Family
ID=69798797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018167901A Active JP7337491B2 (en) | 2018-09-07 | 2018-09-07 | AUDIO VIDEO PROCESSING SYSTEM AND CONTROL METHOD FOR VIDEO AUDIO PROCESSING SYSTEM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7337491B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003008972A (en) | 2001-06-19 | 2003-01-10 | Matsushita Electric Ind Co Ltd | Imaging unit and method |
JP2016010021A (en) | 2014-06-25 | 2016-01-18 | 株式会社リコー | Image/voice distribution system, image/voice distribution device, and image/voice distribution program |
JP2016118987A (en) | 2014-12-22 | 2016-06-30 | パナソニックIpマネジメント株式会社 | Abnormality sound detection system |
JP2016152557A (en) | 2015-02-18 | 2016-08-22 | パナソニックIpマネジメント株式会社 | Sound collection system and sound collection setting method |
-
2018
- 2018-09-07 JP JP2018167901A patent/JP7337491B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003008972A (en) | 2001-06-19 | 2003-01-10 | Matsushita Electric Ind Co Ltd | Imaging unit and method |
JP2016010021A (en) | 2014-06-25 | 2016-01-18 | 株式会社リコー | Image/voice distribution system, image/voice distribution device, and image/voice distribution program |
JP2016118987A (en) | 2014-12-22 | 2016-06-30 | パナソニックIpマネジメント株式会社 | Abnormality sound detection system |
JP2016152557A (en) | 2015-02-18 | 2016-08-22 | パナソニックIpマネジメント株式会社 | Sound collection system and sound collection setting method |
Also Published As
Publication number | Publication date |
---|---|
JP2020043420A (en) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9875410B2 (en) | Camera system for transmitting and receiving an audio signal and operating method of the same | |
JP6493860B2 (en) | Monitoring control system and monitoring control method | |
US20150022636A1 (en) | Method and system for voice capture using face detection in noisy environments | |
KR102287373B1 (en) | Apparatus and method for generating alarm | |
US20130121505A1 (en) | Microphone array configuration and method for operating the same | |
JP6217930B2 (en) | Sound speed correction system | |
JP2012186551A (en) | Control device, control system, and control method | |
JP2017028608A (en) | Video conference terminal equipment | |
US10939030B2 (en) | Video audio processing system and method of controlling the video audio processing system | |
JP7337491B2 (en) | AUDIO VIDEO PROCESSING SYSTEM AND CONTROL METHOD FOR VIDEO AUDIO PROCESSING SYSTEM | |
TW201318421A (en) | System and method for controlling image capturing device | |
JP6832507B2 (en) | Manufacturing method of microphone array device, microphone array system and microphone array device | |
JP6835205B2 (en) | Shooting sound pickup device, sound pick-up control system, shooting sound pick-up device control method, and shooting sound pick-up control system control method | |
JP2000209689A (en) | Sound processor, its control method and recording medium | |
JP2014072835A (en) | Conference device | |
JP6471955B2 (en) | Monitoring system and directivity control method in monitoring system | |
JP6261191B2 (en) | Display control apparatus, display control method, and program | |
JP2011114720A (en) | Intercom system with external abnormality detection function | |
JP2018157314A (en) | Information processing system, information processing method and program | |
JP6987538B2 (en) | Image processing equipment, work support systems, control methods and programs | |
JP5712599B2 (en) | Imaging apparatus and program | |
JP6971589B2 (en) | Imaging device, imaging system, its control method and program | |
JP7150470B2 (en) | IMAGING DEVICE, IMAGING SYSTEM, SIGNAL PROCESSING METHOD, AND PROGRAM | |
JP2017028375A (en) | Image processing device and program | |
JP2001086588A (en) | Audio signal processor and audio signal processing method and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230823 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7337491 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |