JP6818445B2 - Sound data processing device and sound data processing method - Google Patents

Sound data processing device and sound data processing method Download PDF

Info

Publication number
JP6818445B2
JP6818445B2 JP2016126937A JP2016126937A JP6818445B2 JP 6818445 B2 JP6818445 B2 JP 6818445B2 JP 2016126937 A JP2016126937 A JP 2016126937A JP 2016126937 A JP2016126937 A JP 2016126937A JP 6818445 B2 JP6818445 B2 JP 6818445B2
Authority
JP
Japan
Prior art keywords
processing
sound
area
unit
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016126937A
Other languages
Japanese (ja)
Other versions
JP2018006826A5 (en
JP2018006826A (en
Inventor
恭平 北澤
恭平 北澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016126937A priority Critical patent/JP6818445B2/en
Priority to US15/630,723 priority patent/US10219076B2/en
Publication of JP2018006826A publication Critical patent/JP2018006826A/en
Publication of JP2018006826A5 publication Critical patent/JP2018006826A5/en
Application granted granted Critical
Publication of JP6818445B2 publication Critical patent/JP6818445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers without distortion of the input signal
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/32Automatic control in amplifiers having semiconductor devices the control being dependent upon ambient noise level or sound level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • H04R29/002Loudspeaker arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones
    • H04R29/005Microphone arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers without distortion of the input signal
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/3005Automatic control in amplifiers having semiconductor devices in amplifiers suitable for low-frequencies, e.g. audio amplifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Description

本発明は音データ処理装置および音データ処理方法に関する。 The present invention relates to a sound data processing apparatus and a sound data processing method.

従来、空間を複数のエリアに分割してエリアごとの音声を取得(収音)する技術が知られている(特許文献1)。近年では、より指向性の高い収音技術が提案され、遠方の音声をクリアに録音・強調することが可能になってきている(特許文献2)。特許文献2のように、より指向性が鋭く、遠距離の音声まで録音可能なマイクを使って目的エリアの収音をすると、かなり広範囲な空間を細かいエリアに分けて収音することが可能になる。 Conventionally, there is known a technique of dividing a space into a plurality of areas and acquiring (sound collecting) sound for each area (Patent Document 1). In recent years, a sound collection technique with higher directivity has been proposed, and it has become possible to clearly record and emphasize distant sound (Patent Document 2). When sound is collected in the target area using a microphone that has sharper directivity and can record even long-distance voice as in Patent Document 2, it is possible to divide a fairly wide space into small areas and collect sound. Become.

特開2014−72708号公報Japanese Unexamined Patent Publication No. 2014-722708 特開2012−165189号公報Japanese Unexamined Patent Publication No. 2012-165189

しかしながら、広範囲な空間を細かいエリアに分割してエリアごとに収音すると、収音エリア数が多くなる。エコー除去やノイズ除去などの音声信号処理は収音エリアごとに行うので、収音エリア数が増加すると、音声信号処理量も増加する。収音エリア数が多い場合に、収音した音声をリアルタイム再生しようとすると、音声信号処理が間に合わず音声データが欠損してしまう(音声が途切れてしまう)可能性がある。
本発明は上記した従来技術の課題を解決するために考案されたものであり、音声信号処理終了までの時間が限られているリアルタイム再生においても所定(所望)の音声を欠損させない音声信号処理装置を提供することを目的とする。
However, if a wide space is divided into small areas and sound is collected for each area, the number of sound collecting areas increases. Since audio signal processing such as echo removal and noise removal is performed for each sound collection area, as the number of sound collection areas increases, the amount of audio signal processing also increases. If the number of sound collection areas is large and an attempt is made to reproduce the collected sound in real time, the sound signal processing may not be in time and the sound data may be lost (the sound may be interrupted).
The present invention has been devised to solve the above-mentioned problems of the prior art, and is an audio signal processing device that does not lose a predetermined (desired) audio even in real-time reproduction in which the time until the end of audio signal processing is limited. The purpose is to provide.

本発明の1つの態様によれば、収音対象空間の音を収音することで生成される音データを取得する取得手段と、前記収音対象空間内の複数のエリアの少なくとも1つの優先度を決定する決定手段と、前記取得手段により取得された音データを処理することにより得られる処理済みデータであって前記複数のエリアそれぞれに対応する処理済みデータを出力する出力手段と、を有する音データ処理装置であって、前記出力手段は、前記複数のエリアそれぞれに対応する処理済みデータを得るための処理に係る処理時間が所定の閾値より長い場合に、前記取得手段により取得された音データに対して前記所定の閾値以下の処理時間の処理を行うことにより得られる第1の処理済みデータであって前記複数のエリアのうち前記決定手段により決定された優先度に基づいて選択された1以上のエリアに対応する前記第1の処理済みデータを出力した後に、前記取得手段により取得された音データを処理することにより得られる第2の処理済みデータであって前記複数のエリアのうち前記1以上のエリアとは異なるエリアを含む他の1以上のエリアに対応する前記第2の処理済みデータを出力するデータ処理装置が提供される。 According to one aspect of the present invention, an acquisition means for acquiring sound data generated by collecting sounds in a sound collection target space, and at least one priority of a plurality of areas in the sound collection target space. A sound having a determination means for determining the above , and an output means for outputting processed data obtained by processing the sound data acquired by the acquisition means and corresponding to each of the plurality of areas. In the data processing device, the output means is sound data acquired by the acquisition means when the processing time related to the processing for obtaining the processed data corresponding to each of the plurality of areas is longer than a predetermined threshold value. 1 which is the first processed data obtained by performing the processing of the processing time equal to or less than the predetermined threshold value and is selected based on the priority determined by the determination means among the plurality of areas. after outputting the first processed data corresponding to the above area among the second processed a data before Symbol plurality of areas obtained by processing the acquired sound data by the acquisition unit the one or more of the area to output the second processed data corresponding to another one or more areas comprising different areas, the sound data processing device is provided.

本発明によれば、所定の条件に基づいて設定した順序で音声信号の処理または送信を行うので、リアルタイム再生においても所定(所望)の音声が欠損することはない。 According to the present invention, since the audio signals are processed or transmitted in the order set based on the predetermined conditions, the predetermined (desired) audio is not lost even in the real-time reproduction.

実施形態1の音声信号処理装置の機能構成を示すブロック図。The block diagram which shows the functional structure of the audio signal processing apparatus of Embodiment 1. FIG. 実施形態1の音声信号処理を示すフローチャート。The flowchart which shows the audio signal processing of Embodiment 1. 実施形態1の音声信号処理装置のハードウェア構成を示すブロック図。The block diagram which shows the hardware configuration of the audio signal processing apparatus of Embodiment 1. FIG. 実施形態2の音声信号処理システムの構成を示すブロック図。The block diagram which shows the structure of the audio signal processing system of Embodiment 2. 実施形態2の音声信号処理を示すフローチャート。The flowchart which shows the audio signal processing of Embodiment 2. 実施形態3の撮影処理システムの構成を示すブロック図。The block diagram which shows the structure of the photographing processing system of Embodiment 3. 実施形態3における音声の分離状況を説明する図。The figure explaining the separation state of voice in Embodiment 3. 実施形態3の音声信号処理を示すフローチャート。The flowchart which shows the audio signal processing of Embodiment 3.

以下、本発明の音声信号処理装置の実施形態を、添付図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。実施形態の構成は、本発明が適用される装置の仕様や各種条件(使用条件、使用環境等)によって適宜修正又は変更され得る。なお、以下の記載においては、同一の構成については、同じ符号を付して説明する。本明細書において、音声とは、人の発する声に限定されず、人や動物の声はもとより楽音や環境音などの音一般を意味する。 Hereinafter, embodiments of the audio signal processing device of the present invention will be described with reference to the accompanying drawings. The following embodiments do not limit the present invention. Moreover, not all combinations of features described in the present embodiment are essential for the means of solving the present invention. The configuration of the embodiment may be appropriately modified or changed depending on the specifications of the apparatus to which the present invention is applied and various conditions (use conditions, use environment, etc.). In the following description, the same configuration will be described with the same reference numerals. In the present specification, the voice is not limited to the voice uttered by a person, and means not only the voice of a person or an animal but also general sounds such as musical sounds and environmental sounds.

実施形態1
実施形態1の音声信号処理装置は、音響システムの一部であるとして説明をする。音響システムは、例えばスポーツ中継などにおいて、リアルタイム放送(生放送)と、リアルタイム放送とは異なる視点(カメラの向き)のリプレイ放送とを行う中継システムに用いられる音響システムである。
(音声信号処理装置の構成)
図1は音声信号処理装置10の構成を示す機能ブロック図である。音声信号処理装置10は、マイクアレイ11、音源分離部12、処理順序制御部13、音声信号処理部14、記憶部15、リアルタイム再生用信号生成部16およびリプレイ再生用信号生成部17を有する。音声信号処理装置10の各構成要素は、バス18により相互接続されている。音声信号処理装置10は、有線または無線により、再生装置19に接続されている。
Embodiment 1
The audio signal processing device of the first embodiment will be described as being a part of an acoustic system. The sound system is a sound system used for a relay system that performs real-time broadcasting (live broadcasting) and replay broadcasting from a viewpoint (camera orientation) different from that of real-time broadcasting, for example, in sports broadcasting.
(Configuration of audio signal processing device)
FIG. 1 is a functional block diagram showing the configuration of the audio signal processing device 10. The audio signal processing device 10 includes a microphone array 11, a sound source separation unit 12, a processing order control unit 13, an audio signal processing unit 14, a storage unit 15, a real-time reproduction signal generation unit 16, and a replay reproduction signal generation unit 17. Each component of the audio signal processing device 10 is interconnected by a bus 18. The audio signal processing device 10 is connected to the playback device 19 by wire or wirelessly.

マイクアレイ11は複数のマイクロホンからなる。マイクアレイ11は、音源分離部12に接続されている。マイクアレイ11は、空間の音声をマイクロホンで収音し、収音した音声の音声信号をA/D変換したのち、音源分離部12へ出力する。マイクアレイ11は、収音部である。
音源分離部12は、マイクアレイ11から入力された音声信号を用いて空間をN(N>1)のエリアに分割するように音源分離処理を行う。音源分離処理は、処理フレームごと、つまり所定の時間(時間間隔、時間単位)ごとに行われる。音源分離部12は、例えば前記所定の時間ごとにビームフォーミング処理を行い、エリア(a)ごとの音声信号を取得する。取得した音声信号は、時間(t)情報と共に処理順序制御部13へ出力される。
The microphone array 11 is composed of a plurality of microphones. The microphone array 11 is connected to the sound source separation unit 12. The microphone array 11 collects the sound in the space with a microphone, A / D-converts the sound signal of the collected sound, and then outputs the sound to the sound source separation unit 12. The microphone array 11 is a sound collecting unit.
The sound source separation unit 12 performs a sound source separation process so as to divide the space into N (N> 1) areas using the audio signal input from the microphone array 11. The sound source separation process is performed for each processing frame, that is, for each predetermined time (time interval, time unit). The sound source separation unit 12 performs beamforming processing, for example, at predetermined time intervals, and acquires an audio signal for each area (a). The acquired voice signal is output to the processing order control unit 13 together with the time (t) information.

処理順序制御部13は、音源分離部12から時間(t)およびエリア(a)ごとの音声信号S(t,a)を受け取る。処理順序制御部13は、音声信号S(t,a)から取得した時間およびエリアの情報に基づいて、音声信号処理部14における時間およびエリアごと音声信号処理の順番(順序)を制御する信号を出力する。例えば、処理順序制御部13は、取得した時間の音声について隣接するエリア同士を比較し、あるエリアの音声信号が隣接するエリアの音によってマスキングされるか否かを判定する。判定の結果、マスキングされてしまうエリアについて、処理順序制御部13は、音声信号処理の順序を遅らせるように設定する。本実施形態では、マスキングされるエリアは重要度(優先度)が低いと考える。つまり、処理順序制御部13は、複数のエリアについて優先度を決定し、優先度の高いエリアの音声信号処理順序を早くし(優先し)、優先度の低いエリアの音声信号処理を遅くするという設定をする。処理順序制御部13は、処理順序を設定する手段である。処理順序は、重要度(優先度)の高い方から低い方へ設定される。処理順序制御部13は、マスキングされるかどうかという所定の条件に基づいて、エリアごとの音声信号の処理順序を設定している。 The processing order control unit 13 receives the audio signal S (t, a) for each time (t) and area (a) from the sound source separation unit 12. The processing order control unit 13 outputs a signal for controlling the order (order) of audio signal processing for each time and area in the audio signal processing unit 14 based on the time and area information acquired from the audio signal S (t, a). Output. For example, the processing order control unit 13 compares adjacent areas with respect to the voice of the acquired time, and determines whether or not the voice signal of a certain area is masked by the sound of the adjacent area. The processing order control unit 13 sets the audio signal processing order to be delayed for the area that is masked as a result of the determination. In the present embodiment, the masked area is considered to have low importance (priority). That is, the processing order control unit 13 determines the priority for the plurality of areas, accelerates (prioritizes) the audio signal processing order of the high priority area, and delays the audio signal processing of the low priority area. Make settings. The processing order control unit 13 is a means for setting the processing order. The processing order is set from the one with the highest importance (priority) to the one with the lowest priority. The processing order control unit 13 sets the processing order of the audio signals for each area based on a predetermined condition of whether or not masking is performed.

音声信号処理部14は、例えばマイクロプロセッサなどの処理装置からなる。音声信号処理部14は、処理順序制御部13の出力信号(音声信号処理の順序を制御・設定する信号)を受け取る。また、音声信号処理部14は、音声信号処理装置10の処理量(負荷状態)を逐次モニタリングする。音声信号処理部14は、時間およびエリアごとの音声信号を、音声信号処理の順序の制御信号(設定信号)に従って処理する。音声信号処理部14で行われる処理は、例えば収音部(マイクアレイ11)からエリアまでの距離による影響を補正するための遅延補正処理、ゲイン補正処理、エコー除去処理などを含む。本実施形態において、音声信号処理部14で行われる複数の処理(遅延補正処理、ゲイン補正処理、エコー除去処理など)の順序は、固定されているとする。 The audio signal processing unit 14 is composed of a processing device such as a microprocessor or the like. The audio signal processing unit 14 receives an output signal (a signal that controls and sets the order of audio signal processing) of the processing order control unit 13. Further, the audio signal processing unit 14 sequentially monitors the processing amount (load state) of the audio signal processing device 10. The audio signal processing unit 14 processes audio signals for each time and area according to a control signal (setting signal) in the order of audio signal processing. The processing performed by the audio signal processing unit 14 includes, for example, a delay correction processing, a gain correction processing, an echo removal processing, and the like for correcting the influence of the distance from the sound collecting unit (microphone array 11) to the area. In the present embodiment, it is assumed that the order of the plurality of processes (delay correction process, gain correction process, echo removal process, etc.) performed by the audio signal processing unit 14 is fixed.

(処理装置の処理量が所定量より小さい場合)
処理装置の処理量(負荷)が所定量より小さい場合、ある処理フレームの全エリアの音声信号の処理が所定時間内に終了可能である。この場合、音声信号処理部14は、全エリアについてすべての処理をした音声信号を、リアルタイム再生用信号生成部16および記憶部15へ出力する。ある処理フレームの全エリアの音声信号の処理が音声信号処理部14において所定時間内に終了可能であれば、リアルタイム再生用信号生成部16は全エリアについてすべての処理がなされたリアルタイム再生用信号を生成することができる。
(When the processing amount of the processing device is smaller than the specified amount)
When the processing amount (load) of the processing device is smaller than the predetermined amount, the processing of the audio signal in the entire area of a certain processing frame can be completed within the predetermined time. In this case, the audio signal processing unit 14 outputs the audio signal that has been processed for all areas to the real-time reproduction signal generation unit 16 and the storage unit 15. If the processing of the audio signal in all areas of a certain processing frame can be completed within a predetermined time in the audio signal processing unit 14, the real-time reproduction signal generation unit 16 outputs the real-time reproduction signal in which all the processing is performed in all areas. Can be generated.

(処理装置の処理量が所定量以上の場合)
処理装置の処理量が所定量以上の場合、ある時間(ある処理フレーム)の全エリアの音声信号を処理すると、リアルタイム再生用信号が生成できなくなる。処理装置の処理量が所定量以上である場合、音声信号処理部14は以下のような信号処理を行う。
音声信号処理部14ではリアルタイム再生までの残時間と、各処理終了までにかかる時間などを管理している。各処理に係る時間は処理装置の負荷に応じて変化するため、処理終了までの時間は処理装置の負荷に応じて変化する。リアルタイム再生までの残時間よりも処理終了までの時間が長くなってしまった場合、音声信号処理部14は一部の処理を行っていないエリアの音声信号をリアルタイム再生用信号生成部16および記憶部15へ出力する。リアルタイム再生までの残時間よりも処理終了までの時間が長くなってしまった場合とは、すべての処理を行うとすると、リアルタイム再生に間に合わない場合である。この場合、処理順序制御部13が設定した処理順序に従って、重要度(優先度)の高い順に、リアルタイム再生に間に合う範囲で(リアルタイム再生に間に合うと判定されたエリアについて)、すべての処理が行われる。そして、処理後の音声信号がリアルタイム再生用信号生成部16および記憶部15へ出力される。一方、リアルタイム再生に間に合わないと判定されたエリアについては、一部の処理を行わずにリアルタイム再生用信号生成部16および記憶部15へ出力される。一部の処理を行わないとは、例えば、3つの処理を行うべきであったのに、1つの処理が行われないことを意味する。3つの処理には優先順位が付けられており、処理が間に合わない場合には、後段の処理から処理を行わないようにする。行われなかった処理の情報は処理待ちリストに記録される。例えば処理待ちリストには処理が行われなかったエリア、時間、そして行われなかった処理の内容が記載される。
(When the processing amount of the processing device is more than the specified amount)
When the processing amount of the processing device is a predetermined amount or more, if the audio signals of the entire area for a certain time (a certain processing frame) are processed, the real-time reproduction signal cannot be generated. When the processing amount of the processing device is equal to or more than a predetermined amount, the audio signal processing unit 14 performs the following signal processing.
The audio signal processing unit 14 manages the remaining time until real-time reproduction, the time required to complete each process, and the like. Since the time related to each process changes according to the load of the processing device, the time until the end of the process changes according to the load of the processing device. When the time until the end of processing becomes longer than the remaining time until real-time reproduction, the audio signal processing unit 14 stores the audio signal in the area where some processing is not performed by the signal generation unit 16 for real-time reproduction and the storage unit. Output to 15. The case where the time until the end of processing is longer than the remaining time until real-time playback is the case where all the processing is not in time for real-time playback. In this case, according to the processing order set by the processing order control unit 13, all the processing is performed in descending order of importance (priority) within the range in time for real-time reproduction (for the area determined to be in time for real-time reproduction). .. Then, the processed audio signal is output to the real-time reproduction signal generation unit 16 and the storage unit 15. On the other hand, the area determined not to be in time for real-time reproduction is output to the real-time reproduction signal generation unit 16 and the storage unit 15 without performing some processing. Not performing some processing means, for example, that three processing should have been performed, but one processing is not performed. The three processes are prioritized, and if the processes are not in time, the processes are not performed from the subsequent processes. Information on the processing that has not been performed is recorded in the processing waiting list. For example, the processing waiting list describes the area where processing was not performed, the time, and the content of processing that was not performed.

音声信号処理部14は、すべてのエリアの処理がリアルタイム再生に間に合うか否かを判定しているので、所定時間内にすべてのエリアの音声信号の処理が実行可能か否かを判定していると言える。また、所定時間内にすべてのエリアの音声信号の処理が実行できない場合、処理が実行できなかったエリアの情報は、記憶部15に記憶される。
音声信号処理部14では処理負荷に余裕ができた時点で記憶部15から上述した処理待ちリストに基づき、一部処理を行っていないエリアの音声信号を取得し、残りの処理を施し、記憶部15へ出力する。処理が終わったものについては処理待ちリストから削除される。
記憶部15は、例えばHDD、SSD、メモリのような記憶装置で、音声信号処理部14から出力された音声信号を時間とエリアに対応づけて記憶する。
Since the audio signal processing unit 14 determines whether or not the processing of all areas is in time for real-time reproduction, it is determined whether or not the processing of the audio signals of all areas can be executed within a predetermined time. It can be said that. Further, when the processing of the audio signals of all the areas cannot be executed within the predetermined time, the information of the area where the processing could not be executed is stored in the storage unit 15.
When the processing load is sufficient, the audio signal processing unit 14 acquires the audio signal of the area that has not been partially processed from the storage unit 15 based on the above-mentioned processing waiting list, performs the remaining processing, and stores the storage unit. Output to 15. Those that have finished processing are deleted from the waiting list.
The storage unit 15 is a storage device such as an HDD, an SSD, or a memory, and stores the audio signal output from the audio signal processing unit 14 in association with time and area.

リアルタイム再生用信号生成部16は、音声信号処理部14から得たエリアごとの音声をミキシングすることでリアルタイム再生用の信号を生成し、当該信号を再生装置19に出力する。例えば、リアルタイム再生用信号生成部16は、外部から時間に応じて変化する空間内の仮想の聴取点(聴取者の位置)と、仮想の聴取者の向きと、再生環境の情報とを取得し音源のミキシングを行う。再生環境とは、例えば、リアルタイム再生用信号生成部16で生成した信号を再生する再生装置19の種類(スピーカか、ヘッドホンかなど)を意味する。
リプレイ再生用信号生成部17は、時刻を指定されてリプレイ再生が要求された場合に、該当する時刻の音声データを記憶部15から取得し、リアルタイム再生用信号生成部16と同様の処理を行い出力する。つまり、リプレイ再生用信号生成部17は、記憶部15から得たエリアごとの音声信号をミキシングすることでリプレイ再生用の信号を生成し、当該音声信号を再生装置19に出力する。
The real-time reproduction signal generation unit 16 generates a real-time reproduction signal by mixing the sound for each area obtained from the audio signal processing unit 14, and outputs the signal to the reproduction device 19. For example, the real-time playback signal generation unit 16 acquires a virtual listening point (listener's position) in the space that changes with time from the outside, a virtual listener's orientation, and information on the playback environment. Mix the sound source. The reproduction environment means, for example, a type (speaker, headphones, etc.) of a reproduction device 19 that reproduces a signal generated by a real-time reproduction signal generation unit 16.
When the replay playback signal generation unit 17 specifies a time and the replay playback is requested, the replay playback signal generation unit 17 acquires audio data at the corresponding time from the storage unit 15 and performs the same processing as the real-time playback signal generation unit 16. Output. That is, the replay reproduction signal generation unit 17 generates a replay reproduction signal by mixing the audio signals for each area obtained from the storage unit 15, and outputs the audio signal to the reproduction device 19.

(音声信号処理のフロー)
図2(A)から図2(C)は、本実施形態の音声信号処理装置10が実行する処理を示すフローチャートである。
図2(A)は、収音からリアルタイム再生用信号を生成するまでのフローを示す。図2(A)に示されているように、はじめに、マイクアレイ11により、空間内の音声の収音が行われる(S1)。収音された各チャンネルの音声の音声信号は、マイクアレイ11から音源分離部12へ出力される。
次に、音源分離部12は、あらかじめ設定された境界(前記空間を分割するための情報)に基づき前記空間を分割したエリアごとの音源を取得するための音源分離を行う(S2)。分離されたエリアごとの音声信号は、音源分離部12から処理順序制御部13へ出力される。
(Flow of audio signal processing)
2 (A) to 2 (C) are flowcharts showing the processes executed by the audio signal processing device 10 of the present embodiment.
FIG. 2A shows a flow from sound collection to generation of a real-time reproduction signal. As shown in FIG. 2A, first, the microphone array 11 picks up the sound in the space (S1). The audio signal of the audio of each channel collected is output from the microphone array 11 to the sound source separation unit 12.
Next, the sound source separation unit 12 performs sound source separation for acquiring a sound source for each area in which the space is divided based on a preset boundary (information for dividing the space) (S2). The audio signal for each separated area is output from the sound source separation unit 12 to the processing order control unit 13.

次に、処理順序制御部13は、分離音解析(S3)および処理順序設定(S4)を行う。より詳しくは、処理順序制御部13による分離音解析(S3)では、入力されたエリアごとの音声信号を用いて、対象エリアの音声信号とその周辺エリアの音声信号との比較を行い、対象エリアの音声が周辺エリアの音声にマスキングされるか否かを解析・判定する。この解析の結果に基づいて、処理順序制御部13による処理順序設定(S4)では、エリアごとの音声信号の処理順序が設定される。処理順序を設定されたエリアごとの音声信号は、処理順序制御部13から音声信号処理部14へ出力される。処理順序設定は、処理順序制御と称してもよい。 Next, the processing order control unit 13 performs the separation sound analysis (S3) and the processing order setting (S4). More specifically, in the separated sound analysis (S3) by the processing sequence control unit 13, the voice signal of the target area is compared with the voice signal of the surrounding area using the input voice signal for each area, and the target area is compared. Analyzes and determines whether or not the voice of is masked by the voice of the surrounding area. Based on the result of this analysis, in the processing order setting (S4) by the processing order control unit 13, the processing order of the audio signal for each area is set. The audio signal for each area for which the processing order is set is output from the processing order control unit 13 to the audio signal processing unit 14. The processing order setting may be referred to as processing order control.

続いて、音声信号処理部14は、入力されたエリアごとの音声信号の処理がリアルタイム出力(再生)に間に合うか否かを判定する(S5)。より詳しくは、音声信号処理部14は、音声信号処理装置10の負荷状態を逐次モニタリングし、負荷状態に応じてリアルタイム出力に間に合うか否かを判定する(S5)。つまり、S5において、音声信号処理部14は、信号処理の処理量が所定量以上であるかを判定する。音声信号処理装置10の負荷が軽く処理が間に合う場合(S5:Yes)、音声信号処理部14は、全てのエリアに対応する音声信号に対して処理を行う。S6では全てのエリアに対応する音声信号に対して処理を行うので、図2(A)のS6は「全部処理」と記載してある。その後、音声信号処理部14は、処理後の音声信号をリアルタイム再生用信号生成部16および記憶部15へ出力する。音声信号処理装置10の負荷が軽い場合とは、負荷が所定量より低い場合のことである。処理が(リアルタイム再生に)間に合うとは、処理が所定時間内に終了することである。 Subsequently, the audio signal processing unit 14 determines whether or not the processing of the audio signal for each input area is in time for the real-time output (reproduction) (S5). More specifically, the audio signal processing unit 14 sequentially monitors the load state of the audio signal processing device 10 and determines whether or not the real-time output is in time according to the load state (S5). That is, in S5, the audio signal processing unit 14 determines whether the processing amount of signal processing is a predetermined amount or more. When the load of the audio signal processing device 10 is light and the processing can be completed in time (S5: Yes), the audio signal processing unit 14 performs processing on the audio signals corresponding to all areas. Since processing is performed on the voice signals corresponding to all areas in S6, S6 in FIG. 2A is described as "all processing". After that, the audio signal processing unit 14 outputs the processed audio signal to the real-time reproduction signal generation unit 16 and the storage unit 15. The case where the load of the audio signal processing device 10 is light is the case where the load is lower than a predetermined amount. When the process is in time (for real-time playback), the process is completed within a predetermined time.

S5の判定がNoの場合、音声信号処理部14は、処理順序制御部13で設定された順序に基づいて処理順序が遅い一部のエリアの音声信号は処理を行わずに、音声信号をリアルタイム再生用信号生成部16と記憶部15へ出力する(S9)。それとともに処理が行われなかったエリアの情報は処理待ちリストに記録される。図2(A)では、S5の判断がNoの場合、一部のエリアの音声は処理を行わないので、S9は「一部を除いた処理」と記載している。S9では、リアルタイム再生に間に合う範囲で、処理順序の早い順に処理を行うので、処理順序が早いエリアの音声信号にはすべての処理が実行される。 When the determination in S5 is No, the audio signal processing unit 14 does not process the audio signals in some areas where the processing order is slow based on the order set by the processing order control unit 13, and outputs the audio signals in real time. It is output to the reproduction signal generation unit 16 and the storage unit 15 (S9). At the same time, the information of the area where the processing was not performed is recorded in the processing waiting list. In FIG. 2A, when the determination in S5 is No, the sound in a part of the area is not processed, so S9 is described as “processing except for a part”. In S9, processing is performed in the order of earliest processing order within the range in time for real-time reproduction, so that all processing is executed for the audio signal in the area where the processing order is earlier.

S6またはS9の後、リアルタイム再生用信号生成部16により、リアルタイム再生用の音声のミキシングが行われる(S7)。リアルタイム再生用にミキシングされた音声(信号)は、リアルタイム再生用信号として、外部の再生装置19に出力される。なお、リアルタイム再生用信号は、再生装置19に出力せずに、放送用信号として音声信号処理装置10から他の機器に出力(送信)されてもよい。
その後、記憶部15により、入力された各エリアの音声信号の記録が行われる(S8)。
なお、リプレイ再生用の音声信号は、記憶部15のエリアごとの音声信号を用いて作成される。
After S6 or S9, the real-time reproduction signal generation unit 16 mixes the audio for real-time reproduction (S7). The audio (signal) mixed for real-time reproduction is output to an external reproduction device 19 as a real-time reproduction signal. The real-time reproduction signal may be output (transmitted) from the audio signal processing device 10 to another device as a broadcasting signal without being output to the reproduction device 19.
After that, the storage unit 15 records the input audio signal in each area (S8).
The audio signal for replay reproduction is created by using the audio signal for each area of the storage unit 15.

次に、図2(B)を用いて、図2(A)のS9の後に、音声信号処理装置10の負荷が小さくなった場合の処理を説明する。より詳しくは、リアルタイム再生に処理が間に合わなかったために、一部の処理が行われていないエリアの音声信号が記憶部15に記録された後に、音声信号処理装置10の負荷が減少した場合の処理を説明する。一部の処理が行われていない例として、遅延補正処理、ゲイン補正処理およびエコー除去処理を行うべきであったが、エコー除去処理が行われていない場合を説明する。 Next, using FIG. 2B, processing when the load of the audio signal processing device 10 becomes small after S9 in FIG. 2A will be described. More specifically, processing when the load of the audio signal processing device 10 is reduced after the audio signal in the area where some processing is not performed is recorded in the storage unit 15 because the processing was not in time for real-time reproduction. Will be explained. As an example in which some processing is not performed, a case where delay correction processing, gain correction processing, and echo cancellation processing should have been performed, but echo removal processing is not performed will be described.

音声信号処理部14は、音声信号処理装置10の負荷が所定量より小さくなると、処理待ちリストに基づいて記憶部15から未処理状態のエリアの音声信号の読み出しを行う(S11)。このステップは、一部のエリアの信号処理であるので、図2(B)では「一部読み出し」と記載してある。
続いて、音声信号処理部14は、処理待ちリストに記録されている処理(音声信号処理部14において実施されていなかったエコー除去処理)を行う(S12)。本実施形態では、遅延補正処理およびゲイン補正処理は行われているがエコー除去処理が行われていなかったエリアの音声信号に対して、エコー除去処理のみを行う。エコー除去処理が行われた音声信号は、記憶部15へ出力される。
When the load of the audio signal processing device 10 becomes smaller than a predetermined amount, the audio signal processing unit 14 reads out the audio signal in the unprocessed area from the storage unit 15 based on the processing waiting list (S11). Since this step is signal processing in a part of the area, it is described as "partially read" in FIG. 2 (B).
Subsequently, the audio signal processing unit 14 performs the processing recorded in the processing waiting list (echo removal processing that was not performed in the audio signal processing unit 14) (S12). In the present embodiment, only the echo removal processing is performed on the audio signal in the area where the delay correction processing and the gain correction processing are performed but the echo removal processing is not performed. The audio signal subjected to the echo removal processing is output to the storage unit 15.

記憶部15は、入力されたエリアの音声信号を以前のデータ(音声信号)に上書きし記録する(S13)。
図2(C)は、リプレイ再生が要求された場合の処理フローを示している。リプレイ再生が要求されると、リプレイ再生用信号生成部17は、記憶部15からリプレイ時間に対応したエリアごとの音声信号を読み出す(S21)。
続いてリプレイ再生用信号生成部17は、リプレイ再生用の音声信号のミキシングを行う(S22)。リプレイ再生用にミキシングされた音声信号は、再生装置19へ出力されるか放送用信号として他の機器に出力される。
The storage unit 15 overwrites the audio signal in the input area with the previous data (audio signal) and records it (S13).
FIG. 2C shows a processing flow when replay playback is requested. When the replay playback is requested, the replay playback signal generation unit 17 reads out the audio signal for each area corresponding to the replay time from the storage unit 15 (S21).
Subsequently, the replay playback signal generation unit 17 mixes the audio signal for replay playback (S22). The audio signal mixed for replay reproduction is output to the reproduction device 19 or output to another device as a broadcast signal.

(実施形態1の効果)
以上説明したように、本実施形態の音声信号処理装置10は、エリアごとの音声信号に基づいてエリアごとの信号処理順序を制御(設定)することで、重要度(優先度)の高いエリアに対して確実に音声処理を行いリアルタイム放送することができる。より詳しくは、音声信号処理部14における信号処理の処理量が所定量以上である場合、従来の手法では、リアルタイム再生時に音声が欠損する可能性があった。これに対し、本実施形態では、音声信号処理部14における信号処理の処理量が所定量以上である場合、リアルタイム再生に間に合う範囲で、処理順序が早い順に音声信号処理部14による信号処理を全部行って、音声信号を音声再生部に供給している。よって、重要度の高いエリアについてはすべての音声処理を行って、リアルタイム再生されるようにしている。
また、本実施形態では、リアルタイム再生時にはすべての音声処理が間に合わなかったエリア(重要度の低いエリア)に対しても、後にすべての音声処理を行うので、リプレイ再生時には、完全に音声処理された音声信号を使って再生音を生成できる。
(Effect of Embodiment 1)
As described above, the audio signal processing device 10 of the present embodiment controls (sets) the signal processing order for each area based on the audio signal for each area, so that the area has a high importance (priority). On the other hand, audio processing can be reliably performed and real-time broadcasting can be performed. More specifically, when the processing amount of signal processing in the audio signal processing unit 14 is a predetermined amount or more, there is a possibility that the audio may be lost during real-time reproduction in the conventional method. On the other hand, in the present embodiment, when the processing amount of the signal processing by the audio signal processing unit 14 is a predetermined amount or more, all the signal processing by the audio signal processing unit 14 is performed in the order of the earliest processing order within the range in time for real-time reproduction. Then, the audio signal is supplied to the audio reproduction unit. Therefore, all audio processing is performed for areas of high importance so that they can be played back in real time.
Further, in the present embodiment, all the audio processing is performed later even for the area where all the audio processing is not in time during the real-time reproduction (the area with low importance), so that the audio processing is completely performed during the replay reproduction. Playback sounds can be generated using audio signals.

(変形例)
なお、本実施形態においてマイクアレイ11はマイクロホンからなるとしたが、マイクロホンと反射板などの構造物との組み合わせからなってもよい。
またマイクアレイ11で使用するマイクロホンは、無指向性マイクロホンであってもよいし、指向性マイクロホンであってもよいし、それらの組み合わせでもよい。つまり、マイクアレイ11は、少なくとも1つの指向性マイクホンを含んでよい。
本実施形態において音源分離部12はビームフォーミングを用いてエリアごとの音声収音を行ったが、その他の音源分離の手法を用いてもよい。例えばエリアごとのパワースペクトル密度(PSD)を推定し、推定したPSDに基づいてウィナーフィルタによる分離を行ってもよい。PSDは、Power Spectral Densityの略である。
(Modification example)
Although the microphone array 11 is made of a microphone in the present embodiment, it may be made of a combination of the microphone and a structure such as a reflector.
The microphone used in the microphone array 11 may be an omnidirectional microphone, a directional microphone, or a combination thereof. That is, the microphone array 11 may include at least one directional microphone.
In the present embodiment, the sound source separation unit 12 collects sound for each area by using beamforming, but other sound source separation methods may be used. For example, the power spectral density (PSD) for each area may be estimated, and separation by a Wiener filter may be performed based on the estimated PSD. PSD is an abbreviation for Power Spectral Density.

本実施形態において処理順序制御部13は、対象エリアと隣接エリアと比較した場合のマスキングに応じて処理順序を設定したが、処理順序の設定には他の情報・条件を用いてもよい。例えば、イベントの発生するエリアが早く処理されるように設定してもよい。より具体的には、スポーツならゴールの付近が早く処理されるように設定してよいし、街中ならば交差点の付近等多くの人や車が通過する場所が早く処理されるように設定してもよい。あるいは、エリアからの収音により取得した音声信号の特徴に基づいて処理順序を設定してもよい。例えば、音声信号処理装置10は、エリアの収音信号(音声信号)に人の声を表す音声信号が含まれているか否かを判定する手段を備え、人の声の有無に応じて処理順序を早くする(優先する)ようにしてもよい。あるいは、エリアの収音信号(音声信号)のレベル同士を比較し、比較結果に基づいて、レベルの高いエリアの音声信号の処理順序を早くするようにしてもよい。 In the present embodiment, the processing order control unit 13 sets the processing order according to the masking when the target area and the adjacent area are compared with each other, but other information / conditions may be used for setting the processing order. For example, the area where the event occurs may be set to be processed quickly. More specifically, in sports, the area near the goal may be set to be processed quickly, and in the city, the area where many people and cars pass, such as near an intersection, may be set to be processed quickly. May be good. Alternatively, the processing order may be set based on the characteristics of the voice signal acquired by collecting the sound from the area. For example, the audio signal processing device 10 includes means for determining whether or not the sound collection signal (audio signal) in the area includes an audio signal representing a human voice, and the processing order is determined according to the presence or absence of the human voice. May be made faster (priority). Alternatively, the levels of the sound pick-up signals (audio signals) in the area may be compared with each other, and the processing order of the audio signals in the high-level area may be accelerated based on the comparison result.

あるいはリアルタイム再生用信号生成で設定される仮想の聴取点(仮想の聴取者の位置)および仮想の聴取者の向きに応じて処理順序を制御(設定)するようにしてもよい。例えば、仮想の聴取点からの距離が近いエリアの収音信号ほど処理の順序を早くしてもよい。またマスキングの影響を比較する場合、隣接するエリアと比較するのではなく、聴取点と聴取者の向きから所定の角度範囲を設定してその中のエリアに対してマスキングの影響を比較するようにしてもよい。その際、仮想の聴取点からの距離に応じて遅延補正や音量補正を行った後マスキングの比較をするとよい。この場合、音声信号処理装置10は、マイクアレイ11からそれぞれのエリアまでの距離を取得する距離取得部を備える。 Alternatively, the processing order may be controlled (set) according to the virtual listening point (position of the virtual listener) and the orientation of the virtual listener set in the signal generation for real-time reproduction. For example, the order of processing may be earlier for the sound pick-up signal in the area closer to the virtual listening point. When comparing the effects of masking, instead of comparing with adjacent areas, set a predetermined angle range from the listening point and the orientation of the listener, and compare the effects of masking on the area within that range. You may. At that time, it is advisable to compare masking after performing delay correction and volume correction according to the distance from the virtual listening point. In this case, the audio signal processing device 10 includes a distance acquisition unit that acquires the distance from the microphone array 11 to each area.

また本実施形態において処理順序制御部13は複数の処理(遅延補正、ゲイン補正、エコー除去処理など)に対して同一の処理順序を設定した(処理順序は固定されていた)が、収音状況(長距離収音、短距離収音等)に応じて異なる処理順序を設定してもよい。一般に、マイクアレイから収音エリアまでの距離が遠い(長い)ほどエコーの影響が強いと考えられる。したがってマイクアレイから収音エリアまでの距離が遠いときは(長距離収音)、遅延補正処理やゲイン補正処理よりもエコー除去処理の順序を早くするという設定をする。しかしながら、マイクアレイから収音エリアまでの距離が近いときは(短距離収音)、エコー除去処理の処理順序は遅くしてもよい。その場合、エリアに対する遅延補正処理やゲイン補正処理などはエコー除去処理よりも処理順序が早くなるように設定する。さらに上述のような複数の条件に応じて、複合的に処理順序を決定してもよい。
本実施形態において音声信号処理部14は、遅延補正処理、ゲイン補正処理およびエコー除去を行うとしたが、他の処理も行ってもよい。例えば、音声信号処理部14は、エリアごとの雑音除去処理などを行ってもよい。
また、上記した実施形態では、音声信号処理部14の処理量が所定量以上の場合、処理順序の遅いエリアについては一部の処理を行わないという説明をしたが、すべての処理を行わないようにしてもよい。
Further, in the present embodiment, the processing order control unit 13 sets the same processing order for a plurality of processes (delay correction, gain correction, echo removal processing, etc.) (the processing order is fixed), but the sound collection status. Different processing orders may be set according to (long-distance sound collection, short-distance sound collection, etc.). Generally, it is considered that the farther (longer) the distance from the microphone array to the sound collecting area is, the stronger the influence of echo is. Therefore, when the distance from the microphone array to the sound collection area is long (long-distance sound collection), the order of the echo removal processing is set to be earlier than the delay correction processing and the gain correction processing. However, when the distance from the microphone array to the sound collection area is short (short-distance sound collection), the processing order of the echo removal processing may be delayed. In that case, the delay correction processing and the gain correction processing for the area are set so that the processing order is earlier than the echo removal processing. Further, the processing order may be determined in a complex manner according to a plurality of conditions as described above.
In the present embodiment, the audio signal processing unit 14 performs delay correction processing, gain correction processing, and echo cancellation, but other processing may also be performed. For example, the audio signal processing unit 14 may perform noise removal processing for each area.
Further, in the above-described embodiment, when the processing amount of the audio signal processing unit 14 is equal to or greater than a predetermined amount, it has been described that some processing is not performed in the area where the processing order is slow, but all the processing is not performed. It may be.

本実施形態においてリプレイ再生用信号生成部17とリアルタイム再生用信号生成部16は同様の処理(ミキシング)を行うとした。しかしリプレイ再生用信号生成部17とリアルタイム再生用信号生成部16では異なるミキシングをしてもよい。例えば、リアルタイム再生用信号生成部16には音声信号処理部14において処理を行っていない音声が入力される可能性があるため、リアルタイム再生用信号生成部16は、処理の実施済みか否かに応じてミキシングのレベル(クオリティ)を変えてもよい。例えば処理を行っていない音声が入力された場合、アルタイム再生用信号生成部16はミキシングのレベルを下げてもよい。
図1の構成ではマイクアレイ11が音声信号処理装置10に含まれているが、マイクアレイ11は音声信号処理装置10に含まれなくてもよい。その場合、音源分離部12は外部装置であるマイクアレイ11から音声信号を受け取る。
In the present embodiment, the replay reproduction signal generation unit 17 and the real-time reproduction signal generation unit 16 perform the same processing (mixing). However, the replay reproduction signal generation unit 17 and the real-time reproduction signal generation unit 16 may be mixed differently. For example, since there is a possibility that audio that has not been processed by the audio signal processing unit 14 may be input to the real-time reproduction signal generation unit 16, the real-time reproduction signal generation unit 16 determines whether or not the processing has been performed. The level (quality) of mixing may be changed accordingly. For example, when unprocessed audio is input, the signal generation unit 16 for real-time reproduction may lower the mixing level.
In the configuration of FIG. 1, the microphone array 11 is included in the audio signal processing device 10, but the microphone array 11 may not be included in the audio signal processing device 10. In that case, the sound source separation unit 12 receives an audio signal from the microphone array 11 which is an external device.

(ハードウェア構成)
図1に示す機能ブロックの少なくとも一部をハードウェアにより実現してもよい。ハードウェアにより実現する場合、たとえば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。さらに、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。
(Hardware configuration)
At least a part of the functional blocks shown in FIG. 1 may be realized by hardware. When it is realized by hardware, for example, by using a predetermined compiler, a dedicated circuit may be automatically generated on the FPGA from the program for realizing each step. FPGA is an abbreviation for Field Programmable Gate Array. Further, a Gate Array circuit may be formed in the same manner as the FPGA and realized as hardware. Further, it may be realized by an ASIC (Application Specific Integrated Circuit).

図3は音声信号処理装置10のハードウェア構成の一例を示す図である。この例において、音声信号処理装置10は、CPU10a、RAM10b、ROM10c、外部メモリ10d、通信インターフェース(I/F)10e、表示部10f、入力部10g及びマイクアレイ11を有する。CPU10aは、RAM10b、ROM10c、外部メモリ10d等に格納されたプログラムを実行することにより、上記した実施形態1の音声信号処理装置10の各部の機能を実現することができる。音声信号処理装置10は、CPU10aが必要なプログラムを読み出して実行することにより、図2に示す各処理を実現することができる。通信I/F10eは、外部の装置や機器との通信を行うインターフェースである。音声信号処理装置10は、通信I/F10eを介して、図1の再生装置19と通信することができる。表示部10fは、各種ディスプレイにより構成することができる。表示部10fは、例えば、音源分離処理の分離状況を表示することができる。入力部10gは、キーボード、ポインティングデバイス(マウスなど)、タッチパネルおよび各種スイッチにより構成することができる。ユーザは、入力部10gを用いて、音声信号処理装置10にリプレイ再生を要求することができる。なお、音声信号処理装置10は、エリア内に存在する被写体の撮像を行う撮像部をさらに備えてもよい。 FIG. 3 is a diagram showing an example of the hardware configuration of the audio signal processing device 10. In this example, the audio signal processing device 10 includes a CPU 10a, a RAM 10b, a ROM 10c, an external memory 10d, a communication interface (I / F) 10e, a display unit 10f, an input unit 10g, and a microphone array 11. The CPU 10a can realize the functions of each part of the audio signal processing device 10 of the first embodiment described above by executing a program stored in the RAM 10b, the ROM 10c, the external memory 10d, or the like. The audio signal processing device 10 can realize each process shown in FIG. 2 by reading and executing a program required by the CPU 10a. The communication I / F10e is an interface for communicating with an external device or device. The audio signal processing device 10 can communicate with the playback device 19 of FIG. 1 via the communication I / F 10e. The display unit 10f can be configured by various displays. The display unit 10f can display, for example, the separation status of the sound source separation process. The input unit 10g can be composed of a keyboard, a pointing device (mouse or the like), a touch panel, and various switches. The user can request the audio signal processing device 10 to perform replay reproduction using the input unit 10g. The audio signal processing device 10 may further include an imaging unit that captures an image of a subject existing in the area.

実施形態2
実施形態1ではマイクアレイ11と音声信号処理部14とリアルタイム再生用信号生成部16とリプレイ再生用信号生成部17とが1つの装置10に含まれる構成を説明したが、本発明はこのような構成に限定されない。例えば、マイクアレイと音声信号処理部とを1つの装置に含むようにし、再生用信号生成部は当該装置から分離した構成(システム)でも実施することができる。また、マイクアレイは指向性マイクアレイを採用してもよい。指向性マイクアレイで収音した音声の音声信号は、直ちに、音声信号処理部で処理してもよい。このような構成を有する音声信号処理システムを、実施形態2として説明する。なお、実施形態1と同様な構成部には同じ参照符号を付ける。
Embodiment 2
In the first embodiment, the configuration in which the microphone array 11, the audio signal processing unit 14, the real-time reproduction signal generation unit 16, and the replay reproduction signal generation unit 17 are included in one device 10 has been described. It is not limited to the configuration. For example, the microphone array and the audio signal processing unit may be included in one device, and the reproduction signal generation unit may be implemented in a configuration (system) separated from the device. Further, the microphone array may adopt a directional microphone array. The voice signal of the voice picked up by the directional microphone array may be immediately processed by the voice signal processing unit. An audio signal processing system having such a configuration will be described as the second embodiment. The same reference numerals are given to the same components as in the first embodiment.

(音声信号処理システム20の構成)
図4は実施形態2の音声信号処理システム20の構成を示すブロック図である。音声信号処理システム20は、収音処理部20aと再生信号生成部20bとを有する。収音処理部20aと再生信号生成部20bは、有線もしくは無線で相互接続されており、互いに有線通信手段もしくは無線通信手段によってデータの送受信を行う。
収音処理部20aは、指向性マイクアレイ21、音声信号処理部22、伝送順序(送信順序)制御部23、送信部24および第1記憶部25を有する。第1記憶部25は未送信リストを保持している。収音処理部20aの各構成部は、バス18aにより相互接続されている。
(Configuration of audio signal processing system 20)
FIG. 4 is a block diagram showing the configuration of the audio signal processing system 20 of the second embodiment. The audio signal processing system 20 includes a sound collection processing unit 20a and a reproduction signal generation unit 20b. The sound collection processing unit 20a and the reproduction signal generation unit 20b are interconnected by wire or wirelessly, and data is transmitted to and received from each other by a wired communication means or a wireless communication means.
The sound collection processing unit 20a includes a directional microphone array 21, an audio signal processing unit 22, a transmission order (transmission order) control unit 23, a transmission unit 24, and a first storage unit 25. The first storage unit 25 holds an untransmitted list. Each component of the sound collecting processing unit 20a is interconnected by a bus 18a.

指向性マイクアレイ21は、例えば複数のショットガンマイクなどからなり、空間をN(N>1)のエリアに分割した各エリアの音声を収音するように配置される。収音したエリアごとの音声は、A/D変換されたのち、所定の時間フレームサイズごとに音声信号処理部22へ出力される。
音声信号処理部22は、実施形態1の音声信号処理部14のように遅延補正処理、ゲイン補正処理、雑音除去処理およびエコー除去処理などを行う。処理を行ったエリアごとの音声信号は、音声信号処理部22から伝送順序制御部23へ出力される。
The directional microphone array 21 is composed of, for example, a plurality of shotgun microphones, and is arranged so as to pick up the sound of each area in which the space is divided into N (N> 1) areas. The sound collected for each area is A / D converted and then output to the voice signal processing unit 22 for each predetermined time frame size.
The audio signal processing unit 22 performs delay correction processing, gain correction processing, noise removal processing, echo removal processing, and the like, as in the audio signal processing unit 14 of the first embodiment. The audio signal for each processed area is output from the audio signal processing unit 22 to the transmission sequence control unit 23.

伝送順序制御部23は、実施形態1の処理順序制御部13と同様に、エリアの音声のマスキングの影響や、エリアの音声のレベル(大小)、エリアの音声の特徴量、エリアの音声の定常性などから伝送順序を制御(設定)する。伝送順序制御部23は、たとえば、時間tおよびエリアaにおける音声信号S(t,a)の非定常性を判定する。所定の時間区間内に非定常音が発生している場合、伝送順序制御部23は、そのエリアにおいて重要なイベントが発生している可能性が高いと判断し、非定常音の頻度が大きい順に伝送を行うように伝送順序を設定する。つまり、非定常音の頻度が大きいエリアは重要度(優先度)が高いエリアであると考える。本実施形態の伝送順序制御部23は、非定常音の頻度の大きさという所定の条件に基づいて、複数のエリアについて優先度を決め、優先度の高いエリアの伝送順序を早くし(優先し)、優先度の低いエリアの伝送順序を遅くするという設定をする。 Similar to the processing sequence control unit 13 of the first embodiment, the transmission sequence control unit 23 has the influence of masking of the area voice, the level of the area sound (large and small), the feature amount of the area sound, and the steady state of the area sound. Control (set) the transmission order based on gender. The transmission sequence control unit 23 determines, for example, the non-stationarity of the audio signal S (t, a) in the time t and the area a. When the non-stationary sound is generated within a predetermined time interval, the transmission sequence control unit 23 determines that there is a high possibility that an important event has occurred in the area, and the frequency of the non-stationary sound is in descending order. Set the transmission order to perform transmission. In other words, the area where the frequency of non-stationary sounds is high is considered to be the area with high importance (priority). The transmission order control unit 23 of the present embodiment determines the priority for a plurality of areas based on a predetermined condition of the frequency of non-stationary sounds, and accelerates (prioritizes) the transmission order of the high priority area. ), Set to slow down the transmission order in low priority areas.

さらに、伝送順序制御部23は、収音処理部20aと再生信号生成部20bとの間の信号伝送量と、設定された伝送順序(音声信号送信の順序)とに基づいて、音声信号S(t,a)がリアルタイム再生(放送)に間に合うか否かをエリアごとに判定する。この判定は、例えば、収音処理部20aと再生信号生成部20bとの間の信号伝送量が所定量以上いか否かにより行われる。リアルタイム再生に間に合うと判定されたエリアの音声信号は、伝送順序制御部23から送信部24へ出力される。一方、間に合わないと判定されたエリアの音声信号(信号伝送量が所定量以上の場合であって、伝送順序が遅いエリアの音声信号)は、伝送順序制御部23から第1記憶部25へ出力される。送信されなかった音声データは、第1記憶部25内の未送信リストで管理(記憶)される。つまり、送信部24からの音声信号の送信量が所定量以上である場合、送信順序が遅いエリアについては、送信部24による送信を行わないようにしている。 Further, the transmission order control unit 23 determines the voice signal S (order of voice signal transmission) based on the signal transmission amount between the sound collection processing unit 20a and the reproduction signal generation unit 20b and the set transmission order (order of voice signal transmission). Whether or not t and a) are in time for real-time playback (broadcasting) is determined for each area. This determination is performed, for example, by whether or not the amount of signal transmission between the sound collection processing unit 20a and the reproduction signal generation unit 20b is equal to or greater than a predetermined amount. The audio signal in the area determined to be in time for real-time reproduction is output from the transmission sequence control unit 23 to the transmission unit 24. On the other hand, the audio signal in the area determined to be in time (the audio signal in the area where the signal transmission amount is a predetermined amount or more and the transmission order is slow) is output from the transmission order control unit 23 to the first storage unit 25. Will be done. The voice data that has not been transmitted is managed (stored) in the untransmitted list in the first storage unit 25. That is, when the transmission amount of the audio signal from the transmission unit 24 is equal to or more than a predetermined amount, the transmission unit 24 does not transmit in the area where the transmission order is slow.

収音処理部20aと再生信号生成部20bとの信号伝送量が所定量よりも小さくなると、伝送順序制御部23は、第1記憶部25に記憶された未送信のエリアの音声信号を読み出し、送信部24へ出力する。
送信部24は、伝送順序制御部23から入力されたエリアごとの音声信号を再生信号生成部20bへ順次送信する。再生信号生成部20bは音声再生部と称することができる。
再生信号生成部20bは、受信部26、リアルタイム再生用信号生成部27、第2記憶部28およびリプレイ再生用信号生成部29を有する。再生信号生成部20bの各構成部は、バス18bにより相互接続されている。
受信部26は、送信部24から出力された音声信号を受信し、音声信号をリアルタイム再生用信号生成部27および第2記憶部28へ出力する。
リアルタイム再生用信号生成部27、第2記憶部28およびリプレイ再生用信号生成部29は、実施形態1のリアルタイム再生用信号生成部16、記憶部15およびリプレイ再生用信号生成部17とほぼ同様の機能を有するので、説明を省略する。
When the signal transmission amount between the sound collection processing unit 20a and the reproduction signal generation unit 20b becomes smaller than a predetermined amount, the transmission sequence control unit 23 reads out the audio signal in the untransmitted area stored in the first storage unit 25. Output to the transmitter 24.
The transmission unit 24 sequentially transmits the audio signals for each area input from the transmission order control unit 23 to the reproduction signal generation unit 20b. The reproduction signal generation unit 20b can be referred to as an audio reproduction unit.
The reproduction signal generation unit 20b includes a reception unit 26, a real-time reproduction signal generation unit 27, a second storage unit 28, and a replay reproduction signal generation unit 29. Each component of the reproduction signal generation unit 20b is interconnected by a bus 18b.
The receiving unit 26 receives the audio signal output from the transmitting unit 24, and outputs the audio signal to the real-time reproduction signal generation unit 27 and the second storage unit 28.
The real-time reproduction signal generation unit 27, the second storage unit 28, and the replay reproduction signal generation unit 29 are substantially the same as the real-time reproduction signal generation unit 16, the storage unit 15, and the replay reproduction signal generation unit 17 of the first embodiment. Since it has a function, the description thereof will be omitted.

(音声信号処理システム20の処理フロー)
次に、音声信号処理システム20の処理フローを、図5(A)から図5(C)を参照して説明する。
図5(A)に示すように、はじめに、指向性マイクアレイ21において空間内の音の収音が行われる(S31)。収音された各エリアの音声の音声信号は、指向性マイクアレイ21から音声信号処理部22へ出力される。
入力された音声信号に対して、音声信号処理部22は遅延補正などの処理を行う(S32)。処理された音声信号は、音声信号処理部22から伝送順序制御部23へ出力される。
(Processing flow of audio signal processing system 20)
Next, the processing flow of the audio signal processing system 20 will be described with reference to FIGS. 5 (A) to 5 (C).
As shown in FIG. 5A, first, the directional microphone array 21 picks up the sound in the space (S31). The voice signal of the voice of each area collected is output from the directional microphone array 21 to the voice signal processing unit 22.
The audio signal processing unit 22 performs processing such as delay correction on the input audio signal (S32). The processed audio signal is output from the audio signal processing unit 22 to the transmission sequence control unit 23.

伝送順序制御部23は、入力された処理済み音声信号を用いてエリアごとの音声の非定常性の検出(検知)を行う(S33)。つまり、伝送順序制御部23において、エリアごとの音声信号に非定常音を表す音声信号が含まれているか否かを検知する非定常音検知が行われる。
また、伝送順序制御部23は、S33の非定常音検知の結果に応じて伝送順序を設定する(S34)。伝送順序制御部23は、例えば、非定常音が検知されたエリアについて伝送順序が早くなるよう(優先されるよう)にエリアごとの音声信号の伝送順序を設定する。
さらに、伝送順序制御部23は、処理済の音声信号の伝送がリアルタイム再生に間に合うかの判定(S35)を行う。より詳しくは、エリアごとの(に)順番が設定されたデータ(音声信号)について、伝送順序制御部23は、送信部24と受信部26との間の通信負荷状態に応じて、音声信号の伝送完了までの時間を推定し、リアルタイム再生に間に合うか否かを判定する。判定結果に基づいて、リアルタイム再生に間に合うと判定された場合、当該エリアの音声データ(音声信号)は伝送順序制御部23から送信部24へ出力される。そして、送信部24は、エリアの音声データを受信部26に送信する(S36)。
The transmission sequence control unit 23 detects (detects) the non-stationarity of the voice for each area using the input processed voice signal (S33). That is, the transmission sequence control unit 23 performs non-steady sound detection for detecting whether or not the voice signal for each area includes a voice signal representing a non-stationary sound.
Further, the transmission order control unit 23 sets the transmission order according to the result of the non-stationary sound detection in S33 (S34). For example, the transmission order control unit 23 sets the transmission order of the audio signals for each area so that the transmission order is faster (priority) for the area where the non-stationary sound is detected.
Further, the transmission order control unit 23 determines (S35) whether the transmission of the processed audio signal is in time for real-time reproduction. More specifically, with respect to the data (voice signal) in which the order is set for each area, the transmission order control unit 23 determines the voice signal according to the communication load state between the transmission unit 24 and the reception unit 26. Estimate the time until the transmission is completed, and determine whether or not it is in time for real-time playback. When it is determined based on the determination result that the real-time reproduction is in time, the audio data (audio signal) in the area is output from the transmission order control unit 23 to the transmission unit 24. Then, the transmission unit 24 transmits the voice data of the area to the reception unit 26 (S36).

受信部26は、送信部24から送信されたエリアの音声信号を受信する(S37)。受信されたエリアの音声信号は、受信部26からリアルタイム再生用信号生成部27および第2記憶部28へ出力される。
S38およびS39は、実施形態1のS17およびS18(図2)と同様のため、説明は省略する。
一方、S35において処理済の音声信号の伝送(音声信号送信)がリアルタイム再生に間に合わないと判定された場合、当該エリアの音声データ(音声信号)は、伝送順序制御部23から第1記憶部25へ出力され、第1記憶部25に記録される(S40)。音声データは、第1記憶部25において、処理フレーム番号(もしくは時間)、どのエリアの音であるか等が分かるように記録される。つまり第1記憶部25内で、音声データは所定の情報と紐づけられて記録(記憶)される。
The receiving unit 26 receives the audio signal of the area transmitted from the transmitting unit 24 (S37). The audio signal in the received area is output from the receiving unit 26 to the real-time reproduction signal generation unit 27 and the second storage unit 28.
Since S38 and S39 are the same as S17 and S18 (FIG. 2) of the first embodiment, the description thereof will be omitted.
On the other hand, when it is determined in S35 that the transmission of the processed audio signal (audio signal transmission) is not in time for real-time reproduction, the audio data (audio signal) in the area is transmitted from the transmission order control unit 23 to the first storage unit 25. Is output to and recorded in the first storage unit 25 (S40). The voice data is recorded in the first storage unit 25 so that the processing frame number (or time), the area of the sound, and the like can be known. That is, in the first storage unit 25, the voice data is recorded (stored) in association with predetermined information.

次に、図5(A)のステップS35において処理音声伝送がリアルタイム再生に間に合わなかった場合で、当該エリアの音声信号が第1記憶部25に記録された場合の処理を図5(B)に基づいて説明する。
伝送順序制御部23は、送信部24と受信部26との間の伝送負荷が所定量より小さくなると、第1記憶部25から未送信のエリアの音声信号の読み出しを行う(S41)。読み出しは、音声信号のフレーム番号の小さいものから行う。つまり、読み出しは、より古い時間の音声信号から行う。読み出された音声信号は、伝送順序制御部23から送信部24へ出力される。
S42はS36と同様のため説明を省略する。
S42の後、受信部26において音声データを受信する(S43)。受信した音声データは、受信部26から第2記憶部28に出力される。
S44はS39と同様のため説明を省略する。
リプレイ再生が要求された場合の処理フローは図5(C)に示されている。この処理フローのS51とS52は実施形態1のS21とS22(図2(C))と同様のため説明を省略する。
Next, in step S35 of FIG. 5 (A), when the processed voice transmission is not in time for real-time reproduction, the processing when the voice signal in the area is recorded in the first storage unit 25 is shown in FIG. 5 (B). It will be explained based on.
When the transmission load between the transmission unit 24 and the reception unit 26 becomes smaller than a predetermined amount, the transmission sequence control unit 23 reads out the audio signal in the untransmitted area from the first storage unit 25 (S41). The reading is performed from the one with the smallest frame number of the audio signal. That is, the reading is performed from the audio signal of the older time. The read audio signal is output from the transmission sequence control unit 23 to the transmission unit 24.
Since S42 is the same as S36, the description thereof will be omitted.
After S42, the receiving unit 26 receives the voice data (S43). The received voice data is output from the receiving unit 26 to the second storage unit 28.
Since S44 is the same as S39, the description thereof will be omitted.
The processing flow when the replay reproduction is requested is shown in FIG. 5 (C). Since S51 and S52 of this processing flow are the same as S21 and S22 (FIG. 2C) of the first embodiment, description thereof will be omitted.

(実施形態2の効果)
以上説明したように、実施形態2では、エリアごとの音声信号の非定常性(非定常音の発生頻度)に基づいて音声信号の伝送順序を制御・設定することで、より重要度の高いエリアに対して、確実に音声処理を行った音声信号でリアルタイム放送することができる。より詳しくは、送信部24から受信部26への信号送信量が所定量以上である場合、従来の手法ではリアルタイム再生時に音声が欠損する可能性がある。これに対し、本実施形態では、リアルタイム再生に間に合う範囲で、設定された送信順序に従って音声信号を送信部24から送信している。そして、送信順序が遅いエリアについては送信部24による送信を行わないようにしている。よって、重要度の高いエリア(送信順序が早いエリア)については、確実に音声信号が受信部26により受信されてリアルタイム再生用信号生成部27に届くようになっている。このように、実施形態2の信号処理システム20では、重要度の高い音声信号はリアルタイム再生に間に合うように音声再生部に送信される。
また、本実施形態では、リアルタイム再生には伝送(送信)が間に合わなかったエリア(重要度の低いエリア)に対しても、後に音声信号を受信部26に送信するので、リプレイ再生時には、すべてのエリアの音声信号音を使って再生音を生成できる。
(Effect of Embodiment 2)
As described above, in the second embodiment, the area of higher importance is obtained by controlling and setting the transmission order of the audio signals based on the non-stationarity of the audio signals (frequency of non-stationary sounds) for each area. On the other hand, it is possible to broadcast in real time with an audio signal that has been reliably processed by audio. More specifically, when the amount of signal transmitted from the transmitting unit 24 to the receiving unit 26 is a predetermined amount or more, there is a possibility that audio may be lost during real-time reproduction in the conventional method. On the other hand, in the present embodiment, the audio signal is transmitted from the transmission unit 24 according to the set transmission order within the range in time for real-time reproduction. Then, the transmission unit 24 does not transmit in the area where the transmission order is late. Therefore, in the area of high importance (the area where the transmission order is early), the voice signal is surely received by the receiving unit 26 and reaches the real-time reproduction signal generation unit 27. As described above, in the signal processing system 20 of the second embodiment, the highly important audio signal is transmitted to the audio reproduction unit in time for real-time reproduction.
Further, in the present embodiment, since the audio signal is later transmitted to the receiving unit 26 even in the area where the transmission (transmission) is not in time for the real-time reproduction (the area of low importance), all the areas during the replay reproduction are performed. Playback sounds can be generated using the audio signal sounds of the area.

(変形例)
なお、実施形態2ではエリアごとの音声の収音には指向性マイクアレイ21を用いたが、実施形態1のようにマイクアレイを用いて収音した後、音源分離を行ってもよい。また、無指向性のマイクロホンを、設定したエリアそれぞれの略中心に配置して音声を取得するようにしてもよい。
図4の構成では指向性マイクアレイ21が収音処理部20aに含まれているが、指向性マイクアレイ21は収音処理部20aに含まれなくてもよい。その場合、音声信号処理部22は外部装置である指向性マイクアレイ21から音声信号を受け取る。
(Modification example)
In the second embodiment, the directional microphone array 21 is used for collecting the sound for each area, but the sound source may be separated after the sound is collected by using the microphone array as in the first embodiment. Further, the omnidirectional microphone may be arranged at the substantially center of each of the set areas to acquire the sound.
In the configuration of FIG. 4, the directional microphone array 21 is included in the sound collecting processing unit 20a, but the directional microphone array 21 may not be included in the sound collecting processing unit 20a. In that case, the audio signal processing unit 22 receives the audio signal from the directional microphone array 21 which is an external device.

実施形態3
実施形態1では音声信号のみを処理する音声信号処理装置を説明したが、本発明は音声信号と映像信号を処理するシステムでも実施することができる。音声信号処理と映像信号処理が可能なシステムを、撮影処理システムと称して、以下に説明する。なお、本実施形態の撮影処理システムは音声映像出力システムと称することもできる。また、実施形態1と同様な構成部には同じ参照符号を付ける。
図6は撮影処理システム30の構成を示すブロック図である。撮影処理システム30は、音声収音制御装置30aと映像撮影制御装置30bとを有する。音声収音制御装置30aと映像撮影制御装置30bは、バス18により相互接続されている。
音声収音制御装置30aは、マイクアレイ31、分離順序制御部32、音源分離部33、記憶部34、リアルタイム再生用信号生成部35、リプレイ再生用信号生成部36および分離状況表示部37を有する。音声収音制御装置30aの各構成部は、バス18により相互接続されている。
マイクアレイ31は実施形態1のマイクアレイ11と同様であるので、マイクアレイ31の説明は省略する。
Embodiment 3
Although the audio signal processing device that processes only audio signals has been described in the first embodiment, the present invention can also be implemented in a system that processes audio signals and video signals. A system capable of audio signal processing and video signal processing is referred to as a shooting processing system and will be described below. The shooting processing system of the present embodiment can also be referred to as an audio / video output system. Further, the same reference numerals are given to the same components as in the first embodiment.
FIG. 6 is a block diagram showing the configuration of the photographing processing system 30. The photographing processing system 30 includes an audio sound picking control device 30a and a video photographing control device 30b. The audio sound collection control device 30a and the video capture control device 30b are interconnected by a bus 18.
The audio sound collection control device 30a includes a microphone array 31, a separation order control unit 32, a sound source separation unit 33, a storage unit 34, a real-time reproduction signal generation unit 35, a replay reproduction signal generation unit 36, and a separation status display unit 37. .. Each component of the voice pick-up control device 30a is interconnected by a bus 18.
Since the microphone array 31 is the same as the microphone array 11 of the first embodiment, the description of the microphone array 31 will be omitted.

分離順序制御部32は、後述する撮像部41が撮像した映像を複数のエリア(例えば、エリアA、B、C、…)に分割し、分割したエリア内に例えば人、車、楽器のような音源となりうる被写体があるか否かを判定する。判定結果に基づいて、分離順序制御部32は、音源分離処理の処理順序を設定する。より詳しくは、エリア内に音源となりうる被写体があった場合、分離順序制御部32は、当該エリアの音源分離処理の処理順序(順番)を早くするように設定する。エリア内に音源となりうる被写体が複数ある場合(例えば、エリア内に人が複数人いる場合)、分離順序制御部32は、被写体の数に応じて音源分離処理の処理順序を早くするように設定する。例えば、エリアAに1人の被写体がいて、エリアBに5人の被写体がいた場合、エリアBの音源分離処理がエリアAの音源分離処理より早くなるように処理順序を設定する。つまり、被写体の数が多いエリアは、音源候補となる物体(者・物)が多いので、重要度(優先度)の高いエリアであると考える。本実施形態の分離順序制御部32は、所定の条件に基づいて、複数のエリアについて優先度を決め、優先度の高いエリアの分離順序を早くし、優先度の低いエリアの分離順序を遅くするという設定をする。 The separation order control unit 32 divides the image captured by the image pickup unit 41 described later into a plurality of areas (for example, areas A, B, C, ...), And within the divided areas, for example, a person, a car, a musical instrument, etc. Determine if there is a subject that can be a sound source. Based on the determination result, the separation order control unit 32 sets the processing order of the sound source separation processing. More specifically, when there is a subject that can be a sound source in the area, the separation order control unit 32 is set to speed up the processing order (order) of the sound source separation processing in the area. When there are a plurality of subjects that can be sound sources in the area (for example, when there are a plurality of people in the area), the separation order control unit 32 is set to speed up the processing order of the sound source separation processing according to the number of subjects. To do. For example, when there is one subject in the area A and five subjects in the area B, the processing order is set so that the sound source separation process in the area B is faster than the sound source separation process in the area A. In other words, an area with a large number of subjects is considered to be an area with high importance (priority) because there are many objects (persons / objects) that are candidates for sound sources. The separation order control unit 32 of the present embodiment determines the priority for a plurality of areas based on a predetermined condition, accelerates the separation order of the high priority area, and delays the separation order of the low priority area. Make the settings.

また、分離順序制御部32は、後述するリプレイ設定部44においてリプレイ再生が設定されると、リプレイ再生(放送)の開始時刻、終了時刻、リプレイ放送までの残り時間、リプレイでの視点(カメラの向き)などをリプレイ設定部44から受信する。そして、受信した情報に基づいて、分離順序制御部32は、音源分離処理の処理順序を再設定する。より詳しくは、分離順序制御部32は、後述する未分離リストを参照し、リプレイ開始からリプレイ終了までの間の未分離エリアを抽出する。そして、抽出されたエリアの音源分離処理順序が早くなる(優先される)ように音源分離処理の処理順序を再設定する。なお、リプレイ再生が設定された時点においてもリアルタイム再生のための音源分離処理が行われている場合は、リプレイ再生の処理はリアルタイム再生の処理を邪魔しないように実行される。そのため、リプレイ再生が設定された場合のリプレイ再生処理とリアルタイム再生処理の割合を、予め設定しておいてもよい。例えば、リプレイ再生が設定された場合、リアルタイム再生処理は全エリアのうち処理優先順位の80%に対して実行され、残りの時間はリプレイ再生処理に充てる(リプレイ再生処理は、残りの20%に対して実行される)ようにしてもよい。 Further, when the replay playback is set in the replay setting unit 44 described later, the separation order control unit 32 sets the start time and end time of the replay playback (broadcast), the remaining time until the replay broadcast, and the viewpoint in the replay (of the camera). Orientation) and the like are received from the replay setting unit 44. Then, based on the received information, the separation order control unit 32 resets the processing order of the sound source separation processing. More specifically, the separation order control unit 32 refers to the unseparated list described later and extracts the unseparated area from the start of the replay to the end of the replay. Then, the processing order of the sound source separation processing is reset so that the sound source separation processing order of the extracted area becomes faster (priority). If the sound source separation process for real-time playback is performed even when the replay playback is set, the replay playback process is executed so as not to interfere with the real-time playback process. Therefore, the ratio of the replay playback process and the real-time playback process when the replay playback is set may be set in advance. For example, when replay playback is set, real-time playback processing is executed for 80% of the processing priority in all areas, and the remaining time is allocated to replay playback processing (replay playback processing is for the remaining 20%). It may be executed against).

分離順序制御部32は、設定した音源分離処理の処理順序の情報を音源分離部33および分離状況表示部37へ出力する。
音源分離部33は、分離順序制御部32から入力された処理順序に従って音源分離処理を行う。音源分離処理の内容は、実施形態1と同様であるため説明を省略する。本実施形態の音源分離部33は、さらに、音源分離処理の処理量(負荷状態)を監視し、指定された順序どおりにエリアの音声(音源)の分離処理を行い、全エリアの音源分離処理がリアルタイム再生に間に合うかを判定する。リアルタイム再生に間に合わないと判定した場合、音源分離部33は、一部の音声信号の音源分離処理を行わず、当該音声信号に関する情報を未分離リストとして分離順序制御部32へ出力する。より詳しくは、リアルタイム再生に間に合う範囲で、処理順序の早い順に(重要度の高い順に)音源分離処理を行い、処理順序の遅いエリアについては音源分離処理を行わない。未分離リストには音源分離処理しなかった音声信号のエリアや時間などの情報(時間情報は処理フレーム番号などの時間に対応する情報でもよい)が記録される。音源分離処理された音声信号は、音源分離部33からリアルタイム再生用信号生成部35および記憶部34へ出力される。
The separation order control unit 32 outputs the processing order information of the set sound source separation process to the sound source separation unit 33 and the separation status display unit 37.
The sound source separation unit 33 performs sound source separation processing according to the processing order input from the separation order control unit 32. Since the content of the sound source separation process is the same as that of the first embodiment, the description thereof will be omitted. The sound source separation unit 33 of the present embodiment further monitors the processing amount (load state) of the sound source separation processing, performs the sound source separation processing of the area in the designated order, and performs the sound source separation processing of the entire area. Determines if is in time for real-time playback. When it is determined that the real-time reproduction is not in time, the sound source separation unit 33 does not perform the sound source separation processing of some audio signals, and outputs information about the audio signals as an unseparated list to the separation order control unit 32. More specifically, the sound source separation processing is performed in the order of earliest processing order (in descending order of importance) within the range in time for real-time playback, and the sound source separation processing is not performed in the area where the processing order is late. Information such as the area and time of the audio signal that has not been separated from the sound source is recorded in the unseparated list (the time information may be information corresponding to the time such as the processing frame number). The sound source separation processed audio signal is output from the sound source separation unit 33 to the real-time reproduction signal generation unit 35 and the storage unit 34.

未分離リストの音声については、音源分離処理の負荷が所定値よりも低くなった時点で、未分離リストに記録されている情報により特定される音声信号が、記憶部34から音源分離部33によって読み出される。音源分離部33は、当該音声信号を分離処理し、再度、記憶部34へ出力(記録)する。音源分離処理が実行された音声信号のエリアおよび時間の情報は、未分離リストから削除される。
記憶部34は、マイクアレイ31に接続されており、マイクアレイ31が収音した全てのチャンネルの音声は、記憶部34に記録される。また記憶部34は、音源分離部33にも接続されており、音源分離部33で分離された音声信号はエリアおよび時間と対応づけられて記憶部34に記録される。
Regarding the voice of the unseparated list, when the load of the sound source separation processing becomes lower than the predetermined value, the voice signal specified by the information recorded in the unseparated list is transmitted from the storage unit 34 to the sound source separation unit 33. Read out. The sound source separation unit 33 separates and processes the audio signal, and outputs (records) it to the storage unit 34 again. The area and time information of the audio signal for which the sound source separation process has been executed is deleted from the unseparated list.
The storage unit 34 is connected to the microphone array 31, and the sounds of all the channels collected by the microphone array 31 are recorded in the storage unit 34. The storage unit 34 is also connected to the sound source separation unit 33, and the audio signal separated by the sound source separation unit 33 is recorded in the storage unit 34 in association with the area and time.

リアルタイム再生用信号生成部35は、後述するリアルタイム視点切替部43からの視点(カメラの向き)切替に応じた音声信号を生成し、当該音声信号を再生装置19aへ出力する。本実施形態の再生装置19aは、音声の再生と映像の再生を行うことができる。
リプレイ再生用信号生成部36は、後述するリプレイ設定部44からの視点およびリプレイの開始時刻と終了時刻に応じて、記憶部34から該当する時間のエリアごとの分離音声信号を取得する。そして、リプレイ再生用信号生成部36は、当該分離音声信号をリプレイ再生音声信号として、再生装置19aに出力する。
The real-time reproduction signal generation unit 35 generates an audio signal according to the viewpoint (camera orientation) switching from the real-time viewpoint switching unit 43 described later, and outputs the audio signal to the reproduction device 19a. The playback device 19a of the present embodiment can reproduce audio and video.
The replay reproduction signal generation unit 36 acquires a separated audio signal for each area of the corresponding time from the storage unit 34 according to the viewpoint from the replay setting unit 44 described later and the start time and end time of the replay. Then, the replay reproduction signal generation unit 36 outputs the separated audio signal as a replay reproduction audio signal to the reproduction device 19a.

分離状況表示部37は表示装置であり、分離順序制御部32に接続されており、未分離リストから時間ごとのエリアの音声の分離状況を表示する。図7(A)は、分離状況表示部37の表示画面60の一例を示している。表示画面60は、タイムバー61、タイムカーソル62、分離終了割合表示63、全体エリア表示64、未分離エリア65および分離済みエリア66を有する。
タイムバー61は、現在までの録音時間を表すバーで、タイムカーソル62の位置が表示画面の時間を表す。分離終了割合表示63は、全エリア中何割のエリアの分離処理が終了しているか表示する。図7(A)の例ではエリアは40個あり、その中、20個のエリアの分離処理が終了しているため、分離終了割合表示63は50%となっている。全体エリア表示64は、対象としているエリア全体を示す。
全体エリア表示64内の小さな四角がエリア分割を表しており、分離処理が終わっていないエリアは白いエリア(未分離エリア)65として表示され、分離処理が終わっているエリアは黒いエリア(分離済みエリア)66として表示されている。未分離エリア65と分離済みエリア66は、違いが分かる形で表示する。
The separation status display unit 37 is a display device, which is connected to the separation order control unit 32, and displays the audio separation status of each time area from the unseparated list. FIG. 7A shows an example of the display screen 60 of the separation status display unit 37. The display screen 60 includes a time bar 61, a time cursor 62, a separation end ratio display 63, an overall area display 64, an unseparated area 65, and a separated area 66.
The time bar 61 is a bar showing the recording time up to the present, and the position of the time cursor 62 represents the time on the display screen. The separation end ratio display 63 displays what percentage of the total area the separation process has been completed. In the example of FIG. 7A, there are 40 areas, and since the separation processing of 20 areas has been completed, the separation end ratio display 63 is 50%. The whole area display 64 shows the whole target area.
The small square in the whole area display 64 represents the area division, the area where the separation process has not been completed is displayed as a white area (unseparated area) 65, and the area where the separation process has been completed is a black area (separated area). ) 66 is displayed. The unseparated area 65 and the separated area 66 are displayed so that the difference can be seen.

映像撮影制御装置30bは、撮像部41、画像記憶部42、リアルタイム視点切替部43およびリプレイ設定部44を有する。映像撮影制御装置30bの各構成部は、バス18により相互接続されている。
撮像部41は、複数のカメラ(図示せず)を有する。各カメラは、動画を撮影(撮像)することができる。撮像部41は、マイクアレイ31で収音する全てのエリア含む空間を撮像する。撮像した映像(画像)は、撮像部41から画像記憶部42へ出力される。
画像記憶部42は、記憶装置であり、撮影した全カメラ分の画像を記録(記憶)する。
The video capture control device 30b includes an imaging unit 41, an image storage unit 42, a real-time viewpoint switching unit 43, and a replay setting unit 44. Each component of the video capture control device 30b is interconnected by a bus 18.
The imaging unit 41 has a plurality of cameras (not shown). Each camera can shoot (capture) a moving image. The image pickup unit 41 takes an image of the space including the entire area where the sound is collected by the microphone array 31. The captured image (image) is output from the imaging unit 41 to the image storage unit 42.
The image storage unit 42 is a storage device, and records (stores) images taken by all the cameras.

リアルタイム視点切替部43は、例えば撮像部41の複数台のカメラを切り替えるスイッチャーであり、切り替えた(選択された)カメラの映像をリアルタイム映像出力として再生装置19aへ出力する。また、リアルタイム視点切替部43は、切り替えたカメラの視点情報をリアルタイム再生用信号生成部35へ出力する。
リプレイ設定部44は、リプレイの開始時刻、リプレイの終了時刻、リプレイを放送する時刻、リプレイの映像視点などを設定する。リプレイ設定部44は、設定した情報に基づいて画像記憶部42から映像を読み出し、リプレイ映像出力として再生装置19aへ出力する。さらに、リプレイ設定部44は、設定した情報を分離順序制御部32およびリプレイ再生用信号生成部36へ出力する。
The real-time viewpoint switching unit 43 is, for example, a switcher for switching a plurality of cameras of the imaging unit 41, and outputs the image of the switched (selected) camera to the playback device 19a as a real-time image output. Further, the real-time viewpoint switching unit 43 outputs the viewpoint information of the switched camera to the real-time reproduction signal generation unit 35.
The replay setting unit 44 sets the replay start time, the replay end time, the replay broadcast time, the replay video viewpoint, and the like. The replay setting unit 44 reads the video from the image storage unit 42 based on the set information and outputs the replay video output to the playback device 19a. Further, the replay setting unit 44 outputs the set information to the separation order control unit 32 and the replay reproduction signal generation unit 36.

(撮影処理システム30の処理フロー)
図8(A)と図8(B)は、本実施形態の撮影処理システム30の動作および処理を説明するフローチャートである。なお、以下の説明において、リアルタイム視点切替部43は、所定のタイミングで(S73)、撮像部41のカメラを切り替える(カメラは複数あり、現在使用しているカメラ以外のカメラを選択するという意)とする。
図8(A)に基づいて、リアルタイム再生を行う場合を説明する。
まず、マイクアレイ31において収音が行われ(S61)、撮像部41において撮像が行われる(S71)。マイクアレイ31を介して取得された音声データ(音声信号)は、記憶部34および音源分離部33へ出力される。撮像部41を介して取得された画像データ(画像信号)は、画像記憶部42、リアルタイム視点切替部43および分離順序制御部32へ出力される。
(Processing flow of shooting processing system 30)
8 (A) and 8 (B) are flowcharts illustrating the operation and processing of the photographing processing system 30 of the present embodiment. In the following description, the real-time viewpoint switching unit 43 switches the camera of the imaging unit 41 at a predetermined timing (S73) (meaning that there are a plurality of cameras and a camera other than the camera currently in use is selected). And.
A case of performing real-time reproduction will be described with reference to FIG. 8 (A).
First, sound is picked up by the microphone array 31 (S61), and image pickup is performed by the imaging unit 41 (S71). The voice data (voice signal) acquired via the microphone array 31 is output to the storage unit 34 and the sound source separation unit 33. The image data (image signal) acquired via the image pickup unit 41 is output to the image storage unit 42, the real-time viewpoint switching unit 43, and the separation order control unit 32.

次に、記憶部34に入力された音声データは、記憶部34に記録される(S62)。また、画像記憶部42に入力された画像データは、画像記憶部42に記録される(S72)。
続いて、分離順序制御部32は、入力された画像データからエリアごとの音源となりうる被写体を検出する(S63)。分離順序制御部32は、例えば、顔認識技術やオブジェクト認識技術により被写体の検出を行う。
さらに分離順序制御部32は、S63において検出されたエリアごとの音源となりうる被写体の数に基づいて、音源分離の順序を設定する(S64)。つまり、本実施形態では、音源位置情報に基づいて音源分離の順序を設定している。設定された音源分離の順序は、分離順序制御部32から音源分離部33へ出力される。
Next, the voice data input to the storage unit 34 is recorded in the storage unit 34 (S62). Further, the image data input to the image storage unit 42 is recorded in the image storage unit 42 (S72).
Subsequently, the separation order control unit 32 detects a subject that can be a sound source for each area from the input image data (S63). The separation order control unit 32 detects the subject by, for example, a face recognition technique or an object recognition technique.
Further, the separation order control unit 32 sets the order of sound source separation based on the number of subjects that can be sound sources for each area detected in S63 (S64). That is, in the present embodiment, the order of sound source separation is set based on the sound source position information. The set sound source separation order is output from the separation order control unit 32 to the sound source separation unit 33.

次に、音源分離部33において音源分離の処理負荷状況に応じてリアルタイム再生に全エリアの音源分離処理が間に合うか否かを判定する(S65)。この判定はエリアごと行われる。つまり、リアルタイム再生に間に合う範囲で、分離順序の早い順に、どのエリアまで音源の分離処理を行うかを判定する(決める)。
S65において音源分離処理がリアルタイム再生に間に合うと判定されたエリアは、マイクアレイ31から入力された複数チャンネルの音声信号を用いて音源分離処理される(音源分離部33が、エリアの音声信号を分離して抽出する)(S66)。分離されたエリアの音声信号は、音源分離部33から記憶部34およびリアルタイム再生用信号生成部35へ出力される。
記憶部34は、S66で生成されたエリアの分離音声の音声信号を記録する(S67)。
Next, the sound source separation unit 33 determines whether or not the sound source separation processing in all areas is in time for real-time reproduction according to the processing load status of the sound source separation (S65). This determination is made for each area. That is, within the range in time for real-time playback, it is determined (determined) to which area the sound source is separated in the order of earliest separation order.
The area determined in S65 that the sound source separation process is in time for real-time reproduction is subjected to sound source separation processing using the audio signals of a plurality of channels input from the microphone array 31 (the sound source separation unit 33 separates the audio signals in the area. And extract) (S66). The audio signal in the separated area is output from the sound source separation unit 33 to the storage unit 34 and the real-time reproduction signal generation unit 35.
The storage unit 34 records the voice signal of the separated voice of the area generated in S66 (S67).

ここで、リアルタイム視点切替部43により、視点の切り替えが行われたとする(S73)。この視点切替により、別のカメラが選択される。切り替えられた視点情報は、リアルタイム視点切替部43からリアルタイム再生用信号生成部35へ出力される。
リアルタイム再生用信号生成部35は、音源分離部33から入力されたエリアごとの分離音(音声信号)とリアルタイム視点切替部43から入力された視点情報とに基づいて、リアルタイム再生用の音声信号を生成する(S68)。S68におけるリアルタイム再生用の音声信号の生成は、図8ではリアルタイムレンダリングと記載した。
最後に、S68で生成されたリアルタイム再生用の音声信号とS73の視点切替により選択されたカメラの映像とが、再生装置19aに出力される(S69、S74)。
なお、S65においてリアルタイム再生に音源分離処理が間に合わないと判定されたエリアについては、未分離の時間情報とエリア情報が未分離リストに記録(追加)されることにより、未分離リストが生成される(S70)。
Here, it is assumed that the viewpoint is switched by the real-time viewpoint switching unit 43 (S73). By this viewpoint switching, another camera is selected. The switched viewpoint information is output from the real-time viewpoint switching unit 43 to the real-time reproduction signal generation unit 35.
The real-time reproduction signal generation unit 35 generates an audio signal for real-time reproduction based on the separated sound (audio signal) for each area input from the sound source separation unit 33 and the viewpoint information input from the real-time viewpoint switching unit 43. Generate (S68). The generation of the audio signal for real-time reproduction in S68 is described as real-time rendering in FIG.
Finally, the audio signal for real-time reproduction generated in S68 and the image of the camera selected by the viewpoint switching in S73 are output to the reproduction device 19a (S69, S74).
For the area determined in S65 that the sound source separation process is not in time for real-time playback, the unseparated list is generated by recording (adding) the unseparated time information and the area information in the unseparated list. (S70).

続いて図8(B)を用いてリプレイ設定部44においてリプレイが設定された場合のフローを説明する。
はじめにリプレイ設定部44においてリプレイの設定が行われる(S81)。設定されたリプレイ開始時刻、終了時刻、視点情報などは、リプレイ設定部44から分離順序制御部32とリプレイ再生用信号生成部36へ出力される。
続いて、分離順序制御部32は、未分離リストの確認を行う(S82)。分離順序制御部32は、未分離リストからリプレイ時間に含まれる未分離エリアの情報を抽出する。そして、分離順序制御部32は、抽出した未分離エリアの情報に基づいて、分離順序を再設定する(S83)。再設定された分離順序は、分離順序制御部32から音源分離部33へ出力される。その後、音源分離(S84)と記録(S85)が実行される。S84は図8(A)のS66と同様な処理であり、S85は図8(A)のS67と同様な処理であるので、詳細は省略する。
Subsequently, the flow when the replay is set in the replay setting unit 44 will be described with reference to FIG. 8 (B).
First, the replay setting unit 44 sets the replay (S81). The set replay start time, end time, viewpoint information, etc. are output from the replay setting unit 44 to the separation order control unit 32 and the replay reproduction signal generation unit 36.
Subsequently, the separation order control unit 32 confirms the unseparated list (S82). The separation order control unit 32 extracts information on the unseparated area included in the replay time from the unseparated list. Then, the separation order control unit 32 resets the separation order based on the information of the extracted unseparated area (S83). The reset separation order is output from the separation order control unit 32 to the sound source separation unit 33. After that, sound source separation (S84) and recording (S85) are executed. Since S84 is the same process as S66 in FIG. 8 (A) and S85 is the same process as S67 in FIG. 8 (A), the details will be omitted.

続いて、リプレイ再生用信号生成部36は、リプレイ設定部44からの入力に基づいて、記憶部34から該当する時間およびエリアの音声信号を読み出す(S86)。
一方、リプレイ設定部44は、画像記憶部42から、リプレイ時間および視点(選択されているカメラ)に対応する映像(画像データ)を読み出す(S87)。
続いて、リプレイ再生用信号生成部36は、リプレイ再生用信号を生成する(S88)。S88におけるリプレイ再生用の音声信号の生成は、図8ではリプレイレンダリングと記載した。
最後に、S88で生成された音声信号は、リプレイ音声出力として、リプレイ再生用信号生成部36から再生装置19aに出力される(S89)。また、この音声信号と同期して、S87で読み出された映像データは、リプレイ設定部44からリプレイ映像出力として再生装置19aに出力される(S90)。
Subsequently, the replay reproduction signal generation unit 36 reads out the audio signal of the corresponding time and area from the storage unit 34 based on the input from the replay setting unit 44 (S86).
On the other hand, the replay setting unit 44 reads out the video (image data) corresponding to the replay time and the viewpoint (selected camera) from the image storage unit 42 (S87).
Subsequently, the replay reproduction signal generation unit 36 generates a replay reproduction signal (S88). The generation of the audio signal for replay reproduction in S88 is described as replay rendering in FIG.
Finally, the audio signal generated in S88 is output from the replay reproduction signal generation unit 36 to the reproduction device 19a as the replay audio output (S89). Further, the video data read out in S87 in synchronization with this audio signal is output from the replay setting unit 44 to the playback device 19a as a replay video output (S90).

(実施形態3の効果)
本実施形態によれば、音源位置情報に応じて音源分離の順序を設定することで、処理負荷によってすべてのエリアの音源分離がリアルタイム再生に間に合わない場合でも、音源(候補)のあるエリアの音声信号は優先的に音源分離され音声信号を取得できる。音源候補のあるエリアは、重要度の高いエリアである。したがって、本実施形態によれば、重要度の高いエリアの音声信号を欠くことなくリアルタイム音声再生を行うことができる。
(Effect of Embodiment 3)
According to the present embodiment, by setting the order of sound source separation according to the sound source position information, even if the sound source separation of all areas is not in time for real-time playback due to the processing load, the sound of the area with the sound source (candidate) The signal is preferentially separated into sound sources and an audio signal can be acquired. Areas with sound source candidates are areas of high importance. Therefore, according to the present embodiment, real-time audio reproduction can be performed without lacking audio signals in areas of high importance.

(変形例)
なお、本実施形態において分離順序制御部32は撮像部41で撮像した映像を元に分離順序を制御したが、分離順序制御部32はその他の情報を元に分離順序を制御・設定してもよい。例えば、撮影処理システム30は、マイクアレイ31からエリアまでの距離を取得する距離取得部をさらに備えてもよい。そして、分離順序制御部32は、距離取得部が取得した距離に基づいて、分離順序を制御してもよい。マイクアレイ31から遠いエリアと近いエリアでは音声の伝搬にかかる時間が異なる。つまり、遠いエリアの音声は伝搬にかかる時間が長いので、遅延量が大きくなる。よって、通りエリアの音声については、分離処理を急ぐ必要がある。そこで、分離順序制御部32は、マイクアレイ31からの距離が遠いエリアほど処理のタイミングを早くするという設定をしてもよい。
(Modification example)
In the present embodiment, the separation order control unit 32 controls the separation order based on the image captured by the imaging unit 41, but the separation order control unit 32 may control and set the separation order based on other information. Good. For example, the photographing processing system 30 may further include a distance acquisition unit that acquires a distance from the microphone array 31 to the area. Then, the separation order control unit 32 may control the separation order based on the distance acquired by the distance acquisition unit. The time required for sound propagation differs between the area far from the microphone array 31 and the area near it. That is, the voice in a distant area takes a long time to propagate, so that the delay amount becomes large. Therefore, it is necessary to hurry the separation process for the voice in the street area. Therefore, the separation order control unit 32 may be set to advance the processing timing as the distance from the microphone array 31 increases.

テレビ放送などの生中継では、時間調整や不慮の事態に対応するため、実際の撮影から一定時間の遅延(例えば、数秒から数分程度の遅延)を持たせて放送するようなシステム(技法)が知られている。そのようなシステムを用いた場合、分離順序制御部32は撮像部41で撮像した遅延時間分の映像に含まれる事象に応じて分離順序を制御してもよい。例えば、スポーツの試合のライブ中継において2分の遅延を持たせて放送する場合、2分間の試合展開から注目領域を設定して、その注目領域に応じて各エリアの分離順序を制御してもよい。 In live broadcasting such as TV broadcasting, a system (technique) that broadcasts with a certain time delay (for example, a delay of several seconds to several minutes) from the actual shooting in order to adjust the time and respond to unexpected situations. It has been known. When such a system is used, the separation order control unit 32 may control the separation order according to the events included in the video for the delay time captured by the imaging unit 41. For example, in the case of broadcasting a live broadcast of a sports game with a delay of 2 minutes, even if the attention area is set from the 2-minute game development and the separation order of each area is controlled according to the attention area. Good.

また、音声の連続性を確保するため、分離順序制御部32は音源分離部33の音源分離の結果からエリアごとの複数の処理フレームの平均音量を取得し、当該平均音量に基づいて音源分離の順序を制御してもよい。例えば、過去(直近の)の所定数のフレームのエリアごとの平均音量から、当該エリアに音源が存在する度合い(音源存在度)を推定し、音源存在度の高いエリアの処理順序を早くなるように設定してもよい。また音源は移動する可能性があるため、音源存在度の高いエリアの周辺も処理順序が早くなるように設定されてもよい。
本実施形態において記憶部34は、マイクアレイ31が収音した全てのチャンネルの音声の音声信号を記録したが、撮影時間やマイクロホンの数によっては音声信号の記録量が大きくなってしまう可能性がある。記録量があまり大きくなるのを防ぐために、記憶部34は、全エリアの分離処理が行われた時間に対応する音声信号を削除してもよい。
Further, in order to ensure the continuity of audio, the separation order control unit 32 acquires the average volume of a plurality of processing frames for each area from the sound source separation result of the sound source separation unit 33, and separates the sound sources based on the average volume. You may control the order. For example, the degree to which a sound source exists in the area (sound source abundance) is estimated from the average volume of each area of a predetermined number of frames in the past (most recent), and the processing order of the area having a high sound source abundance is accelerated. May be set to. Further, since the sound source may move, the processing order may be set to be earlier in the vicinity of the area where the sound source is highly present.
In the present embodiment, the storage unit 34 records the audio signals of the audio of all the channels collected by the microphone array 31, but the recording amount of the audio signal may increase depending on the shooting time and the number of microphones. is there. In order to prevent the recording amount from becoming too large, the storage unit 34 may delete the audio signal corresponding to the time when the separation processing of all areas is performed.

本実施形態において、分離状況表示部37の表示画面60(図7(A))は、分離処理が完了しているか否かの表示を白黒で行ったが、分離順序制御部32で設定された分離順序を表示してもよい。例えば、図7(B)に示すように、表示画面60において、エリア表示の中に、分離順序を示す数字(図中、1〜13の数字)が表示されてもよい。あるいは、図7(B)の1〜13の数字の代わりに(または1〜13の数字に加えて)、分離順序に応じたカラー(グラデーションを含む)を用いた表示をしてもよい。 In the present embodiment, the display screen 60 (FIG. 7A) of the separation status display unit 37 displays in black and white whether or not the separation process is completed, but it is set by the separation order control unit 32. The separation order may be displayed. For example, as shown in FIG. 7B, on the display screen 60, numbers indicating the separation order (numbers 1 to 13 in the figure) may be displayed in the area display. Alternatively, instead of the numbers 1 to 13 in FIG. 7 (B) (or in addition to the numbers 1 to 13), a display using colors (including gradation) according to the separation order may be used.

また、分離状況表示部37は、図7(A)または図7(B)の表示画面60に、リアルタイム再生時の視点、リプレイ再生時の視点、被写体の位置などを重ねて表示するようにしてもよい。さらに、分離状況表示部37は、図7(A)または図7(B)の全エリア表示64を、実際の空間の画像に重ねて表示してもよい。
なお、分離状況表示部37による表示は、図7(A)や図7(B)のような表示に限定されず、処理の状態(分離状況)が分かるような表示であればよい。例えば、図7(C)のように、分離状況は、分離終了パーセント(分離終了割合表示)を縦軸とし、時間を横軸にしたグラフで示してもよい。図7(C)は、分離終了パーセントを時系列に折れ線グラフで表示したものであり、シンプルな形式で分離状況を示している。
Further, the separation status display unit 37 superimposes the viewpoint at the time of real-time reproduction, the viewpoint at the time of replay reproduction, the position of the subject, and the like on the display screen 60 of FIG. 7A or FIG. 7B. May be good. Further, the separation status display unit 37 may superimpose the entire area display 64 of FIG. 7A or FIG. 7B on an image of the actual space.
The display by the separation status display unit 37 is not limited to the display as shown in FIGS. 7 (A) and 7 (B), and may be any display that shows the processing status (separation status). For example, as shown in FIG. 7C, the separation status may be shown in a graph with the separation end percentage (separation end ratio display) as the vertical axis and the time as the horizontal axis. FIG. 7C shows the separation end percentage in a time series as a line graph, and shows the separation status in a simple format.

本実施形態では分離状況表示部37は表示機能だけを有するとしたが、ユーザインタフェース機能も有してもよい。例えば、表示画面60がタッチパネルを構成し、当該タッチパネルが分離順序制御部32に対するユーザインタフェースとして機能してもよい。このような構成にすると、例えば、ユーザが表示画面60上の未分離エリア65を少なくとも1つ選択し、タイムカーソル62を用いて時間区間を選択することで、指定されたエリアおよび指定された時間区間の分離の順序を早くできるようになる。
図6に示した構成には、遅延補正、ゲイン補正、エコー除去等を行う音声信号処理部(図1の音声信号処理部14と同様な処理部)が含まれていないが、必要に応じて、例えば、音源分離部33と記憶部34の間に音声信号処理部を設けてもよい。
図6の構成ではマイクアレイ31が音声収音制御装置30aに含まれているが、マイクアレイ31は音声収音制御装置30aに含まれなくてもよい。その場合、音源分離部33は外部装置であるマイクアレイ31から音声信号を受け取る。
In the present embodiment, the separation status display unit 37 has only a display function, but may also have a user interface function. For example, the display screen 60 may form a touch panel, and the touch panel may function as a user interface for the separation order control unit 32. With such a configuration, for example, the user selects at least one unseparated area 65 on the display screen 60 and selects a time interval using the time cursor 62 to select a designated area and a designated time. The order of separation of sections can be shortened.
The configuration shown in FIG. 6 does not include an audio signal processing unit (similar to the audio signal processing unit 14 in FIG. 1) that performs delay correction, gain correction, echo cancellation, etc., but if necessary. For example, an audio signal processing unit may be provided between the sound source separation unit 33 and the storage unit 34.
In the configuration of FIG. 6, the microphone array 31 is included in the voice pick-up control device 30a, but the microphone array 31 may not be included in the voice pick-up control device 30a. In that case, the sound source separation unit 33 receives an audio signal from the microphone array 31 which is an external device.

(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラム(コンピュータプログラム)を、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(たとえば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program (computer program) that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device supply the program (computer program). It can also be realized by the process of reading and executing the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

10…音声信号処理装置、11…マイクアレイ、12…音源分離部、13…処理順序制御部、14…音声信号処理部、15…記憶部、16…リアルタイム再生用信号生成部 10 ... Audio signal processing device, 11 ... Microphone array, 12 ... Sound source separation unit, 13 ... Processing order control unit, 14 ... Audio signal processing unit, 15 ... Storage unit, 16 ... Real-time playback signal generation unit

Claims (19)

収音対象空間の音を収音することで生成される音データを取得する取得手段と、
前記収音対象空間内の複数のエリアの少なくとも1つの優先度を決定する決定手段と、
前記取得手段により取得された音データを処理することにより得られる処理済みデータであって前記複数のエリアそれぞれに対応する処理済みデータを出力する出力手段と、を有し、
前記出力手段は、前記複数のエリアそれぞれに対応する処理済みデータを得るための処理に係る処理時間が所定の閾値より長い場合に、前記取得手段により取得された音データに対して前記所定の閾値以下の処理時間の処理を行うことにより得られる第1の処理済みデータであって前記複数のエリアのうち前記決定手段により決定された優先度に基づいて選択された1以上のエリアに対応する前記第1の処理済みデータを出力した後に、前記取得手段により取得された音データを処理することにより得られる第2の処理済みデータであって前記複数のエリアのうち前記1以上のエリアとは異なるエリアを含む他の1以上のエリアに対応する前記第2の処理済みデータを出力することを特徴とする音データ処理装置。
Acquisition means for acquiring sound data generated by collecting sound in the sound collection target space, and
A determination means for determining at least one priority of a plurality of areas in the sound collection target space, and
It has an output means for outputting processed data obtained by processing the sound data acquired by the acquisition means and corresponding to each of the plurality of areas.
When the processing time related to the processing for obtaining the processed data corresponding to each of the plurality of areas is longer than the predetermined threshold value, the output means has the predetermined threshold value with respect to the sound data acquired by the acquisition means. wherein corresponding to one or more areas that are selected based on the priority determined by said determining means of the first processed data is a by the plurality of areas obtained by performing the processing of the following processing time after outputting the first processed data, and the one or more areas of the second processed a data before Symbol plurality of areas obtained by processing the sound data acquired by the acquiring means the sound data processing device and outputting a pre-Symbol second processed data that corresponds to the addition of one or more areas comprising different areas.
前記第1の処理済みデータを得るための処理および前記第2の処理済みデータを得るための処理は、遅延補正処理、ゲイン補正処理およびエコー除去処理の少なくとも1つを含むことを特徴とする請求項に記載の音データ処理装置。 The claim for obtaining the first processed data and the process for obtaining the second processed data include at least one of a delay correction process, a gain correction process, and an echo cancellation process. Item 2. The sound data processing device according to item 1 . 前記第1の処理済みデータを得るための処理および前記第2の処理済みデータを得るための処理は、前記音データから特定のエリアの音を抽出する音源分離処理を含むことを特徴とする請求項に記載の音データ処理装置。 The process for obtaining the first processed data and the process for obtaining the second processed data include a sound source separation process for extracting a sound in a specific area from the sound data. Item 2. The sound data processing apparatus according to item 1 . 前記収音対象空間の撮像画像を取得する第2の取得手段をさらに有し、
前記決定手段は、前記優先度を、前記第2の取得手段により取得された撮像画像内の所定の物体の位置に基づいて決定することを特徴とする請求項1乃至の何れか1項に記載の音データ処理装置。
Further having a second acquisition means for acquiring the captured image of the sound collection target space,
The determination means according to any one of claims 1 to 3 , wherein the determination means determines the priority based on the position of a predetermined object in the captured image acquired by the second acquisition means. The sound data processing device described.
前記優先度は、前記所定の物体の位置を含まないエリアに比べて、前記所定の物体の位置を含むエリアに高い優先度が設定されるように決定されることを特徴とする請求項に記載の音データ処理装置。 The fourth aspect of the present invention is characterized in that the priority is determined so that a higher priority is set in the area including the position of the predetermined object as compared with the area not including the position of the predetermined object. The sound data processing device described. 前記取得手段により取得された音データに基づく音と共に再生される画像に対応する視点情報を取得する第3の取得手段をさらに有し、
前記決定手段は、前記優先度を、前記第3の取得手段により取得された視点情報に基づいて決定することを特徴とする請求項1乃至の何れか1項に記載の音データ処理装置。
Further having a third acquisition means for acquiring viewpoint information corresponding to an image reproduced together with a sound based on the sound data acquired by the acquisition means.
The sound data processing apparatus according to any one of claims 1 to 3 , wherein the determination means determines the priority based on the viewpoint information acquired by the third acquisition means.
前記優先度は、前記視点情報に対応する視点の位置を含まないエリアに比べて、前記視点情報に対応する視点の位置を含むエリアに高い優先度が設定されるように決定されることを特徴とする請求項に記載の音データ処理装置。 The priority is determined so that a higher priority is set in the area including the position of the viewpoint corresponding to the viewpoint information as compared with the area not including the position of the viewpoint corresponding to the viewpoint information. The sound data processing apparatus according to claim 6 . 前記優先度は、前記視点情報に対応する視線と物体との交点の位置を含まないエリアに比べて、前記視点情報に対応する視線と物体との交点の位置を含むエリアに高い優先度が設定されるように決定されることを特徴とする請求項に記載の音データ処理装置。 The priority is set higher in the area including the position of the intersection of the line of sight and the object corresponding to the viewpoint information than in the area not including the position of the intersection of the line of sight and the object corresponding to the viewpoint information. The sound data processing apparatus according to claim 6 , wherein the sound data processing apparatus is determined to be used. 前記取得手段により取得された音データに基づく再生音に対応する聴取点に関する情報を取得する第4の取得手段をさらに有し、
前記決定手段は、前記優先度を、前記第4の取得手段により取得された聴取点に関する情報に基づいて決定することを特徴とする請求項1乃至の何れか1項に記載の音データ処理装置。
Further having a fourth acquisition means for acquiring information on a listening point corresponding to a reproduced sound based on the sound data acquired by the acquisition means.
The sound data processing according to any one of claims 1 to 3 , wherein the determination means determines the priority based on the information regarding the listening point acquired by the fourth acquisition means. apparatus.
前記優先度は、前記聴取点の位置を含まないエリアに比べて、前記聴取点の位置を含むエリアに高い優先度が設定されるように決定されることを特徴とする請求項に記載の音データ処理装置。 The ninth aspect of the present invention is characterized in that the priority is determined so that a higher priority is set in the area including the listening point position than in the area not including the listening point position. Sound data processing device. 前記取得手段により取得された音データに基づいて、前記収音対象空間内における所定のイベントの発生位置を判定する判定手段をさらに有し、
前記決定手段は、前記優先度を、前記判定手段により判定された発生位置に基づいて決定することを特徴とする請求項1乃至の何れか1項に記載の音データ処理装置。
Further, it has a determination means for determining the occurrence position of a predetermined event in the sound collection target space based on the sound data acquired by the acquisition means.
The sound data processing apparatus according to any one of claims 1 to 3 , wherein the determination means determines the priority based on the generation position determined by the determination means.
前記優先度は、前記所定のイベントの発生位置を含まないエリアに比べて、前記所定のイベントの発生の位置を含むエリアに高い優先度が設定されるように決定されることを特徴とする請求項11に記載の音データ処理装置。 The claim is characterized in that the priority is determined so that a higher priority is set in the area including the occurrence position of the predetermined event as compared with the area not including the occurrence position of the predetermined event. Item 11. The sound data processing apparatus according to item 11 . 前記決定手段により決定された優先度に基づいて、前記複数のエリアの処理順序を設定する設定手段と、
前記設定手段により設定された前記処理順序に従って、前記複数のエリアそれぞれに対応する処理済みデータを得るための処理を実行する実行手段と、
をさらに有し、
記出力手段は、前記実行手段により実行される処理に含まれる処理によって得られた前記第1の処理済みデータを出力することを特徴とする請求項1乃至12の何れか1項に記載の音データ処理装置。
A setting means for setting the processing order of the plurality of areas based on the priority determined by the determination means, and
An execution means for executing processing for obtaining processed data corresponding to each of the plurality of areas according to the processing order set by the setting means, and an execution means.
Have more
Before Kide force means according to any one of claims 1 to 12, characterized in that outputs the first processed data obtained by processing included in by Ru processing execution by the execution unit Sound data processing device.
前記決定手段は、前記取得手段により取得される音データを生成するために前記収音対象空間内の音を収音するマイクロホンの位置に基づいて前記優先度を決定することを特徴とする請求項1乃至13の何れか1項に記載の音データ処理装置。 The claim means that the determination means determines the priority based on the position of a microphone that collects sound in the sound collection target space in order to generate sound data acquired by the acquisition means. The sound data processing apparatus according to any one of 1 to 13 . 記出力手段により出力された前記第1処理済みデータには、前記決定手段により決定された優先度に基づいて選択された前記1以上のエリアに対応する音のデータが含まれ、前記1以上のエリアとは異なるエリアに対応する音のデータは含まれないことを特徴とする請求項1乃至14の何れか1項に記載の音データ処理装置。 The output by the pre Kide force means to the first processed data, data of the sound corresponding to said one or more areas that are selected based on the determined priority by the determination means is included, the The sound data processing apparatus according to any one of claims 1 to 14 , wherein sound data corresponding to an area different from one or more areas is not included. 前記決定手段は、各エリアに対応する音量と各エリアに対応するマスキングの影響との少なくとも何れかに基づいて前記優先度を決定することを特徴とする請求項1乃至15の何れか1項に記載の音データ処理装置。 The determination means according to any one of claims 1 to 15 , wherein the determination means determines the priority based on at least one of the volume corresponding to each area and the influence of masking corresponding to each area. The sound data processing device described. 収音対象空間の音を収音することで生成される音データを取得する取得工程と、
前記収音対象空間内の複数のエリアの少なくとも1つの優先度を決定する決定工程と、
前記取得工程で取得された音データを処理することにより得られる処理済みデータであって前記複数のエリアそれぞれに対応する処理済みデータを出力する出力工程と、を有し、
前記出力工程においては、前記複数のエリアそれぞれに対応する処理済みデータを得るための処理に係る処理時間が所定の閾値より長い場合に、前記取得工程により取得された音データに対して前記所定の閾値以下の処理時間の処理を行うことにより得られる第1の処理済みデータであって前記複数のエリアのうち前記決定工程で決定された優先度に基づいて選択された1以上のエリアに対応する前記第1の処理済みデータ出力された後に、前記取得工程で取得された音データを処理することにより得られる第2の処理済みデータであって前記複数のエリアのうち前記1以上のエリアとは異なるエリアを含む他の1以上のエリアに対応する前記第2の処理済みデータ出力されることを特徴とする音データ処理方法。
The acquisition process to acquire the sound data generated by collecting the sound in the sound collection target space,
A determination step of determining at least one priority of a plurality of areas in the sound collection target space, and
It has a processed data obtained by processing the sound data acquired in the acquisition step and an output step of outputting the processed data corresponding to each of the plurality of areas.
In the output step, when the processing time related to the processing for obtaining the processed data corresponding to each of the plurality of areas is longer than the predetermined threshold value, the predetermined sound data acquired by the acquisition step is described. It is the first processed data obtained by performing the processing of the processing time equal to or less than the threshold value, and corresponds to one or more areas selected based on the priority determined in the determination step among the plurality of areas. The second processed data obtained by processing the sound data acquired in the acquisition step after the first processed data is output, which is one or more of the plurality of areas. audio data processing method characterized in that said second processed data corresponds to another one or more areas comprising different areas are outputted.
前記第2の処理済みデータは、前記取得工程により取得された音データに対して前記所定の閾値より長い処理時間の処理を行うことにより得られることを特徴とする請求項17に記載の音データ処理方法。 It said second processed data, the sound data according to claim 17, characterized in that it is obtained by the sound data obtained by the obtaining step performs a process of processing time than the predetermined threshold Processing method. コンピュータを請求項1〜16れか1項に記載の音データ処理装置の各手段として機能させるためのプログラム。 Program for causing to function as each means of the sound data processing apparatus according to computer what Re one of claims 1-16.
JP2016126937A 2016-06-27 2016-06-27 Sound data processing device and sound data processing method Active JP6818445B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016126937A JP6818445B2 (en) 2016-06-27 2016-06-27 Sound data processing device and sound data processing method
US15/630,723 US10219076B2 (en) 2016-06-27 2017-06-22 Audio signal processing device, audio signal processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016126937A JP6818445B2 (en) 2016-06-27 2016-06-27 Sound data processing device and sound data processing method

Publications (3)

Publication Number Publication Date
JP2018006826A JP2018006826A (en) 2018-01-11
JP2018006826A5 JP2018006826A5 (en) 2019-08-08
JP6818445B2 true JP6818445B2 (en) 2021-01-20

Family

ID=60675123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016126937A Active JP6818445B2 (en) 2016-06-27 2016-06-27 Sound data processing device and sound data processing method

Country Status (2)

Country Link
US (1) US10219076B2 (en)
JP (1) JP6818445B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087661A (en) * 2018-10-23 2018-12-25 南昌努比亚技术有限公司 Method of speech processing, device, system and readable storage medium storing program for executing
JP2023519421A (en) * 2020-03-31 2023-05-10 華為技術有限公司 Audio noise removal method and apparatus
GB2601114A (en) * 2020-11-11 2022-05-25 Sony Interactive Entertainment Inc Audio processing system and method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009139592A (en) * 2007-12-05 2009-06-25 Sony Corp Speech processing device, speech processing system, and speech processing program
JP5395822B2 (en) 2011-02-07 2014-01-22 日本電信電話株式会社 Zoom microphone device
JP5482854B2 (en) 2012-09-28 2014-05-07 沖電気工業株式会社 Sound collecting device and program
US9460732B2 (en) * 2013-02-13 2016-10-04 Analog Devices, Inc. Signal source separation
GB2514184B (en) * 2013-05-17 2016-05-04 Canon Kk Method for determining a direction of at least one sound source from an array of microphones

Also Published As

Publication number Publication date
US20170374463A1 (en) 2017-12-28
US10219076B2 (en) 2019-02-26
JP2018006826A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
US10178490B1 (en) Intelligent audio rendering for video recording
US10734029B2 (en) Signal processing apparatus, signal processing method, and non-transitory computer-readable storage medium
CN112400325A (en) Data-driven audio enhancement
CN112165590A (en) Video recording implementation method and device and electronic equipment
CN104995681A (en) Video analysis assisted generation of multi-channel audio data
JP2007013255A (en) Signal processing apparatus and method, program, and recording medium
US10998870B2 (en) Information processing apparatus, information processing method, and program
JP6818445B2 (en) Sound data processing device and sound data processing method
JP2009147768A (en) Video-audio recording apparatus, and video-audio reproducing apparatus
JP2013093840A (en) Apparatus and method for generating stereoscopic data in portable terminal, and electronic device
JP5868991B2 (en) Method and assembly for improving audio signal reproduction of audio during video recording
JP2011071685A (en) Video and audio processing system, video and audio processing method and program
CN113676592A (en) Recording method, recording device, electronic equipment and computer readable medium
CN113439447A (en) Room acoustic simulation using deep learning image analysis
JP4165615B2 (en) Image display device, image display method, program, and recording medium
CN112165591B (en) Audio data processing method and device and electronic equipment
CN113225646B (en) Audio and video monitoring method and device, electronic equipment and storage medium
US10511927B2 (en) Sound system, control method of sound system, control apparatus, and storage medium
US10547961B2 (en) Signal processing apparatus, signal processing method, and storage medium
JP6835205B2 (en) Shooting sound pickup device, sound pick-up control system, shooting sound pick-up device control method, and shooting sound pick-up control system control method
JP2009239349A (en) Photographing apparatus
JP6821390B2 (en) Sound processing equipment, sound processing methods and programs
JP2013183280A (en) Information processing device, imaging device, and program
CN113542466A (en) Audio processing method, electronic device and storage medium
WO2010061791A1 (en) Video control device, and image capturing apparatus and display apparatus which are provided with same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201228

R151 Written notification of patent or utility model registration

Ref document number: 6818445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151