JP2008271157A - Sound enhancement device and control program - Google Patents

Sound enhancement device and control program Download PDF

Info

Publication number
JP2008271157A
JP2008271157A JP2007111066A JP2007111066A JP2008271157A JP 2008271157 A JP2008271157 A JP 2008271157A JP 2007111066 A JP2007111066 A JP 2007111066A JP 2007111066 A JP2007111066 A JP 2007111066A JP 2008271157 A JP2008271157 A JP 2008271157A
Authority
JP
Japan
Prior art keywords
sound
image
input means
voice
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007111066A
Other languages
Japanese (ja)
Inventor
Shoji Sakamoto
彰司 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2007111066A priority Critical patent/JP2008271157A/en
Publication of JP2008271157A publication Critical patent/JP2008271157A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • Studio Devices (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sound enhancement device capable of enhancing target sound, even inside an environment surrounded by noise, and to provide a control program. <P>SOLUTION: A video camera 2 photographs an image that includes a target to be a sound source. A microphone array 3 has a plurality of microphone elements to input sound emitted by the object. An operating part 113 inputs a position instructed by an operator. A display part 15 displays an image photographed by the video camera 2, simultaneously superimposes the image and displays a position input by a mouse cursor 18 of the operating part 113. A control part 11 converts the position on the image shown by the mouse cursor 18, in a direction with respect to the microphone array 3 and sets the superdirectivity of the microphone array 3 in the converted direction. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮影装置及び音声入力装置を利用する音声強調装置及び制御プログラムに関する。   The present invention relates to a voice enhancement device and a control program using a photographing device and a voice input device.

従来より、1つのキーワードの音声認識によって確実に、目的音到来方向にマイクロホンアレイの指向性を設定する指向性設定装置が知られている(例えば、特許文献1)。この指向性設定装置では、音源の定位は人の発話音声に基づいて実行されている。
特開2004−109361号公報
Conventionally, a directivity setting device that reliably sets the directivity of a microphone array in the direction of arrival of a target sound by voice recognition of one keyword is known (for example, Patent Document 1). In this directivity setting device, sound source localization is executed based on human speech.
JP 2004-109361 A

しかしながら、機械が発する音のように周囲の雑音との区別が難しい音を強調する場合には、上記指向性設定装置のように、音声信号のみから音源を定位する方法は必ずしも有効ではなかった。このため、工場で稼働する機械の異音を強調して採取する場合には、従来のマイクロホンアレイ制御における音源定位を前提とした超指向性の形成は機能しない。   However, when emphasizing sounds that are difficult to distinguish from ambient noise such as sounds emitted by a machine, a method of localizing a sound source only from an audio signal as in the directivity setting device is not always effective. For this reason, in the case of collecting with emphasis on the abnormal sound of a machine operating in a factory, the formation of superdirectivity on the premise of sound source localization in conventional microphone array control does not function.

本発明は、このような事情に鑑みてなされたものであり、その目的は、雑音に取り囲まれた環境内でも、目的音声の強調を行うことが可能な音声強調装置及び制御プログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a speech enhancement device and a control program capable of enhancing a target speech even in an environment surrounded by noise. It is in.

上記目的を達成するため、請求項1の音声強調装置は、音源となる対象物を含む画像を撮影する撮影手段と、複数の集音素子を有し、当該対象物が発する音声を入力する音声入力手段と、操作者が指示する位置を入力する位置入力手段と、前記撮影手段で撮影された画像を表示し同時に当該画像に重畳して前記位置入力手段によって入力された位置を表示する画像表示手段と、前記位置入力手段によって示された画像上の位置を前記音声入力手段に対する方向に変換する変換手段と、前記変換された方向に前記音声入力手段の超指向性を設定する設定手段とを備えることを特徴とする。   In order to achieve the above object, the speech enhancement apparatus according to claim 1 includes an imaging unit that captures an image including an object to be a sound source, and a plurality of sound collection elements, and a sound that inputs sound emitted from the object. An input means, a position input means for inputting a position indicated by an operator, and an image display for displaying an image photographed by the photographing means and displaying the position inputted by the position input means while being superimposed on the image. Means, conversion means for converting the position on the image indicated by the position input means into a direction with respect to the voice input means, and setting means for setting the superdirectivity of the voice input means in the converted direction. It is characterized by providing.

請求項2の音声強調装置は、請求項1に記載の音声強調装置において、前記設定手段は、一の集音素子の音声に対する他の集音素子の各々の音声の遅延量を算出し、当該他の集音素子の各々の音声に当該算出された遅延量を付加し、当該遅延量が付加された他の集音素子の各々の音声から前記一の集音素子の音声を減算して、雑音を抽出且つ除去することにより、前記変換された方向に前記音声入力手段の超指向性を設定することを特徴とする。   The speech enhancement apparatus according to claim 2 is the speech enhancement apparatus according to claim 1, wherein the setting unit calculates a delay amount of each sound of the other sound collection elements with respect to the sound of the one sound collection element, and Adding the calculated delay amount to the sound of each of the other sound collection elements, subtracting the sound of the one sound collection element from the sound of each of the other sound collection elements to which the delay amount is added, The superdirectivity of the voice input means is set in the converted direction by extracting and removing noise.

請求項3の音声強調装置は、請求項1又は2記載の音声強調装置において、前記撮影手段及び前記音声入力手段は、通信網を介して前記音声強調装置に接続されることを特徴とする。   The speech enhancement apparatus according to claim 3 is the speech enhancement apparatus according to claim 1 or 2, wherein the photographing unit and the speech input unit are connected to the speech enhancement apparatus via a communication network.

請求項4の音声強調装置は、請求項1乃至3のいずれか1項に記載の音声強調装置において、前記設定された音声入力手段の超指向性に対応する音声を出力する音声出力手段を備えることを特徴とする。   The speech enhancement device according to claim 4 is the speech enhancement device according to any one of claims 1 to 3, further comprising speech output means for outputting speech corresponding to the superdirectivity of the set speech input means. It is characterized by that.

請求項5の音声強調装置は、請求項1又は2に記載の音声強調装置において、前記撮影手段で撮影された画像及び前記音声入力手段で入力された音声を記憶する記憶手段と、前記記憶手段に記憶された画像及び音声の再生を指示する再生指示手段とを備え、前記再生指示手段により前記記憶された画像及び前記記憶された音声の再生が指示された場合には、前記画像表示手段は、前記記憶された画像を表示し同時に当該画像に重畳して前記位置入力手段によって入力された位置を表示し、前記設定手段は、前記記憶された音声に対して前記変換された方向に前記音声入力手段の超指向性を設定することを特徴とする。   The speech enhancement device according to claim 5 is the speech enhancement device according to claim 1 or 2, wherein the storage unit stores the image captured by the imaging unit and the speech input by the speech input unit, and the storage unit. Reproduction instruction means for instructing the reproduction of the stored image and sound, and when the reproduction instruction means instructs the reproduction of the stored image and the stored sound, the image display means The stored image is displayed and simultaneously superimposed on the image to display the position input by the position input means, and the setting means is configured to display the sound in the converted direction with respect to the stored sound. The super directivity of the input means is set.

請求項6の音声強調装置は、請求項5に記載の音声強調装置において、前記設定された音声入力手段の超指向性に対応する音声を出力する音声出力手段を備えることを特徴とする。   According to a sixth aspect of the present invention, there is provided the voice emphasizing apparatus according to the fifth aspect, further comprising voice output means for outputting voice corresponding to the superdirectivity of the set voice input means.

請求項7の制御プログラムは、音源となる対象物を含む画像を撮影する撮影手段、及び複数の集音素子を有し、当該対象物が発する音声を入力する音声入力手段に接続されるコンピュータを、操作者が指示する位置を入力する位置入力手段、前記撮影手段で撮影された画像を表示し同時に当該画像に重畳して前記位置入力手段によって入力された位置を表示する画像表示手段、前記位置入力手段によって示された画像上の位置を前記音声入力手段に対する方向に変換する変換手段、及び前記変換された方向に前記音声入力手段の超指向性を設定する設定手段として機能させることを特徴とする。   According to a seventh aspect of the present invention, there is provided a control program comprising: a photographing unit that captures an image including an object that is a sound source; and a computer that is connected to a voice input unit that inputs a sound emitted from the target object. A position input means for inputting a position designated by an operator, an image display means for displaying an image photographed by the photographing means and displaying the position inputted by the position input means while being superimposed on the image at the same time, the position And functioning as a conversion means for converting the position on the image indicated by the input means into a direction with respect to the voice input means, and a setting means for setting the superdirectivity of the voice input means in the converted direction. To do.

請求項1、7の発明によれば、雑音に取り囲まれた環境内でも、操作者が指示する位置に対応する目的音声の強調を行うことができる。   According to the first and seventh aspects of the present invention, the target speech corresponding to the position indicated by the operator can be emphasized even in an environment surrounded by noise.

請求項2の発明によれば、音声入力手段の超指向性を精度良く設定することができる。   According to the invention of claim 2, the superdirectivity of the voice input means can be set with high accuracy.

請求項3の発明によれば、通信網を介して入力された音声についても、操作者が指示する位置に対応する目的音声の強調を行うことができる。   According to the third aspect of the present invention, the target voice corresponding to the position indicated by the operator can be emphasized also for the voice input via the communication network.

請求項4の発明によれば、操作者が指示する位置に対応する目的音声を強調して出力することができる。   According to the invention of claim 4, the target voice corresponding to the position designated by the operator can be emphasized and output.

請求項5の発明によれば、記憶手段に記憶された音声のうち、操作者が指示する位置に対応する目的音声の強調を行うことができる。   According to the fifth aspect of the present invention, it is possible to enhance the target voice corresponding to the position indicated by the operator among the voices stored in the storage means.

請求項6の発明によれば、記憶手段に記憶された音声のうち、操作者が指示する位置に対応する目的音声を強調して出力することができる。   According to the sixth aspect of the present invention, it is possible to emphasize and output the target voice corresponding to the position indicated by the operator among the voices stored in the storage means.

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る音声強調装置の構成を示す図である。
(First embodiment)
FIG. 1 is a diagram showing the configuration of the speech enhancement apparatus according to the first embodiment of the present invention.

本発明の実施の形態に係る音声強調装置は、パーソナルコンピュータ(PC)1、対象物9を撮影するビデオカメラ2(撮影手段)、対象物9が発する音声を取得するマイクロホンアレイ3(音声出力手段)、及び音声を出力するスピーカ4(音声出力手段)を備えている。また、PC1は、音声を再生する再生部10(音声出力手段)と、装置全体を制御する制御部11(変換手段、設定手段)と、ビデオカメラ2からの映像及びマイクロホンアレイ3からの音声を受信すると共にマイクロホンアレイ3の超指向性を制御する制御コマンドをマイクロホンアレイ3に送信する送受信部12と、マウスやキーボードなどで構成される操作部13(位置入力手段、再生指示手段)と、制御プログラム、データ及び情報等を記憶する記憶部14(記憶手段)と、表示領域17及びユーザインターフェース(UI)16を表示する表示部15(画像表示手段)とを備えている。マイクロホンアレイ3は複数のマイクロホン素子を含む。   A speech enhancement apparatus according to an embodiment of the present invention includes a personal computer (PC) 1, a video camera 2 (photographing unit) that captures an object 9, and a microphone array 3 (audio output unit) that acquires sound emitted from the object 9. ) And a speaker 4 (sound output means) for outputting sound. In addition, the PC 1 outputs a reproduction unit 10 (audio output unit) that reproduces audio, a control unit 11 (conversion unit and setting unit) that controls the entire apparatus, video from the video camera 2, and audio from the microphone array 3. A transmission / reception unit 12 that receives and transmits a control command for controlling the superdirectivity of the microphone array 3 to the microphone array 3, an operation unit 13 (position input unit, reproduction instruction unit) including a mouse and a keyboard, and a control A storage unit 14 (storage unit) that stores programs, data, information, and the like, and a display unit 15 (image display unit) that displays a display area 17 and a user interface (UI) 16 are provided. The microphone array 3 includes a plurality of microphone elements.

制御部11は、再生部10、送受信部12、操作部13、記憶部14、及び表示部15に接続されており、さらに送受信部12を介してビデオカメラ2及びマイクロホンアレイ3に接続されている。尚、PC1は、表示部15を備える一体型のパーソナルコンピュータで構成してもよい。   The control unit 11 is connected to the reproduction unit 10, the transmission / reception unit 12, the operation unit 13, the storage unit 14, and the display unit 15, and is further connected to the video camera 2 and the microphone array 3 via the transmission / reception unit 12. . The PC 1 may be configured by an integrated personal computer including the display unit 15.

表示領域17には、ビデオカメラ2で撮影された撮影画像が表示される。また、表示領域17には、操作部13からの操作指示に従って動作するマウスカーソル18が表示されている。マウスカーソル18で位置が指定されると、後述するように、制御部11は、マイクロホンアレイ3の超指向性を当該指定された位置に設定する制御コマンドをマイクロホンアレイ3に対して送信する。   In the display area 17, a captured image captured by the video camera 2 is displayed. In the display area 17, a mouse cursor 18 that operates in accordance with an operation instruction from the operation unit 13 is displayed. When the position is designated by the mouse cursor 18, as will be described later, the control unit 11 transmits a control command for setting the superdirectivity of the microphone array 3 to the designated position, to the microphone array 3.

図2は、PC1のハードウエア構成を示すブロック図である。   FIG. 2 is a block diagram showing a hardware configuration of the PC 1.

PC1は、装置全体を制御するCPU21、制御プログラムを備えるROM22、ワーキングエリアとして機能するRAM23、各種の情報やプログラムを備えるハードディスクドライブ(HDD)24、マウス及びキーボード25、他のコンピュータと接続するためのネットワークインタフェース26、液晶モニタ又はCRTで構成されるディスプレイ27、及びビデオカメラ2及びマイクロホンアレイ3と接続するためのUSB(universal serial bus)インタフェース28を備えている。CPU21はシステムバス29を介してROM22、RAM23、ハードディスクドライブ(HDD)24、マウス及びキーボード25、ネットワークインタフェース26、ディスプレイ27及びUSBインタフェース28に接続されている。   The PC 1 is connected to a CPU 21 for controlling the entire apparatus, a ROM 22 having a control program, a RAM 23 functioning as a working area, a hard disk drive (HDD) 24 having various information and programs, a mouse and keyboard 25, and other computers. A network interface 26, a display 27 composed of a liquid crystal monitor or CRT, and a USB (universal serial bus) interface 28 for connecting to the video camera 2 and the microphone array 3 are provided. The CPU 21 is connected to a ROM 22, a RAM 23, a hard disk drive (HDD) 24, a mouse and keyboard 25, a network interface 26, a display 27, and a USB interface 28 via a system bus 29.

制御部11は、制御プログラムに従って各種の処理を実行するCPU21に相当する。送受信部12は、ネットワークインタフェース26及びUSBインタフェース28に相当する。操作部13は、マウス及びキーボード25に相当し、記憶部14は、ハードディスクドライブ(HDD)24に相当する。表示部305は、ディスプレイ27に相当する。   The control unit 11 corresponds to the CPU 21 that executes various processes according to the control program. The transmission / reception unit 12 corresponds to the network interface 26 and the USB interface 28. The operation unit 13 corresponds to a mouse and keyboard 25, and the storage unit 14 corresponds to a hard disk drive (HDD) 24. The display unit 305 corresponds to the display 27.

図3は、図1のPC1で実行される処理を示すフローチャートである。   FIG. 3 is a flowchart showing processing executed by the PC 1 of FIG.

まず、制御部11は、送受信部12を介してビデオカメラ2から撮影画像を受信し、当該撮影画像を表示部15の表示領域17に表示させる(ステップS1)。このとき、表示領域17には、マウスカーソル18も撮影画像上に重ねて表示される。   First, the control unit 11 receives a captured image from the video camera 2 via the transmission / reception unit 12, and displays the captured image on the display area 17 of the display unit 15 (step S1). At this time, the mouse cursor 18 is also displayed on the captured image in the display area 17.

次いで、制御部11は、送受信部12を介してマイクロホンアレイ3から音声を受信する(ステップS2)。   Next, the control unit 11 receives sound from the microphone array 3 via the transmission / reception unit 12 (step S2).

次に、制御部11は、マウスカーソル18で位置が指定されたか否かを判別する(ステップS3)。具体的には、制御部11は、操作部13からダブルクリック等の位置指定コマンドを入力したか否かを判別する。   Next, the control part 11 discriminate | determines whether the position was designated with the mouse cursor 18 (step S3). Specifically, the control unit 11 determines whether or not a position designation command such as a double click has been input from the operation unit 13.

ステップS3の判別の結果、NOの場合には、本処理を終了する。一方、YESの場合には、制御部11は、マウスカーソル18で指定された位置がマイクロホンアレイ3にとってどういう向きであるかを計算する、即ち、指定された位置に対するマイクロホンアレイ3の方向を計算する(ステップS4)。より具体的には、制御部11は、マウスカーソル18で指定された位置をマイクロホンアレイ3の方向に変換する計算を実行する。   If the result of determination in step S3 is NO, this process ends. On the other hand, in the case of YES, the control unit 11 calculates the orientation of the position specified by the mouse cursor 18 with respect to the microphone array 3, that is, calculates the direction of the microphone array 3 with respect to the specified position. (Step S4). More specifically, the control unit 11 executes calculation for converting the position designated by the mouse cursor 18 into the direction of the microphone array 3.

制御部11は、マイクロホンアレイ3の超指向性を当該計算された方向に設定するためのマイクロホン素子毎の音声の遅延量を計算する(ステップS5)。   The control unit 11 calculates a delay amount of sound for each microphone element for setting the superdirectivity of the microphone array 3 in the calculated direction (step S5).

制御部11は、マイクロホンアレイ3の超指向性を当該計算された方向に設定するための制御コマンド及び当該遅延量を、送受信部12を介してマイクロホンアレイ3に送信する(ステップS6)。これにより、制御部11は、マイクロホンアレイ3の超指向性を上記指定された位置に設定する。   The control unit 11 transmits a control command for setting the superdirectivity of the microphone array 3 in the calculated direction and the delay amount to the microphone array 3 via the transmission / reception unit 12 (step S6). Thereby, the control unit 11 sets the superdirectivity of the microphone array 3 to the designated position.

制御部11は、例えば、2つのマイクロホン素子A、Bがある場合に、マイクロホン素子Aの音声に対するマイクロホン素子Bの音声の遅延量を設定する。そして、制御部11は、当該設定された遅延量をマイクロホン素子Bで取得された音声に付加して、マイクロホン素子A、Bの音声を同位相化する。マイクロホン素子Bの音声からマイクロホン素子Aの音声を減算することで、いわゆる雑音となる音声を抽出し、除去して、所望の音声(即ち指定された位置に対応する音声)を取得することができる。   For example, when there are two microphone elements A and B, the control unit 11 sets a delay amount of the sound of the microphone element B with respect to the sound of the microphone element A. Then, the control unit 11 adds the set delay amount to the sound acquired by the microphone element B, and makes the sound of the microphone elements A and B in phase. By subtracting the sound of the microphone element A from the sound of the microphone element B, a so-called noise sound can be extracted and removed to obtain a desired sound (that is, a sound corresponding to a designated position). .

制御部11は、マイクロホンアレイ3及び送受信部12を介して、対象物9から、指定された位置に対応する強調された音声を採取し、記憶部14に記憶して(ステップS7)、本処理を終了する。尚、記憶部14に記憶された音声は、制御部11により適宜読み出されて、再生部10及びスピーカ4を介して出力される。これにより、操作者が指示する位置に対応する目的音声を強調して出力することができる。   The control unit 11 collects the emphasized voice corresponding to the designated position from the object 9 via the microphone array 3 and the transmission / reception unit 12 and stores it in the storage unit 14 (step S7). Exit. Note that the sound stored in the storage unit 14 is appropriately read out by the control unit 11 and output via the reproduction unit 10 and the speaker 4. Thereby, the target voice corresponding to the position designated by the operator can be emphasized and output.

以上説明したように、本実施の形態によれば、ビデオカメラ2が音源となる対象物を含む画像を撮影し、マイクロホンアレイ3が複数のマイクロホン素子を有し、当該対象物が発する音声を入力し、操作部113が操作者が指示する位置を入力し、表示部15がビデオカメラ2で撮影された画像を表示し同時に当該画像に重畳して操作部113のマウスカーソル18によって入力された位置を表示し、制御部11がマウスカーソル18によって示された画像上の位置をマイクロホンアレイ3に対する方向に変換し、当該変換された方向にマイクロホンアレイ3の超指向性を設定するので、雑音に取り囲まれた環境内でも、操作者が指示する位置に対応する目的音声の強調を行うことができる。   As described above, according to the present embodiment, the video camera 2 captures an image including an object to be a sound source, the microphone array 3 has a plurality of microphone elements, and inputs sound emitted from the object. The operation unit 113 inputs a position indicated by the operator, and the display unit 15 displays an image taken by the video camera 2 and is simultaneously superimposed on the image and input by the mouse cursor 18 of the operation unit 113. And the control unit 11 converts the position on the image indicated by the mouse cursor 18 into a direction with respect to the microphone array 3, and sets the superdirectivity of the microphone array 3 in the converted direction, so that it is surrounded by noise. The target speech corresponding to the position indicated by the operator can be emphasized even in the specified environment.

制御部11は、一のマイクロホン素子の音声に対する他のマイクロホン素子の各々の音声の遅延量を算出し、当該他のマイクロホン素子の各々の音声に当該算出された遅延量を付加し、当該遅延量が付加された他のマイクロホン素子の各々の音声から前記一のマイクロホン素子の音声を減算して、雑音を抽出且つ除去することにより、上記変換された方向にマイクロホンアレイ3の超指向性を設定するので、マイクロホンアレイ3の超指向性を精度良く設定することができる。   The control unit 11 calculates a delay amount of each sound of the other microphone element with respect to the sound of the one microphone element, adds the calculated delay amount to the sound of each of the other microphone elements, and the delay amount The superdirectivity of the microphone array 3 is set in the converted direction by subtracting the sound of the one microphone element from the sound of each of the other microphone elements to which is added to extract and remove noise. Therefore, the superdirectivity of the microphone array 3 can be set with high accuracy.

(第2の実施の形態)
本実施の形態は、ビデオカメラ2及びマイクロホンアレイ3が他のPCに接続され、ビデオカメラ2からの撮影画像及びマイクロホンアレイ3からの音声をネットワークを介して受信する点で、第1の実施の形態と異なる。
(Second Embodiment)
In the present embodiment, the video camera 2 and the microphone array 3 are connected to another PC, and the captured image from the video camera 2 and the sound from the microphone array 3 are received via the network. Different from form.

図4は、第2の実施の形態に係る音声強調装置の構成を示す図である。   FIG. 4 is a diagram illustrating the configuration of the speech enhancement apparatus according to the second embodiment.

同図に示すように、PC1はネットワーク6(通信網)を介してPC5に接続されている。また、PC5には、ビデオカメラ2及びマイクロホンアレイ3が接続されている。ビデオカメラ2の撮影画像及びマイクロホンアレイ3の音声はPC5及びネットワーク6を介してPC1に送信される。   As shown in the figure, the PC 1 is connected to the PC 5 via a network 6 (communication network). The video camera 2 and the microphone array 3 are connected to the PC 5. The captured image of the video camera 2 and the sound of the microphone array 3 are transmitted to the PC 1 via the PC 5 and the network 6.

図5は、PC1で実行される処理を示すフローチャートである。尚、図3の処理と同一の処理については、同一のステップ番号を付す。   FIG. 5 is a flowchart showing processing executed by the PC 1. In addition, the same step number is attached | subjected about the process same as the process of FIG.

まず、制御部11は、PC5、ネットワーク6及び送受信部12を介してビデオカメラ2から撮影画像を受信し、当該撮影画像を表示部15の表示領域17に表示させる(ステップS11)。このとき、表示領域17には、マウスカーソル18も撮影画像上に重ねて表示される。   First, the control unit 11 receives a captured image from the video camera 2 via the PC 5, the network 6, and the transmission / reception unit 12, and displays the captured image on the display area 17 of the display unit 15 (step S11). At this time, the mouse cursor 18 is also displayed on the captured image in the display area 17.

次いで、制御部11は、PC5、ネットワーク6及び送受信部12を介してマイクロホンアレイ3から音声を受信する(ステップS12)。   Next, the control unit 11 receives audio from the microphone array 3 via the PC 5, the network 6, and the transmission / reception unit 12 (step S12).

次に、制御部11は、マウスカーソル18で位置が指定されたか否かを判別する(ステップS3)。具体的には、制御部11は、操作部13からダブルクリック等の位置指定コマンドを入力したか否かを判別する。   Next, the control part 11 discriminate | determines whether the position was designated with the mouse cursor 18 (step S3). Specifically, the control unit 11 determines whether or not a position designation command such as a double click has been input from the operation unit 13.

ステップS3の判別の結果、NOの場合には、本処理を終了する。一方、YESの場合には、制御部11は、マウスカーソル18で指定された位置がマイクロホンアレイ3にとってどういう向きであるかを計算する、即ち、指定された位置に対するマイクロホンアレイ3の方向を計算する(ステップS4)。より具体的には、制御部11は、マウスカーソル18で指定された位置をマイクロホンアレイ3の方向に変換する計算を実行する。   If the result of determination in step S3 is NO, this process ends. On the other hand, in the case of YES, the control unit 11 calculates the orientation of the position specified by the mouse cursor 18 with respect to the microphone array 3, that is, calculates the direction of the microphone array 3 with respect to the specified position. (Step S4). More specifically, the control unit 11 executes calculation for converting the position designated by the mouse cursor 18 into the direction of the microphone array 3.

制御部11は、マイクロホンアレイ3の超指向性を当該計算された方向に設定するためのマイクロホン素子毎の音声の遅延量を計算する(ステップS5)。   The control unit 11 calculates a delay amount of sound for each microphone element for setting the superdirectivity of the microphone array 3 in the calculated direction (step S5).

制御部11は、マイクロホンアレイ3の超指向性を当該計算された方向に設定するための制御コマンド及び当該遅延量を、PC5、ネットワーク6及び送受信部12を介してマイクロホンアレイ3に送信する(ステップS13)。これにより、制御部11は、マイクロホンアレイ3の超指向性を上記指定された位置に設定する。   The control unit 11 transmits a control command for setting the superdirectivity of the microphone array 3 in the calculated direction and the delay amount to the microphone array 3 via the PC 5, the network 6, and the transmission / reception unit 12 (step). S13). Thereby, the control unit 11 sets the superdirectivity of the microphone array 3 to the designated position.

制御部11は、例えば、2つのマイクロホン素子A、Bがある場合に、マイクロホン素子Aの音声に対するマイクロホン素子Bの音声の遅延量を設定する。そして、制御部11は、当該設定された遅延量をマイクロホン素子Bで取得された音声に付加して、マイクロホン素子A、Bの音声を同位相化する。マイクロホン素子Bの音声からマイクロホン素子Aの音声を減算することで、いわゆる雑音となる音声を抽出し、除去して、所望の音声(即ち指定された位置に対応する音声)を取得することができる。   For example, when there are two microphone elements A and B, the control unit 11 sets a delay amount of the sound of the microphone element B with respect to the sound of the microphone element A. Then, the control unit 11 adds the set delay amount to the sound acquired by the microphone element B, and makes the sound of the microphone elements A and B in phase. By subtracting the sound of the microphone element A from the sound of the microphone element B, a so-called noise sound can be extracted and removed to obtain a desired sound (that is, a sound corresponding to a designated position). .

制御部11は、マイクロホンアレイ3、PC5、ネットワーク6及び及び送受信部12を介して、対象物9から、指定された位置に対応する強調された音声を採取し、再生部10及びスピーカ4を介して出力して(ステップS14)、本処理を終了する。尚、ステップS16で強調された音声を記憶部14に記憶するようにしてもよい。   The control unit 11 collects the emphasized sound corresponding to the designated position from the object 9 via the microphone array 3, the PC 5, the network 6, and the transmission / reception unit 12, and via the reproduction unit 10 and the speaker 4. Are output (step S14), and this process is terminated. Note that the voice emphasized in step S16 may be stored in the storage unit 14.

以上説明したように、本実施の形態によれば、ビデオカメラ2及びマイクロホンアレイ3がネットワーク6を介してPC1に接続されるので、ネットワークを介してリアルタイムで入力された音声についても、操作者が指示する位置に対応する目的音声の強調を行うことができる。   As described above, according to the present embodiment, the video camera 2 and the microphone array 3 are connected to the PC 1 via the network 6, so that the operator can also perform voice input in real time via the network. The target voice corresponding to the designated position can be emphasized.

また、制御部11は、マイクロホンアレイ3、PC5、ネットワーク6及び及び送受信部12を介して、対象物9から、指定された位置に対応する強調された音声を採取し、再生部10及びスピーカ4を介して出力するので、操作者が指示する位置に対応する目的音声を強調して出力することができる。   Further, the control unit 11 collects emphasized sound corresponding to the designated position from the object 9 via the microphone array 3, the PC 5, the network 6, and the transmission / reception unit 12, and reproduces the reproduction unit 10 and the speaker 4. Therefore, the target voice corresponding to the position indicated by the operator can be emphasized and output.

(第3の実施の形態)
本実施の形態は、記憶部14に記憶された音声の中から、操作者が指示する位置に対応する目的音声の強調を行う点で、第1の実施の形態と異なる。
(Third embodiment)
This embodiment is different from the first embodiment in that the target voice corresponding to the position indicated by the operator is emphasized from the voices stored in the storage unit 14.

本実施の形態における音声強調装置の構成は、上記図1の音声強調装置の構成と同一であるので、その説明は省略する。   Since the configuration of the speech enhancement apparatus in the present embodiment is the same as the configuration of the speech enhancement apparatus of FIG. 1, the description thereof is omitted.

図6は、PC1で実行される処理を示すフローチャートである。尚、図3の処理と同一の処理については、同一のステップ番号を付す。   FIG. 6 is a flowchart showing processing executed by the PC 1. In addition, the same step number is attached | subjected about the process same as the process of FIG.

まず、制御部11は、送受信部12を介してビデオカメラ2から撮影画像を受信すると共に送受信部12を介してマイクロホンアレイ3から音声を受信し、当該撮影画像及び当該音声を関連づけて記憶部14に記憶する(ステップS21)。この際、操作者は、撮影画像及び音声に、ファイル名などを付ける。   First, the control unit 11 receives a captured image from the video camera 2 via the transmission / reception unit 12 and also receives a sound from the microphone array 3 via the transmission / reception unit 12, and associates the captured image and the sound to the storage unit 14. (Step S21). At this time, the operator attaches a file name or the like to the captured image and sound.

制御部11は、操作部13を介して、記憶部14に記憶された撮影画像及び音声の再生指示が入力されたか否かを判別する(ステップS22)。   The control unit 11 determines whether or not an instruction to reproduce the captured image and sound stored in the storage unit 14 has been input via the operation unit 13 (step S22).

ステップS22でNOの場合には、本処理を終了する。一方、ステップS22でYESの場合には、制御部11は、再生指示に対応する撮影画像を記憶部14から読み出し、当該撮影画像を表示部15の表示領域17に表示させる(ステップS23)。このとき、表示領域17には、マウスカーソル18も撮影画像上に重ねて表示される。   If NO in step S22, this process ends. On the other hand, if YES in step S22, the control unit 11 reads a captured image corresponding to the reproduction instruction from the storage unit 14, and displays the captured image in the display area 17 of the display unit 15 (step S23). At this time, the mouse cursor 18 is also displayed on the captured image in the display area 17.

次いで、制御部11は、再生指示に対応する音声を再生部10及びスピーカ4を介して出力する(ステップS24)。   Next, the control unit 11 outputs sound corresponding to the reproduction instruction via the reproduction unit 10 and the speaker 4 (step S24).

次に、制御部11は、マウスカーソル18で位置が指定されたか否かを判別する(ステップS3)。具体的には、制御部11は、操作部13からダブルクリック等の位置指定コマンドを入力したか否かを判別する。   Next, the control part 11 discriminate | determines whether the position was designated with the mouse cursor 18 (step S3). Specifically, the control unit 11 determines whether or not a position designation command such as a double click has been input from the operation unit 13.

ステップS3の判別の結果、NOの場合には、本処理を終了する。一方、YESの場合には、制御部11は、マウスカーソル18で指定された位置がマイクロホンアレイ3にとってどういう向きであるかを計算する、即ち、指定された位置に対するマイクロホンアレイ3の方向を計算する(ステップS4)。より具体的には、制御部11は、マウスカーソル18で指定された位置をマイクロホンアレイ3の方向に変換する計算を実行する。   If the result of determination in step S3 is NO, this process ends. On the other hand, in the case of YES, the control unit 11 calculates the orientation of the position specified by the mouse cursor 18 with respect to the microphone array 3, that is, calculates the direction of the microphone array 3 with respect to the specified position. (Step S4). More specifically, the control unit 11 executes calculation for converting the position designated by the mouse cursor 18 into the direction of the microphone array 3.

制御部11は、マイクロホンアレイ3の超指向性を当該計算された方向に設定するためのマイクロホン素子毎の音声の遅延量を計算する(ステップS5)。   The control unit 11 calculates a delay amount of sound for each microphone element for setting the superdirectivity of the microphone array 3 in the calculated direction (step S5).

制御部11は、マイクロホンアレイ3の超指向性を当該計算された方向に設定するための制御コマンド及び当該遅延量を、再生中の音声に適用する(ステップS25)。これにより、制御部11は、マイクロホンアレイ3の超指向性を上記指定された位置に設定する。   The control unit 11 applies the control command for setting the superdirectivity of the microphone array 3 in the calculated direction and the delay amount to the sound being reproduced (step S25). Thereby, the control unit 11 sets the superdirectivity of the microphone array 3 to the designated position.

制御部11は、例えば、2つのマイクロホン素子A、Bがある場合に、マイクロホン素子Aの音声に対するマイクロホン素子Bの音声の遅延量を設定する。そして、制御部11は、当該設定された遅延量をマイクロホン素子Bで取得された音声に付加して、マイクロホン素子A、Bの音声を同位相化する。マイクロホン素子Bの音声からマイクロホン素子Aの音声を減算することで、いわゆる雑音となる音声を抽出し、除去して、所望の音声(即ち指定された位置に対応する音声)を取得することができる。   For example, when there are two microphone elements A and B, the control unit 11 sets a delay amount of the sound of the microphone element B with respect to the sound of the microphone element A. Then, the control unit 11 adds the set delay amount to the sound acquired by the microphone element B, and makes the sound of the microphone elements A and B in phase. By subtracting the sound of the microphone element A from the sound of the microphone element B, a so-called noise sound can be extracted and removed to obtain a desired sound (that is, a sound corresponding to a designated position). .

制御部11は、対象物9から、指定された位置に対応する強調された音声を採取し、再生部10及びスピーカ4を介して出力して(ステップS26)、本処理を終了する。尚、ステップS16で強調された音声を記憶部14に記憶するようにしてもよい。   The control unit 11 collects the emphasized voice corresponding to the designated position from the object 9 and outputs it through the playback unit 10 and the speaker 4 (step S26), and ends this process. Note that the voice emphasized in step S16 may be stored in the storage unit 14.

以上説明したように、本実施の形態によれば、記憶部14がビデオカメラ2で撮影された画像及びマイクロホンアレイ3で入力された音声を記憶し、操作部13が記憶部14に記憶された画像及び音声の再生指示を入力し、記憶された画像及び記憶された音声の再生が指示された場合には、表示部15は、記憶された画像を表示し同時に当該画像に重畳して操作部13のマウスカーソル18によって入力された位置を表示し、制御部11は、記憶された音声に対して変換(計算)された方向にマイクロホンアレイ3の超指向性を設定するので、記憶部14に記憶された音声のうち、操作者が指示する位置に対応する目的音声の強調を行うことができる。   As described above, according to the present embodiment, the storage unit 14 stores the image captured by the video camera 2 and the sound input by the microphone array 3, and the operation unit 13 is stored in the storage unit 14. When an instruction to reproduce an image and sound is input and an instruction to reproduce a stored image and sound is instructed, the display unit 15 displays the stored image and simultaneously superimposes the image on the operation unit. The position input by the 13 mouse cursors 18 is displayed, and the control unit 11 sets the superdirectivity of the microphone array 3 in the direction converted (calculated) with respect to the stored voice. Among the stored voices, the target voice corresponding to the position indicated by the operator can be emphasized.

また、スピーカ4及び再生部10は、設定されたマイクロホンアレイ3の超指向性に対応する音声を出力するので、記憶部14に記憶された音声のうち、操作者が指示する位置に対応する目的音声を強調して出力することができる。   In addition, since the speaker 4 and the reproduction unit 10 output sound corresponding to the superdirectivity of the set microphone array 3, the purpose is to correspond to the position indicated by the operator in the sound stored in the storage unit 14. Audio can be emphasized and output.

PC1の機能を実現するためのソフトウェアのプログラムが記録されている記録媒体を、PC1に供給し、PC1のCPUが記憶媒体に格納されたプログラムを読み出し実行することによっても、上記実施の形態と同様の効果を奏する。プログラムを供給するための記憶媒体としては、例えば、CD−ROM、DVD、又はSDカードなどがある。   Similar to the above embodiment, a recording medium in which a software program for realizing the functions of the PC 1 is recorded is supplied to the PC 1 and the CPU of the PC 1 reads and executes the program stored in the storage medium. The effect of. Examples of the storage medium for supplying the program include a CD-ROM, a DVD, or an SD card.

また、PC1のCPUが、PC1の機能を実現するためのソフトウェアのプログラムを実行することによっても、上記実施の形態と同様の効果を奏する。   In addition, the same effect as that of the above-described embodiment can be obtained when the CPU of the PC 1 executes a software program for realizing the functions of the PC 1.

なお、本発明は、上述した実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内で種々変形して実施することが可能である。   Note that the present invention is not limited to the above-described embodiment, and can be implemented with various modifications without departing from the scope of the invention.

本発明の第1の実施の形態に係る音声強調装置の構成を示す図である。It is a figure which shows the structure of the speech enhancement apparatus which concerns on the 1st Embodiment of this invention. PC1のハードウエア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of PC1. 図1のPC1で実行される処理を示すフローチャートである。It is a flowchart which shows the process performed by PC1 of FIG. 第2の実施の形態に係る音声強調装置の構成を示す図である。It is a figure which shows the structure of the speech enhancement apparatus which concerns on 2nd Embodiment. PC1で実行される処理を示すフローチャートである。It is a flowchart which shows the process performed by PC1. 第3の実施の形態に係るPC1で実行される処理を示すフローチャートである。It is a flowchart which shows the process performed with PC1 which concerns on 3rd Embodiment.

符号の説明Explanation of symbols

1 PC
2 ビデオカメラ(撮影手段)
3 マイクロホンアレイ(音声入力手段)
4 スピーカ(音声出力手段)
9 対象物
10 再生部(音声出力手段)
11 制御部(変換手段、設定手段)
12 送受信部
13 操作部(位置入力手段、再生指示手段)
14 記憶部(記憶手段)
15 表示部(画像表示手段)

1 PC
2 Video camera (photographing means)
3 Microphone array (voice input means)
4 Speaker (Audio output means)
9 Object 10 Playback part (sound output means)
11 Control unit (conversion means, setting means)
12 Transmission / reception unit 13 Operation unit (position input means, reproduction instruction means)
14 Storage unit (storage means)
15 Display unit (image display means)

Claims (7)

音源となる対象物を含む画像を撮影する撮影手段と、
複数の集音素子を有し、当該対象物が発する音声を入力する音声入力手段と、
操作者が指示する位置を入力する位置入力手段と、
前記撮影手段で撮影された画像を表示し同時に当該画像に重畳して前記位置入力手段によって入力された位置を表示する画像表示手段と、
前記位置入力手段によって示された画像上の位置を前記音声入力手段に対する方向に変換する変換手段と、
前記変換された方向に前記音声入力手段の超指向性を設定する設定手段と
を備えることを特徴とする音声強調装置。
Photographing means for photographing an image including an object as a sound source;
A voice input means having a plurality of sound collecting elements and inputting a voice emitted from the object;
Position input means for inputting the position indicated by the operator;
An image display means for displaying an image photographed by the photographing means and simultaneously displaying the image inputted by the position input means by superimposing the image on the image;
Conversion means for converting the position on the image indicated by the position input means into a direction relative to the voice input means;
A speech enhancement apparatus comprising: setting means for setting superdirectivity of the speech input means in the converted direction.
前記設定手段は、一の集音素子の音声に対する他の集音素子の各々の音声の遅延量を算出し、当該他の集音素子の各々の音声に当該算出された遅延量を付加し、当該遅延量が付加された他の集音素子の各々の音声から前記一の集音素子の音声を減算して、雑音を抽出且つ除去することにより、前記変換された方向に前記音声入力手段の超指向性を設定することを特徴とする請求項1に記載の音声強調装置。 The setting means calculates a delay amount of each sound of the other sound collecting elements with respect to a sound of one sound collecting element, adds the calculated delay amount to each sound of the other sound collecting elements, By subtracting the sound of the one sound collecting element from the sound of each of the other sound collecting elements to which the delay amount has been added, noise is extracted and removed, so that the sound input means moves in the converted direction. The speech enhancement apparatus according to claim 1, wherein superdirectivity is set. 前記撮影手段及び前記音声入力手段は、通信網を介して前記音声強調装置に接続されることを特徴とする請求項1又は2記載の音声強調装置。 3. The voice enhancement apparatus according to claim 1, wherein the photographing unit and the voice input unit are connected to the voice enhancement unit via a communication network. 前記設定された音声入力手段の超指向性に対応する音声を出力する音声出力手段を備えることを特徴とする請求項1乃至3のいずれか1項に記載の音声強調装置。 The speech enhancement apparatus according to any one of claims 1 to 3, further comprising speech output means for outputting speech corresponding to the superdirectivity of the set speech input means. 前記撮影手段で撮影された画像及び前記音声入力手段で入力された音声を記憶する記憶手段と、
前記記憶手段に記憶された画像及び音声の再生を指示する再生指示手段とを備え、
前記再生指示手段により前記記憶された画像及び前記記憶された音声の再生が指示された場合には、前記画像表示手段は、前記記憶された画像を表示し同時に当該画像に重畳して前記位置入力手段によって入力された位置を表示し、前記設定手段は、前記記憶された音声に対して前記変換された方向に前記音声入力手段の超指向性を設定することを特徴とする請求項1又は2に記載の音声強調装置。
Storage means for storing an image photographed by the photographing means and sound input by the sound input means;
Playback instruction means for instructing playback of the image and sound stored in the storage means,
When reproduction of the stored image and the stored sound is instructed by the reproduction instruction unit, the image display unit displays the stored image and simultaneously superimposes the image on the image to input the position. The position input by the means is displayed, and the setting means sets the superdirectivity of the voice input means in the converted direction with respect to the stored voice. The voice emphasis device described in 1.
前記設定された音声入力手段の超指向性に対応する音声を出力する音声出力手段を備えることを特徴とする請求項5に記載の音声強調装置。 The speech enhancement apparatus according to claim 5, further comprising speech output means for outputting speech corresponding to the superdirectivity of the set speech input means. 音源となる対象物を含む画像を撮影する撮影手段、及び複数の集音素子を有し、当該対象物が発する音声を入力する音声入力手段に接続されるコンピュータを、
操作者が指示する位置を入力する位置入力手段、
前記撮影手段で撮影された画像を表示し同時に当該画像に重畳して前記位置入力手段によって入力された位置を表示する画像表示手段、
前記位置入力手段によって示された画像上の位置を前記音声入力手段に対する方向に変換する変換手段、及び
前記変換された方向に前記音声入力手段の超指向性を設定する設定手段と
して機能させることを特徴とする制御プログラム。

A computer having a photographing means for photographing an image including an object to be a sound source, and a plurality of sound collecting elements, and connected to a sound input means for inputting sound emitted from the object,
Position input means for inputting the position indicated by the operator;
Image display means for displaying an image photographed by the photographing means and simultaneously displaying the image inputted by the position input means by superimposing the image on the image;
Functioning as conversion means for converting the position on the image indicated by the position input means into a direction with respect to the voice input means, and setting means for setting superdirectivity of the voice input means in the converted direction. A characteristic control program.

JP2007111066A 2007-04-19 2007-04-19 Sound enhancement device and control program Pending JP2008271157A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007111066A JP2008271157A (en) 2007-04-19 2007-04-19 Sound enhancement device and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007111066A JP2008271157A (en) 2007-04-19 2007-04-19 Sound enhancement device and control program

Publications (1)

Publication Number Publication Date
JP2008271157A true JP2008271157A (en) 2008-11-06

Family

ID=40050084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007111066A Pending JP2008271157A (en) 2007-04-19 2007-04-19 Sound enhancement device and control program

Country Status (1)

Country Link
JP (1) JP2008271157A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145524A (en) * 2008-12-16 2010-07-01 Casio Hitachi Mobile Communications Co Ltd Recording device, reproduction device, and program
JP2010251916A (en) * 2009-04-13 2010-11-04 Nec Casio Mobile Communications Ltd Sound data processing device and program
JP2011188374A (en) * 2010-03-10 2011-09-22 Olympus Imaging Corp Shooting apparatus
WO2014103331A1 (en) * 2012-12-27 2014-07-03 パナソニック株式会社 Sound processing system and sound processing method
JP2015019371A (en) * 2013-07-09 2015-01-29 ノキア コーポレイション Audio processing apparatus
JP2015100125A (en) * 2012-12-27 2015-05-28 パナソニックIpマネジメント株式会社 Audio processing system and audio processing method
WO2015162645A1 (en) * 2014-04-25 2015-10-29 パナソニックIpマネジメント株式会社 Audio processing apparatus, audio processing system, and audio processing method
EP2958339A4 (en) * 2013-02-15 2017-01-18 Panasonic Intellectual Property Management Co., Ltd. Directionality control system, calibration method, horizontal deviation angle computation method, and directionality control method
JPWO2015151131A1 (en) * 2014-03-31 2017-04-13 パナソニックIpマネジメント株式会社 Directivity control method, storage medium, and directivity control system
JPWO2015170368A1 (en) * 2014-05-09 2017-04-20 パナソニックIpマネジメント株式会社 Directivity control method, storage medium, and directivity control system
WO2017208820A1 (en) * 2016-05-30 2017-12-07 ソニー株式会社 Video sound processing device, video sound processing method, and program
CN107491101A (en) * 2017-09-14 2017-12-19 歌尔科技有限公司 A kind of adjusting method, device and the electronic equipment of microphone array pickup angle
JP2018023137A (en) * 2017-09-12 2018-02-08 パナソニックIpマネジメント株式会社 Directivity controller, directivity control method, storage medium, and directivity control system
US10182280B2 (en) 2014-04-23 2019-01-15 Panasonic Intellectual Property Management Co., Ltd. Sound processing apparatus, sound processing system and sound processing method
US10909384B2 (en) 2015-07-14 2021-02-02 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145524A (en) * 2008-12-16 2010-07-01 Casio Hitachi Mobile Communications Co Ltd Recording device, reproduction device, and program
JP2010251916A (en) * 2009-04-13 2010-11-04 Nec Casio Mobile Communications Ltd Sound data processing device and program
JP2011188374A (en) * 2010-03-10 2011-09-22 Olympus Imaging Corp Shooting apparatus
US8760552B2 (en) 2010-03-10 2014-06-24 Olympus Imaging Corp. Shooting apparatus
US9826211B2 (en) 2012-12-27 2017-11-21 Panasonic Intellectual Property Management Co., Ltd. Sound processing system and processing method that emphasize sound from position designated in displayed video image
US10244219B2 (en) 2012-12-27 2019-03-26 Panasonic Intellectual Property Management Co., Ltd. Sound processing system and sound processing method that emphasize sound from position designated in displayed video image
CN104904236B (en) * 2012-12-27 2018-09-14 松下知识产权经营株式会社 sound processing system and sound processing method
JP2015100125A (en) * 2012-12-27 2015-05-28 パナソニックIpマネジメント株式会社 Audio processing system and audio processing method
JP2015118386A (en) * 2012-12-27 2015-06-25 パナソニックIpマネジメント株式会社 Voice processing system and voice processing method
JP2015122756A (en) * 2012-12-27 2015-07-02 パナソニックIpマネジメント株式会社 Audio processing system and audio processing method
CN104904236A (en) * 2012-12-27 2015-09-09 松下知识产权经营株式会社 Sound processing system and sound processing method
US10536681B2 (en) 2012-12-27 2020-01-14 Panasonic Intellectual Property Management Co., Ltd. Sound processing system and sound processing method that emphasize sound from position designated in displayed video image
JP2014143678A (en) * 2012-12-27 2014-08-07 Panasonic Corp Voice processing system and voice processing method
WO2014103331A1 (en) * 2012-12-27 2014-07-03 パナソニック株式会社 Sound processing system and sound processing method
US10244162B2 (en) 2013-02-15 2019-03-26 Panasonic Intellectual Property Management Co., Ltd. Directionality control system, calibration method, horizontal deviation angle computation method, and directionality control method
US9860439B2 (en) 2013-02-15 2018-01-02 Panasonic Intellectual Property Management Co., Ltd. Directionality control system, calibration method, horizontal deviation angle computation method, and directionality control method
EP2958339A4 (en) * 2013-02-15 2017-01-18 Panasonic Intellectual Property Management Co., Ltd. Directionality control system, calibration method, horizontal deviation angle computation method, and directionality control method
US10080094B2 (en) 2013-07-09 2018-09-18 Nokia Technologies Oy Audio processing apparatus
US10142759B2 (en) 2013-07-09 2018-11-27 Nokia Technologies Oy Method and apparatus for processing audio with determined trajectory
JP2015019371A (en) * 2013-07-09 2015-01-29 ノキア コーポレイション Audio processing apparatus
JPWO2015151131A1 (en) * 2014-03-31 2017-04-13 パナソニックIpマネジメント株式会社 Directivity control method, storage medium, and directivity control system
US10182280B2 (en) 2014-04-23 2019-01-15 Panasonic Intellectual Property Management Co., Ltd. Sound processing apparatus, sound processing system and sound processing method
CN105474666B (en) * 2014-04-25 2018-11-16 松下知识产权经营株式会社 sound processing system and sound processing method
JPWO2015162645A1 (en) * 2014-04-25 2017-04-13 パナソニックIpマネジメント株式会社 Audio processing method, audio processing system, and storage medium
WO2015162645A1 (en) * 2014-04-25 2015-10-29 パナソニックIpマネジメント株式会社 Audio processing apparatus, audio processing system, and audio processing method
JPWO2015170368A1 (en) * 2014-05-09 2017-04-20 パナソニックIpマネジメント株式会社 Directivity control method, storage medium, and directivity control system
US10909384B2 (en) 2015-07-14 2021-02-02 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method
WO2017208820A1 (en) * 2016-05-30 2017-12-07 ソニー株式会社 Video sound processing device, video sound processing method, and program
US11184579B2 (en) 2016-05-30 2021-11-23 Sony Corporation Apparatus and method for video-audio processing, and program for separating an object sound corresponding to a selected video object
US11902704B2 (en) 2016-05-30 2024-02-13 Sony Corporation Apparatus and method for video-audio processing, and program for separating an object sound corresponding to a selected video object
JP2018023137A (en) * 2017-09-12 2018-02-08 パナソニックIpマネジメント株式会社 Directivity controller, directivity control method, storage medium, and directivity control system
CN107491101A (en) * 2017-09-14 2017-12-19 歌尔科技有限公司 A kind of adjusting method, device and the electronic equipment of microphone array pickup angle

Similar Documents

Publication Publication Date Title
JP2008271157A (en) Sound enhancement device and control program
JP6289121B2 (en) Acoustic signal processing device, moving image photographing device, and control method thereof
JP5801026B2 (en) Image sound processing apparatus and imaging apparatus
JP2013106298A (en) Imaging controller, imaging control method, program for imaging control method, and imaging apparatus
KR101374353B1 (en) Sound processing apparatus
WO2013024704A1 (en) Image-processing device, method, and program
JP5764005B2 (en) Playback apparatus and playback method
JP2009207522A (en) Medical image treatment system
JP6852478B2 (en) Communication terminal, communication program and communication method
JP2010166322A (en) Video viewing apparatus, video play back control method, and recording/play back program
JP2018148436A (en) Device, system, method, and program
JP2011254400A (en) Image and voice recording device
WO2013008869A1 (en) Electronic device and data generation method
JP2013183280A (en) Information processing device, imaging device, and program
JP2000222417A (en) Image filing device
JP4379742B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND PROGRAM
JP2011120028A (en) Sound reproducer and method for controlling the same
JP2006074732A (en) Video signal processor and video signal processing method
KR101471602B1 (en) Sound processing apparatus and sound processing method
JP2011120165A (en) Imaging apparatus
JP2007079043A (en) Information display apparatus and control method for the same
US20230187065A1 (en) Information processing apparatus and control method
JP2009124350A (en) Imaging device, its control method, and program
JP2016144137A (en) Imaging device, imaging method, and program
JP6167483B2 (en) Reproduction processing device, imaging device, and reproduction processing program