JPWO2020144990A1 - Array microphone and sensor system - Google Patents

Array microphone and sensor system Download PDF

Info

Publication number
JPWO2020144990A1
JPWO2020144990A1 JP2020565630A JP2020565630A JPWO2020144990A1 JP WO2020144990 A1 JPWO2020144990 A1 JP WO2020144990A1 JP 2020565630 A JP2020565630 A JP 2020565630A JP 2020565630 A JP2020565630 A JP 2020565630A JP WO2020144990 A1 JPWO2020144990 A1 JP WO2020144990A1
Authority
JP
Japan
Prior art keywords
sound source
audio signal
source data
data
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020565630A
Other languages
Japanese (ja)
Inventor
秀夫 瀬山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Manufacturing Co Ltd
Original Assignee
Murata Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Manufacturing Co Ltd filed Critical Murata Manufacturing Co Ltd
Publication of JPWO2020144990A1 publication Critical patent/JPWO2020144990A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C15/00Arrangements characterised by the use of multiplexing for the transmission of a plurality of signals over a common path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Abstract

アレイマイクは、音声信号を収集する複数のマイクと、複数のマイクのそれぞれが収集した音声信号を音源データに合成するとともに音声信号に基づいて音源定位を行う信号処理回路と、所定のデータ区間における音源データと音源定位に関わる情報を示す非音声信号とをそれぞれ別のチャネルを通じて同期して外部装置に出力する通信回路とを備える。The array microphone includes a plurality of microphones that collect audio signals, a signal processing circuit that synthesizes the audio signals collected by each of the plurality of microphones into sound source data, and localizes the sound source based on the audio signals, and a predetermined data section. It is provided with a communication circuit that synchronizes sound source data and non-audio signals indicating information related to sound source localization through different channels and outputs them to an external device.

Description

本発明はアレイマイク及びセンサシステムに関する。 The present invention relates to an array microphone and a sensor system.

複数のマイクを空間的に配置したものはアレイマイクと呼ばれている。音源から各マイクまでの距離が異なれば、音源からの音波が各マイクに到達するまでに要する到達時間も異なる。音源から各マイクまでの音波の到達時間の差は、音源の位置の関数として表すことができる。この原理を利用して、音源定位を行うことができる。音源定位の技術を用いることにより、例えば、ある空間における話者の位置及び方向を推定することができる。 A spatial arrangement of multiple microphones is called an array microphone. If the distance from the sound source to each microphone is different, the arrival time required for the sound wave from the sound source to reach each microphone is also different. The difference in the arrival time of sound waves from the sound source to each microphone can be expressed as a function of the position of the sound source. Sound source localization can be performed using this principle. By using the sound source localization technique, for example, the position and direction of the speaker in a certain space can be estimated.

特開2006−5511号公報Japanese Unexamined Patent Publication No. 2006-5511

アレイマイクが収集した音声信号と、その音声信号を解析した結果である音源定位に関わる情報(例えば、音源の方向や音圧を示す情報)を示す非音声信号とを、例えば、特許文献1の記載のように、同一のスロット内で無線送信すると、非音声信号が音声信号に対するノイズとして作用することがある。 The audio signal collected by the array microphone and the non-audio signal indicating information related to sound source localization (for example, information indicating the direction and sound pressure of the sound source) which is the result of analyzing the audio signal are, for example, Patent Document 1. As described, when wirelessly transmitted in the same slot, the non-audio signal may act as noise to the audio signal.

本発明はこのような問題を解決し、音声信号を解析した結果である音源定位に関わる情報を示す非音声信号が音声信号に対するノイズとして作用しないように、音声信号と非音声信号とを外部装置に出力することのできるアレイマイクを提案することを課題とする。 The present invention solves such a problem, and sets the audio signal and the non-audio signal as an external device so that the non-audio signal indicating the information related to the sound source localization which is the result of analyzing the audio signal does not act as noise for the audio signal. The subject is to propose an array microphone that can output to.

上述の課題を解決するため、本発明に関わるアレイマイクは、音声信号を収集する複数のマイクと、複数のマイクのそれぞれが収集した音声信号を音源データに合成するとともに音声信号に基づいて音源定位を行う信号処理回路と、所定のデータ区間における音源データと音源定位に関わる情報を示す非音声信号とをそれぞれ別のチャネルを通じて同期して外部装置に出力する通信回路とを備える。 In order to solve the above-mentioned problems, the array microphone according to the present invention synthesizes a plurality of microphones for collecting audio signals and audio signals collected by each of the plurality of microphones into sound source data, and localizes the sound source based on the sound signals. It is provided with a signal processing circuit for performing the above and a communication circuit for synchronizing sound source data in a predetermined data section and non-audio signals indicating information related to sound source localization through different channels and outputting them to an external device.

本発明によれば、音声信号を解析した結果である音源定位に関わる情報を示す非音声信号が音声信号に対するノイズとして作用しないように、音声信号と非音声信号とを外部装置に出力するこができる。 According to the present invention, the audio signal and the non-audio signal can be output to an external device so that the non-audio signal indicating the information related to the sound source localization, which is the result of analyzing the audio signal, does not act as noise for the audio signal. can.

本実施形態に関わる情報処理システムの構成を示す説明図である。It is explanatory drawing which shows the structure of the information processing system which concerns on this Embodiment. 本実施形態に関わるアレイマイクによる信号処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the signal processing by the array microphone which concerns on this Embodiment. 本実施形態に関わるアレイマイクと通信装置との間の通信における信号フォーマットの説明図である。It is explanatory drawing of the signal format in the communication between an array microphone and a communication device which concerns on this Embodiment. 本実施形態に関わる通信装置による信号処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the signal processing by the communication device which concerns on this Embodiment. 本実施形態に関わる通信装置とゲートウェイ装置との間の通信における信号フォーマットの説明図である。It is explanatory drawing of the signal format in the communication between a communication device and a gateway device which concerns on this Embodiment.

以下、図面を参照しながら本発明の実施形態について説明する。ここで、同一符号は同一の構成要素を示すものとし、重複する説明は省略する。
図1は本実施形態に関わる情報処理システム100の構成を示す説明図である。情報処理システム100は、ある空間(例えば、店舗やオフィスなど)において発話された音声信号を収集及び解析し、その解析結果である雰囲気や活況度を可視化するためのシステムである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. Here, the same reference numerals indicate the same components, and duplicate description will be omitted.
FIG. 1 is an explanatory diagram showing a configuration of an information processing system 100 according to the present embodiment. The information processing system 100 is a system for collecting and analyzing an audio signal uttered in a certain space (for example, a store or an office) and visualizing the atmosphere and the degree of activity as the analysis result.

情報処理システム100は、音声信号を収集するセンサシステム10と、収集された音声信号を解析するゲートウェイ装置40と、音声信号の解析結果に基づいて雰囲気や活況度などの情報を可視化してユーザに提供するサーバ50とを備える。センサシステム10は、音声信号を収集するアレイマイク20と、アレイマイク20によって収集された音声信号をゲートウェイ装置40に無線送信する通信装置30とを備える。アレイマイク20は、複数のマイク23と、信号処理回路21と、通信回路22とを備える。通信装置30は、信号処理回路31と、通信回路32とを備える。通信回路22,32は、USB(Universal Serial Bus)コントローラを備えており、アレイマイク20と通信装置30とは、USBケーブルを通じて有線接続されている。通信回路32は、無線LAN(Local Area Network)通信モジュールを備えており、通信装置30とゲートウェイ装置40とは、例えば、Wi-Fi(登録商標)などの近距離無線を通じて無線接続されている。ゲートウェイ装置40は、例えば、音声信号を解析する人口知能を搭載しており、発話の量、長さ、テンポなどから雰囲気や活況度を解析する。ゲートウェイ装置40は、音声信号の解析結果をネットワーク60経由でサーバ50に送信する。ネットワーク60は、例えば、インターネット網や移動通信網などの公衆通信網を含む。なお、信号処理回路21,31を区別する場合、前者を第1の信号処理回路と呼び、後者を第2の信号処理回路と呼ぶ。また、通信回路22,32を区別する場合、前者を第1の通信回路と呼び、後者を第2の通信回路と呼ぶ。 The information processing system 100 visualizes information such as an atmosphere and a liveliness level based on a sensor system 10 that collects voice signals, a gateway device 40 that analyzes the collected voice signals, and an analysis result of the voice signals, and provides the user with information. It includes a server 50 to be provided. The sensor system 10 includes an array microphone 20 that collects audio signals, and a communication device 30 that wirelessly transmits the audio signals collected by the array microphones 20 to the gateway device 40. The array microphone 20 includes a plurality of microphones 23, a signal processing circuit 21, and a communication circuit 22. The communication device 30 includes a signal processing circuit 31 and a communication circuit 32. The communication circuits 22 and 32 include a USB (Universal Serial Bus) controller, and the array microphone 20 and the communication device 30 are wiredly connected via a USB cable. The communication circuit 32 includes a wireless LAN (Local Area Network) communication module, and the communication device 30 and the gateway device 40 are wirelessly connected to each other via a short-range wireless device such as Wi-Fi (registered trademark). The gateway device 40 is equipped with artificial intelligence that analyzes voice signals, for example, and analyzes the atmosphere and the degree of activity from the amount, length, tempo, and the like of utterances. The gateway device 40 transmits the analysis result of the audio signal to the server 50 via the network 60. The network 60 includes, for example, a public communication network such as an Internet network or a mobile communication network. When distinguishing the signal processing circuits 21 and 31, the former is referred to as a first signal processing circuit and the latter is referred to as a second signal processing circuit. Further, when distinguishing the communication circuits 22 and 32, the former is referred to as a first communication circuit, and the latter is referred to as a second communication circuit.

図2はアレイマイク20による信号処理の流れを示すフローチャートである。
ステップ201において、各マイク23は、音源(発話者)からの音声信号を収集する。
ステップ202において、信号処理回路21は、各マイク23から出力されるアナログ音声信号をA/D変換する。
ステップ203において、信号処理回路21は、デジタル化された各音声信号を単一の音源データ(デジタルサウンドデータ)に合成するとともに、デジタル化された各音声信号に基づいて音源定位を行う。この音源定位により、音源の方向や音圧が解析される。
ステップ204において、信号処理回路21は、音源データの信号と、音源定位に関わる情報を示す非音声信号とを整形する。
ステップ205において、通信回路22は、所定のデータ区間における音源データと音源定位に関わる情報を示す非音声信号とをそれぞれ別のチャネルを通じて同期して通信装置30に出力する。このとき、通信装置30は、送信先の外部装置として動作する。
FIG. 2 is a flowchart showing the flow of signal processing by the array microphone 20.
In step 201, each microphone 23 collects an audio signal from a sound source (speaker).
In step 202, the signal processing circuit 21 A / D-converts the analog audio signal output from each microphone 23.
In step 203, the signal processing circuit 21 synthesizes each digitized audio signal into a single sound source data (digital sound data), and localizes the sound source based on each digitized audio signal. By this sound source localization, the direction and sound pressure of the sound source are analyzed.
In step 204, the signal processing circuit 21 shapes the signal of the sound source data and the non-audio signal indicating the information related to the sound source localization.
In step 205, the communication circuit 22 synchronizes the sound source data in the predetermined data section and the non-audio signal indicating the information related to the sound source localization to the communication device 30 through different channels. At this time, the communication device 30 operates as an external device of the transmission destination.

図3はアレイマイク20と通信装置30との間の通信における信号フォーマットの説明図である。
アレイマイク20と通信装置30との間の通信では、二つのチャネルCH1,CH2が用いられる。一方のチャネルCH1は、音源データの通信チャネルとして用いられ、他方のチャネルCH2は、音源定位に関わる情報を示す非音声信号の通信チャネルとして用いられる。同図において、符号Dは、一定のデータ長に分割された音源データを示しており、説明の便宜上、これを単位データと呼ぶ。各単位データDは、切れ目なく連続してチャネルCH1を流れる。符号Tは、予め定められた一定のデータ区間を示しており、このデータ区間Tにおける複数の単位データDに基づいて、音源定位の解析が行われる。符号I1,I2は、データ区間Tにおける複数の単位データDについての音源定位の解析結果に関わる情報を担う非音声信号を示す。特に、I1は、音源の方向を示す情報を担う非音声信号を示す。I2は、音圧を示す情報を担う非音声信号を示す。符号Fは、各データ区間Tの先頭位置を指し示すフラグを示す。隣接する二つのフラグFの間隔は、データ区間Tに等しい。「0」は、無意味な情報を示す。
FIG. 3 is an explanatory diagram of a signal format in communication between the array microphone 20 and the communication device 30.
Two channels CH1 and CH2 are used in the communication between the array microphone 20 and the communication device 30. One channel CH1 is used as a communication channel for sound source data, and the other channel CH2 is used as a communication channel for a non-audio signal indicating information related to sound source localization. In the figure, reference numeral D indicates sound source data divided into constant data lengths, which are referred to as unit data for convenience of explanation. Each unit data D continuously flows through the channel CH1 without a break. The reference numeral T indicates a predetermined fixed data section, and the sound source localization analysis is performed based on the plurality of unit data D in the data section T. Reference numerals I1 and I2 indicate non-audio signals that carry information related to the analysis result of sound source localization for a plurality of unit data Ds in the data section T. In particular, I1 represents a non-audio signal carrying information indicating the direction of the sound source. I2 represents a non-audio signal carrying information indicating sound pressure. Reference numeral F indicates a flag indicating the start position of each data section T. The distance between two adjacent flags F is equal to the data interval T. “0” indicates meaningless information.

所定のデータ区間Tにおける音源データと音源定位に関わる情報を示す非音声信号I1,I2とをそれぞれ別のチャネルCH1,CH2を通じて通信装置30に出力することにより、チャネルCH2を流れる非音声信号I1,I2が、チャネルCH1を流れる音源データに対するノイズとして作用することを回避できる。また、所定のデータ区間Tにおける音源データと音源定位に関わる情報を示す非音声信号I1,I2とを同期して通信装置30に出力することにより、チャネルCH2を流れる非音声信号I1,I2が、チャネルCH1を流れる音源データのうちどのデータ区間の音源データに対応するのかを把握することができる。 By outputting the sound source data in the predetermined data section T and the non-audio signals I1 and I2 indicating information related to the sound source localization to the communication device 30 through different channels CH1 and CH2, the non-audio signals I1 and I2 flowing through the channel CH2 It is possible to prevent I2 from acting as noise on the sound source data flowing through the channel CH1. Further, by synchronizing the sound source data in the predetermined data section T with the non-audio signals I1 and I2 indicating information related to the sound source localization and outputting them to the communication device 30, the non-audio signals I1 and I2 flowing through the channel CH2 are generated. It is possible to grasp which data section of the sound source data flowing through the channel CH1 corresponds to the sound source data.

図4は通信装置30による信号処理の流れを示すフローチャートである。
ステップ401において、通信回路32は、音源データと音源定位に関わる情報を示す非音声信号I1,I2とをそれぞれチャネルCH1,CH2を通じて受信する。
ステップ402において、信号処理回路32は、データ区間Tにおける音源データとその音源データに対応する非音声信号I1,I2とが連続するように音源データと非音声信号I1,I2とを並び替える。
ステップ403において、信号処理回路32は、並び替えられた音源データと非音声信号I1,I2とにヘッダ情報を付加し、信号波形を整形する。ヘッダ情報の詳細については後述する。
ステップ404において、通信回路32は、ステップ403で生成された信号をゲートウェイ装置40に無線送信する。このとき、ゲートウェイ装置40は、送信先の外部装置として動作する。
FIG. 4 is a flowchart showing the flow of signal processing by the communication device 30.
In step 401, the communication circuit 32 receives sound source data and non-audio signals I1 and I2 indicating information related to sound source localization through channels CH1 and CH2, respectively.
In step 402, the signal processing circuit 32 rearranges the sound source data and the non-voice signals I1 and I2 so that the sound source data in the data section T and the non-voice signals I1 and I2 corresponding to the sound source data are continuous.
In step 403, the signal processing circuit 32 adds header information to the rearranged sound source data and the non-audio signals I1 and I2, and shapes the signal waveform. The details of the header information will be described later.
In step 404, the communication circuit 32 wirelessly transmits the signal generated in step 403 to the gateway device 40. At this time, the gateway device 40 operates as an external device of the transmission destination.

図5は通信装置30とゲートウェイ装置40との間の通信における信号フォーマットの説明図である。
符号Pは、ペイロードを示しており、一つのデータ区間Tにおける音源データとその音源データに対応する非音声信号I1,I2とが連続するように並び替えられた状態で一つのペイロードPに格納されている。符号Hは、ヘッダ情報を示しており、ペイロードPの先頭に付加される。符号H1は、ペイロードPに格納されているデータ数を示しており、このデータ数は、単位データD及び非音声信号I1,I2のそれぞれを一つのデータとして計数したときの合計値である。単位データD、及び非音声信号I1,I2のそれぞれには、並びの順番を示すオフセット値が付与されている。符号H2は、ペイロードPに格納されているデータ(単位データD、及び非音声信号I1,I2)のうち先頭に位置するデータのオフセット値を示す。このような信号フォーマットによれば、無意味な情報「0」を送信しなくてよいため、通信効率を高めることができる。
FIG. 5 is an explanatory diagram of a signal format in communication between the communication device 30 and the gateway device 40.
The reference numeral P indicates a payload, and the sound source data in one data section T and the non-audio signals I1 and I2 corresponding to the sound source data are stored in one payload P in a state of being rearranged so as to be continuous. ing. Reference numeral H indicates header information, which is added to the beginning of the payload P. Reference numeral H1 indicates the number of data stored in the payload P, and this number of data is the total value when each of the unit data D and the non-voice signals I1 and I2 are counted as one data. An offset value indicating the order of arrangement is assigned to each of the unit data D and the non-audio signals I1 and I2. Reference numeral H2 indicates an offset value of the data located at the head of the data (unit data D and non-audio signals I1 and I2) stored in the payload P. According to such a signal format, it is not necessary to transmit meaningless information "0", so that communication efficiency can be improved.

なお、上述の説明では、デジタル化された各音声信号を単一の音源データに合成する場合を例示したが、本発明はこれに限られるものではなく、例えば、デジタル化された各音声信号を二つの音源データ(例えば、人間が聴きやすい音源データ、及び機械学習に適した音源データ)に合成してもよい。この場合、アレイマイク20と通信装置30との間の通信では、上述の二つのチャネルCH1,CH2に加えてチャネルCH3が用いられる。チャネルCH1は、例えば、人間が聴きやすい音源データの通信チャネルとして用いられる。チャネルCH2は、例えば、機械学習に適した音源データの通信チャネルとして用いられる。CH3は、例えば、音源定位に関わる情報を示す非音声信号の通信チャネルとして用いられる。 In the above description, the case of synthesizing each digitized audio signal into a single sound source data has been illustrated, but the present invention is not limited to this, and for example, each digitized audio signal is used. It may be combined with two sound source data (for example, sound source data that is easy for humans to hear and sound source data suitable for machine learning). In this case, in the communication between the array microphone 20 and the communication device 30, channel CH3 is used in addition to the above-mentioned two channels CH1 and CH2. Channel CH1 is used, for example, as a communication channel for sound source data that is easy for humans to hear. Channel CH2 is used, for example, as a communication channel for sound source data suitable for machine learning. CH3 is used, for example, as a communication channel for a non-audio signal indicating information related to sound source localization.

なお、以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るととともに、本発明にはその等価物も含まれる。即ち、実施形態に当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。また、実施形態が備える各要素は、技術的に可能な限りにおいて組み合わせることができ、これらを組み合わせたものも本発明の特徴を含む限り本発明の範囲に包含される。 It should be noted that the embodiments described above are for facilitating the understanding of the present invention, and are not for limiting and interpreting the present invention. The present invention can be modified / improved without departing from the spirit of the present invention, and the present invention also includes an equivalent thereof. That is, those skilled in the art with appropriate design changes are also included in the scope of the present invention as long as they have the features of the present invention. In addition, the elements included in the embodiment can be combined as much as technically possible, and the combination thereof is also included in the scope of the present invention as long as the features of the present invention are included.

10…センサシステム 20…アレイマイク 21…信号処理回路 22…通信回路 23…マイク 30…通信装置 31…信号処理回路 32…通信回路 40…ゲートウェイ装置 50…サーバ 60…ネットワーク 10 ... Sensor system 20 ... Array microphone 21 ... Signal processing circuit 22 ... Communication circuit 23 ... Microphone 30 ... Communication device 31 ... Signal processing circuit 32 ... Communication circuit 40 ... Gateway device 50 ... Server 60 ... Network

Claims (2)

音声信号を収集する複数のマイクと、
前記複数のマイクのそれぞれが収集した前記音声信号を音源データに合成するとともに前記音声信号に基づいて音源定位を行う信号処理回路と、
所定のデータ区間における前記音源データと前記音源定位に関わる情報を示す非音声信号とをそれぞれ別のチャネルを通じて同期して外部装置に出力する通信回路と、
を備えるアレイマイク。
With multiple microphones that collect audio signals,
A signal processing circuit that synthesizes the audio signal collected by each of the plurality of microphones into sound source data and localizes the sound source based on the audio signal.
A communication circuit that synchronizes the sound source data in a predetermined data section and a non-audio signal indicating information related to the sound source localization through different channels and outputs them to an external device.
Array microphone with.
アレイマイクと通信装置とを備えるセンサシステムであって、
前記アレイマイクは、
音声信号を収集する複数のマイクと、
前記複数のマイクのそれぞれが収集した前記音声信号を音源データに合成するとともに前記音声信号に基づいて音源定位を行う第1の信号処理回路と、
所定のデータ区間における前記音源データと前記音源定位に関わる情報を示す非音声信号とをそれぞれ別のチャネルを通じて同期して前記通信装置に出力する第1の通信回路と、を備え、
前記通信装置は、
前記所定のデータ区間における前記音源データと前記非音声信号とが連続するように前記音源データと前記非音声信号とを並び替える第2の信号処理回路と、
前記第2の信号処理回路によって並び替えられた前記音源データと前記非音声信号とを外部装置に送信する第2の通信回路とを備える、センサシステム。
A sensor system equipped with an array microphone and a communication device.
The array microphone
With multiple microphones that collect audio signals,
A first signal processing circuit that synthesizes the audio signal collected by each of the plurality of microphones into sound source data and localizes the sound source based on the audio signal.
It is provided with a first communication circuit that synchronizes the sound source data in a predetermined data section and a non-audio signal indicating information related to the sound source localization through different channels and outputs the sound source data to the communication device.
The communication device is
A second signal processing circuit that rearranges the sound source data and the non-audio signal so that the sound source data and the non-audio signal in the predetermined data section are continuous.
A sensor system including a second communication circuit that transmits the sound source data sorted by the second signal processing circuit and the non-audio signal to an external device.
JP2020565630A 2019-01-10 2019-12-06 Array microphone and sensor system Pending JPWO2020144990A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019002889 2019-01-10
JP2019002889 2019-01-10
PCT/JP2019/047847 WO2020144990A1 (en) 2019-01-10 2019-12-06 Array microphone and sensor system

Publications (1)

Publication Number Publication Date
JPWO2020144990A1 true JPWO2020144990A1 (en) 2021-10-14

Family

ID=71520176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020565630A Pending JPWO2020144990A1 (en) 2019-01-10 2019-12-06 Array microphone and sensor system

Country Status (2)

Country Link
JP (1) JPWO2020144990A1 (en)
WO (1) WO2020144990A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005333680A (en) * 1997-04-17 2005-12-02 Ntt Docomo Inc Base station apparatus in mobile communication system
JP2011182388A (en) * 2010-02-02 2011-09-15 Panasonic Corp Video recording apparatus, and video reproducing apparatus
JP2017028529A (en) * 2015-07-23 2017-02-02 パナソニックIpマネジメント株式会社 Monitoring system and monitoring method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4849898B2 (en) * 2006-01-30 2012-01-11 オンセミコンダクター・トレーディング・リミテッド Tire pressure detection system and tire pressure detection device
EP2599068B1 (en) * 2010-07-28 2020-03-04 Cohda Wireless Pty Ltd An intelligent transportation systems device
FR3003943A1 (en) * 2013-03-27 2014-10-03 Panasonic Corp ENERGY METER AND ENERGY MEASURING SYSTEM

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005333680A (en) * 1997-04-17 2005-12-02 Ntt Docomo Inc Base station apparatus in mobile communication system
JP2011182388A (en) * 2010-02-02 2011-09-15 Panasonic Corp Video recording apparatus, and video reproducing apparatus
JP2017028529A (en) * 2015-07-23 2017-02-02 パナソニックIpマネジメント株式会社 Monitoring system and monitoring method

Also Published As

Publication number Publication date
WO2020144990A1 (en) 2020-07-16

Similar Documents

Publication Publication Date Title
NL2021308B1 (en) Methods for a voice processing system
JP5519689B2 (en) Sound processing apparatus, sound processing method, and hearing aid
AU2007221816B2 (en) Estimating own-voice activity in a hearing-instrument system from direct-to-reverberant ratio
CN101751918B (en) Novel silencer and noise reduction method
US20060045289A1 (en) Sound collection system
JPWO2010005050A1 (en) Signal analysis apparatus, signal control apparatus and method, and program
JP2007034238A (en) On-site operation support system
KR101850693B1 (en) Apparatus and method for extending bandwidth of earset with in-ear microphone
JPWO2020144990A1 (en) Array microphone and sensor system
JP4840082B2 (en) Voice communication device
US9295423B2 (en) System and method for audio kymographic diagnostics
JP2007187748A (en) Sound selective processing device
US20220189498A1 (en) Signal processing device, signal processing method, and program
CN115297404A (en) Audio processing system and method and vehicle
JP6150707B2 (en) Voice data synthesis terminal, voice data recording terminal, voice data synthesis method, voice output method, and program
US20180061433A1 (en) Signal processing device, signal processing method, and computer program product
JP5157863B2 (en) Information embedding device for acoustic signal and position detecting device using acoustic signal
JP6515591B2 (en) Speech analysis device, speech analysis system and program
JP2007267331A (en) Combination microphone system for speaking voice collection
JP2007086592A (en) Speech output device and method therefor
JP7296214B2 (en) speech recognition system
JP5176391B2 (en) Audio transmitter
JP2004072354A (en) Audio teleconference system
WO2017116022A1 (en) Apparatus and method for extending bandwidth of earset having in-ear microphone
Dekens et al. A Multi-sensor Speech Database with Applications towards Robust Speech Processing in hostile Environments.

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220331