WO2020144990A1 - アレイマイク及びセンサシステム - Google Patents

アレイマイク及びセンサシステム Download PDF

Info

Publication number
WO2020144990A1
WO2020144990A1 PCT/JP2019/047847 JP2019047847W WO2020144990A1 WO 2020144990 A1 WO2020144990 A1 WO 2020144990A1 JP 2019047847 W JP2019047847 W JP 2019047847W WO 2020144990 A1 WO2020144990 A1 WO 2020144990A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound source
sound
source data
communication
data
Prior art date
Application number
PCT/JP2019/047847
Other languages
English (en)
French (fr)
Inventor
秀夫 瀬山
Original Assignee
株式会社村田製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社村田製作所 filed Critical 株式会社村田製作所
Priority to JP2020565630A priority Critical patent/JPWO2020144990A1/ja
Publication of WO2020144990A1 publication Critical patent/WO2020144990A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C15/00Arrangements characterised by the use of multiplexing for the transmission of a plurality of signals over a common path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • the present invention relates to an array microphone and a sensor system.
  • the array microphone is a microphone that is spatially arranged. If the distance from the sound source to each microphone is different, the arrival time required for the sound wave from the sound source to reach each microphone is also different. The difference in the arrival time of sound waves from the sound source to each microphone can be expressed as a function of the position of the sound source. By utilizing this principle, sound source localization can be performed. By using the sound source localization technique, for example, the position and direction of the speaker in a certain space can be estimated.
  • an audio signal collected by the array microphone and a non-audio signal indicating information related to sound source localization (for example, information indicating the direction and sound pressure of the sound source) that is the result of analysis of the audio signal are described in, for example, Japanese Patent Application Laid-Open No. 2004-242242.
  • the non-voice signal may act as noise on the voice signal.
  • the present invention solves such a problem, and a voice signal and a non-voice signal are external devices so that the non-voice signal indicating the information related to the sound source localization as a result of analyzing the voice signal does not act as noise to the voice signal. It is an object to propose an array microphone that can be output to.
  • an array microphone includes a plurality of microphones that collect audio signals, and synthesizes the audio signals collected by each of the microphones into sound source data, and also performs sound source localization based on the sound signals. And a communication circuit that outputs sound source data in a predetermined data section and a non-voice signal indicating information related to sound source localization to an external device in synchronization through different channels.
  • the present invention it is possible to output a voice signal and a non-voice signal to an external device so that the non-voice signal indicating information related to sound source localization, which is a result of analyzing the voice signal, does not act as noise on the voice signal. it can.
  • FIG. 1 is an explanatory diagram showing a configuration of an information processing system 100 according to this embodiment.
  • the information processing system 100 is a system for collecting and analyzing a voice signal spoken in a certain space (for example, a store or an office) and visualizing an atmosphere or a degree of activity as a result of the analysis.
  • the information processing system 100 includes a sensor system 10 that collects voice signals, a gateway device 40 that analyzes the collected voice signals, and a user by visualizing information such as atmosphere and activity level based on the analysis result of the voice signals.
  • the server 50 which provides.
  • the sensor system 10 includes an array microphone 20 that collects an audio signal, and a communication device 30 that wirelessly transmits the audio signal collected by the array microphone 20 to the gateway device 40.
  • the array microphone 20 includes a plurality of microphones 23, a signal processing circuit 21, and a communication circuit 22.
  • the communication device 30 includes a signal processing circuit 31 and a communication circuit 32.
  • the communication circuits 22 and 32 include a USB (Universal Serial Bus) controller, and the array microphone 20 and the communication device 30 are wire-connected via a USB cable.
  • USB Universal Serial Bus
  • the communication circuit 32 includes a wireless LAN (Local Area Network) communication module, and the communication device 30 and the gateway device 40 are wirelessly connected to each other through a short-range wireless communication such as Wi-Fi (registered trademark).
  • the gateway device 40 is equipped with, for example, artificial intelligence that analyzes a voice signal, and analyzes the atmosphere and activity level from the amount, length, tempo, etc. of speech.
  • the gateway device 40 transmits the analysis result of the audio signal to the server 50 via the network 60.
  • the network 60 includes, for example, a public communication network such as the Internet network or a mobile communication network.
  • the former is called a first signal processing circuit and the latter is called a second signal processing circuit.
  • the former is called a first communication circuit and the latter is called a second communication circuit.
  • FIG. 2 is a flowchart showing the flow of signal processing by the array microphone 20.
  • each microphone 23 collects a voice signal from a sound source (speaker).
  • the signal processing circuit 21 A/D converts the analog audio signal output from each microphone 23.
  • the signal processing circuit 21 synthesizes each digitized sound signal into a single sound source data (digital sound data), and performs sound source localization based on each digitized sound signal. By this sound source localization, the direction and sound pressure of the sound source are analyzed.
  • the signal processing circuit 21 shapes the signal of the sound source data and the non-voice signal indicating the information regarding the sound source localization.
  • step 205 the communication circuit 22 outputs the sound source data in a predetermined data section and the non-voice signal indicating the information related to the sound source localization to the communication device 30 in synchronization through different channels.
  • the communication device 30 operates as a destination external device.
  • FIG. 3 is an explanatory diagram of a signal format in communication between the array microphone 20 and the communication device 30.
  • Two channels CH1 and CH2 are used for communication between the array microphone 20 and the communication device 30.
  • One channel CH1 is used as a communication channel for sound source data
  • the other channel CH2 is used as a communication channel for a non-voice signal indicating information related to sound source localization.
  • reference numeral D indicates sound source data divided into a constant data length, and for convenience of explanation, this is referred to as unit data.
  • Each unit data D continuously flows through the channel CH1 without a break.
  • Reference symbol T indicates a predetermined constant data section, and the sound source localization is analyzed based on a plurality of unit data D in this data section T.
  • Reference symbols I1 and I2 represent non-voice signals that carry information related to the analysis result of the sound source localization for the plurality of unit data D in the data section T.
  • I1 represents a non-voice signal that carries information indicating the direction of the sound source.
  • I2 indicates a non-voice signal that carries information indicating sound pressure.
  • the code F indicates a flag indicating the head position of each data section T. The interval between two adjacent flags F is equal to the data section T. “0” indicates meaningless information.
  • the non-speech signal I1 flowing through the channel CH2 is output.
  • I2 can be prevented from acting as noise on the sound source data flowing through the channel CH1.
  • the sound source data in the predetermined data section T and the non-voice signals I1 and I2 indicating the information related to the sound source localization are synchronously output to the communication device 30, whereby the non-voice signals I1 and I2 flowing through the channel CH2 are It is possible to grasp which data section of the sound source data flowing through the channel CH1 corresponds to the sound source data.
  • FIG. 4 is a flowchart showing the flow of signal processing by the communication device 30.
  • the communication circuit 32 receives sound source data and non-speech signals I1 and I2 indicating information related to sound source localization through channels CH1 and CH2, respectively.
  • the signal processing circuit 32 rearranges the sound source data and the non-speech signals I1 and I2 so that the sound source data in the data section T and the non-speech signals I1 and I2 corresponding to the sound source data are continuous.
  • the signal processing circuit 32 adds header information to the rearranged sound source data and the non-voice signals I1 and I2, and shapes the signal waveform. Details of the header information will be described later.
  • the communication circuit 32 wirelessly transmits the signal generated in step 403 to the gateway device 40. At this time, the gateway device 40 operates as a destination external device.
  • FIG. 5 is an explanatory diagram of a signal format in communication between the communication device 30 and the gateway device 40.
  • Reference symbol P indicates a payload, which is stored in one payload P in a state where the sound source data in one data section T and the non-voice signals I1 and I2 corresponding to the sound source data are rearranged so as to be continuous. ing.
  • the code H indicates header information, which is added to the beginning of the payload P.
  • Reference numeral H1 indicates the number of data stored in the payload P, and this data number is a total value when the unit data D and the non-voice signals I1 and I2 are counted as one data.
  • Each of the unit data D and the non-audio signals I1 and I2 is provided with an offset value indicating the order of arrangement.
  • the symbol H2 indicates an offset value of the data located at the head of the data (unit data D and the non-voice signals I1 and I2) stored in the payload P. According to such a signal format, it is not necessary to transmit meaningless information "0", so that communication efficiency can be improved.
  • each digitized audio signal is combined into a single sound source data
  • the present invention is not limited to this, and for example, each digitized audio signal is Two sound source data (for example, sound source data that human beings can easily hear and sound source data suitable for machine learning) may be combined.
  • the channel CH3 is used in addition to the above-mentioned two channels CH1 and CH2.
  • the channel CH1 is used, for example, as a communication channel for sound source data that is easily heard by humans.
  • the channel CH2 is used, for example, as a communication channel for sound source data suitable for machine learning.
  • CH3 is used, for example, as a communication channel of a non-voice signal indicating information related to sound source localization.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

アレイマイクは、音声信号を収集する複数のマイクと、複数のマイクのそれぞれが収集した音声信号を音源データに合成するとともに音声信号に基づいて音源定位を行う信号処理回路と、所定のデータ区間における音源データと音源定位に関わる情報を示す非音声信号とをそれぞれ別のチャネルを通じて同期して外部装置に出力する通信回路とを備える。

Description

アレイマイク及びセンサシステム
 本発明はアレイマイク及びセンサシステムに関する。
 複数のマイクを空間的に配置したものはアレイマイクと呼ばれている。音源から各マイクまでの距離が異なれば、音源からの音波が各マイクに到達するまでに要する到達時間も異なる。音源から各マイクまでの音波の到達時間の差は、音源の位置の関数として表すことができる。この原理を利用して、音源定位を行うことができる。音源定位の技術を用いることにより、例えば、ある空間における話者の位置及び方向を推定することができる。
特開2006-5511号公報
 アレイマイクが収集した音声信号と、その音声信号を解析した結果である音源定位に関わる情報(例えば、音源の方向や音圧を示す情報)を示す非音声信号とを、例えば、特許文献1の記載のように、同一のスロット内で無線送信すると、非音声信号が音声信号に対するノイズとして作用することがある。
 本発明はこのような問題を解決し、音声信号を解析した結果である音源定位に関わる情報を示す非音声信号が音声信号に対するノイズとして作用しないように、音声信号と非音声信号とを外部装置に出力することのできるアレイマイクを提案することを課題とする。
 上述の課題を解決するため、本発明に関わるアレイマイクは、音声信号を収集する複数のマイクと、複数のマイクのそれぞれが収集した音声信号を音源データに合成するとともに音声信号に基づいて音源定位を行う信号処理回路と、所定のデータ区間における音源データと音源定位に関わる情報を示す非音声信号とをそれぞれ別のチャネルを通じて同期して外部装置に出力する通信回路とを備える。
 本発明によれば、音声信号を解析した結果である音源定位に関わる情報を示す非音声信号が音声信号に対するノイズとして作用しないように、音声信号と非音声信号とを外部装置に出力するこができる。
本実施形態に関わる情報処理システムの構成を示す説明図である。 本実施形態に関わるアレイマイクによる信号処理の流れを示すフローチャートである。 本実施形態に関わるアレイマイクと通信装置との間の通信における信号フォーマットの説明図である。 本実施形態に関わる通信装置による信号処理の流れを示すフローチャートである。 本実施形態に関わる通信装置とゲートウェイ装置との間の通信における信号フォーマットの説明図である。
 以下、図面を参照しながら本発明の実施形態について説明する。ここで、同一符号は同一の構成要素を示すものとし、重複する説明は省略する。
 図1は本実施形態に関わる情報処理システム100の構成を示す説明図である。情報処理システム100は、ある空間(例えば、店舗やオフィスなど)において発話された音声信号を収集及び解析し、その解析結果である雰囲気や活況度を可視化するためのシステムである。
 情報処理システム100は、音声信号を収集するセンサシステム10と、収集された音声信号を解析するゲートウェイ装置40と、音声信号の解析結果に基づいて雰囲気や活況度などの情報を可視化してユーザに提供するサーバ50とを備える。センサシステム10は、音声信号を収集するアレイマイク20と、アレイマイク20によって収集された音声信号をゲートウェイ装置40に無線送信する通信装置30とを備える。アレイマイク20は、複数のマイク23と、信号処理回路21と、通信回路22とを備える。通信装置30は、信号処理回路31と、通信回路32とを備える。通信回路22,32は、USB(Universal Serial Bus)コントローラを備えており、アレイマイク20と通信装置30とは、USBケーブルを通じて有線接続されている。通信回路32は、無線LAN(Local Area Network)通信モジュールを備えており、通信装置30とゲートウェイ装置40とは、例えば、Wi-Fi(登録商標)などの近距離無線を通じて無線接続されている。ゲートウェイ装置40は、例えば、音声信号を解析する人口知能を搭載しており、発話の量、長さ、テンポなどから雰囲気や活況度を解析する。ゲートウェイ装置40は、音声信号の解析結果をネットワーク60経由でサーバ50に送信する。ネットワーク60は、例えば、インターネット網や移動通信網などの公衆通信網を含む。なお、信号処理回路21,31を区別する場合、前者を第1の信号処理回路と呼び、後者を第2の信号処理回路と呼ぶ。また、通信回路22,32を区別する場合、前者を第1の通信回路と呼び、後者を第2の通信回路と呼ぶ。
 図2はアレイマイク20による信号処理の流れを示すフローチャートである。
 ステップ201において、各マイク23は、音源(発話者)からの音声信号を収集する。
 ステップ202において、信号処理回路21は、各マイク23から出力されるアナログ音声信号をA/D変換する。
 ステップ203において、信号処理回路21は、デジタル化された各音声信号を単一の音源データ(デジタルサウンドデータ)に合成するとともに、デジタル化された各音声信号に基づいて音源定位を行う。この音源定位により、音源の方向や音圧が解析される。
 ステップ204において、信号処理回路21は、音源データの信号と、音源定位に関わる情報を示す非音声信号とを整形する。
 ステップ205において、通信回路22は、所定のデータ区間における音源データと音源定位に関わる情報を示す非音声信号とをそれぞれ別のチャネルを通じて同期して通信装置30に出力する。このとき、通信装置30は、送信先の外部装置として動作する。
 図3はアレイマイク20と通信装置30との間の通信における信号フォーマットの説明図である。
 アレイマイク20と通信装置30との間の通信では、二つのチャネルCH1,CH2が用いられる。一方のチャネルCH1は、音源データの通信チャネルとして用いられ、他方のチャネルCH2は、音源定位に関わる情報を示す非音声信号の通信チャネルとして用いられる。同図において、符号Dは、一定のデータ長に分割された音源データを示しており、説明の便宜上、これを単位データと呼ぶ。各単位データDは、切れ目なく連続してチャネルCH1を流れる。符号Tは、予め定められた一定のデータ区間を示しており、このデータ区間Tにおける複数の単位データDに基づいて、音源定位の解析が行われる。符号I1,I2は、データ区間Tにおける複数の単位データDについての音源定位の解析結果に関わる情報を担う非音声信号を示す。特に、I1は、音源の方向を示す情報を担う非音声信号を示す。I2は、音圧を示す情報を担う非音声信号を示す。符号Fは、各データ区間Tの先頭位置を指し示すフラグを示す。隣接する二つのフラグFの間隔は、データ区間Tに等しい。「0」は、無意味な情報を示す。
 所定のデータ区間Tにおける音源データと音源定位に関わる情報を示す非音声信号I1,I2とをそれぞれ別のチャネルCH1,CH2を通じて通信装置30に出力することにより、チャネルCH2を流れる非音声信号I1,I2が、チャネルCH1を流れる音源データに対するノイズとして作用することを回避できる。また、所定のデータ区間Tにおける音源データと音源定位に関わる情報を示す非音声信号I1,I2とを同期して通信装置30に出力することにより、チャネルCH2を流れる非音声信号I1,I2が、チャネルCH1を流れる音源データのうちどのデータ区間の音源データに対応するのかを把握することができる。
 図4は通信装置30による信号処理の流れを示すフローチャートである。
 ステップ401において、通信回路32は、音源データと音源定位に関わる情報を示す非音声信号I1,I2とをそれぞれチャネルCH1,CH2を通じて受信する。
 ステップ402において、信号処理回路32は、データ区間Tにおける音源データとその音源データに対応する非音声信号I1,I2とが連続するように音源データと非音声信号I1,I2とを並び替える。
 ステップ403において、信号処理回路32は、並び替えられた音源データと非音声信号I1,I2とにヘッダ情報を付加し、信号波形を整形する。ヘッダ情報の詳細については後述する。
 ステップ404において、通信回路32は、ステップ403で生成された信号をゲートウェイ装置40に無線送信する。このとき、ゲートウェイ装置40は、送信先の外部装置として動作する。
 図5は通信装置30とゲートウェイ装置40との間の通信における信号フォーマットの説明図である。
 符号Pは、ペイロードを示しており、一つのデータ区間Tにおける音源データとその音源データに対応する非音声信号I1,I2とが連続するように並び替えられた状態で一つのペイロードPに格納されている。符号Hは、ヘッダ情報を示しており、ペイロードPの先頭に付加される。符号H1は、ペイロードPに格納されているデータ数を示しており、このデータ数は、単位データD及び非音声信号I1,I2のそれぞれを一つのデータとして計数したときの合計値である。単位データD、及び非音声信号I1,I2のそれぞれには、並びの順番を示すオフセット値が付与されている。符号H2は、ペイロードPに格納されているデータ(単位データD、及び非音声信号I1,I2)のうち先頭に位置するデータのオフセット値を示す。このような信号フォーマットによれば、無意味な情報「0」を送信しなくてよいため、通信効率を高めることができる。
 なお、上述の説明では、デジタル化された各音声信号を単一の音源データに合成する場合を例示したが、本発明はこれに限られるものではなく、例えば、デジタル化された各音声信号を二つの音源データ(例えば、人間が聴きやすい音源データ、及び機械学習に適した音源データ)に合成してもよい。この場合、アレイマイク20と通信装置30との間の通信では、上述の二つのチャネルCH1,CH2に加えてチャネルCH3が用いられる。チャネルCH1は、例えば、人間が聴きやすい音源データの通信チャネルとして用いられる。チャネルCH2は、例えば、機械学習に適した音源データの通信チャネルとして用いられる。CH3は、例えば、音源定位に関わる情報を示す非音声信号の通信チャネルとして用いられる。
 なお、以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るととともに、本発明にはその等価物も含まれる。即ち、実施形態に当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。また、実施形態が備える各要素は、技術的に可能な限りにおいて組み合わせることができ、これらを組み合わせたものも本発明の特徴を含む限り本発明の範囲に包含される。
10…センサシステム 20…アレイマイク 21…信号処理回路 22…通信回路 23…マイク 30…通信装置 31…信号処理回路 32…通信回路 40…ゲートウェイ装置 50…サーバ 60…ネットワーク

Claims (2)

  1.  音声信号を収集する複数のマイクと、
     前記複数のマイクのそれぞれが収集した前記音声信号を音源データに合成するとともに前記音声信号に基づいて音源定位を行う信号処理回路と、
     所定のデータ区間における前記音源データと前記音源定位に関わる情報を示す非音声信号とをそれぞれ別のチャネルを通じて同期して外部装置に出力する通信回路と、
     を備えるアレイマイク。
  2.  アレイマイクと通信装置とを備えるセンサシステムであって、
     前記アレイマイクは、
     音声信号を収集する複数のマイクと、
     前記複数のマイクのそれぞれが収集した前記音声信号を音源データに合成するとともに前記音声信号に基づいて音源定位を行う第1の信号処理回路と、
     所定のデータ区間における前記音源データと前記音源定位に関わる情報を示す非音声信号とをそれぞれ別のチャネルを通じて同期して前記通信装置に出力する第1の通信回路と、を備え、
     前記通信装置は、
     前記所定のデータ区間における前記音源データと前記非音声信号とが連続するように前記音源データと前記非音声信号とを並び替える第2の信号処理回路と、
     前記第2の信号処理回路によって並び替えられた前記音源データと前記非音声信号とを外部装置に送信する第2の通信回路とを備える、センサシステム。
PCT/JP2019/047847 2019-01-10 2019-12-06 アレイマイク及びセンサシステム WO2020144990A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020565630A JPWO2020144990A1 (ja) 2019-01-10 2019-12-06 アレイマイク及びセンサシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-002889 2019-01-10
JP2019002889 2019-01-10

Publications (1)

Publication Number Publication Date
WO2020144990A1 true WO2020144990A1 (ja) 2020-07-16

Family

ID=71520176

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/047847 WO2020144990A1 (ja) 2019-01-10 2019-12-06 アレイマイク及びセンサシステム

Country Status (2)

Country Link
JP (1) JPWO2020144990A1 (ja)
WO (1) WO2020144990A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007196962A (ja) * 2006-01-30 2007-08-09 Sanyo Electric Co Ltd タイヤ圧力検知システム及びタイヤ圧力検知装置
US20130337855A1 (en) * 2010-07-28 2013-12-19 Cohda Wireless Pty. Ltd. Intelligent transportation systems device
WO2014156156A1 (ja) * 2013-03-27 2014-10-02 パナソニック株式会社 電力量計、電力量計量システム
JP2017028529A (ja) * 2015-07-23 2017-02-02 パナソニックIpマネジメント株式会社 モニタリングシステム及びモニタリング方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4283789B2 (ja) * 1997-04-17 2009-06-24 株式会社エヌ・ティ・ティ・ドコモ 移動通信システムにおける基地局装置
JP2011182388A (ja) * 2010-02-02 2011-09-15 Panasonic Corp 映像記録装置および映像再生装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007196962A (ja) * 2006-01-30 2007-08-09 Sanyo Electric Co Ltd タイヤ圧力検知システム及びタイヤ圧力検知装置
US20130337855A1 (en) * 2010-07-28 2013-12-19 Cohda Wireless Pty. Ltd. Intelligent transportation systems device
WO2014156156A1 (ja) * 2013-03-27 2014-10-02 パナソニック株式会社 電力量計、電力量計量システム
JP2017028529A (ja) * 2015-07-23 2017-02-02 パナソニックIpマネジメント株式会社 モニタリングシステム及びモニタリング方法

Also Published As

Publication number Publication date
JPWO2020144990A1 (ja) 2021-10-14

Similar Documents

Publication Publication Date Title
US8082149B2 (en) Methods and apparatuses for myoelectric-based speech processing
WO2010005050A1 (ja) 信号分析装置、信号制御装置及びその方法と、プログラム
AU2015310052B2 (en) Audio processing device and method of providing information
JP2009139592A (ja) 音声処理装置、音声処理システム及び音声処理プログラム
WO2019090283A1 (en) Coordinating translation request metadata between devices
JP2022531363A (ja) 骨伝導センサを備える聴覚機器
US20220180886A1 (en) Methods for clear call under noisy conditions
WO2020144990A1 (ja) アレイマイク及びセンサシステム
WO2024027760A1 (zh) 音频处理系统、方法和车辆
JP4840082B2 (ja) 音声通信装置
US9295423B2 (en) System and method for audio kymographic diagnostics
KR20170098761A (ko) 인-이어 마이크로폰을 갖는 이어셋의 대역폭 확장 장치 및 방법
JP2007187748A (ja) 音選択加工装置
CN112840397A (zh) 信息处理装置及信息处理方法
JP6231244B1 (ja) 再生システム、端末装置、情報提供方法、端末装置の動作方法およびプログラム
JP2007267331A (ja) 発話音声収集用コンビネーション・マイクロフォンシステム
US20220189498A1 (en) Signal processing device, signal processing method, and program
JP6150707B2 (ja) 音声データ合成端末、音声データ記録端末、音声データ合成方法、音声出力方法、及びプログラム
JP7296214B2 (ja) 音声認識システム
JP5176391B2 (ja) 音声送信装置
JP6596144B2 (ja) 情報提供方法、音響処理装置およびプログラム
JP7110057B2 (ja) 音声認識システム
JP6825642B2 (ja) 音響処理システムおよび音響処理方法
JP6447695B2 (ja) 再生システムおよび情報提供方法
Dekens et al. A Multi-sensor Speech Database with Applications towards Robust Speech Processing in hostile Environments.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19908465

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020565630

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19908465

Country of ref document: EP

Kind code of ref document: A1