JP2013140534A - Voice analysis device, voice analysis system, and program - Google Patents
Voice analysis device, voice analysis system, and program Download PDFInfo
- Publication number
- JP2013140534A JP2013140534A JP2012001026A JP2012001026A JP2013140534A JP 2013140534 A JP2013140534 A JP 2013140534A JP 2012001026 A JP2012001026 A JP 2012001026A JP 2012001026 A JP2012001026 A JP 2012001026A JP 2013140534 A JP2013140534 A JP 2013140534A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- wearer
- information
- sound
- microphone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
本発明は、音声解析装置、音声解析システム、プログラムに関する。 The present invention relates to a voice analysis device, a voice analysis system, and a program.
特許文献1には、ユーザを識別するユーザIDと、端末で取得された音声と、音声の発話期間とを端末から受付ける音声受付部と、複数の端末から受付けた音声間の相関関係を表す相関値を算出して予め定められた第1閾値と比較し、相関値が第1閾値より大きい場合に、相関値を算出した音声を受付けた複数の端末が互いに近接すると判定する近接判定部と、対話の検出対象とする任意の対象期間内における、近接すると判定された複数の端末から受付けた発話期間の関係が、予め定められた規則に適合するか否かを判定し、規則に適合すると判定されたときの対象期間と、近接すると判定された複数の端末から受付けたユーザIDとを含む対話情報を検出する対話検出部と、を備えた対話検出装置が開示されている。
In
本発明は、複数の装着者の音声取得手段で取得される音声に関する情報から、装着者相互の会話関係を把握することを目的とする。 An object of this invention is to grasp | ascertain the conversation relationship between wearers from the information regarding the audio | voice acquired by the audio | voice acquisition means of several wearers.
請求項1に記載の発明は、装着者の発声部位からの距離が異なる位置に配され音声を取得するための複数の音声取得手段を備える端末装置から音声の音声信号に関する情報を受信する音声情報受信部と、複数の前記音声取得手段により取得された音声の音圧差により音声が装着者のものであるか装着者以外の他者のものであるかを識別した情報である自他識別情報を使用して、複数の前記端末装置から前記音声情報受信部にて受信した音声の音声信号に関する情報より音声の同調性を判別することで、装着者の会話関係を判定する会話関係判定部と、を備えたことを特徴とする音声解析装置である。 According to the first aspect of the present invention, there is provided audio information for receiving information related to an audio signal of a voice from a terminal device provided with a plurality of voice acquisition means for acquiring voices arranged at different distances from the utterance part of the wearer. Self-other identification information, which is information identifying whether the sound belongs to the wearer or other than the wearer based on the sound pressure difference of the sound acquired by the receiving unit and the plurality of sound acquisition means. A conversation relation determination unit that determines the conversation relation of the wearer by determining the synchrony of the voice from the information related to the voice signal of the voice received by the voice information reception unit from the plurality of terminal devices; Is a voice analysis device characterized by comprising:
請求項2に記載の発明は、前記会話関係判定部は、複数の装着者から取得した音声の重複時間の長さおよび空隙時間の長さの少なくとも一方が予め定められた範囲内であるか否かで前記同調性を判別することを特徴とする請求項1に記載の音声解析装置である。
請求項3に記載の発明は、前記会話関係判定部にて使用される自他識別情報は、前記音声情報受信部により受信される音声の音声信号に関する情報に含まれることを特徴とする請求項1または2に記載の音声解析装置である。
According to a second aspect of the present invention, the conversation relation determination unit determines whether at least one of the length of the overlapping time and the length of the gap time of the voices acquired from the plurality of wearers is within a predetermined range. The speech analysis apparatus according to
The invention according to claim 3 is characterized in that the self-other identification information used in the conversation relation determination unit is included in information related to a voice signal of a voice received by the voice information receiving unit. The speech analysis apparatus according to 1 or 2.
請求項4に記載の発明は、装着者の発声部位からの距離が異なる位置に配され音声を取得するための複数の音声取得手段を備える端末装置と、複数の前記音声取得手段により取得された音声の音圧差により音声が装着者のものであるか装着者以外の他者のものであるかを識別した情報である自他識別情報を導出する自他識別部と、前記自他識別部により導出された自他識別情報を使用して、前記音声取得手段にて受信した音声の同調性を判別することで、装着者の会話関係を判定する会話関係判定部と、を備えたことを特徴とする音声解析システムである。 The invention according to claim 4 is acquired by a terminal device provided with a plurality of voice acquisition means for acquiring voices arranged at different positions from the utterance part of the wearer, and the plurality of voice acquisition means. A self-other identification unit for deriving self-other identification information, which is information identifying whether the voice belongs to the wearer or another person other than the wearer, based on the sound pressure difference between the voice and the self-other identification unit; A conversation relation determination unit that determines the conversation relation of the wearer by determining the synchrony of the voice received by the voice acquisition unit using the derived self-other identification information. Is a speech analysis system.
請求項5に記載の発明は、前記自他識別情報を含む音声の音声信号に関する情報を送信する音声情報送信部と、当該音声情報送信部により送信された音声の音声信号に関する情報を受信する音声情報受信部と、をさらに備えることを特徴とする請求項4に記載の音声解析システムである。 According to a fifth aspect of the present invention, there is provided a voice information transmitting unit that transmits information related to a voice signal including the self-other identification information, and a voice that receives information related to a voice signal transmitted from the voice information transmitting unit. The voice analysis system according to claim 4, further comprising an information receiving unit.
請求項6に記載の発明は、コンピュータに、装着者の発声部位からの距離が異なる位置に配され音声を取得するための複数の音声取得手段を備える端末装置から音声の音声信号に関する情報を受信する機能と、複数の前記音声取得手段により取得された音声の音圧差により音声が装着者のものであるか装着者以外の他者のものであるかを識別した情報である自他識別情報を使用して、複数の前記端末装置から前記音声情報受信部にて受信した音声の音声信号に関する情報より音声の同調性を判別することで、装着者の会話関係を判定する機能と、を実現させるプログラムである。 According to a sixth aspect of the present invention, information related to a voice signal of a voice is received from a terminal device that is provided with a plurality of voice acquisition means for acquiring voices at different positions from the wearer's utterance site. Self-other identification information which is information for identifying whether the sound belongs to the wearer or other than the wearer by the sound pressure difference between the sounds acquired by the plurality of sound acquisition means And a function for determining the conversational relationship of the wearer by determining the synchrony of the sound from the information regarding the sound signal of the sound received from the plurality of terminal devices by the sound information receiving unit. It is a program.
請求項1の発明によれば、複数の装着者の音声取得手段で取得される音声に関する情報から、装着者相互の会話関係を把握することができる音声解析装置を提供できる。
請求項2の発明によれば、本構成を採用しない場合に比較して、同調性の判定がより容易になる。
請求項3の発明によれば、本構成を採用しない場合に比較して、音声を直接送信する必要がなくセキュリティを向上させることができる。
請求項4の発明によれば、複数の装着者の音声取得手段で取得される音声に基づき、装着者のコミュニケーション関係が把握できるシステムを構築できる。
請求項5の発明によれば、音声取得手段を装着者により容易に装着することができるとともに、装着者相互の会話関係を把握する処理を一元的に行なうことができる。
請求項6の発明によれば、複数の装着者の音声取得手段で取得される音声に関する情報から、装着者相互の会話関係を把握することができる機能をコンピュータにより実現できる。
According to the first aspect of the present invention, it is possible to provide a voice analysis device capable of grasping the conversation relationship between the wearers from the information about the voices acquired by the voice acquisition means of the plurality of wearers.
According to the second aspect of the present invention, it is easier to determine the synchronism as compared with the case where this configuration is not adopted.
According to the third aspect of the present invention, it is not necessary to directly transmit voice as compared with the case where this configuration is not adopted, and security can be improved.
According to the invention of claim 4, it is possible to construct a system capable of grasping the wearer's communication relationship based on the voices acquired by the voice acquisition means of a plurality of wearers.
According to the invention of claim 5, the voice acquisition means can be easily worn by the wearer, and the process for grasping the conversation relationship between the wearers can be performed in a unified manner.
According to the sixth aspect of the present invention, the computer can realize a function that can grasp the conversational relationship between the wearers from the information about the voices acquired by the voice acquisition means of the plurality of wearers.
以下、添付図面を参照して、本発明の実施形態について詳細に説明する。
<システム構成例>
図1は、本実施形態による音声解析システムの構成例を示す図である。
図1に示すように、本実施形態の音声解析システム1は、端末装置10と、音声解析装置の一例であるホスト装置20とを備えて構成される。端末装置10とホスト装置20とは、無線通信回線を介して接続されている。無線通信回線の種類としては、Wi−Fi(Wireless Fidelity)、Bluetooth(登録商標)、ZigBee、UWB(Ultra Wideband)等の既存の方式による回線を用いて良い。また、図示の例では、端末装置10が1台のみ記載されているが、詳しくは後述するように、端末装置10は、使用者各人が装着して使用するものであり、実際には使用者数分の端末装置10が用意される。以下、端末装置10を装着した使用者を装着者と呼ぶ。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<System configuration example>
FIG. 1 is a diagram illustrating a configuration example of a speech analysis system according to the present embodiment.
As shown in FIG. 1, the
端末装置10は、音声を取得するための音声取得手段として、複数のマイクロフォン(第1マイクロフォン11および第2マイクロフォン12)と、増幅器(第1増幅器13および第2増幅器14)とを備える。また、端末装置10は、取得した音声を解析する音声解析部15と、解析結果をホスト装置20に送信するためのデータ送信部16とを備え、さらに電源部17とを備える。
The
第1マイクロフォン11と第2マイクロフォン12は、装着者の口(発声部位)からの距離が異なる位置に配される。ここでは、第1マイクロフォン11は装着者の口(発声部位)から遠い位置(例えば、35cm程度)に配置され、第2マイクロフォン12は装着者の口(発声部位)に近い位置(例えば、10cm程度)に配置されるものとする。本実施形態の第1マイクロフォン11および第2マイクロフォン12として用いられるマイクロフォンの種類としては、ダイナミック型、コンデンサ型等、既存の種々のものを用いて良い。とくに無指向性のMEMS(Micro Electro Mechanical Systems)型マイクロフォンが好ましい。
The
第1増幅器13および第2増幅器14は、それぞれ第1マイクロフォン11および第2マイクロフォン12が取得した音声に応じて出力する電気信号(音声信号)を増幅する。本実施形態の第1増幅器13および第2増幅器14として用いられる増幅器としては、既存のオペアンプ等を用いて良い。
The
音声解析部15は、第1増幅器13および第2増幅器14から出力された音声信号を解析する。そして、第1マイクロフォン11および第2マイクロフォン12で取得した音声が端末装置10を装着した装着者自身が発話した音声か、他者の発話による音声かを識別する。音声識別のための具体的な処理の内容については後述する。
The
データ送信部16は、音声解析部15による解析結果を含む取得データと端末IDを、上記の無線通信回線を介してホスト装置20へ送信する。ホスト装置20へ送信する情報としては、ホスト装置20において行われる処理の内容に応じて、上記の解析結果の他、例えば、第1マイクロフォン11および第2マイクロフォン12による音声の取得時刻、取得音声の音圧等の情報を含めて良い。また端末装置10に音声解析部15による解析結果を蓄積するデータ蓄積部を設け、一定期間の保存データを一括送信しても良い。なお有線回線で送信しても良い。本実施形態ではデータ送信部16は、音声の音声信号に関する情報を送信する音声情報送信部として機能する。
The
電源部17は、上記の第1マイクロフォン11、第2マイクロフォン12、第1増幅器13、第2増幅器14、音声解析部15およびデータ送信部16に電力を供給する。電源としては、例えば乾電池や充電池等の既存の電源が用いられる。また、電源部17は、必要に応じて、電圧変換回路および充電制御回路等の周知の回路を含む。
The
ホスト装置20は、端末装置10から送信されたデータを受信するデータ受信部21と、受信したデータを蓄積するデータ蓄積部22と、蓄積したデータを解析するデータ解析部23と、解析結果を出力する出力部24とを備える。このホスト装置20は、例えばパーソナルコンピュータ等の情報処理装置により実現される。また、上記のように本実施形態では複数台の端末装置10が使用され、ホスト装置20は、その複数台の端末装置10の各々からデータを受信する。
The
データ受信部21は、上記の無線回線に対応しており、各端末装置10からデータを受信してデータ蓄積部22へ送る。本実施形態ではデータ受信部21は、データ送信部16により送信された音声の音声信号に関する情報を受信する音声情報受信部として機能する。データ蓄積部22は、例えばパーソナルコンピュータの磁気ディスク装置等の記憶装置により実現され、データ受信部21から取得した受信データを発話者別に蓄積する。ここで、発話者の識別は、端末装置10から送信される端末IDと、あらかじめホスト装置20に登録されている発話者名と端末IDの照合により行う。また、端末装置10から端末IDのかわりに装着者状態を送信するようにしてもよい。
The
データ解析部23は、例えばパーソナルコンピュータのプログラム制御されたCPUにより実現され、データ蓄積部22に蓄積されたデータを解析する。具体的な解析内容および解析手法は、本実施形態のシステムの利用目的や利用態様に応じて種々の内容および手法を取り得る。例えば、端末装置10の装着者どうしの対話頻度や各装着者の対話相手の傾向を分析したり、対話における個々の発話の長さや音圧の情報から対話者の関係を類推したりすることが行われる。
The
出力部24は、データ解析部23による解析結果を出力したり、解析結果に基づく出力を行ったりする。この解析結果等を出力する手段は、システムの利用目的や利用態様、解析結果の内容や形式等に応じて、ディスプレイ表示、プリンタによる印刷出力、音声出力等、種々の手段を取り得る。
The
<端末装置の構成例>
図2は、端末装置10の構成例を示す図である。
上記のように、端末装置10は、各使用者に装着されて使用される。使用者が装着可能とするため、本実施形態の端末装置10は、図2に示すように、装置本体30と、装置本体30に接続された提げ紐40とを備えた構成とする。図示の構成において、使用者は、提げ紐40に首を通し、装置本体30を首から提げて装着する。
<Configuration example of terminal device>
FIG. 2 is a diagram illustrating a configuration example of the
As described above, the
装置本体30は、金属や樹脂等で形成された薄い直方体のケース31に、少なくとも第1増幅器13、第2増幅器14、音声解析部15、データ送信部16および電源部17を実現する回路と電源部17の電源(電池)とを収納して構成される。ケース31には、装着者の氏名や所属等のID情報を表示したIDカード等を挿入するポケットを設けても良い。また、ケース31自体の表面にそのようなID情報等を印刷したり、ID情報等を記載したシールを貼り付けたりしても良い。
The apparatus
提げ紐40には、第1マイクロフォン11および第2マイクロフォン12が設けられる(以下、第1マイクロフォン11と第2マイクロフォン12とを区別しない場合には、マイクロフォン11、12と記載)。マイクロフォン11、12は、提げ紐40の内部を通るケーブル(電線等)により、装置本体30に収納された第1増幅器13、第2増幅器14に接続される。提げ紐40の材質としては、革、合成皮革、木綿その他の天然繊維や樹脂等による合成繊維、金属等、既存の種々の材質を用いて良い。また、シリコン樹脂やフッ素樹脂等を用いたコーティング処理が施されていても良い。
The
この提げ紐40は、筒状の構造を有し、提げ紐40の内部にマイクロフォン11、12を収納している。マイクロフォン11、12を挙げ紐40の内部に設けることにより、マイクロフォン11、12の損傷や汚れを防ぎ、対話者がマイクロフォン11、12の存在を意識することが抑制される。なお、装着者の口(発声部位)から遠い位置に配置される第1マイクロフォン11は、装置本体30に設けても良い。本実施形態では、第1マイクロフォン11が提げ紐40に設けられる場合を例として説明する。
The
図2を参照すると、第1マイクロフォン11は、提げ紐40の装置本体30に接続される端部(例えば、接続部位から10cm以内の位置)に設けられている。これにより、装着者が提げ紐40を首に掛けて装置本体30を下げた状態で、第1マイクロフォン11は、装着者の口(発声部位)から約30cmから40cm程度離れた位置に配置される。なお、第1マイクロフォン11が装置本体30に設けられた場合も、装着者の口(発声部位)から第1マイクロフォン11までの距離は同程度である。
Referring to FIG. 2, the
第2マイクロフォン12は、提げ紐40の装置本体30に接続される端部から離れた位置(例えば、接続部位から20cm〜30cm程度の位置)に設けられている。これにより、装着者が提げ紐40を首に掛けて装置本体30を下げた状態で、第2マイクロフォン12は、装着者の首元(例えば鎖骨に当たる位置)に位置し、装着者の口(発声部位)から約10cmから20cm程度離れた位置に配置される。
The
なお、本実施形態の端末装置10は、図2に示す構成に限定されるものではない。例えば、マイクロフォン11、12は、第1マイクロフォン11から装着者の口(発声部位)までの音波到達経路の距離が第2マイクロフォン12から装着者の口(発声部位)までの音波到達経路の距離の数倍程度となるように、第1マイクロフォン11と第2マイクロフォン12の位置関係が特定されれば良い。したがって、第1マイクロフォンを首の後ろ側の提げ紐40に設けても良い。また、マイクロフォン11、12は、上記のように提げ紐40に設ける構成に限らず、種々の方法で装着者に装着して良い。例えば、第1マイクロフォン11と第2マイクロフォン12の各々を、個別にピン等を用いて衣服に固定するように構成しても良い。また、第1マイクロフォン11と第2マイクロフォン12の位置関係が所望の位置で固定されるようにデザインされた専用の装着具を用意して装着しても良い。
In addition, the
また、装置本体30は、図2に示したように、提げ紐40に接続されて装着者の首から提げられる構成に限らず、携帯することが容易な装置として構成されていれば良い。例えば、本実施形態のような提げ紐ではなく、クリップやベルトにより衣服や体に装着するように構成しても良いし、単にポケット等に納めて携帯するような構成としても良い。また、携帯電話その他の既存の携帯型電子情報端末に、マイクロフォン11、12からの音声信号を受け付けて増幅し、解析する機能を実現させても良い。
Further, as shown in FIG. 2, the apparatus
さらにまた、マイクロフォン11、12と装置本体30(あるいは音声解析部15)を有線で接続するのではなく、無線通信により接続しても良い。第1増幅器13、第2増幅器14、音声解析部15、データ送信部16および電源部17は、上記の構成例では単一のケース31に収納されることとしたが、複数の個体として構成しても良い。例えば、電源部17をケース31に収納せず、外部電源に接続して使用する構成としても良い。
Furthermore, the
<取得音声の非言語情報に基づく発話者(自他)の識別>
次に、本実施形態における発話者の識別方法について説明する。
本実施形態のシステムは、端末装置10に設けられた2つのマイクロフォン11、12により取得された音声の情報を用いて、端末装置10の装着者自身の発話音声と他者の発話音声とを識別する。言い換えれば、本実施形態は、取得音声の発話者に関して自他の別を識別する。また、本実施形態では、取得音声の情報のうち、形態素解析や辞書情報を用いて得られる言語情報ではなく、音圧(マイクロフォン11、12への入力音量)等の非言語情報に基づいて発話者を識別する。言い換えれば、言語情報により特定される発話内容ではなく、非言語情報により特定される発話状況から音声の発話者を識別する。
<Identification of speakers (self and others) based on non-linguistic information of acquired speech>
Next, a speaker identification method according to this embodiment will be described.
The system of the present embodiment distinguishes between the voice of the wearer of the
図1および図2を参照して説明したように、本実施形態において、端末装置10の第1マイクロフォン11は装着者の口(発声部位)から遠い位置に配置され、第2マイクロフォン12は装着者の口(発声部位)に近い位置に配置される。すなわち、装着者の口(発声部位)を音源とすると、第1マイクロフォン11と音源との間の距離と、第2マイクロフォン12と音源との間の距離が大きく異なる。具体的には、第1マイクロフォン11と音源との間の距離は、第2マイクロフォン12と音源との間の距離の1.5〜4倍程度である。ここで、マイクロフォン11、12における取得音声の音圧は、マイクロフォン11、12と音源との間の距離が大きくなるにしたがって減衰(距離減衰)する。したがって、装着者の発話音声に関して、第1マイクロフォン11における取得音声の音圧と第2マイクロフォン12における取得音声の音圧とは大きく異なる。
As described with reference to FIGS. 1 and 2, in the present embodiment, the
一方、装着者以外の者(他者)の口(発声部位)を音源とした場合を考えると、その他者が装着者から離れているため、第1マイクロフォン11と音源との間の距離と、第2マイクロフォン12と音源との間の距離は、大きく変わらない。装着者に対する他者の位置によっては、両距離の差は生じ得るが、装着者の口(発声部位)を音源とした場合のように、第1マイクロフォン11と音源との間の距離が第2マイクロフォン12と音源との間の距離の数倍となることはない。したがって、他者の発話音声に関して、第1マイクロフォン11における取得音声の音圧と第2マイクロフォン12における取得音声の音圧とは、装着者の発話音声の場合のように大きく異なることはない。
On the other hand, considering the case where the mouth (speaking part) of a person other than the wearer (other person) is used as the sound source, since the other person is away from the wearer, the distance between the
図3は、装着者および他者の口(発声部位)と、マイクロフォン11、12との位置の関係を示す図である。
図3に示す関係において、装着者の口(発声部位)である音源aと第1マイクロフォン11との間の距離をLa1、音源aと第2マイクロフォン12との間の距離をLa2とする。また、他者の口(発声部位)である音源bと第1マイクロフォン11との間の距離をLb1、音源bと第2マイクロフォン12との間の距離をLb2とする。この場合、次の関係が成り立つ。
La1>La2(La1≒1.5×La2〜4×La2)
Lb1≒Lb2
FIG. 3 is a diagram illustrating a positional relationship between the mouths (speaking parts) of the wearer and the other person and the
In the relationship shown in FIG. 3, let La1 be the distance between the sound source a that is the mouth (speaking part) of the wearer and the
La1> La2 (La1≈1.5 × La2 to 4 × La2)
Lb1≈Lb2
図4は、マイクロフォン11、12と音源との間の距離と音圧(入力音量)との関係を示す図である。
上述したように、音圧は、マイクロフォン11、12と音源との間の距離に応じて距離減衰する。図4において、距離La1の場合の音圧Ga1と距離La2の場合の音圧Ga2とを比較すると、音圧Ga2は、音圧Ga1の4倍程度となっている。一方、距離Lb1と距離Lb2とが近似するため、距離Lb1の場合の音圧Gb1と距離Lb2の場合の音圧Gb2とは、ほぼ等しい。そこで、本実施形態では、この音圧比の差を用いて、取得音声における装着者自身の発話音声と他者の発話音声とを識別する。なお、図4に示した例では、距離Lb1、Lb2を60cmとしたが、ここでは音圧Gb1と音圧Gb2とがほぼ等しくなることに意味があり、距離Lb1、Lb2は図示の値に限定されない。
FIG. 4 is a diagram illustrating the relationship between the distance between the
As described above, the sound pressure is attenuated according to the distance between the
図5は、装着者自身の発話音声と他者の発話音声の識別方法を示す図である。
図4を参照して説明したように、装着者自身の発話音声に関して、第2マイクロフォン12の音圧Ga2は、第1マイクロフォン11の音圧Ga1の数倍(例えば4倍程度)である。また、他者の発話音声に関して、第2マイクロフォン12の音圧Ga2は、第1マイクロフォン11の音圧Ga1とほぼ等しい(1倍程度)。そこで、本実施形態では、第2マイクロフォン12の音圧と第1マイクロフォン11の音圧との比に閾値を設定する。そして、音圧比が閾値よりも大きい音声は装着者自身の発話音声と判断し、音圧比が閾値よりも小さい音声は他者の発話音声と判断する。図5に示す例では、閾値を2とし、音圧比Ga2/Ga1は閾値2を超えるので装着者自身の発話音声と判断され、音圧比Gb2/Gb1は閾値2よりも小さいので他者の発話音声と判断されている。
FIG. 5 is a diagram showing a method for discriminating between the wearer's own speech and the other's speech.
As described with reference to FIG. 4, the sound pressure Ga <b> 2 of the
ところで、マイクロフォン11、12により取得される音声には、発話音声の他に、環境音等のいわゆる雑音(ノイズ)が含まれる。この雑音の音源とマイクロフォン11、12との間の距離の関係は、他者の発話音声の場合と類似する。すなわち、図4、図5に示した例によれば、雑音の音源cと第1マイクロフォン11との間の距離をLc1とし、雑音の音源cと第2マイクロフォン12との間の距離をLc2とすると、距離Lc1と距離Lc2とは近似する。そして、マイクロフォン11、12の取得音声における音圧比Gc2/Gc1は、閾値2よりも小さくなる。しかし、このような雑音は、バンドパスフィルタやゲインフィルタ等を用いた既存の技術によるフィルタリング処理を行うことにより発話音声から分離され、除去される。
By the way, the sound acquired by the
<端末装置の動作例>
図6は、本実施形態における端末装置10の動作を示すフローチャートである。
図6に示すように、端末装置10のマイクロフォン11、12が音声を取得すると、各マイクロフォン11、12から取得音声に応じた電気信号(音声信号)が第1増幅器13および第2増幅器14へ送られる(ステップ101)。第1増幅器13および第2増幅器14は、マイクロフォン11、12からの音声信号を取得すると、信号を増幅して音声解析部15へ送る(ステップ102)。
<Operation example of terminal device>
FIG. 6 is a flowchart showing the operation of the
As shown in FIG. 6, when the
音声解析部15は、第1増幅器13および第2増幅器14で増幅された信号に対してフィルタリング処理を行い、信号から環境音等の雑音(ノイズ)の成分を除去する(ステップ103)。次に、音声解析部15は、雑音成分が除かれた信号に対し、一定の時間単位(例えば、数十分の一秒〜数百分の一秒)毎に、各マイクロフォン11、12の取得音声における平均音圧を求める(ステップ104)。そして、第1マイクロフォン11における平均音圧と第2マイクロフォン12における平均音圧との比(音圧比)を求める(ステップ105)。
The
次に、音声解析部15は、ステップ104で求めた各マイクロフォン11、12における平均音圧の利得が有る場合(ステップ105でYes)、発話音声が有る(発話が行われた)と判断する。そして、ステップ106で求めた音圧比が閾値よりも大きい場合(ステップ107でYes)、音声解析部15は、発話音声は装着者自身の発話による音声であると判断する(ステップ108)。また、ステップ105で求めた音圧比が閾値よりも小さい場合(ステップ107でNo)、音声解析部15は、発話音声は他者の発話による音声であると判断する(ステップ109)。一方、ステップ104で求めた各マイクロフォン11、12における平均音圧の利得が無い場合(ステップ105でNo)、音声解析部15は、発話音声が無い(発話が行われていない)と判断する(ステップ110)。
Next, when there is a gain of the average sound pressure in each of the
この後、音声解析部15は、データ送信部16を介して、ステップ104〜ステップ110の処理で得られた情報(発話の有無、発話者の情報)を解析結果としてホスト装置20へ送信させる(ステップ111)。このとき、発話者毎(装着者自身または他者)の発話時間の長さや平均音圧の利得の値、その他の付加情報を解析結果と共にホスト装置20へ送信させても良い。
Thereafter, the
なお、本実施形態では、第1マイクロフォン11の音圧と第2マイクロフォン12の音圧とを比較することにより、発話音声が装着者自身の発話による音声か他者の発話による音声かを判断した。しかし、本実施形態による発話者の識別は、マイクロフォン11、12により取得された音声信号そのものから抽出される非言語情報に基づいて行うものであれば良く、音圧の比較には限定されない。例えば、第1マイクロフォン11における音声取得時刻(音声信号の出力時刻)と第2マイクロフォン12における音声取得時刻とを比較しても良い。この場合、装着者自身の発話音声は、装着者の口(発声部位)から第1マイクロフォン11までの距離と、装着者の口(発声部位)から第2マイクロフォン12までの距離との差が大きいため、音声取得時刻にある程度の差(時間差)が生じる。一方、他者の発話音声は、装着者の口(発声部位)から第1マイクロフォン11までの距離と、装着者の口(発声部位)から第2マイクロフォン12までの距離との差が小さいため、装着者の発話音声の場合よりも音声取得時刻の時間差が小さい。そこで、音声取得時刻の時間差に対して閾値を設定し、音声取得時刻の時間差が閾値よりも大きい場合には装着者自身の発話と判断し、音声取得時刻の時間差が閾値よりも小さい場合には他者の発話と判断するようにしても良い。
In the present embodiment, the sound pressure of the
そしてホスト装置20のデータ受信部21では、マイクロフォン11、12により取得された音声が装着者のものであるか装着者以外の他者のものであるかの自他識別情報を含む音声の音声信号に関する情報を受信する。そしてホスト装置20のデータ受信部21では、音声の音声信号に関する情報を受信する。ここでデータ受信部21により受信される音声の音声信号に関する情報には、マイクロフォン11、12により取得された音声が装着者のものであるか装着者以外の他者のものであるかを識別した情報である自他識別情報が含まれる。そしてホスト装置20のデータ解析部23において、この音声の音声信号に関する情報より音声の同調性を判別することで、装着者の会話関係を判定する。即ち本実施の形態では、データ解析部23は、装着者の会話関係を判定する会話関係判定部として機能する。
In the
<ホスト装置の動作例>
図7は、本実施形態におけるホスト装置20の動作を示すフローチャートである。
以下、図1、図7を使用して本実施形態のホスト装置20の動作を説明する。
まずデータ受信部21が、複数の端末装置10から自他識別情報を含む音声の音声信号に関する情報を受信する(ステップ201)。そしてこの情報は、いったんデータ蓄積部22に蓄積される(ステップ202)。
<Operation example of host device>
FIG. 7 is a flowchart showing the operation of the
Hereinafter, the operation of the
First, the
次にこの情報は、データ解析部23に送られ、データ解析部23において複数の端末装置10から送られた音声の同調性が判別される(ステップ203)。
Next, this information is sent to the
複数の装着者の何れについても同調性がないと判断した場合(ステップ203でNo)、ステップ201に戻る。一方、複数の装着者の何れかについて同調性があると判断された場合(ステップ203でYes)、これらの装着者は、会話関係にあると判定される(ステップ204)。 When it is determined that none of the plurality of wearers has synchronization (No in Step 203), the process returns to Step 201. On the other hand, if it is determined that any one of the plurality of wearers is synchronized (Yes in Step 203), these wearers are determined to be in a conversational relationship (Step 204).
以下、データ解析部23で行なわれる音声の同調性を判別する方法について説明する。
図8は、本実施形態の端末装置10をそれぞれ装着した複数の装着者が会話している状況を示す図である。図9は、図8の会話状況における各端末装置10A、10Bの発話情報の例を示す図である。
図8に示すように、端末装置10をそれぞれ装着した二人の装着者A、装着者Bが会話している場合を考える。このとき、装着者A、装着者Bの発話音声は、装着者Aの端末装置10Aと装着者Bの端末装置10Bの双方に捉えられる。
Hereinafter, a method for determining the synchrony of voice performed by the
FIG. 8 is a diagram illustrating a situation in which a plurality of wearers each wearing the
As shown in FIG. 8, a case is considered in which two wearers A and B, each wearing the
端末装置10Aおよび端末装置10Bからは、それぞれ独立に、発話情報がホスト装置20に送られる。このとき、端末装置10Aから取得した発話情報と、端末装置10Bから取得した発話情報とは、図9に示すように、発話時間の長さや発話者が切り替わったタイミング等の発話状況を示す情報は近似する。そこで、本適用例のホスト装置20は、端末装置10Aから取得した情報と端末装置10Bから取得した情報とを比較することにより、これらの情報が同じ発話状況を示していると判断し、装着者Aと装着者Bとが会話していることを認識する。即ち、装着者Aと装着者Bの音声の同調性が判断できる。ここで、発話状況を示す情報としては、少なくとも、上述した発話者ごとの個々の発話における発話時間の長さ、個々の発話の開始時刻と終了時刻、発話者が切り替わった時刻(タイミング)等のように、発話に関する時間情報が用いられる。なお、特定の会話に係る発話状況を判断するために、これらの発話に関する時間情報の一部のみを用いても良いし、他の情報を付加的に用いても良い。
The utterance information is sent to the
ここで装着者Aの端末装置10Aにおいて装着者の発話として認識される音声は、装着者Bの端末装置10Bでは他者の発話として認識される。反対に、端末装置10Bにおいて装着者の発話として認識される音声は、端末装置10Aでは他者の発話として認識される。そのため端末装置10Aから取得した発話情報と、端末装置10Bから取得した発話情報とは、図8に示すように、発話者(装着者と他者)の識別結果は反対になるが、発話時間の長さや発話者が切り替わったタイミング等の発話状況を示す情報は近似する。そこで、本適用例のホスト装置20は、端末装置10Aから取得した情報と端末装置10Bから取得した情報とを比較することにより、これらの情報が同じ発話状況を示していると判断し、装着者Aと装着者Bとが会話していることを認識することができる。
Here, the voice recognized as the utterance of the wearer in the
このように本実施の形態では、上述した自他識別情報を使用して、複数の端末装置10からマイクロフォン11、12にて受信した音声の音声信号の同調性を判別する。これにより同調性の判定の精度をさらに向上させることができる。
つまり自他識別情報が付与されることで、取得された音声が装着者自信によるものであるのか、装着者以外の他者のものであるのかが予め判別できているため、発話者が切り替わったタイミングなどが明確に把握できる。そしてこのタイミングにおいて発話者が逆転する装着者同士を見つければ、この装着者同士が会話をしていると判断できる。
As described above, in this embodiment, the self-other identification information described above is used to determine the synchrony of audio signals received from the plurality of
In other words, because the self-other identification information is given, it is possible to determine in advance whether the acquired voice is due to the wearer's confidence or the other person other than the wearer. The timing can be clearly understood. If wearers whose speakers are reversed at this timing are found, it can be determined that the wearers are having a conversation.
図10(a)〜(b)は、本実施形態における音声の同調性を判別する方法をさらに具体的に説明した図である。
図10(a)に示すように、4人の装着者である装着者A、装着者B、装着者C、装着者Dは、同じ室内におり、そして互いの音声が届く範囲内に位置している。そしてこのうち装着者Aと装着者Bとが会話を行なっている場合を想定している。そして図10(b)では、装着者A、装着者B、装着者C、装着者Dの各装着者自身で発話しているときの発話情報を抜き出して示している。これは上記の自他識別情報を用いることで、各装着者の端末装置10により取得された音声の音声信号の中から抽出が可能な情報である。
FIGS. 10A and 10B are diagrams more specifically explaining a method for determining the synchrony of sound in the present embodiment.
As shown in FIG. 10 (a), the four wearers, wearer A, wearer B, wearer C, and wearer D, are in the same room and are located within a range where each other's voice can reach. ing. Of these, it is assumed that the wearer A and the wearer B are having a conversation. And in FIG.10 (b), the utterance information when each wearer himself of the wearer A, the wearer B, the wearer C, and the wearer D speaks is extracted and shown. This is information that can be extracted from the audio signal of the audio acquired by the
本実施の形態では、同調性を判別するのに、予め基準となる装着者を選択し、予め定められた時間内におけるこの基準となる装着者と他の装着者の発話情報の重複時間、および空隙時間を算出する。ここで重複時間とは、予め定められた装着者と他の装着者の発話情報が重なる時間である。また空隙時間とは、予め定められた装着者と他の装着者の双方の発話情報がない時間である。 In the present embodiment, in order to determine the synchrony, a wearer serving as a reference is selected in advance, and the overlapping time of speech information of the wearer serving as the reference and another wearer within a predetermined time, and The void time is calculated. Here, the overlap time is a time when speech information of a predetermined wearer and another wearer overlaps. The gap time is a time when there is no speech information of both a predetermined wearer and other wearers.
図10(b)では、一例として装着者Aを基準となる装着者とし、装着者Aと他の装着者である装着者B、装着者C、装着者Dとの間のそれぞれの重複時間を領域Iとして図示している。また装着者Aと他の装着者である装着者B、装着者C、装着者Dとの間のそれぞれの空隙時間を領域IIとして図示している。 In FIG. 10 (b), as an example, the wearer A is a reference wearer, and the overlap times between the wearer A and the other wearers B, C, and D are shown. This is illustrated as region I. In addition, each gap time between the wearer A and the other wearers B, C, and D is illustrated as a region II.
ここで装着者Aの発話情報と装着者Bの発話情報とを比較すると、図示した時間内において重複時間および空隙時間の双方が非常に少ないことがわかる。つまりこの場合、重複時間が少ないことから、装着者Aと装着者Bとは、同時に発話している時間がより短いということが言える。さらに空隙時間が少ないことから装着者Aと装着者Bとは、同時に発話していない時間がより短いということが言える。即ち装着者Aと装着者Bとは、ほぼ交互に発話していると言える。よってこの場合、装着者Aと装着者Bとは会話関係にあると判定できる。 Here, comparing the utterance information of the wearer A and the utterance information of the wearer B, it can be seen that both the overlap time and the gap time are very small within the illustrated time. In other words, in this case, since the overlap time is small, it can be said that the wearer A and the wearer B have a shorter time to speak at the same time. Furthermore, since the gap time is short, it can be said that the wearer A and the wearer B are shorter at the same time not speaking. That is, it can be said that the wearer A and the wearer B speak almost alternately. Therefore, in this case, it can be determined that the wearer A and the wearer B are in a conversational relationship.
また装着者Aの発話情報と装着者Cの発話情報とを比較すると、図示した時間内において重複時間が非常に多いことがわかる。つまりこの場合、装着者Aと装着者Cとは、同時に発話している時間がより長いということが言える。この場合、装着者Aと装着者Cとは会話が成り立っているとは考えにくく、会話関係はないと判定できる。 Further, comparing the utterance information of the wearer A and the utterance information of the wearer C, it can be seen that the overlap time is very large within the illustrated time. That is, in this case, it can be said that the wearer A and the wearer C have a longer time to speak at the same time. In this case, it is unlikely that the wearer A and the wearer C have a conversation, and it can be determined that there is no conversation relationship.
さらに装着者Aの発話情報と装着者Dの発話情報とを比較すると、図示した時間内において空隙時間が非常に多いことがわかる。つまりこの場合、装着者Aと装着者Dとは、双方とも発話していない時間がより長いということが言える。この場合、装着者Aと装着者Dとは会話が成り立っているとは考えにくく、会話関係はないと判定できる。 Further, comparing the utterance information of the wearer A and the utterance information of the wearer D, it can be seen that the gap time is very large within the illustrated time. That is, in this case, it can be said that both the wearer A and the wearer D have a longer time during which they are not speaking. In this case, it is unlikely that the wearer A and the wearer D have a conversation, and it can be determined that there is no conversation relationship.
このように予め定められた時間内の各装着者同士の発話情報の重複時間および空隙時間を算出することで、この時間内における各装着者同士の会話関係を判定することができる。 Thus, by calculating the overlap time and the gap time of the utterance information between the wearers within the predetermined time, the conversation relationship between the wearers within this time can be determined.
なお上述した例では、複数の装着者の中での2人の会話関係を判定していたが、3人以上の装着者の会話関係を判定することも可能である。また上述した例では、重複時間および空隙時間の双方を使用して、各装着者同士の会話関係を判定していたが、何れか一方を使用して各装着者同士の会話関係を判定することも可能である。つまり本実施の形態では、データ解析部23は、複数の装着者から取得した音声の重複時間の長さおよび空隙時間の長さの少なくとも一方が予め定められた範囲内であるか否かで同調性を判別する。
In the above-described example, the conversation relationship between two wearers among a plurality of wearers is determined, but the conversation relationship between three or more wearers can also be determined. In the above-described example, both the overlap time and the gap time are used to determine the conversation relationship between the wearers, but either one is used to determine the conversation relationship between the wearers. Is also possible. In other words, in the present embodiment, the
以上詳述したようにして端末装置10を装着する装着者相互の会話関係を把握することができるため、装着者のグループ全体におけるコミュニケーションの傾向を分析することができる。また、特定の装着者に対して上記のような解析を行うことにより、装着者個人のコミュニケーションの傾向を分析することができる。
As described above in detail, since the conversation relationship between the wearers wearing the
<端末装置の具体例>
図11(a)〜(b)は、実際に使用される端末装置10の具体例を示した図である。
このうち図11(a)は、図2に示した端末装置10とほぼ同様の構成をとり、第1マイクロフォン11、第2マイクロフォン12の2つのマイクロフォンを配したものである。ただし、第1マイクロフォン11は、装置本体30に配置されている。そして第1マイクロフォン11と第2マイクロフォン12との距離を35cmとしている。
<Specific examples of terminal devices>
FIGS. 11A and 11B are diagrams illustrating specific examples of the
Among these, FIG. 11A shows a configuration substantially the same as that of the
また図11(b)は、第1マイクロフォン11、第2マイクロフォン12の他に、第3マイクロフォン18の3つのマイクロフォンを配したものである。そして第1マイクロフォン11と第2マイクロフォン12との距離、第1マイクロフォン11と第3マイクロフォン18の距離を共に35cmとしている。そして第3マイクロフォン18と第2マイクロフォン12の距離は、10cmとしている。
FIG. 11B shows a configuration in which three microphones of the
図11(b)のようにマイクロフォンが3箇所以上に配された端末装置10を使用することで、別々のマイクロフォンの組を使用して、上述した会話関係の判断を行なうことができる。図10(b)で示した端末装置10では、第1マイクロフォン11、第2マイクロフォン12の組、および第1マイクロフォン11と第3マイクロフォン18の組が選択できる。このように複数の組のマイクロフォンを使用することで、データ解析部23での複数の装着者の会話関係の判断をより精度良く行なうことができる。
By using the
<プログラムの説明>
なお図7で説明を行った本実施形態におけるホスト装置20が行なう処理は、ソフトウェアとハードウェア資源とが協働することにより実現される。即ち、ホスト装置20に設けられた制御用コンピュータ内部の図示しないCPUが、ホスト装置20の各機能を実現するプログラムを実行し、これらの各機能を実現させる。
<Description of the program>
Note that the processing performed by the
よって図7で説明を行ったホスト装置20が行なう処理は、コンピュータに、装着者の口(発声部位)からの距離が異なる位置に配され音声を取得するための複数のマイクロフォンを備える端末装置10から音声の音声信号に関する情報を受信する機能と、複数のマイクロフォンにより取得された音声の音圧差により音声が装着者のものであるか装着者以外の他者のものであるかを識別した情報である自他識別情報を使用して、複数の端末装置10からデータ受信部21にて受信した音声の音声信号に関する情報より音声の同調性を判別することで、装着者の会話関係を判定する機能と、を実現させるプログラムとして捉えることもできる。
Therefore, the processing performed by the
<実験方法>
(実施例1)
装着者A、装着者B、装着者C、装着者Dを図12(a)に示すように配置した。そして装着者Aと装着者Bとの間で、40回の会話を行ない、さらに同じ時間帯において装着者Cと装着者Dとの間で、20回の会話を行なった。なお各装着者は、互いの音声が届く範囲内に位置している。
そしてこの状況の下で、図7〜図10で示した手法を用いて、各装着者間の会話関係を判定した。
<Experiment method>
(Example 1)
The wearer A, the wearer B, the wearer C, and the wearer D are arranged as shown in FIG. Then, 40 conversations were performed between the wearer A and the wearer B, and 20 conversations were performed between the wearer C and the wearer D in the same time zone. Each wearer is located within a range where each other's voice can reach.
And under this situation, the conversation relationship between each wearer was determined using the method shown in FIGS.
(比較例1)
装着者A、装着者B、装着者C、装着者Dを図13(a)に示すように配置した。これは図12(a)の配置と同一の配置である。ただし端末装置としてマイクロフォンが1つのものを用いた(例えば、図2に示した端末装置10に対し、マイクロフォン12のみを配置し、マイクロフォン11を配置しなかったものを使用)。そしてこれを用いて自他識別情報を出力したこと以外は、実施例1と同様にして各装着者の会話関係を判定した。この場合、1つのマイクロフォンにより自他識別情報を出力するのに、このマイクロフォンにより取得された音圧と予め定められた閾値と比較することで行なった。即ちマイクロフォンにより取得された音圧が予め定められた閾値より大きい場合は装着者の音声とし、予め定められた閾値より小さい場合を装着者以外の他者の音声であるとした。
(Comparative Example 1)
The wearer A, the wearer B, the wearer C, and the wearer D are arranged as shown in FIG. This is the same arrangement as that shown in FIG. However, a terminal device having one microphone was used (for example, a device in which only the
<実験結果>
実施例1の結果を図12(b)に示し、比較例1の結果を図13(b)に示す。
図12(b)および図13(b)に示した表において、各装着者間について行と列が交差する箇所に記載された数字は、会話関係があると判定された回数を示している。
図12(b)に示した表から、実施例1において、装着者Aと装着者Bとの会話関係があると判定された回数は、36回であり、装着者Cと装着者Dとの会話関係があると判定された回数は、17回であったことがわかる。また他の装着者間に会話関係があると判定された回数は、何れも0回であったことがわかる。
一方、図13(b)に示した表から、比較例1において、装着者Aと装着者Bとの会話関係があると判定された回数は、20回であり、装着者Cと装着者Dとの会話関係があると判定された回数は、10回であったことがわかる。比較例1では、他の装着者間では会話は行なわなかったが、何れの装着者間においても表に示したように会話関係があると判定された。
<Experimental result>
The result of Example 1 is shown in FIG. 12 (b), and the result of Comparative Example 1 is shown in FIG. 13 (b).
In the tables shown in FIG. 12B and FIG. 13B, the numbers written at the locations where the rows and the columns intersect between the wearers indicate the number of times that it is determined that there is a conversational relationship.
From the table shown in FIG. 12B, in Example 1, the number of times that the wearer A and the wearer B are determined to have a conversational relationship is 36, and the wearer C and the wearer D It can be seen that the number of times determined to have a conversational relationship was 17 times. In addition, it can be seen that the number of times that it is determined that there is a conversational relationship between the other wearers was zero.
On the other hand, from the table shown in FIG. 13B, in Comparative Example 1, the number of times that the wearer A and the wearer B are determined to have a conversational relationship is 20 times, and the wearer C and the wearer D It can be seen that the number of times determined to have a conversational relationship with was 10 times. In Comparative Example 1, no conversation was conducted between the other wearers, but it was determined that there was a conversation relationship between any of the wearers as shown in the table.
実施例1と比較例1とを比較すると、実施例1の方が、会話関係の判定の結果がより良好であることがわかる。比較例1について会話関係の判定の結果が悪化した原因としては、自他識別が良好に行なわれなかったことが挙げられる。即ち、マイクロフォンを1つだけ使用し、上記の方法により自他識別を行なった場合、例えば、装着者の発話でない大きな音がマイクロフォンに入った場合でも、装着者の音声であると判断される。また装着者が小声で発話した場合は、装着者の音声ではなく他者の音声であると判断される。さらに他者が大声で発話した場合は、他者の音声ではなく装着者の音声であると判断される。このように自他識別の情報の精度が悪化することで、装着者間の会話関係の判定の精度が悪化したことが一因として考えられる。 When Example 1 and Comparative Example 1 are compared, it can be seen that Example 1 has a better result of the conversation relationship determination. The reason why the result of determination of the conversation relation in Comparative Example 1 deteriorated is that self-other identification was not performed well. That is, when only one microphone is used and self-other identification is performed by the above method, for example, even when a loud sound that is not spoken by the wearer enters the microphone, it is determined that the sound is the wearer's voice. When the wearer speaks in a low voice, it is determined that the voice is not the wearer's voice but the voice of the other person. Further, when another person speaks loudly, it is determined that the voice is not the voice of the other person but the wearer. As a result of the deterioration of the accuracy of the self-other identification information, it is considered that the accuracy of the determination of the conversation relationship between the wearers has deteriorated.
1…音声解析システム、10…端末装置、11…第1マイクロフォン、12…第2マイクロフォン、15…音声解析部、16…データ送信部、18…第3マイクロフォン、20…ホスト装置、21…データ受信部、23…データ解析部、30…装置本体、40…提げ紐
DESCRIPTION OF
Claims (6)
複数の前記音声取得手段により取得された音声の音圧差により音声が装着者のものであるか装着者以外の他者のものであるかを識別した情報である自他識別情報を使用して、複数の前記端末装置から前記音声情報受信部にて受信した音声の音声信号に関する情報より音声の同調性を判別することで、装着者の会話関係を判定する会話関係判定部と、
を備えたことを特徴とする音声解析装置。 A voice information receiving unit that receives information related to a voice signal of a voice from a terminal device that includes a plurality of voice acquisition means for acquiring voices that are arranged at different distances from the utterance part of the wearer;
Using self-other identification information, which is information identifying whether the sound is that of the wearer or other than the wearer by the sound pressure difference of the sound acquired by the plurality of sound acquisition means, A conversation relation determination unit that determines the conversation relation of the wearer by determining the synchrony of the voice from information related to the voice signal of the voice received by the voice information receiving unit from the plurality of terminal devices;
A speech analysis apparatus comprising:
複数の前記音声取得手段により取得された音声の音圧差により音声が装着者のものであるか装着者以外の他者のものであるかを識別した情報である自他識別情報を導出する自他識別部と、
前記自他識別部により導出された自他識別情報を使用して、前記音声取得手段にて受信した音声の同調性を判別することで、装着者の会話関係を判定する会話関係判定部と、
を備えたことを特徴とする音声解析システム。 A terminal device comprising a plurality of voice acquisition means for acquiring voices arranged at different positions from the wearer's utterance site;
Self-others deriving self-other identification information that is information identifying whether the sound belongs to the wearer or other than the wearer based on the sound pressure difference of the sound acquired by the plurality of sound acquisition means An identification unit;
Using the self-other identification information derived by the self-other identification unit, by determining the synchrony of the voice received by the voice acquisition means, a conversation relation determination unit that determines the conversation relation of the wearer,
A voice analysis system characterized by comprising:
装着者の発声部位からの距離が異なる位置に配され音声を取得するための複数の音声取得手段を備える端末装置から音声の音声信号に関する情報を受信する機能と、
複数の前記音声取得手段により取得された音声の音圧差により音声が装着者のものであるか装着者以外の他者のものであるかを識別した情報である自他識別情報を使用して、複数の前記端末装置から前記音声情報受信部にて受信した音声の音声信号に関する情報より音声の同調性を判別することで、装着者の会話関係を判定する機能と、
を実現させるプログラム。 On the computer,
A function of receiving information related to a voice signal of a voice from a terminal device that includes a plurality of voice acquisition means for acquiring voices arranged at different positions from the wearer's voice part;
Using self-other identification information, which is information identifying whether the sound is that of the wearer or other than the wearer by the sound pressure difference of the sound acquired by the plurality of sound acquisition means, A function of determining the conversational relationship of the wearer by determining the synchrony of the sound from information related to the sound signal of the sound received from the plurality of terminal devices by the sound information receiving unit;
A program that realizes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012001026A JP2013140534A (en) | 2012-01-06 | 2012-01-06 | Voice analysis device, voice analysis system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012001026A JP2013140534A (en) | 2012-01-06 | 2012-01-06 | Voice analysis device, voice analysis system, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013140534A true JP2013140534A (en) | 2013-07-18 |
Family
ID=49037899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012001026A Pending JP2013140534A (en) | 2012-01-06 | 2012-01-06 | Voice analysis device, voice analysis system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013140534A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016158267A1 (en) * | 2015-03-27 | 2016-10-06 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017062307A (en) * | 2015-09-24 | 2017-03-30 | 富士通株式会社 | Voice processing device, voice processing method and voice processing program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005202035A (en) * | 2004-01-14 | 2005-07-28 | Toshiba Corp | Conversation information analyzer |
JP2007264473A (en) * | 2006-03-29 | 2007-10-11 | Toshiba Corp | Voice processor, voice processing method, and voice processing program |
JP2009171315A (en) * | 2008-01-17 | 2009-07-30 | Funai Electric Co Ltd | Sound signal transmitter-receiver |
JP2009290342A (en) * | 2008-05-27 | 2009-12-10 | Funai Electric Advanced Applied Technology Research Institute Inc | Voice input device and voice conference system |
WO2011105003A1 (en) * | 2010-02-25 | 2011-09-01 | パナソニック株式会社 | Signal processing apparatus and signal processing method |
-
2012
- 2012-01-06 JP JP2012001026A patent/JP2013140534A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005202035A (en) * | 2004-01-14 | 2005-07-28 | Toshiba Corp | Conversation information analyzer |
JP2007264473A (en) * | 2006-03-29 | 2007-10-11 | Toshiba Corp | Voice processor, voice processing method, and voice processing program |
JP2009171315A (en) * | 2008-01-17 | 2009-07-30 | Funai Electric Co Ltd | Sound signal transmitter-receiver |
JP2009290342A (en) * | 2008-05-27 | 2009-12-10 | Funai Electric Advanced Applied Technology Research Institute Inc | Voice input device and voice conference system |
WO2011105003A1 (en) * | 2010-02-25 | 2011-09-01 | パナソニック株式会社 | Signal processing apparatus and signal processing method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016158267A1 (en) * | 2015-03-27 | 2016-10-06 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2016157642A1 (en) * | 2015-03-27 | 2016-10-06 | ソニー株式会社 | Information processing device, information processing method, and program |
JPWO2016158267A1 (en) * | 2015-03-27 | 2018-01-25 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2017062307A (en) * | 2015-09-24 | 2017-03-30 | 富士通株式会社 | Voice processing device, voice processing method and voice processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6031761B2 (en) | Speech analysis apparatus and speech analysis system | |
JP5772447B2 (en) | Speech analyzer | |
JP5772448B2 (en) | Speech analysis system and speech analysis apparatus | |
JP6003472B2 (en) | Speech analysis apparatus, speech analysis system and program | |
JP6003510B2 (en) | Speech analysis apparatus, speech analysis system and program | |
JP5867066B2 (en) | Speech analyzer | |
JP2013135325A (en) | Voice analysis device | |
JP2013142843A (en) | Operation analyzer, voice acquisition device, and operation analysis system | |
JP6160042B2 (en) | Positioning system | |
JP6476938B2 (en) | Speech analysis apparatus, speech analysis system and program | |
JP5862318B2 (en) | Sound analysis apparatus, sound analysis system and program | |
JP6007487B2 (en) | Information processing apparatus, information processing system, and program | |
JP6191747B2 (en) | Speech analysis apparatus and speech analysis system | |
JP2013140534A (en) | Voice analysis device, voice analysis system, and program | |
JP6031767B2 (en) | Speech analysis apparatus, speech analysis system and program | |
JP2013164468A (en) | Voice analysis device, voice analysis system, and program | |
US9014395B2 (en) | Audio analysis apparatus and audio analysis system | |
JP5929810B2 (en) | Voice analysis system, voice terminal apparatus and program | |
JP6051996B2 (en) | Speech analysis apparatus, speech analysis system and program | |
JP6056544B2 (en) | Speech analysis device, signal analysis device, speech analysis system, and program | |
JP2014048618A (en) | Speech analyzing device, speech analyzing system, and program | |
JP6369022B2 (en) | Signal analysis apparatus, signal analysis system, and program | |
JP2014050048A (en) | Voice analysis device | |
JP2015072635A (en) | Voice analysis device, display device, voice analysis system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141211 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151104 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151225 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160209 |