JP2013164468A - Voice analysis device, voice analysis system, and program - Google Patents

Voice analysis device, voice analysis system, and program Download PDF

Info

Publication number
JP2013164468A
JP2013164468A JP2012026473A JP2012026473A JP2013164468A JP 2013164468 A JP2013164468 A JP 2013164468A JP 2012026473 A JP2012026473 A JP 2012026473A JP 2012026473 A JP2012026473 A JP 2012026473A JP 2013164468 A JP2013164468 A JP 2013164468A
Authority
JP
Japan
Prior art keywords
voice
wearer
sound
unit
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012026473A
Other languages
Japanese (ja)
Inventor
Yasushi Iida
靖 飯田
Haruo Harada
陽雄 原田
Hiroto Yoneyama
博人 米山
Hiroshi Shitaya
啓 下谷
Yohei Nishino
洋平 西野
Takao Naito
孝雄 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2012026473A priority Critical patent/JP2013164468A/en
Publication of JP2013164468A publication Critical patent/JP2013164468A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a voice analysis device, etc. capable of grasping voice tunability of mutual wearers from acoustic pressure information of voices acquired by voice acquisition means of a plurality of wearers while suppressing the influence of environmental sound.SOLUTION: A host device 20 comprises: a data receiving part 21 for receiving information on voice signals of voices acquired by a plurality of microphones 11, 12 which are arranged at places having different distances from the mouth of a wearer and acquire voices; and a tunability discrimination part for discriminating the tunability of voice from the information on voice signals of voices for a voice which is identified to be the utterance voice of any wearer, from an identification result whether voices acquired by the microphones 11, 12 are utterance voices of a wearer having the microphones 11, 12 or utterance voices of a person other than the wearer, identified on the basis of the comparison result of the voice signals of voices acquired by the plurality of microphones 11, 12 for each wearer.

Description

本発明は、音声解析装置、音声解析システム、プログラムに関する。   The present invention relates to a voice analysis device, a voice analysis system, and a program.

特許文献1には、部屋の中の被験者AおよびBが対話するとき、被験者Aの発話音声および被験者Bの発話音声は、2つのマイクによってそれぞれ取り込まれ、CPUは、取り込まれた発話音声の速度の差分を閾値と比較し、部屋の外のランプを比較結果に応じて点灯/消灯させる同調度検出装置であって、差分が閾値以上であれば、対話が同調していないと判断し、ランプを消灯させ、一方、差分が閾値未満であれば、対話が同調していると判断し、ランプを点灯させるものが開示されている。   In Patent Document 1, when subjects A and B in a room interact, the speech of subject A and the speech of subject B are captured by two microphones, respectively, and the CPU speeds the captured speech. Is a synchronization degree detecting device that compares a difference between the lamp and a lamp outside the room according to the comparison result, and determines that the dialogue is not synchronized if the difference is equal to or greater than the threshold. On the other hand, if the difference is less than the threshold value, it is determined that the dialogue is synchronized and the lamp is turned on.

特開2005−265982号公報Japanese Patent Laid-Open No. 2005-265982

本発明は、複数の装着者の音声取得手段で取得される音声の音圧の情報から、環境音の影響を抑えて、装着者相互の音声の同調性を把握することを目的とする。   An object of the present invention is to grasp the synchronism of voices between wearers by suppressing the influence of environmental sounds from the information on the sound pressures of voices acquired by the voice acquisition means of a plurality of wearers.

請求項1に記載の発明は、装着者の口からの距離が異なる位置に配され音声を取得するための複数の音声取得手段により取得された音声の音声信号に関する情報を受信する音声情報受信部と、各装着者についての複数の前記音声取得手段により取得された音声の音声信号の比較結果に基づき識別される、当該音声取得手段により取得された音声が当該音声取得手段を備えた装着者の発話音声か装着者以外の他者の発話音声かの識別結果から、いずれかの装着者の発話音声であると識別された音声について、当該音声の音声信号に関する情報から音声の同調性を判別する同調性判別部と、を備えることを特徴とする音声解析装置である。   According to the first aspect of the present invention, there is provided an audio information receiving unit that receives information related to an audio signal of audio acquired by a plurality of audio acquisition means for acquiring audio arranged at different positions from the wearer's mouth. And the voice acquired by the voice acquisition unit is identified based on the comparison result of the voice signals acquired by the plurality of voice acquisition units for each wearer. Based on the identification result of speech voice or speech voice of another person other than the wearer, for the voice identified as the voice of any wearer, the synchrony of the voice is determined from the information regarding the voice signal of the voice. And a synchronism determining unit.

請求項2に記載の発明は、前記音声取得手段を備えた装着者の発話音声か装着者以外の他者の発話音声かの識別結果を求める自他識別部をさらに備えることを特徴とする請求項1に記載の音声解析装置である。
請求項3に記載の発明は、前記同調性判別部により判別された音声の同調性から装着者の組分けを行なう組分け部をさらに備えることを特徴する請求項1または2に記載の音声解析装置である。
請求項4に記載の発明は、前記組分け部は、前記音声取得手段により取得された音が、いずれの装着者の発話音声でもないとされた場合に、当該音を装着者の組分けを行なうのに利用しないことを特徴する請求項3に記載の音声解析装置である。
The invention according to claim 2 further includes a self-other identification unit for obtaining a discrimination result of whether the voice of the wearer or the voice of another person other than the wearer is provided with the voice acquisition unit. The speech analysis apparatus according to Item 1.
The invention according to claim 3 further comprises a grouping unit for grouping wearers based on the synchrony of the voice determined by the synchrony determining unit. Device.
According to a fourth aspect of the present invention, when the sound acquired by the sound acquisition means is not the speech sound of any wearer, the grouping unit determines the sound of the wearer. The speech analysis apparatus according to claim 3, wherein the speech analysis apparatus is not used for performing.

請求項5に記載の発明は、装着者の口からの距離が異なる位置に配され音声を取得するための複数の音声取得手段と、前記音声取得手段により取得された音声の音声信号の比較結果に基づき、当該音声取得手段により取得された音声が当該音声取得手段を備えた装着者の発話音声か装着者以外の他者の発話音声かを識別する自他識別部と、前記自他識別部により識別された識別結果から、いずれかの装着者の発話音声であると識別された音声について、当該音声の音声信号に関する情報から音声の同調性を判別する同調性判別部と、を備えたことを特徴とする音声解析システムである。   According to a fifth aspect of the present invention, there is provided a comparison result of a plurality of sound acquisition means for acquiring sound arranged at different positions from the wearer's mouth and the sound signal of the sound acquired by the sound acquisition means. Based on the self-other identification unit for identifying whether the voice acquired by the voice acquisition unit is the voice of the wearer equipped with the voice acquisition unit or the voice of another person other than the wearer, and the self-other identification unit A synchronism determining unit that determines the synchrony of the voice from the information related to the voice signal of the voice of the voice identified as the speech voice of one of the wearers from the identification result identified by Is a voice analysis system characterized by

請求項6に記載の発明は、前記音声取得手段により取得された音声の音声信号に関する情報を送信する音声情報送信部と、当該音声情報送信部により送信された音声の音声信号に関する情報を受信する音声情報受信部と、をさらに備えることを特徴とする請求項5に記載の音声解析システムである。   According to a sixth aspect of the present invention, a voice information transmitting unit that transmits information related to a voice signal acquired by the voice acquisition unit, and information related to a voice signal transmitted from the voice information transmitting unit are received. The speech analysis system according to claim 5, further comprising: a speech information receiving unit.

請求項7に記載の発明は、コンピュータに、装着者の口からの距離が異なる位置に配され音声を取得するための複数の音声取得手段により取得された音声の音声信号に関する情報を受信する機能と、各装着者についての複数の前記音声取得手段により取得された音声の音声信号の比較結果に基づき識別される、当該音声取得手段により取得された音声が当該音声取得手段を備えた装着者の発話音声か装着者以外の他者の発話音声かの識別結果から、いずれかの装着者の発話音声であると識別された音声について、当該音声の音声信号に関する情報から音声の同調性を判別する機能と、を実現させるプログラムである。   The invention according to claim 7 is a function for receiving information related to the sound signal of the sound obtained by the plurality of sound obtaining means for obtaining the sound, which is arranged at different positions from the wearer's mouth in the computer. And the voice acquired by the voice acquisition unit is identified based on the comparison result of the voice signals acquired by the plurality of voice acquisition units for each wearer. Based on the identification result of speech voice or speech voice of another person other than the wearer, for the voice identified as the voice of any wearer, the synchrony of the voice is determined from the information regarding the voice signal of the voice. It is a program that realizes functions.

請求項1の発明によれば、本構成を採用しない場合に比べて、複数の装着者の音声取得手段で取得される音声の音圧の情報から、環境音の影響を抑えて、装着者相互の音声の同調性を把握することができる音声解析装置を提供できる。
請求項2の発明によれば、音声情報受信部で受信する情報に発話音声の主体に関する情報が含まれていない場合にも適用できる。
請求項3の発明によれば、本構成を採用しない場合に比較して、複数の装着者の音声取得手段で取得される音声の音圧の情報から、環境音の影響を抑えて、装着者の組み分けを行うことができる。
請求項4の発明によれば、本構成を採用しない場合に比較して、装着者の組み分けの精度がさらに向上する。
請求項5の発明によれば、本構成を採用しない場合に比べて、複数の装着者の音声取得手段で取得される音声の音圧の情報から、環境音の影響を抑えて、装着者相互の音声の同調性を把握することができる音声解析システムを構築できる。
請求項6の発明によれば、音声取得手段を装着者により容易に装着することができるとともに、音声を解析する処理を一元的に行なうことができる。
請求項7の発明によれば、本構成を採用しない場合に比べて、複数の装着者の音声取得手段で取得される音声の音圧の情報から、環境音の影響を抑えて、装着者相互の音声の同調性を把握することができる機能をコンピュータにより実現できる。
According to the first aspect of the present invention, compared with the case where this configuration is not adopted, the influence of environmental sound is suppressed from the information on the sound pressure of the sound acquired by the sound acquisition means of a plurality of wearers, and the wearers can interact with each other. It is possible to provide a voice analysis device that can grasp the synchrony of the voice.
According to the second aspect of the present invention, the present invention can be applied to the case where the information received by the voice information receiving unit does not include information related to the subject of the uttered voice.
According to the invention of claim 3, compared with the case where this configuration is not adopted, the influence of the environmental sound is suppressed from the information of the sound pressure of the sound acquired by the sound acquisition means of the plurality of wearers, and the wearer Can be grouped.
According to the invention of claim 4, the accuracy of the wearer's grouping is further improved as compared with the case where this configuration is not adopted.
According to the invention of claim 5, compared with the case where this configuration is not adopted, it is possible to suppress the influence of the environmental sound from the information on the sound pressure of the sound acquired by the sound acquisition means of the plurality of wearers, and It is possible to construct a voice analysis system that can grasp the synchrony of voice.
According to the invention of claim 6, the voice acquisition means can be easily worn by the wearer, and the process of analyzing the voice can be performed in a unified manner.
According to the invention of claim 7, compared with the case where this configuration is not adopted, it is possible to suppress the influence of the environmental sound from the information on the sound pressure of the sound acquired by the sound acquisition means of the plurality of wearers, and A computer can realize a function of grasping the synchrony of voice.

本実施形態による音声解析システムの構成例を示す図である。It is a figure which shows the structural example of the audio | voice analysis system by this embodiment. 本実施形態における端末装置の構成例を示す図である。It is a figure which shows the structural example of the terminal device in this embodiment. 装着者および他者の口(発声部位)と、マイクロフォンとの位置の関係を示す図である。It is a figure which shows the positional relationship of a wearer and another person's mouth (speaking part), and a microphone. マイクロフォンと音源との間の距離と音圧(入力音量)との関係を示す図である。It is a figure which shows the relationship between the distance between a microphone and a sound source, and sound pressure (input sound volume). 本実施形態における端末装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the terminal device in this embodiment. 本実施形態におけるデータ解析部のブロック図である。It is a block diagram of the data analysis part in this embodiment. 本実施形態におけるホスト装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the host apparatus in this embodiment. 本実施形態の端末装置をそれぞれ装着した複数の装着者が会話している状況を示す図である。It is a figure which shows the condition where the several wearer who each mounted | wore with the terminal device of this embodiment is talking. 図8の会話状況における各端末装置の発話情報の例を示す図である。It is a figure which shows the example of the speech information of each terminal device in the conversation condition of FIG. パラメータA1、A2、B1、B2と装着者A、装着者Bの距離関係について説明した表である。It is the table | surface explaining parameter A1, A2, B1, B2 and the distance relationship of the wearer A and the wearer B. FIG. (a)〜(b)は、実際に使用される端末装置の具体例を示した図である。(A)-(b) is the figure which showed the specific example of the terminal device actually used.

以下、添付図面を参照して、本発明の実施形態について詳細に説明する。
<システム構成例>
図1は、本実施形態による音声解析システムの構成例を示す図である。
図1に示すように、本実施形態の音声解析システム1は、端末装置10と、音声解析装置の一例であるホスト装置20とを備えて構成される。端末装置10とホスト装置20とは、無線通信回線を介して接続されている。無線通信回線の種類としては、Wi−Fi(Wireless Fidelity)、Bluetooth(登録商標)、ZigBee、UWB(Ultra Wideband)等の既存の方式による回線を用いて良い。また、図示の例では、端末装置10が1台のみ記載されているが、詳しくは後述するように、端末装置10は、使用者各人が装着して使用するものであり、実際には使用者数分の端末装置10が用意される。以下、端末装置10を装着した使用者を装着者と呼ぶ。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<System configuration example>
FIG. 1 is a diagram illustrating a configuration example of a speech analysis system according to the present embodiment.
As shown in FIG. 1, the speech analysis system 1 according to the present embodiment includes a terminal device 10 and a host device 20 that is an example of a speech analysis device. The terminal device 10 and the host device 20 are connected via a wireless communication line. As a type of the wireless communication line, a line using an existing method such as Wi-Fi (Wireless Fidelity), Bluetooth (registered trademark), ZigBee, or UWB (Ultra Wideband) may be used. In the illustrated example, only one terminal device 10 is described, but as will be described in detail later, the terminal device 10 is worn and used by each user and is actually used. There are as many terminal devices 10 as there are persons. Hereinafter, a user wearing the terminal device 10 is referred to as a wearer.

端末装置10は、音声を取得するための音声取得手段として、複数のマイクロフォン(第1マイクロフォン11および第2マイクロフォン12)と、増幅器(第1増幅器13および第2増幅器14)とを備える。また、端末装置10は、取得した音声を解析する音声解析部15と、解析結果をホスト装置20に送信するためのデータ送信部16とを備え、さらに電源部17とを備える。   The terminal device 10 includes a plurality of microphones (first microphone 11 and second microphone 12) and amplifiers (first amplifier 13 and second amplifier 14) as voice acquisition means for acquiring voice. In addition, the terminal device 10 includes a voice analysis unit 15 that analyzes the acquired voice, a data transmission unit 16 that transmits the analysis result to the host device 20, and further includes a power supply unit 17.

第1マイクロフォン11と第2マイクロフォン12は、装着者の口(発声部位)からの距離が異なる位置に配される。ここでは、第1マイクロフォン11は装着者の口(発声部位)から遠い位置(例えば、35cm程度)に配置され、第2マイクロフォン12は装着者の口(発声部位)に近い位置(例えば、10cm程度)に配置されるものとする。本実施形態の第1マイクロフォン11および第2マイクロフォン12として用いられるマイクロフォンの種類としては、ダイナミック型、コンデンサ型等、既存の種々のものを用いて良い。とくに無指向性のMEMS(Micro Electro Mechanical Systems)型マイクロフォンが好ましい。   The 1st microphone 11 and the 2nd microphone 12 are arranged in the position where the distance from a wearer's mouth (voice part) differs. Here, the first microphone 11 is arranged at a position (for example, about 35 cm) far from the mouth (speaking part) of the wearer, and the second microphone 12 is a position (for example, about 10 cm) near the mouth (speaking part) of the wearer. ). As the types of microphones used as the first microphone 11 and the second microphone 12 of the present embodiment, various existing types such as a dynamic type and a condenser type may be used. In particular, a non-directional MEMS (Micro Electro Mechanical Systems) type microphone is preferable.

第1増幅器13および第2増幅器14は、それぞれ第1マイクロフォン11および第2マイクロフォン12が取得した音声に応じて出力する電気信号(音声信号)を増幅する。本実施形態の第1増幅器13および第2増幅器14として用いられる増幅器としては、既存のオペアンプ等を用いて良い。   The first amplifier 13 and the second amplifier 14 amplify electrical signals (audio signals) that are output according to the audio acquired by the first microphone 11 and the second microphone 12, respectively. As the amplifier used as the first amplifier 13 and the second amplifier 14 of the present embodiment, an existing operational amplifier or the like may be used.

音声解析部15は、第1増幅器13および第2増幅器14から出力された音声信号を解析する。詳しくは後述するが、音声解析部15は、第1マイクロフォン11および第2マイクロフォン12により取得された音声の音声信号の比較結果に基づき、第1マイクロフォン11および第2マイクロフォン12により取得された音声が第1マイクロフォン11および第2マイクロフォン12を備えた装着者の発話音声か装着者以外の他者の発話音声かを識別する自他識別部として機能する。   The voice analysis unit 15 analyzes the voice signal output from the first amplifier 13 and the second amplifier 14. As will be described in detail later, the sound analysis unit 15 receives the sound acquired by the first microphone 11 and the second microphone 12 based on the comparison result of the sound signals acquired by the first microphone 11 and the second microphone 12. It functions as a self-other identification unit that identifies whether the voice of the wearer having the first microphone 11 and the second microphone 12 or the voice of another person other than the wearer.

データ送信部16は、音声解析部15による解析結果を含む取得データと端末のIDを、上記の無線通信回線を介してホスト装置20へ送信する。ホスト装置20へ送信する情報としては、ホスト装置20において行われる処理の内容に応じて、上記の解析結果の他、例えば、第1マイクロフォン11および第2マイクロフォン12による音声の取得時刻、取得音声の音圧等の情報を含めて良い。また端末装置10に音声解析部15による解析結果を蓄積するデータ蓄積部を設け、一定期間の保存データを一括送信しても良い。なお有線回線で送信しても良い。本実施形態ではデータ送信部16は、音声の音声信号に関する情報を送信する音声情報送信部として機能する。   The data transmission unit 16 transmits the acquired data including the analysis result by the voice analysis unit 15 and the terminal ID to the host device 20 via the wireless communication line. As information to be transmitted to the host device 20, in addition to the above analysis results, for example, the acquisition time of the sound by the first microphone 11 and the second microphone 12 and the acquired sound according to the contents of the processing performed in the host device 20 Information such as sound pressure may be included. Further, the terminal device 10 may be provided with a data storage unit for storing the analysis result by the voice analysis unit 15 and the stored data for a certain period may be transmitted collectively. It may be transmitted via a wired line. In the present embodiment, the data transmission unit 16 functions as an audio information transmission unit that transmits information related to an audio signal of audio.

電源部17は、上記の第1マイクロフォン11、第2マイクロフォン12、第1増幅器13、第2増幅器14、音声解析部15およびデータ送信部16に電力を供給する。電源としては、例えば乾電池や充電池等の既存の電源が用いられる。また、電源部17は、必要に応じて、電圧変換回路および充電制御回路等の周知の回路を含む。   The power supply unit 17 supplies power to the first microphone 11, the second microphone 12, the first amplifier 13, the second amplifier 14, the voice analysis unit 15, and the data transmission unit 16. As the power source, for example, an existing power source such as a dry battery or a rechargeable battery is used. Moreover, the power supply part 17 contains well-known circuits, such as a voltage conversion circuit and a charge control circuit, as needed.

ホスト装置20は、端末装置10から送信されたデータを受信するデータ受信部21と、受信したデータを蓄積するデータ蓄積部22と、蓄積したデータを解析するデータ解析部23と、解析結果を出力する出力部24とを備える。このホスト装置20は、例えばパーソナルコンピュータ等の情報処理装置により実現される。また、上記のように本実施形態では複数台の端末装置10が使用され、ホスト装置20は、その複数台の端末装置10の各々からデータを受信する。   The host device 20 outputs a data reception unit 21 that receives data transmitted from the terminal device 10, a data storage unit 22 that stores the received data, a data analysis unit 23 that analyzes the stored data, and an analysis result. Output unit 24. The host device 20 is realized by an information processing device such as a personal computer. Further, as described above, a plurality of terminal devices 10 are used in the present embodiment, and the host device 20 receives data from each of the plurality of terminal devices 10.

データ受信部21は、上記の無線回線に対応しており、各端末装置10からデータを受信してデータ蓄積部22へ送る。本実施形態ではデータ受信部21は、データ送信部16により送信された音声の音声信号に関する情報を受信する音声情報受信部として機能する。データ蓄積部22は、データ受信部21から取得した受信データを発話者別に蓄積する。ここで、発話者の識別は、端末装置10から送信される端末IDと、あらかじめホスト装置20に登録されている発話者名と端末IDの照合により行う。また、端末装置10から端末IDのかわりに装着者状態を送信するようにしてもよい。   The data receiving unit 21 corresponds to the above-described wireless line, receives data from each terminal device 10, and sends it to the data storage unit 22. In the present embodiment, the data receiving unit 21 functions as an audio information receiving unit that receives information related to the audio signal of the audio transmitted by the data transmitting unit 16. The data storage unit 22 stores the reception data acquired from the data reception unit 21 for each speaker. Here, the speaker is identified by collating the terminal ID transmitted from the terminal device 10 with the name of the speaker registered in advance in the host device 20 and the terminal ID. Further, the wearer state may be transmitted from the terminal device 10 instead of the terminal ID.

データ解析部23は、例えばパーソナルコンピュータのプログラム制御されたCPUにより実現され、データ蓄積部22に蓄積されたデータを解析する。具体的な解析内容および解析手法は、本実施形態のシステムの利用目的や利用態様に応じて種々の内容および手法を取り得る。例えば、端末装置10の装着者どうしの対話頻度や各装着者の対話相手の傾向を分析したり、対話における個々の発話の長さや音圧の情報から対話者の関係を類推したりすることが行われる。   The data analysis unit 23 is realized by a program-controlled CPU of a personal computer, for example, and analyzes data stored in the data storage unit 22. The specific analysis content and analysis method can take various contents and methods depending on the purpose and use of the system of the present embodiment. For example, the frequency of dialogue between wearers of the terminal device 10 and the tendency of each wearer's dialogue partner may be analyzed, or the relationship between the dialogues may be inferred from information on individual utterance length and sound pressure in the dialogue. Done.

出力部24は、データ解析部23による解析結果を出力したり、解析結果に基づく出力を行ったりする。この解析結果等を出力する手段は、システムの利用目的や利用態様、解析結果の内容や形式等に応じて、ディスプレイ表示、プリンタによる印刷出力、音声出力等、種々の手段を取り得る。   The output unit 24 outputs the analysis result from the data analysis unit 23 or performs output based on the analysis result. The means for outputting the analysis result or the like can take various means such as display display, print output by a printer, voice output, and the like according to the purpose and use of the system and the content and format of the analysis result.

<端末装置の構成例>
図2は、端末装置10の構成例を示す図である。
上記のように、端末装置10は、各使用者に装着されて使用される。使用者が装着可能とするため、本実施形態の端末装置10は、図2に示すように、装置本体30と、装置本体30に接続された提げ紐40とを備えた構成とする。図示の構成において、使用者は、提げ紐40に首を通し、装置本体30を首から提げて装着する。
<Configuration example of terminal device>
FIG. 2 is a diagram illustrating a configuration example of the terminal device 10.
As described above, the terminal device 10 is used by being attached to each user. In order for the user to be able to wear the terminal device 10 according to the present embodiment, as shown in FIG. 2, the terminal device 10 includes a device main body 30 and a strap 40 connected to the device main body 30. In the configuration shown in the figure, the user puts the neck through the strap 40 and hangs the apparatus main body 30 from the neck.

装置本体30は、金属や樹脂等で形成された薄い直方体のケース31に、少なくとも第1増幅器13、第2増幅器14、音声解析部15、データ送信部16および電源部17を実現する回路と電源部17の電源(電池)とを収納して構成される。ケース31には、装着者の氏名や所属等のID情報を表示したIDカード等を挿入するポケットを設けても良い。また、ケース31自体の表面にそのようなID情報等を印刷したり、ID情報等を記載したシールを貼り付けたりしても良い。   The apparatus main body 30 is a thin rectangular parallelepiped case 31 made of metal, resin, or the like, and a circuit and a power source for realizing at least the first amplifier 13, the second amplifier 14, the voice analysis unit 15, the data transmission unit 16, and the power supply unit 17. The power supply (battery) of the unit 17 is accommodated. The case 31 may be provided with a pocket for inserting an ID card or the like displaying ID information such as the name and affiliation of the wearer. Further, such ID information or the like may be printed on the surface of the case 31 itself, or a sticker describing the ID information or the like may be attached.

提げ紐40には、第1マイクロフォン11および第2マイクロフォン12が設けられる(以下、第1マイクロフォン11と第2マイクロフォン12とを区別しない場合には、マイクロフォン11、12と記載)。マイクロフォン11、12は、提げ紐40の内部を通るケーブル(電線等)により、装置本体30に収納された第1増幅器13、第2増幅器14に接続される。提げ紐40の材質としては、革、合成皮革、木綿その他の天然繊維や樹脂等による合成繊維、金属等、既存の種々の材質を用いて良い。また、シリコン樹脂やフッ素樹脂等を用いたコーティング処理が施されていても良い。   The strap 40 is provided with a first microphone 11 and a second microphone 12 (hereinafter referred to as microphones 11 and 12 when the first microphone 11 and the second microphone 12 are not distinguished). The microphones 11 and 12 are connected to the first amplifier 13 and the second amplifier 14 accommodated in the apparatus main body 30 by cables (electric wires or the like) passing through the inside of the strap 40. As the material of the strap 40, various existing materials such as leather, synthetic leather, cotton and other natural fibers and synthetic fibers such as resin, metal, and the like may be used. Moreover, the coating process using a silicon resin, a fluororesin, etc. may be given.

この提げ紐40は、筒状の構造を有し、提げ紐40の内部にマイクロフォン11、12を収納している。マイクロフォン11、12を挙げ紐40の内部に設けることにより、マイクロフォン11、12の損傷や汚れを防ぎ、対話者がマイクロフォン11、12の存在を意識することが抑制される。なお、装着者の口(発声部位)から遠い位置に配置される第1マイクロフォン11は、装置本体30に設けても良い。本実施形態では、第1マイクロフォン11が提げ紐40に設けられる場合を例として説明する。   The strap 40 has a cylindrical structure, and the microphones 11 and 12 are housed inside the strap 40. By providing the microphones 11 and 12 inside the string 40, the microphones 11 and 12 are prevented from being damaged or soiled, and the conversation person is prevented from being aware of the presence of the microphones 11 and 12. Note that the first microphone 11 disposed at a position far from the wearer's mouth (speaking site) may be provided in the apparatus main body 30. In the present embodiment, a case where the first microphone 11 is provided on the strap 40 will be described as an example.

図2を参照すると、第1マイクロフォン11は、提げ紐40の装置本体30に接続される端部(例えば、接続部位から10cm以内の位置)に設けられている。これにより、装着者が提げ紐40を首に掛けて装置本体30を下げた状態で、第1マイクロフォン11は、装着者の口(発声部位)から約30cmから40cm程度離れた位置に配置される。なお、第1マイクロフォン11が装置本体30に設けられた場合も、装着者の口(発声部位)から第1マイクロフォン11までの距離は同程度である。   Referring to FIG. 2, the first microphone 11 is provided at an end (for example, a position within 10 cm from the connection site) of the strap 40 connected to the apparatus main body 30. Thus, the first microphone 11 is disposed at a position about 30 cm to 40 cm away from the wearer's mouth (speaking part) in a state where the wearer hangs the strap 40 around the neck and lowers the apparatus main body 30. . Even when the first microphone 11 is provided in the apparatus main body 30, the distance from the wearer's mouth (speaking part) to the first microphone 11 is approximately the same.

第2マイクロフォン12は、提げ紐40の装置本体30に接続される端部から離れた位置(例えば、接続部位から20cm〜30cm程度の位置)に設けられている。これにより、装着者が提げ紐40を首に掛けて装置本体30を下げた状態で、第2マイクロフォン12は、装着者の首元(例えば鎖骨に当たる位置)に位置し、装着者の口(発声部位)から約10cmから20cm程度離れた位置に配置される。   The second microphone 12 is provided at a position away from the end of the strap 40 connected to the device main body 30 (for example, a position of about 20 cm to 30 cm from the connection site). Thus, the second microphone 12 is positioned at the wearer's neck (for example, a position corresponding to the clavicle) in a state where the wearer hangs the strap 40 on the neck and the apparatus main body 30 is lowered. From about 10 cm to 20 cm.

なお、本実施形態の端末装置10は、図2に示す構成に限定されるものではない。例えば、マイクロフォン11、12は、第1マイクロフォン11から装着者の口(発声部位)までの音波到達経路の距離が第2マイクロフォン12から装着者の口(発声部位)までの音波到達経路の距離の数倍程度となるように、第1マイクロフォン11と第2マイクロフォン12の位置関係が特定されれば良い。したがって、第1マイクロフォンを首の後ろ側の提げ紐40に設けても良い。また、マイクロフォン11、12は、上記のように提げ紐40に設ける構成に限らず、種々の方法で装着者に装着して良い。例えば、第1マイクロフォン11と第2マイクロフォン12の各々を、個別にピン等を用いて衣服に固定するように構成しても良い。また、第1マイクロフォン11と第2マイクロフォン12の位置関係が所望の位置で固定されるようにデザインされた専用の装着具を用意して装着しても良い。   In addition, the terminal device 10 of this embodiment is not limited to the structure shown in FIG. For example, in the microphones 11 and 12, the distance of the sound wave arrival path from the first microphone 11 to the wearer's mouth (speaking part) is the distance of the sound wave arrival path from the second microphone 12 to the wearer's mouth (speaking part). The positional relationship between the first microphone 11 and the second microphone 12 may be specified so as to be several times. Therefore, the first microphone may be provided on the strap 40 on the back side of the neck. Further, the microphones 11 and 12 are not limited to the configuration provided on the strap 40 as described above, and may be attached to the wearer by various methods. For example, each of the first microphone 11 and the second microphone 12 may be configured to be individually fixed to clothes using pins or the like. Alternatively, a dedicated mounting tool designed so that the positional relationship between the first microphone 11 and the second microphone 12 is fixed at a desired position may be prepared and mounted.

また、装置本体30は、図2に示したように、提げ紐40に接続されて装着者の首から提げられる構成に限らず、携帯することが容易な装置として構成されていれば良い。例えば、本実施形態のような提げ紐ではなく、クリップやベルトにより衣服や体に装着するように構成しても良いし、単にポケット等に納めて携帯するような構成としても良い。また、携帯電話その他の既存の携帯型電子情報端末に、マイクロフォン11、12からの音声信号を受け付けて増幅し、解析する機能を実現させても良い。   Further, as shown in FIG. 2, the apparatus main body 30 is not limited to the configuration that is connected to the strap 40 and is provided from the wearer's neck, but may be configured as an apparatus that can be easily carried. For example, instead of the strap as in the present embodiment, it may be configured to be attached to clothes or a body with a clip or a belt, or may be configured to be simply carried in a pocket or the like. In addition, a function of receiving, amplifying, and analyzing a voice signal from the microphones 11 and 12 may be realized in a mobile phone or other existing portable electronic information terminal.

さらにまた、マイクロフォン11、12と装置本体30(あるいは音声解析部15)を有線で接続するのではなく、無線通信により接続しても良い。第1増幅器13、第2増幅器14、音声解析部15、データ送信部16および電源部17は、上記の構成例では単一のケース31に収納されることとしたが、複数の個体として構成しても良い。例えば、電源部17をケース31に収納せず、外部電源に接続して使用する構成としても良い。   Furthermore, the microphones 11 and 12 and the apparatus main body 30 (or the voice analysis unit 15) may be connected by wireless communication instead of being connected by wire. The first amplifier 13, the second amplifier 14, the voice analysis unit 15, the data transmission unit 16, and the power supply unit 17 are housed in a single case 31 in the above configuration example, but are configured as a plurality of individuals. May be. For example, the power supply unit 17 may be used by being connected to an external power supply without being stored in the case 31.

<取得音声の非言語情報に基づく発話者(自他)の識別>
次に、本実施形態における発話者の識別方法について説明する。
本実施形態のシステムは、端末装置10に設けられた2つのマイクロフォン11、12により取得された音の情報を用いて、端末装置10の装着者自身の発話音声と他者の発話音声とを識別する。言い換えれば、本実施形態は、取得音の発話者に関して自他の別を識別(自他識別)する。また、本実施形態では、取得音の情報のうち、形態素解析や辞書情報を用いて得られる言語情報ではなく、音圧(マイクロフォン11、12への入力音量)等の非言語情報に基づいて発話者を識別する。言い換えれば、言語情報により特定される発話内容ではなく、非言語情報により特定される発話状況から音の発話者を識別する。
<Identification of speakers (self and others) based on non-linguistic information of acquired speech>
Next, a speaker identification method according to this embodiment will be described.
The system according to the present embodiment distinguishes between the voice of the wearer of the terminal device 10 and the voice of the other person using the sound information acquired by the two microphones 11 and 12 provided in the terminal device 10. To do. In other words, the present embodiment identifies self / other distinction (self / other identification) regarding the speaker of the acquired sound. In the present embodiment, the utterance is based on non-linguistic information such as sound pressure (input volume to the microphones 11 and 12), not linguistic information obtained by using morphological analysis or dictionary information, among the acquired sound information. Identify the person. In other words, the speaker of the sound is identified not from the utterance content specified by the linguistic information but from the utterance situation specified by the non-linguistic information.

図1および図2を参照して説明したように、本実施形態において、端末装置10の第1マイクロフォン11は装着者の口(発声部位)から遠い位置に配置され、第2マイクロフォン12は装着者の口(発声部位)に近い位置に配置される。すなわち、装着者の口(発声部位)を音源とすると、第1マイクロフォン11と音源との間の距離と、第2マイクロフォン12と音源との間の距離が大きく異なる。具体的には、第1マイクロフォン11と音源との間の距離は、第2マイクロフォン12と音源との間の距離の1.5〜4倍程度である。ここで、マイクロフォン11、12における取得音の音圧は、マイクロフォン11、12と音源との間の距離が大きくなるにしたがって減衰(距離減衰)する。したがって、装着者の発話音声に関して、第1マイクロフォン11における取得音の音圧と第2マイクロフォン12における取得音の音圧とは大きく異なる。   As described with reference to FIGS. 1 and 2, in the present embodiment, the first microphone 11 of the terminal device 10 is disposed at a position far from the mouth (speaking site) of the wearer, and the second microphone 12 is the wearer. It is arranged at a position close to the mouth (speaking part). That is, if the wearer's mouth (speaking part) is a sound source, the distance between the first microphone 11 and the sound source and the distance between the second microphone 12 and the sound source are greatly different. Specifically, the distance between the first microphone 11 and the sound source is about 1.5 to 4 times the distance between the second microphone 12 and the sound source. Here, the sound pressure of the acquired sound in the microphones 11 and 12 attenuates (distance attenuation) as the distance between the microphones 11 and 12 and the sound source increases. Therefore, regarding the voice of the wearer, the sound pressure of the acquired sound in the first microphone 11 and the sound pressure of the acquired sound in the second microphone 12 are greatly different.

一方、装着者以外の者(他者)の口(発声部位)を音源とした場合を考えると、その他者が装着者から離れているため、第1マイクロフォン11と音源との間の距離と、第2マイクロフォン12と音源との間の距離は、大きく変わらない。装着者に対する他者の位置によっては、両距離の差は生じ得るが、装着者の口(発声部位)を音源とした場合のように、第1マイクロフォン11と音源との間の距離が第2マイクロフォン12と音源との間の距離の数倍となることはない。したがって、他者の発話音声に関して、第1マイクロフォン11における取得音声の音圧と第2マイクロフォン12における取得音声の音圧とは、装着者の発話音声の場合のように大きく異なることはない。   On the other hand, considering the case where the mouth (speaking part) of a person other than the wearer (other person) is used as the sound source, since the other person is away from the wearer, the distance between the first microphone 11 and the sound source, The distance between the second microphone 12 and the sound source does not change greatly. Depending on the position of the other person with respect to the wearer, a difference between both distances may occur, but the distance between the first microphone 11 and the sound source is the second as in the case where the mouth (speaking part) of the wearer is used as the sound source. It is never several times the distance between the microphone 12 and the sound source. Therefore, regarding the voice of other person, the sound pressure of the acquired voice in the first microphone 11 and the sound pressure of the acquired voice in the second microphone 12 are not significantly different from the case of the voice of the wearer.

図3は、装着者および他者の口(発声部位)と、マイクロフォン11、12との位置の関係を示す図である。
図3に示す関係において、装着者の口(発声部位)である音源aと第1マイクロフォン11との間の距離をLa1、音源aと第2マイクロフォン12との間の距離をLa2とする。また、他者の口(発声部位)である音源bと第1マイクロフォン11との間の距離をLb1、音源bと第2マイクロフォン12との間の距離をLb2とする。この場合、次の関係が成り立つ。
La1>La2(La1≒1.5×La2〜4×La2)
Lb1≒Lb2
FIG. 3 is a diagram illustrating a positional relationship between the mouths (speaking parts) of the wearer and the other person and the microphones 11 and 12.
In the relationship shown in FIG. 3, let La1 be the distance between the sound source a that is the mouth (speaking part) of the wearer and the first microphone 11, and let La2 be the distance between the sound source a and the second microphone 12. Further, the distance between the sound source b, which is the mouth (speaking part) of the other person, and the first microphone 11 is Lb1, and the distance between the sound source b and the second microphone 12 is Lb2. In this case, the following relationship holds.
La1> La2 (La1≈1.5 × La2 to 4 × La2)
Lb1≈Lb2

図4は、マイクロフォン11、12と音源との間の距離と音圧(入力音量)との関係を示す図である。
上述したように、音圧は、マイクロフォン11、12と音源との間の距離に応じて距離減衰する。図4において、距離La1の場合の音圧βと距離La2の場合の音圧αとを比較すると、音圧αは、音圧βの4倍程度となっている。一方、距離Lb1と距離Lb2とが近似するため、距離Lb1の場合の音圧βと距離Lb2の場合の音圧αとは、ほぼ等しい。そこで、本実施形態では、この音圧差を用いて、取得音声における装着者自身の発話音声と他者の発話音声とを識別する。なお、図4に示した例では、距離Lb1、Lb2を60cmとしたが、ここでは音圧αと音圧βとがほぼ等しくなることに意味があり、距離Lb1、Lb2は図示の値に限定されない。
FIG. 4 is a diagram illustrating the relationship between the distance between the microphones 11 and 12 and the sound source and the sound pressure (input sound volume).
As described above, the sound pressure is attenuated according to the distance between the microphones 11 and 12 and the sound source. In FIG. 4, when the sound pressure β at the distance La1 and the sound pressure α at the distance La2 are compared, the sound pressure α is about four times the sound pressure β. On the other hand, since the distance Lb1 and the distance Lb2 are approximate, the sound pressure β in the case of the distance Lb1 and the sound pressure α in the case of the distance Lb2 are substantially equal. Therefore, in the present embodiment, this sound pressure difference is used to distinguish between the wearer's own speech and the other's speech in the acquired speech. In the example shown in FIG. 4, the distances Lb1 and Lb2 are 60 cm. However, here, it is meaningful that the sound pressure α and the sound pressure β are substantially equal, and the distances Lb1 and Lb2 are limited to the values shown in the figure. Not.

図4を参照して説明したように、装着者自身の発話音声に関して、第2マイクロフォン12の音圧αは、第1マイクロフォン11の音圧βの数倍(例えば4倍程度)である。また、他者の発話音声に関して、第2マイクロフォン12の音圧αは、第1マイクロフォン11の音圧βとほぼ等しい(1倍程度)。そこで、本実施形態では、第2マイクロフォン12の音圧αと第1マイクロフォン11の音圧βとの差(音圧差α−β)に閾値を設定する。そして、音圧差が閾値よりも大きい音声は装着者自身の発話音声と判断し、音圧差が閾値よりも小さい音声は他者の発話音声と判断する。   As described with reference to FIG. 4, the sound pressure α of the second microphone 12 is several times (for example, about four times) the sound pressure β of the first microphone 11 with respect to the voice of the wearer. Further, regarding the voice of another person, the sound pressure α of the second microphone 12 is substantially equal to the sound pressure β of the first microphone 11 (about 1 time). Therefore, in this embodiment, a threshold is set for the difference between the sound pressure α of the second microphone 12 and the sound pressure β of the first microphone 11 (sound pressure difference α−β). Then, the voice whose sound pressure difference is larger than the threshold is determined as the voice of the wearer, and the voice whose sound pressure difference is smaller than the threshold is determined as the voice of the other person.

ところで、マイクロフォン11、12により取得される音声には、発話音声の他に、環境音等のいわゆる雑音(ノイズ)が含まれる。この雑音の音源とマイクロフォン11、12との間の距離の関係は、他者の発話音声の場合と類似する。すなわち、図4に示した例によれば、雑音の音源cと第1マイクロフォン11との間の距離をLc1とし、雑音の音源cと第2マイクロフォン12との間の距離をLc2とすると、距離Lc1と距離Lc2とは近似する。そして、マイクロフォン11、12の取得音声における音圧差α−βは、閾値よりも小さくなる。しかし、このような雑音は、バンドパスフィルタやゲインフィルタ等を用いた既存の技術によるフィルタリング処理を行うことにより発話音声から分離され、除去される。   By the way, the sound acquired by the microphones 11 and 12 includes so-called noise (noise) such as environmental sound in addition to the speech sound. The relationship of the distance between the noise source and the microphones 11 and 12 is similar to the case of the speech of another person. That is, according to the example shown in FIG. 4, when the distance between the noise source c and the first microphone 11 is Lc1, and the distance between the noise source c and the second microphone 12 is Lc2, the distance Lc1 and distance Lc2 are approximate. And the sound pressure difference α−β in the acquired voices of the microphones 11 and 12 is smaller than the threshold value. However, such noise is separated and removed from the uttered voice by performing a filtering process using an existing technique using a bandpass filter, a gain filter, or the like.

<端末装置の動作例>
図5は、本実施形態における端末装置10の動作を示すフローチャートである。
図5に示すように、端末装置10のマイクロフォン11、12が音声を取得すると、各マイクロフォン11、12から取得音声に応じた電気信号(音声信号)が第1増幅器13および第2増幅器14へ送られる(ステップ101)。第1増幅器13および第2増幅器14は、マイクロフォン11、12からの音声信号を取得すると、信号を増幅して音声解析部15へ送る(ステップ102)。
<Operation example of terminal device>
FIG. 5 is a flowchart showing the operation of the terminal device 10 in the present embodiment.
As shown in FIG. 5, when the microphones 11 and 12 of the terminal device 10 acquire sound, an electric signal (audio signal) corresponding to the acquired sound is transmitted from each microphone 11 and 12 to the first amplifier 13 and the second amplifier 14. (Step 101). When the first amplifier 13 and the second amplifier 14 acquire the audio signal from the microphones 11 and 12, the first amplifier 13 and the second amplifier 14 amplify the signal and send it to the audio analysis unit 15 (step 102).

音声解析部15は、第1増幅器13および第2増幅器14で増幅された信号に対してフィルタリング処理を行い、信号から環境音等の雑音(ノイズ)の成分を除去する(ステップ103)。次に、音声解析部15は、雑音成分が除かれた信号に対し、一定の時間単位(例えば、数十分の一秒〜数百分の一秒)毎に、各マイクロフォン11、12の取得音声における平均音圧を求める(ステップ104)。   The voice analysis unit 15 performs a filtering process on the signals amplified by the first amplifier 13 and the second amplifier 14, and removes noise components such as environmental sounds from the signals (step 103). Next, the voice analysis unit 15 acquires the microphones 11 and 12 every certain time unit (for example, tens of seconds to hundreds of seconds) with respect to the signal from which the noise component has been removed. An average sound pressure in the voice is obtained (step 104).

次に、音声解析部15は、ステップ104で求めた各マイクロフォン11、12における平均音圧の利得が有る場合(ステップ105でYes)、発話音声が有る(発話が行われた)と判断する。一方、ステップ104で求めた各マイクロフォン11、12における平均音圧の利得が無い場合(ステップ105でNo)、音声解析部15は、発話音声が無い(発話が行われていない)と判断する(ステップ110)。
そして、発話音声が有ると判断したときは、音声解析部15は、第1マイクロフォン11における平均音圧と第2マイクロフォン12における平均音圧の差(音圧差)α−βを求める(ステップ106)。
そして、ステップ106で求めた音圧差α−βが閾値よりも大きい場合(ステップ107でYes)、発話音声は装着者自身の発話による音声であると判断する。そして音声解析部15は、その旨のパラメータを設定する。ここでは、便宜上これを「状態1」とする(ステップ108)。一方、ステップ106で求めた音圧差が閾値よりも小さい場合(ステップ107でNo)、音声解析部15は、発話音声は他者の発話による音声であると判断する。そして音声解析部15は、その旨のパラメータを設定する。ここでは、便宜上これを「状態2」とする(ステップ109)。
Next, when there is a gain of the average sound pressure in each of the microphones 11 and 12 obtained in step 104 (Yes in step 105), the voice analysis unit 15 determines that there is an utterance voice (utterance has been performed). On the other hand, when there is no gain of the average sound pressure in each of the microphones 11 and 12 obtained in step 104 (No in step 105), the voice analysis unit 15 determines that there is no uttered voice (no utterance is performed) ( Step 110).
When it is determined that there is a speech voice, the voice analysis unit 15 obtains a difference (sound pressure difference) α−β between the average sound pressure in the first microphone 11 and the average sound pressure in the second microphone 12 (step 106). .
If the sound pressure difference α−β obtained in step 106 is larger than the threshold (Yes in step 107), it is determined that the speech voice is a voice of the wearer's own speech. The voice analysis unit 15 sets a parameter to that effect. Here, for convenience, this is referred to as “state 1” (step 108). On the other hand, if the sound pressure difference obtained in step 106 is smaller than the threshold value (No in step 107), the voice analysis unit 15 determines that the uttered voice is a voice of another person's utterance. The voice analysis unit 15 sets a parameter to that effect. Here, for convenience, this is referred to as “state 2” (step 109).

なお、ステップ105の判断は、ステップ103のフィルタリング処理で除去しきれなかった雑音が信号に残っている場合を考慮し、平均音圧の利得の値が一定値以上の場合に、利得があると判断しても良い。   Note that the determination in step 105 takes into account the case where noise that could not be removed by the filtering process in step 103 remains in the signal, and if there is a gain when the average sound pressure gain value is greater than or equal to a certain value. You may judge.

この後、音声解析部15は、データ送信部16を介して、ステップ104〜ステップ110の処理で得られた情報(発話の有無、発話者の情報、自他識別の識別結果(「状態1」か「状態2」かの情報))を解析結果としてホスト装置20のデータ受信部21へ送信させる(ステップ111)。このとき、発話者毎(装着者自身または他者)の発話時間の長さや平均音圧の利得の値、その他の付加情報を解析結果と共にホスト装置20のデータ受信部21へ送信させても良い。   Thereafter, the voice analysis unit 15 sends the information (the presence / absence of the utterance, the information of the utterer, the identification result of the self / other identification) (“state 1”) through the data transmission unit 16 through the processing of step 104 to step 110. Or “status 2”)) is transmitted as an analysis result to the data receiver 21 of the host device 20 (step 111). At this time, the length of the utterance time for each speaker (the wearer himself / herself or another person), the gain value of the average sound pressure, and other additional information may be transmitted to the data receiving unit 21 of the host device 20 together with the analysis result. .

そしてホスト装置20では、この音声の自他識別の識別結果を含む音声の情報を基にして、音声の同調性を判別する。本実施形態において、複数の装着者の距離関係を導出する機能は、ホスト装置20のデータ解析部23が行なう。   Then, the host device 20 determines the synchrony of the voice based on the voice information including the identification result of the voice identification. In the present embodiment, the function of deriving the distance relationship between a plurality of wearers is performed by the data analysis unit 23 of the host device 20.

<データ解析部23の説明>
図6は、本実施形態におけるデータ解析部23のブロック図である。
図6に示すようにデータ解析部23は、データ受信部21により複数の装着者から取得した音声の音声信号に関する情報から音声の同調性を判別する同調性判別部231と、同調性判別部231により判別された音声の同調性から装着者の組分けを行なう組分け部232とを備える。
<Description of Data Analysis Unit 23>
FIG. 6 is a block diagram of the data analysis unit 23 in the present embodiment.
As shown in FIG. 6, the data analyzing unit 23 includes a synchronism determining unit 231 that determines audio synchrony from information on audio signals of audio acquired from a plurality of wearers by the data receiving unit 21, and a synchrony determining unit 231. And a grouping unit 232 that performs grouping of the wearers based on the synchrony of the voice determined by the above.

<ホスト装置の動作例>
また図7は、本実施形態におけるホスト装置20の動作を示すフローチャートである。
以下、図1、図6、図7を使用して本実施形態のホスト装置20の動作を説明する。
まずデータ受信部21が、複数の端末装置10から音声の情報や自他識別の識別結果の情報を含む種々の情報を受信する(ステップ201)。そしてこれらの情報は、いったんデータ蓄積部22に蓄積される(ステップ202)。
<Operation example of host device>
FIG. 7 is a flowchart showing the operation of the host device 20 in this embodiment.
Hereinafter, the operation of the host device 20 of this embodiment will be described with reference to FIGS. 1, 6, and 7.
First, the data receiving unit 21 receives various information including voice information and identification result information of a self-other identification from a plurality of terminal devices 10 (step 201). These pieces of information are once stored in the data storage unit 22 (step 202).

次にこの情報は、データ解析部23に送られ、データ解析部23において複数の端末装置10から送られた音声の同調性が判別される(ステップ203)。   Next, this information is sent to the data analysis unit 23, and the data analysis unit 23 determines the synchrony of the voices sent from the plurality of terminal devices 10 (step 203).

以下、音声の情報の同調性を判別する方法について説明する。
図8は、本実施形態の端末装置10をそれぞれ装着した複数の装着者が会話している状況を示す図である。図9は、図8の会話状況における各端末装置10A、10Bの発話情報の例を示す図である。
図8に示すように、端末装置10をそれぞれ装着した二人の装着者A、装着者Bが会話している場合を考える。このとき、装着者Aの端末装置10Aにおいて装着者の発話として認識される音声は、装着者Bの端末装置10Bでは他者の発話として認識される。反対に、端末装置10Bにおいて装着者の発話として認識される音声は、端末装置10Aでは他者の発話として認識される。
Hereinafter, a method for determining the synchrony of audio information will be described.
FIG. 8 is a diagram illustrating a situation in which a plurality of wearers each wearing the terminal device 10 of the present embodiment are talking. FIG. 9 is a diagram showing an example of utterance information of each terminal device 10A, 10B in the conversation situation of FIG.
As shown in FIG. 8, a case is considered in which two wearers A and B, each wearing the terminal device 10, are talking. At this time, the voice recognized as the utterance of the wearer in the terminal device 10A of the wearer A is recognized as the utterance of the other person in the terminal device 10B of the wearer B. On the other hand, the voice recognized as the utterance of the wearer in the terminal device 10B is recognized as the utterance of the other person in the terminal device 10A.

端末装置10Aおよび端末装置10Bからは、それぞれ独立に、発話情報がホスト装置20に送られる。このとき、端末装置10Aから取得した発話情報と、端末装置10Bから取得した発話情報とは、図9に示すように、発話者(装着者と他者)の識別結果は反対になるが、発話時間の長さや発話者が切り替わったタイミング等の発話状況を示す情報は近似する。そこで、本適用例のホスト装置20は、端末装置10Aから取得した情報と端末装置10Bから取得した情報とを比較することにより、これらの情報が同じ発話状況を示していると判断し、装着者Aと装着者Bとが会話していることを認識する。このように装着者Aの音声と装着者Bの音声の同調性を判別することで、装着者Aと装着者Bとが会話していることを判断できる。ここで、発話状況を示す情報としては、少なくとも、上述した発話者ごとの個々の発話における発話時間の長さ、個々の発話の開始時刻と終了時刻、発話者が切り替わった時刻(タイミング)等のように、発話に関する時間情報が用いられる。なお、特定の会話に係る発話状況を判断するために、これらの発話に関する時間情報の一部のみを用いても良いし、他の情報を付加的に用いても良い。   The utterance information is sent to the host device 20 independently from the terminal device 10A and the terminal device 10B. At this time, the utterance information acquired from the terminal device 10A and the utterance information acquired from the terminal device 10B are opposite in the identification result of the speaker (wearer and other person) as shown in FIG. Information indicating the utterance status such as the length of time and the timing when the speaker is switched is approximated. Therefore, the host device 20 of this application example compares the information acquired from the terminal device 10A and the information acquired from the terminal device 10B to determine that these information indicate the same utterance situation, and wearers Recognizing that A and the wearer B are talking. Thus, by determining the synchronism of the voice of the wearer A and the voice of the wearer B, it can be determined that the wearer A and the wearer B are talking. Here, the information indicating the utterance state includes at least the length of the utterance time in each utterance for each utterer described above, the start time and end time of each utterance, and the time (timing) at which the utterer is switched. As described above, the time information related to the utterance is used. Note that in order to determine the utterance situation related to a specific conversation, only part of the time information related to these utterances may be used, or other information may be additionally used.

本実施形態では、いずれかの端末装置10がこの端末装置10を装着する者(装着者)の音声であると識別した場合に、他の端末装置10に取得された音声の中で他人のものであると識別した音声との同調性を判別する。これは、同調性判別部231は、各装着者についてのマイクロフォン11、12により取得された音声の音声信号の比較結果に基づき識別される、マイクロフォン11、12により取得された音声がマイクロフォン11、12を備えた装着者の発話音声か装着者以外の他者の発話音声かの識別結果から、いずれかの装着者の発話音声であると識別された音について、音声の音声信号に関する情報から音声の同調性を判別すると言い換えても良い。   In the present embodiment, when one of the terminal devices 10 identifies the voice of the person (wearer) who wears the terminal device 10, the voice of the other person among the voices acquired by the other terminal devices 10 The synchronism with the voice identified as being is determined. This is because the synchrony determination unit 231 identifies the sound acquired by the microphones 11 and 12 based on the comparison result of the sound signals of the sounds acquired by the microphones 11 and 12 for each wearer. From the identification result of the voice of the wearer with the voice of the wearer or the voice of the voice of the other person other than the wearer, the voice of the voice identified from the voice signal of one of the wearers In other words, the synchrony is determined.

以下、さらに詳しくこの事項の説明を行なう。
ここでは、上述した「状態1」(自己の発話の場合)と「状態2」(他人の発話の場合)を使用する。この場合、装着者Aおよび装着者Bについて、以下の4つのパラメータが設定できる。
This will be described in more detail below.
Here, the above-mentioned “state 1” (in the case of own utterance) and “state 2” (in the case of utterance of another person) are used. In this case, the following four parameters can be set for the wearer A and the wearer B.

装着者Aについて
α−β>(予め定められた閾値)(「状態1」)のとき、パラメータA1を設定
α−β<(予め定められた閾値)(「状態2」)のとき、パラメータA2を設定
For wearer A, parameter α1 is set when α−β> (predetermined threshold) (“state 1”), and parameter A2 when α−β <(predetermined threshold) (“state 2”). The set

装着者Bについて
α−β>(予め定められた閾値)(「状態1」)のとき、パラメータB1を設定
α−β<(予め定められた閾値)(「状態2」)のとき、パラメータB2を設定
About Wearer B Parameter B1 is set when α−β> (predetermined threshold) (“state 1”) Parameter B2 when α−β <(predetermined threshold) (“state 2”) The set

図10は、パラメータA1、A2、B1、B2と装着者A、装着者Bの距離関係について説明した表である。
ここで図8、図9で説明した例に当てはめると、
FIG. 10 is a table illustrating the distance relationship between the parameters A1, A2, B1, and B2 and the wearer A and the wearer B.
Applying to the example described in FIGS. 8 and 9 here,

(1)ある時間帯において、装着者Aおよび装着者BについてパラメータA1およびパラメータB2が設定されているときは、装着者Aの音声と装着者Bの音声は同調性があると判別され、装着者Aと装着者Bとは会話関係にあると判断できる。なおこの場合、装着者Aの発話が聞こえる距離に装着者Bがいると言い換えることもできる。   (1) When the parameter A1 and the parameter B2 are set for the wearer A and the wearer B in a certain time zone, it is determined that the voice of the wearer A and the voice of the wearer B are synchronized, and the wearer It can be determined that person A and wearer B are in a conversational relationship. In this case, it can also be said that the wearer B is at a distance where the utterance of the wearer A can be heard.

(2)またある時間帯において、パラメータA2およびパラメータB1が設定されているときは、やはり装着者Aの音声と装着者Bの音声は同調性があると判別され、装着者Aと装着者Bとは会話関係にあると判断できる。なおこの場合は、装着者Bの発話が聞こえる距離に装着者Aがいると言い換えることもできる。   (2) When the parameter A2 and the parameter B1 are set in a certain time zone, it is determined that the voice of the wearer A and the voice of the wearer B are in synchronism, and the wearer A and the wearer B Can be determined to be in a conversational relationship. In this case, it can be paraphrased that the wearer A is at a distance where the utterance of the wearer B can be heard.

(3)さらにある時間帯において、パラメータA1およびパラメータB1が設定される場合がある。この場合は、装着者Aと装着者Bとは、非常に近接する位置にいるときである。なおこの場合についても装着者Aの音声と装着者Bの音声は同調性があると判別して、装着者Aと装着者Bとは会話関係にあると判断してもよい。   (3) In some time zone, the parameter A1 and the parameter B1 may be set. In this case, the wearer A and the wearer B are in a very close position. In this case as well, it may be determined that the voice of the wearer A and the voice of the wearer B are in synchronism, and that the wearer A and the wearer B are in a conversational relationship.

(4)またある時間帯において、パラメータA2およびパラメータB2が設定される場合がある。この場合は、同じ音が聞こえる空間に装着者Aと装着者Bがいるが、装着者Aと装着者Bとの距離は比較的離れていると判断できる。そしてこの音は、装着者Aおよび装着者Bの発話した音声ではないと判断できる。より具体的には、この音は、装着者Aおよび装着者B以外の装着者の音声である場合や、エアコンの音や工事の音などの環境音であると判断できる。   (4) In some time zone, parameter A2 and parameter B2 may be set. In this case, the wearer A and the wearer B are in a space where the same sound can be heard, but it can be determined that the distance between the wearer A and the wearer B is relatively long. It can be determined that this sound is not a voice spoken by the wearer A and the wearer B. More specifically, it can be determined that this sound is a voice of a wearer other than the wearer A and the wearer B, or an environmental sound such as an air conditioner sound or a construction sound.

上述した事項をまとめると、装着者Aと装着者Bとの距離としては、(3)が最も近い。そして次に(1)および(2)の場合が近く、最も遠いのは、(4)の場合となる((3)<((1)および(2))<(4))。
このようにして自他識別の識別結果を基にして、複数の装着者の近接判断をすることができる。
In summary, the distance between the wearer A and the wearer B is the closest (3). Next, the cases of (1) and (2) are close, and the farthest is the case of (4) ((3) <((1) and (2)) <(4)).
In this way, it is possible to determine the proximity of a plurality of wearers based on the identification result of the self-other identification.

複数の装着者の何れについても同調性がないと判断した場合(ステップ203でNo)、ステップ201に戻る。一方、複数の装着者の何れかについて同調性があると判断された場合(ステップ203でYes)、次に組分け部232にて装着者の組分け(グルーピング)を行なう(ステップ204)。
これは、複数の装着者のそれぞれの間における音声の同調性から、会話をしている装着者を選択することで行なわれる。例えば、装着者Aと装着者Bの2人のみについて音声の同調性があると判別された場合は、この2人を選択して1つの組(グループ)とする。また装着者Aと装着者Bの他に、他の装着者である装着者Cが装着者Aおよび装着者Bの少なくとも一方と音声の同調性があると判別された場合は、この3人を選択して1つの組(グループ)とする。なお音声に同調性のある装着者が4人以上であっても同様の方法で組(グループ)を構成することができる。そして全ての装着者について音声の同調性を判別することで、装着者の組分け(グルーピング)を行なうことができる。
When it is determined that none of the plurality of wearers has synchronization (No in Step 203), the process returns to Step 201. On the other hand, if it is determined that any one of the plurality of wearers is synchronized (Yes in step 203), then the wearer is grouped (grouped) by the grouping unit 232 (step 204).
This is performed by selecting a wearer having a conversation from the synchronism of sound between each of a plurality of wearers. For example, when it is determined that only two of the wearer A and the wearer B have the audio synchrony, the two are selected and set as one group. In addition to the wearer A and the wearer B, when it is determined that the wearer C, which is another wearer, has sound synchronism with at least one of the wearer A and the wearer B, these three persons are Select one group. Note that even if there are four or more wearers who are tuned to the voice, a group can be formed in the same manner. Then, by discriminating the synchronicity of voices for all the wearers, the wearers can be grouped.

なおこのとき組分け部232は、マイクロフォン11、12により取得された音が、自他識別の識別結果によりいずれの装着者の発話音声でもないとされる上記(4)の場合には、この音を装着者の組分けを行なうのに利用しない。   At this time, the grouping unit 232 determines that the sound acquired by the microphones 11 and 12 is not an utterance voice of any wearer according to the identification result of the self-other identification. Is not used to group wearers.

以上のようにして端末装置10を装着する装着者の組分け(グルーピング)を行なうことで、それぞれの装着者におけるコミュニケーションの傾向を分析することができる。
さらに特定の装着者が予め定められた空間内に存在するか否かを判定することができる。この空間が例えば、予め定められた室内とすれば、この特定の装着者が、この室内にいるかいないかの判定を行なうことができる。即ち、本実施形態の音声解析システム1は、装着者についての入退室判定システムとして利用することも可能である。
By performing the grouping of the wearers wearing the terminal device 10 as described above, the communication tendency of each wearer can be analyzed.
Further, it can be determined whether or not a specific wearer exists in a predetermined space. If this space is, for example, a predetermined room, it is possible to determine whether or not this specific wearer is in this room. That is, the voice analysis system 1 of this embodiment can also be used as an entrance / exit determination system for a wearer.

また上述した例では、音圧差α−βにより音声の自他識別を行なったが、これに限られるものではない。例えば、音圧比α/βを考え、この値が予め定められた閾値より大きい場合を「状態1」、予め定められた閾値より小さい場合を「状態2」と設定してもよい。
さらに上述した例では、音声の自他識別を行なうのを端末装置10の側で行なっていたが、これに限られるものではなく、ホスト装置20の側で行なってもよい。この形態における音声解析システム1としては、図1のものに対し、音声解析部15で行なっていた音声の自他識別を、例えば、ホスト装置20のデータ解析部23で行なう。そしてこの場合データ解析部23は、上述した自他識別部として機能する。
In the above-described example, the sound identification is performed based on the sound pressure difference α−β. However, the present invention is not limited to this. For example, considering the sound pressure ratio α / β, a case where this value is larger than a predetermined threshold value may be set as “state 1”, and a case where this value is smaller than a predetermined threshold value may be set as “state 2”.
Further, in the above-described example, the voice identification is performed on the terminal device 10 side, but is not limited to this, and may be performed on the host device 20 side. As the voice analysis system 1 in this embodiment, the voice analysis unit 15 of the host apparatus 20 performs, for example, the self-other identification of the voice performed by the voice analysis unit 15 with respect to that of FIG. In this case, the data analysis unit 23 functions as the self-other identification unit described above.

<端末装置の具体例>
図11(a)〜(b)は、実際に使用される端末装置10の具体例を示した図である。
このうち図11(a)は、図2に示した端末装置10とほぼ同様の構成をとり、第1マイクロフォン11、第2マイクロフォン12の2つのマイクロフォンを配したものである。ただし、第1マイクロフォン11は、装置本体30に配置されている。そして第1マイクロフォン11と第2マイクロフォン12との距離を35cmとしている。
<Specific examples of terminal devices>
FIGS. 11A and 11B are diagrams illustrating specific examples of the terminal device 10 that is actually used.
Among these, FIG. 11A shows a configuration substantially the same as that of the terminal device 10 shown in FIG. 2, in which two microphones of a first microphone 11 and a second microphone 12 are arranged. However, the first microphone 11 is disposed in the apparatus main body 30. The distance between the first microphone 11 and the second microphone 12 is 35 cm.

また図11(b)は、第1マイクロフォン11、第2マイクロフォン12の他に、第3マイクロフォン18の3つのマイクロフォンを配したものである。そして第1マイクロフォン11と第2マイクロフォン12との距離、第3マイクロフォン18と第1マイクロフォン11の距離を共に35cmとしている。そして第2マイクロフォン12と第3マイクロフォン18の距離は、10cmとしている。   FIG. 11B shows a configuration in which three microphones of the third microphone 18 are arranged in addition to the first microphone 11 and the second microphone 12. The distance between the first microphone 11 and the second microphone 12 and the distance between the third microphone 18 and the first microphone 11 are both 35 cm. The distance between the second microphone 12 and the third microphone 18 is 10 cm.

図11(b)のようにマイクロフォンが3箇所以上に配された端末装置10を使用することで、別々のマイクロフォンの組を使用して、上述した距離関係や対話関係の判断を行なうことができる。図11(b)で示した端末装置10では、第1マイクロフォン11と第2マイクロフォン12の組、および第3マイクロフォン18と第1マイクロフォン11の組が選択できる。このように複数の組のマイクロフォンを使用することで、データ解析部23での複数の装着者の距離関係や対話関係の判断をより精度良く行なうことができる。   By using the terminal device 10 in which the microphones are arranged at three or more places as shown in FIG. 11B, it is possible to determine the above-described distance relationship and dialogue relationship using different sets of microphones. . In the terminal device 10 shown in FIG. 11B, a set of the first microphone 11 and the second microphone 12 and a set of the third microphone 18 and the first microphone 11 can be selected. As described above, by using a plurality of sets of microphones, the data analysis unit 23 can more accurately determine the distance relationship and the conversation relationship between the plurality of wearers.

<プログラムの説明>
なお図7で説明を行った本実施形態におけるホスト装置20が行なう処理は、ソフトウェアとハードウェア資源とが協働することにより実現される。即ち、ホスト装置20に設けられた制御用コンピュータ内部の図示しないCPUが、ホスト装置20の各機能を実現するプログラムを実行し、これらの各機能を実現させる。
<Description of the program>
Note that the processing performed by the host device 20 in the present embodiment described with reference to FIG. 7 is realized by cooperation of software and hardware resources. That is, a CPU (not shown) inside the control computer provided in the host device 20 executes a program that realizes each function of the host device 20 and realizes each of these functions.

よって図7で説明を行ったホスト装置20が行なう処理は、コンピュータに、装着者の口からの距離が異なる位置に配され音声を取得するための複数のマイクロフォン11、12により取得された音声の情報を受信する機能と、各装着者についての複数のマイクロフォン11、12により取得された音声の音声信号の比較結果に基づき識別される、マイクロフォン11、12により取得された音声がマイクロフォン11、12を備えた装着者の発話音声か装着者以外の他者の発話音声かの識別結果から、いずれかの装着者の発話音声であると識別された音声について、音声の音声信号に関する情報から音声の同調性を判別する機能と、を実現させるプログラムとして捉えることもできる。   Therefore, the processing performed by the host device 20 described with reference to FIG. 7 is performed on the sound acquired by the plurality of microphones 11 and 12 for acquiring the sound that is placed on the computer at different positions from the wearer's mouth. The voice acquired by the microphones 11 and 12 is identified based on the comparison result of the function of receiving information and the voice signals of the voices acquired by the plurality of microphones 11 and 12 for each wearer. From the identification result of whether the voice of the wearer is the voice of the wearer or the voice of another person other than the wearer, the voice tuned from the information about the voice signal of the voice of one of the wearers It can also be understood as a program that realizes the function of discriminating sex.

1…音声解析システム、10…端末装置、11…第1マイクロフォン、12…第2マイクロフォン、15…音声解析部、16…データ送信部、18…第3マイクロフォン、20…ホスト装置、21…データ受信部、23…データ解析部、30…装置本体、40…提げ紐、231…同調性判別部、232…組分け部 DESCRIPTION OF SYMBOLS 1 ... Voice analysis system, 10 ... Terminal device, 11 ... 1st microphone, 12 ... 2nd microphone, 15 ... Voice analysis part, 16 ... Data transmission part, 18 ... 3rd microphone, 20 ... Host apparatus, 21 ... Data reception , 23 ... Data analysis unit, 30 ... Device main body, 40 ... Strap, 231 ... Synchronization determination unit, 232 ... Grouping unit

Claims (7)

装着者の口からの距離が異なる位置に配され音声を取得するための複数の音声取得手段により取得された音声の音声信号に関する情報を受信する音声情報受信部と、
各装着者についての複数の前記音声取得手段により取得された音声の音声信号の比較結果に基づき識別される、当該音声取得手段により取得された音声が当該音声取得手段を備えた装着者の発話音声か装着者以外の他者の発話音声かの識別結果から、いずれかの装着者の発話音声であると識別された音声について、当該音声の音声信号に関する情報から音声の同調性を判別する同調性判別部と、
を備えることを特徴とする音声解析装置。
A voice information receiving unit that receives information related to a voice signal of a voice acquired by a plurality of voice acquisition means for acquiring voices arranged at different positions from the wearer's mouth;
The voice acquired by the voice acquisition unit is identified based on the comparison result of the voice signals acquired by the plurality of voice acquisition units for each wearer. The voice of the wearer provided with the voice acquisition unit For the voice identified as the speech voice of one of the wearers based on the identification result of the speech voice of the other person other than the wearer, the synchrony for determining the synchrony of the voice from the information on the voice signal of the voice A discriminator;
A voice analysis device comprising:
前記音声取得手段を備えた装着者の発話音声か装着者以外の他者の発話音声かの識別結果を求める自他識別部をさらに備えることを特徴とする請求項1に記載の音声解析装置。   The speech analysis apparatus according to claim 1, further comprising a self-other identification unit that obtains an identification result of whether the voice of the wearer or the voice of another person other than the wearer includes the voice acquisition unit. 前記同調性判別部により判別された音声の同調性から装着者の組分けを行なう組分け部をさらに備えることを特徴する請求項1または2に記載の音声解析装置。   The speech analysis apparatus according to claim 1, further comprising a grouping unit that performs grouping of the wearers based on the sound synchrony determined by the synchrony determination unit. 前記組分け部は、前記音声取得手段により取得された音が、いずれの装着者の発話音声でもないとされた場合に、当該音を装着者の組分けを行なうのに利用しないことを特徴する請求項3に記載の音声解析装置。   The grouping unit is characterized in that, when the sound acquired by the sound acquisition unit is not the voice of any wearer, the sound is not used for grouping the wearer. The speech analysis apparatus according to claim 3. 装着者の口からの距離が異なる位置に配され音声を取得するための複数の音声取得手段と、
前記音声取得手段により取得された音声の音声信号の比較結果に基づき、当該音声取得手段により取得された音声が当該音声取得手段を備えた装着者の発話音声か装着者以外の他者の発話音声かを識別する自他識別部と、
前記自他識別部により識別された識別結果から、いずれかの装着者の発話音声であると識別された音声について、当該音声の音声信号に関する情報から音声の同調性を判別する同調性判別部と、
を備えたことを特徴とする音声解析システム。
A plurality of voice acquisition means for acquiring voices arranged at different positions from the wearer's mouth;
Based on the comparison result of the voice signal of the voice acquired by the voice acquisition means, the voice acquired by the voice acquisition means is the voice of the wearer equipped with the voice acquisition means or the voice of another person other than the wearer A self-other identification unit for identifying
A synchronism determining unit that determines the synchrony of the sound from the information related to the sound signal of the sound, for the sound identified as the speech sound of any wearer from the identification result identified by the self-other identification unit; ,
A voice analysis system characterized by comprising:
前記音声取得手段により取得された音声の音声信号に関する情報を送信する音声情報送信部と、当該音声情報送信部により送信された音声の音声信号に関する情報を受信する音声情報受信部と、をさらに備えることを特徴とする請求項5に記載の音声解析システム。   A voice information transmitting unit that transmits information related to the voice signal of the voice acquired by the voice acquisition unit; and a voice information receiving unit that receives information related to the voice signal of the voice transmitted by the voice information transmitting unit. The speech analysis system according to claim 5. コンピュータに、
装着者の口からの距離が異なる位置に配され音声を取得するための複数の音声取得手段により取得された音声の音声信号に関する情報を受信する機能と、
各装着者についての複数の前記音声取得手段により取得された音声の音声信号の比較結果に基づき識別される、当該音声取得手段により取得された音声が当該音声取得手段を備えた装着者の発話音声か装着者以外の他者の発話音声かの識別結果から、いずれかの装着者の発話音声であると識別された音声について、当該音声の音声信号に関する情報から音声の同調性を判別する機能と、
を実現させるプログラム。
On the computer,
A function of receiving information related to an audio signal of audio acquired by a plurality of audio acquisition means for acquiring audio arranged at different positions from the wearer's mouth; and
The voice acquired by the voice acquisition unit is identified based on the comparison result of the voice signals acquired by the plurality of voice acquisition units for each wearer. The voice of the wearer provided with the voice acquisition unit A function for discriminating the synchronicity of the voice from the information related to the voice signal of the voice of the voice identified as the voice of the voice of one of the wearers from the identification result of the voice of the voice other than the wearer ,
A program that realizes
JP2012026473A 2012-02-09 2012-02-09 Voice analysis device, voice analysis system, and program Pending JP2013164468A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012026473A JP2013164468A (en) 2012-02-09 2012-02-09 Voice analysis device, voice analysis system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012026473A JP2013164468A (en) 2012-02-09 2012-02-09 Voice analysis device, voice analysis system, and program

Publications (1)

Publication Number Publication Date
JP2013164468A true JP2013164468A (en) 2013-08-22

Family

ID=49175854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012026473A Pending JP2013164468A (en) 2012-02-09 2012-02-09 Voice analysis device, voice analysis system, and program

Country Status (1)

Country Link
JP (1) JP2013164468A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016157642A1 (en) * 2015-03-27 2016-10-06 ソニー株式会社 Information processing device, information processing method, and program
CN111833898A (en) * 2020-07-24 2020-10-27 上海明略人工智能(集团)有限公司 Multi-source data processing method and device and readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202035A (en) * 2004-01-14 2005-07-28 Toshiba Corp Conversation information analyzer
JP2005265982A (en) * 2004-03-16 2005-09-29 Advanced Telecommunication Research Institute International Device and program for detecting degree of agree ableness
WO2007105436A1 (en) * 2006-02-28 2007-09-20 Matsushita Electric Industrial Co., Ltd. Wearable terminal
JP2007264473A (en) * 2006-03-29 2007-10-11 Toshiba Corp Voice processor, voice processing method, and voice processing program
JP2009290342A (en) * 2008-05-27 2009-12-10 Funai Electric Advanced Applied Technology Research Institute Inc Voice input device and voice conference system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202035A (en) * 2004-01-14 2005-07-28 Toshiba Corp Conversation information analyzer
JP2005265982A (en) * 2004-03-16 2005-09-29 Advanced Telecommunication Research Institute International Device and program for detecting degree of agree ableness
WO2007105436A1 (en) * 2006-02-28 2007-09-20 Matsushita Electric Industrial Co., Ltd. Wearable terminal
JP2007264473A (en) * 2006-03-29 2007-10-11 Toshiba Corp Voice processor, voice processing method, and voice processing program
JP2009290342A (en) * 2008-05-27 2009-12-10 Funai Electric Advanced Applied Technology Research Institute Inc Voice input device and voice conference system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016157642A1 (en) * 2015-03-27 2016-10-06 ソニー株式会社 Information processing device, information processing method, and program
WO2016158267A1 (en) * 2015-03-27 2016-10-06 ソニー株式会社 Information processing device, information processing method, and program
JPWO2016158267A1 (en) * 2015-03-27 2018-01-25 ソニー株式会社 Information processing apparatus, information processing method, and program
CN111833898A (en) * 2020-07-24 2020-10-27 上海明略人工智能(集团)有限公司 Multi-source data processing method and device and readable storage medium

Similar Documents

Publication Publication Date Title
JP6031761B2 (en) Speech analysis apparatus and speech analysis system
JP5772447B2 (en) Speech analyzer
JP6003472B2 (en) Speech analysis apparatus, speech analysis system and program
JP6003510B2 (en) Speech analysis apparatus, speech analysis system and program
JP5867066B2 (en) Speech analyzer
JP2013072979A (en) Voice analysis system and voice analysis device
JP2013135325A (en) Voice analysis device
US8983843B2 (en) Motion analyzer having voice acquisition unit, voice acquisition apparatus, motion analysis system having voice acquisition unit, and motion analysis method with voice acquisition
JP6476938B2 (en) Speech analysis apparatus, speech analysis system and program
JP6160042B2 (en) Positioning system
JP5862318B2 (en) Sound analysis apparatus, sound analysis system and program
JP6007487B2 (en) Information processing apparatus, information processing system, and program
JP6191747B2 (en) Speech analysis apparatus and speech analysis system
JP2013164468A (en) Voice analysis device, voice analysis system, and program
JP6031767B2 (en) Speech analysis apparatus, speech analysis system and program
JP2013140534A (en) Voice analysis device, voice analysis system, and program
JP2013072978A (en) Voice analyzer and voice analysis system
JP6056544B2 (en) Speech analysis device, signal analysis device, speech analysis system, and program
JP5929810B2 (en) Voice analysis system, voice terminal apparatus and program
JP6051996B2 (en) Speech analysis apparatus, speech analysis system and program
JP2014048618A (en) Speech analyzing device, speech analyzing system, and program
JP6369022B2 (en) Signal analysis apparatus, signal analysis system, and program
JP6187112B2 (en) Speech analysis device, display device, speech analysis system and program
JP5948969B2 (en) Speech analysis apparatus, speech analysis system and program
JP2014050048A (en) Voice analysis device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161028

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170207