JP2014048618A - Speech analyzing device, speech analyzing system, and program - Google Patents

Speech analyzing device, speech analyzing system, and program Download PDF

Info

Publication number
JP2014048618A
JP2014048618A JP2012193937A JP2012193937A JP2014048618A JP 2014048618 A JP2014048618 A JP 2014048618A JP 2012193937 A JP2012193937 A JP 2012193937A JP 2012193937 A JP2012193937 A JP 2012193937A JP 2014048618 A JP2014048618 A JP 2014048618A
Authority
JP
Japan
Prior art keywords
voice
wearer
information
acquired
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012193937A
Other languages
Japanese (ja)
Inventor
Toru Fujii
徹 藤居
Haruo Harada
陽雄 原田
Yasushi Iida
靖 飯田
Yohei Nishino
洋平 西野
Hiroto Yoneyama
博人 米山
Hiroshi Shitaya
啓 下谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2012193937A priority Critical patent/JP2014048618A/en
Publication of JP2014048618A publication Critical patent/JP2014048618A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a speech analyzing device or the like that can grasp whether or not a wearer wearing speech obtaining means is holding a conversation using a telephone.SOLUTION: A host device 20 includes: a data receiving unit 21 for receiving information on speech obtained by a first microphone 11 and a second microphone 12 that obtain speech and distinguish uttered speech of the wearer from uttered speech of a person other than the wearer; and a data analyzing unit 23 for determining whether or not the wearer is holding a conversation using a telephone using self-other distinguishing information, which is information on whether the speech obtained by the first microphone 11 and the second microphone 12 is the uttered speech of the wearer or the uttered speech of the other person.

Description

本発明は、音声解析装置、音声解析システム、プログラムに関する。   The present invention relates to a voice analysis device, a voice analysis system, and a program.

特許文献1には、話者検出回路は、マイクロフォンに入力された音声帯域信号から特定の帯域の成分を取り出すろ波器と、ろ波器が出力する特定帯域の音声帯域信号のレベルを検出して、音声帯域信号のレベルと所定の閾値とを比較するマイク検出部とを備えて構成し、テレビ会議装置は、話者検出回路の出力信号によってカメラを制御する構成を備えて構成するものが開示されている。
特許文献2には、メイン処理が実行され、話し手の発話が検出された場合、取得された音声データの音量レベルが検出され、次いで、音量レベルが閾値より小さいか否かが判断される。そして音量レベルが閾値より小さい場合、音声データに基づいて音声認識によるテキスト化が行われる。さらに音声認識による音声テキスト化が成功した場合、テキストデータが他の通信制御装置に対して送信され、再度、話し手の発話が検出される処理が行われる通信制御装置が開示されている。
特許文献3には、ケプストラム分析手段の結果に基づき、ピーク検出手段でピークが検出された後、音声判別手段で音声部分が判別され、このとき記憶手段にあらかじめ話者固有のケプストラムピーク検出信号を記憶しておき、以後の音声入力と照合して得る最ゆう検出信号によって音声判別を行なう音声信号処理装置が開示されている。
In Patent Literature 1, a speaker detection circuit detects a level of a specific band audio band signal output from a filter that extracts a specific band component from the audio band signal input to the microphone, and the filter. And a microphone detection unit that compares the level of the voice band signal with a predetermined threshold, and the video conference device is configured to have a configuration for controlling the camera by the output signal of the speaker detection circuit. It is disclosed.
In Patent Document 2, when the main process is executed and the speaker's speech is detected, the volume level of the acquired voice data is detected, and then it is determined whether or not the volume level is smaller than the threshold value. If the volume level is smaller than the threshold value, the text is formed by voice recognition based on the voice data. Further, there has been disclosed a communication control device in which text data is transmitted to another communication control device when speech conversion by speech recognition is successful, and processing for detecting a speaker's speech is performed again.
In Patent Document 3, based on the result of the cepstrum analysis means, after the peak is detected by the peak detection means, the voice part is discriminated by the voice discrimination means. At this time, a cepstrum peak detection signal specific to the speaker is stored in the storage means. An audio signal processing device is disclosed that performs audio discrimination based on a maximum likelihood detection signal that is stored in advance and collated with subsequent audio input.

特開平9−163334号公報JP-A-9-163334 特開2010−232780号公報JP 2010-232780 A 特開平4−230796号公報Japanese Patent Laid-Open No. 4-230796

ここで音声取得手段を装着する装着者が、電話を使用して会話しているか否かを把握できることが望ましい。   Here, it is desirable to be able to grasp whether or not the wearer wearing the voice acquisition means is talking using the telephone.

請求項1に記載の発明は、音声を取得し装着者の発話音声と装着者以外の他者の発話音声とを識別するための音声取得手段により取得された音声の、当該音声に関する情報を取得する音声情報取得部と、前記音声取得手段により取得された音声が前記装着者の発話音声であるか他者の発話音声であるかを識別した情報である自他識別情報を使用して、当該装着者が電話を使用して会話しているか否かを判定する判定部と、を備えたことを特徴とする音声解析装置である。   According to the first aspect of the present invention, information related to the voice of the voice acquired by the voice acquisition means for acquiring the voice and identifying the voice of the wearer and the voice of the other person other than the wearer is acquired. Using the self-other identification information that is information identifying whether the voice acquired by the voice acquisition means is the voice of the wearer or the voice of the other person, And a determination unit that determines whether or not the wearer has a conversation using a telephone.

請求項2に記載の発明は、前記判定部は、前記音声情報取得部が、前記音声取得手段により取得された予め定められた会話パターンに適合する前記装着者の発話音声に関する情報を取得するとともに、当該装着者の発話音声が到達する場所で当該会話パターンに同調する他者の発話音声に関する情報を取得しないときに当該装着者が電話を使用して会話をしていると判定することを特徴とする請求項1に記載の音声解析装置である。   According to a second aspect of the present invention, the determination unit acquires information related to the utterance voice of the wearer that matches the predetermined conversation pattern acquired by the voice acquisition unit. Determining that the wearer is having a conversation using the telephone when the information about the other person's utterance that synchronizes with the conversation pattern is not acquired at the place where the utterance of the wearer reaches. The speech analysis apparatus according to claim 1.

請求項3に記載の発明は、前記音声情報取得部は、前記装着者の発話音声が到達しない場所にいる第2の装着者の発話音声と第2の装着者以外の他者の発話音声との識別を可能とする第2の音声取得手段により取得された音声の音声に関する情報をさらに取得し、前記判定部は、前記音声情報取得部が、前記音声取得手段により取得された予め定められた会話パターンに適合する前記装着者の発話音声に関する情報を取得するとともに、前記第2の音声取得手段により取得された当該会話パターンに同調する前記第2の装着者の発話音声に関する情報を取得するときに、当該装着者と当該第2の装着者とが電話を使用して会話していると判定することを特徴とする請求項1に記載の音声解析装置である。   According to a third aspect of the present invention, the voice information acquisition unit includes a voice of the second wearer in a place where the voice of the wearer does not reach and a voice of another person other than the second wearer. Further acquires information related to the voice of the voice acquired by the second voice acquisition unit that enables identification, and the determination unit is a predetermined information acquired by the voice acquisition unit by the voice information acquisition unit. When acquiring information related to the utterance voice of the wearer that conforms to the conversation pattern and acquiring information related to the utterance voice of the second wearer that is synchronized with the conversation pattern acquired by the second voice acquisition means The speech analysis apparatus according to claim 1, wherein the wearer and the second wearer are determined to have a conversation using a telephone.

請求項4に記載の発明は、前記判定部は、前記音声情報取得部が、前記音声取得手段により取得された予め定められた会話パターンに適合する前記装着者の発話音声に関する情報を取得するとともに、当該会話パターンに同調する他者の発話音声に関する情報を取得し、当該装着者の発話音声が到達する場所で当該他者の発話音声を自己発話とする音声に関する情報を取得しないときは、当該装着者が電話会議をしているとさらに判定することを特徴とする請求項1に記載の音声解析装置である。   According to a fourth aspect of the present invention, the determination unit acquires the information related to the utterance voice of the wearer that matches the predetermined conversation pattern acquired by the voice acquisition unit. When acquiring information related to the other person's utterance voice synchronized with the conversation pattern and not acquiring information related to the voice of the other person's utterance voice as the self-utterance at the place where the wearer's utterance voice reaches, The speech analysis apparatus according to claim 1, further determining that the wearer has a telephone conference.

請求項5に記載の発明は、前記音声情報取得部は、前記装着者の発話音声が到達しない場所にいる第2の装着者の発話音声と第2の装着者以外の他者の発話音声との識別を可能とする第2の音声取得手段により取得された音声の音声に関する情報をさらに取得し、前記判定部は、前記音声情報取得部が、前記音声取得手段により取得された予め定められた会話パターンに適合する前記装着者の発話音声に関する情報と当該会話パターンに同調する前記第2の装着者の発話音声に関する情報とを取得するとともに、前記第2の音声取得手段により取得された予め定められた会話パターンに適合する前記第2の装着者の発話音声に関する情報と当該会話パターンに同調する前記装着者の発話音声に関する情報とを取得するときは、当該装着者と当該第2の装着者とが電話会議をしているとさらに判定することを特徴とする請求項1に記載の音声解析装置である。   According to a fifth aspect of the present invention, the voice information acquisition unit includes a voice of a second wearer in a place where the voice of the wearer does not reach and a voice of another person other than the second wearer. Further acquires information related to the voice of the voice acquired by the second voice acquisition unit that enables identification, and the determination unit is a predetermined information acquired by the voice acquisition unit by the voice information acquisition unit. The information about the utterance voice of the wearer conforming to the conversation pattern and the information about the utterance voice of the second wearer synchronized with the conversation pattern are acquired, and the predetermined information acquired by the second voice acquisition unit is acquired. When acquiring information related to the utterance voice of the second wearer that conforms to the conversation pattern and information related to the utterance voice of the wearer synchronized with the conversation pattern, A voice analysis device according to claim 1, characterized in that the second of the wearer further determines that have a conference call.

請求項6に記載の発明は、装着者に装着され、音声を取得する音声取得手段と、前記音声取得手段が取得した音声が、装着者の発話音声であるか装着者以外の他者の発話音声であるかを識別した自他識別情報を生成する自他識別部と、前記自他識別部により生成された自他識別情報を使用して、当該装着者が電話を使用して会話しているか否かを判定する判定部と、を備えたことを特徴とする音声解析システムである。   The invention according to claim 6 is a voice acquisition unit that is worn by the wearer and acquires voice, and the voice acquired by the voice acquisition unit is the voice of the wearer or the speech of another person other than the wearer A self-other identification unit that generates self-other identification information that identifies whether it is a voice, and the wearer has a conversation using a telephone by using the self-other identification information generated by the self-other identification unit. And a determination unit that determines whether or not the voice analysis system is provided.

請求項7に記載の発明は、コンピュータに、音声を取得し装着者の発話音声と装着者以外の他者の発話音声とを識別するための音声取得手段により取得された音声の、当該音声に関する情報を取得する機能と、前記音声取得手段により取得された音声が前記装着者の発話音声であるか他者の発話音声であるかを識別した情報である自他識別情報を使用して、当該装着者が電話を使用して会話しているか否かを判定する機能と、を実現させるプログラムである。   The invention described in claim 7 relates to the voice of the voice acquired by the voice acquisition means for acquiring the voice in the computer and discriminating the voice of the wearer from the voice of the other person other than the wearer. Using the function for acquiring information and the self-other identification information that is information identifying whether the voice acquired by the voice acquisition means is the voice of the wearer or the voice of the other person, And a function for determining whether or not the wearer is talking using a telephone.

請求項1の発明によれば、音声取得手段を装着する装着者が電話を使用して会話しているか否かを把握することができる音声解析装置を提供できる。
請求項2の発明によれば、本構成を採用しない場合に比較して、音声取得手段を装着する装着者が電話をしているか否かを判定するのがより容易になる。
請求項3の発明によれば、音声取得手段を装着する二人の装着者が電話を使用して会話していることが判定できる。
請求項4の発明によれば、音声取得手段を装着する装着者が電話会議中であることが判定できる。
請求項5の発明によれば、音声取得手段を装着する二人の装着者が電話会議において会話していることが判定できる。
請求項6の発明によれば、音声取得手段を装着する装着者が電話を使用して会話しているか否かを把握することができる音声解析システムを提供できる。
請求項7の発明によれば、音声取得手段を装着する装着者が電話を使用して会話しているか否かを把握することができる機能をコンピュータにより実現できる。
According to the first aspect of the present invention, it is possible to provide a speech analysis apparatus capable of grasping whether or not the wearer wearing the speech acquisition means is talking using the telephone.
According to the second aspect of the present invention, it becomes easier to determine whether or not the wearer wearing the voice acquisition means is making a phone call, as compared with the case where this configuration is not adopted.
According to the invention of claim 3, it can be determined that the two wearers wearing the voice acquisition means are talking using the telephone.
According to the invention of claim 4, it can be determined that the wearer wearing the voice acquisition means is in a conference call.
According to the invention of claim 5, it can be determined that the two wearers wearing the voice acquisition means are talking in the telephone conference.
According to the sixth aspect of the present invention, it is possible to provide a voice analysis system capable of grasping whether or not the wearer wearing the voice acquisition means is talking using the telephone.
According to the seventh aspect of the present invention, a computer can realize a function capable of grasping whether or not the wearer wearing the voice acquisition means is talking using the telephone.

本実施形態による音声解析システムの構成例を示す図である。It is a figure which shows the structural example of the audio | voice analysis system by this embodiment. 本実施形態における端末装置の構成例を示す図である。It is a figure which shows the structural example of the terminal device in this embodiment. 装着者および他者の口(発声部位)と、マイクロフォンとの位置の関係を示す図である。It is a figure which shows the positional relationship of a wearer and another person's mouth (speaking part), and a microphone. マイクロフォンと音源との間の距離と音圧(入力音量)との関係を示す図である。It is a figure which shows the relationship between the distance between a microphone and a sound source, and sound pressure (input sound volume). 装着者自身の発話音声と他者の発話音声の識別方法を示す図である。It is a figure which shows the identification method of a wearer's own speech voice and another person's speech sound. 本実施形態における端末装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the terminal device in this embodiment. 本実施形態の端末装置をそれぞれ装着した複数の装着者が会話している状況を示す図である。It is a figure which shows the condition where the several wearer who each mounted | wore with the terminal device of this embodiment is talking. 図7の会話状況における各端末装置の発話情報の例を示す図である。It is a figure which shows the example of the speech information of each terminal device in the conversation condition of FIG. 装着者が電話を使用して他者と会話しているときの端末装置の発話情報の例を示す図である。It is a figure which shows the example of the speech information of a terminal device when a wearer is talking with others using the telephone. 二人の装着者が電話を使用して会話しているときの端末装置の発話情報の例を示す図である。It is a figure which shows the example of the speech information of a terminal device when two wearers are having conversation using the telephone. 装着者が電話会議において他者と会話しているときの端末装置の発話情報の例を示す図である。It is a figure which shows the example of the speech information of a terminal device when a wearer is talking with others in a telephone conference. 二人の装着者が電話会議において会話しているときの端末装置の発話情報の例を示す図である。It is a figure which shows the example of the speech information of a terminal device when two wearers are talking in a telephone conference. 本実施形態におけるホスト装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the host apparatus in this embodiment.

<システム構成例>
図1は、本実施形態による音声解析システムの構成例を示す図である。
図1に示すように、本実施形態の音声解析システム1は、端末装置10と、音声解析装置の一例であるホスト装置20とを備えて構成される。端末装置10とホスト装置20とは、無線通信回線を介して接続されている。無線通信回線の種類としては、Wi−Fi(Wireless Fidelity)、Bluetooth(登録商標)、ZigBee、UWB(Ultra Wideband)等の既存の方式による回線を用いて良い。また、図示の例では、端末装置10が1台のみ記載されているが、端末装置10は、使用者各人が装着して使用するものであり、実際には使用者数分の端末装置10が用意される。以下、端末装置10を装着した使用者を装着者と呼ぶ。
<System configuration example>
FIG. 1 is a diagram illustrating a configuration example of a speech analysis system according to the present embodiment.
As shown in FIG. 1, the speech analysis system 1 according to the present embodiment includes a terminal device 10 and a host device 20 that is an example of a speech analysis device. The terminal device 10 and the host device 20 are connected via a wireless communication line. As a type of the wireless communication line, a line using an existing method such as Wi-Fi (Wireless Fidelity), Bluetooth (registered trademark), ZigBee, or UWB (Ultra Wideband) may be used. Further, in the illustrated example, only one terminal device 10 is described, but the terminal device 10 is worn and used by each user, and actually the terminal devices 10 for the number of users. Is prepared. Hereinafter, a user wearing the terminal device 10 is referred to as a wearer.

端末装置10は、音声を取得し装着者の発話音声と装着者以外の他者の発話音声とを識別するための音声取得手段としての複数のマイクロフォン(第1マイクロフォン11および第2マイクロフォン12)と、増幅器(第1増幅器13および第2増幅器14)とを備える。また、端末装置10は、取得した音声を解析する音声解析部15と、解析結果をホスト装置20に送信するためのデータ送信部16とを備え、さらに電源部17とを備える。   The terminal device 10 acquires a plurality of microphones (first microphone 11 and second microphone 12) as voice acquisition means for acquiring voice and discriminating between the voice of the wearer and the voice of another person other than the wearer. And amplifiers (first amplifier 13 and second amplifier 14). In addition, the terminal device 10 includes a voice analysis unit 15 that analyzes the acquired voice, a data transmission unit 16 that transmits the analysis result to the host device 20, and further includes a power supply unit 17.

第1マイクロフォン11と第2マイクロフォン12は、装着者の口(発声部位)からの距離が異なる位置に配される。ここでは、第1マイクロフォン11は装着者の口(発声部位)から遠い位置(例えば、35cm程度)に配置され、第2マイクロフォン12は装着者の口(発声部位)に近い位置(例えば、10cm程度)に配置されるものとする。本実施形態の第1マイクロフォン11および第2マイクロフォン12として用いられるマイクロフォンの種類としては、ダイナミック型、コンデンサ型等、既存の種々のものを用いて良い。とくに無指向性のMEMS(Micro Electro Mechanical Systems)型マイクロフォンが好ましい。   The 1st microphone 11 and the 2nd microphone 12 are arranged in the position where the distance from a wearer's mouth (voice part) differs. Here, the first microphone 11 is arranged at a position (for example, about 35 cm) far from the mouth (speaking part) of the wearer, and the second microphone 12 is a position (for example, about 10 cm) near the mouth (speaking part) of the wearer. ). As the types of microphones used as the first microphone 11 and the second microphone 12 of the present embodiment, various existing types such as a dynamic type and a condenser type may be used. In particular, a non-directional MEMS (Micro Electro Mechanical Systems) type microphone is preferable.

第1増幅器13および第2増幅器14は、それぞれ第1マイクロフォン11および第2マイクロフォン12が取得した音声に応じて出力する電気信号(音声信号)を増幅する。本実施形態の第1増幅器13および第2増幅器14として用いられる増幅器としては、既存のオペアンプ等を用いて良い。   The first amplifier 13 and the second amplifier 14 amplify electrical signals (audio signals) that are output according to the audio acquired by the first microphone 11 and the second microphone 12, respectively. As the amplifier used as the first amplifier 13 and the second amplifier 14 of the present embodiment, an existing operational amplifier or the like may be used.

音声解析部15は、第1増幅器13および第2増幅器14から出力された音声信号を解析する。そして、第1マイクロフォン11および第2マイクロフォン12で取得した音声が端末装置10を装着した装着者自身が発話した音声か、他者の発話による音声かを識別する。音声識別のための具体的な処理の内容については後述する。   The voice analysis unit 15 analyzes the voice signal output from the first amplifier 13 and the second amplifier 14. Then, it is identified whether the voice acquired by the first microphone 11 and the second microphone 12 is a voice uttered by the wearer wearing the terminal device 10 or a voice uttered by another person. Details of specific processing for voice identification will be described later.

データ送信部16は、音声解析部15による解析結果を含む取得データと端末IDを、上記の無線通信回線を介して、あるいは無線通信回線に加えてインターネット等の有線通信回線を経由してホスト装置20へ送信する。ホスト装置20へ送信する情報としては、ホスト装置20において行われる処理の内容に応じて、上記の解析結果の他、例えば、第1マイクロフォン11および第2マイクロフォン12による音声の取得時刻、取得音声の音圧等の情報を含めて良い。また端末装置10に音声解析部15による解析結果を蓄積するデータ蓄積部を設け、一定期間の保存データを一括送信しても良い。なお有線通信回線のみで送信しても良い。   The data transmission unit 16 sends the acquired data including the analysis result by the voice analysis unit 15 and the terminal ID via the wireless communication line or via a wired communication line such as the Internet in addition to the wireless communication line. 20 is transmitted. As information to be transmitted to the host device 20, in addition to the above analysis results, for example, the acquisition time of the sound by the first microphone 11 and the second microphone 12 and the acquired sound according to the contents of the processing performed in the host device 20 Information such as sound pressure may be included. Further, the terminal device 10 may be provided with a data storage unit for storing the analysis result by the voice analysis unit 15 and the stored data for a certain period may be transmitted collectively. Note that it may be transmitted only through a wired communication line.

電源部17は、上記の第1マイクロフォン11、第2マイクロフォン12、第1増幅器13、第2増幅器14、音声解析部15およびデータ送信部16に電力を供給する。電源としては、例えば乾電池や充電池等の既存の電源が用いられる。また、電源部17は、必要に応じて、電圧変換回路および充電制御回路等の周知の回路を含む。   The power supply unit 17 supplies power to the first microphone 11, the second microphone 12, the first amplifier 13, the second amplifier 14, the voice analysis unit 15, and the data transmission unit 16. As the power source, for example, an existing power source such as a dry battery or a rechargeable battery is used. Moreover, the power supply part 17 contains well-known circuits, such as a voltage conversion circuit and a charge control circuit, as needed.

ホスト装置20は、端末装置10から送信されたデータを受信するデータ受信部21と、受信したデータを蓄積するデータ蓄積部22と、蓄積したデータを解析するデータ解析部23と、解析結果を出力する出力部24とを備える。このホスト装置20は、例えばパーソナルコンピュータ等の情報処理装置により実現される。また、本実施形態では複数台の端末装置10が使用された場合には、ホスト装置20は、その複数台の端末装置10の各々からデータを受信する。なお、端末装置10とホスト装置20の間にデータ転送を中継する中継装置を介しても良く、この中継装置が解析、演算、時刻や中継装置ID等のデータを加える機能を有してもよい。   The host device 20 outputs a data reception unit 21 that receives data transmitted from the terminal device 10, a data storage unit 22 that stores the received data, a data analysis unit 23 that analyzes the stored data, and an analysis result. Output unit 24. The host device 20 is realized by an information processing device such as a personal computer. In the present embodiment, when a plurality of terminal devices 10 are used, the host device 20 receives data from each of the plurality of terminal devices 10. Note that a relay device that relays data transfer may be provided between the terminal device 10 and the host device 20, and this relay device may have a function of adding data such as analysis, calculation, time, and relay device ID. .

データ受信部21は、各端末装置10、あるいは中継装置からデータを受信してデータ蓄積部22へ送る。本実施形態ではデータ受信部21は、第1マイクロフォン11および第2マイクロフォン12により取得された音声の音声に関する情報を取得する音声情報取得部として機能する。データ蓄積部22は、例えばパーソナルコンピュータの磁気ディスク装置等の記憶装置により実現され、データ受信部21から取得した受信データを発話者別に蓄積する。ここで、発話者の識別は、端末装置10から送信される端末IDと、あらかじめホスト装置20に登録されている発話者名と端末IDの照合により行う。また、端末装置10から端末IDのかわりに装着者状態を送信するようにしてもよい。   The data receiving unit 21 receives data from each terminal device 10 or the relay device and sends the data to the data storage unit 22. In the present embodiment, the data reception unit 21 functions as an audio information acquisition unit that acquires information related to the audio of the audio acquired by the first microphone 11 and the second microphone 12. The data storage unit 22 is realized by a storage device such as a magnetic disk device of a personal computer, for example, and stores received data acquired from the data receiving unit 21 for each speaker. Here, the speaker is identified by collating the terminal ID transmitted from the terminal device 10 with the name of the speaker registered in advance in the host device 20 and the terminal ID. Further, the wearer state may be transmitted from the terminal device 10 instead of the terminal ID.

データ解析部23は、例えばパーソナルコンピュータのプログラム制御されたCPUにより実現され、データ蓄積部22に蓄積されたデータを解析する。具体的な解析内容および解析手法は、本実施形態のシステムの利用目的や利用態様に応じて種々の内容および手法を取り得る。例えば、端末装置10の装着者どうしの対話頻度や各装着者の対話相手の傾向を分析したり、対話における個々の発話の長さや音圧の情報から対話者の関係を類推したりすることが行われる。詳しくは後述するが、本実施の形態では、データ解析部23は、判定部の一例であり、装着者と他者との会話関係を判定する。また特に会話関係として装着者が電話を使用して会話しているか否かを判定する。   The data analysis unit 23 is realized by a program-controlled CPU of a personal computer, for example, and analyzes data stored in the data storage unit 22. The specific analysis content and analysis method can take various contents and methods depending on the purpose and use of the system of the present embodiment. For example, the frequency of dialogue between wearers of the terminal device 10 and the tendency of each wearer's dialogue partner may be analyzed, or the relationship between the dialogues may be inferred from information on individual utterance length and sound pressure in the dialogue. Done. As will be described in detail later, in the present embodiment, the data analysis unit 23 is an example of a determination unit, and determines the conversation relationship between the wearer and another person. Further, it is determined whether or not the wearer is conversing using the telephone as a conversation relationship.

出力部24は、データ解析部23による解析結果を出力したり、解析結果に基づく出力を行ったりする。この解析結果等を出力する手段は、システムの利用目的や利用態様、解析結果の内容や形式等に応じて、WEB表示、ディスプレイ表示、プリンタによる印刷出力、音声出力等、種々の手段を取り得る。   The output unit 24 outputs the analysis result from the data analysis unit 23 or performs output based on the analysis result. The means for outputting the analysis results and the like can take various means such as WEB display, display display, print output by a printer, audio output, etc., depending on the purpose and usage of the system and the contents and format of the analysis results. .

<端末装置の構成例>
図2は、端末装置10の構成例を示す図である。
上記のように、端末装置10は、各使用者に装着されて使用される。使用者が装着可能とするため、本実施形態の端末装置10は、図2に示すように、装置本体30と、装置本体30に接続された提げ紐40とを備えた構成とする。図示の構成において、使用者は、提げ紐40に首を通し、装置本体30を首から提げて装着する。
<Configuration example of terminal device>
FIG. 2 is a diagram illustrating a configuration example of the terminal device 10.
As described above, the terminal device 10 is used by being attached to each user. In order for the user to be able to wear the terminal device 10 according to the present embodiment, as shown in FIG. 2, the terminal device 10 includes a device main body 30 and a strap 40 connected to the device main body 30. In the configuration shown in the figure, the user puts the neck through the strap 40 and hangs the apparatus main body 30 from the neck.

装置本体30は、金属や樹脂等で形成された薄い直方体のケース31に、少なくとも第1増幅器13、第2増幅器14、音声解析部15、データ送信部16および電源部17を実現する回路と電源部17の電源(電池)とを収納して構成される。ケース31には、装着者の氏名や所属等のID情報を表示したIDカード等を挿入するポケットを設けても良い。また、ケース31自体の表面にそのようなID情報等を印刷したり、ID情報等を記載したシールを貼り付けたりしても良い。   The apparatus main body 30 is a thin rectangular parallelepiped case 31 made of metal, resin, or the like, and a circuit and a power source for realizing at least the first amplifier 13, the second amplifier 14, the voice analysis unit 15, the data transmission unit 16, and the power supply unit 17. The power supply (battery) of the unit 17 is accommodated. The case 31 may be provided with a pocket for inserting an ID card or the like displaying ID information such as the name and affiliation of the wearer. Further, such ID information or the like may be printed on the surface of the case 31 itself, or a sticker describing the ID information or the like may be attached.

提げ紐40には、第1マイクロフォン11および第2マイクロフォン12が設けられる(以下、第1マイクロフォン11と第2マイクロフォン12とを区別しない場合には、マイクロフォン11、12と記載)。マイクロフォン11、12は、提げ紐40の内部を通るケーブル(電線等)により、装置本体30に収納された第1増幅器13、第2増幅器14に接続される。提げ紐40の材質としては、革、合成皮革、木綿その他の天然繊維や樹脂等による合成繊維、金属等、既存の種々の材質を用いて良い。また、シリコン樹脂やフッ素樹脂等を用いたコーティング処理が施されていても良い。   The strap 40 is provided with a first microphone 11 and a second microphone 12 (hereinafter referred to as microphones 11 and 12 when the first microphone 11 and the second microphone 12 are not distinguished). The microphones 11 and 12 are connected to the first amplifier 13 and the second amplifier 14 accommodated in the apparatus main body 30 by cables (electric wires or the like) passing through the inside of the strap 40. As the material of the strap 40, various existing materials such as leather, synthetic leather, cotton and other natural fibers and synthetic fibers such as resin, metal, and the like may be used. Moreover, the coating process using a silicon resin, a fluororesin, etc. may be given.

この提げ紐40は、筒状の構造を有し、提げ紐40の内部にマイクロフォン11、12を収納している。マイクロフォン11、12を挙げ紐40の内部に設けることにより、マイクロフォン11、12の損傷や汚れを防ぎ、対話者がマイクロフォン11、12の存在を意識することが抑制される。なお、装着者の口(発声部位)から遠い位置に配置される第1マイクロフォン11は、装置本体30に設けても良い。本実施形態では、第1マイクロフォン11が提げ紐40に設けられる場合を例として説明する。   The strap 40 has a cylindrical structure, and the microphones 11 and 12 are housed inside the strap 40. By providing the microphones 11 and 12 inside the string 40, the microphones 11 and 12 are prevented from being damaged or soiled, and the conversation person is prevented from being aware of the presence of the microphones 11 and 12. Note that the first microphone 11 disposed at a position far from the wearer's mouth (speaking site) may be provided in the apparatus main body 30. In the present embodiment, a case where the first microphone 11 is provided on the strap 40 will be described as an example.

図2を参照すると、第1マイクロフォン11は、提げ紐40の装置本体30に接続される端部(例えば、接続部位から10cm以内の位置)に設けられている。これにより、装着者が提げ紐40を首に掛けて装置本体30を下げた状態で、第1マイクロフォン11は、装着者の口(発声部位)から約30cmから40cm程度離れた位置に配置される。なお、第1マイクロフォン11が装置本体30に設けられた場合も、装着者の口(発声部位)から第1マイクロフォン11までの距離は同程度である。   Referring to FIG. 2, the first microphone 11 is provided at an end (for example, a position within 10 cm from the connection site) of the strap 40 connected to the apparatus main body 30. Thus, the first microphone 11 is disposed at a position about 30 cm to 40 cm away from the wearer's mouth (speaking part) in a state where the wearer hangs the strap 40 around the neck and lowers the apparatus main body 30. . Even when the first microphone 11 is provided in the apparatus main body 30, the distance from the wearer's mouth (speaking part) to the first microphone 11 is approximately the same.

第2マイクロフォン12は、提げ紐40の装置本体30に接続される端部から離れた位置(例えば、接続部位から20cm〜30cm程度の位置)に設けられている。これにより、装着者が提げ紐40を首に掛けて装置本体30を下げた状態で、第2マイクロフォン12は、装着者の首元(例えば鎖骨に当たる位置)に位置し、装着者の口(発声部位)から約10cmから20cm程度離れた位置に配置される。   The second microphone 12 is provided at a position away from the end of the strap 40 connected to the device main body 30 (for example, a position of about 20 cm to 30 cm from the connection site). Thus, the second microphone 12 is positioned at the wearer's neck (for example, a position corresponding to the clavicle) in a state where the wearer hangs the strap 40 on the neck and the apparatus main body 30 is lowered. From about 10 cm to 20 cm.

なお、本実施形態の端末装置10は、図2に示す構成に限定されるものではない。例えば、マイクロフォン11、12は、第1マイクロフォン11から装着者の口(発声部位)までの音波到達経路の距離が第2マイクロフォン12から装着者の口(発声部位)までの音波到達経路の距離の数倍程度となるように、第1マイクロフォン11と第2マイクロフォン12の位置関係が特定されれば良い。したがって、第1マイクロフォンを首の後ろ側の提げ紐40に設けても良い。また、マイクロフォン11、12は、上記のように提げ紐40に設ける構成に限らず、種々の方法で装着者に装着して良い。例えば、第1マイクロフォン11と第2マイクロフォン12の各々を、個別にピン等を用いて衣服に固定するように構成しても良い。また、第1マイクロフォン11と第2マイクロフォン12の位置関係が所望の位置で固定されるようにデザインされた専用の装着具を用意して装着しても良い。   In addition, the terminal device 10 of this embodiment is not limited to the structure shown in FIG. For example, in the microphones 11 and 12, the distance of the sound wave arrival path from the first microphone 11 to the wearer's mouth (speaking part) is the distance of the sound wave arrival path from the second microphone 12 to the wearer's mouth (speaking part). The positional relationship between the first microphone 11 and the second microphone 12 may be specified so as to be several times. Therefore, the first microphone may be provided on the strap 40 on the back side of the neck. Further, the microphones 11 and 12 are not limited to the configuration provided on the strap 40 as described above, and may be attached to the wearer by various methods. For example, each of the first microphone 11 and the second microphone 12 may be configured to be individually fixed to clothes using pins or the like. Alternatively, a dedicated mounting tool designed so that the positional relationship between the first microphone 11 and the second microphone 12 is fixed at a desired position may be prepared and mounted.

また、装置本体30は、図2に示したように、提げ紐40に接続されて装着者の首から提げられる構成に限らず、携帯することが容易な装置として構成されていれば良い。例えば、本実施形態のような提げ紐ではなく、クリップやベルトにより衣服や体に装着するように構成しても良いし、単にポケット等に納めて携帯するような構成としても良い。また、携帯電話その他の既存の携帯型電子情報端末に、マイクロフォン11、12からの音声信号を受け付けて増幅し、解析する機能を実現させても良い。   Further, as shown in FIG. 2, the apparatus main body 30 is not limited to the configuration that is connected to the strap 40 and is provided from the wearer's neck, but may be configured as an apparatus that can be easily carried. For example, instead of the strap as in the present embodiment, it may be configured to be attached to clothes or a body with a clip or a belt, or may be configured to be simply carried in a pocket or the like. In addition, a function of receiving, amplifying, and analyzing a voice signal from the microphones 11 and 12 may be realized in a mobile phone or other existing portable electronic information terminal.

さらにまた、マイクロフォン11、12と装置本体30(あるいは音声解析部15)を有線で接続するのではなく、無線通信により接続しても良い。第1増幅器13、第2増幅器14、音声解析部15、データ送信部16および電源部17は、上記の構成例では単一のケース31に収納されることとしたが、複数の個体として構成しても良い。例えば、電源部17をケース31に収納せず、外部電源に接続して使用する構成としても良い。   Furthermore, the microphones 11 and 12 and the apparatus main body 30 (or the voice analysis unit 15) may be connected by wireless communication instead of being connected by wire. The first amplifier 13, the second amplifier 14, the voice analysis unit 15, the data transmission unit 16, and the power supply unit 17 are housed in a single case 31 in the above configuration example, but are configured as a plurality of individuals. May be. For example, the power supply unit 17 may be used by being connected to an external power supply without being stored in the case 31.

<取得音声の非言語情報に基づく発話者(自他)の識別>
次に、本実施形態における発話者の識別方法について説明する。
本実施形態のシステムは、端末装置10に設けられた2つのマイクロフォン11、12により取得された音声の情報を用いて、端末装置10の装着者自身の発話(自己発話)音声と他者の発話音声とを識別する。言い換えれば、本実施形態は、取得音声の発話者に関して自他の別を識別する。また、本実施形態では、取得音声の情報のうち、形態素解析や辞書情報を用いて得られる言語情報ではなく、音圧(マイクロフォン11、12への入力音量)等の非言語情報に基づいて発話者を識別する。言い換えれば、言語情報により特定される発話内容ではなく、非言語情報により特定される発話状況から音声の発話者を識別する。
<Identification of speakers (self and others) based on non-linguistic information of acquired speech>
Next, a speaker identification method according to this embodiment will be described.
The system of this embodiment uses the voice information acquired by the two microphones 11 and 12 provided in the terminal device 10, and the speech of the wearer of the terminal device 10 (self-speaking) and the speech of others. Identify audio. In other words, the present embodiment identifies one another from the other regarding the speaker of the acquired voice. Further, in the present embodiment, the utterance is based on non-linguistic information such as sound pressure (input sound volume to the microphones 11 and 12), not linguistic information obtained by using morphological analysis or dictionary information, among the acquired voice information. Identify the person. In other words, the voice speaker is identified not from the utterance content specified by the linguistic information but from the utterance situation specified by the non-linguistic information.

図1および図2を参照して説明したように、本実施形態において、端末装置10の第1マイクロフォン11は装着者の口(発声部位)から遠い位置に配置され、第2マイクロフォン12は装着者の口(発声部位)に近い位置に配置される。すなわち、装着者の口(発声部位)を音源とすると、第1マイクロフォン11と音源との間の距離と、第2マイクロフォン12と音源との間の距離が大きく異なる。具体的には、第1マイクロフォン11と音源との間の距離は、第2マイクロフォン12と音源との間の距離の1.5〜4倍程度である。ここで、マイクロフォン11、12における取得音声の音圧は、マイクロフォン11、12と音源との間の距離が大きくなるにしたがって減衰(距離減衰)する。したがって、装着者の発話音声に関して、第1マイクロフォン11における取得音声の音圧と第2マイクロフォン12における取得音声の音圧とは大きく異なる。   As described with reference to FIGS. 1 and 2, in the present embodiment, the first microphone 11 of the terminal device 10 is disposed at a position far from the mouth (speaking site) of the wearer, and the second microphone 12 is the wearer. It is arranged at a position close to the mouth (speaking part). That is, if the wearer's mouth (speaking part) is a sound source, the distance between the first microphone 11 and the sound source and the distance between the second microphone 12 and the sound source are greatly different. Specifically, the distance between the first microphone 11 and the sound source is about 1.5 to 4 times the distance between the second microphone 12 and the sound source. Here, the sound pressure of the acquired sound in the microphones 11 and 12 attenuates (distance attenuation) as the distance between the microphones 11 and 12 and the sound source increases. Therefore, regarding the voice of the wearer, the sound pressure of the acquired sound in the first microphone 11 and the sound pressure of the acquired sound in the second microphone 12 are greatly different.

一方、装着者以外の者(他者)の口(発声部位)を音源とした場合を考えると、その他者が装着者から離れているため、第1マイクロフォン11と音源との間の距離と、第2マイクロフォン12と音源との間の距離は、大きく変わらない。装着者に対する他者の位置によっては、両距離の差は生じ得るが、装着者の口(発声部位)を音源とした場合のように、第1マイクロフォン11と音源との間の距離が第2マイクロフォン12と音源との間の距離の数倍となることはない。したがって、他者の発話音声に関して、第1マイクロフォン11における取得音声の音圧と第2マイクロフォン12における取得音声の音圧とは、装着者の発話音声の場合のように大きく異なることはない。   On the other hand, considering the case where the mouth (speaking part) of a person other than the wearer (other person) is used as the sound source, since the other person is away from the wearer, the distance between the first microphone 11 and the sound source, The distance between the second microphone 12 and the sound source does not change greatly. Depending on the position of the other person with respect to the wearer, a difference between both distances may occur, but the distance between the first microphone 11 and the sound source is the second as in the case where the mouth (speaking part) of the wearer is used as the sound source. It is never several times the distance between the microphone 12 and the sound source. Therefore, regarding the voice of other person, the sound pressure of the acquired voice in the first microphone 11 and the sound pressure of the acquired voice in the second microphone 12 are not significantly different from the case of the voice of the wearer.

図3は、装着者および他者の口(発声部位)と、マイクロフォン11、12との位置の関係を示す図である。
図3に示す関係において、装着者の口(発声部位)である音源aと第1マイクロフォン11との間の距離をLa1、音源aと第2マイクロフォン12との間の距離をLa2とする。また、他者の口(発声部位)である音源bと第1マイクロフォン11との間の距離をLb1、音源bと第2マイクロフォン12との間の距離をLb2とする。この場合、次の関係が成り立つ。
La1>La2(La1≒1.5×La2〜4×La2)
Lb1≒Lb2
FIG. 3 is a diagram illustrating a positional relationship between the mouths (speaking parts) of the wearer and the other person and the microphones 11 and 12.
In the relationship shown in FIG. 3, let La1 be the distance between the sound source a that is the mouth (speaking part) of the wearer and the first microphone 11, and let La2 be the distance between the sound source a and the second microphone 12. Further, the distance between the sound source b, which is the mouth (speaking part) of the other person, and the first microphone 11 is Lb1, and the distance between the sound source b and the second microphone 12 is Lb2. In this case, the following relationship holds.
La1> La2 (La1≈1.5 × La2 to 4 × La2)
Lb1≈Lb2

図4は、マイクロフォン11、12と音源との間の距離と音圧(入力音量)との関係を示す図である。
上述したように、音圧は、マイクロフォン11、12と音源との間の距離に応じて距離減衰する。図4において、距離La1の場合の音圧Ga1と距離La2の場合の音圧Ga2とを比較すると、音圧Ga2は、音圧Ga1の4倍程度となっている。一方、距離Lb1と距離Lb2とが近似するため、距離Lb1の場合の音圧Gb1と距離Lb2の場合の音圧Gb2とは、ほぼ等しい。そこで、本実施形態では、この音圧比の差を用いて、取得音声における装着者自身の発話音声と他者の発話音声とを識別する。なお、図4に示した例では、距離Lb1、Lb2を60cmとしたが、ここでは音圧Gb1と音圧Gb2とがほぼ等しくなることに意味があり、距離Lb1、Lb2は図示の値に限定されない。
FIG. 4 is a diagram illustrating the relationship between the distance between the microphones 11 and 12 and the sound source and the sound pressure (input sound volume).
As described above, the sound pressure is attenuated according to the distance between the microphones 11 and 12 and the sound source. In FIG. 4, when the sound pressure Ga1 at the distance La1 and the sound pressure Ga2 at the distance La2 are compared, the sound pressure Ga2 is about four times the sound pressure Ga1. On the other hand, since the distance Lb1 and the distance Lb2 are approximate, the sound pressure Gb1 in the case of the distance Lb1 and the sound pressure Gb2 in the case of the distance Lb2 are substantially equal. Therefore, in the present embodiment, the wearer's own speech and the other's speech are identified from the acquired speech using the difference in sound pressure ratio. In the example shown in FIG. 4, the distances Lb1 and Lb2 are 60 cm. However, here, it is meaningful that the sound pressure Gb1 and the sound pressure Gb2 are substantially equal, and the distances Lb1 and Lb2 are limited to the illustrated values. Not.

図5は、装着者自身の発話音声と他者の発話音声の識別方法を示す図である。
図4を参照して説明したように、装着者自身の発話音声に関して、第2マイクロフォン12の音圧Ga2は、第1マイクロフォン11の音圧Ga1の数倍(例えば4倍程度)である。また、他者の発話音声に関して、第2マイクロフォン12の音圧Ga2は、第1マイクロフォン11の音圧Ga1とほぼ等しい(1倍程度)。そこで、本実施形態では、第2マイクロフォン12の音圧と第1マイクロフォン11の音圧との比に閾値を設定する。そして、音圧比が閾値よりも大きい音声は装着者自身の発話音声と判断し、音圧比が閾値よりも小さい音声は他者の発話音声と判断する。図5に示す例では、閾値を2とし、音圧比Ga2/Ga1は閾値2を超えるので装着者自身の発話音声と判断され、音圧比Gb2/Gb1は閾値2よりも小さいので他者の発話音声と判断されている。
FIG. 5 is a diagram showing a method for discriminating between the wearer's own speech and the other's speech.
As described with reference to FIG. 4, the sound pressure Ga <b> 2 of the second microphone 12 is several times (for example, about four times) the sound pressure Ga <b> 1 of the first microphone 11 with respect to the voice of the wearer himself / herself. Further, regarding the voice of another person, the sound pressure Ga2 of the second microphone 12 is substantially equal to the sound pressure Ga1 of the first microphone 11 (about 1 time). Therefore, in the present embodiment, a threshold is set for the ratio between the sound pressure of the second microphone 12 and the sound pressure of the first microphone 11. Then, the voice whose sound pressure ratio is larger than the threshold is determined as the voice of the wearer, and the voice whose sound pressure ratio is lower than the threshold is determined as the voice of the other person. In the example shown in FIG. 5, the threshold value is 2, and the sound pressure ratio Ga2 / Ga1 exceeds the threshold value 2, so that it is determined as the wearer's own speech sound, and the sound pressure ratio Gb2 / Gb1 is smaller than the threshold value 2 so It is judged.

ところで、マイクロフォン11、12により取得される音声には、発話音声の他に、環境音等のいわゆる雑音(ノイズ)が含まれる。この雑音の音源とマイクロフォン11、12との間の距離の関係は、他者の発話音声の場合と類似する。すなわち、図4、図5に示した例によれば、雑音の音源cと第1マイクロフォン11との間の距離をLc1とし、雑音の音源cと第2マイクロフォン12との間の距離をLc2とすると、距離Lc1と距離Lc2とは近似する。そして、マイクロフォン11、12の取得音声における音圧比Gc2/Gc1は、閾値2よりも小さくなる。しかし、このような雑音は、バンドパスフィルタやゲインフィルタ等を用いた既存の技術によるフィルタリング処理を行うことにより発話音声から分離され、除去される。   By the way, the sound acquired by the microphones 11 and 12 includes so-called noise (noise) such as environmental sound in addition to the speech sound. The relationship of the distance between the noise source and the microphones 11 and 12 is similar to the case of the speech of another person. That is, according to the examples shown in FIGS. 4 and 5, the distance between the noise source c and the first microphone 11 is Lc1, and the distance between the noise source c and the second microphone 12 is Lc2. Then, the distance Lc1 and the distance Lc2 are approximated. Then, the sound pressure ratio Gc2 / Gc1 in the acquired sounds of the microphones 11 and 12 is smaller than the threshold value 2. However, such noise is separated and removed from the uttered voice by performing a filtering process using an existing technique using a bandpass filter, a gain filter, or the like.

<端末装置の動作例>
図6は、本実施形態における端末装置10の動作を示すフローチャートである。
図6に示すように、端末装置10のマイクロフォン11、12が音声を取得すると、各マイクロフォン11、12から取得音声に応じた電気信号(音声信号)が第1増幅器13および第2増幅器14へ送られる(ステップ101)。第1増幅器13および第2増幅器14は、マイクロフォン11、12からの音声信号を取得すると、信号を増幅して音声解析部15へ送る(ステップ102)。
<Operation example of terminal device>
FIG. 6 is a flowchart showing the operation of the terminal device 10 in the present embodiment.
As shown in FIG. 6, when the microphones 11 and 12 of the terminal device 10 acquire sound, electrical signals (audio signals) corresponding to the acquired sounds are transmitted from the microphones 11 and 12 to the first amplifier 13 and the second amplifier 14. (Step 101). When the first amplifier 13 and the second amplifier 14 acquire the audio signal from the microphones 11 and 12, the first amplifier 13 and the second amplifier 14 amplify the signal and send it to the audio analysis unit 15 (step 102).

音声解析部15は、第1増幅器13および第2増幅器14で増幅された信号に対してフィルタリング処理を行い、信号から環境音等の雑音(ノイズ)の成分を除去する(ステップ103)。次に、音声解析部15は、雑音成分が除かれた信号に対し、一定の時間単位(例えば、数十分の一秒〜数百分の一秒)毎に、各マイクロフォン11、12の取得音声における平均音圧を求める(ステップ104)。そして、第1マイクロフォン11における平均音圧と第2マイクロフォン12における平均音圧との比(音圧比)を求める(ステップ105)。   The voice analysis unit 15 performs a filtering process on the signals amplified by the first amplifier 13 and the second amplifier 14, and removes noise components such as environmental sounds from the signals (step 103). Next, the voice analysis unit 15 acquires the microphones 11 and 12 every certain time unit (for example, tens of seconds to hundreds of seconds) with respect to the signal from which the noise component has been removed. An average sound pressure in the voice is obtained (step 104). Then, a ratio (sound pressure ratio) between the average sound pressure in the first microphone 11 and the average sound pressure in the second microphone 12 is obtained (step 105).

次に、音声解析部15は、ステップ104で求めた各マイクロフォン11、12における平均音圧の利得が有る場合(ステップ105でYes)、発話音声が有る(発話が行われた)と判断する。そして、ステップ106で求めた音圧比が閾値よりも大きい場合(ステップ107でYes)、音声解析部15は、発話音声は装着者自身の発話による音声であると判断する(ステップ108)。また、ステップ105で求めた音圧比が閾値よりも小さい場合(ステップ107でNo)、音声解析部15は、発話音声は他者の発話による音声であると判断する(ステップ109)。一方、ステップ104で求めた各マイクロフォン11、12における平均音圧の利得が無い場合(ステップ105でNo)、音声解析部15は、発話音声が無い(発話が行われていない)と判断する(ステップ110)。   Next, when there is a gain of the average sound pressure in each of the microphones 11 and 12 obtained in step 104 (Yes in step 105), the voice analysis unit 15 determines that there is an utterance voice (utterance has been performed). If the sound pressure ratio obtained in step 106 is larger than the threshold (Yes in step 107), the voice analysis unit 15 determines that the uttered voice is a voice generated by the wearer's own utterance (step 108). When the sound pressure ratio obtained in step 105 is smaller than the threshold value (No in step 107), the voice analysis unit 15 determines that the uttered voice is a voice of another person's utterance (step 109). On the other hand, when there is no gain of the average sound pressure in each of the microphones 11 and 12 obtained in step 104 (No in step 105), the voice analysis unit 15 determines that there is no uttered voice (no utterance is performed) ( Step 110).

この後、音声解析部15は、データ送信部16を介して、ステップ104〜ステップ110の処理で得られた情報(発話の有無、発話者の情報)を解析結果としてホスト装置20へ送信させる(ステップ111)。このとき、発話者毎(装着者自身または他者)の発話時間の長さや平均音圧の利得の値、その他の付加情報を解析結果と共にホスト装置20へ送信させても良い。   Thereafter, the voice analysis unit 15 causes the data transmission unit 16 to transmit the information (the presence / absence of the utterance and the information of the utterer) obtained by the processing of Step 104 to Step 110 to the host device 20 as an analysis result ( Step 111). At this time, the length of the utterance time for each speaker (the wearer himself or another person), the gain value of the average sound pressure, and other additional information may be transmitted to the host device 20 together with the analysis result.

なお、本実施形態では、第1マイクロフォン11の音圧と第2マイクロフォン12の音圧とを比較することにより、発話音声が装着者自身の発話による音声か他者の発話による音声かを判断した。しかし、本実施形態による発話者の識別は、マイクロフォン11、12により取得された音声信号そのものから抽出される非言語情報に基づいて行うものであれば良く、音圧の比較には限定されない。例えば、第1マイクロフォン11における音声取得時刻(音声信号の出力時刻)と第2マイクロフォン12における音声取得時刻とを比較しても良い。この場合、装着者自身の発話音声は、装着者の口(発声部位)から第1マイクロフォン11までの距離と、装着者の口(発声部位)から第2マイクロフォン12までの距離との差が大きいため、音声取得時刻にある程度の差(時間差)が生じる。一方、他者の発話音声は、装着者の口(発声部位)から第1マイクロフォン11までの距離と、装着者の口(発声部位)から第2マイクロフォン12までの距離との差が小さいため、装着者の発話音声の場合よりも音声取得時刻の時間差が小さい。そこで、音声取得時刻の時間差に対して閾値を設定し、音声取得時刻の時間差が閾値よりも大きい場合には装着者自身の発話と判断し、音声取得時刻の時間差が閾値よりも小さい場合には他者の発話と判断するようにしても良い。   In the present embodiment, the sound pressure of the first microphone 11 and the sound pressure of the second microphone 12 are compared to determine whether the speech sound is the sound of the wearer's own speech or the speech of another person's speech. . However, the speaker identification according to the present embodiment may be performed based on non-linguistic information extracted from the speech signals themselves acquired by the microphones 11 and 12, and is not limited to the comparison of sound pressures. For example, the voice acquisition time (voice signal output time) in the first microphone 11 and the voice acquisition time in the second microphone 12 may be compared. In this case, the spoken voice of the wearer has a large difference between the distance from the wearer's mouth (speaking part) to the first microphone 11 and the distance from the wearer's mouth (speaking part) to the second microphone 12. Therefore, a certain difference (time difference) occurs in the voice acquisition time. On the other hand, since the voice of the other person has a small difference between the distance from the wearer's mouth (speaking part) to the first microphone 11 and the distance from the wearer's mouth (speaking part) to the second microphone 12, The time difference of the voice acquisition time is smaller than that of the wearer's voice. Therefore, a threshold is set for the time difference of the voice acquisition time, and when the time difference of the voice acquisition time is larger than the threshold, it is determined that the wearer utters himself, and when the time difference of the voice acquisition time is smaller than the threshold, You may make it judge that it is an utterance of others.

ホスト装置20のデータ受信部21では、マイクロフォン11、12により取得された音声が装着者の発話音声であるか装着者以外の他者の発話音声であるかを識別した情報である自他識別情報を含む音声に関する情報を受信する。   In the data receiving unit 21 of the host device 20, self-other identification information that is information identifying whether the voice acquired by the microphones 11 and 12 is the voice of the wearer or the voice of another person other than the wearer. Receive information about audio, including

<装着者の会話関係の判定についての説明>
音声に関する情報を受信した端末装置10では、データ解析部23において複数の端末装置10から送られた音声が解析され、装着者の会話関係が判定される。
以下に本実施の形態における装着者の会話関係を判定する具体的な方法について説明を行なう。ここではまず同一の部屋内等の同一のエリアにおいて二人の装着者が会話を行なっている場合に、この二人の装着者が会話をしていることを判定する場合について説明する。
<Explanation of wearer's conversational judgment>
In the terminal device 10 that has received the information about the voice, the data analysis unit 23 analyzes the voice sent from the plurality of terminal devices 10 and determines the conversation relationship of the wearer.
A specific method for determining the wearer's conversational relationship in the present embodiment will be described below. Here, a case will be described in which it is determined that two wearers are having a conversation when two wearers are having a conversation in the same area such as in the same room.

図7は、本実施形態の端末装置10をそれぞれ装着した二人の装着者が会話している状況を示す図である。図8は、図7の会話状況における各端末装置10の発話情報の例を示す図である。なお説明の便宜上、ここでは二人のうち一方の装着者を装着者Aとし、装着者Aが装着する端末装置10を端末装置10Aとする。また他方の装着者を装着者Bとし、装着者Bが装着する端末装置10を端末装置10Bとする。
図7に示すように、端末装置10をそれぞれ装着した装着者A、装着者Bが会話している場合を考える。このとき、装着者Aおよび装着者Bは同一エリア内におり、互いの発話音声が届く距離にある。よって装着者A、装着者Bの発話音声は、装着者Aの端末装置10Aと装着者Bの端末装置10Bの双方に捉えられる。
FIG. 7 is a diagram illustrating a situation in which two wearers each wearing the terminal device 10 of the present embodiment are having a conversation. FIG. 8 is a diagram illustrating an example of utterance information of each terminal device 10 in the conversation state of FIG. For convenience of explanation, one of the two wearers is referred to as a wearer A, and the terminal device 10 worn by the wearer A is referred to as a terminal device 10A. The other wearer is referred to as a wearer B, and the terminal device 10 worn by the wearer B is referred to as a terminal device 10B.
As shown in FIG. 7, consider a case where a wearer A and a wearer B wearing the terminal device 10 are talking. At this time, the wearer A and the wearer B are in the same area, and are at a distance where the uttered voices can reach each other. Therefore, the voices of the wearer A and the wearer B are captured by both the terminal device 10A of the wearer A and the terminal device 10B of the wearer B.

端末装置10Aおよび端末装置10Bからは、それぞれ独立に、発話情報がホスト装置20に送られる。このとき、端末装置10Aから取得した発話情報と、端末装置10Bから取得した発話情報とは、図8に示すように、発話時間の長さや発話者が切り替わったタイミング等の発話状況を示す情報は近似し、同調性があることがわかる。そこで、本適用例のホスト装置20は、端末装置10Aから取得した情報と端末装置10Bから取得した情報とを比較し、同調性を判定することにより、これらの情報が同じ発話状況を示していると判断し、装着者Aと装着者Bとが会話していることを認識する。ここで、発話状況を示す情報としては、少なくとも、上述した発話者ごとの個々の発話における発話時間の長さ、個々の発話の開始時刻と終了時刻、発話者が切り替わった時刻(タイミング)等のように、発話に関する時間情報が用いられる。なお、特定の会話に係る発話状況を判断するために、これらの発話に関する時間情報の一部のみを用いても良いし、他の情報を付加的に用いても良い。   The utterance information is sent to the host device 20 independently from the terminal device 10A and the terminal device 10B. At this time, as shown in FIG. 8, the utterance information acquired from the terminal device 10A and the utterance information acquired from the terminal device 10B are information indicating the utterance status such as the length of the utterance time and the timing at which the speaker is switched. It can be seen that there is a synchrony. Therefore, the host device 20 of this application example compares the information acquired from the terminal device 10A with the information acquired from the terminal device 10B, and determines the synchrony, so that these information indicate the same utterance situation. It is recognized that the wearer A and the wearer B are talking. Here, the information indicating the utterance state includes at least the length of the utterance time in each utterance for each utterer described above, the start time and end time of each utterance, and the time (timing) at which the utterer is switched. As described above, time information related to the utterance is used. Note that in order to determine the utterance situation related to a specific conversation, only part of the time information related to these utterances may be used, or other information may be additionally used.

ここで装着者Aの端末装置10Aにおいて装着者Aの自己発話として認識される音声は、装着者Bの端末装置10Bでは他者の発話として認識される。反対に、端末装置10Bにおいて装着者Bの自己発話として認識される音声は、端末装置10Aでは他者の発話として認識される。そのため端末装置10Aから取得した発話情報と、端末装置10Bから取得した発話情報とは、図7に示すように、発話者(装着者と他者)の識別結果は反対になるが、発話時間の長さや発話者が切り替わったタイミング等の発話状況を示す情報は近似する。そこで、本適用例のホスト装置20は、端末装置10Aから取得した情報と端末装置10Bから取得した情報とを比較することにより、これらの情報が同じ発話状況を示していると判断し、装着者Aと装着者Bとが会話していることを認識することができる。   Here, the voice recognized as the self-utterance of the wearer A in the terminal device 10A of the wearer A is recognized as the speech of the other person in the terminal device 10B of the wearer B. On the other hand, the voice recognized as the wearer B's own utterance in the terminal device 10B is recognized as the utterance of the other person in the terminal device 10A. Therefore, the utterance information acquired from the terminal device 10A and the utterance information acquired from the terminal device 10B are opposite to each other in the utterance time, as shown in FIG. Information indicating the utterance status such as length and timing when the speaker is switched is approximated. Therefore, the host device 20 of this application example compares the information acquired from the terminal device 10A and the information acquired from the terminal device 10B to determine that these information indicate the same utterance situation, and wearers It can be recognized that A and the wearer B are talking.

このように本実施の形態では、上述した自他識別情報を使用して、複数の端末装置10からマイクロフォン11、12にて受信した音声の音声信号の同調性を判別する。
つまり自他識別情報が付与されることで、取得された音声が装着者自信によるものであるのか、装着者以外の他者のものであるのかが予め判別できているため、発話者が切り替わったタイミングなどが明確に把握できる。そしてこのタイミングにおいて発話者が逆転する装着者同士を見つければ、この装着者同士が会話をしていると判断できる。
As described above, in this embodiment, the self-other identification information described above is used to determine the synchrony of audio signals received from the plurality of terminal apparatuses 10 by the microphones 11 and 12.
In other words, because the self-other identification information is given, it is possible to determine in advance whether the acquired voice is due to the wearer's confidence or the other person other than the wearer. The timing can be clearly understood. If wearers whose speakers are reversed at this timing are found, it can be determined that the wearers are having a conversation.

ここで装着者Aが電話を使用して他者と会話をしている場合を考える。このとき他者は、装着者Aと同一エリア内にはおらず、互いの発話音声が直接届く距離にはない。そのため装着者Aの発話音声は、装着者Aの端末装置10Aにより捉えられるが、装着者Aが会話をしている相手である他者の音声は、装着者Aの端末装置10Aにより捉えることができない。   Here, consider a case where the wearer A has a conversation with another person using a telephone. At this time, the other person is not in the same area as the wearer A, and is not at a distance where the uttered voices can reach each other directly. Therefore, the voice of the wearer A is captured by the terminal device 10A of the wearer A, but the voice of the other person with whom the wearer A is talking can be captured by the terminal device 10A of the wearer A. Can not.

図9は、装着者Aが電話を使用して他者と会話しているときの端末装置10Aの発話情報の例を示す図である。
図示するように装着者Aの端末装置10Aでは、間欠的に装着者Aの発話音声が捉えられ、これから装着者Aの発話音声は、会話パターンに適合することがわかる。そして図8で説明したように、装着者Aと会話をしている他者が同一エリア内にいれば、他者の発話音声は、装着者Aの発話音声と同調し、例えば、点線のようなパターンとなって端末装置10Aに捉えられるはずである。しかしこのようなパターンの他者の発話音声は、端末装置10Aは捉えられない。
即ち、この場合は、ホスト装置20のデータ受信部21は、端末装置10Aから予め定められた会話パターンに適合する装着者Aの発話音声に関する情報を取得するが、装着者Aの音声が到達する場所である同一エリア内で装着者Aの会話パターンに同調する他者の発話音声に関する情報は取得しない。本実施の形態では、このときホスト装置20のデータ解析部23は、装着者Aが電話を使用して会話していると判定する。なおこの場合、装着者Aの会話パターンに同調しない他者の会話パターンが装着者Aの端末装置10Aにより捉えられてもよい。ただしこの場合は、この他者は、装着者Aと会話をしている相手でないことは明らかである。
FIG. 9 is a diagram illustrating an example of utterance information of the terminal device 10A when the wearer A is talking to another person using a telephone.
As shown in the figure, the terminal device 10A of the wearer A intermittently captures the voice of the wearer A, and it can be seen that the voice of the wearer A matches the conversation pattern. Then, as described with reference to FIG. 8, if another person having a conversation with the wearer A is in the same area, the other person's utterance voice is synchronized with the utterance voice of the wearer A, for example, as shown by a dotted line. Should be captured by the terminal device 10A. However, the terminal device 10 </ b> A cannot catch the speech of another person with such a pattern.
That is, in this case, the data receiving unit 21 of the host device 20 acquires information related to the voice of the wearer A that matches the predetermined conversation pattern from the terminal device 10A, but the voice of the wearer A arrives. Information on the voice of another person that synchronizes with the conversation pattern of the wearer A within the same area as the place is not acquired. In this embodiment, at this time, the data analysis unit 23 of the host device 20 determines that the wearer A is talking using the telephone. In this case, the conversation pattern of the other person who does not synchronize with the conversation pattern of the wearer A may be captured by the terminal device 10A of the wearer A. However, in this case, it is clear that this other person is not the other party who is talking to the wearer A.

一方、装着者Aが電話を使用して会話をしている他者が、端末装置10を装着している場合は、装着者Aの音声が到達しない場所である他の部屋等の他エリアにおいて、この発話音声を捉えることができる。ここでは、他エリアにおいて端末装置10Bを装着者B(第2の装着者)が装着し、装着者Aと装着者Bとが電話を使用して会話している状態を考える。   On the other hand, when the wearer A is having a conversation using the telephone and wearing the terminal device 10, in another area such as another room where the voice of the wearer A does not reach. This speech can be captured. Here, a state is considered in which the wearer B (second wearer) wears the terminal device 10B in another area and the wearer A and the wearer B are talking using a telephone.

図10は、装着者Aと装着者Bとが電話を使用して会話しているときの端末装置10A、10Bの発話情報の例を示す図である。
図示するように装着者Aの端末装置10Aでは、間欠的に装着者Aの発話音声が捉えられ、これから装着者Aの発話音声は、会話パターンに適合することがわかる。また同様にして装着者Bの端末装置10Bでも、間欠的に装着者Bの発話音声が捉えられ、これから装着者Bの発話音声は、会話パターンに適合することがわかる。そして装着者Aと会話をしている相手である装着者Bの発話音声は、装着者Aの発話音声と同調するパターンとなる。ただし、端末装置10Aでは、装着者Aの発話音声と同調するパターンの他者の発話音声は、捉えられない。同様にして端末装置10Bでも、装着者Bの発話音声と同調するパターンの他者の発話音声は、捉えられない。
即ち、この場合は、まず装着者Aと装着者Bとは、互いの発話音声が到達しない場所にいる。そしてホスト装置20のデータ受信部21は、端末装置10Aのマイクロフォンにより取得された予め定められた会話パターンに適合する装着者Aの発話音声に関する情報を取得するとともに、端末装置10Bのマイクロフォン(第2の音声取得手段)により取得されたこの会話パターンに同調する装着者Bの発話音声に関する情報を取得する。本実施の形態では、このときホスト装置20のデータ解析部23は、装着者Aと装着者Bとが電話を使用して会話していると判定する。なお装着者Aと装着者Bが同一エリアに居ないことは、例えば、異なるデータ中継装置を介していることから判断できる。
FIG. 10 is a diagram illustrating an example of utterance information of the terminal devices 10A and 10B when the wearer A and the wearer B have a conversation using a telephone.
As shown in the figure, the terminal device 10A of the wearer A intermittently captures the voice of the wearer A, and it can be seen that the voice of the wearer A matches the conversation pattern. Similarly, in the terminal device 10B of the wearer B, it is understood that the utterance voice of the wearer B is intermittently captured, and from this, the utterance voice of the wearer B matches the conversation pattern. Then, the utterance voice of the wearer B who is a conversation partner with the wearer A becomes a pattern synchronized with the utterance voice of the wearer A. However, the terminal device 10 </ b> A cannot capture the voice of another person in a pattern that synchronizes with the voice of the wearer A. Similarly, the terminal device 10B cannot capture the voice of another person in a pattern that synchronizes with the voice of the wearer B.
That is, in this case, first, the wearer A and the wearer B are in a place where the uttered voices do not reach each other. Then, the data receiving unit 21 of the host device 20 acquires information related to the uttered voice of the wearer A that matches a predetermined conversation pattern acquired by the microphone of the terminal device 10A, and at the same time acquires a microphone (second) of the terminal device 10B. Information on the uttered voice of the wearer B synchronized with the conversation pattern acquired by the voice acquisition means). In the present embodiment, at this time, the data analysis unit 23 of the host device 20 determines that the wearer A and the wearer B are having a conversation using the telephone. It can be determined from the fact that the wearer A and the wearer B are not in the same area, for example, through different data relay apparatuses.

次に装着者Aが電話会議をしている場合を考える。このとき装着者Aの発話音声は、装着者Aの端末装置10Aにより捉えられる。そして装着者Aが電話会議において会話をしている相手である他者の発話音声についても、装着者Aの端末装置10により捉えることができる。つまり他者の発話音声は、電話会議をするときに使用する電話会議装置のスピーカ等から出力されるため、この音声が、装着者Aの端末装置10Aにより捉えられる。   Next, consider a case where the wearer A has a telephone conference. At this time, the voice of the wearer A is captured by the terminal device 10A of the wearer A. And the wearer A's terminal device 10 can also capture the voice of another person who is the other party with whom the wearer A has a conversation. That is, the voice of the other person is output from the speaker of the telephone conference device used when the telephone conference is performed, so this voice is captured by the terminal device 10A of the wearer A.

図11は、装着者Aが電話会議において他者と会話しているときの端末装置10Aの発話情報の例を示す図である。
図示するように装着者Aの発話情報と他者の発話情報とは、図8に示した場合と同様であり、同調性があることがわかる。ただし、図8の場合とは異なり、装着者Aと会話をしている他者は、同一エリア内にいない。そのため端末装置10Aにおいて捉えられている他者の発話音声を自己発話と識別する端末装置10は、同一エリア内には存在しないことになる。
即ち、この場合は、ホスト装置20のデータ受信部21は、端末装置10Aから予め定められた会話パターンに適合する装着者Aの発話音声に関する情報を取得するとともに、この会話パターンに同調する他者の発話音声に関する情報を取得する。しかしデータ受信部21は、装着者Aの音声が到達する場所である同一エリア内でこの他者の発話音声を自己発話とする音声に関する情報を取得しない。本実施の形態では、このときホスト装置20のデータ解析部23は、装着者Aが電話会議をしていると判定する。
FIG. 11 is a diagram illustrating an example of utterance information of the terminal device 10A when the wearer A has a conversation with another person in a telephone conference.
As shown in the figure, the utterance information of the wearer A and the utterance information of the other person are the same as those shown in FIG. However, unlike the case of FIG. 8, the other person having a conversation with the wearer A is not in the same area. Therefore, the terminal device 10 that identifies the other person's utterance voice captured by the terminal device 10 </ b> A as a self-utterance does not exist in the same area.
In other words, in this case, the data receiving unit 21 of the host device 20 acquires information on the uttered voice of the wearer A that conforms to a predetermined conversation pattern from the terminal device 10A, and is synchronized with the conversation pattern. Get information about the utterance voice. However, the data receiving unit 21 does not acquire information related to the voice that uses the other person's voice as the self-speak in the same area where the voice of the wearer A reaches. In the present embodiment, at this time, the data analysis unit 23 of the host device 20 determines that the wearer A has a telephone conference.

一方、装着者Aが電話会議において会話をしている他者が、端末装置10を装着している場合は、装着者Aの音声が到達しない場所である他の部屋等の他エリアにおいて、この発話音声を捉えることができる。ここでは、他エリアにおいて端末装置10Bを装着者B(第2の装着者)が装着し、装着者Aと装着者Bとが電話会議において会話している状態を考える。   On the other hand, when the wearer A has a conversation in a conference call and the terminal device 10 is worn, in other areas such as other rooms where the voice of the wearer A does not reach. Can capture utterances. Here, a state is considered in which the wearer B (second wearer) wears the terminal device 10B in another area, and the wearer A and the wearer B are talking in a conference call.

図12は、装着者Aと装着者Bとが電話会議において会話しているときの端末装置10A、10Bの発話情報の例を示す図である。
図示するように装着者Aの端末装置10Aでは、装着者Aの発話音声が自己発話として捉えられるとともに、これに同調する装着者Bの発話音声が他者の発話として捉えられる。また同様にして装着者Bの端末装置10Bでは、装着者Bの発話音声が自己発話として捉えられるとともに、これに同調する装着者Aの発話音声が他者の発話として捉えられる。即ち図8で説明した場合と同様となる。ただし、図8の場合とは異なり、装着者Aと装着者Bは、同一エリア内にいない。そのため端末装置10Aにおいて捉えられている装着者Bの発話音声を自己発話と判断する端末装置10は、同一エリア内には存在しない。さらに同様にして端末装置10Bにおいて捉えられている装着者Aの発話音声を自己発話と識別する端末装置10は、同一エリア内には存在しない。
即ち、この場合は、まず装着者Aと装着者Bとは、互いの発話音声が到達しない場所にいる。そしてホスト装置20のデータ受信部21は、端末装置10Aのマイクロフォンにより取得された予め定められた会話パターンに適合する装着者Aの発話音声に関する情報とこの会話パターンに同調する装着者Bの発話音声に関する情報とを取得する。さらにデータ受信部21は、端末装置10Bのマイクロフォン(第2の音声取得手段)により取得された予め定められた会話パターンに適合する装着者Bの発話音声に関する情報とこの会話パターンに同調する装着者Aの発話音声に関する情報とを取得する。本実施の形態では、このときホスト装置20のデータ解析部23は、装着者Aと装着者Bとが電話会議をしていると判定する。
FIG. 12 is a diagram illustrating an example of speech information of the terminal devices 10A and 10B when the wearer A and the wearer B are having a conversation in a telephone conference.
As illustrated, in the terminal device 10A of the wearer A, the uttered voice of the wearer A is captured as a self utterance, and the uttered voice of the wearer B synchronized with this is captured as the utterance of another person. Similarly, in the terminal device 10B of the wearer B, the voice of the wearer B is captured as a self-speech, and the voice of the wearer A that synchronizes with the speech is captured as a speech of another person. That is, it is the same as the case described in FIG. However, unlike the case of FIG. 8, the wearer A and the wearer B are not in the same area. Therefore, the terminal device 10 that determines that the speech of the wearer B captured by the terminal device 10A is a self-speech is not present in the same area. Further, similarly, the terminal device 10 that identifies the speech of the wearer A captured by the terminal device 10B as a self-utterance does not exist in the same area.
That is, in this case, first, the wearer A and the wearer B are in a place where the uttered voices do not reach each other. The data receiving unit 21 of the host device 20 then receives information about the utterance voice of the wearer A that matches the predetermined conversation pattern acquired by the microphone of the terminal apparatus 10A and the utterance voice of the wearer B that synchronizes with the conversation pattern. And get information about. Further, the data receiving unit 21 is information about the voice of the wearer B that matches the predetermined conversation pattern acquired by the microphone (second voice acquisition unit) of the terminal device 10B, and the wearer who synchronizes with the conversation pattern. Information about the speech voice of A is acquired. In the present embodiment, at this time, the data analysis unit 23 of the host device 20 determines that the wearer A and the wearer B have a telephone conference.

<ホスト装置の動作例>
図13は、本実施形態におけるホスト装置20の動作を示すフローチャートである。
以下、図1、図13を使用して本実施形態のホスト装置20の動作を説明する。
まずデータ受信部21が、複数の端末装置10から自他識別情報を含む音声の音声信号に関する情報を受信する(ステップ201)。そしてこの情報は、いったんデータ蓄積部22に蓄積される(ステップ202)。
<Operation example of host device>
FIG. 13 is a flowchart showing the operation of the host device 20 in this embodiment.
Hereinafter, the operation of the host device 20 according to the present embodiment will be described with reference to FIGS. 1 and 13.
First, the data receiving unit 21 receives information related to a voice signal including voice identification information from a plurality of terminal devices 10 (step 201). This information is once stored in the data storage unit 22 (step 202).

次にデータ解析部23が、複数の装着者の端末装置10から送られた音声を解析し、装着者の会話関係を判定する。
装着者の会話関係を判定には、まずデータ解析部23は、端末装置10から送信された自他識別情報を基にして、自己発話であると識別したものを検知する(ステップ203)。
次にデータ解析部23は、自己発話であると検知した発話音声が、会話パターンに適合しているか否かを判断する(ステップ204)。具体的には、データ解析部23は、自己発話である発話音声が間欠的に端末装置10に取得されているか否かで判断が行なわれる。
そして会話パターンでない場合(ステップ204でNo)、データ解析部23は、この発話音声は、実際には雑音(ノイズ)であったと判定する(ステップ205)。
Next, the data analysis unit 23 analyzes voices sent from the terminal devices 10 of a plurality of wearers, and determines the conversation relationship of the wearers.
To determine the conversation relationship of the wearer, first, the data analysis unit 23 detects what is identified as self-utterance based on the self-other identification information transmitted from the terminal device 10 (step 203).
Next, the data analysis unit 23 determines whether or not the utterance voice detected as being a self-utterance is compatible with the conversation pattern (step 204). Specifically, the data analysis unit 23 determines whether or not the utterance voice that is a self-speech is intermittently acquired by the terminal device 10.
If it is not a conversation pattern (No in step 204), the data analysis unit 23 determines that the uttered voice is actually noise (step 205).

一方、会話パターンであった場合(ステップ204でYes)は、データ解析部23は、同一エリアにおいて、この発話音声に同調する発話音声があるか否かを判断する(ステップ206)。
そして同一エリアにおいて、同調する発話音声がなかった場合(ステップ206でNo)、次にデータ解析部23は、他エリアにおいて、この発話音声に同調する発話音声があるか否かを判断する(ステップ207)。
On the other hand, when it is a conversation pattern (Yes in Step 204), the data analysis unit 23 determines whether or not there is an utterance voice synchronized with the utterance voice in the same area (Step 206).
If there is no uttered voice to be tuned in the same area (No in step 206), then the data analysis unit 23 determines whether there is uttered voice to be tuned to this uttered voice in another area (step). 207).

その結果、他エリアについても同調する発話音声がなかった場合(ステップ207でNo)、データ解析部23は、自己発話であると識別した端末装置10の装着者(装着者A)は、電話中であると判定する(ステップ208)。即ち、図9で説明した場合となる。   As a result, when there is no uttered voice to be synchronized in other areas (No in step 207), the data analysis unit 23 identifies that the wearer (wearer A) of the terminal device 10 identified as self-speaking is on the phone. (Step 208). That is, the case described with reference to FIG.

また他エリアについて同調する発話音声があった場合(ステップ207でYes)、データ解析部23は、自己発話であると識別した端末装置10の装着者(装着者A)と、これに同調する発話音声を取得した端末装置10の装着者(装着者B)とは電話を使用して会話中であると判定する(ステップ209)。即ち、図10で説明した場合となる。
なお電話を使用して会話をしている相手が、端末装置10を装着している場合は、ステップ209の場合となる。そのためステップ208の場合は、電話を使用して会話をしている相手は端末装置10を装着していないことになる。よって例えば、その相手が端末装置10を装着しない社外の者である等の判定を併せて行なってもよい。
If there is an utterance voice synchronized with another area (Yes in Step 207), the data analysis unit 23 wears the terminal device 10 identified as a self-utterance (wearer A) and an utterance synchronized with this. It is determined that a conversation with the wearer (wearer B) of the terminal device 10 who has acquired the voice is in progress using the telephone (step 209). That is, the case described with reference to FIG.
In the case where the other party having a conversation using the telephone is wearing the terminal device 10, the case of step 209 is performed. For this reason, in the case of step 208, the other party having a conversation using the telephone does not wear the terminal device 10. Therefore, for example, determination that the other party is an outside person who does not wear the terminal device 10 may be performed.

一方、同一エリアにおいて、同調する発話音声があった場合(ステップ206でYes)、データ解析部23は、次に同一エリアにこの発話音声を自己発話と識別する端末装置10があるか否かを判断する(ステップ210)。
そして同一エリアにこの発話音声を自己発話と識別する端末装置10がある場合(ステップ210でYes)、データ解析部23は、ステップ203で自己発話であると識別した端末装置10の装着者(装着者A)とステップ210で自己発話であると識別した端末装置10の装着者(装着者B)とが、同一エリアにおいて対面により会話中であると判定する(ステップ211)。即ち、図7および図8で説明した場合となる。
On the other hand, if there is an uttered voice to be tuned in the same area (Yes in Step 206), the data analysis unit 23 next determines whether or not there is a terminal device 10 that identifies this uttered voice as a self-utterance in the same area. Judgment is made (step 210).
If there is a terminal device 10 that identifies this uttered voice as a self-speech in the same area (Yes in step 210), the data analysis unit 23 wears the terminal device 10 identified as a self-speech in step 203 (wearing) It is determined that the user A) and the wearer (wearer B) of the terminal device 10 identified as self-speaking in step 210 are in a face-to-face conversation in the same area (step 211). That is, the case described with reference to FIGS.

また同一エリアにこの発話音声を自己発話と識別する端末装置10がない場合(ステップ210でNo)、データ解析部23は、さらに他エリアにおいて、この発話音声に同調する発話音声があるか否かを判断する(ステップ212)。   If there is no terminal device 10 that identifies this speech as self-speech in the same area (No in step 210), the data analysis unit 23 further determines whether there is speech in synchronization with this speech in another area. Is determined (step 212).

その結果、他エリアについても同調する発話音声がなかった場合(ステップ212でNo)、データ解析部23は、自己発話であると識別した端末装置10の装着者は、電話会議中であると判定する(ステップ213)。即ち、図11で説明した場合となる。
また他エリアについて同調する発話音声があった場合(ステップ212でYes)、データ解析部23は、ステップ203で自己発話であると識別した端末装置10の装着者(装着者A)とステップ212で自己発話であると識別した端末装置10の装着者(装着者B)とが電話会議をしていると判定する(ステップ214)。即ち、図12で説明した場合となる。
As a result, when there is no uttered voice to be synchronized in other areas (No in step 212), the data analysis unit 23 determines that the wearer of the terminal device 10 identified as self-speaking is in a telephone conference. (Step 213). That is, the case described with reference to FIG.
Further, when there is an utterance voice synchronized with another area (Yes in step 212), the data analysis unit 23 determines in step 212 that the wearer (wearer A) of the terminal apparatus 10 identified as the self-utterance in step 203. It is determined that the wearer (wearer B) of the terminal device 10 identified as self-speaking has a telephone conference (step 214). That is, the case described with reference to FIG.

以上のようにして端末装置10を装着する装着者の会話関係を判定することで、それぞれの装着者におけるコミュニケーションの傾向を分析することができる。
また以上の方法により判定された装着者の会話関係を基にして、装着者が、「電話中」、「電話会議中」である等の情報を、例えばグループウェア上で公開することもできる。これにより各装着者の現在の状況をより的確に把握することができる。
By determining the conversation relationship of the wearer wearing the terminal device 10 as described above, the communication tendency of each wearer can be analyzed.
In addition, based on the conversation relationship of the wearer determined by the above method, information such as “on the phone” or “during a conference call” can be disclosed on the groupware, for example. Thereby, the present situation of each wearer can be grasped more accurately.

なお以上詳述した音声解析システム1は、装着者に装着され、音声を取得するマイクロフォン11、12と、マイクロフォン11、12が取得した音声が、装着者の発話音声であるか装着者以外の他者の発話音声であるかを識別した自他識別情報を生成する自他識別部と、自他識別部により生成された自他識別情報を使用して、装着者が電話を使用して会話しているか否かを判定する判定部と、を備えたことを特徴とする音声解析システムとして捉えることもできる。上述した例では、自他識別部は、音声解析部15により実現される。   The voice analysis system 1 described in detail above is worn by a wearer and the microphones 11 and 12 that acquire voice, and the voice acquired by the microphones 11 and 12 is the voice of the wearer or other than the wearer. The self-other identification unit that generates the self-other identification information that identifies the voice of the wearer and the self-other identification information generated by the self-other identification unit It can also be grasped as a speech analysis system characterized by comprising a determination unit for determining whether or not. In the example described above, the self-other identification unit is realized by the voice analysis unit 15.

なお上述した例では、音声の自他識別を行なうのを端末装置10の側で行なっていたが、これに限られるものではなく、ホスト装置20の側で行なってもよい。この形態における音声解析システム1としては、図1のものに対し、音声解析部15で行なっていた音声の自他識別を、例えば、ホスト装置20のデータ解析部23で行なう。
また上述した例では、音声の自他識別を行なうのに端末装置10を例に挙げたが、これに限られるものではなく、音声の自他識別を行なうことができるものであればよい。例えば、指向性のマイクロフォンを使用し、発話音声が来る方向に対し、指向性のマイクロフォンで取得される音圧が異なることを利用して、発話音声の自他識別を行なうこともできる。この場合、指向性のマイクロフォンが音声取得手段として機能する。
In the above-described example, voice identification is performed on the terminal device 10 side. However, the present invention is not limited to this, and may be performed on the host device 20 side. As the voice analysis system 1 in this embodiment, the voice analysis unit 15 of the host apparatus 20 performs, for example, the self-other identification of the voice performed by the voice analysis unit 15 with respect to that of FIG.
In the above-described example, the terminal device 10 is used as an example to identify the voice itself. However, the present invention is not limited to this. For example, by using a directional microphone and using the fact that the sound pressure acquired by the directional microphone is different from the direction in which the uttered voice comes, it is possible to identify the uttered voice. In this case, the directional microphone functions as a voice acquisition unit.

<プログラムの説明>
なお図13で説明を行った本実施形態におけるホスト装置20が行なう処理は、ソフトウェアとハードウェア資源とが協働することにより実現される。即ち、ホスト装置20に設けられた制御用コンピュータ内部の図示しないCPUが、ホスト装置20の各機能を実現するプログラムを実行し、これらの各機能を実現させる。
<Description of the program>
The processing performed by the host device 20 in the present embodiment described with reference to FIG. 13 is realized by cooperation of software and hardware resources. That is, a CPU (not shown) inside the control computer provided in the host device 20 executes a program that realizes each function of the host device 20 and realizes each of these functions.

よって図13で説明を行ったホスト装置20が行なう処理は、コンピュータに、音声を取得し装着者の発話音声と装着者以外の他者の発話音声との識別するためのマイクロフォンにより取得された音声の、音声に関する情報を取得する機能と、マイクロフォンにより取得された音声が装着者の発話音声であるか他者の発話音声であるかを識別した情報である自他識別情報を使用して、装着者が電話を使用して会話しているか否かを判定する機能と、を実現させるプログラムとして捉えることもできる。   Therefore, the processing performed by the host device 20 described with reference to FIG. 13 is performed by using a microphone for acquiring a voice and discriminating between the voice of the wearer and the voice of another person other than the wearer. Using the self-other identification information, which is information identifying whether the voice acquired by the microphone is the voice of the wearer or the voice of the other person. It can also be understood as a program that realizes a function of determining whether or not a person is talking using a telephone.

1…音声解析システム、10…端末装置、15…音声解析部、16…データ送信部、20…ホスト装置、21…データ受信部、23…データ解析部、30…装置本体 DESCRIPTION OF SYMBOLS 1 ... Voice analysis system, 10 ... Terminal device, 15 ... Voice analysis part, 16 ... Data transmission part, 20 ... Host apparatus, 21 ... Data reception part, 23 ... Data analysis part, 30 ... Main part of apparatus

Claims (7)

音声を取得し装着者の発話音声と装着者以外の他者の発話音声とを識別するための音声取得手段により取得された音声の、当該音声に関する情報を取得する音声情報取得部と、
前記音声取得手段により取得された音声が前記装着者の発話音声であるか他者の発話音声であるかを識別した情報である自他識別情報を使用して、当該装着者が電話を使用して会話しているか否かを判定する判定部と、
を備えたことを特徴とする音声解析装置。
A voice information acquisition unit for acquiring information related to the voice of the voice acquired by the voice acquisition means for acquiring the voice and identifying the voice of the wearer and the voice of the other person other than the wearer;
The wearer uses a telephone by using the self-other identification information that is information identifying whether the voice acquired by the voice acquisition means is the voice of the wearer or the voice of the other person. A determination unit that determines whether or not
A speech analysis apparatus comprising:
前記判定部は、前記音声情報取得部が、前記音声取得手段により取得された予め定められた会話パターンに適合する前記装着者の発話音声に関する情報を取得するとともに、当該装着者の発話音声が到達する場所で当該会話パターンに同調する他者の発話音声に関する情報を取得しないときに当該装着者が電話を使用して会話をしていると判定することを特徴とする請求項1に記載の音声解析装置。   The determination unit acquires information on the utterance voice of the wearer that matches the predetermined conversation pattern acquired by the voice acquisition unit, and the utterance voice of the wearer arrives. 2. The voice according to claim 1, wherein it is determined that the wearer is having a conversation using a telephone when information on the voice of another person who is synchronized with the conversation pattern is not acquired at a place where the wearer is speaking. Analysis device. 前記音声情報取得部は、前記装着者の発話音声が到達しない場所にいる第2の装着者の発話音声と第2の装着者以外の他者の発話音声との識別を可能とする第2の音声取得手段により取得された音声の音声に関する情報をさらに取得し、
前記判定部は、前記音声情報取得部が、前記音声取得手段により取得された予め定められた会話パターンに適合する前記装着者の発話音声に関する情報を取得するとともに、前記第2の音声取得手段により取得された当該会話パターンに同調する前記第2の装着者の発話音声に関する情報を取得するときに、当該装着者と当該第2の装着者とが電話を使用して会話していると判定することを特徴とする請求項1に記載の音声解析装置。
The voice information acquisition unit is capable of distinguishing between the voice of the second wearer in a place where the voice of the wearer does not reach and the voice of another person other than the second wearer. Further acquiring information related to the voice of the voice acquired by the voice acquisition means;
The determination unit acquires information on the utterance voice of the wearer that matches the predetermined conversation pattern acquired by the voice acquisition unit by the voice information acquisition unit, and uses the second voice acquisition unit. When acquiring information related to the voice of the second wearer that synchronizes with the acquired conversation pattern, it is determined that the wearer and the second wearer are having a conversation using a telephone. The speech analysis apparatus according to claim 1.
前記判定部は、前記音声情報取得部が、前記音声取得手段により取得された予め定められた会話パターンに適合する前記装着者の発話音声に関する情報を取得するとともに、当該会話パターンに同調する他者の発話音声に関する情報を取得し、当該装着者の発話音声が到達する場所で当該他者の発話音声を自己発話とする音声に関する情報を取得しないときは、当該装着者が電話会議をしているとさらに判定することを特徴とする請求項1に記載の音声解析装置。   The determination unit obtains information related to the utterance voice of the wearer that conforms to the predetermined conversation pattern acquired by the sound acquisition unit and is synchronized with the conversation pattern. If the information about the voice of the wearer is acquired and the information about the voice of the other person's voice is not obtained at the place where the voice of the wearer arrives, the wearer has a conference call. The speech analysis apparatus according to claim 1, further determining that 前記音声情報取得部は、前記装着者の発話音声が到達しない場所にいる第2の装着者の発話音声と第2の装着者以外の他者の発話音声との識別を可能とする第2の音声取得手段により取得された音声の音声に関する情報をさらに取得し、
前記判定部は、前記音声情報取得部が、前記音声取得手段により取得された予め定められた会話パターンに適合する前記装着者の発話音声に関する情報と当該会話パターンに同調する前記第2の装着者の発話音声に関する情報とを取得するとともに、前記第2の音声取得手段により取得された予め定められた会話パターンに適合する前記第2の装着者の発話音声に関する情報と当該会話パターンに同調する前記装着者の発話音声に関する情報とを取得するときは、当該装着者と当該第2の装着者とが電話会議をしているとさらに判定することを特徴とする請求項1に記載の音声解析装置。
The voice information acquisition unit is capable of distinguishing between the voice of the second wearer in a place where the voice of the wearer does not reach and the voice of another person other than the second wearer. Further acquiring information related to the voice of the voice acquired by the voice acquisition means;
The determination unit includes the second wearer that the voice information acquisition unit synchronizes with the information about the wearer's utterance that matches the predetermined conversation pattern acquired by the voice acquisition unit and the conversation pattern. Information related to the uttered voice of the second wearer and the information about the uttered voice of the second wearer that matches the predetermined conversation pattern acquired by the second voice acquisition means and the conversation pattern 2. The speech analysis apparatus according to claim 1, wherein when acquiring information related to the voice of the wearer, it is further determined that the wearer and the second wearer are in a conference call. .
装着者に装着され、音声を取得する音声取得手段と、
前記音声取得手段が取得した音声が、装着者の発話音声であるか装着者以外の他者の発話音声であるかを識別した自他識別情報を生成する自他識別部と、
前記自他識別部により生成された自他識別情報を使用して、当該装着者が電話を使用して会話しているか否かを判定する判定部と、
を備えたことを特徴とする音声解析システム。
A voice acquisition means that is worn by the wearer and acquires voice;
A self-other identification unit that generates self-other identification information that identifies whether the voice acquired by the voice acquisition unit is the voice of the wearer or the voice of another person other than the wearer;
A determination unit that determines whether or not the wearer is talking using the phone by using the self-other identification information generated by the self-other identification unit;
A voice analysis system characterized by comprising:
コンピュータに、
音声を取得し装着者の発話音声と装着者以外の他者の発話音声とを識別するための音声取得手段により取得された音声の、当該音声に関する情報を取得する機能と、
前記音声取得手段により取得された音声が前記装着者の発話音声であるか他者の発話音声であるかを識別した情報である自他識別情報を使用して、当該装着者が電話を使用して会話しているか否かを判定する機能と、
を実現させるプログラム。
On the computer,
A function of acquiring information related to the voice of the voice acquired by the voice acquisition means for acquiring the voice and identifying the voice of the wearer and the voice of the other person other than the wearer;
The wearer uses a telephone by using the self-other identification information that is information identifying whether the voice acquired by the voice acquisition means is the voice of the wearer or the voice of the other person. A function to determine whether or not
A program that realizes
JP2012193937A 2012-09-04 2012-09-04 Speech analyzing device, speech analyzing system, and program Pending JP2014048618A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012193937A JP2014048618A (en) 2012-09-04 2012-09-04 Speech analyzing device, speech analyzing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012193937A JP2014048618A (en) 2012-09-04 2012-09-04 Speech analyzing device, speech analyzing system, and program

Publications (1)

Publication Number Publication Date
JP2014048618A true JP2014048618A (en) 2014-03-17

Family

ID=50608318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012193937A Pending JP2014048618A (en) 2012-09-04 2012-09-04 Speech analyzing device, speech analyzing system, and program

Country Status (1)

Country Link
JP (1) JP2014048618A (en)

Similar Documents

Publication Publication Date Title
JP6031761B2 (en) Speech analysis apparatus and speech analysis system
JP5772447B2 (en) Speech analyzer
JP5867066B2 (en) Speech analyzer
JP6003472B2 (en) Speech analysis apparatus, speech analysis system and program
JP2013072979A (en) Voice analysis system and voice analysis device
JP6003510B2 (en) Speech analysis apparatus, speech analysis system and program
JP2013135325A (en) Voice analysis device
JP2013142843A (en) Operation analyzer, voice acquisition device, and operation analysis system
JP6160042B2 (en) Positioning system
JP6476938B2 (en) Speech analysis apparatus, speech analysis system and program
JP5862318B2 (en) Sound analysis apparatus, sound analysis system and program
JP6191747B2 (en) Speech analysis apparatus and speech analysis system
JP6007487B2 (en) Information processing apparatus, information processing system, and program
JP2013140534A (en) Voice analysis device, voice analysis system, and program
JP2013164468A (en) Voice analysis device, voice analysis system, and program
JP6031767B2 (en) Speech analysis apparatus, speech analysis system and program
JP2013072978A (en) Voice analyzer and voice analysis system
JP5929810B2 (en) Voice analysis system, voice terminal apparatus and program
JP2014048618A (en) Speech analyzing device, speech analyzing system, and program
JP6051996B2 (en) Speech analysis apparatus, speech analysis system and program
JP6056544B2 (en) Speech analysis device, signal analysis device, speech analysis system, and program
JP6369022B2 (en) Signal analysis apparatus, signal analysis system, and program
JP2014050048A (en) Voice analysis device
JP2013181899A (en) Voice analysis device, voice analysis system and program