JP2011221101A - Communication device - Google Patents
Communication device Download PDFInfo
- Publication number
- JP2011221101A JP2011221101A JP2010087337A JP2010087337A JP2011221101A JP 2011221101 A JP2011221101 A JP 2011221101A JP 2010087337 A JP2010087337 A JP 2010087337A JP 2010087337 A JP2010087337 A JP 2010087337A JP 2011221101 A JP2011221101 A JP 2011221101A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- data
- voice
- person
- volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、コミュニケーション装置に関する。 The present invention relates to a communication device.
近年、人間に対してメッセージを提供することにより、簡単なコミュニケーションを行うことができる種々のコミュニケーション装置が提案及び開発されている(例えば、特許文献1参照)。 In recent years, various communication devices that can perform simple communication by providing messages to humans have been proposed and developed (see, for example, Patent Document 1).
本発明は、発せられた音声の音量に応じたメッセージを生成し出力することができるコミュニケーション装置を提供することを目的とする。 An object of this invention is to provide the communication apparatus which can produce | generate and output the message according to the volume of the emitted voice.
本発明の一態様によるコミュニケーション装置は、
人物を検出するための検出手段と、
前記検出手段によって人物が検出されると、当該人物に対して所定のメッセージからなる音声をスピーカから出力する音声出力手段と、
人物から発せられた音声をマイクによって集音することにより得られた音声データが与えられると、前記音声データの音量を判定する音量判定手段と、
前記音量判定手段から出力された判定結果に基づいて、前記音声データの音量に応じたメッセージからなる音声を生成し、これを前記スピーカから出力する音声生成手段と
を備える。
A communication device according to an aspect of the present invention includes:
Detection means for detecting a person;
When a person is detected by the detection means, a sound output means for outputting sound composed of a predetermined message to the person from a speaker;
Volume determination means for determining a volume of the audio data when audio data obtained by collecting audio emitted from a person with a microphone is given;
Voice generation means for generating a voice composed of a message corresponding to the volume of the voice data based on the determination result output from the volume determination means and outputting the voice from the speaker.
本発明のコミュニケーション装置によれば、発せられた音声の音量に応じたメッセージを生成し出力することができる。 According to the communication device of the present invention, it is possible to generate and output a message corresponding to the volume of the emitted voice.
以下、本発明の実施の形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1に、本発明の実施の形態によるコミュニケーション装置10の構成を示す。このコミュニケーション装置10は、例えばオフィスの玄関など、所定の組織に所属する従業員などの人物が出入りする場所に設置され、当該従業員との間で挨拶を行うための装置として使用される。
FIG. 1 shows a configuration of a
始めに、このコミュニケーション装置10を管理する管理者は、当該コミュニケーション装置10に、各従業員の音声の特徴を表す音質データを登録する登録作業を行う。すなわち、管理者が入力部30を操作することにより、上述の登録作業を行うための操作を行うと、制御部40は、コミュニケーション装置10の動作状態を登録モードに遷移させる。
First, an administrator who manages the
この状態において、従業員が「おはようございます」などの音声を発すると、コミュニケーション装置10は、マイク70によって当該音声を集音し、得られた音声データを音声処理部80に入力する。なお、その際、管理者は、入力部30を操作することにより、当該従業員の名前を入力し、制御部40は、この入力された従業員の名前に関するデータを、従業員名データとして、音声処理部80に供給する。
In this state, when the employee utters a voice such as “Good morning”, the
音声処理部80は、与えられた音声データの周波数を解析することにより、当該音声データの周波数対信号レベル特性を生成し、これを従業員の音声の特徴を表す音質データとして、従業員名データと対応付けて記憶部90に記憶する。
The
これ以降、全ての従業員に対して、上述の処理を順次行うことにより、各従業員の音質データを、従業員名データと対応付けて記憶部90に順次記憶する。
Thereafter, the sound quality data of each employee is sequentially stored in the
管理者は、登録作業が完了した場合には、コミュニケーション装置10を所定の位置に設置する。その際、管理者は、入力部30を操作することにより、従業員がコミュニケーション装置10に接近し、挨拶を行うまで待機するための操作を行うと、制御部40は、コミュニケーション装置10の動作状態を待機モードに遷移させる。
When the registration work is completed, the administrator installs the
この状態において、従業員が、オフィスの玄関から進入し、コミュニケーション装置10に接近すると、赤外線センサ20は、従業員を検出することにより、従業員がコミュニケーション装置10の前方に位置することを示す人物検出信号を生成し、これを制御部40に与える。
In this state, when the employee enters from the entrance of the office and approaches the
制御部40は、人物検出信号が与えられると、音声出力部50を駆動し、当該音声出力部50は、例えば「おはようございます」などの所定のメッセージからなる音声をスピーカ60から外部に出力する。
When the person detection signal is given, the
この状態において、コミュニケーション装置10は、制御部40の制御に基づいて、所定時間の間、コミュニケーション装置10の前方に位置する従業員が発する音声を、マイク70によって集音し、得られた音声データを音声処理部80に入力する。
In this state, based on the control of the
音声処理部80は、取得された音声データの周波数を解析し、当該音声データの周波数対信号レベル特性を生成することにより、コミュニケーション装置10の前方に位置する従業員の音声の特徴を表す音質データを生成する。そして、音声処理部80は、記憶部90に記憶されている音質データの中から、マイク70によって取得された音声データの音質データと対応する音質データの検索を試みる。
The
なお、この場合、音声処理部80は、例えば、記憶部90に記憶されている音質データの中から、マイク70によって取得された音声データの音質データと一致する音質データ、又は各周波数における信号レベルの差分の合計が所定の閾値以下となる音質データの検索を試みる。
In this case, for example, the
その結果、音声処理部80は、記憶部90に記憶されている音質データの中から、マイク70によって取得された音声データの音質データと対応する音質データを検索することができた場合には、当該音質データと対応付けて記憶されている従業員名データを読み出し、これを音声生成部100に出力する。
As a result, when the
続いて、音声処理部80は、マイク70によって取得された音声データを解析することにより、当該音声データが「おはようございます」であるか否か、すなわち社会人として正しい挨拶がされているか否かを判定する。
Subsequently, the
その結果、音声処理部80は、正しい挨拶がされていると判定した場合には、マイク70によって取得された音声データの音量が、所定の音量(例えば90dB)以上であるか否かを判定する。
As a result, when it is determined that the correct greeting is given, the
その結果、音声処理部80は、マイク70によって取得された音声データの音量が、所定の音量より大きいと判定した場合には、従業員の音声の音量が大きいことを表す大音量判定データを生成し、これを音声生成部100に出力する。
As a result, when the
音声生成部100は、音声処理部80から供給された従業員名データと、大音量判定データとに基づいて、例えば「Aさん大きい声ですね」など、従業員名データが示す名前と、当該従業員の音声の音量が大きいことを表す文章とを含むメッセージからなる音声を生成し、これをスピーカ60から外部に出力する。
Based on the employee name data supplied from the
これに対して、音声処理部80は、マイク70によって取得された音声データの音量が、所定の音量より小さいと判定した場合には、従業員の音声の音量が小さいことを表す小音量判定データを生成し、これを音声生成部100に出力する。
On the other hand, when the
音声生成部100は、音声処理部80から供給された従業員名データと、小音量判定データとに基づいて、例えば「Aさん小さい声ですね」など、従業員名データが示す名前と、当該従業員の音声の音量が小さいことを表す文章とを含むメッセージからなる音声を生成し、これをスピーカ60から外部に出力する。
The
ところで、上述したように、音声処理部80は、マイク70によって取得された音声データを解析することにより、当該音声データが「おはようございます」であるか否か、すなわち社会人として正しい挨拶がされているか否かを判定する。その結果、音声処理部80は、当該音声データが、例えば「おはよう」、「おはようっす」など、正しい挨拶ではないと判定した場合には、正しい挨拶がされなかったことを表す不当判定データを生成し、これを音声生成部100に出力する。
By the way, as described above, the
この場合、音声生成部100は、音声処理部80から供給された従業員名データと、不当判定データとに基づいて、例えば「Aさん再度正確に言って下さい」など、従業員名データが示す名前と、当該従業員の挨拶が正しくないことを表す文章とを含むメッセージからなる音声を生成し、これをスピーカ60から外部に出力する。
In this case, the
また、上述したように、音声処理部80は、記憶部90に記憶されている音質データの中から、マイク70によって取得された音声データの音質データと対応する音質データの検索を試みる。その結果、音声処理部80は、記憶部90に記憶されている音質データの中から、マイク70によって取得された音声データの音質データと対応する音質データを検索することができなかった場合には、コミュニケーション装置10の前方に位置する人物は従業員ではないことを表す不登録判定データを生成し、これを音声生成部100に出力する。
Further, as described above, the
この場合、音声生成部100は、不登録判定データが与えられると、例えば「社員登録されていません」など、コミュニケーション装置10の前方に位置する人物は従業員ではないことを表す文章を含むメッセージからなる音声を生成し、これをスピーカ60から外部に出力する。
In this case, when the non-registration determination data is given, the
なお、音声処理部80は、コミュニケーション装置10の前方に位置する人物が音声を発することなく、所定時間が経過したと判定した場合には、音声が発せられなかったことを表す無音判定データを生成し、これを音声生成部100に出力する。
Note that the
音声処理部80は、無音判定データが与えられると、例えば「声を出して下さい」など、音声を発することを促すことを表す文章を含むメッセージからなる音声を生成し、これをスピーカ60から外部に出力する。
When the silence determination data is given, the
ここで図2に、本実施の形態によるコミュニケーション処理手順RT10を示す。この図2において、制御部40は、コミュニケーション装置10の動作状態が待機状態に設定され、コミュニケーション処理手順RT10に入ると、ステップSP10に移って、赤外線センサ20によって人物の検出を試みる。
FIG. 2 shows a communication processing procedure RT10 according to this embodiment. In FIG. 2, when the operation state of the
ステップSP10において、制御部40は、人物を検出したことが赤外線センサ20から通知されると、ステップSP20に移って、音声出力部50の動作を制御することにより、例えば「おはようございます」などの所定のメッセージからなる音声をスピーカ60から外部に出力する。なお、制御部40は、人物を検出したことが赤外線センサ20から通知されるまで待機する。
In step SP10, when the
ステップSP30において、音声処理部80は、マイク70によって音声が集音され、当該マイク70から音声データを取得することができたか否かを判定する。このステップSP30において肯定結果が得られると、このことはコミュニケーション装置10の前方に位置する人物が音声を発したことを表しており、このとき音声処理部80はステップSP40に移って、この取得された音声が、記憶部80に登録されている従業員の音声か否かを判定する。
In step SP30, the
このステップSP40において肯定結果が得られると、このことはコミュニケーション装置10の前方に位置し、音声を発した人物が従業員であることを表しており、このとき音声処理部80はステップSP50に移って、当該従業員が所定の音声を正確に発したか否かを判定する。その際、音声処理部80は、従業員の名前に関するデータである従業員名データを記憶部90から読み出し、これを音声生成部100に供給する。
If an affirmative result is obtained in this step SP40, this indicates that the person who is located in front of the
このステップSP50において肯定結果が得られると、このことは従業員が正しい挨拶をしたことを表しており、このとき音声処理部80はステップSP60に移って、従業員が発した音声の音量を判定し、その判定結果を音声生成部100に通知する。
If a positive result is obtained in step SP50, this indicates that the employee has given a correct greeting. At this time, the
ステップSP70において、音声生成部100は、従業員名データを参照しながら、従業員が発した音声の音量に応じたメッセージを生成し、これをスピーカ60から外部に出力した後、ステップSP10に戻って上述の動作を繰り返す。
In step SP70, the
ところで、ステップSP30において否定結果が得られると、このことはコミュニケーション装置10の前方に位置する人物が音声を発しなかったことを表しており、このとき音声処理部80はステップSP80に移って、音声が発せられなかったことを音声生成部100に通知することにより、音声を発することを促す旨のメッセージを出力させた後、ステップSP10に戻って上述の動作を繰り返す。
By the way, if a negative result is obtained in step SP30, this means that the person located in front of the
また、ステップSP40において否定結果が得られると、このことはコミュニケーション装置10の前方に位置し、音声を発した人物が従業員ではないことを表しており、このとき音声処理部80はステップSP90に移って、当該人物が従業員ではないことを音声処理部100に通知することにより、当該人物が登録されていない旨のメッセージを出力させた後、ステップSP10に戻って上述の動作を繰り返す。
If a negative result is obtained in step SP40, this means that the person who is located in front of the
また、ステップSP50において否定結果が得られると、このことは従業員が正しい挨拶をしなかったことを表しており、このとき音声処理部80はステップSP100に移って、正しい挨拶がされなかったことを音声処生成部100に通知することにより、正確な発声を促す旨のメッセージを出力させた後、ステップSP10に戻って上述の動作を繰り返す。
If a negative result is obtained in step SP50, this indicates that the employee did not give a correct greeting. At this time, the
このように本実施の形態によれば、コミュニケーション10の前方に位置するユーザが発した音声の音量に応じたメッセージを生成し、出力することにより、より簡易な構成でユーザが発した音声の音量に関する情報を当該ユーザに提供することができる。
As described above, according to the present embodiment, the volume of the voice uttered by the user with a simpler configuration can be generated by generating and outputting a message according to the volume of the voice uttered by the user located in front of the
なお、上述の実施の形態は一例であって、本発明を限定するものではない。例えば、従業員の音質データを予め登録する登録処理や、正しい挨拶がされたか否かを判定する判定処理を行う必要はなく、この場合、従業員が発した音声の音量に応じたメッセージのみを生成し出力すれば良い。 The above-described embodiment is an example and does not limit the present invention. For example, there is no need to perform registration processing for pre-registering employee sound quality data or determination processing for determining whether or not a correct greeting has been made. In this case, only a message corresponding to the volume of the voice uttered by the employee is used. Generate and output.
また、上述の実施の形態においては、検出手段として、赤外線センサ20を適用した場合について述べたが、本発明はこれに限らず、人物を検出するための他の種々の検出手段を適用するようにしても良い。
In the above-described embodiment, the case where the
また、上述の実施の形態においては、音声出力手段として、音声出力部50を適用した場合について述べたが、本発明はこれに限らず、赤外線センサ20によって人物が検出されると、当該人物に対して所定のメッセージからなる音声をスピーカ60から出力する他の種々の音声出力手段を適用するようにしても良い。
In the above-described embodiment, the case where the
また、上述の実施の形態においては、音量判定手段として、音声処理部80を適用した場合について述べたが、本発明はこれに限らず、人物から発せられた音声をマイク70によって集音することにより得られた音声データが与えられると、当該音声データの音量を判定する他の種々の音量判定手段を適用するようにしても良い。
In the above-described embodiment, the case where the
また、上述の実施の形態においては、音声生成手段として、音声生成部100を適用した場合について述べたが、本発明はこれに限らず、音声処理部80から出力された判定結果に基づいて、音声データの音量に応じたメッセージからなる音声を生成し、これをスピーカ60から出力する他の種々の音声生成手段を適用するようにしても良い。
In the above-described embodiment, the case where the
また、上述の実施の形態においては、記憶手段として、記憶部90を適用した場合について述べたが、本発明はこれに限らず、各人物の音声の特徴を表す音質データを、当該人物の名前を表す人物名データと対応付けてそれぞれ記憶する他の種々の記憶手段を適用するようにしても良い。
In the above-described embodiment, the case where the
また、上述の実施の形態においては、音声解析手段として、音声処理部80を適用する場合について述べたが、本発明はこれ限らず、音声データがマイク70から与えられると、当該音声データを解析することにより、当該音声データの音質データを生成し、当該音質データが記憶部90に記憶されている場合には、当該音質データと対応付けて記憶されている人物名データを読み出す他の種々の音声解析手段を適用するようにしても良い。
In the above-described embodiment, the case where the
この場合、音声生成部100は、人物名データと、音声処理部80から出力された判定結果とに基づいて、人物名データが表す人物名を含むようにして、音声データの音量に応じたメッセージからなる音声を生成し、これをスピーカ60から出力すれば良い。
In this case, the
また、上述の実施の形態においては、音声認識手段として、音声処理部80を適用した場合について述べたが、本発明はこれに限らず、音声データがマイク70から与えられると、当該音声データを認識することにより、当該音声データが所定のメッセージと一致するか否かを判定し、一致する場合には、音声処理部80に当該音声データの音量の判定を行わせる他の種々の音声認識手段を適用するようにしても良い。
In the above-described embodiment, the case where the
10 コミュニケーション装置
20 赤外線センサ
30 入力部
40 制御部
50 音声出力部
60 スピーカ
70 マイク
80 音声処理部
90 記憶部
100 音声生成部
DESCRIPTION OF
Claims (3)
前記検出手段によって人物が検出されると、当該人物に対して所定のメッセージからなる音声をスピーカから出力する音声出力手段と、
人物から発せられた音声をマイクによって集音することにより得られた音声データが与えられると、前記音声データの音量を判定する音量判定手段と、
前記音量判定手段から出力された判定結果に基づいて、前記音声データの音量に応じたメッセージからなる音声を生成し、これを前記スピーカから出力する音声生成手段と
を備えることを特徴とするコミュニケーション装置。 Detection means for detecting a person;
When a person is detected by the detection means, a sound output means for outputting sound composed of a predetermined message to the person from a speaker;
Volume determination means for determining a volume of the audio data when audio data obtained by collecting audio emitted from a person with a microphone is given;
A communication apparatus comprising: a voice generation unit configured to generate a voice composed of a message corresponding to a volume of the voice data based on the determination result output from the volume determination unit and to output the voice from the speaker. .
前記音声データが前記マイクから与えられると、前記音声データを解析することにより、前記音声データの前記音質データを生成し、前記音質データが前記記憶手段に記憶されている場合には、前記音質データと対応付けて記憶されている前記人物名データを読み出す音声解析手段とをさらに備え、
前記音声生成手段は、
前記人物名データと、前記音量判定手段から出力された判定結果とに基づいて、前記人物名データが表す人物名を含むようにして、前記音声データの音量に応じたメッセージからなる音声を生成し、これを前記スピーカから出力する
ことを特徴とする請求項1に記載のコミュニケーション装置。 Storage means for storing sound quality data representing the voice characteristics of each person in association with person name data representing the name of the person;
When the sound data is given from the microphone, the sound quality data of the sound data is generated by analyzing the sound data, and when the sound quality data is stored in the storage means, the sound quality data Voice analysis means for reading out the person name data stored in association with
The voice generation means includes
Based on the person name data and the determination result output from the sound volume determination means, a sound consisting of a message corresponding to the sound volume of the sound data is generated so as to include the person name represented by the person name data, The communication apparatus according to claim 1, wherein: is output from the speaker.
をさらに備えることを特徴とする請求項1に記載のコミュニケーション装置。
When the audio data is given from the microphone, the audio data is recognized to determine whether or not the audio data matches a predetermined message. The communication apparatus according to claim 1, further comprising voice recognition means for determining the volume of the data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010087337A JP2011221101A (en) | 2010-04-05 | 2010-04-05 | Communication device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010087337A JP2011221101A (en) | 2010-04-05 | 2010-04-05 | Communication device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011221101A true JP2011221101A (en) | 2011-11-04 |
Family
ID=45038193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010087337A Pending JP2011221101A (en) | 2010-04-05 | 2010-04-05 | Communication device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011221101A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104376627A (en) * | 2014-12-01 | 2015-02-25 | 江西洪都航空工业集团有限责任公司 | Intelligent ushering system |
JP2017176728A (en) * | 2016-03-31 | 2017-10-05 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
WO2020125252A1 (en) * | 2018-12-20 | 2020-06-25 | 达闼科技(北京)有限公司 | Robot conversation switching method and apparatus, and computing device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6146521A (en) * | 1984-08-13 | 1986-03-06 | Hitachi Ltd | Conversational type speech input and output device |
JPH07234694A (en) * | 1994-02-21 | 1995-09-05 | N T T Data Tsushin Kk | Automatic reception device |
JP2001343996A (en) * | 2000-06-01 | 2001-12-14 | Mitsubishi Electric Corp | Voice input control system |
JP2004286805A (en) * | 2003-03-19 | 2004-10-14 | Sony Corp | Method, apparatus, and program for identifying speaker |
JP2009037050A (en) * | 2007-08-02 | 2009-02-19 | Toyota Motor Corp | Interaction device and program for interaction |
-
2010
- 2010-04-05 JP JP2010087337A patent/JP2011221101A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6146521A (en) * | 1984-08-13 | 1986-03-06 | Hitachi Ltd | Conversational type speech input and output device |
JPH07234694A (en) * | 1994-02-21 | 1995-09-05 | N T T Data Tsushin Kk | Automatic reception device |
JP2001343996A (en) * | 2000-06-01 | 2001-12-14 | Mitsubishi Electric Corp | Voice input control system |
JP2004286805A (en) * | 2003-03-19 | 2004-10-14 | Sony Corp | Method, apparatus, and program for identifying speaker |
JP2009037050A (en) * | 2007-08-02 | 2009-02-19 | Toyota Motor Corp | Interaction device and program for interaction |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104376627A (en) * | 2014-12-01 | 2015-02-25 | 江西洪都航空工业集团有限责任公司 | Intelligent ushering system |
CN104376627B (en) * | 2014-12-01 | 2017-01-18 | 江西洪都航空工业集团有限责任公司 | Intelligent ushering system |
JP2017176728A (en) * | 2016-03-31 | 2017-10-05 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
WO2020125252A1 (en) * | 2018-12-20 | 2020-06-25 | 达闼科技(北京)有限公司 | Robot conversation switching method and apparatus, and computing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11823679B2 (en) | Method and system of audio false keyphrase rejection using speaker recognition | |
US9354687B2 (en) | Methods and apparatus for unsupervised wakeup with time-correlated acoustic events | |
JP5124573B2 (en) | Detect answering machine using voice recognition | |
Alonso-Martín et al. | Integration of a voice recognition system in a social robot | |
JP6654611B2 (en) | Growth type dialogue device | |
US9335966B2 (en) | Methods and apparatus for unsupervised wakeup | |
US20140337024A1 (en) | Method and system for speech command detection, and information processing system | |
US20120290297A1 (en) | Speaker Liveness Detection | |
JP2004101901A (en) | Speech interaction system and speech interaction program | |
CN111656440A (en) | Speaker identification | |
CN113330511A (en) | Voice recognition method, voice recognition device, storage medium and electronic equipment | |
JP2019197182A (en) | Voice interaction system, voice interaction method and program | |
JP6239826B2 (en) | Speaker recognition device, speaker recognition method, and speaker recognition program | |
JP2011221101A (en) | Communication device | |
EP3195314B1 (en) | Methods and apparatus for unsupervised wakeup | |
CN109271480B (en) | Voice question searching method and electronic equipment | |
US10963548B2 (en) | Information acquisition device, information acquisition system, and information acquisition method | |
JPWO2007111169A1 (en) | Speaker model registration apparatus and method in speaker recognition system, and computer program | |
KR20110079161A (en) | Method and apparatus for verifying speaker in mobile terminal | |
JP2017116876A (en) | Speaker recognition device, discrimination value generation method, and program | |
JP2019132997A (en) | Voice processing device, method and program | |
JP6571587B2 (en) | Voice input device, method thereof, and program | |
CN113241059A (en) | Voice wake-up method, device, equipment and storage medium | |
JPWO2017085815A1 (en) | Puzzled state judging device, puzzled state judging method, and program | |
WO2007111197A1 (en) | Speaker model registration device and method in speaker recognition system and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120312 |