JP2011221101A - Communication device - Google Patents

Communication device Download PDF

Info

Publication number
JP2011221101A
JP2011221101A JP2010087337A JP2010087337A JP2011221101A JP 2011221101 A JP2011221101 A JP 2011221101A JP 2010087337 A JP2010087337 A JP 2010087337A JP 2010087337 A JP2010087337 A JP 2010087337A JP 2011221101 A JP2011221101 A JP 2011221101A
Authority
JP
Japan
Prior art keywords
sound
data
voice
person
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010087337A
Other languages
Japanese (ja)
Inventor
Masayoshi Oyamada
政義 小山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AI KK
Original Assignee
AI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AI KK filed Critical AI KK
Priority to JP2010087337A priority Critical patent/JP2011221101A/en
Publication of JP2011221101A publication Critical patent/JP2011221101A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a communication device to generate and output a message based on the volume of a generated voice.SOLUTION: A communication device includes a volume detecting means 80 to detect the volume of voice data when being applied with voice data obtained by collecting a human voice with a microphone 70, and a sound generating means 100 to generate a sound including a message associated with the volume of the voice data based on a detection result which is output by the volume detecting means 80 and output the generated sound through a speaker 60.

Description

本発明は、コミュニケーション装置に関する。   The present invention relates to a communication device.

近年、人間に対してメッセージを提供することにより、簡単なコミュニケーションを行うことができる種々のコミュニケーション装置が提案及び開発されている(例えば、特許文献1参照)。   In recent years, various communication devices that can perform simple communication by providing messages to humans have been proposed and developed (see, for example, Patent Document 1).

特開平5−88691号公報Japanese Patent Laid-Open No. 5-88691

本発明は、発せられた音声の音量に応じたメッセージを生成し出力することができるコミュニケーション装置を提供することを目的とする。   An object of this invention is to provide the communication apparatus which can produce | generate and output the message according to the volume of the emitted voice.

本発明の一態様によるコミュニケーション装置は、
人物を検出するための検出手段と、
前記検出手段によって人物が検出されると、当該人物に対して所定のメッセージからなる音声をスピーカから出力する音声出力手段と、
人物から発せられた音声をマイクによって集音することにより得られた音声データが与えられると、前記音声データの音量を判定する音量判定手段と、
前記音量判定手段から出力された判定結果に基づいて、前記音声データの音量に応じたメッセージからなる音声を生成し、これを前記スピーカから出力する音声生成手段と
を備える。
A communication device according to an aspect of the present invention includes:
Detection means for detecting a person;
When a person is detected by the detection means, a sound output means for outputting sound composed of a predetermined message to the person from a speaker;
Volume determination means for determining a volume of the audio data when audio data obtained by collecting audio emitted from a person with a microphone is given;
Voice generation means for generating a voice composed of a message corresponding to the volume of the voice data based on the determination result output from the volume determination means and outputting the voice from the speaker.

本発明のコミュニケーション装置によれば、発せられた音声の音量に応じたメッセージを生成し出力することができる。   According to the communication device of the present invention, it is possible to generate and output a message corresponding to the volume of the emitted voice.

本発明の実施の形態によるコミュニケーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the communication apparatus by embodiment of this invention. 本発明の実施の形態によるコミュニケーション処理手順を示すフローチャートである。It is a flowchart which shows the communication processing procedure by embodiment of this invention.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1に、本発明の実施の形態によるコミュニケーション装置10の構成を示す。このコミュニケーション装置10は、例えばオフィスの玄関など、所定の組織に所属する従業員などの人物が出入りする場所に設置され、当該従業員との間で挨拶を行うための装置として使用される。   FIG. 1 shows a configuration of a communication device 10 according to an embodiment of the present invention. The communication device 10 is installed at a place where a person such as an employee belonging to a predetermined organization enters and exits, such as an entrance of an office, and is used as a device for greeting with the employee.

始めに、このコミュニケーション装置10を管理する管理者は、当該コミュニケーション装置10に、各従業員の音声の特徴を表す音質データを登録する登録作業を行う。すなわち、管理者が入力部30を操作することにより、上述の登録作業を行うための操作を行うと、制御部40は、コミュニケーション装置10の動作状態を登録モードに遷移させる。   First, an administrator who manages the communication device 10 performs a registration operation for registering sound quality data representing the voice characteristics of each employee in the communication device 10. That is, when the administrator performs an operation for performing the above-described registration work by operating the input unit 30, the control unit 40 changes the operation state of the communication device 10 to the registration mode.

この状態において、従業員が「おはようございます」などの音声を発すると、コミュニケーション装置10は、マイク70によって当該音声を集音し、得られた音声データを音声処理部80に入力する。なお、その際、管理者は、入力部30を操作することにより、当該従業員の名前を入力し、制御部40は、この入力された従業員の名前に関するデータを、従業員名データとして、音声処理部80に供給する。   In this state, when the employee utters a voice such as “Good morning”, the communication device 10 collects the voice by the microphone 70 and inputs the obtained voice data to the voice processing unit 80. At that time, the administrator operates the input unit 30 to input the name of the employee, and the control unit 40 uses the input employee name data as employee name data. The audio processing unit 80 is supplied.

音声処理部80は、与えられた音声データの周波数を解析することにより、当該音声データの周波数対信号レベル特性を生成し、これを従業員の音声の特徴を表す音質データとして、従業員名データと対応付けて記憶部90に記憶する。   The voice processing unit 80 generates frequency vs. signal level characteristics of the voice data by analyzing the frequency of the given voice data, and uses the voice name data as the voice quality data representing the voice characteristics of the employee. Are stored in the storage unit 90 in association with each other.

これ以降、全ての従業員に対して、上述の処理を順次行うことにより、各従業員の音質データを、従業員名データと対応付けて記憶部90に順次記憶する。   Thereafter, the sound quality data of each employee is sequentially stored in the storage unit 90 in association with the employee name data by sequentially performing the above-described processing for all employees.

管理者は、登録作業が完了した場合には、コミュニケーション装置10を所定の位置に設置する。その際、管理者は、入力部30を操作することにより、従業員がコミュニケーション装置10に接近し、挨拶を行うまで待機するための操作を行うと、制御部40は、コミュニケーション装置10の動作状態を待機モードに遷移させる。   When the registration work is completed, the administrator installs the communication device 10 at a predetermined position. At that time, when the administrator operates the input unit 30 to perform an operation for waiting until the employee approaches the communication device 10 and gives a greeting, the control unit 40 operates the communication device 10. Is shifted to the standby mode.

この状態において、従業員が、オフィスの玄関から進入し、コミュニケーション装置10に接近すると、赤外線センサ20は、従業員を検出することにより、従業員がコミュニケーション装置10の前方に位置することを示す人物検出信号を生成し、これを制御部40に与える。   In this state, when the employee enters from the entrance of the office and approaches the communication device 10, the infrared sensor 20 detects the employee, thereby indicating that the employee is located in front of the communication device 10. A detection signal is generated and given to the control unit 40.

制御部40は、人物検出信号が与えられると、音声出力部50を駆動し、当該音声出力部50は、例えば「おはようございます」などの所定のメッセージからなる音声をスピーカ60から外部に出力する。   When the person detection signal is given, the control unit 40 drives the audio output unit 50, and the audio output unit 50 outputs, for example, a sound including a predetermined message such as “Good morning” from the speaker 60 to the outside. .

この状態において、コミュニケーション装置10は、制御部40の制御に基づいて、所定時間の間、コミュニケーション装置10の前方に位置する従業員が発する音声を、マイク70によって集音し、得られた音声データを音声処理部80に入力する。   In this state, based on the control of the control unit 40, the communication device 10 collects the sound produced by the employee located in front of the communication device 10 for a predetermined time with the microphone 70, and the obtained voice data Is input to the voice processing unit 80.

音声処理部80は、取得された音声データの周波数を解析し、当該音声データの周波数対信号レベル特性を生成することにより、コミュニケーション装置10の前方に位置する従業員の音声の特徴を表す音質データを生成する。そして、音声処理部80は、記憶部90に記憶されている音質データの中から、マイク70によって取得された音声データの音質データと対応する音質データの検索を試みる。   The voice processing unit 80 analyzes the frequency of the acquired voice data and generates the frequency vs. signal level characteristic of the voice data, thereby expressing the sound quality data representing the voice characteristics of the employee located in front of the communication device 10. Is generated. Then, the sound processing unit 80 tries to search sound quality data corresponding to the sound quality data of the sound data acquired by the microphone 70 from the sound quality data stored in the storage unit 90.

なお、この場合、音声処理部80は、例えば、記憶部90に記憶されている音質データの中から、マイク70によって取得された音声データの音質データと一致する音質データ、又は各周波数における信号レベルの差分の合計が所定の閾値以下となる音質データの検索を試みる。   In this case, for example, the sound processing unit 80 selects sound quality data that matches the sound quality data of the sound data acquired by the microphone 70 from the sound quality data stored in the storage unit 90, or the signal level at each frequency. Attempts to search for sound quality data in which the sum of the differences is equal to or less than a predetermined threshold.

その結果、音声処理部80は、記憶部90に記憶されている音質データの中から、マイク70によって取得された音声データの音質データと対応する音質データを検索することができた場合には、当該音質データと対応付けて記憶されている従業員名データを読み出し、これを音声生成部100に出力する。   As a result, when the sound processing unit 80 can retrieve sound quality data corresponding to the sound quality data of the sound data acquired by the microphone 70 from the sound quality data stored in the storage unit 90, The employee name data stored in association with the sound quality data is read and output to the voice generation unit 100.

続いて、音声処理部80は、マイク70によって取得された音声データを解析することにより、当該音声データが「おはようございます」であるか否か、すなわち社会人として正しい挨拶がされているか否かを判定する。   Subsequently, the voice processing unit 80 analyzes the voice data acquired by the microphone 70 to determine whether the voice data is “Good morning”, that is, whether a correct greeting is given as a member of society. Determine.

その結果、音声処理部80は、正しい挨拶がされていると判定した場合には、マイク70によって取得された音声データの音量が、所定の音量(例えば90dB)以上であるか否かを判定する。   As a result, when it is determined that the correct greeting is given, the audio processing unit 80 determines whether or not the volume of the audio data acquired by the microphone 70 is equal to or higher than a predetermined volume (for example, 90 dB). .

その結果、音声処理部80は、マイク70によって取得された音声データの音量が、所定の音量より大きいと判定した場合には、従業員の音声の音量が大きいことを表す大音量判定データを生成し、これを音声生成部100に出力する。   As a result, when the sound processing unit 80 determines that the sound volume of the sound data acquired by the microphone 70 is larger than the predetermined sound volume, the sound processing unit 80 generates large sound volume determination data indicating that the sound volume of the employee is high. This is output to the sound generation unit 100.

音声生成部100は、音声処理部80から供給された従業員名データと、大音量判定データとに基づいて、例えば「Aさん大きい声ですね」など、従業員名データが示す名前と、当該従業員の音声の音量が大きいことを表す文章とを含むメッセージからなる音声を生成し、これをスピーカ60から外部に出力する。   Based on the employee name data supplied from the voice processing unit 80 and the loudness determination data, the voice generation unit 100, for example, the name indicated by the employee name data such as “Mr. A voice including a message including a sentence indicating that the volume of the voice of the employee is high is generated and output from the speaker 60 to the outside.

これに対して、音声処理部80は、マイク70によって取得された音声データの音量が、所定の音量より小さいと判定した場合には、従業員の音声の音量が小さいことを表す小音量判定データを生成し、これを音声生成部100に出力する。   On the other hand, when the sound processing unit 80 determines that the sound volume of the sound data acquired by the microphone 70 is smaller than the predetermined sound volume, the sound volume determination data indicating that the sound volume of the employee's sound is low. Is output to the sound generation unit 100.

音声生成部100は、音声処理部80から供給された従業員名データと、小音量判定データとに基づいて、例えば「Aさん小さい声ですね」など、従業員名データが示す名前と、当該従業員の音声の音量が小さいことを表す文章とを含むメッセージからなる音声を生成し、これをスピーカ60から外部に出力する。   The voice generation unit 100, based on the employee name data supplied from the voice processing unit 80 and the low volume determination data, for example, the name indicated by the employee name data, such as “It is Mr. A's low voice”, A voice including a message including a sentence indicating that the volume of the voice of the employee is low is generated and output from the speaker 60 to the outside.

ところで、上述したように、音声処理部80は、マイク70によって取得された音声データを解析することにより、当該音声データが「おはようございます」であるか否か、すなわち社会人として正しい挨拶がされているか否かを判定する。その結果、音声処理部80は、当該音声データが、例えば「おはよう」、「おはようっす」など、正しい挨拶ではないと判定した場合には、正しい挨拶がされなかったことを表す不当判定データを生成し、これを音声生成部100に出力する。   By the way, as described above, the voice processing unit 80 analyzes the voice data acquired by the microphone 70 to determine whether or not the voice data is “Good morning”, that is, a correct greeting as a member of society. It is determined whether or not. As a result, if the sound processing unit 80 determines that the sound data is not a correct greeting, such as “Good morning” or “Good morning”, the unjust determination data indicating that the correct greeting has not been given. This is generated and output to the sound generation unit 100.

この場合、音声生成部100は、音声処理部80から供給された従業員名データと、不当判定データとに基づいて、例えば「Aさん再度正確に言って下さい」など、従業員名データが示す名前と、当該従業員の挨拶が正しくないことを表す文章とを含むメッセージからなる音声を生成し、これをスピーカ60から外部に出力する。   In this case, the voice generation unit 100 indicates the employee name data such as “please say Mr. A again correctly” based on the employee name data supplied from the voice processing unit 80 and the fraud determination data. A voice including a message including a name and a sentence indicating that the employee greeting is not correct is generated and output from the speaker 60 to the outside.

また、上述したように、音声処理部80は、記憶部90に記憶されている音質データの中から、マイク70によって取得された音声データの音質データと対応する音質データの検索を試みる。その結果、音声処理部80は、記憶部90に記憶されている音質データの中から、マイク70によって取得された音声データの音質データと対応する音質データを検索することができなかった場合には、コミュニケーション装置10の前方に位置する人物は従業員ではないことを表す不登録判定データを生成し、これを音声生成部100に出力する。   Further, as described above, the sound processing unit 80 attempts to search sound quality data corresponding to the sound quality data of the sound data acquired by the microphone 70 from the sound quality data stored in the storage unit 90. As a result, when the sound processing unit 80 cannot retrieve sound quality data corresponding to the sound quality data of the sound data acquired by the microphone 70 from the sound quality data stored in the storage unit 90. Then, unregistration determination data indicating that the person located in front of the communication device 10 is not an employee is generated, and this is output to the voice generation unit 100.

この場合、音声生成部100は、不登録判定データが与えられると、例えば「社員登録されていません」など、コミュニケーション装置10の前方に位置する人物は従業員ではないことを表す文章を含むメッセージからなる音声を生成し、これをスピーカ60から外部に出力する。   In this case, when the non-registration determination data is given, the voice generation unit 100 includes a message including a sentence indicating that the person located in front of the communication device 10 is not an employee, such as “not registered as an employee”. Is generated and output from the speaker 60 to the outside.

なお、音声処理部80は、コミュニケーション装置10の前方に位置する人物が音声を発することなく、所定時間が経過したと判定した場合には、音声が発せられなかったことを表す無音判定データを生成し、これを音声生成部100に出力する。   Note that the speech processing unit 80 generates silence determination data indicating that no speech has been produced when it is determined that a predetermined time has passed without a person located in front of the communication device 10 producing speech. This is output to the sound generation unit 100.

音声処理部80は、無音判定データが与えられると、例えば「声を出して下さい」など、音声を発することを促すことを表す文章を含むメッセージからなる音声を生成し、これをスピーカ60から外部に出力する。   When the silence determination data is given, the voice processing unit 80 generates a voice composed of a message including a sentence that prompts the voice to be emitted, for example, “Please speak out”, and outputs the voice from the speaker 60 to the outside. Output to.

ここで図2に、本実施の形態によるコミュニケーション処理手順RT10を示す。この図2において、制御部40は、コミュニケーション装置10の動作状態が待機状態に設定され、コミュニケーション処理手順RT10に入ると、ステップSP10に移って、赤外線センサ20によって人物の検出を試みる。   FIG. 2 shows a communication processing procedure RT10 according to this embodiment. In FIG. 2, when the operation state of the communication device 10 is set to the standby state and the communication processing procedure RT10 is entered, the control unit 40 moves to step SP10 and tries to detect a person by the infrared sensor 20.

ステップSP10において、制御部40は、人物を検出したことが赤外線センサ20から通知されると、ステップSP20に移って、音声出力部50の動作を制御することにより、例えば「おはようございます」などの所定のメッセージからなる音声をスピーカ60から外部に出力する。なお、制御部40は、人物を検出したことが赤外線センサ20から通知されるまで待機する。   In step SP10, when the control unit 40 is notified from the infrared sensor 20 that a person has been detected, the control unit 40 moves to step SP20 and controls the operation of the audio output unit 50, for example, “Good morning”. A sound composed of a predetermined message is output from the speaker 60 to the outside. The control unit 40 stands by until the infrared sensor 20 notifies that a person has been detected.

ステップSP30において、音声処理部80は、マイク70によって音声が集音され、当該マイク70から音声データを取得することができたか否かを判定する。このステップSP30において肯定結果が得られると、このことはコミュニケーション装置10の前方に位置する人物が音声を発したことを表しており、このとき音声処理部80はステップSP40に移って、この取得された音声が、記憶部80に登録されている従業員の音声か否かを判定する。   In step SP30, the voice processing unit 80 determines whether or not voice is collected by the microphone 70 and voice data can be acquired from the microphone 70. If an affirmative result is obtained in step SP30, this indicates that a person located in front of the communication device 10 has made a sound. At this time, the sound processing unit 80 moves to step SP40 and acquires this. It is determined whether or not the voice is the voice of the employee registered in the storage unit 80.

このステップSP40において肯定結果が得られると、このことはコミュニケーション装置10の前方に位置し、音声を発した人物が従業員であることを表しており、このとき音声処理部80はステップSP50に移って、当該従業員が所定の音声を正確に発したか否かを判定する。その際、音声処理部80は、従業員の名前に関するデータである従業員名データを記憶部90から読み出し、これを音声生成部100に供給する。   If an affirmative result is obtained in this step SP40, this indicates that the person who is located in front of the communication device 10 and utters the voice is an employee. At this time, the voice processing unit 80 moves to step SP50. Then, it is determined whether or not the employee has made a predetermined voice accurately. At that time, the voice processing unit 80 reads out employee name data, which is data related to the employee's name, from the storage unit 90 and supplies this to the voice generation unit 100.

このステップSP50において肯定結果が得られると、このことは従業員が正しい挨拶をしたことを表しており、このとき音声処理部80はステップSP60に移って、従業員が発した音声の音量を判定し、その判定結果を音声生成部100に通知する。   If a positive result is obtained in step SP50, this indicates that the employee has given a correct greeting. At this time, the voice processing unit 80 moves to step SP60 and determines the volume of the voice uttered by the employee. Then, the determination result is notified to the voice generation unit 100.

ステップSP70において、音声生成部100は、従業員名データを参照しながら、従業員が発した音声の音量に応じたメッセージを生成し、これをスピーカ60から外部に出力した後、ステップSP10に戻って上述の動作を繰り返す。   In step SP70, the voice generation unit 100 generates a message according to the volume of the voice uttered by the employee while referring to the employee name data, outputs the message to the outside from the speaker 60, and then returns to step SP10. The above operation is repeated.

ところで、ステップSP30において否定結果が得られると、このことはコミュニケーション装置10の前方に位置する人物が音声を発しなかったことを表しており、このとき音声処理部80はステップSP80に移って、音声が発せられなかったことを音声生成部100に通知することにより、音声を発することを促す旨のメッセージを出力させた後、ステップSP10に戻って上述の動作を繰り返す。   By the way, if a negative result is obtained in step SP30, this means that the person located in front of the communication device 10 has not made a voice, and at this time, the voice processing unit 80 moves to step SP80, and the voice After notifying the voice generation unit 100 that the voice has not been issued, a message for prompting the voice is output, and then the process returns to step SP10 to repeat the above-described operation.

また、ステップSP40において否定結果が得られると、このことはコミュニケーション装置10の前方に位置し、音声を発した人物が従業員ではないことを表しており、このとき音声処理部80はステップSP90に移って、当該人物が従業員ではないことを音声処理部100に通知することにより、当該人物が登録されていない旨のメッセージを出力させた後、ステップSP10に戻って上述の動作を繰り返す。   If a negative result is obtained in step SP40, this means that the person who is located in front of the communication device 10 and has made a voice is not an employee. At this time, the voice processing unit 80 proceeds to step SP90. Then, by notifying the voice processing unit 100 that the person is not an employee, a message indicating that the person is not registered is output, and then the process returns to step SP10 to repeat the above operation.

また、ステップSP50において否定結果が得られると、このことは従業員が正しい挨拶をしなかったことを表しており、このとき音声処理部80はステップSP100に移って、正しい挨拶がされなかったことを音声処生成部100に通知することにより、正確な発声を促す旨のメッセージを出力させた後、ステップSP10に戻って上述の動作を繰り返す。   If a negative result is obtained in step SP50, this indicates that the employee did not give a correct greeting. At this time, the voice processing unit 80 moved to step SP100 and the correct greeting was not given. Is output to the voice processing generation unit 100 to output a message for prompting accurate utterance, and then the process returns to step SP10 to repeat the above-described operation.

このように本実施の形態によれば、コミュニケーション10の前方に位置するユーザが発した音声の音量に応じたメッセージを生成し、出力することにより、より簡易な構成でユーザが発した音声の音量に関する情報を当該ユーザに提供することができる。   As described above, according to the present embodiment, the volume of the voice uttered by the user with a simpler configuration can be generated by generating and outputting a message according to the volume of the voice uttered by the user located in front of the communication 10. Can be provided to the user.

なお、上述の実施の形態は一例であって、本発明を限定するものではない。例えば、従業員の音質データを予め登録する登録処理や、正しい挨拶がされたか否かを判定する判定処理を行う必要はなく、この場合、従業員が発した音声の音量に応じたメッセージのみを生成し出力すれば良い。   The above-described embodiment is an example and does not limit the present invention. For example, there is no need to perform registration processing for pre-registering employee sound quality data or determination processing for determining whether or not a correct greeting has been made. In this case, only a message corresponding to the volume of the voice uttered by the employee is used. Generate and output.

また、上述の実施の形態においては、検出手段として、赤外線センサ20を適用した場合について述べたが、本発明はこれに限らず、人物を検出するための他の種々の検出手段を適用するようにしても良い。   In the above-described embodiment, the case where the infrared sensor 20 is applied as the detection means has been described. However, the present invention is not limited to this, and other various detection means for detecting a person are applied. Anyway.

また、上述の実施の形態においては、音声出力手段として、音声出力部50を適用した場合について述べたが、本発明はこれに限らず、赤外線センサ20によって人物が検出されると、当該人物に対して所定のメッセージからなる音声をスピーカ60から出力する他の種々の音声出力手段を適用するようにしても良い。   In the above-described embodiment, the case where the audio output unit 50 is applied as the audio output unit has been described. However, the present invention is not limited to this, and when a person is detected by the infrared sensor 20, On the other hand, various other sound output means for outputting sound composed of a predetermined message from the speaker 60 may be applied.

また、上述の実施の形態においては、音量判定手段として、音声処理部80を適用した場合について述べたが、本発明はこれに限らず、人物から発せられた音声をマイク70によって集音することにより得られた音声データが与えられると、当該音声データの音量を判定する他の種々の音量判定手段を適用するようにしても良い。   In the above-described embodiment, the case where the sound processing unit 80 is applied as the sound volume determination unit has been described. However, the present invention is not limited to this, and the sound emitted from a person is collected by the microphone 70. When the sound data obtained by the above is given, various other sound volume determination means for determining the sound volume of the sound data may be applied.

また、上述の実施の形態においては、音声生成手段として、音声生成部100を適用した場合について述べたが、本発明はこれに限らず、音声処理部80から出力された判定結果に基づいて、音声データの音量に応じたメッセージからなる音声を生成し、これをスピーカ60から出力する他の種々の音声生成手段を適用するようにしても良い。   In the above-described embodiment, the case where the sound generation unit 100 is applied as the sound generation unit has been described. However, the present invention is not limited to this, and based on the determination result output from the sound processing unit 80, Other various sound generation means for generating a sound composed of a message corresponding to the volume of the sound data and outputting the sound from the speaker 60 may be applied.

また、上述の実施の形態においては、記憶手段として、記憶部90を適用した場合について述べたが、本発明はこれに限らず、各人物の音声の特徴を表す音質データを、当該人物の名前を表す人物名データと対応付けてそれぞれ記憶する他の種々の記憶手段を適用するようにしても良い。   In the above-described embodiment, the case where the storage unit 90 is applied as the storage unit has been described. However, the present invention is not limited to this, and the sound quality data representing the voice characteristics of each person is used as the name of the person. Various other storage means may be applied to store each of them in association with the person name data representing.

また、上述の実施の形態においては、音声解析手段として、音声処理部80を適用する場合について述べたが、本発明はこれ限らず、音声データがマイク70から与えられると、当該音声データを解析することにより、当該音声データの音質データを生成し、当該音質データが記憶部90に記憶されている場合には、当該音質データと対応付けて記憶されている人物名データを読み出す他の種々の音声解析手段を適用するようにしても良い。   In the above-described embodiment, the case where the sound processing unit 80 is applied as the sound analysis means has been described. However, the present invention is not limited thereto, and the sound data is analyzed when the sound data is supplied from the microphone 70. Thus, sound quality data of the sound data is generated, and when the sound quality data is stored in the storage unit 90, other various kinds of personal name data stored in association with the sound quality data are read out. A voice analysis means may be applied.

この場合、音声生成部100は、人物名データと、音声処理部80から出力された判定結果とに基づいて、人物名データが表す人物名を含むようにして、音声データの音量に応じたメッセージからなる音声を生成し、これをスピーカ60から出力すれば良い。   In this case, the voice generation unit 100 includes a message corresponding to the volume of the voice data so as to include the person name represented by the person name data based on the person name data and the determination result output from the voice processing unit 80. Sound may be generated and output from the speaker 60.

また、上述の実施の形態においては、音声認識手段として、音声処理部80を適用した場合について述べたが、本発明はこれに限らず、音声データがマイク70から与えられると、当該音声データを認識することにより、当該音声データが所定のメッセージと一致するか否かを判定し、一致する場合には、音声処理部80に当該音声データの音量の判定を行わせる他の種々の音声認識手段を適用するようにしても良い。   In the above-described embodiment, the case where the sound processing unit 80 is applied as the sound recognition means has been described. However, the present invention is not limited to this, and when sound data is supplied from the microphone 70, the sound data is converted into the sound data. By recognizing, it is determined whether or not the voice data matches a predetermined message. If they match, other various voice recognition means for causing the voice processing unit 80 to determine the volume of the voice data. May be applied.

10 コミュニケーション装置
20 赤外線センサ
30 入力部
40 制御部
50 音声出力部
60 スピーカ
70 マイク
80 音声処理部
90 記憶部
100 音声生成部
DESCRIPTION OF SYMBOLS 10 Communication apparatus 20 Infrared sensor 30 Input part 40 Control part 50 Audio | voice output part 60 Speaker 70 Microphone 80 Audio | voice processing part 90 Memory | storage part 100 Voice generation part

Claims (3)

人物を検出するための検出手段と、
前記検出手段によって人物が検出されると、当該人物に対して所定のメッセージからなる音声をスピーカから出力する音声出力手段と、
人物から発せられた音声をマイクによって集音することにより得られた音声データが与えられると、前記音声データの音量を判定する音量判定手段と、
前記音量判定手段から出力された判定結果に基づいて、前記音声データの音量に応じたメッセージからなる音声を生成し、これを前記スピーカから出力する音声生成手段と
を備えることを特徴とするコミュニケーション装置。
Detection means for detecting a person;
When a person is detected by the detection means, a sound output means for outputting sound composed of a predetermined message to the person from a speaker;
Volume determination means for determining a volume of the audio data when audio data obtained by collecting audio emitted from a person with a microphone is given;
A communication apparatus comprising: a voice generation unit configured to generate a voice composed of a message corresponding to a volume of the voice data based on the determination result output from the volume determination unit and to output the voice from the speaker. .
各人物の音声の特徴を表す音質データを、当該人物の名前を表す人物名データと対応付けてそれぞれ記憶する記憶手段と、
前記音声データが前記マイクから与えられると、前記音声データを解析することにより、前記音声データの前記音質データを生成し、前記音質データが前記記憶手段に記憶されている場合には、前記音質データと対応付けて記憶されている前記人物名データを読み出す音声解析手段とをさらに備え、
前記音声生成手段は、
前記人物名データと、前記音量判定手段から出力された判定結果とに基づいて、前記人物名データが表す人物名を含むようにして、前記音声データの音量に応じたメッセージからなる音声を生成し、これを前記スピーカから出力する
ことを特徴とする請求項1に記載のコミュニケーション装置。
Storage means for storing sound quality data representing the voice characteristics of each person in association with person name data representing the name of the person;
When the sound data is given from the microphone, the sound quality data of the sound data is generated by analyzing the sound data, and when the sound quality data is stored in the storage means, the sound quality data Voice analysis means for reading out the person name data stored in association with
The voice generation means includes
Based on the person name data and the determination result output from the sound volume determination means, a sound consisting of a message corresponding to the sound volume of the sound data is generated so as to include the person name represented by the person name data, The communication apparatus according to claim 1, wherein: is output from the speaker.
前記音声データが前記マイクから与えられると、前記音声データを認識することにより、前記音声データが所定のメッセージと一致するか否かを判定し、一致する場合には、前記音量判定手段に前記音声データの音量の判定を行わせる音声認識手段
をさらに備えることを特徴とする請求項1に記載のコミュニケーション装置。


When the audio data is given from the microphone, the audio data is recognized to determine whether or not the audio data matches a predetermined message. The communication apparatus according to claim 1, further comprising voice recognition means for determining the volume of the data.


JP2010087337A 2010-04-05 2010-04-05 Communication device Pending JP2011221101A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010087337A JP2011221101A (en) 2010-04-05 2010-04-05 Communication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010087337A JP2011221101A (en) 2010-04-05 2010-04-05 Communication device

Publications (1)

Publication Number Publication Date
JP2011221101A true JP2011221101A (en) 2011-11-04

Family

ID=45038193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010087337A Pending JP2011221101A (en) 2010-04-05 2010-04-05 Communication device

Country Status (1)

Country Link
JP (1) JP2011221101A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104376627A (en) * 2014-12-01 2015-02-25 江西洪都航空工业集团有限责任公司 Intelligent ushering system
JP2017176728A (en) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント Simulation system and program
WO2020125252A1 (en) * 2018-12-20 2020-06-25 达闼科技(北京)有限公司 Robot conversation switching method and apparatus, and computing device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6146521A (en) * 1984-08-13 1986-03-06 Hitachi Ltd Conversational type speech input and output device
JPH07234694A (en) * 1994-02-21 1995-09-05 N T T Data Tsushin Kk Automatic reception device
JP2001343996A (en) * 2000-06-01 2001-12-14 Mitsubishi Electric Corp Voice input control system
JP2004286805A (en) * 2003-03-19 2004-10-14 Sony Corp Method, apparatus, and program for identifying speaker
JP2009037050A (en) * 2007-08-02 2009-02-19 Toyota Motor Corp Interaction device and program for interaction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6146521A (en) * 1984-08-13 1986-03-06 Hitachi Ltd Conversational type speech input and output device
JPH07234694A (en) * 1994-02-21 1995-09-05 N T T Data Tsushin Kk Automatic reception device
JP2001343996A (en) * 2000-06-01 2001-12-14 Mitsubishi Electric Corp Voice input control system
JP2004286805A (en) * 2003-03-19 2004-10-14 Sony Corp Method, apparatus, and program for identifying speaker
JP2009037050A (en) * 2007-08-02 2009-02-19 Toyota Motor Corp Interaction device and program for interaction

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104376627A (en) * 2014-12-01 2015-02-25 江西洪都航空工业集团有限责任公司 Intelligent ushering system
CN104376627B (en) * 2014-12-01 2017-01-18 江西洪都航空工业集团有限责任公司 Intelligent ushering system
JP2017176728A (en) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント Simulation system and program
WO2020125252A1 (en) * 2018-12-20 2020-06-25 达闼科技(北京)有限公司 Robot conversation switching method and apparatus, and computing device

Similar Documents

Publication Publication Date Title
US11823679B2 (en) Method and system of audio false keyphrase rejection using speaker recognition
US9354687B2 (en) Methods and apparatus for unsupervised wakeup with time-correlated acoustic events
JP5124573B2 (en) Detect answering machine using voice recognition
Alonso-Martín et al. Integration of a voice recognition system in a social robot
JP6654611B2 (en) Growth type dialogue device
US9335966B2 (en) Methods and apparatus for unsupervised wakeup
US20140337024A1 (en) Method and system for speech command detection, and information processing system
US20120290297A1 (en) Speaker Liveness Detection
JP2004101901A (en) Speech interaction system and speech interaction program
CN111656440A (en) Speaker identification
CN113330511A (en) Voice recognition method, voice recognition device, storage medium and electronic equipment
JP2019197182A (en) Voice interaction system, voice interaction method and program
JP6239826B2 (en) Speaker recognition device, speaker recognition method, and speaker recognition program
JP2011221101A (en) Communication device
EP3195314B1 (en) Methods and apparatus for unsupervised wakeup
CN109271480B (en) Voice question searching method and electronic equipment
US10963548B2 (en) Information acquisition device, information acquisition system, and information acquisition method
JPWO2007111169A1 (en) Speaker model registration apparatus and method in speaker recognition system, and computer program
KR20110079161A (en) Method and apparatus for verifying speaker in mobile terminal
JP2017116876A (en) Speaker recognition device, discrimination value generation method, and program
JP2019132997A (en) Voice processing device, method and program
JP6571587B2 (en) Voice input device, method thereof, and program
CN113241059A (en) Voice wake-up method, device, equipment and storage medium
JPWO2017085815A1 (en) Puzzled state judging device, puzzled state judging method, and program
WO2007111197A1 (en) Speaker model registration device and method in speaker recognition system and computer program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120312