JP5332602B2 - Service providing equipment - Google Patents
Service providing equipment Download PDFInfo
- Publication number
- JP5332602B2 JP5332602B2 JP2008333609A JP2008333609A JP5332602B2 JP 5332602 B2 JP5332602 B2 JP 5332602B2 JP 2008333609 A JP2008333609 A JP 2008333609A JP 2008333609 A JP2008333609 A JP 2008333609A JP 5332602 B2 JP5332602 B2 JP 5332602B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- voice
- sound
- robot
- identification information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004891 communication Methods 0.000 claims description 27
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims 3
- 238000000034 method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical group [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
この発明は、音声により情報を送受信する移動型のサービス提供装置に関する。 The present invention relates to a mobile service providing apparatus that transmits and receives information by voice.
近時、人間に対して様々なサービスを提供する二足歩行型のロボットが開発されている。この二足歩行型のロボットは、サーバと無線により情報を送受信する(非特許文献1及び非特許文献2参照。)。
Recently, a bipedal robot that provides various services to humans has been developed. This biped robot transmits and receives information wirelessly with a server (see Non-Patent
また、人間と音声会話して、その会話の内容に応じたサービスを提供する対話ロボットに関する発明が開示されている(特許文献1参照。)。この発明では、所定の通信プロトコルにより情報を送受信することでロボット同士が連携して、人間にサービスを提供する。 In addition, an invention related to an interactive robot that performs a voice conversation with a human and provides a service according to the content of the conversation is disclosed (see Patent Document 1). In the present invention, robots cooperate with each other by transmitting and receiving information using a predetermined communication protocol to provide services to humans.
また、ロボットが発する音声に識別子や指示情報を重畳し、音声会話でロボット間での情報通信を行う発明が開示されている(特許文献2参照)。
上記のように、非特許文献1及び非特許文献2に記載のロボットや特許文献1に記載のロボットは、サーバや他のロボットと音声会話をせずに、通信によって情報を送受信する。そのため、サービスの提供を受ける人間は、ロボット間でどのような情報をやりとりしているのかを把握できず、不安になってしまうという問題があった。
As described above, the robots described in
また、複数のロボットが全て同じ型式で、合成音声の声色が同じであると、各ロボットが発した合成音声を互いに区別できないため、どのロボットが発声したかを把握できず、結果としてコミュニケーションに支障を来すという問題があった。 Also, if multiple robots are all of the same model and the voices of the synthesized speech are the same, the synthesized speech produced by each robot cannot be distinguished from each other, so it is impossible to grasp which robot uttered, resulting in a hindrance to communication. There was a problem of coming.
さらに、特許文献2のように複数のロボット間で、音声のみで情報を送受信すると、無線等の通信により情報を送受信する場合と比較して情報量が少ないので、ロボット間で必要な全ての情報を受け渡しすることができないことがあるという問題があった。 Further, when information is transmitted and received between only a plurality of robots as in Patent Document 2, the amount of information is small compared to the case where information is transmitted and received by wireless communication or the like. There was a problem that it could not be delivered.
そこで、本発明は、複数の装置間で送受信する情報の内容がサービスの提供を受ける人間にも把握でき、それぞれ同じ声色であっても識別が可能で、必要な情報を全て送受信できるサービス提供装置を提供することを目的とする。 Accordingly, the present invention provides a service providing apparatus that can understand the content of information to be transmitted / received between a plurality of apparatuses even for a person receiving service provision, can identify even the same voice, and can transmit / receive all necessary information. The purpose is to provide.
この発明のサービス提供装置は、他の装置に対して放音手段で音声を放音した際に、収音手段で他の装置の識別情報を含む音声を収音した場合には、その識別情報に対応する他の装置と、放音手段及び収音手段で所定の情報を送受信するとともに、通信手段で補助情報を送受信する。 When the service providing apparatus according to the present invention picks up the sound including the identification information of the other apparatus by the sound collecting means when the sound is emitted to the other apparatus by the sound emitting means, the identification information Predetermined information is transmitted / received to / from other devices corresponding to the above by means of sound emission means and sound collection means, and auxiliary information is transmitted / received by communication means.
これにより、サービスの提供を受ける人間にも情報の内容が把握でき、それぞれ同じ声色であっても、どの装置が発した音声かを識別できる。また、音声だけでは全ての情報を送受信できない場合でも、必要な情報を全て送受信できる。 As a result, the person who receives the service can grasp the contents of the information, and can identify which device has the voice even if the voices are the same. Further, even when not all information can be transmitted / received by voice alone, all necessary information can be transmitted / received.
また、この発明のサービス提供装置は、方向検出手段が検出した音声の到来方向に放音手段を向ける。これにより、サービス提供装置は、発話者の方を向いて放音することができるので、人間が会話する際と同様の動作となり、ユーザに違和感を抱かせることがない。 The service providing apparatus of the present invention directs the sound emitting means in the direction of arrival of the sound detected by the direction detecting means. As a result, the service providing apparatus can emit the sound toward the speaker, so that the operation is the same as when a person has a conversation, and the user does not feel uncomfortable.
また、この発明のサービス提供装置は、音声合成のための見本信号の一部を疑似雑音信号として、当該疑似雑音信号の極性を制御することにより情報を重畳する。これにより、人に聴感上違和感を与えることなく個体の識別情報を送受信することができる。 In addition, the service providing apparatus according to the present invention superimposes information by controlling a polarity of the pseudo noise signal by using a part of a sample signal for speech synthesis as a pseudo noise signal. Thereby, identification information of an individual can be transmitted and received without giving a sense of incongruity to a person.
この発明によれば、複数のサービス提供装置間で、個体の識別情報が重畳された音声を用いて情報を送受信するので、サービスの提供を受ける人間にも情報の内容が把握でき、それぞれ同じ声色であってもどの装置が発した音声かを識別できる。また、抽出手段が他の装置の音声から識別情報を抽出すると、他の装置と音声で情報を送受信するとともに、通信手段でその装置と情報を送受信するので、音声だけでは全ての情報を送受信できない場合でも、必要な情報を全て送受信できる。 According to the present invention, since information is transmitted and received between a plurality of service providing apparatuses using voice on which individual identification information is superimposed, the content of the information can be grasped by the person receiving the service, and the same voice Even so, it is possible to identify which device is uttered. In addition, when the extraction unit extracts identification information from the voice of another device, information is transmitted / received to / from the other device, and information is transmitted / received to / from the device by the communication unit. Even in this case, all necessary information can be transmitted and received.
以下、本発明のサービス提供装置を含むサービス提供システムについて説明する。以下の説明では、サービス提供装置の一例であるロボットを例に挙げて説明する。図1は、サービス提供システムのブロック図である。 Hereinafter, a service providing system including the service providing apparatus of the present invention will be described. In the following description, a robot that is an example of a service providing apparatus will be described as an example. FIG. 1 is a block diagram of a service providing system.
なお、本実施形態においては、A/D変換器、D/A変換器を省略し、特に記載がない場合、全てデジタル処理であるとして説明する。 In the present embodiment, the A / D converter and the D / A converter are omitted, and unless otherwise specified, all digital processing will be described.
図1に示すように、サービス提供システム1は、一例として、ロボット2〜ロボット4を備えた構成である。ロボット2〜ロボット4は、サービスを提供する対象のユーザ5と音声により会話をし、その会話の内容に応じて様々なサービスを提供する。ロボット2〜ロボット4はそれぞれ同じ構成であるので、以下ではその代表としてロボット2の構成を説明する。なお、ロボット3はロボット2が発した音声の届く範囲に存在し、ロボット4はロボット2が発した音声が届かない壁6の反対側に存在するものとする。
As shown in FIG. 1, the
ロボット2は、センサ部11、会話エンジン12、発話部13、記憶部14、受話部15、通信部16、動作部17、及び制御部18を備えている。
The robot 2 includes a sensor unit 11, a
ロボット2では、制御部18が、センサ部11で検出した人間の動きや、受話部15及び会話エンジン12で認識した音声情報の内容等に応じた音声を出力するように、会話エンジン12に制御信号を出力する。
In the robot 2, the
会話エンジン12は、制御部18からの制御信号に応じて作成した発話文章(テキスト情報)を発話部13に出力する。
The
発話部13は、会話エンジン12から入力されたテキスト情報に基づいて音声を合成し、記憶部14から読み出した個体ID(個体の識別情報)を合成音声に重畳して、不図示のスピーカにより外部へ放音する。なお、個体IDを合成音声に重畳する際には、聴感上違和感を与えないように処理してから重畳すると良い。例えば、個体IDを音響透かし化して重畳する(例えば超音波帯域に重畳する)と良い。
The
また、発話部13は、制御部18から入力される所定の情報を合成音声に重畳して、スピーカにより外部へ放音する。
Further, the
記憶部14は、個体IDや他のロボット3,ロボット4の情報等を記憶している。
The
ロボット2では、他のロボット3,ロボット4(他の装置)やユーザ5(サービスを提供する対象である人間)が発した音声を受話部15の不図示のマイクで収音して、音声認識を行い、その結果を会話エンジン12に出力する。また、受話部15は、音声信号に重畳された個体IDの抽出・解読を行い、個体IDを抽出できた場合には、その個体IDがどのロボットのものか解読した結果を制御部18に出力する。また、受話部15は、個体IDを抽出できなかった場合には、その旨を制御部18に出力する。なお、ロボット2には、音声の到来方向を検出するために、複数のマイク(少なくとも2つ)のマイクが設けられている。
In the robot 2, voices uttered by other robots 3, 4 (other devices) and users 5 (human beings who provide services) are picked up by a microphone (not shown) of the
会話エンジン12は、入力された内容を解析して、解析結果を制御部18に出力する。
The
制御部18は、会話エンジン12による解析結果に応じた処理を行う。また、音声信号に重畳されている所定の情報に応じた処理、通信部16を介して受信した情報に応じた処理を行う。例えば、ユーザ5から「リビングに移動」と音声が発せられた場合、会話エンジン12で解析を行い、リビングに移動する処理を行う。また、他の装置(例えばロボット3)から「リビングに移動」と音声が発せられた場合、この音声に重畳されている移動指示の情報に基づいて、リビングに移動する処理を行う。このとき、通信部16を介して他の装置とステータス情報(電池残量や、存在位置)を補助情報として送受信する。
The
すなわち、制御部18は、他のロボットに対して呼びかける内容の音声を放音した際に、他のロボットの識別情報を含む音声を収音した場合、すなわち、音声信号から個体IDを抽出できた場合には、そのIDに対応するロボット(ロボット3)と、会話エンジン12の解析結果に対応する内容の音声を会話エンジン12に出力させて、情報の送受信(会話)を行うとともに、通信部16で情報の送受信を行う。または、制御部18は、会話エンジン12の解析結果に応じて、動作部17を制御して所定の動作を行う。
That is, the
また、制御部18は、他のロボットに対して呼びかける内容の音声を放音した際に、他のロボットの識別情報を含む音声を収音しない場合(ロボット3も壁6の反対側に移動した場合)、すなわち、音声信号から個体IDを抽出できない場合には、音声が届く範囲に他のロボットがいないと判断して、他のロボット(ロボット3及びロボット4)と通信部16で情報の送受信を行う。なお、通信部16の通信方式は、無線であっても有線であってもよい。
In addition, when the
また、制御部18は、呼びかけの音声を放音せずに他のロボットの識別情報を含まない音声を収音した場合には、この音声はユーザ5のものと判断して、会話エンジン12の解析結果に対応する内容の音声を会話エンジン12に出力させて、ユーザ5と会話を行ったり、動作部17を制御して所定の動作を行ったりする。
Further, when the
また、前記のように受話部15には複数のマイクが設けられているので、制御部18は、音声を収音した際に、音声の到来方向(ロボット3またはユーザ5が発話している方向)を検出することができる。すなわち、制御部22は、複数のマイクが収音した音声信号のゲインを比較することで、音声の到来方向を検出できる。制御部22は、音声の到来方向を検出すると、動作部17を制御して、発話部13のスピーカ(ロボット2の口に相当)を音声の到来方向に向ける。これにより、ロボット2は、発話者の方を向いて放音することができるので、人間が会話する際と同様の動作となり、ユーザに違和感を抱かせることがない。
In addition, since the
次に、発話部12と受話部15の詳細について説明する。図2(A)は、発話部の詳細を示すブロック図である。図2(B)は、受話部の詳細を示すブロック図である。
Next, details of the
発話部12は、疑似ノイズ生成部21、極性制御部22、音声合成部23、アンプ24、及びスピーカ25を備えている。
The
疑似ノイズ生成部21は、M系列またはGold系列のような自己相関性の高い疑似雑音符号列(PN符号、疑似雑音信号の波形)を生成する。
The pseudo
極性制御部22は、疑似ノイズ生成部21が生成する疑似雑音符号列の極性を、記憶部14から読み出した個体IDに応じて制御することで、疑似ノイズに個体IDを重畳する。すなわち、記憶部14から読み出した個体IDのビットデータが「1」の場合、疑似ノイズ生成部21はPN符号をそのままの極性で出力し、個体IDのビットデータが「0」の場合、疑似ノイズ生成部21はPN符号の極性を逆(逆位相)にして出力する。
The
受信側では、算出された相関値の位相を検出することにより、重畳されているビットデータ(個体ID)の「1」、「0」を復調することができる。 On the receiving side, by detecting the phase of the calculated correlation value, “1” and “0” of the superimposed bit data (individual ID) can be demodulated.
音声合成部23は、会話エンジン12が出力した発話文章に応じて、疑似ノイズ生成部21が出力した疑似ノイズおよび他の波形(他の波形生成部は不図示)から音声を合成する。
The
音声合成部23が合成した音声信号は、アンプ24により増幅され音声として放音される。放音された音声は、他のロボットのマイク31により収音され、図2(B)に示す受話部15に入力される。
The voice signal synthesized by the
図2(B)に示すように、受話部15は、マイク31、音声認識部32、整合フィルタ33、及び復調部34を備えている。
As shown in FIG. 2B, the
音声認識部32は、マイク31が収音した音声を認識して、テキスト情報を会話エンジン12に出力する。
The
整合フィルタ33は、入力された音声信号と疑似ノイズとの相関を求める相関計算部である。整合フィルタ33は、FIRフィルタにより実現され、フィルタ係数として、送信側の疑似ノイズ生成部21が生成する擬似雑音符号列(PN符号)が設定されている。PN符号は非常に高い自己相関性を有するため、整合フィルタ33は、入力された音声にPN符号が含まれている場合、相関値ピーク(所定レベル以上の相関値)を出力する。整合フィルタ33は、位相が正転であれば正の相関値ピークを出力し、位相が反転していれば負の相関値ピークを出力する。
The matched
復調部34では、整合フィルタ33の出力値からデータ復調を行う。すなわち、復調部34は、整合フィルタ33から正の相関値ピークが入力された場合、ビットデータとして「1」を復調し、整合フィルタ33から負の相関値ピークが入力された場合、ビットデータとして「0」を復調する。なお、疑似雑音の出力周期は予め決められており、復調部34は、相関値ピークが入力された場合、その後、疑似雑音の出力周期の長さだけビット出力を続ける。例えば、疑似雑音の周期が1023サンプルであれば、正の相関値ピークが入力された場合、「1」を1023サンプル連続して出力する。
The
このようにして復調部34で疑似ノイズに重畳された個体IDや他の情報が復調される。上記疑似ノイズは、周波数特性上はホワイトノイズ等のノイズ音そのものであり、通常のノイズ音と聴感上全く等価とすることが可能である。
In this way, the
次に、ロボットの動作について、フローチャートに基づいて説明する。図3は、ロボットの動作を説明するためのフローチャートである。 Next, the operation of the robot will be described based on a flowchart. FIG. 3 is a flowchart for explaining the operation of the robot.
ロボット2は、マイク31で音声を収音した場合には(s1:Y)、受話部15で音声認識と個体IDの有無確認及び解読を行う(s2)。ロボット2は、音声に個体IDが含まれていない場合には(s3:N)、ユーザ5からの呼びかけと判断し、音声認識の結果(ユーザ5の依頼内容)を確認する(s4)。ロボット2は、ユーザ5の依頼内容が複数のロボットにより共同で作業する必要がある場合や別のロボットに依頼内容を伝える必要がある場合など、他のロボットに情報を伝える必要があるときには(s5:Y)、周囲のロボットに対して音声で呼びかけを行う(s6)。一方、ロボット2は、ユーザ5の依頼内容が、他のロボットに情報を伝える必要が無いものの場合には(s5:N)、その内容に応じた会話や動作を行う(s7)。会話や動作が終了すると、ステップs1の処理に戻る。
When the robot 2 picks up the sound with the microphone 31 (s1: Y), the receiving
ロボット2は、マイク31で音声を収音した場合には(s1:Y)、受話部15で音声認識と個体IDの有無確認及び解読を行う(s2)。そして、ロボット2は、音声に個体IDが含まれている場合には(s3:Y)、他のロボットからの反応と判断し、音声と通信により情報を送受信したり、情報に応じた動作を行ったりする(s8)。会話や動作が終了すると、ステップs1の処理に戻る。
When the robot 2 picks up the sound with the microphone 31 (s1: Y), the receiving
一方、ロボット2は、音声を収音するまで一定時間待機し(s1:N)、一定時間が経過してもマイク31で音声を収音しない場合には(s1:N、s9:Y)、音声の届く範囲に他のロボットはいないと判断して、他のロボットの通信により情報を送受信する(s10)。情報の送受信が終了すると、ステップs1の処理に戻る。
On the other hand, the robot 2 waits for a certain time until the sound is picked up (s1: N). If the sound is not picked up by the
上記のように、本発明のロボットは、他のロボットに情報を伝達する必要がある場合には、音声で呼びかけを行い、他のロボットから音声により反応があると、音声で情報を送受信する。そのため、ロボット同士が会話するので、ロボットの周囲の人(ユーザ)は、ロボット間で何の情報をやりとりしているかがわかるので、違和感や不安を抱かずに済む。 As described above, when it is necessary to transmit information to other robots, the robot of the present invention makes a call by voice, and when there is a response from other robots, sends and receives information by voice. Therefore, since the robots have a conversation with each other, people (users) around the robot can know what information is being exchanged between the robots, so that it is possible to avoid discomfort and anxiety.
また、ロボット同士が音声で情報を送受信するとともに、通信により情報を送受信することができるので、音声だけでは必要な情報を伝達できない場合でも、通信により確実に情報を伝達できる。また、音声で伝達する情報と同じ情報を通信でも伝達することで、二重に情報を伝達することになるので、音声認識を誤った場合でも、ロボットが誤動作することなく情報に基づく動作を確実に行わせることができる。例えば、ユーザからロボット2に「リビングに移動」と音声が発せられた場合、自身の電池残量が少なく、他のロボット3に代替してもらう必要がある場合、ロボット2はロボット3に呼びかけを行うとともに、通信部16を介してステータス情報(補助情報)の送受信を行う。その結果、電池残量が多いロボット3がリビングに移動する処理を行う。ここで、他のロボット3の電池残量がロボット2より少ない場合、当該他のロボット3が「代わりに移動してください」等と発音し、ロボット2がリビングに移動する処理を行う。
In addition, since the robots can transmit and receive information by voice and can transmit and receive information by communication, even when necessary information cannot be transmitted by voice alone, the information can be reliably transmitted by communication. In addition, by transmitting the same information as the information to be transmitted by voice, the information is transmitted twice, so even if the voice recognition is wrong, the robot can reliably operate based on the information without malfunctioning. Can be done. For example, when the user sends a voice “moving to living room” to the robot 2, the robot 2 calls the robot 3 when the remaining battery level is low and another robot 3 needs to be replaced. In addition, status information (auxiliary information) is transmitted and received via the
なお、上記の説明では、あるロボットが、音声を収音し、その音声からIDを検出することで発声したロボットを認識した後に、ロボット間で通信でも情報を送受信するものとしたが他の方法であっても良い。例えば、ロボット間で通信が可能なことを確認しておき、情報の伝達が必要になった場合には、音声を発声して、周囲のロボットに呼びかけを行い、音声による反応があり個体IDが検出できたら、音声と通信により情報を送受信する。また、音声による反応が無い場合には、音声の届く範囲に他のロボットはいないものと判断して、他のロボットと通信で情報を送受信する。この方式でも、周囲の人(ユーザ)は、ロボット間で何の情報をやりとりしているかがわかるので、違和感や不安を抱かずに済む。 In the above description, a robot picks up a voice and recognizes a robot uttered by detecting an ID from the voice, and then transmits / receives information by communication between the robots. It may be. For example, after confirming that communication is possible between robots, if it is necessary to transmit information, a voice is uttered and a call is made to surrounding robots. If detected, information is transmitted and received by voice and communication. If there is no response by voice, it is determined that there is no other robot within the reach of the voice, and information is transmitted / received to / from another robot. Even in this method, the surrounding people (users) can understand what information is being exchanged between the robots, so that it is not necessary to feel uncomfortable or uneasy.
なお、サービス提供システム1は、3つのサービス提供装置に限るものではなく、さらに複数のロボット(サービス提供装置)により構成されていても良い。
The
なお、サービス提供装置の一例としてロボットについて説明したが、本発明はこれにかぎるものではなく、音声合成と音声認識を行ってコミュニケーションをとるタイプの情報処理装置であれば、広く適用できる。 Although the robot has been described as an example of the service providing apparatus, the present invention is not limited to this, and the present invention can be widely applied to any information processing apparatus that performs communication by performing speech synthesis and speech recognition.
1…サービス提供システム 2〜4…ロボット 1 ... Service provision system 2-4 ... Robot
Claims (4)
音声を合成する音声合成手段と、
個体の識別情報を記憶する記憶手段と、
前記音声合成手段が合成する音声に前記識別情報を重畳する識別情報重畳手段と、
前記識別情報が重畳された音声を放音する放音手段と、
音声を収音する収音手段と、
前記収音手段が収音した音声から他の装置の識別情報を抽出する抽出手段と、
他の装置と接続して情報通信を行う通信手段と、
前記抽出手段で他の装置の識別情報を抽出した場合に、前記音声合成手段が合成する音声に所定の情報を重畳することで他の装置と所定の情報を送信するとともに、抽出した識別情報に対応する他の装置と前記通信手段を介して接続し、前記所定の情報を補助する補助情報を送信する制御手段と、
を備えたサービス提供装置。 A service providing device that transmits and receives information between a plurality of devices that perform communication by performing speech synthesis and speech recognition ,
Speech synthesis means for synthesizing speech;
Storage means for storing individual identification information;
Identification information superimposing means for superimposing the identification information on the voice synthesized by the voice synthesizing means;
A sound emitting means for emitting a sound on which the identification information is superimposed;
Sound collection means for collecting sound;
Extraction means for extracting identification information of another device from the sound collected by the sound collection means;
A communication means for performing information communication by connecting to another device;
When the identification information of another device is extracted by the extraction unit, the predetermined information is transmitted to the other device by superimposing the predetermined information on the voice synthesized by the voice synthesis unit, and the extracted identification information is added to the extracted identification information. connected via said communication means with corresponding other apparatuses, and control means for transmitting the auxiliary information to assist the predetermined information,
A service providing apparatus comprising:
前記方向検出手段が検出した音声の到来方向に、前記放音手段を向ける動作手段と、を備えた請求項1または請求項2に記載のサービス提供装置。 Direction detecting means for detecting the direction of arrival of the sound collected by the sound collecting means;
The service providing apparatus according to claim 1, further comprising: an operation unit that directs the sound emitting unit toward an arrival direction of the sound detected by the direction detecting unit.
前記識別情報重畳手段は、前記見本信号の一部を疑似雑音信号として、当該疑似雑音信号の極性を制御することにより情報を重畳する請求項1乃至請求項3のいずれかに記載のサービス提供装置。 The speech synthesis means is a means for synthesizing speech from a plurality of sample signals,
The identification information superimposition means, a portion of the sample signal as a pseudo-noise signal, the service providing apparatus according to any one of claims 1 to 3 superimposes the information by controlling the polarity of the pseudo noise signal .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008333609A JP5332602B2 (en) | 2008-12-26 | 2008-12-26 | Service providing equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008333609A JP5332602B2 (en) | 2008-12-26 | 2008-12-26 | Service providing equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010156741A JP2010156741A (en) | 2010-07-15 |
JP5332602B2 true JP5332602B2 (en) | 2013-11-06 |
Family
ID=42574727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008333609A Expired - Fee Related JP5332602B2 (en) | 2008-12-26 | 2008-12-26 | Service providing equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5332602B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11600270B2 (en) | 2017-09-15 | 2023-03-07 | Saturn Licensing Llc | Information processing apparatus and information processing method |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2565667A1 (en) * | 2011-08-31 | 2013-03-06 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Direction of arrival estimation using watermarked audio signals and microphone arrays |
JP6583765B2 (en) * | 2015-01-16 | 2019-10-02 | 国立大学法人大阪大学 | Agent dialogue system and program |
JP6617442B2 (en) * | 2015-06-19 | 2019-12-11 | Re&Do株式会社 | Service provision system |
EP3418912B1 (en) * | 2016-06-13 | 2022-08-03 | Nec Corporation | Response device, response system, response method, and recording medium |
JP6520878B2 (en) * | 2016-09-21 | 2019-05-29 | トヨタ自動車株式会社 | Voice acquisition system and voice acquisition method |
CN109891501A (en) * | 2016-11-08 | 2019-06-14 | 夏普株式会社 | Voice adjusts the control method of device, control program, electronic equipment and voice adjustment device |
JP7130201B2 (en) * | 2018-01-18 | 2022-09-05 | 株式会社ユピテル | Equipment and programs, etc. |
JP7196426B2 (en) * | 2018-05-30 | 2022-12-27 | ヤマハ株式会社 | Information processing method and information processing system |
JP7073227B2 (en) * | 2018-08-20 | 2022-05-23 | ヤフー株式会社 | Providing equipment, providing method and providing program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000207170A (en) * | 1999-01-14 | 2000-07-28 | Sony Corp | Device and method for processing information |
EP2288121A3 (en) * | 2000-11-30 | 2011-06-22 | Intrasonics S.A.R.L. | Telecommunications apparatus operable to interact with an audio transmission |
JP3771812B2 (en) * | 2001-05-28 | 2006-04-26 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Robot and control method thereof |
JP4357791B2 (en) * | 2002-03-29 | 2009-11-04 | 株式会社東芝 | Speech synthesis system with digital watermark, watermark information detection system for synthesized speech, and speech synthesis method with digital watermark |
EP1720374B1 (en) * | 2004-02-10 | 2011-10-12 | Honda Motor Co., Ltd. | Mobile body with superdirectivity speaker |
EP1837875A1 (en) * | 2006-03-22 | 2007-09-26 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for correlating two data sections |
-
2008
- 2008-12-26 JP JP2008333609A patent/JP5332602B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11600270B2 (en) | 2017-09-15 | 2023-03-07 | Saturn Licensing Llc | Information processing apparatus and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2010156741A (en) | 2010-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5332602B2 (en) | Service providing equipment | |
JP6520878B2 (en) | Voice acquisition system and voice acquisition method | |
US11302318B2 (en) | Speech terminal, speech command generation system, and control method for a speech command generation system | |
JP4718987B2 (en) | Interface device and mobile robot equipped with the same | |
JP5607627B2 (en) | Signal processing apparatus and signal processing method | |
US7496387B2 (en) | Wireless headset for use in speech recognition environment | |
US20150208191A1 (en) | Information processing system and storage medium | |
JP2009178783A (en) | Communication robot and its control method | |
KR101814171B1 (en) | Emergency call system using speech recognition | |
JP2019184809A (en) | Voice recognition device and voice recognition method | |
JP2006243555A (en) | Response determination system, robot, event output server, and response determining method | |
JP2007155986A (en) | Voice recognition device and robot equipped with the same | |
JP6007487B2 (en) | Information processing apparatus, information processing system, and program | |
JP6476938B2 (en) | Speech analysis apparatus, speech analysis system and program | |
JP2005192004A (en) | Headset, and reproducing method for music data of the same | |
JP2005055666A (en) | Audio processing device | |
JP6586617B2 (en) | Speech recognition apparatus, method, and computer program | |
JP2007086592A (en) | Speech output device and method therefor | |
JP2010154482A (en) | Communication apparatus | |
JP2008124597A (en) | Audio teleconference system | |
JP3169988U (en) | Bidirectional fully automatic translation system | |
JP5929810B2 (en) | Voice analysis system, voice terminal apparatus and program | |
JP2013164468A (en) | Voice analysis device, voice analysis system, and program | |
JP6886689B2 (en) | Dialogue device and dialogue system using it | |
Otake et al. | Development of a sound source localization system for assisting group conversation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111020 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130715 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5332602 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |