JP2008197381A - Loudspeaker controller, robot, loudspeaker control method and loudspeaker control program - Google Patents
Loudspeaker controller, robot, loudspeaker control method and loudspeaker control program Download PDFInfo
- Publication number
- JP2008197381A JP2008197381A JP2007032480A JP2007032480A JP2008197381A JP 2008197381 A JP2008197381 A JP 2008197381A JP 2007032480 A JP2007032480 A JP 2007032480A JP 2007032480 A JP2007032480 A JP 2007032480A JP 2008197381 A JP2008197381 A JP 2008197381A
- Authority
- JP
- Japan
- Prior art keywords
- person
- speaker
- range
- volume
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Toys (AREA)
Abstract
Description
本発明は、スピーカ制御装置およびそれを備えるロボット、スピーカ制御方法、ならびにスピーカ制御プログラムに関する。 The present invention relates to a speaker control device, a robot including the same, a speaker control method, and a speaker control program.
近年、人と音声でコミュケーションを行うパートナー型ロボットが多く開発されている。その中に、難聴者やその介護者に話しかけたり、難聴者やその介護者からの話しかけに応答することを目的として開発されているロボットがある。これは、難聴者と介護者の間のコミュニケーション支援をロボットが行ったり、ロボットと難聴者の間のコミュニケーションを介護者がサポートすることなどが目的である。 In recent years, many partner-type robots have been developed that communicate with people by voice. Among them, there are robots that have been developed for the purpose of talking to the hearing-impaired person or their caregiver or responding to the hearing from the hearing-impaired person or their caregiver. The purpose of this is for the robot to support communication between the hearing impaired and the caregiver, or for the caregiver to support communication between the robot and the hearing impaired.
ロボットがこのような音声コミュニケーションを行う場合、ロボットの発する音の大きさが重要でなる。なぜならば、中年以下で活動度が通常である人とロボットが音声でコミュニケーションを行う場合、ロボットの発する音声が適切で無いと人間が思えば、ロボットの出す音の大きさを自ら変えたり、音が小さければ人間がロボットに近づいたりするだろうが、難聴者の場合には、活動度や興味が低下しているので、ロボットが発する音が大きかったり小さかったりしても、自らそれを適性に修正しようとはしないし、難聴者が移動したりすることはほとんど無い。 When a robot performs such voice communication, the loudness of the sound produced by the robot is important. This is because if a person with a normal activity under middle age and a robot communicate with each other by voice, if the human thinks that the voice produced by the robot is not appropriate, the robot can change the loudness of the sound, If the sound is low, humans may approach the robot, but in the case of the hard of hearing, the degree of activity and interest are decreasing, so even if the sound emitted by the robot is loud or low, it suits itself I don't try to fix it, and the hearing-impaired people rarely move.
また、介護者にしても、ロボットが発する音の音量が難聴者にとって好ましいかどうかはよくわからないので、音量を補正することが難しい。その結果、難聴者とロボットとの音声によるコミュニケーションがうまく成立しない場合が多いことになる。また、難聴者の場合には一般的に聴力が衰えており、一般健聴者に比べ、特許文献3の図5にあるように、高域レベルが平均で10〜20dB低下しているので、それを補償することも考えなければならない。 Even for a caregiver, it is difficult to correct the volume because it is not clear whether the volume of the sound produced by the robot is favorable for the hearing impaired. As a result, voice communication between the hard of hearing and the robot often fails. Further, in the case of a hearing impaired person, the hearing ability is generally weakened, and as shown in FIG. 5 of Patent Document 3, the high frequency level is reduced by 10 to 20 dB on average. We must also consider to compensate.
ロボットの音量を制御する方法としては、特許文献1および特許文献2にあるように、ロボットから相手の人間までの距離を測定し、その距離によって音量を変える方法がある。特許文献1では、相手の人間を識別して、その相手に応じて基準音量を変えるようにしている。特許文献2では、ロボットから人間までの距離に応じて、音の大きさを変えるようにしている。
As a method for controlling the volume of the robot, there is a method of measuring the distance from the robot to the other person and changing the volume according to the distance, as described in
また、ロボットではないが、特許文献3および特許文献4がある。特許文献3では、無指向性スピーカと指向性スピーカを同時に使用する。無指向性スピーカからは健聴者向けの通常の音を出し、指向性スピーカからは難聴者向けの高域レベルを強調した音を出すということを特徴としている。特許文献3によると、指向性スピーカは、正面から30度ずれた方向で2KHzの高域が約15dB減衰するので、指向性スピーカの向きを調節することにより、健聴者にも難聴者にも適した音が聞こえることになる。 Moreover, although it is not a robot, there exist patent document 3 and patent document 4. In patent document 3, an omnidirectional speaker and a directional speaker are used simultaneously. The omnidirectional speaker emits a normal sound for a normal hearing person, and the directional speaker emits a sound that emphasizes a high frequency level for a hearing impaired person. According to Patent Document 3, the directional speaker is attenuated by about 15 dB in the high frequency range of 2 KHz in a direction deviated by 30 degrees from the front. Therefore, by adjusting the direction of the directional speaker, it is suitable for both the hearing person and the deaf. You will hear the sound.
また、特許文献4は、指向性スピーカの指向性を調整することができるスピーカ装置である。目的としては、健聴者と難聴者がともに存在するときには指向性を絞り、難聴者だけが存在するときには指向性を広く調整することを想定している。 Patent Document 4 is a speaker device that can adjust the directivity of a directional speaker. As an object, it is assumed that the directivity is narrowed when both the normal hearing person and the deaf person are present, and the directivity is widely adjusted when only the deaf person is present.
また、非特許文献1には、人の顔を検出し識別できるロボットが開示されている。
特許文献1では、相手の人間を識別して、その相手に応じて基準音量を変えるようにしているので、一般健聴者と難聴者のどちらにも対応することが可能となるし、個別難聴者に対する個人適応が可能となる。しかしながら、特許文献1では、ロボットのコミュニケーション相手が、基準音量の異なる複数の人間である場合を考慮していない。したがって、難聴者とその介護者がロボットと音声でコミュニケーションをする場合には、ロボットの発する音が双方ともに適切にはならず、音声コミュニケーションがうまくいかない。
In
特許文献2では、ロボットから人間までの距離に応じて、音の大きさを変えることが可能となるが、人によってその変化量が変わらないので、一般健聴者か難聴者かどちらかを想定して音量を変えることになる。しかし、これまで述べたように、難聴者であっても耳の聞こえ方は人それぞれであり、個人ごとに基準音量を変えることが望ましい。よって、特許文献2に係る発明は、難聴者を対象とするときには不十分である。
In
特許文献3および特許文献4では、指向性スピーカを利用することを述べているものの、その指向性スピーカをどのようにして難聴者へ向けるか、についてはまったく言及していない。人が自分で向きを変えることを想定しているのかも知れないが、スピーカの位置を人手でいちいち変えるのはかなり煩雑であり(通常の生活でそのようなことをする習慣は無い)、有効に利用されないケースが多いと考えられる。 Patent Document 3 and Patent Document 4 describe using a directional speaker, but do not mention at all how to direct the directional speaker toward a hearing-impaired person. It may be assumed that the person changes his / her own direction, but changing the position of the speaker manually is quite cumbersome (there is no habit of doing that in normal life) and effective It is thought that there are many cases that are not used for
現在開発が進んでいるロボットでは、例えば非特許文献1のように、人の顔を検出し識別できるものがある。そこで、この顔検出・識別機能と組み合わせて、指向性スピーカを難聴者(難聴者)へ向ける方法が考えられる。しかしながら問題はそれほど単純では無い。指向性スピーカを難聴者に向けるにしても、介護者(健聴者)が指向性スピーカの指向範囲からできるだけ離れるようにしなければ、介護者にとって聞きづらい音になってしまう。したがって、難聴者と健聴者の位置関係を認識し、指向性スピーカを難聴者に向けつつも健聴者がその範囲に入らないように、スピーカ(ロボット)の適切な位置と方向を判断して稼動したり、スピーカの方向を変える必要がある。
Among robots that are currently being developed, there are robots that can detect and identify human faces, as in Non-Patent
本発明によるスピーカ制御装置は、第一および第二のスピーカを制御する装置であって、第一の人の位置と第二の人の位置とを検出する人物認識手段と、上記人物認識手段により検出された上記第一および第二の人の位置に基づいて、上記第二のスピーカの指向性の範囲内に上記第二の人が入り且つ上記第一の人が入らないような、上記第二のスピーカの位置の範囲を算出する配置算出手段と、上記配置算出手段により算出された上記第二のスピーカの位置の範囲内に入るように、上記第二のスピーカの位置を変更する動作手段と、上記第一の人に到達する上記第一のスピーカの音量が所定の範囲内となり、且つ、上記第二の人に到達する上記第二のスピーカの音量が所定の範囲内となるように、上記第一および第二のスピーカの音量を調整する音量補償手段と、を備えることを特徴とする。 The speaker control device according to the present invention is a device for controlling the first and second speakers, and includes a person recognition unit that detects the position of the first person and the position of the second person, and the person recognition unit. Based on the detected positions of the first and second persons, the second person enters the second speaker and the first person does not enter the directivity range of the second speaker. An arrangement calculating means for calculating the range of the position of the second speaker, and an operating means for changing the position of the second speaker so as to fall within the range of the position of the second speaker calculated by the arrangement calculating means. And the volume of the first speaker reaching the first person is within a predetermined range, and the volume of the second speaker reaching the second person is within a predetermined range. Adjust the volume of the first and second speakers And volume compensation means that, characterized in that it comprises a.
このスピーカ制御装置においては、第一および第二の人の各々の位置が人物認識手段によって検出される。その検出された位置に基づいて、第二のスピーカの位置範囲(存在可能領域)が配置算出手段によって算出される。その存在可能領域は、第二の人が第二のスピーカの指向範囲内に入り且つ第一の人がその範囲内に入らないような領域とされる。そして、その存在可能領域内に入るように、第二のスピーカの位置が動作手段によって変更される。よって、健聴者(第一の人)および難聴者(第二の人)の双方にとって適切になるように、スピーカの発する音を自動で制御することができる。 In this speaker control device, the positions of the first and second people are detected by the person recognition means. Based on the detected position, the position range (possible area) of the second speaker is calculated by the arrangement calculating means. The existence possible area is an area where the second person falls within the pointing range of the second speaker and the first person does not fall within the range. Then, the position of the second speaker is changed by the operating means so as to fall within the possible area. Therefore, the sound emitted from the speaker can be automatically controlled so as to be appropriate for both the normal hearing person (first person) and the hard of hearing person (second person).
また、本発明によるスピーカ制御方法は、第一および第二のスピーカを制御する方法であって、第一の人の位置と第二の人の位置とを検出する人物認識ステップと、上記人物認識ステップにおいて検出された上記第一および第二の人の位置に基づいて、上記第二のスピーカの指向性の範囲内に上記第二の人が入り且つ上記第一の人が入らないような、上記第二のスピーカの位置の範囲を算出する配置算出ステップと、上記配置算出ステップにおいて算出された上記第二のスピーカの位置の範囲内に入るように、上記第二のスピーカの位置を変更する動作ステップと、上記第一の人に到達する上記第一のスピーカの音量が所定の範囲内となり、且つ、上記第二の人に到達する上記第二のスピーカの音量が所定の範囲内となるように、上記第一および第二のスピーカの音量を調整する音量補償ステップと、を含むことを特徴とする。 The speaker control method according to the present invention is a method for controlling the first and second speakers, the person recognition step for detecting the position of the first person and the position of the second person, and the person recognition Based on the positions of the first and second persons detected in the step, the second person enters the directivity range of the second speaker and the first person does not enter, An arrangement calculation step for calculating the range of the position of the second speaker, and the position of the second speaker is changed so as to fall within the range of the position of the second speaker calculated in the arrangement calculation step. The volume of the first speaker reaching the first person is within a predetermined range, and the volume of the second speaker reaching the second person is within a predetermined range. As above And volume compensation step of adjusting the volume of the second speaker beauty, characterized in that it comprises a.
また、本発明によるスピーカ制御プログラムは、第一および第二のスピーカを制御するプログラムであって、第一の人の位置と第二の人の位置とを検出する人物認識ステップと、上記人物認識ステップにおいて検出された上記第一および第二の人の位置に基づいて、上記第二のスピーカの指向性の範囲内に上記第二の人が入り且つ上記第一の人が入らないような、上記第二のスピーカの位置の範囲を算出する配置算出ステップと、上記配置算出ステップにおいて算出された上記第二のスピーカの位置の範囲内に入るように、上記第二のスピーカの位置を変更する動作ステップと、上記第一の人に到達する上記第一のスピーカの音量が所定の範囲内となり、且つ、上記第二の人に到達する上記第二のスピーカの音量が所定の範囲内となるように、上記第一および第二のスピーカの音量を調整する音量補償ステップと、をコンピュータに実行させることを特徴とする。 The speaker control program according to the present invention is a program for controlling the first and second speakers, the person recognition step for detecting the position of the first person and the position of the second person, and the person recognition Based on the positions of the first and second persons detected in the step, the second person enters the directivity range of the second speaker and the first person does not enter, An arrangement calculation step for calculating the range of the position of the second speaker, and the position of the second speaker is changed so as to fall within the range of the position of the second speaker calculated in the arrangement calculation step. The volume of the first speaker reaching the first person is within a predetermined range, and the volume of the second speaker reaching the second person is within a predetermined range. like Wherein the executing and volume compensation step of adjusting the volume of said first and second speakers, to the computer.
これらのスピーカ制御方法およびスピーカ制御プログラムにおいては、第一および第二の人の各々の位置が人物認識ステップにおいて検出される。その検出された位置に基づいて、第二のスピーカの存在可能領域が配置算出ステップにおいて算出される。そして、その存在可能領域内に入るように、第二のスピーカの位置が動作ステップにおいて変更される。よって、健聴者(第一の人)および難聴者(第二の人)の双方にとって適切になるように、スピーカの発する音を自動で制御することができる。 In these speaker control method and speaker control program, the positions of the first and second persons are detected in the person recognition step. Based on the detected position, an area where the second speaker can exist is calculated in the arrangement calculating step. Then, the position of the second speaker is changed in the operation step so as to fall within the possible area. Therefore, the sound emitted from the speaker can be automatically controlled so as to be appropriate for both the normal hearing person (first person) and the hard of hearing person (second person).
本発明によれば、健聴者および難聴者の双方にとって適切になるように、スピーカの発する音を自動で制御することが可能なスピーカ制御装置およびそれを備えるロボット、スピーカ制御方法、ならびにスピーカ制御プログラムが実現される。 ADVANTAGE OF THE INVENTION According to this invention, the speaker control apparatus which can control automatically the sound which a speaker emits so that it may become suitable for both a normal hearing person and a hard-of-hearing person, a robot provided with the same, a speaker control method, and a speaker control program Is realized.
以下、図面を参照しつつ、本発明の好適な実施形態について詳細に説明する。なお、図面の説明においては、同一要素には同一符号を付し、重複する説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same reference numerals are assigned to the same elements, and duplicate descriptions are omitted.
図1は、本発明によるスピーカ制御装置の一実施形態を示すブロック図である。このスピーカ制御装置は、第一のスピーカ101および第二のスピーカ102を制御する装置であって、第一の人の位置と第二の人の位置とを検出する人物認識手段201と、人物認識手段201により検出された第一および第二の人の位置に基づいて、第二のスピーカ102の指向性の範囲内に第二の人が入り且つ第一の人が入らないような、第二のスピーカ102の位置の範囲(存在可能領域)を算出する配置算出手段301と、配置算出手段301により算出された第二のスピーカ102の位置の範囲内に入るように、第二のスピーカ102の位置を変更する動作手段401と、第一の人に到達する第一のスピーカ101の音量が所定の範囲内となり、且つ、第二の人に到達する第二のスピーカ102の音量が所定の範囲内となるように、第一のスピーカ101および第二のスピーカ102の音量を調整する音量補償手段501と、を備えている。本実施形態において、第二の人は難聴者であり、第一の人はその介護者(健聴者)である。
FIG. 1 is a block diagram showing an embodiment of a speaker control apparatus according to the present invention. This speaker control apparatus is an apparatus that controls the
図2は、本実施形態のスピーカ制御装置を備えるロボットの外観を示す正面図である。また、図3は、図2のロボットの電気的構成を示すブロック図である。本実施形態では、ロボットは、例えば、胴体部1、頭部2が連結されることにより構成されている。胴体部1は円筒形であり、平面が上下に来るようになっている。胴体部1の下部には左右にそれぞれ車輪3A、3Bが取り付けられており、それらの車輪は独立に前後に回転することができる。頭部2は、胴体部1に垂直に取り付けられた垂直軸とその垂直軸に対して90度の角度で設置された水平軸に関して決められた範囲で回転することができる。垂直軸は頭部2の中心を通るように設置されており、水平軸は胴体部1と頭部2が正面を向いた状態で頭部2の中心を通りかつ左右方向に水平に設置されている。つまり、頭部2は左右と上下の2自由度で、決められた範囲内で回転することができる。
FIG. 2 is a front view illustrating an appearance of a robot including the speaker control device of the present embodiment. FIG. 3 is a block diagram showing an electrical configuration of the robot shown in FIG. In the present embodiment, the robot is configured by connecting, for example, the
胴体部1には、ロボット全体の制御を行うコントローラ10、ロボットの動力源となるバッテリ11、スピーカ12、2つの車輪を動かすためのアクチュエータ14Aと14B、タッチセンサ15が収納されている。
The
頭部2には、マイクロフォン13、スピーカ16、CCDカメラ21Aと21B、頭部2を回転するためのアクチュエータ22Aと22Bなどが収納されている。頭部2におけるマイクロフォン13は、ユーザからの発話を含む周囲の音声を集音し、得られた音声信号をコントローラ10に送出する。スピーカ16は指向性を持つスピーカである。本実施形態では、スピーカ16の指向性の範囲は固定である。CCDカメラ21Aと21Bは、周囲の状況を撮像し、得られた画像信号を、コントローラ10に送出する。
The
胴体部1におけるタッチセンサ15は、人間がタッチセンサに触れたことを検知し、検知したときに接触検知信号をコントローラ10に送出する。
The
コントローラ10は、CPU10Aやメモリ10Bを内蔵しており、CPU10Aにおいて、メモリ10Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。
The
すなわち、コントローラ10は、マイクロフォン13、CCDカメラ21Aと21B、タッチセンサ15から与えられる音声信号、画像信号、接触検知信号に基づいて、周囲の状況や、ユーザからの指令を判断する。
That is, the
さらに、コントローラ10は、この判断結果などに基づいて、続く行動を決定し、その決定結果に基づいて、アクチュエータ14A、14B、22A、22Bの必要なものを駆動させる。これにより頭部2を上下左右に回転したり、ロボットを移動または回転させるなどの行動を行わせる。また、コントローラ10は、必要に応じて、合成音を生成し、スピーカ12およびスピーカ16に供給して出力させる。
Further, the
以上のようにして、ロボットは、周囲の状況などに基づいて行動をとるようになっている。 As described above, the robot takes action based on the surrounding situation.
次に、図4は、図3のコントローラ10の機能的構成例を示すブロック図である。なお、図4に示す機能的構成は、CPU10Aが、メモリ10Bに記憶された制御プログラムを実行することで実現されるようになっている。
Next, FIG. 4 is a block diagram illustrating a functional configuration example of the
コントローラ10は、人物認識部51A、音声認識部51B、接触認識部51C、行動決定部52、制御部53、音声合成部54、出力部55、配置算出手段56、とから構成されている。
The
人物認識部51Aは、CCDカメラ21Aおよび21Bから入力される映像に対して画像処理を施し、あらかじめ登録されてある特徴と照合して人の識別を行い、識別した人を健聴者と難聴者に分類し、その情報を配置算出部56へ送出する。このように、本実施形態では、登録されている人が健聴者であるか難聴者であるかを記憶することが前提となっている。これは、登録時に人が指定することによってなされる。人物認識部51Aは、入力がステレオカメラである特性を利用し、その人の位置情報も算出して配置算出部56へ送出する。
The person recognizing unit 51A performs image processing on images input from the
音声認識部51Bは、マイク13から入力される人間の音声を認識し、認識した結果を行動決定部52へ送出する。認識した結果とは、「おはよう」「こんにちは」などの、人がロボットに対して話しかけた言葉である。行動決定部52が、音声認識部51Bから認識結果を受け取ると、その認識結果に応じた応答をするよう、制御部53と音声合成部54へ指示を送る。たとえば、認識結果が「おはよう」である場合には、制御部53には、頭部2を上下に振る指示を送り、音声合成部54には、「おはようございます」という発話を行う指示を送る。これによって、人がロボットに「おはよう」と話しかけ、ロボットがその言葉を認識すると、ロボットは頭部2を上下に振りながら「おはようございます」という発話を行うことができる。
The voice recognition unit 51 </ b> B recognizes the human voice input from the
タッチセンサ15は、人がタッチセンサに触れたときに、その検知情報を接触認識部51Cに送出する。接触認識部51Cは、接触認識情報を行動決定部52に送出する。行動決定部52が接触認識情報を受け取ると、その認識結果に応じた応答をするよう、制御部53と音声合成部54へ指示を送る。たとえば、触られたことに対して喜びを表現することとし、そのために、制御部53に対しては、頭部2を左右に振る指示を送り、音声合成部54へは「わーい」という言葉を発話する指示を送る、というような内容である。
When the person touches the touch sensor, the
制御部53は、行動決定部52から与えられる動作データに基づいて、アクチュエータ14A、14B、22A、22Bを駆動するための制御信号を生成し、これをアクチュエータ14A、14B、22A、22Bへ送出する。これにより、アクチュエータ14A、14B、22A、22Bは、制御信号にしたがって駆動し、ロボットは動作する。
The control unit 53 generates a control signal for driving the
配置算出部56は、人物認識部51Aから、健聴者と難聴者の位置情報が送られて来ると、スピーカ16の指向性の範囲に難聴者が入り、かつ、健聴者がスピーカ16の指向性の範囲からはずれるような、ロボット自身の位置取りを計算して求める。スピーカ16の指向性の範囲としては、本実施形態ではスピーカの正面から左右30度の範囲より外側を指向性の範囲外とする。特許文献3にあるように、正面から30度において2KHz以上の高域の音が約15dB以上減衰していることから、スピーカの正面から左右30度の範囲より外側を指向性の範囲外とすることは妥当だと考えられる。この指向性の範囲外を示す角度を一般化してθ0と表すことにする。今の例ではθ0=30(deg)である。
When the position information of the normal hearing person and the deaf person is sent from the person recognizing part 51A, the
ロボット、難聴者、健聴者の配置を図5に示した。図5において、点Rがロボットの位置を、点A(XY座標の原点)が難聴者の位置を、点B(X=d、Y=0)が健聴者の位置を示している。難聴者と健聴者の間の距離がd(m)である。ここで、X軸とRAのなす角度をφ、RAとRBのなす角度をθとする。実際には、ロボットから見たときに、難聴者と健聴者の位置が逆転しているケースも存在するが、その場合には、X軸を反転して以下の議論を同様に適用すれば良い。 The arrangement of the robot, the hearing impaired person, and the normal hearing person is shown in FIG. In FIG. 5, the point R indicates the position of the robot, the point A (the origin of the XY coordinates) indicates the position of the hearing impaired person, and the point B (X = d, Y = 0) indicates the position of the normal hearing person. The distance between the hearing impaired person and the normal hearing person is d (m). Here, the angle between the X axis and RA is φ, and the angle between RA and RB is θ. Actually, there are cases where the position of the hearing impaired person and the normal hearing person are reversed when viewed from the robot. In that case, the X-axis is reversed and the following discussion can be applied similarly. .
本実施形態では、ロボットがスピーカ16の正面を難聴者へ向けることとする。図5では、スピーカ16の向きを矢印で示した。これは、指向性スピーカであるものの、正面からずれると音の強さが弱くなってしまうので、正面を向けるのが最も望ましいからである。
In this embodiment, the robot points the front of the
そうすると、このとき、角度θがθ0よりも大きければ、図5に示した配置で、難聴者が指向性スピーカ16の正面に位置し、健聴者が指向性スピーカ16の指向性の範囲外に存在することになる。
Then, at this time, if the angle θ is larger than
ここで次のように考える。θ=θ0とし一定の値とする。このとき、RAの長さはφの関数となるので、それをr(φ)とする。そうすると、r(φ)の関数形は次式で表される。
r(φ)= d×sin(θ0+φ)/sin(θ0) …(1)
Consider the following. θ = θ0 and a constant value. At this time, since the length of RA is a function of φ, it is set as r (φ). Then, the function form of r (φ) is expressed by the following equation.
r (φ) = d × sin (θ0 + φ) / sin (θ0) (1)
そして、この(1)式で表されるr(φ)は、ロボットと難聴者の間の距離の最大値となることが容易にわかる。したがって、健聴者(B)が指向性の範囲外に存在するためには、ロボット(R)は、難聴者(A)から距離r(φ)より近い場所に位置しなければならない。 It can be easily seen that r (φ) represented by the equation (1) is the maximum distance between the robot and the deaf person. Therefore, in order for the normal hearing person (B) to be out of the directivity range, the robot (R) must be located at a position closer to the distance r (φ) from the hearing impaired person (A).
具体的な数値をいくつか挙げてみる。d=0.5(m)の場合、φ=90(deg)、すなわちロボットが難聴者の正面に位置する場合、r(φ)=0.866(m)である。また、そこから30度ずれた場所を見てみると、φ=120(deg)のときr(φ)=0.5(m)、φ=60(deg)のときr(φ)=1.0(m)である。 Here are some specific numbers. When d = 0.5 (m), φ = 90 (deg), that is, r (φ) = 0.866 (m) when the robot is located in front of the hearing impaired person. Further, when looking at a place shifted by 30 degrees therefrom, r (φ) = 0.5 (m) when φ = 120 (deg), r (φ) = 1. 0 (m).
距離d(m)離れた二人の人間と音声コミュニケーションを行う場合、ロボットの位置取りとしては、60(deg)≦φ≦120(deg)が適当だと考えられる。そこで、配置算出部56が難聴者と健聴者を見つけたとき、二人を結ぶ直線を仮想的に考え、ロボットが難聴者に対して向くようにしたとき、ロボットから難聴者へと向かうベクトルと仮想直線との角度が60度から120度の範囲になる位置にロボットを移動させる。そして、ロボットと難聴者との距離が、式(1)で表される値以下であるような位置にロボットを移動させれば良いことになる。
When performing voice communication with two humans separated by a distance d (m), it is considered that 60 (deg) ≦ φ ≦ 120 (deg) is appropriate as the positioning of the robot. Therefore, when the
図6にロボットの存在位置を示した。図6のAcdeで示される領域の内部がロボットが存在することが望ましい(指向性スピーカ16の正面に難聴者Aを捉えつつ、健聴者Bが指向性スピーカ16の指向性領域の外にいる)範囲である。ただしロボット(指向性スピーカ16)は難聴者(A)を向く。
FIG. 6 shows the position of the robot. It is desirable that a robot exists inside the area indicated by “Acde” in FIG. 6 (a hearing person B is outside the directional area of the
ロボットと難聴者の間の距離を具体的にいくつにするか、任意性がある。本実施形態では、ロボットが難聴者と健聴者を検出した時点でロボットが領域Acdeの外に存在するとき、ロボットがdの位置に移動するように、配置算出部56が行動決定部52へ指示を送り、行動決定部52が制御部53へ指示を送りアクチュエータ14A、14Bを動作させ、ロボットをdの位置に移動させる。また、ロボットが難聴者と健聴者を検出した時点でロボットが領域Acdeの中または境界上に存在するときには、その場でロボットを自転させてロボットと指向性スピーカ16の正面が難聴者に向くようにロボットを回転させる。
The distance between the robot and the deaf person is specific. In the present embodiment, when the robot detects a hearing-impaired person and a normal hearing person, the
また、配置算出部56は、ロボットと難聴者までの距離およびロボットと健聴者までの距離をそれぞれ行動決定部52へ送り、行動決定部はそれらの距離情報を音声合成部54へ送る。
In addition, the
音声合成部54は、行動決定部52から与えられる文章から合成音声を生成し、出力部55へ供給するが、その際に、難聴者までの距離と健聴者までの距離を参照する。すなわち、音量には基準音量と基準距離が存在し、実際の人までの距離に応じて基準音量から適切な音量を算出して出力する。ここで、本実施形態では、基準音量をD0、基準距離をL0とし、人までの距離をRとするとき、音量は D0×R×R/(L0×L0)で算出される。このようにして、難聴者までの距離と健聴者までの距離を参照して適切な音量が計算され、各々合成音が生成され、出力部55へ送られる。ただし、スピーカ16から出力される音は、2KHz以上の高域を10dBから15dB強調した音である。
The voice synthesizer 54 generates a synthesized voice from the text given from the
出力部55には、音声合成部54から二つの合成音のディジタルデータが供給されるようになっており、出力部55は、それらのディジタルデータを、アナログの音声信号にD/A変換し、スピーカ12およびスピーカ16に供給して出力させる。
The output unit 55 is supplied with digital data of two synthesized sounds from the voice synthesis unit 54. The output unit 55 performs D / A conversion of the digital data into an analog voice signal, and The signals are supplied to and output from the
なお、本実施形態では、人を認識し人までの距離を算出する手段として画像認識を利用したが、これは、他の方法、たとえば、超音波タグの技術を利用しても構わない。人までの距離を算出する方法としてレーザレンジファインダを利用しても良い。 In this embodiment, image recognition is used as means for recognizing a person and calculating a distance to the person. However, other methods such as an ultrasonic tag technique may be used. A laser range finder may be used as a method for calculating the distance to a person.
指向性の範囲外を示す角度を30度としたが、これは、指向性スピーカ16の実際の性能に合わせて変えるべきものである。
The angle indicating the directivity range is 30 degrees, but this should be changed in accordance with the actual performance of the
また、スピーカ16の指向性の範囲は固定であるとしたが、これはこの限りではない。すなわち、スピーカ16の指向性の範囲は可変でも良い。この場合には、指向性の範囲を変えることが可能となるので、スピーカ16の存在可能位置は本実施形態よりも広くなる。
Further, although the directivity range of the
また、本実施形態では、指向性スピーカ16を難聴者へ向けることを前提にしたが、これは指向性スピーカの指向性の範囲内に難聴者が来るようにしても構わない。
In the present embodiment, it is assumed that the
ロボットの好ましい存在領域として、60(deg)≦φ≦120(deg)としたが、実際にはこれに限るものではない。 Although 60 (deg) ≦ φ ≦ 120 (deg) is set as a preferable region where the robot is present, the present invention is not limited to this.
また、ロボットが難聴者と健聴者を検出した時点でロボットが領域Acdeの外に存在するとき、ロボットがdの位置に移動するようにしたが、これもこの限りではない。領域の内部であればどこに移動しても構わない。 Further, when the robot detects the hearing impaired person and the normal hearing person, the robot moves to the position d when the robot is outside the area Acde. However, this is not limited to this. You may move anywhere as long as it is inside the area.
ロボットが適切な場所に移動したのち、人が動く場合がある。配置算出部56は常に人の位置を把握し、ロボットの配置が不適切である場合には、ロボットの配置が適切となるよう、行動決定部52へ指示を送る。
A person may move after the robot has moved to an appropriate location. The
音声合成部54では、指向性スピーカから発する音について、2KHz以上の高域を10dBから15dB強調するとしたが、強調する範囲は2KHz以上に限るものではない。また、強調の度合いも10dBから15dBに限るものではなく、周波数帯ごとに異なる強調の度合いとすることも可能であるし、個別の難聴者(難聴者)ごとに強調の度合いを異なるものにすることもできる。 In the speech synthesizer 54, the high frequency of 2 kHz or higher is emphasized from 10 dB to 15 dB for the sound emitted from the directional speaker, but the range to be emphasized is not limited to 2 kHz or higher. Further, the degree of emphasis is not limited to 10 dB to 15 dB, and it is possible to make the degree of emphasis different for each frequency band, and the degree of emphasis differs for each individual deaf person (deaf person). You can also
また、難聴者にはスピーカ12から到達する通常の音声が届くので、音声合成部54では、スピーカ16から発する音として、このスピーカ12から到達する分を差し引いた音声を発するようにしても良い。
Further, since the normal sound that reaches from the
また、音声合成部54では、人までの距離に応じて音量を決めるだけでなく、ロボットを移動させるとともにその移動後の位置から人までの距離に応じて音量を決めるようにしても良い。その場合、音声合成部54が制御部53に対して移動の命令を送る。ただし、移動する範囲は、配置算出部56で算出された範囲とする。たとえば、配置算出部56が決定した位置より近づくことが望ましい場合、このような方法が考えられる。スピーカの最大限界音量が小さい場合には、このようにロボットが人に近づく方法をとらねばならない。
Further, the speech synthesizer 54 may not only determine the volume according to the distance to the person but also move the robot and determine the volume according to the distance from the moved position to the person. In that case, the speech synthesizer 54 sends a movement command to the controller 53. However, the range to be moved is the range calculated by the
さらには、本実施形態では、ロボットにスピーカを搭載する形態を説明したが、スピーカ12が部屋に置かれていてスピーカ16がロボットに搭載されている場合にも本発明は適用可能である。さらには、ロボットに限らず、スピーカの位置を変えられる仕組みになっているシステムに対しても本発明は適用することが可能である。
Furthermore, in the present embodiment, the form in which the speaker is mounted on the robot has been described. However, the present invention can also be applied to the case where the
また、本実施形態では、スピーカ12とスピーカ16を各々一つのスピーカとしたが、実際には、スピーカ12とスピーカ16がそれぞれ複数のスピーカから構成されていても良い。
In the present embodiment, each of the
次に、図7のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。 Next, the overall operation of the present embodiment will be described in detail with reference to the flowchart of FIG.
ステップS1において、ロボットが難聴者と健聴者を検出する。ステップS2において、ロボットが難聴者と健聴者に対して適切な配置にいるかどうかを判断する。ステップS2において、ロボットが難聴者と健聴者に対して適切な配置にいないと判断された場合、ステップS3において、ロボットを適切な位置に移動する。ステップS2において、ロボットが難聴者と健聴者に対して適切な配置にいると判断された場合、ステップS4において、タッチセンサに触られたこと、あるいは、音声認識をしたかどうかを待ち、ステップS4において、タッチセンサに触られたか、あるいは、音声認識をした場合、ステップS5においてロボットが応答を行う。 In step S1, the robot detects a hearing impaired person and a normal hearing person. In step S2, it is determined whether or not the robot is properly arranged for the hearing impaired person and the normal hearing person. If it is determined in step S2 that the robot is not properly arranged for the hearing impaired person and the normal hearing person, the robot is moved to an appropriate position in step S3. If it is determined in step S2 that the robot is properly positioned with respect to the hearing impaired person and the normal hearing person, in step S4, it is waited whether the touch sensor is touched or voice recognition is performed. When the touch sensor is touched or voice recognition is performed, the robot responds in step S5.
次に、本実施形態の効果について説明する。本実施形態では、難聴者向けに高域を強調した音を難聴者に対して出力し、健聴者向けに通常の音を出力することが可能となるため、ロボットが難聴者やその介護者と好適に音声コミュニケーションを行うことができる。 Next, the effect of this embodiment will be described. In the present embodiment, it is possible to output a sound that emphasizes high frequencies for the hearing impaired to the hearing impaired and to output a normal sound for the hearing impaired. Voice communication can be suitably performed.
また、ロボットが人物の映像を記録しておき、インターネットなどを介して要求されたときに、人物の映像を外部の端末へ送出する機能を持っていても良い。また、本実施の形態では、ロボットにマイクロフォンが装備されているが、ワイアレスマイクを使用する形態も考ええられる。また、ロボットは、赤外線センサを備え、難聴者の体温をチェックする機能を備えていても良い。また、ロボットは、マップ生成機能、自己位置同定機能を備えていても良い。また、ロボットは、タッチセンサを複数備えていても良い。 The robot may have a function of recording a person's video and sending the person's video to an external terminal when requested via the Internet or the like. In the present embodiment, the robot is equipped with a microphone, but a form using a wireless microphone is also conceivable. The robot may include an infrared sensor and a function of checking the body temperature of the hearing impaired person. The robot may have a map generation function and a self-position identification function. The robot may include a plurality of touch sensors.
以上述べたように、本実施形態のスピーカ制御装置において、音量補償手段501(図1参照)は、第一のスピーカ101の位置を算出して動作手段401へ出力し、配置算出手段301により算出された第二のスピーカ102の位置の範囲内で第二のスピーカ102の位置を算出して動作手段401へ出力し、また、第一のスピーカ101の音量と第二のスピーカ102の音量とを変更し、動作手段401は、音量補償手段501から与えられた第一のスピーカ101および第二のスピーカ102の位置に関する情報に従って、第一のスピーカ101および第二のスピーカ102を移動してもよい。
As described above, in the speaker control apparatus according to the present embodiment, the volume compensation unit 501 (see FIG. 1) calculates the position of the
配置算出手段301は、人物認識手段201によって検出された第一の人の位置と第二の人の位置とから第二のスピーカ102の位置の範囲を算出するときに、第二のスピーカ102の正面が第二の人の方向を向き、且つ、第二のスピーカ102が第二の人の正面方向から左右に所定の角度範囲内に存在するという前提で、第一の人が第二のスピーカ102の指向性の範囲内に入らないような、第二のスピーカ102の位置の範囲を算出してもよい。
When calculating the range of the position of the
第二のスピーカ102の指向性の向きが可変であり且つ指向性の範囲が可変であり、配置算出手段301は、第二のスピーカ102の指向性の範囲に第二の人が入り且つ第一の人が入らないような、第二のスピーカ102の位置、指向性の向きおよび指向性の範囲を算出してもよい。
The directionality of the directivity of the
また、本実施形態のスピーカ制御方法は、第一のスピーカ101および第二のスピーカ102を制御する方法であって、第一の人の位置と第二の人の位置とを検出する人物認識ステップと、人物認識ステップにおいて検出された第一および第二の人の位置に基づいて、第二のスピーカ102の指向性の範囲内に第二の人が入り且つ第一の人が入らないような、第二のスピーカ102の位置の範囲を算出する配置算出ステップと、配置算出ステップにおいて算出された第二のスピーカ102の位置の範囲内に入るように、第二のスピーカ102の位置を変更する動作ステップと、第一の人に到達する第一のスピーカ101の音量が所定の範囲内となり、且つ、第二の人に到達する第二のスピーカ102の音量が所定の範囲内となるように、第一のスピーカ101および第二のスピーカ102の音量を調整する音量補償ステップと、を含むものである。
The speaker control method of the present embodiment is a method for controlling the
また、本実施形態のスピーカ制御プログラムは、上記人物認識ステップと、上記配置算出ステップと、上記動作ステップと、上記音量補償ステップと、をコンピュータに実行させるものである。 The speaker control program according to the present embodiment causes the computer to execute the person recognition step, the arrangement calculation step, the operation step, and the volume compensation step.
本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。 The present invention is not limited to the above embodiment, and various modifications can be made.
本発明によれば、マイクなどの音声入力装置を備え、人を検出する機能を持つ、人とインタラクションするロボットに広く適用できる。さらに、本実施の形態においては、上述した一連の処理を、CPU10A(図3)にプログラムを実行させることにより行うようにしたが、一連の処理は、それ専用のハードウェアによって行うことも可能である。
The present invention can be widely applied to a robot that includes a voice input device such as a microphone and has a function of detecting a person and that interacts with the person. Further, in the present embodiment, the above-described series of processing is performed by causing the
なお、プログラムは、あらかじめメモリ10B(図3)に記憶させておく他、フロッピー(登録商標)ディスク、CD−ROM、MOディスク、DVD、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。そして、このようなリムーバブル記録媒体を、いわゆるパッケージソフトウェアとして提供し、ロボット(メモリ10B)にインストールするようにすることができる。 The program is stored in advance in the memory 10B (FIG. 3), or temporarily or temporarily stored on a removable recording medium such as a floppy (registered trademark) disk, CD-ROM, MO disk, DVD, magnetic disk, or semiconductor memory. It can be stored permanently (recorded). Such a removable recording medium can be provided as so-called package software and installed in the robot (memory 10B).
また、プログラムは、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、無線で転送したり、LAN、インターネットといったネットワークを介して、有線で転送し、メモリ10Bにインストールすることができる。この場合、プログラムがバージョンアップされたとき等に、そのバージョンアップされたプログラムを、メモリ10Bに、容易にインストールすることができる。 Further, the program can be transferred from a download site wirelessly via a digital satellite broadcasting artificial satellite or wiredly via a network such as a LAN or the Internet, and can be installed in the memory 10B. In this case, when the program is upgraded, the upgraded program can be easily installed in the memory 10B.
ここで、本明細書において、CPU10Aに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理も含むものである。また、プログラムは、1つのCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
Here, in the present specification, the processing steps for describing a program for causing the
101 第一のスピーカ
102 第二のスピーカ
201 人物認識手段
301 配置算出手段
401 動作手段
501 音量補償手段
1 ロボットの胴体部
2 ロボットの頭部
3A、3B ロボットに取り付けられた車輪
10 コントローラ
10A CPU
10B メモリ
11 バッテリ
12 スピーカ
13 マイクロフォン
14A、14B アクチュエータ
15 タッチセンサ
16 スピーカ
21A、21B CCDカメラ
22A、22B アクチュエータ
51A 人物認識部
51B 音声認識部
51C 接触認識部
52 行動決定部
53 制御部
54 音声合成部
55 出力部
56 配置算出部
DESCRIPTION OF
Claims (7)
第一の人の位置と第二の人の位置とを検出する人物認識手段と、
前記人物認識手段により検出された前記第一および第二の人の位置に基づいて、前記第二のスピーカの指向性の範囲内に前記第二の人が入り且つ前記第一の人が入らないような、前記第二のスピーカの位置の範囲を算出する配置算出手段と、
前記配置算出手段により算出された前記第二のスピーカの位置の範囲内に入るように、前記第二のスピーカの位置を変更する動作手段と、
前記第一の人に到達する前記第一のスピーカの音量が所定の範囲内となり、且つ、前記第二の人に到達する前記第二のスピーカの音量が所定の範囲内となるように、前記第一および第二のスピーカの音量を調整する音量補償手段と、
を備えることを特徴とするスピーカ制御装置。 A device for controlling the first and second speakers,
Person recognition means for detecting the position of the first person and the position of the second person;
Based on the positions of the first and second persons detected by the person recognition means, the second person enters the directivity range of the second speaker and the first person does not enter. An arrangement calculating means for calculating the range of the position of the second speaker,
An operation means for changing the position of the second speaker so as to fall within the range of the position of the second speaker calculated by the arrangement calculating means;
The volume of the first speaker reaching the first person is within a predetermined range, and the volume of the second speaker reaching the second person is within a predetermined range. Volume compensation means for adjusting the volume of the first and second speakers;
A speaker control device comprising:
前記音量補償手段は、前記第一のスピーカの位置を算出して前記動作手段へ出力し、前記配置算出手段により算出された前記第二のスピーカの位置の範囲内で第二のスピーカの位置を算出して前記動作手段へ出力し、また、前記第一のスピーカの音量と前記第二のスピーカの音量とを変更し、
前記動作手段は、前記音量補償手段から与えられた前記第一および第二のスピーカの位置に関する情報に従って、前記第一および第二のスピーカを移動するスピーカ制御装置。 The speaker control device according to claim 1,
The volume compensation means calculates the position of the first speaker and outputs the position to the operation means, and determines the position of the second speaker within the range of the position of the second speaker calculated by the arrangement calculation means. Calculate and output to the operating means, and change the volume of the first speaker and the volume of the second speaker,
The operating means moves the first and second speakers in accordance with information about the positions of the first and second speakers given from the volume compensation means.
前記配置算出手段は、前記人物認識手段によって検出された前記第一の人の位置と前記第二の人の位置とから前記第二のスピーカの位置の範囲を算出するときに、前記第二のスピーカの正面が前記第二の人の方向を向き、且つ、前記第二のスピーカが前記第二の人の正面方向から左右に所定の角度範囲内に存在するという前提で、前記第一の人が前記第二のスピーカの指向性の範囲内に入らないような、前記第二のスピーカの位置の範囲を算出するスピーカ制御装置。 The speaker control device according to claim 1 or 2,
The arrangement calculating means calculates the second speaker position range from the position of the first person and the position of the second person detected by the person recognition means. Assuming that the front of the speaker faces the direction of the second person and that the second speaker exists within a predetermined angular range from the front direction of the second person to the left and right, the first person A speaker control device that calculates a range of the position of the second speaker such that does not fall within the directivity range of the second speaker.
前記第二のスピーカの指向性の向きが可変であり且つ指向性の範囲が可変であり、
前記配置算出手段は、前記第二のスピーカの指向性の範囲に前記第二の人が入り且つ前記第一の人が入らないような、前記第二のスピーカの位置、指向性の向きおよび指向性の範囲を算出するスピーカ制御装置。 The speaker control device according to any one of claims 1 to 3,
The direction of directivity of the second speaker is variable and the range of directivity is variable,
The arrangement calculating means is arranged such that the position of the second speaker, the direction of the directivity and the directivity so that the second person enters the directivity range of the second speaker and the first person does not enter. Speaker control device for calculating the range of the sex.
前記スピーカ制御装置によって制御される前記第一および第二のスピーカと、
を備えることを特徴とするロボット。 A speaker control device according to any one of claims 1 to 4;
The first and second speakers controlled by the speaker control device;
A robot characterized by comprising:
第一の人の位置と第二の人の位置とを検出する人物認識ステップと、
前記人物認識ステップにおいて検出された前記第一および第二の人の位置に基づいて、前記第二のスピーカの指向性の範囲内に前記第二の人が入り且つ前記第一の人が入らないような、前記第二のスピーカの位置の範囲を算出する配置算出ステップと、
前記配置算出ステップにおいて算出された前記第二のスピーカの位置の範囲内に入るように、前記第二のスピーカの位置を変更する動作ステップと、
前記第一の人に到達する前記第一のスピーカの音量が所定の範囲内となり、且つ、前記第二の人に到達する前記第二のスピーカの音量が所定の範囲内となるように、前記第一および第二のスピーカの音量を調整する音量補償ステップと、
を含むことを特徴とするスピーカ制御方法。 A method for controlling first and second speakers, comprising:
A person recognition step for detecting the position of the first person and the position of the second person;
Based on the positions of the first and second persons detected in the person recognition step, the second person enters the directivity range of the second speaker and the first person does not enter. An arrangement calculating step for calculating the range of the position of the second speaker,
An operation step of changing the position of the second speaker so as to fall within the range of the position of the second speaker calculated in the arrangement calculating step;
The volume of the first speaker reaching the first person is within a predetermined range, and the volume of the second speaker reaching the second person is within a predetermined range. A volume compensation step for adjusting the volume of the first and second speakers;
The speaker control method characterized by including.
第一の人の位置と第二の人の位置とを検出する人物認識ステップと、
前記人物認識ステップにおいて検出された前記第一および第二の人の位置に基づいて、前記第二のスピーカの指向性の範囲内に前記第二の人が入り且つ前記第一の人が入らないような、前記第二のスピーカの位置の範囲を算出する配置算出ステップと、
前記配置算出ステップにおいて算出された前記第二のスピーカの位置の範囲内に入るように、前記第二のスピーカの位置を変更する動作ステップと、
前記第一の人に到達する前記第一のスピーカの音量が所定の範囲内となり、且つ、前記第二の人に到達する前記第二のスピーカの音量が所定の範囲内となるように、前記第一および第二のスピーカの音量を調整する音量補償ステップと、
をコンピュータに実行させることを特徴とするスピーカ制御プログラム。 A program for controlling the first and second speakers,
A person recognition step for detecting the position of the first person and the position of the second person;
Based on the positions of the first and second persons detected in the person recognition step, the second person enters the directivity range of the second speaker and the first person does not enter. An arrangement calculating step for calculating the range of the position of the second speaker,
An operation step of changing the position of the second speaker so as to fall within the range of the position of the second speaker calculated in the arrangement calculating step;
The volume of the first speaker reaching the first person is within a predetermined range, and the volume of the second speaker reaching the second person is within a predetermined range. A volume compensation step for adjusting the volume of the first and second speakers;
Is executed by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007032480A JP2008197381A (en) | 2007-02-13 | 2007-02-13 | Loudspeaker controller, robot, loudspeaker control method and loudspeaker control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007032480A JP2008197381A (en) | 2007-02-13 | 2007-02-13 | Loudspeaker controller, robot, loudspeaker control method and loudspeaker control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008197381A true JP2008197381A (en) | 2008-08-28 |
Family
ID=39756383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007032480A Pending JP2008197381A (en) | 2007-02-13 | 2007-02-13 | Loudspeaker controller, robot, loudspeaker control method and loudspeaker control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008197381A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017164871A (en) * | 2016-03-18 | 2017-09-21 | 株式会社国際電気通信基礎技術研究所 | Humanoid robot system |
CN114866639A (en) * | 2022-04-29 | 2022-08-05 | 维沃移动通信有限公司 | Electronic equipment, control method and device |
-
2007
- 2007-02-13 JP JP2007032480A patent/JP2008197381A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017164871A (en) * | 2016-03-18 | 2017-09-21 | 株式会社国際電気通信基礎技術研究所 | Humanoid robot system |
CN114866639A (en) * | 2022-04-29 | 2022-08-05 | 维沃移动通信有限公司 | Electronic equipment, control method and device |
WO2023207841A1 (en) * | 2022-04-29 | 2023-11-02 | 维沃移动通信有限公司 | Electronic device, and control method and apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI840587B (en) | Multi-modal user interface | |
JP5456832B2 (en) | Apparatus and method for determining relevance of an input utterance | |
JP2021520141A (en) | Intelligent beam steering in a microphone array | |
US20120027226A1 (en) | System and method for providing focused directional sound in an audio system | |
JP2009514312A (en) | Hearing aid with acoustic tracking means | |
US11568566B2 (en) | Aligning vision-assist device cameras based on physical characteristics of a user | |
JP2007221300A (en) | Robot and control method of robot | |
JP4622384B2 (en) | ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM | |
US20200174735A1 (en) | Wearable audio device capability demonstration | |
US12058495B2 (en) | Using a camera for hearing device algorithm training | |
US11438710B2 (en) | Contextual guidance for hearing aid | |
JP2017011699A (en) | In situ optimization for hearing aid based on capability | |
JP2023514462A (en) | Hearing aid system that can be integrated into the spectacle frame | |
JPWO2008001492A1 (en) | Robot, robot control method, and robot control program | |
JP5206151B2 (en) | Voice input robot, remote conference support system, and remote conference support method | |
JP2006243555A (en) | Response determination system, robot, event output server, and response determining method | |
JP2008197381A (en) | Loudspeaker controller, robot, loudspeaker control method and loudspeaker control program | |
JP6719140B1 (en) | Neck hanging device | |
JP2012205242A (en) | Electronic device and information transfer system | |
JP4655572B2 (en) | Signal processing method, signal processing apparatus, and robot | |
CN206711603U (en) | Electronic equipment | |
JP2012232352A (en) | Communication robot | |
JP7118456B2 (en) | Neck device | |
JP2022060288A (en) | Control device, robot, control method, and program | |
JP2024504379A (en) | Head-mounted computing device with microphone beam steering |