JP2007025140A - Robot apparatus and information presenting method of robot apparatus - Google Patents

Robot apparatus and information presenting method of robot apparatus Download PDF

Info

Publication number
JP2007025140A
JP2007025140A JP2005205721A JP2005205721A JP2007025140A JP 2007025140 A JP2007025140 A JP 2007025140A JP 2005205721 A JP2005205721 A JP 2005205721A JP 2005205721 A JP2005205721 A JP 2005205721A JP 2007025140 A JP2007025140 A JP 2007025140A
Authority
JP
Japan
Prior art keywords
output
voice
robot apparatus
character string
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005205721A
Other languages
Japanese (ja)
Inventor
Masaru Kono
大 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2005205721A priority Critical patent/JP2007025140A/en
Publication of JP2007025140A publication Critical patent/JP2007025140A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot apparatus and an information presenting method of the robot apparatus that enable a user to vary speech output contents through an easy operation so that the speech output contents of the robot apparatus become easy to recognize even when the user has low hearing acuity or is in a noisy atmosphere. <P>SOLUTION: The robot apparatus which has a speech output section 23 outputting a speech and a character string output section 25 outputting a character string and presents information to the user with the speech or character string is equipped with a sound volume control section 24 which varies sound volume of last speech output and outputs the speech when the speech is outputted. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、音声や文字列でユーザに情報を提示するロボット装置およびロボット装置の情報提示方法に関する。   The present invention relates to a robot apparatus that presents information to a user by voice or a character string, and an information presentation method for the robot apparatus.

ユーザに音声を出力することで情報を提示する一般的なロボット装置は、音声出力内容をユーザが聞き取れなかったり、理解できないために、音声出力内容をユーザから聞き返されたり、ユーザからの返答がない場合、再度同じ音声出力を繰り返す。しかし、同じ音声出力を繰り返しても、ユーザが聞き取れるとは限らないという問題がある。   A general robot apparatus that presents information by outputting a voice to the user cannot hear or understand the voice output contents, so the user cannot hear the voice output contents or receive a response from the user. The same audio output is repeated again. However, there is a problem that even if the same audio output is repeated, the user cannot always hear it.

この問題に対して、例えば特許文献1では、音声出力を繰り返す際に、イントネーション、スピード、言葉の区切り方、省略形、声色の少なくとも一つを変えるロボット装置の音声出力方法が開示されている。
図6は、従来のロボット装置の構成を示す図である。図において、101はロボットであり、手振りを行う腕部102を有する。また、カメラ110、マイクロホン111、人検知センサ112、スピーカ113、画像ディスプレイ114、タッチセンサ115、障害物センサ116が設置されている。
ロボット101は図示しない制御部を内蔵しており、制御部は会話処理部および駆動制御部で構成されている。制御部にはカメラ110が撮影した画像やマイクロホン111、タッチセンサ115、障害物センサ116の出力などが入力される。会話処理部はマイクロホン111から入力されたユーザの音声を認識する機能と、ユーザへの音声出力内容を生成してスピーカ113を駆動する発言機能を有している。また、タッチセンサ115が押されたときやユーザに対して音声出力の繰り返しが必要であると判断したときにユーザに対して再度音声出力を繰り返す機能を有している。さらに、音声出力に応じた動作の指示を駆動制御部に与える機能も有している。駆動制御部は会話処理部の処理に応じて腕部102などの可動部を駆動することで、手振りなどを実現する。
To deal with this problem, for example, Patent Document 1 discloses a voice output method for a robot apparatus that changes at least one of intonation, speed, word separation, abbreviation, and voice color when voice output is repeated.
FIG. 6 is a diagram showing a configuration of a conventional robot apparatus. In the figure, reference numeral 101 denotes a robot, which has an arm portion 102 for performing hand shaking. A camera 110, a microphone 111, a human detection sensor 112, a speaker 113, an image display 114, a touch sensor 115, and an obstacle sensor 116 are installed.
The robot 101 includes a control unit (not shown), and the control unit includes a conversation processing unit and a drive control unit. An image captured by the camera 110, outputs of the microphone 111, the touch sensor 115, the obstacle sensor 116, and the like are input to the control unit. The conversation processing unit has a function of recognizing the user's voice input from the microphone 111 and a speech function of generating a voice output content to the user and driving the speaker 113. In addition, when the touch sensor 115 is pressed or when it is determined that it is necessary to repeat the sound output to the user, the user has a function of repeating the sound output again. Further, it has a function of giving an operation instruction according to the sound output to the drive control unit. The drive control unit drives a movable unit such as the arm unit 102 in accordance with the processing of the conversation processing unit, thereby realizing a hand gesture or the like.

以上説明した構成で、タッチセンサ115が押されたり、会話処理により音声出力内容をユーザが理解できなかったと判断したときに、イントネーション、スピード、言葉の区切り方、省略形、声色の少なくとも一つを変えて、再度音声出力する。
このようにして表現を変化させて音声出力を繰り返すことにより、ユーザの注意を引きユーザにストレスを与えずに理解を増すようにしている。
特開2004−46400号公報(第6−6頁、図1)
In the configuration described above, when the touch sensor 115 is pressed or it is determined by the conversation process that the user cannot understand the voice output content, at least one of intonation, speed, word separation, abbreviation, and voice color is selected. Change and output the sound again.
By repeating the voice output while changing the expression in this way, the user's attention is drawn to increase the understanding without giving the user stress.
JP 2004-46400 A (page 6-6, FIG. 1)

しかし、従来のロボット装置においてはイントネーション、スピード、言葉の区切り方、省略形、声色は変化するが、音量は変化しないため、聴力の弱いユーザや周囲の騒音が大きい場合に、ユーザが音声出力内容を認識するためには制御プログラムの設定を変更するなどの操作が必要であり、操作が複雑化するという問題がある。
本発明はこのような問題点に鑑みてなされたものであり、聴力の弱いユーザや周囲の騒音が大きい場合でも、ユーザが簡単な操作でロボット装置の音声出力内容を認識しやすくなるように出力内容を変化させることができるロボット装置およびロボット装置の情報提示方法を提供することを目的とする。
However, in conventional robotic devices, intonation, speed, word separation, abbreviations, and voice color change, but the volume does not change, so if the user has weak hearing or the surrounding noise is loud, the user can In order to recognize this, an operation such as changing the setting of the control program is necessary, and there is a problem that the operation becomes complicated.
The present invention has been made in view of such a problem, and even when a user with weak hearing or surrounding noise is large, an output is made so that the user can easily recognize the audio output content of the robot apparatus with a simple operation. It is an object of the present invention to provide a robot apparatus capable of changing contents and an information presentation method for the robot apparatus.

上記問題を解決するため、本発明は次のように構成したのである。
請求項1に記載の発明は、音声を出力する音声出力部と、文字列を出力する文字列出力部を有し、音声または文字列でユーザに情報を提示するロボット装置において、音声出力時、前回の音声出力に対し音量を変化させて出力する音量調整部を備えることを特徴とするものである。
また、請求項2に記載の発明は、音声出力時、ユーザが認識したときの音量を記憶する出力内容記憶部を更に備え、次回の音声出力時、前記出力内容記憶部に記憶した音量で音声出力することを特徴とするものである。
また、請求項3に記載の発明は、音声出力を所定の回数以上出力した場合、文字列出力に切替えて出力することを特徴とするものである。
また、請求項4に記載の発明は、前記音声出力部と前記文字列出力部により出力する内容を伝送でロボット装置外に出力する出力内容伝送部を更に備えることを特徴とするものである。
In order to solve the above problem, the present invention is configured as follows.
The invention according to claim 1 includes a voice output unit that outputs a voice and a character string output unit that outputs a character string, and presents information to the user by voice or a character string. It is characterized by including a volume adjusting unit that outputs the sound by changing the volume with respect to the previous sound output.
Further, the invention according to claim 2 further includes an output content storage unit that stores a volume when the user recognizes at the time of voice output, and at the next voice output, the voice is stored at the volume stored in the output content storage unit. It is characterized by outputting.
According to a third aspect of the present invention, when a voice output is output a predetermined number of times or more, it is switched to a character string output and output.
The invention described in claim 4 further includes an output content transmission unit that outputs the content output by the voice output unit and the character string output unit to the outside of the robot apparatus by transmission.

また、請求項5に記載の発明は、音声を出力する音声出力部と、文字列を出力する文字列出力部を有し、音声または文字列でユーザに情報を提示するロボット装置の情報提示方法において、音声出力時、前回の音声出力に対し音量を変化させて出力することを特徴とするものである。
また、請求項6に記載の発明は、音声出力時、ユーザが認識したときの音量を記憶し、次回の音声出力時、記憶した音量で音声出力することを特徴とするものである。
また、請求項7に記載の発明は、音声出力を所定の回数以上出力した場合、文字列出力に切替えて出力することを特徴とするものである。
また、請求項8に記載の発明は、前記音声出力部と前記文字列出力部により出力する内容を伝送でロボット装置外に出力することを特徴とするものである。
The invention according to claim 5 is an information presentation method for a robot apparatus that includes a voice output unit that outputs voice and a character string output unit that outputs a character string, and presents information to the user by voice or character string. In the above, the sound output is performed by changing the volume with respect to the previous sound output.
The invention described in claim 6 is characterized in that the sound volume when the user recognizes is stored at the time of sound output, and the sound is output at the stored sound volume at the next sound output time.
The invention described in claim 7 is characterized in that, when the voice output is output a predetermined number of times or more, the output is switched to the character string output.
The invention described in claim 8 is characterized in that the contents output by the voice output unit and the character string output unit are output outside the robot apparatus by transmission.

請求項1および請求項5に記載の発明によると、音声出力時、前回の音声出力の大きさに対し音量を変化させて出力するため、音声出力の音量が適正になり、聴力の弱いユーザや周囲の騒音が大きい場合でも、ユーザが音声出力内容を認識しやすくなる。
請求項2および請求項6に記載の発明によると、ユーザが認識したときの音量を記憶し、次回の音声出力時、記憶した音量で音声出力するので、次回以降、ユーザが音声出力内容を認識するまでの時間を短縮できる。
請求項3および請求項7に記載の発明によると、音声出力を所定の回数以上出力した場合、文字列出力に切替えて出力するので、聴力の弱いユーザや周囲の騒音が大きい場合でも、ユーザが音声出力内容を認識しやすくなる。
請求項4および請求項8に記載の発明によると、前記音声出力部と前記文字列出力部により出力する内容を伝送でロボット装置外に出力するので、例えばユーザが身に付けたスピーカから音声出力を得ることができ、聴力の弱いユーザや周囲の騒音が大きい場合でも、ユーザが音声出力内容を認識しやすくなる。
このように、簡単な操作で音声出力内容を認識しやすくなるように出力内容を変化させることができる。
According to the first and fifth aspects of the invention, when outputting sound, the sound volume is changed with respect to the level of the previous sound output. Even when the ambient noise is high, the user can easily recognize the audio output content.
According to the second and sixth aspects of the invention, the volume when the user recognizes is stored, and when the next sound is output, the sound is output with the stored volume. Time to do can be shortened.
According to the third and seventh aspects of the present invention, when the voice output is output a predetermined number of times or more, the output is switched to the character string output, so even if the user has weak hearing or the surrounding noise is large, It becomes easy to recognize the audio output contents.
According to the fourth and eighth aspects of the present invention, since the contents output by the voice output unit and the character string output unit are output to the outside of the robot apparatus by transmission, for example, the voice is output from a speaker worn by the user. The user can easily recognize the audio output contents even when the user has weak hearing or the surrounding noise is large.
Thus, the output content can be changed so that the audio output content can be easily recognized by a simple operation.

以下、本発明の実施の形態について図を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明のロボット装置の構成を示す図である。図において、1はロボットであり、手振りを行うアーム2を有する。また、スピーカ10、タッチパネル11、カメラ12、マイクロホン13、人検知センサ14、障害物センサ15が設置されている。
ロボット1は制御部を内蔵しており、そこで音声出力に関する制御を行う。
図2は本発明のロボット装置の制御部の構成を示す図である。図において、21は制御部、22は会話処理部であり、28は駆動制御部である。制御部21にはカメラ12が撮影した画像やマイクロホン13、タッチパネル11、人検知センサ14、障害物センサ15の出力などが入力される。会話処理部はマイクロホン13から入力されたユーザの音声を認識する機能と、ユーザへの音声出力内容を生成してスピーカ10を駆動する発言機能を有している。また、タッチパネル11に備えられた認識できないことを示す部分が押されたときやカメラ12で認識できなかったことを示すユーザのジェスチャーを検知したときなど、ユーザが認識できなかったと判断したときに、ユーザに対して再度音声出力を繰り返す機能を有している。さらに、音声出力に応じた動作の指示を駆動制御部28に与える機能も有している。駆動制御部28は会話処理部22の処理に応じてアーム2などの可動部を駆動することで、手振りなどの動作を実現する。
会話処理部22には、音声出力に関する処理として、音声を出力する音声出力部23、音量を調節する音量調節部24、文字列を出力する文字列出力部25、出力した内容を記憶する出力内容記憶部26、出力内容を伝送する出力内容伝送部27が有る。
なお、本実施例の場合、音声出力でロボット本体のスピーカ10から出力することを基本とし、音声の音量がある大きさを超えたと判断した場合、文字列出力に切替え、本体のタッチパネル11に表示するものとする。また、ユーザがタッチパネル11からの操作により音声または文字列の出力を、伝送で外部機器に出力することを選択できるものとする。外部機器としてはユーザが身につけるスピーカや、外部に設置するディスプレイ等があり、ロボットの設置される環境により、より認識しやすいものを選択すれば良い。
FIG. 1 is a diagram showing a configuration of a robot apparatus according to the present invention. In the figure, reference numeral 1 denotes a robot, which has an arm 2 for hand shaking. A speaker 10, a touch panel 11, a camera 12, a microphone 13, a human detection sensor 14, and an obstacle sensor 15 are installed.
The robot 1 has a built-in control unit, and performs control related to voice output.
FIG. 2 is a diagram showing the configuration of the control unit of the robot apparatus of the present invention. In the figure, 21 is a control unit, 22 is a conversation processing unit, and 28 is a drive control unit. The control unit 21 receives an image captured by the camera 12, an output of the microphone 13, the touch panel 11, the human detection sensor 14, the obstacle sensor 15, and the like. The conversation processing unit has a function of recognizing the user's voice input from the microphone 13 and a speech function of generating a voice output content to the user and driving the speaker 10. In addition, when it is determined that the user has not been recognized, such as when a part of the touch panel 11 indicating that it cannot be recognized is pressed or when a user gesture indicating that the camera 12 has not been recognized is detected, It has a function to repeat voice output to the user again. Further, it has a function of giving an operation instruction corresponding to the sound output to the drive control unit 28. The drive control unit 28 drives a movable unit such as the arm 2 according to the processing of the conversation processing unit 22 to realize an operation such as a hand gesture.
The conversation processing unit 22 includes a voice output unit 23 that outputs voice, a volume control unit 24 that adjusts the volume, a character string output unit 25 that outputs a character string, and an output content that stores the output content. There are a storage unit 26 and an output content transmission unit 27 for transmitting the output content.
In the case of the present embodiment, it is basically based on output from the speaker 10 of the robot main body by voice output, and when it is determined that the volume of the voice exceeds a certain level, it is switched to character string output and displayed on the touch panel 11 of the main body. It shall be. In addition, it is assumed that the user can select to output a voice or character string output to an external device by transmission through an operation from the touch panel 11. The external device includes a speaker worn by the user, a display installed outside, and the like, and an easily recognizable device may be selected depending on the environment where the robot is installed.

図3は、会話処理部22の音声出力の処理のフローチャートである。
ステップ1で出力手段が音声か文字列かを判別する。音声出力の場合ステップS2に進む。文字列出力の場合、ステップS4に進む。ここで、文字列出力となるのは、ユーザが文字列出力を選択した場合か、音声出力で音量がある大きさを超えた場合である。
ステップS2で音量調節部23にて音量を調整する。イニシャル時はあらかじめ定められた初期値の音量とする。また、1度ユーザが認識して、音量を記憶している場合の次の回は、記憶している音量とする。ユーザが認識しなかった場合は、あらかじめ定められた値だけ音量を上げる。次に、ステップS3で音声出力部23にて音声を出力する。次にステップS5に進み、ユーザが認識したかどうか判断する。タッチパネル11に備えられた認識できないことを示す部分が押されたときやカメラ12で認識できなかったことを示すユーザのジェスチャーを検知したときなど、ユーザが認識できなかったと判断した場合、ステップS7に進む。ステップS7では、ユーザが認識できなかった回数があらかじめ設定されたN回以上かどうかをチェックする。N回以上でなければステップS2に戻り、音量を上げる。N回以上であれば、音声による出力では認識できないと判断し、ステップS8に進み文字列による出力に切替える。そして、ステップS4に進む。
ステップS5でユーザが認識したと判断した場合は、ステップS6に進み出力内容記憶部26により、音量・文字列の出力内容を記憶し、処理を終了する。なお、記憶した音量は次回の最初の会話処理でその音量で出力する。また、文字列を記憶した場合、次回も文字列を出力する。
文字列出力をする場合、ステップS4で文字列出力部25により文字列を出力し、ステップS5に進む。
FIG. 3 is a flowchart of the voice output process of the conversation processing unit 22.
In step 1, it is determined whether the output means is a voice or a character string. In the case of audio output, the process proceeds to step S2. In the case of character string output, the process proceeds to step S4. Here, the character string is output when the user selects the character string output or when the sound output exceeds a certain volume.
In step S2, the volume control unit 23 adjusts the volume. At initial time, the volume is set to a predetermined initial value. The next time when the user recognizes the sound volume once and stores the sound volume is the stored sound volume. If the user does not recognize it, the volume is increased by a predetermined value. Next, in step S3, the sound output unit 23 outputs sound. Next, it progresses to step S5 and it is judged whether the user recognized. When it is determined that the user has not been recognized, for example, when a portion of the touch panel 11 indicating that it cannot be recognized is pressed or when a user gesture indicating that the camera 12 has not been recognized is detected, the process proceeds to step S7. move on. In step S7, it is checked whether or not the number of times that the user could not recognize is equal to or more than N times set in advance. If not N times or more, the process returns to step S2 to increase the volume. If it is N times or more, it is determined that it cannot be recognized by voice output, and the process proceeds to step S8 to switch to character string output. Then, the process proceeds to step S4.
If it is determined in step S5 that the user has recognized, the process proceeds to step S6, where the output content storage unit 26 stores the output content of the volume / character string, and the process ends. The stored volume is output at that volume in the next first conversation process. If the character string is stored, the character string is output next time.
When outputting a character string, the character string output unit 25 outputs a character string in step S4, and the process proceeds to step S5.

図4は音声出力部23の処理のフローチャートである。
ステップS11で音声出力を伝送するかどうか判別する。伝送しない場合、ステップS12に進み、音声をロボット本体に出力する。伝送する場合、ステップS13に進み、音声出力を伝送で出力する。
図5は文字列出力部25の処理のフローチャートである。
ステップS21で文字列出力を伝送するかどうか判別する。伝送しない場合、ステップS22に進み、文字列をロボット本体に出力する。伝送する場合、ステップS23に進み、文字列出力を伝送で出力する。
伝送する場合は、音声出力の場合、ユーザが身につけた音楽再生装置や補聴器と無線通信を行って音声出力内容を伝送し、ヘッドホンや補聴器のスピーカなど、よりユーザが聞き取りやすい位置に設置したスピーカから音声を出力することができる。
また、文字列出力の場合、音声で出力する内容を文字列として伝送し、外部のディスプレイやユーザが身に付けている機器に表示することができる。
FIG. 4 is a flowchart of the process of the audio output unit 23.
In step S11, it is determined whether an audio output is transmitted. When not transmitting, it progresses to step S12 and outputs an audio | voice to a robot main body. When transmitting, it progresses to step S13 and outputs an audio | voice output by transmission.
FIG. 5 is a flowchart of processing of the character string output unit 25.
In step S21, it is determined whether or not the character string output is transmitted. When not transmitting, it progresses to step S22 and a character string is output to a robot main body. When transmitting, it progresses to step S23 and outputs a character string output by transmission.
In the case of transmission, in the case of audio output, the audio output content is transmitted by wireless communication with a music playback device or hearing aid worn by the user, such as a headphone or a hearing aid speaker installed at a position where the user can easily hear. Can output audio.
In the case of character string output, the content to be output by voice can be transmitted as a character string and displayed on an external display or a device worn by the user.

このように、音声出力時、前回の音声出力の大きさに対し音量を変化させて出力するため、音声出力の音量が適正になり、聴力の弱いユーザや周囲の騒音が大きい場合でも、ユーザが音声出力内容を認識しやすくなる。また、ユーザが認識したときの音量を記憶し、次回の音声出力時、記憶した音量で音声出力するので、次回以降、ユーザが音声出力内容を認識するまでの時間を短縮できる。また、音声出力を所定の回数以上出力した場合、文字列出力に切替えて出力するので、聴力の弱いユーザや周囲の騒音が大きい場合でも、ユーザが音声出力内容を認識しやすくなる。また、前記音声出力部と前記文字列出力部により出力する内容を伝送でロボット装置外に出力するので、例えばユーザが身に付けたスピーカから音声出力を得ることができ、聴力の弱いユーザや周囲の騒音が大きい場合でも、ユーザが音声出力内容を認識しやすくなる。このように、簡単な操作で音声出力内容を認識しやすくなるように出力内容を変化させることができるのである。   In this way, when outputting sound, the sound volume is changed with respect to the previous sound output level, so that the sound output sound volume is appropriate, and even if the user has weak hearing or the surrounding noise is high, It becomes easy to recognize the audio output contents. In addition, since the sound volume when the user recognizes is stored and the sound is output at the stored sound volume at the next sound output time, it is possible to shorten the time until the user recognizes the sound output content from the next time. In addition, when the voice output is output a predetermined number of times or more, since the voice output is switched to the character string output, the user can easily recognize the voice output content even when the user has weak hearing or the surrounding noise is large. Further, since the contents output by the voice output unit and the character string output unit are output to the outside of the robot apparatus by transmission, for example, a voice output can be obtained from a speaker worn by the user, and a user with weak hearing or the surroundings Even if the noise is loud, the user can easily recognize the audio output content. Thus, the output content can be changed so that the audio output content can be easily recognized by a simple operation.

本発明はロボット装置の情報提示に限らず、テレビやラジオ等、さまざまな情報提示手段および装置にも適用できる。   The present invention is not limited to the information presentation of the robot apparatus, but can be applied to various information presentation means and devices such as a television and a radio.

本発明のロボット装置の構成を示す図The figure which shows the structure of the robot apparatus of this invention 本発明のロボット装置の制御部の構成を示す図The figure which shows the structure of the control part of the robot apparatus of this invention 会話処理部の音声出力の処理のフローチャートFlow chart of voice output processing of conversation processing unit 音声出力部の処理のフローチャートFlow chart of processing of audio output unit 文字列表示部の処理のフローチャートFlowchart of processing of character string display part 従来のロボット装置の構成を示す図The figure which shows the structure of the conventional robot apparatus

符号の説明Explanation of symbols

1、101 ロボット
2 アーム
10、113 スピーカ
11 タッチパネル
12、110 カメラ
13、111 マイクロホン
14、112 人検知センサ
15 障害物センサ
21 制御部
22 会話処理部
23 音声出力部
24 音量調節部
25 文字列出力部
26 出力内容記憶部
27 出力内容伝送部
28 駆動制御部
102 腕部
114 画像ディスプレイ
115 タッチセンサ
116 障害物センサ
DESCRIPTION OF SYMBOLS 1,101 Robot 2 Arm 10, 113 Speaker 11 Touch panel 12, 110 Camera 13, 111 Microphone 14, 112 Human detection sensor 15 Obstacle sensor 21 Control part 22 Conversation processing part 23 Voice output part 24 Volume control part 25 Character string output part 26 Output content storage unit 27 Output content transmission unit 28 Drive control unit 102 Arm unit 114 Image display 115 Touch sensor 116 Obstacle sensor

Claims (8)

音声を出力する音声出力部と、
文字列を出力する文字列出力部を有し、
音声または文字列でユーザに情報を提示するロボット装置において、
音声出力時、前回の音声出力に対し音量を変化させて出力する音量調整部を備えることを特徴とするロボット装置。
An audio output unit for outputting audio;
It has a string output part that outputs a string,
In a robot apparatus that presents information to a user by voice or character string,
A robot apparatus comprising: a volume adjusting unit that outputs a sound by changing a volume with respect to a previous sound output at the time of sound output.
音声出力時、ユーザが認識したときの音量を記憶する出力内容記憶部を更に備え、
次回の音声出力時、前記出力内容記憶部に記憶した音量で音声出力することを特徴とする請求項1記載のロボット装置。
An output content storage unit for storing a volume when the user recognizes at the time of voice output;
The robot apparatus according to claim 1, wherein a voice is output at a volume stored in the output content storage unit at a next voice output.
音声出力を所定の回数以上出力した場合、文字列出力に切替えて出力することを特徴とする請求項1記載のロボット装置。   2. The robot apparatus according to claim 1, wherein when the voice output is output a predetermined number of times or more, the output is switched to the character string output. 前記音声出力部と前記文字列出力部により出力する内容を伝送でロボット装置外に出力する出力内容伝送部を更に備えることを特徴とする請求項1記載のロボット装置。   The robot apparatus according to claim 1, further comprising an output content transmission unit that outputs contents output by the voice output unit and the character string output unit to the outside of the robot apparatus by transmission. 音声を出力する音声出力部と、
文字列を出力する文字列出力部を有し、
音声または文字列でユーザに情報を提示するロボット装置の情報提示方法において、
音声出力時、前回の音声出力に対し音量を変化させて出力することを特徴とするロボット装置の情報提示方法。
An audio output unit for outputting audio;
It has a string output part that outputs a string,
In the information presentation method of the robot apparatus for presenting information to the user by voice or character string,
An information presentation method for a robot apparatus, characterized in that at the time of voice output, the volume is changed with respect to the previous voice output.
音声出力時、ユーザが認識したときの音量を記憶し、
次回の音声出力時、記憶した音量で音声出力することを特徴とする請求項5記載のロボット装置の情報提示方法。
At the time of voice output, remember the volume when the user recognizes,
6. The information presentation method for a robotic device according to claim 5, wherein the voice is output at the stored volume at the next voice output.
音声出力を所定の回数以上出力した場合、文字列出力に切替えて出力することを特徴とする請求項5記載のロボット装置の情報提示方法。   6. The robot apparatus information presentation method according to claim 5, wherein when the voice output is output a predetermined number of times or more, the output is switched to the character string output. 前記音声出力部と前記文字列出力部により出力する内容を伝送でロボット装置外に出力することを特徴とする請求項5記載のロボット装置の情報提示方法。   6. The information presentation method for a robot apparatus according to claim 5, wherein contents output by the voice output unit and the character string output unit are output to the outside of the robot apparatus by transmission.
JP2005205721A 2005-07-14 2005-07-14 Robot apparatus and information presenting method of robot apparatus Pending JP2007025140A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005205721A JP2007025140A (en) 2005-07-14 2005-07-14 Robot apparatus and information presenting method of robot apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005205721A JP2007025140A (en) 2005-07-14 2005-07-14 Robot apparatus and information presenting method of robot apparatus

Publications (1)

Publication Number Publication Date
JP2007025140A true JP2007025140A (en) 2007-02-01

Family

ID=37786010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005205721A Pending JP2007025140A (en) 2005-07-14 2005-07-14 Robot apparatus and information presenting method of robot apparatus

Country Status (1)

Country Link
JP (1) JP2007025140A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110524547A (en) * 2018-05-24 2019-12-03 卡西欧计算机株式会社 Conversational device, robot, conversational device control method and storage medium
JP2020522019A (en) * 2017-06-02 2020-07-27 ロヴィ ガイズ, インコーポレイテッド System and method for generating volume-based responses for multiple voice-activated user devices

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020522019A (en) * 2017-06-02 2020-07-27 ロヴィ ガイズ, インコーポレイテッド System and method for generating volume-based responses for multiple voice-activated user devices
US11481187B2 (en) 2017-06-02 2022-10-25 Rovi Guides, Inc. Systems and methods for generating a volume-based response for multiple voice-operated user devices
JP7239494B2 (en) 2017-06-02 2023-03-14 ロヴィ ガイズ, インコーポレイテッド Systems and methods for generating volume-based responses for multiple voice-activated user devices
CN110524547A (en) * 2018-05-24 2019-12-03 卡西欧计算机株式会社 Conversational device, robot, conversational device control method and storage medium
CN110524547B (en) * 2018-05-24 2023-04-25 卡西欧计算机株式会社 Session device, robot, session device control method, and storage medium

Similar Documents

Publication Publication Date Title
JP6858699B2 (en) A control device for an earphone or a media player that communicates with the earphone, and its control method
JP5998861B2 (en) Information processing apparatus, information processing method, and program
US9131060B2 (en) System and method for adapting an attribute magnification for a mobile communication device
EP2192475A3 (en) Control of input/output through touch
US10303436B2 (en) Assistive apparatus having accelerometer-based accessibility
CN109739465B (en) Audio output method and mobile terminal
CN110568926B (en) Sound signal processing method and terminal equipment
EP1780993A2 (en) Method and apparatus for establishing and displaying menu selection screen in portable terminal
JP2014003592A (en) Bone conduction vibrator device control system and apparatus
JP6707671B2 (en) Behavior control device, robot, control program, and method of controlling behavior control device
WO2018034059A1 (en) Voice input device, translation device, voice input method, and voice input program
JP4543319B2 (en) Text output device, method and program
JP2017219746A (en) Voice output controller and voice output control program
JP2007025140A (en) Robot apparatus and information presenting method of robot apparatus
KR101983772B1 (en) Learning system for listening
JP5582946B2 (en) Portable electronic device and voice control system
CN113287117A (en) Interactive system and method
JP2005124135A (en) Acoustic instrument
CN110691303B (en) Wearable sound box and control method thereof
JP7263957B2 (en) Information device, automatic setting method and automatic setting program
JP2010177774A (en) Mobile electronic device and voice output adjustment method
KR200429347Y1 (en) Personal cellular phone which has vibrational tactile feeling
JP2014202808A (en) Input/output device
JP2018084843A (en) Input/output device
JP6559051B2 (en) Robot apparatus having utterance function, utterance control method, and program