JP7176244B2 - Robot, robot control method and program - Google Patents

Robot, robot control method and program Download PDF

Info

Publication number
JP7176244B2
JP7176244B2 JP2018116650A JP2018116650A JP7176244B2 JP 7176244 B2 JP7176244 B2 JP 7176244B2 JP 2018116650 A JP2018116650 A JP 2018116650A JP 2018116650 A JP2018116650 A JP 2018116650A JP 7176244 B2 JP7176244 B2 JP 7176244B2
Authority
JP
Japan
Prior art keywords
predetermined target
distance
robot
voice
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018116650A
Other languages
Japanese (ja)
Other versions
JP2019219509A (en
Inventor
哲司 牧野
英里奈 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018116650A priority Critical patent/JP7176244B2/en
Publication of JP2019219509A publication Critical patent/JP2019219509A/en
Application granted granted Critical
Publication of JP7176244B2 publication Critical patent/JP7176244B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボット、ロボットの制御方法及びプログラムに関する。 The present invention relates to a robot, a robot control method, and a program.

一般家庭等において音声対話を目的としたロボットが用いられている。音声対話を目的としたロボットの普及には、ロボットと、ユーザを含む所定の対象と、の対話の精度を向上させることが重要な点となっている。ロボットと所定の対象との距離が、ロボットと所定の対象との対話に必要な対話距離よりも離れている場合、又は、雑音が大きい場合には、ロボットと所定の対象との対話が困難である。 Robots for the purpose of voice interaction are used in general households and the like. Improving the precision of dialogue between a robot and a predetermined target including a user is important for the spread of robots intended for voice dialogue. When the distance between the robot and the predetermined target is longer than the dialogue distance required for dialogue between the robot and the predetermined target, or when the noise is large, it is difficult for the robot to interact with the predetermined target. be.

例えば、特許文献1は、所定の対象からの音源方向を推定して、推定された音源方向へロボットを移動させて、所定の対象と対話をする対話型ロボットを開示する。 For example, Patent Literature 1 discloses an interactive robot that estimates the direction of a sound source from a predetermined target, moves the robot in the estimated direction of the sound source, and interacts with the predetermined target.

特開2006-181651号公報Japanese Patent Application Laid-Open No. 2006-181651

しかしながら、特許文献1の技術においては、所定の対象から音源方向へロボットを移動させて、所定の対象と対話をするだけであるため、対話距離よりも離れている所定の対象から話しかけられた場合や、雑音が大きいときに所定の対象から話しかけられた場合に、ロボットと所定の対象との対話時の音声認識精度を向上させることが困難であるという問題がある。 However, in the technique of Patent Literature 1, since the robot is moved from a predetermined target toward the sound source and only interacts with the predetermined target, when the predetermined target that is farther than the dialogue distance talks to the robot, Another problem is that it is difficult to improve the accuracy of speech recognition during dialogue between the robot and the predetermined target when the target speaks to the robot when there is a lot of noise.

本発明は、前記のような課題を解決するためになされたものであり、対話時の音声認識精度が高いロボット、ロボットの制御方法及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a robot, a method for controlling the robot, and a program that achieve high speech recognition accuracy during dialogue.

本発明の目的を達成するため、本発明に係るロボットの一様態は、
自装置に動作をさせる動作手段と、
前記自装置を移動させる移動手段と、
前記自装置が所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の距離を検出し、検出された前記距離が前記所定の対象との対話の音声認識精度を確保できる対話可能距離を超えるか否かを判定する判定手段と、
前記判定手段により、検出された前記距離が前記対話可能距離を超えていると判定された場合、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御する制御手段と、
を備え
前記制御手段は、前記自装置の前記所定の対象に向けての移動中に前記所定の対象から再度話しかけられた場合、前記判定手段により前記自装置と前記所定の対象との間の距離が前記対話可能距離以下となったと判定された後に、前記移動中に話しかけられた内容を認識できていないことを示す動作をするように前記動作手段を制御する、
ことを特徴とする。
In order to achieve the object of the present invention, one aspect of the robot according to the present invention is
an operation means for causing the device to operate;
a moving means for moving the own device;
When the device is spoken to by a predetermined target, the device detects the distance between the device and the predetermined target, and the detected distance can ensure the speech recognition accuracy of the dialogue with the predetermined target. a determination means for determining whether or not the interactive distance is exceeded ;
a control means for controlling the movement means so that the self-device moves toward the predetermined target when the determination means determines that the detected distance exceeds the interactive distance ; ,
with
When the predetermined target speaks to the device again while the device is moving toward the predetermined target, the control means determines the distance between the device and the predetermined target by the determination device. controlling the operating means so as to perform an operation indicating that the content spoken to during the movement is not recognized after it is determined that the distance is equal to or less than the interactive distance ;
It is characterized by

本発明の目的を達成するため、本発明に係るロボットの制御方法の一様態は、
自装置に動作をさせる動作手段と、前記自装置を移動させる移動手段と、を備えるロボットの制御方法であって、
前記自装置が所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の距離を検出し、検出された前記距離が前記所定の対象との対話の音声認識精度を確保できる対話可能距離を超えるか否かを判定する判定ステップと、
前記判定ステップにより、検出された前記距離が前記対話可能距離を超えていると判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御ステップと、
を含
前記判定ステップにより、前記距離が前記対話可能距離を超えると判定された場合、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御し、
前記自装置の前記所定の対象に向けての移動中に前記所定の対象から再度話しかけられた場合、前記自装置と前記所定の対象との間の距離が前記対話可能距離以下となったと判定された後に、前記移動中に話しかけられた内容を認識できていないことを示す動作をするように前記動作手段を制御する、
ことを特徴とする。
In order to achieve the object of the present invention, one aspect of the robot control method according to the present invention includes:
A control method for a robot comprising operating means for causing the own device to operate and moving means for moving the own device ,
When the device is spoken to by a predetermined target, the device detects the distance between the device and the predetermined target, and the detected distance can ensure the speech recognition accuracy of the dialogue with the predetermined target. a determination step of determining whether or not the interactive distance is exceeded ;
When the determination step determines that the detected distance exceeds the interactive distance, the operation means makes a first response for causing the predetermined target to stop the talking. a control step for controlling
including
if the determining step determines that the distance exceeds the interactive distance, controlling the moving means so that the own device moves toward the predetermined target;
When the predetermined target speaks to the device again while the device is moving toward the predetermined target, it is determined that the distance between the device and the predetermined target is equal to or less than the interactive distance. After that, controlling the operation means to perform an operation indicating that the content spoken to during the movement is not recognized.
It is characterized by

本発明の目的を達成するため、本発明に係るプログラムの一様態は、
自装置に動作をさせる動作手段と、前記自装置を移動させる移動手段と、を備えるロボットを制御するコンピュータを、
前記自装置が所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の距離を検出し、検出された前記距離が前記所定の対象との対話の音声認識精度を確保できる対話可能距離を超えるか否かを判定する判定手段、
前記判定手段により、検出された前記距離が前記対話可能距離を超えていると判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段、
として機能させ
前記制御手段は、
前記判定手段により前記距離が前記対話可能距離を超えると判定された場合、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御し、
前記自装置の前記所定の対象に向けての移動中に前記所定の対象から再度話しかけられた場合、前記判定手段により前記自装置と前記所定の対象との間の距離が前記対話可能距離以下となったと判定された後に、前記移動中に話しかけられた内容を認識できていないことを示す動作をするように前記動作手段を制御する、
ことを特徴とする。
In order to achieve the object of the present invention, one aspect of the program according to the present invention is
A computer that controls a robot comprising operating means for causing the own device to move and moving means for moving the own device ,
When the device is spoken to by a predetermined target, the device detects the distance between the device and the predetermined target, and the detected distance can ensure the speech recognition accuracy of the dialogue with the predetermined target. Determination means for determining whether or not the interactive distance is exceeded ;
When the determining means determines that the detected distance exceeds the interactive distance, the operating means makes a first response for causing the predetermined target to stop talking. control means for controlling
function as
The control means is
controlling the movement means so that the device moves toward the predetermined target when the determination means determines that the distance exceeds the interactive distance;
When the predetermined target speaks to the device again while the device is moving toward the predetermined target, the determining means determines that the distance between the device and the predetermined target is equal to or less than the interactive distance. controlling the operating means to perform an operation indicating that the content spoken to during the movement is not recognized after it is determined that the
It is characterized by

本発明によれば、対話時の音声認識精度が高いロボット、ロボットの制御方法及びプログラムを提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide a robot, a control method for the robot, and a program that achieve high speech recognition accuracy during dialogue.

本発明の第1の実施の形態に係るロボットを示す図である。It is a figure showing a robot concerning a 1st embodiment of the present invention. 本発明の第1の実施の形態に係るロボットの構成を示すブロック図である。1 is a block diagram showing the configuration of a robot according to a first embodiment of the present invention; FIG. 本発明の第1の実施の形態に係る第1の対話処理を示すフローチャートである。4 is a flow chart showing first interactive processing according to the first embodiment of the present invention; 本発明の第1の実施の形態に係る第1の対話処理を説明する図である。It is a figure explaining the 1st interactive processing based on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る第1の対話処理を説明する図である。It is a figure explaining the 1st interactive processing based on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る第1の対話処理を説明する図である。It is a figure explaining the 1st interactive processing based on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る第1の対話処理を説明する図である。It is a figure explaining the 1st interactive processing based on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係るロボットの構成を示すブロック図である。FIG. 4 is a block diagram showing the configuration of a robot according to a second embodiment of the present invention; FIG. 本発明の第2の実施の形態に係る第2の対話処理を示すフローチャートである。9 is a flow chart showing second interactive processing according to the second embodiment of the present invention; 本発明の変形例に係る対話可能距離と雑音の音量との関係を示す図である。FIG. 10 is a diagram showing the relationship between the interactive distance and the volume of noise according to the modification of the present invention; 本発明の変形例に係る雑音の音量の基準値と、ユーザとロボットとの距離と、の関係を示す図である。FIG. 10 is a diagram showing the relationship between the reference value of the volume of noise and the distance between the user and the robot according to the modification of the present invention;

以下、本発明を実施するための形態に係るロボットを、図面を参照しながら説明する。 Hereinafter, robots according to embodiments for carrying out the present invention will be described with reference to the drawings.

(第1の実施の形態)
第1の実施の形態に係るロボット100は、図1に示すように、人をデフォルメした形状を有し、目と口と鼻とを模した部材が配置された頭部101と、足を模した部材が配置された胴体部(筐体)102と、胴体部102に配置された手部103と、頭部101に配置されたマイク(マイクロフォン)104と、撮像部105と、スピーカ106と、表示部107と、底部に配置された移動部108と、胴体部102の背中に設けられた操作ボタン120と、を備え、胴体部102の内部には、制御部110と電源部130とを有する。手部103とマイク104と撮像部105とスピーカ106と表示部107とは、動作手段として機能する。
(First embodiment)
As shown in FIG. 1, the robot 100 according to the first embodiment has a deformed shape of a human, and includes a head 101 on which members simulating eyes, a mouth, and a nose are arranged, and a leg simulating a leg. A body (housing) 102 in which the members are arranged, a hand 103 arranged in the body 102, a microphone (microphone) 104 arranged in the head 101, an imaging unit 105, a speaker 106, It has a display unit 107, a moving unit 108 arranged on the bottom, and an operation button 120 provided on the back of the body 102. The body 102 has a control unit 110 and a power supply unit 130 inside. . The hand portion 103, the microphone 104, the imaging portion 105, the speaker 106, and the display portion 107 function as operating means.

手部103は、制御部110の制御に基づいて、図示しない駆動部により動作する。例えば、手部103を耳の後ろにあてる動作で、音声が聞こえないことをジェスチャーにより表現する。 The hand portion 103 is operated by a driving portion (not shown) under the control of the control portion 110 . For example, by putting the hand part 103 behind the ear, a gesture is used to express that the voice cannot be heard.

マイク104は、頭部101の右耳、左耳及び後頭部に配置され、音声を収音する。右耳に配置されたマイク104は、右前方から発せられた音声を集音する。左耳に配置されたマイク104は、左前方から発せられた音声を集音する。後頭部に配置されたマイク104は、後ろから発せられた音声を集音する。マイク104は、収音した音声を制御部110に出力する。このように、マイク104は、音声を入力する音声入力手段として機能する。 The microphones 104 are arranged in the right ear, left ear, and back of the head 101 and pick up sounds. A microphone 104 placed in the right ear picks up sound emitted from the right front. A microphone 104 placed in the left ear collects sound emitted from the left front. A microphone 104 placed on the back of the head collects sounds emitted from behind. Microphone 104 outputs the collected sound to control unit 110 . Thus, the microphone 104 functions as an audio input means for inputting audio.

撮像部105は、頭部101の鼻の位置に設けられたカメラである。撮像部105は、ユーザUなどの所定の対象を撮像し、撮像された画像を示すデータを制御部110に出力する。このように、撮像部105は、画像を撮像する撮像手段として機能する。 The imaging unit 105 is a camera provided at the nose position of the head 101 . The imaging unit 105 captures an image of a predetermined target such as the user U, and outputs data representing the captured image to the control unit 110 . Thus, the imaging unit 105 functions as imaging means for capturing an image.

スピーカ106は、頭部101の口の位置に設けられ、制御部110の制御に基づいて、音声を発話する。このように、スピーカ106は、音声を出力する音声出力手段として機能する。 The speaker 106 is provided at the position of the mouth of the head 101 and speaks a sound under the control of the control unit 110 . Thus, the speaker 106 functions as an audio output unit that outputs audio.

表示部107は、頭部101の目の位置に設けられ、制御部110の制御に基づいて、目の画像を表示する。 The display unit 107 is provided at the position of the eyes of the head 101 and displays an image of the eyes based on the control of the control unit 110 .

移動部108は、モータとタイヤとから構成され、制御部110の制御に基づいて、ロボット100を自律移動するものである。移動部108は、ロボット100を前進、後退、右折、左折、右旋回及び左旋回する。このように、移動部108は、移動手段として機能する。 The moving unit 108 is composed of a motor and tires, and autonomously moves the robot 100 based on the control of the control unit 110 . The moving unit 108 moves the robot 100 forward, backward, turn right, turn left, turn right, and turn left. Thus, the moving unit 108 functions as moving means.

制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)から構成される。ROMは、フラッシュメモリ等の不揮発性メモリから構成され、制御部110が各種機能を実現するためのプログラム及び呼びかけ音声の音声パターンを示すデータ、対話を開始する通知を示す音声データ及び移動中話しかけ対策のための音声データを記憶する。RAMは、揮発性メモリから構成され、制御部110が各種処理を行うためのプログラムを実行するための作業領域として用いられる。また、RAMは、移動中話しかけFlagがONであるかOFFであるかを記憶する。制御部110は、CPUがROMに記憶されたプログラムを読み出してRAM上で実行することにより、図2に示すように、音声解析部111と、移動制御部112と、判定部113と、対話制御部114として機能する。移動制御部112と対話制御部114とは、制御手段として機能する。 The control unit 110 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The ROM is composed of non-volatile memory such as flash memory, and includes programs for realizing various functions of the control unit 110, data indicating the voice pattern of the calling voice, voice data indicating the notification of starting a dialogue, and countermeasures against talking while moving. store audio data for The RAM is composed of volatile memory, and is used as a work area for executing programs for the control unit 110 to perform various processes. In addition, the RAM stores whether the talking-while-moving Flag is ON or OFF. The control unit 110 has a voice analysis unit 111, a movement control unit 112, a determination unit 113, and an interactive control unit as shown in FIG. It functions as part 114 . The movement control unit 112 and the interaction control unit 114 function as control means.

音声解析部111は、ユーザUから発せられた音声を検出し、ユーザUから発せられた音声に、予め登録された呼びかけ音声を含んでいるか否かを判定する。呼びかけ音声は、例えば、ロボットの名前、「おーい」、「ちょっと聞いて」などが含まれる。呼びかけ音声は、予め登録されている音声パターンと照合するため、対話可能距離Dを超えて離れていても検出可能である。また、音声解析部111は、呼びかけ音声が発せられた音源の方向を検出する。具体的には、音声解析部111は、呼びかけ音声が発せられた音源の方向を、頭部101の右耳に配置されたマイク104、左耳に配置されたマイク104、及び後頭部に配置されたマイク104で収音した呼びかけ音声の音量差又は位相差により検出する。また、音声解析部111は、移動中にユーザUから話しかけられているか否かを判定する。移動中にユーザUから話しかけられていると判定すると、音声解析部111は、移動中話しかけFlagをONにする。 The voice analysis unit 111 detects the voice uttered by the user U, and determines whether or not the voice uttered by the user U includes a pre-registered calling voice. The calling voice includes, for example, the name of the robot, "hey", "listen", and the like. Since the calling voice is matched with a pre-registered voice pattern, it can be detected even if the distance D exceeds the dialogue possible distance. Also, the voice analysis unit 111 detects the direction of the sound source from which the calling voice is emitted. Specifically, the voice analysis unit 111 determines the direction of the sound source from which the calling voice is emitted, the microphone 104 placed in the right ear of the head 101, the microphone 104 placed in the left ear, and the microphone 104 placed in the back of the head. It is detected by the volume difference or phase difference of the calling voice picked up by the microphone 104 . Also, the voice analysis unit 111 determines whether or not the user U is speaking to the user while moving. When determining that the user U is talking to the user U while moving, the voice analysis unit 111 turns on the moving talk flag.

移動制御部112は、移動部108を制御し、呼びかけ音声が発せられた音源の方向にロボット100が向くように旋回する。具体的には、移動制御部112は、音声解析部111で検出された方向、又は撮像部105で検出したユーザUの顔の方向にロボット100を右旋回又は左旋回し、呼びかけ音声が発せられた音源の方向に向ける。また、移動制御部112は、移動部108を制御し、ロボット100をユーザUに向けて移動する。また、対話可能距離Dを超えていた位置から、ロボット100がユーザUに向けて移動をするように移動部108を制御した後において、移動制御部112は、ロボット100が対話可能距離D以下に近づいたと判定された場合に、ロボット100を停止するように移動部108を制御する。 The movement control unit 112 controls the movement unit 108 to turn the robot 100 so that it faces the direction of the sound source from which the calling voice is emitted. Specifically, the movement control unit 112 turns the robot 100 to the right or left in the direction detected by the voice analysis unit 111 or the direction of the face of the user U detected by the imaging unit 105, and the calling voice is emitted. facing the direction of the sound source. The movement control unit 112 also controls the movement unit 108 to move the robot 100 toward the user U. Further, after controlling the movement unit 108 so that the robot 100 moves toward the user U from a position beyond the conversational distance D, the movement control unit 112 moves the robot 100 to the conversational distance D or less. When it is determined that the robot 100 has approached, the moving unit 108 is controlled to stop the robot 100 .

判定部113は、ユーザUからロボット100に話しかけられた場合、ユーザUとロボット100との対話が可能であるか否かを判定する。撮像部105が撮像した画像からユーザUの顔を検出し、ユーザUの顔までの距離を検出する。判定部113は、顔の大きさから距離を検出してもよく、左右の目の間の距離からユーザUの顔までの距離を検出してもよい。その後、判定部113は、ユーザUとロボット100との対話が可能であるか否かを、ユーザUの顔までの距離が対話可能距離D以下であるか否かにより判定する。対話可能距離Dは、音声パターンが予め登録されていなくても、マイク104で集音した音声を文字情報に変換できる程度に音声を認識できる距離である。対話可能距離Dは、例えば1mである。このように、判定部113は、判定手段として機能する。 When the user U speaks to the robot 100, the determination unit 113 determines whether or not the user U and the robot 100 can interact with each other. The face of the user U is detected from the image captured by the imaging unit 105, and the distance to the face of the user U is detected. The determination unit 113 may detect the distance from the size of the face, or may detect the distance to the face of the user U from the distance between the left and right eyes. After that, the determination unit 113 determines whether or not the user U and the robot 100 can interact with each other by determining whether or not the distance to the face of the user U is equal to or less than the interaction-possible distance D. The conversationable distance D is a distance at which speech can be recognized to such an extent that the speech collected by the microphone 104 can be converted into character information even if no speech pattern is registered in advance. The interactive distance D is, for example, 1 m. Thus, the determination unit 113 functions as determination means.

対話制御部114は、対話の開始を阻止する動作(対話の中断をさせるための第1の応答)、対話を開始する通知(第1の応答とは異なる対話を継続する第2の応答)、移動中話しかけ対策及び対話の実行を行う。対話制御部114は、ロボット100とユーザUとの間の対話が可能になるまでの間、対話の開始を阻止する動作を実行する。具体的には、対話制御部114は、対話の開始を阻止する動作として、「ハーイただいま」「ちょっと待って」などの対話の開始を阻止する音声を発話する、又は手部103を耳の後ろに当てて聞こえないジェスチャーを実行する。また、対話制御部114は、対話の開始を阻止する動作を実行した後、ロボット100とユーザUとの間の対話が可能になったと判定されると、対話を開始する通知を実行する。対話制御部114は、対話を開始する通知として、スピーカ106からユーザUの名前、「何でしょうか」などの対話を開始する通知を音声により発話してもよく、手部103を前に出して対話を開始するジェスチャーを実行してもよい。また、対話制御部114は、移動中話しかけFlagがONであるか否かを判定し、移動中話しかけFlagがONであると判定されると、スピーカ106から移動中話しかけ対策のための音声を発話する。移動中話しかけ対策のための音声は、「聞こえなかった」、「もう一回言って」などを含む。 The dialog control unit 114 performs an operation to block the start of the dialog (first response for interrupting the dialog), a notification to start the dialog (a second response to continue the dialog different from the first response), Take countermeasures against talking while moving and execute dialogue. The dialogue control unit 114 performs an operation to prevent the dialogue from starting until the dialogue between the robot 100 and the user U becomes possible. Specifically, the dialog control unit 114 utters a voice such as "Hi, I'm home" or "Wait a minute" to prevent the start of the dialog, or puts the hand unit 103 behind the ear. perform an inaudible gesture against Further, when it is determined that the interaction between the robot 100 and the user U has become possible after executing the operation to prevent the interaction from starting, the interaction control unit 114 executes a notification to start the interaction. The dialog control unit 114 may utter the name of the user U, "What is it?", etc. from the speaker 106 as a notification to start the dialog. Gestures that initiate interactions may be performed. Further, the dialog control unit 114 determines whether or not the moving talk flag is ON, and if it is determined that the moving talk flag is ON, the speaker 106 utters a voice for countermeasures against the moving talk. do. Voices for countermeasures against talking while moving include "I didn't hear you" and "Tell me again".

操作ボタン120は、胴体部102の背中に設けられ、ロボット100を操作するためのボタンであり、電源ボタンを含む。 The operation button 120 is provided on the back of the body section 102 and is a button for operating the robot 100, and includes a power button.

電源部130は、胴体部102に内蔵された充電池から構成され、ロボット100の各部に電力を供給する。 The power supply unit 130 is composed of a rechargeable battery built into the body unit 102 and supplies electric power to each unit of the robot 100 .

次に、以上の構成を有するロボット100が実行する第1の対話処理について説明する。第1の対話処理は、ユーザUとロボット100との距離が対話可能距離D以上離れている場合、対話の開始を阻止し、対話可能距離D以下に近づくと対話を開始する通知を実行する処理である。 Next, the first interactive processing executed by the robot 100 having the above configuration will be described. The first dialogue process is a process of blocking the start of the dialogue when the distance between the user U and the robot 100 is greater than or equal to the dialogue possible distance D, and executing a notification to start the dialogue when the distance between the user U and the robot 100 approaches the dialogue possible distance D or less. is.

ユーザUが操作ボタン120を操作し電源をONにすると、ロボット100は電源をONにする指示に応答し、図3に示す第1の対話処理を開始する。以下、ロボット100が実行する第1の対話処理を、フローチャートを用いて説明する。 When the user U operates the operation button 120 to turn on the power, the robot 100 responds to the instruction to turn on the power and starts the first interactive process shown in FIG. The first interactive process executed by the robot 100 will be described below using a flowchart.

まず、音声解析部111は、ユーザUから発せられた音声を検出する(ステップS101)。次に、音声解析部111は、ユーザUから発せられた音声に、予め登録された呼びかけ音声を含んでいるか否かを判定する(ステップS102)。呼びかけ音声は、例えば、ロボットの名前、「おーい」、「ちょっと聞いて」などが含まれる。呼びかけ音声が含まれていないと判定されると(ステップS102;No)、ステップS101~ステップS102を繰り返す。 First, the voice analysis unit 111 detects voice uttered by the user U (step S101). Next, the voice analysis unit 111 determines whether or not the voice uttered by the user U includes a pre-registered calling voice (step S102). The calling voice includes, for example, the name of the robot, "hey", "listen", and the like. If it is determined that the calling voice is not included (step S102; No), steps S101 and S102 are repeated.

ユーザUから発せられた音声に、呼びかけ音声が含まれていると判定されると(ステップS102;Yes)、音声解析部111は、移動中話しかけFlagをOFFにする(ステップS103)。次に、音声解析部111は、呼びかけ音声が発せられた音源の方向を検出する(ステップS104)。具体的には、音声解析部111は、呼びかけ音声が発せられた音源の方向を、頭部101の右耳に配置されたマイク104、左耳に配置されたマイク104、及び後頭部に配置されたマイク104で収音した呼びかけ音声の音量差又は位相差により検出する。次に、移動制御部112は、呼びかけ音声が発せられた音源の方向にロボット100が向くように旋回する(ステップS105)。具体的には、移動制御部112は、移動部108を制御し、ロボット100を右旋回又は左旋回し、呼びかけ音声が発せられた音源の方向に向ける。次に、判定部113は、ユーザUの顔を検出する(ステップS106)。次に、判定部113は、ユーザUの顔までの距離を検出する(ステップS107)。判定部113は、顔の大きさから距離を検出してもよく、左右の目の間の距離からユーザUの顔までの距離を検出してもよい。 When it is determined that the voice uttered by the user U includes the calling voice (step S102; Yes), the voice analysis unit 111 turns off the moving talk flag (step S103). Next, the voice analysis unit 111 detects the direction of the sound source of the calling voice (step S104). Specifically, the voice analysis unit 111 determines the direction of the sound source from which the calling voice is emitted, the microphone 104 placed in the right ear of the head 101, the microphone 104 placed in the left ear, and the microphone 104 placed in the back of the head. It is detected by the volume difference or phase difference of the calling voice picked up by the microphone 104 . Next, the movement control unit 112 turns so that the robot 100 faces the direction of the sound source from which the calling voice is emitted (step S105). Specifically, the movement control unit 112 controls the movement unit 108 to turn the robot 100 to the right or left, and direct it toward the sound source from which the calling voice is issued. Next, the determination unit 113 detects the face of the user U (step S106). Next, the determination unit 113 detects the distance to the face of the user U (step S107). The determination unit 113 may detect the distance from the size of the face, or may detect the distance to the face of the user U from the distance between the left and right eyes.

次に、判定部113は、ユーザUの顔までの距離が対話可能距離D以下であるか否かを判定する(ステップS108)。対話可能距離Dは、例えば1mである。ユーザUの顔までの距離が対話可能距離D以下でないと判定されると(ステップS108;No)、対話制御部114は、対話の開始を阻止する動作を行う(ステップS109)。対話の開始を阻止する動作には、スピーカ106から「ハーイただいま」「ちょっと待って」などの対話の開始を阻止する音声を発話してもよく、手部103を耳の後ろに当てて聞こえないジェスチャーを実行してもよい。次に、移動制御部112は、移動部108を制御し、ロボット100をユーザUに向けて移動する(ステップS110)。次に、音声解析部111は、移動中にユーザUから話しかけられているか否かを判定する(ステップS111)。移動中にユーザUから話しかけられていると判定すると(ステップS111;Yes)、音声解析部111は、移動中話しかけFlagをONにし(ステップS112)、ステップS106に戻る。移動中にユーザUから話しかけられていないと判定すると(ステップS111;No)、ステップS106に戻る。 Next, the determination unit 113 determines whether or not the distance to the face of the user U is equal to or less than the interactive distance D (step S108). The interactive distance D is, for example, 1 m. When it is determined that the distance to the user U's face is not equal to or less than the conversationable distance D (step S108; No), the dialogue control unit 114 performs an operation to block the start of dialogue (step S109). For the operation to prevent the start of the dialogue, a sound such as "Hi, I'm home", "Wait a minute", etc., may be uttered from the speaker 106 to prevent the start of the dialogue. Gestures may be performed. Next, the movement control unit 112 controls the moving unit 108 to move the robot 100 toward the user U (step S110). Next, the voice analysis unit 111 determines whether or not the user U is speaking to the user while moving (step S111). If it is determined that the user U is talking to the user U while moving (step S111; Yes), the voice analysis unit 111 turns on the moving talk flag (step S112), and returns to step S106. If it is determined that the user U has not spoken to the user during movement (step S111; No), the process returns to step S106.

ユーザUの顔までの距離が対話可能距離D以下であると判定されると(ステップS108;Yes)、対話制御部114は、対話を開始する通知を行う(ステップS113)。具体的には、対話制御部114は、スピーカ106から「何でしょうか」などの対話を開始する通知を音声により発話してもよく、手部103を前に出して対話を開始するジェスチャーを実行してもよい。このとき、移動制御部112は、ロボット100を停止するように移動部108を制御する。次に、対話制御部114は、移動中話しかけFlagがONであるか否かを判定する(ステップS114)。移動中話しかけFlagがONであると判定されると(ステップS114;Yes)、スピーカ106から移動中話しかけ対策のための音声を発話する(ステップS115)。移動中話しかけ対策のための音声は、「聞こえなかった」、「もう一回言って」などを含む。次に、対話制御部114は、対話を実行する(ステップS116)。移動中話しかけFlagがONでないと判定されると(ステップS114;No)、対話制御部114は、対話を実行する(ステップS116)。その後、音声解析部111は、終了指示を受け付けたか否かを判定する(ステップS117)。終了指示を受け付けていないと判定すると(ステップS117;No)、ステップS101に戻り、ステップS101からステップS117を繰り返す。対話中に終了指示を受け付けたと判定すると(ステップS117;Yes)、第1の対話処理を終了する。 When it is determined that the distance to the face of the user U is equal to or less than the conversationable distance D (step S108; Yes), the dialogue control unit 114 notifies the start of dialogue (step S113). Specifically, the dialogue control unit 114 may utter a notification to start the dialogue such as “What is it?” You may At this time, the movement control section 112 controls the movement section 108 to stop the robot 100 . Next, the dialogue control unit 114 determines whether or not the moving talking flag is ON (step S114). If it is determined that the talking-while-moving flag is ON (step S114; Yes), the speaker 106 speaks as a countermeasure against talking-while-moving (step S115). Voices for countermeasures against talking while moving include "I didn't hear you" and "Tell me again". Next, the dialogue control unit 114 executes dialogue (step S116). If it is determined that the moving talking flag is not ON (step S114; No), the dialogue control unit 114 executes dialogue (step S116). After that, the voice analysis unit 111 determines whether or not an end instruction has been received (step S117). If it is determined that the end instruction has not been received (step S117; No), the process returns to step S101, and steps S101 to S117 are repeated. If it is determined that an end instruction has been received during the dialogue (step S117; Yes), the first dialogue process is terminated.

次に、本実施の形態に係るロボット100が実行する第1の対話処理を具体例に基づいて図4~図7を参照しながら説明する。 Next, the first interactive processing executed by the robot 100 according to the present embodiment will be described based on specific examples with reference to FIGS. 4 to 7. FIG.

ユーザUが操作ボタン120を操作し電源をONにすると、ロボット100は電源をONにする指示に応答し第1の対話処理を開始する。ロボット100は、自走しユーザUから対話可能距離Dを超えて離れた位置に移動したとする。 When the user U operates the operation button 120 to turn on the power, the robot 100 responds to the instruction to turn on the power and starts the first interactive process. It is assumed that the robot 100 runs by itself and moves to a position separated from the user U by exceeding the interactive distance D. FIG.

ユーザUが図4に示すロボット100に「ちょっと聞いて」と呼びかけると、音声解析部111は、ユーザUから発せられた音声を検出する(ステップS101;図3)。ユーザUから発せられた音声に、「ちょっと聞いて」という音声を含んでいるので、音声解析部111は、予め登録された呼びかけ音声を含んでいると判定する(ステップS102;Yes;図3)。 When the user U calls the robot 100 shown in FIG. 4 to "listen", the voice analysis unit 111 detects the voice uttered by the user U (step S101; FIG. 3). Since the voice uttered by the user U includes the voice "Listen to me", the voice analysis unit 111 determines that the voice includes a pre-registered calling voice (step S102; Yes; FIG. 3). .

次に、音声解析部111は、移動中話しかけFlagをOFFにする(ステップS103;図3)。次に、音声解析部111は、呼びかけ音声が発せられた音源の方向を検出する(ステップS104;図3)。このときユーザUは、ロボット100からみて右に位置するので、音声解析部111は、右耳、左耳、後頭部に配置されたマイク104で収音した呼びかけ音声の音量差又は位相差により、呼びかけ音声が発せられた音源の方向は、右であると検出する。次に、移動制御部112は、図5に示すように、呼びかけ音声が発せられた音源の方向にロボット100が向くように右旋回する(ステップS105;図3)。次に、判定部113は、ユーザの顔を検出する(ステップS106;図3)。次に、判定部113は、ユーザの顔までの距離D1を検出する(ステップS107;図3)。 Next, the voice analysis unit 111 turns off the talking-while-moving flag (step S103; FIG. 3). Next, the voice analysis unit 111 detects the direction of the sound source of the calling voice (step S104; FIG. 3). At this time, the user U is positioned on the right side of the robot 100, so the voice analysis unit 111 detects the call by using the volume difference or phase difference of the call voice picked up by the microphones 104 arranged in the right ear, the left ear, and the back of the head. The direction of the sound source from which the voice is emitted is detected as right. Next, as shown in FIG. 5, the movement control unit 112 turns right so that the robot 100 faces the direction of the sound source from which the calling voice was issued (step S105; FIG. 3). Next, the determination unit 113 detects the user's face (step S106; FIG. 3). Next, the determination unit 113 detects the distance D1 to the user's face (step S107; FIG. 3).

次に、判定部113は、ユーザの顔までの距離が対話可能距離D以下であるか否かを判定する(ステップS108;図3)。このとき、距離D1は、対話可能距離Dよりも大きいので、ユーザの顔までの距離が対話可能距離D以下でないと判定され(ステップS108;No;図3)、対話制御部114は、対話の開始を阻止する動作を行う(ステップS109;図3)。対話の開始を阻止する動作として、図6に示すように、手部103を耳の後ろに当てて聞こえないジェスチャーを実行する、又はスピーカ106から「ハーイただいま」「ちょっと待って」などの対話の開始を阻止する音声を発話する。次に、移動制御部112は、移動部108を制御し、ロボット100をユーザに向けて移動する(ステップS110;図3)。次に、移動中にユーザUから話しかけられると、音声解析部111は、移動中にユーザから話しかけられていると判定する(ステップS111;Yes;図3)。次に、音声解析部111は、移動中話しかけFlagをONにし(ステップS112;図3)、ステップS106に戻る。 Next, the determination unit 113 determines whether or not the distance to the user's face is equal to or less than the interactive distance D (step S108; FIG. 3). At this time, since the distance D1 is greater than the interactive distance D, it is determined that the distance to the user's face is not equal to or smaller than the interactive distance D (step S108; No; FIG. An operation to prevent the start is performed (step S109; FIG. 3). As an action to prevent the start of the dialogue, as shown in FIG. Speak a voice that prevents it from starting. Next, the movement control unit 112 controls the moving unit 108 to move the robot 100 toward the user (step S110; FIG. 3). Next, when the user U speaks while moving, the voice analysis unit 111 determines that the user speaks while moving (step S111; Yes; FIG. 3). Next, the voice analysis unit 111 turns ON the speaking flag while moving (step S112; FIG. 3), and returns to step S106.

ロボット100が図7に示す位置まで移動すると、判定部113は、ユーザの顔までの距離D2が対話可能距離D以下であると判定する(ステップS108;Yes;図3)。次に、対話制御部114は、対話を開始する通知を行う(ステップS113;図3)。具体的には、対話制御部114は、手部103を前に出して対話を開始するジェスチャーを実行し、スピーカ106から「何でしょうか」などの対話を開始する通知を音声により発話する。次に、対話制御部114は、移動中話しかけFlagがONであると判定し(ステップS114;Yes;図3)、スピーカ106から移動中話しかけ対策のための音声「聞こえなかった」を発話(ステップS115;図3)する。次に、対話制御部114は、対話を実行する(ステップS116;図3)。その後、音声解析部111は、対話中に終了指示を受け付けたと判定すると(ステップS117;Yes;図3)、第1の対話処理を終了する。 When the robot 100 moves to the position shown in FIG. 7, the determination unit 113 determines that the distance D2 to the user's face is equal to or less than the interactive distance D (step S108; Yes; FIG. 3). Next, the dialogue control unit 114 notifies the start of dialogue (step S113; FIG. 3). Specifically, the dialogue control unit 114 puts the hand part 103 forward to perform a gesture to start dialogue, and utters a notification to start dialogue such as “What is it?” from the speaker 106 . Next, the dialog control unit 114 determines that the moving talk flag is ON (step S114; Yes; FIG. 3), and utters the voice "I couldn't hear" from the speaker 106 as a countermeasure against the moving talk (step S114; Yes; FIG. 3). S115; FIG. 3). Next, the dialogue control unit 114 executes dialogue (step S116; FIG. 3). After that, when the speech analysis unit 111 determines that an end instruction has been received during the dialogue (step S117; Yes; FIG. 3), the first dialogue process ends.

以上のように、本実施の形態のロボット100によれば、呼びかけ音声を検出し、ユーザUとロボット100の距離が、対話の音声認識精度が確保できる対話可能距離Dよりも大きい場合に、明示的にまだ対話出来ない旨を表し、ユーザUに対話可能距離D以下の位置まで近づくまで不用な対話開始を阻止することで、音声認識精度を向上することができる。また、ロボット100が対話を開始する通知を行うことで、移動後の対話をスムーズに行うことを可能にする。 As described above, according to the robot 100 of the present embodiment, when the robot 100 detects the calling voice and the distance between the user U and the robot 100 is greater than the dialogue-possible distance D at which the speech recognition accuracy of the dialogue can be ensured, the explicit It is possible to improve speech recognition accuracy by indicating that the user U cannot actually have a dialogue yet and preventing unnecessary dialogue start until the user U approaches a position within the dialogue possible distance D or less. Further, by notifying that the robot 100 will start dialogue, it is possible to smoothly conduct dialogue after movement.

(第2の実施の形態)
第1の実施の形態に係るロボット100は、移動部108により自律移動し、ユーザUがロボット100に呼びかけたとき、ロボット100がユーザUから離れているとユーザUに移動して近づくものである。これに対して、第2の実施の形態に係るロボット200は、自律移動せず、雑音の音量がユーザUと対話をすることができる基準値以上である場合、雑音の音量が基準値以下になるまでの間、ユーザUに対話の開始を阻止する動作を実行する。
(Second embodiment)
The robot 100 according to the first embodiment moves autonomously by the moving unit 108, and when the user U calls the robot 100, if the robot 100 is away from the user U, the robot 100 moves and approaches the user U. . On the other hand, in the case where the robot 200 according to the second embodiment does not move autonomously and the volume of the noise is equal to or greater than the reference value at which the user U can interact, the volume of the noise becomes equal to or less than the reference value. Until it becomes, the operation|movement which prevents the user U from starting a dialogue is performed.

第2の実施の形態に係るロボット200は、図8に示すように、ロボット100の構成で有していた移動部108及び移動制御部112を有さず、ロボット100の構成に加えて、唇動作検出部115を備える。 As shown in FIG. 8, the robot 200 according to the second embodiment does not have the movement unit 108 and the movement control unit 112 that are included in the configuration of the robot 100. In addition to the configuration of the robot 100, a lip A motion detector 115 is provided.

音声解析部111は、ユーザUから発せられた音声を検出し、ユーザUから発せられた音声に、予め登録された呼びかけ音声を含んでいるか否かを判定する。また、音声解析部111は、ユーザUから発せられた音声以外の音を雑音として検出する。また、音声解析部111は、雑音がテレビジョン、オーディオ機器、楽器などの音響機器から発せられた音であるか否かを判定する。音響機器から発せられた音か否かは、音に音声又は楽器の音を含むか、音にリズムを有するか、等により判定する。 The voice analysis unit 111 detects the voice uttered by the user U, and determines whether or not the voice uttered by the user U includes a pre-registered calling voice. Also, the voice analysis unit 111 detects sounds other than the voice uttered by the user U as noise. Also, the voice analysis unit 111 determines whether or not the noise is sound emitted from an audio device such as a television, an audio device, or a musical instrument. Whether or not the sound is emitted from an audio device is determined based on whether the sound includes a voice or the sound of a musical instrument, whether the sound has a rhythm, and the like.

判定部113は、音声解析部111により検出された雑音の音量がユーザUと対話をすることができる基準値以下である場合に、ロボット200とユーザUとの間の対話が可能であると判定する。判定部113は、唇動作検出部115により検出されたユーザUの唇の動作により、ユーザUがロボット200に呼びかけたか否かを判定する。具体的には、判定部113は、ユーザUの唇の動作にロボットの名前、「おーい」、「ちょっと聞いて」と発音したときの動きが含まれるか否かにより判定する。 The determination unit 113 determines that a dialogue between the robot 200 and the user U is possible when the volume of the noise detected by the voice analysis unit 111 is equal to or less than a reference value for dialogue with the user U. do. The determination unit 113 determines whether or not the user U has called out to the robot 200 based on the lip motion of the user U detected by the lip motion detection unit 115 . Specifically, the determination unit 113 determines whether or not the movement of the lips of the user U includes the movement when pronouncing the robot's name, "Hey", and "Listen".

対話制御部114は、判定部113により雑音の音量が基準値を超えると判定された場合に、雑音の音量が基準値以下になるまでの間、ユーザUへ対話の開始を阻止する動作を実行する。また、対話制御部114は、音声解析部111により雑音がテレビジョン、オーディオ機器、楽器などの音響機器から発せられたものであると判定されると、音響機器からの音量を下げる指示を示す音声を発話する。 When the determination unit 113 determines that the noise volume exceeds the reference value, the interaction control unit 114 performs an operation to prevent the user U from starting the interaction until the noise volume becomes equal to or lower than the reference value. do. Further, when the voice analysis unit 111 determines that the noise is emitted from an acoustic device such as a television, an audio device, or a musical instrument, the dialog control unit 114 controls the voice indicating an instruction to lower the volume from the acoustic device. utter the

唇動作検出部115は、撮像部105により撮像された画像からユーザUの顔を検出し、ユーザUの唇の動作を検出する。このように、唇動作検出部115は、唇動作検出手段として機能する。 The lip motion detection unit 115 detects the face of the user U from the image captured by the imaging unit 105 and detects the motion of the user U's lips. Thus, the lip motion detection unit 115 functions as lip motion detection means.

次に、第2の実施の形態に係るロボット200が実行する第2の対話処理を説明する。 Next, a second interactive process executed by the robot 200 according to the second embodiment will be described.

ユーザUが操作ボタン120を操作し電源をONにすると、ロボット200は電源をONにする指示に応答し、図9に示す第2の対話処理を開始する。以下、ロボット200が実行する第2の対話処理を、フローチャートを用いて説明する。 When the user U operates the operation button 120 to turn on the power, the robot 200 responds to the instruction to turn on the power and starts the second interactive process shown in FIG. The second interactive processing executed by the robot 200 will be described below using a flowchart.

まず、音声解析部111は、ユーザUから発せられた音声を検出する(ステップS201)。次に、音声解析部111は、ユーザUから発せられた音声に、予め登録された呼びかけ音声を含んでいるか否かを判定する(ステップS202)。呼びかけ音声は、例えば、ロボット200の名前、「おーい」、「ちょっと聞いて」などが含まれる。呼びかけ音声が含まれていないと判定されると(ステップS202;No)、唇動作検出部115は、撮像部105により撮像された画像からユーザUの顔を検出する(ステップS203)。次に、唇動作検出部115は、ユーザUの唇の動作を検出する(ステップS204)。次に、判定部113は、ユーザUの唇の動作により、ユーザUがロボット200に呼びかけたか否かを判定する(ステップS205)。具体的には、判定部113は、ユーザUの唇の動作にロボット200の名前、「おーい」、「ちょっと聞いて」と発音したときの動きが含まれるか否かにより判定する。呼びかけがなかったと判定されると(ステップS205;No)、ステップS201~ステップS204を繰り返す。 First, the voice analysis unit 111 detects voice uttered by the user U (step S201). Next, the voice analysis unit 111 determines whether or not the voice uttered by the user U includes a pre-registered calling voice (step S202). The calling voice includes, for example, the name of the robot 200, "hey", "listen", and the like. If it is determined that the calling voice is not included (step S202; No), the lip motion detection unit 115 detects the face of the user U from the image captured by the imaging unit 105 (step S203). Next, the lip motion detector 115 detects the lip motion of the user U (step S204). Next, the determination unit 113 determines whether or not the user U has called out to the robot 200 based on the motion of the lips of the user U (step S205). Specifically, the determination unit 113 determines whether or not the movement of the lips of the user U includes the movement when the name of the robot 200, “hey”, and “listen” are pronounced. If it is determined that there is no calling (step S205; No), steps S201 to S204 are repeated.

音声解析部111により呼びかけ音声が含まれていると判定される(ステップS202;Yes)、又は判定部113により、ユーザUがロボット200に呼びかけたと判定されると(ステップS205;Yes)、音声解析部111は、ユーザUから発せられた音声以外の音を雑音として検出する(ステップS206)。次に、判定部113は、音声解析部111により検出された雑音の音量がユーザUと対話をすることができる基準値以下であるか否かを判定する(ステップS207)。 When the voice analysis unit 111 determines that the calling voice is included (step S202; Yes), or when the determination unit 113 determines that the user U has called the robot 200 (step S205; Yes), voice analysis is performed. The unit 111 detects sounds other than the voice uttered by the user U as noise (step S206). Next, the determination unit 113 determines whether or not the volume of the noise detected by the voice analysis unit 111 is equal to or less than a reference value at which the user U can have a dialogue (step S207).

判定部113により、雑音の音量が基準値以下でないと判定されると(ステップS207;No)、対話制御部114は、対話の開始を阻止する動作を行う(ステップS208)。対話の開始を阻止する動作には、スピーカ106から「ハーイただいま」「ちょっと待って」などの対話の開始を阻止する音声を発話してもよく、手部103を耳の後ろに当てて聞こえないジェスチャーを実行してもよい。音声解析部111は、雑音がテレビジョン、オーディオ機器、楽器などの音響機器から発せられた音であるか否かを判定する(ステップS209)。音響機器から発せられた音か否かは、音に音声又は楽器の音を含むか、音にリズムを有するか、等により判定する。雑音が音響機器から発せられた音であると判定されると(ステップS209;Yes)、対話制御部114は、音響機器からの音量を下げる指示、例えば「ボリュームを下げて」を示す音声を発話し(ステップS210)、ステップS206に戻る。雑音が音響機器から発せられた音でないと判定されると(ステップS209;No)、ステップS206に戻る。 When the determination unit 113 determines that the noise volume is not equal to or lower than the reference value (step S207; No), the dialog control unit 114 performs an operation to prevent the dialog from starting (step S208). For the operation to prevent the start of the dialogue, a sound such as "Hi, I'm home", "Wait a minute", etc., may be uttered from the speaker 106 to prevent the start of the dialogue. Gestures may be performed. The voice analysis unit 111 determines whether or not the noise is sound emitted from an audio device such as a television, an audio device, or a musical instrument (step S209). Whether or not the sound is emitted from an audio device is determined based on whether the sound includes a voice or the sound of a musical instrument, whether the sound has a rhythm, and the like. When it is determined that the noise is the sound emitted from the audio equipment (step S209; Yes), the dialogue control unit 114 utters an instruction to lower the volume from the audio equipment, for example, a voice indicating "Turn down the volume". (step S210) and returns to step S206. If it is determined that the noise is not the sound emitted from the audio equipment (step S209; No), the process returns to step S206.

判定部113により、雑音の音量が基準値以下であると判定されると(ステップS207;Yes)、対話制御部114は、対話を開始する通知を行う(ステップS211)。具体的には、対話制御部114は、スピーカ106から「何でしょうか」などの対話を開始する通知を音声により発話してもよく、手部103を前に出して対話を開始するジェスチャーを実行してもよい。次に、対話制御部114は、対話を実行する(ステップS212)。その後、音声解析部111は、終了指示を受け付けたか否かを判定する(ステップS213)。終了指示を受け付けていないと判定すると(ステップS213;No)、ステップS201に戻り、ステップS201からステップS213を繰り返す。対話中に終了指示を受け付けたと判定すると(ステップS213;Yes)、第2の対話処理を終了する。 When the determination unit 113 determines that the volume of noise is equal to or less than the reference value (step S207; Yes), the dialogue control unit 114 notifies the start of dialogue (step S211). Specifically, the dialogue control unit 114 may utter a notification to start the dialogue such as “What is it?” You may Next, the dialogue control unit 114 executes dialogue (step S212). After that, the voice analysis unit 111 determines whether or not an end instruction has been received (step S213). If it is determined that the end instruction has not been received (step S213; No), the process returns to step S201, and steps S201 to S213 are repeated. If it is determined that an end instruction has been received during the dialogue (step S213; Yes), the second dialogue process is terminated.

以上のように、第2の実施の形態のロボット200によれば、雑音の音量が基準値を超える場合、対話の開始を阻止する動作を行う。これにより、雑音により対話が困難である場合に対話が中止されるため、音声認識精度を向上することができる。また、ロボット200が対話を開始する通知を行うことで、移動後の対話をスムーズに行うことを可能にする。また、唇動作検出部115は、撮像部105により撮像された画像からユーザUの唇の動作を検出し、判定部113は、ユーザUの唇の動作により、ユーザUがロボット200に呼びかけたか否かを判定する。これにより、雑音が大きい場合でもロボット200は、ユーザUがロボット200に呼びかけたか否かを判定できる。 As described above, according to the robot 200 of the second embodiment, when the volume of noise exceeds the reference value, the action of preventing the start of dialogue is performed. As a result, the speech recognition accuracy can be improved because the dialogue is stopped when the dialogue is difficult due to noise. In addition, by notifying that the robot 200 will start a dialogue, it is possible to have a smooth dialogue after movement. Further, the lip motion detection unit 115 detects the motion of the user U's lips from the image captured by the imaging unit 105, and the determination unit 113 determines whether the user U has called the robot 200 based on the motion of the user U's lips. determine whether This allows the robot 200 to determine whether or not the user U has called the robot 200 even when the noise is loud.

(変形例)
前述の実施の形態では、第1の実施の形態に係るロボット100の判定部113は、ユーザUとの距離が対話可能距離Dを超えるか否かで、対話が困難であるか否かを判定した。第2の実施の形態に係るロボット200の判定部113は、雑音の音量が基準値を超えるか否かにより、対話が困難であるか否かを判定した。ロボット100、200の判定部113は、対話が困難であるか否かを判定できればよい。例えば、ロボット100、200の判定部113は、ユーザUとの距離と、雑音と、により対話が困難であるか否かを判定してもよい。例えば、ユーザUとの距離が対話可能距離Dを超え、且つ雑音の音量が基準値を超えた場合に、対話が困難であるか否かを判定してもよい。また、雑音の音量レベルに応じて対話可能距離Dを変更してもよい。例えば、図10に示すように、雑音の音量が大きいとき、対話可能距離Dを小さくし、雑音の音量が小さいとき、対話可能距離Dを大きくする。この場合、ロボット100、200は、対話可能距離Dを関数により算出してもよく、対話可能距離DをあらかじめROMに記憶したテーブルにより得てもよい。また、ユーザUと対話をすることができる雑音の音量の基準値は、ユーザUとロボット100、200の距離により変化してもよい。例えば、図11に示すように、ユーザUとロボット100、200の距離が大きいとき、雑音の音量の基準値を小さくする。この場合、ロボット100、200は、雑音の音量の基準値を関数により算出してもよく、雑音の音量の基準値をあらかじめROMに記憶したテーブルにより得てもよい。また、ロボット100、200の判定部113は、ユーザUの声の大きさ、音声認識で文字データに変換できる割合、対話に用いる言語などにより対話が困難であるか否かを判定してもよい。
(Modification)
In the above-described embodiment, the determination unit 113 of the robot 100 according to the first embodiment determines whether or not the dialogue is difficult based on whether or not the distance to the user U exceeds the dialogue-possible distance D. did. The determination unit 113 of the robot 200 according to the second embodiment determines whether or not the dialogue is difficult based on whether or not the noise volume exceeds the reference value. The determination unit 113 of the robots 100 and 200 only needs to be able to determine whether or not the dialogue is difficult. For example, the determination unit 113 of the robots 100 and 200 may determine whether or not it is difficult to interact with the user U based on the distance to the user U and noise. For example, when the distance from the user U exceeds the conversationable distance D and the volume of noise exceeds a reference value, it may be determined whether or not the conversation is difficult. Further, the interactive distance D may be changed according to the volume level of noise. For example, as shown in FIG. 10, when the noise volume is high, the interactive distance D is decreased, and when the noise volume is low, the interactive distance D is increased. In this case, the robots 100 and 200 may calculate the interactive distance D using a function, or obtain the interactive distance D from a table stored in advance in the ROM. In addition, the reference value of the volume of noise with which the user U can have a dialogue may vary depending on the distance between the user U and the robots 100 and 200 . For example, as shown in FIG. 11, when the distance between the user U and the robots 100 and 200 is large, the noise volume reference value is decreased. In this case, the robots 100 and 200 may calculate the noise volume reference value using a function, or obtain the noise volume reference value from a table stored in advance in the ROM. Further, the determination unit 113 of the robots 100 and 200 may determine whether or not the dialogue is difficult based on the volume of the voice of the user U, the rate at which speech recognition can be converted into character data, the language used for the dialogue, and the like. .

前述の実施の形態のロボット100、200の対話制御部114は、目を表す表示部107とユーザUの目とがアイコンタクトをするように、表示部107に目の画像を表示してもよい。このようにすることで、ロボット100、200がより人間に近い動作を表現できる。対話制御部114が行う対話の開始を阻止する動作は、マイク104が配置さていている耳部及び目部に配置された表示部107に目をとじた画像を表示し、ロボット100、200が音声を聞いておらず且つユーザUも見ていないようなふりをしてもよい。 The interaction control unit 114 of the robots 100 and 200 of the above embodiments may display an eye image on the display unit 107 so that the display unit 107 representing the eyes and the eyes of the user U make eye contact. . By doing so, the robots 100 and 200 can express more human-like motions. The action of blocking the start of the dialogue performed by the dialogue control unit 114 is to display an image with the eyes closed on the display unit 107 arranged in the ears and eyes where the microphone 104 is arranged, and the robots 100 and 200 You may pretend that you are not listening to the voice and that the user U is not looking at it.

前述の第1の実施の形態では、移動制御部112が、移動部108を制御し、ロボット100をユーザUに向けて移動し、対話可能距離D以下に近づくと、ロボット100を停止するように移動部108を制御する例について説明した。移動制御部112は、ロボット100を対話可能距離D以下に近づくように制御すればよい。例えば、判定部113によりロボット100とユーザUとの距離が対話可能距離Dを超えると判定された場合に、移動制御部112は、ロボット100が任意の方向に移動をしている場合にはロボット100が移動の方向を変更してユーザUに向けて移動をするように移動部108を制御して、ロボット100が停止をしている場合にはロボット100がユーザUに向けて移動を始めるように移動部108を制御してもよい。判定部113によりロボット100とユーザUとの距離が対話可能距離以下であると判定された場合に、移動制御部112は、ロボット100が移動をしている場合にはロボット100を停止するように移動部108を制御して、ロボット100が停止をしている場合にはロボット100の停止を維持するように移動部を制御してもよい。この場合、対話制御部114は、ユーザUに対話の継続をさせるための応答をするように動作手段を制御してもよい。 In the first embodiment described above, the movement control unit 112 controls the movement unit 108 to move the robot 100 toward the user U, and stops the robot 100 when the robot 100 approaches the interactive distance D or less. An example of controlling the moving unit 108 has been described. The movement control unit 112 may control the robot 100 so as to approach the conversationable distance D or less. For example, when the determination unit 113 determines that the distance between the robot 100 and the user U exceeds the interactive distance D, the movement control unit 112 determines that the robot 100 is moving in an arbitrary direction. The moving unit 108 is controlled so that the robot 100 changes its direction of movement and moves toward the user U, and when the robot 100 is stopped, the robot 100 starts moving toward the user U. You may control the moving part 108 to. When the determination unit 113 determines that the distance between the robot 100 and the user U is equal to or less than the conversationable distance, the movement control unit 112 stops the robot 100 when the robot 100 is moving. The moving unit 108 may be controlled to keep the robot 100 stopped when the robot 100 is stopped. In this case, the dialogue control unit 114 may control the operation means to give a response to the user U to continue the dialogue.

前述の実施の形態では、撮像部105が、頭部101の鼻の位置に設けられたカメラである例について説明した。撮像部105は、頭部101の片方の目の位置に設けられたカメラでもよく、両目に設けられたステレオカメラであってもよい。 In the above-described embodiment, an example in which imaging unit 105 is a camera provided at the position of the nose of head 101 has been described. The imaging unit 105 may be a camera provided at the position of one eye of the head 101, or may be a stereo camera provided for both eyes.

前述の実施の形態では、ロボット100、200とユーザUの顔との距離を、撮像部105が撮像した画像に写るユーザUの顔の大きさ、又は左右の目の間の距離から検出する例について説明した。ロボット100、200とユーザUの顔との距離を測定する方法は限定されず、非接触距離センサにより測定されてもよい。非接触距離センサは、例えば、ロボット100、200の胴体部102に設置された超音波センサ又はレーザーセンサである。撮像部105にステレオカメラを用いた場合、ステレオカメラで撮像した画像からロボット100、200とユーザUの顔との距離を検出してもよい。 In the above embodiments, the distance between the robots 100 and 200 and the face of the user U is detected from the size of the face of the user U captured in the image captured by the imaging unit 105 or the distance between the left and right eyes. explained. The method of measuring the distance between the robots 100 and 200 and the face of the user U is not limited, and may be measured by a non-contact distance sensor. The non-contact distance sensor is, for example, an ultrasonic sensor or a laser sensor installed on the body 102 of the robot 100,200. When a stereo camera is used for the imaging unit 105, the distance between the robots 100 and 200 and the face of the user U may be detected from images captured by the stereo camera.

前述の実施の形態では、所定の対象がユーザUである例について説明した。所定の対象は、ロボット100と対話できるものであればよく、人であってもよく、犬や猫などの動物であってもよく、ロボット100以外の他のロボットであってもよい。 In the above embodiment, an example in which the predetermined target is the user U has been described. The predetermined object may be any object that can interact with the robot 100 , and may be a person, an animal such as a dog or a cat, or a robot other than the robot 100 .

前述の実施の形態では、移動部108が、モータとタイヤとから構成される例について説明した。移動部108は、ロボット100を移動することができればよく、例えば、複数の足と足を動かすモータとから構成されてもよい。このようにすることで、ロボット100の形状を人や動物により近づけることができる。 In the above-described embodiment, an example in which the moving unit 108 is composed of a motor and tires has been described. The moving unit 108 only needs to be able to move the robot 100, and may be composed of, for example, a plurality of legs and motors for moving the legs. By doing so, the shape of the robot 100 can be made closer to a person or an animal.

前述の実施の形態では、ロボット100、200が、人を模した形状を有する例について説明したが、ロボット100、200の形状は、特に限定されず、例えば、犬又は猫を含む動物を模した形状を有してもよく、アニメーションのキャラクタや想像上の生き物を模した形状であってもよい。また、ロボット100、200は、対話機能を有するものであればよく、自律走行して床などを掃除する掃除ロボット、巡回監視などを行う警備ロボットなどを含む。 In the above-described embodiments, robots 100 and 200 have a human-like shape, but the shape of robots 100 and 200 is not particularly limited. It may have a shape, and may be a shape imitating an animation character or an imaginary creature. Also, the robots 100 and 200 may be any robots that have an interactive function, and include cleaning robots that autonomously run to clean floors, security robots that patrol and monitor, and the like.

前述の実施の形態では、判定手段は、ロボットが所定の対象から話しかけられた場合、ロボットと所定の対象との間の対話が可能であるか否かを判定したが、対話に限定されず、判定手段は、ロボットが所定の対象から話しかけがあった場合、ロボットと所定の対象との間の音声認識精度の向上が可能であるか否かを判定してもよい。 In the above-described embodiment, when the robot is spoken to by the predetermined target, the determining means determines whether or not the robot can interact with the predetermined target. The determining means may determine whether or not it is possible to improve the speech recognition accuracy between the robot and the predetermined target when the robot is spoken to by the predetermined target.

また、前述の実施の形態では、制御手段は、判定手段によりロボットと所定の対象との間の対話が可能でないと判定された場合に、対話の中断をさせるための第1の応答をするように動作手段を制御したが、同様に対話に限定されず、制御手段は判定手段によりロボットと所定の対象との間の音声認識精度の向上が可能でないと判定された場合に、所定の対象に話しかけの中断をさせるための第1の応答をしてもよい。 Further, in the above-described embodiment, the control means makes the first response for interrupting the dialogue when the determination means determines that the dialogue between the robot and the predetermined object is not possible. However, it is not limited to dialogue, and the control means controls the predetermined target when the determination means determines that it is not possible to improve the speech recognition accuracy between the robot and the predetermined target. A first response may be given to cause a break in speaking.

また、第1の応答は、所定の対象に対話の中断を促す、音声出力手段による音声の出力、又は、所定の対象に対話の中断を促す、動作手段による姿勢の出力を含んでもよい。また、第1の応答は、音声入力手段及び撮像手段が意図的に機能していないふりをして、ロボット100、200が音声を聞いておらず、且つ、画像も見ていないような感情表現をすることを含んでもよい。 In addition, the first response may include output of sound by the audio output means to prompt the predetermined target to stop the dialogue, or output of posture by the action means to prompt the predetermined target to stop the dialogue. In addition, the first response is to intentionally pretend that the voice input means and imaging means are not functioning, and the robots 100 and 200 do not hear voices and do not see images. may include doing

また、第2の応答は、所定の対象に対話の継続を促す、音声出力手段による音声の出力、又は、所定の対象に対話の継続を促す、動作手段による姿勢の出力を含んでもよい。また、第2の応答は、音声入力手段及び撮像部105が意図的に機能しているふりをして、ロボット100、200が音声を聞いており、且つ、画像も見ているような感情表現をすることを含んでもよい。 In addition, the second response may include output of voice by the voice output means prompting the predetermined target to continue the dialogue, or output of posture by the action means prompting the predetermined target to continue the dialogue. In addition, the second response is to pretend that the voice input means and the imaging unit 105 are functioning intentionally, and the robots 100 and 200 are listening to the voice and also looking at the image. may include doing

また、前述の実施の形態では、ロボットを例として説明したが、ロボットに限定されず、AI(Artificial Intelligence)スピーカ等の電子機器でもよい。 Further, in the above-described embodiments, a robot was described as an example, but the present invention is not limited to a robot, and an electronic device such as an AI (Artificial Intelligence) speaker may be used.

また、CPU、RAM、ROM等から構成される制御部110が実行する処理を行う中心となる部分は、専用のシステムによらず、通常の情報携帯端末(スマートフォン、タブレットPC(Personal Computer))、パーソナルコンピュータなどを用いて実行可能である。たとえば、前述の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)等)に格納して配布し、このコンピュータプログラムを情報携帯端末などにインストールすることにより、前述の処理を実行する情報端末を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置にこのコンピュータプログラムを格納しておき、通常の情報処理端末などがダウンロード等することで情報処理装置を構成してもよい。 In addition, the main part of the processing executed by the control unit 110, which is composed of a CPU, RAM, ROM, etc., is not based on a dedicated system, but a normal information portable terminal (smartphone, tablet PC (Personal Computer)), It can be executed using a personal computer or the like. For example, a computer program for executing the above-described operations can be stored on a computer-readable recording medium (flexible disk, CD-ROM (Compact Disc Read Only Memory), DVD-ROM (Digital Versatile Disc Read Only Memory), etc.). By storing, distributing, and installing this computer program in a portable information terminal or the like, an information terminal that executes the above-described processing may be constructed. Alternatively, the computer program may be stored in a storage device of a server device on a communication network such as the Internet, and may be downloaded by an ordinary information processing terminal to constitute an information processing device.

また、制御部110の機能を、OS(Operating System)とアプリケーションプログラムとの分担、又はOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。 In addition, when the functions of the control unit 110 are realized by sharing the functions of an OS (Operating System) and an application program, or by cooperation between the OS and an application program, only the application program portion is stored in a recording medium or storage device. You may

また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にこのコンピュータプログラムを掲示し、ネットワークを介してこのコンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前述の処理を実行できるように構成してもよい。 It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board system (BBS: Bulletin Board System) on a communication network and distributed over the network. Then, this computer program may be activated and executed in the same manner as other application programs under the control of the OS so that the above processing can be executed.

本発明は、本発明の広義の精神と範囲とを逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、前述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 The present invention is capable of various embodiments and modifications without departing from the broader spirit and scope of the invention. Moreover, the above-described embodiments are for explaining the present invention, and do not limit the scope of the present invention. In other words, the scope of the present invention is indicated by the claims rather than the embodiments. Various modifications made within the scope of the claims and within the meaning of the invention equivalent thereto are considered to be within the scope of the present invention. The invention described in the original claims of the present application is appended below.

(付記1)
自装置に動作をさせる動作手段と、
前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定手段と、
前記判定手段により前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段と、
を備える、
ことを特徴とするロボット。
(Appendix 1)
an operation means for causing the device to operate;
determination means for determining whether or not speech recognition accuracy between the device and the predetermined target can be improved when the device is spoken to by a predetermined target;
When the determination means determines that the accuracy of speech recognition between the device itself and the predetermined target cannot be improved, a first response for causing the predetermined target to stop talking to the target is provided. a control means for controlling the operating means to
comprising
A robot characterized by:

(付記2)
前記判定手段は、前記自装置が前記所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の対話が可能であるか否かを判定し、
前記制御手段は、前記判定手段により前記自装置と前記所定の対象との間の前記対話が可能でないと判定された場合に、前記対話の前記中断をさせるための前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする付記1に記載のロボット。
(Appendix 2)
The determination means determines whether or not a dialogue between the device and the predetermined object is possible when the device is spoken to by the predetermined object,
The control means makes the first response for interrupting the dialogue when the determination means determines that the dialogue between the device and the predetermined target is not possible. controlling the operating means to
The robot according to appendix 1, characterized by:

(付記3)
前記制御手段は、前記自装置と前記所定の対象との間の前記対話が可能になるまでの間、前記対話の前記中断をさせるための前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする付記2に記載のロボット。
(Appendix 3)
The control means controls the operation means to make the first response for interrupting the dialogue until the dialogue between the device and the predetermined target becomes possible. do,
The robot according to appendix 2, characterized by:

(付記4)
前記制御手段が、前記第1の応答をするように前記動作手段を制御した後、前記判定手段が前記自装置と前記所定の対象との間の前記対話が可能であると判定すると、前記制御手段は、前記第1の応答とは異なる前記所定の対象に前記対話の継続をさせるための第2の応答をするように前記動作手段を制御する、
ことを特徴とする付記2又は3に記載のロボット。
(Appendix 4)
After the control means controls the operation means to make the first response, if the determination means determines that the interaction between the device and the predetermined target is possible, the control means for controlling the operating means to make a second response different from the first response for causing the predetermined target to continue the dialogue;
The robot according to appendix 2 or 3, characterized by:

(付記5)
前記判定手段は、前記自装置が前記所定の対象から話しかけられた場合、前記自装置と前記所定の対象との距離を検出し、前記距離が前記所定の対象と前記対話をするために必要な対話可能距離を超える場合に、前記自装置と前記所定の対象との間の前記対話が可能でないと判定する、
ことを特徴とする付記2乃至4の何れか1つに記載のロボット。
(Appendix 5)
The determination means detects a distance between the device and the predetermined target when the device is spoken to by the predetermined target, and the determination means detects the distance required for the dialogue with the predetermined target. Determining that the interaction between the device and the predetermined target is not possible when the interaction possible distance is exceeded;
5. The robot according to any one of Appendices 2 to 4, characterized by:

(付記6)
前記自装置を移動させる移動手段を更に備え、
前記制御手段は、前記判定手段により前記距離が前記対話可能距離を超えると判定された場合に、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御する、
ことを特徴とする付記5に記載のロボット。
(Appendix 6)
further comprising moving means for moving the device,
When the determining means determines that the distance exceeds the interactive distance, the control means controls the moving means so that the own device moves toward the predetermined target.
The robot according to appendix 5, characterized by:

(付記7)
前記距離が前記対話可能距離以下になるまでの間、前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする付記5又は6に記載のロボット。
(Appendix 7)
controlling the operating means to make the first response until the distance becomes equal to or less than the interactive distance;
The robot according to appendix 5 or 6, characterized by:

(付記8)
音声を入力する音声入力手段と、
前記音声入力手段により入力された音声を解析する音声解析手段と、
を更に備え、
前記判定手段は、前記音声解析手段により解析された雑音の音量が前記所定の対象と前記対話をすることができる基準値を超える場合に、前記自装置と前記所定の対象との間の前記対話が可能でないと判定し、
前記制御手段は、前記判定手段により前記雑音の音量が前記基準値を超えると判定された場合に、前記雑音の音量が前記基準値以下になるまでの間、前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする付記2乃至7の何れか1つに記載のロボット。
(Appendix 8)
voice input means for inputting voice;
a voice analysis means for analyzing the voice input by the voice input means;
further comprising
When the volume of the noise analyzed by the speech analysis means exceeds a reference value at which the dialogue with the predetermined object is possible, the determination means determines whether the dialogue between the device itself and the predetermined object is possible. is not possible,
When the determination means determines that the volume of the noise exceeds the reference value, the control means makes the first response until the volume of the noise becomes equal to or less than the reference value. controlling the operating means;
8. The robot according to any one of Appendices 2 to 7, characterized by:

(付記9)
画像を撮像する撮像手段と、
前記撮像手段により撮像された画像から前記所定の対象の顔を検出し、検出された前記顔に含まれる唇動作を検出する唇動作検出手段と、
を更に備え、
前記判定手段は、前記唇動作検出手段により検出された前記唇動作により前記所定の対象から話しかけられたか否かを判定する、
ことを特徴とする付記2乃至8の何れか1つに記載のロボット。
(Appendix 9)
an imaging means for imaging an image;
lip motion detection means for detecting the face of the predetermined target from the image captured by the imaging means and detecting lip motion included in the detected face;
further comprising
The determination means determines whether or not the predetermined target has spoken to the lip motion detected by the lip motion detection means.
9. The robot according to any one of Appendices 2 to 8, characterized by:

(付記10)
前記判定手段により前記自装置と前記所定の対象との距離が対話可能距離を超えると判定された場合に、
前記制御手段は、前記自装置が任意の方向に移動をしている場合には前記自装置が移動の方向を変更して前記所定の対象に向けて移動をするように移動手段を制御して、前記自装置が停止をしている場合には前記自装置が前記所定の対象に向けて移動を始めるように前記移動手段を制御する、
ことを特徴とする付記2乃至9の何れか1つに記載のロボット。
(Appendix 10)
when the determination means determines that the distance between the device and the predetermined target exceeds the interactive distance,
The control means controls the movement means so that, when the device is moving in an arbitrary direction, the device changes the direction of movement and moves toward the predetermined target. , controlling the moving means so that the own device starts moving toward the predetermined target when the own device is stopped;
The robot according to any one of Appendices 2 to 9, characterized in that:

(付記11)
前記判定手段により前記自装置と前記所定の対象との距離が対話可能距離以下であると判定された場合に、
前記制御手段は、前記自装置が移動をしている場合には前記自装置を停止するように移動手段を制御して、前記自装置が停止をしている場合には前記自装置の停止を維持するように前記移動手段を制御して、
前記制御手段は、前記所定の対象に前記対話の継続をさせるための第2の応答をするように前記動作手段を制御する、
ことを特徴とする付記2乃至10の何れか1つに記載のロボット。
(Appendix 11)
when the determination means determines that the distance between the device and the predetermined object is equal to or less than the interactive distance,
The control means controls the moving means to stop the own device when the own device is moving, and stops the own device when the own device is stopped. controlling the moving means to maintain
The control means controls the action means to give a second response for causing the predetermined target to continue the dialogue.
11. The robot according to any one of Appendices 2 to 10, characterized by:

(付記12)
音声を出力する音声出力手段を更に備え、
前記第1の応答は、前記所定の対象に前記対話の前記中断を促す、前記音声出力手段による音声の出力、又は、前記所定の対象に前記対話の前記中断を促す、前記動作手段による姿勢の出力を含む、
ことを特徴とする付記2に記載のロボット。
(Appendix 12)
further comprising audio output means for outputting audio,
The first response prompts the predetermined target to discontinue the dialogue, outputs voice by the voice output means, or prompts the predetermined target to discontinue the dialogue, and changes posture by the action means. including output,
The robot according to appendix 2, characterized by:

(付記13)
音声を出力する音声出力手段を更に備え、
前記第2の応答は、前記所定の対象に前記対話の前記継続を促す、前記音声出力手段による音声の出力、又は、前記所定の対象に前記対話の前記継続を促す、前記動作手段による姿勢の出力を含む、
ことを特徴とする付記4又は11に記載のロボット。
(Appendix 13)
further comprising audio output means for outputting audio,
The second response prompts the predetermined target to continue the dialogue, outputs voice by the voice output means, or prompts the predetermined target to continue the dialogue, and changes posture by the action means. including output,
The robot according to appendix 4 or 11, characterized by:

(付記14)
音声を入力する音声入力手段と、
画像を撮像する撮像手段と、
を更に備え、
前記第1の応答は、前記音声入力手段及び前記撮像手段が意図的に機能していないふりをして、前記自装置が音声を聞いておらず、且つ、画像も見ていないような感情表現をすることを含む、
ことを特徴とする付記2に記載のロボット。
(Appendix 14)
voice input means for inputting voice;
an imaging means for imaging an image;
further comprising
The first response is to intentionally pretend that the voice input means and the imaging means are not functioning, and to express an emotion such that the self-device neither hears voices nor sees images. including doing
The robot according to appendix 2, characterized by:

(付記15)
音声を入力する音声入力手段と、
画像を撮像する撮像手段と、
を更に備え、
前記第2の応答は、前記音声入力手段及び前記撮像手段が意図的に機能しているふりをして、前記自装置が音声を聞いており、且つ、画像も見ているような感情表現をすることを含む、
ことを特徴とする付記4又は11に記載のロボット。
(Appendix 15)
voice input means for inputting voice;
an imaging means for imaging an image;
further comprising
The second response is to pretend that the voice input means and the imaging means are functioning intentionally, and to express emotions such that the self-device is listening to voices and also seeing images. including to
The robot according to appendix 4 or 11, characterized by:

(付記16)
前記所定の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする付記1乃至15の何れか1つに記載のロボット。
(Appendix 16)
the predetermined target includes a human or animal or other robot;
16. The robot according to any one of Appendices 1 to 15, characterized by:

(付記17)
自装置に動作をさせる動作手段を備えるロボットの制御方法であって、
前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定ステップと、
前記判定ステップにより前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御ステップと、
を含む、
ことを特徴とするロボットの制御方法。
(Appendix 17)
A control method for a robot comprising operating means for causing the robot to operate,
a determination step of determining whether or not it is possible to improve speech recognition accuracy between the device and the predetermined target when the device itself is spoken to by a predetermined target;
When it is determined by the determination step that the improvement of the speech recognition accuracy between the device itself and the predetermined target is not possible, a first response for causing the predetermined target to stop the speech is provided. a control step of controlling the operating means to
including,
A robot control method characterized by:

(付記18)
自装置に動作をさせる動作手段を備えるロボットを制御するコンピュータを、
前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定手段、
前記判定手段により前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段、
として機能させる、
ことを特徴とするプログラム。
(Appendix 18)
A computer that controls a robot equipped with operating means that causes the device to operate,
Determination means for determining whether or not speech recognition accuracy between the device and the predetermined target can be improved when the device is spoken to by a predetermined target;
When the determination means determines that the accuracy of speech recognition between the device itself and the predetermined target cannot be improved, a first response for causing the predetermined target to stop talking to the target is provided. control means for controlling the operating means to
to function as
A program characterized by

100、200…ロボット、101…頭部、102…胴体部、103…手部、104…マイク、105…撮像部、106…スピーカ、107…表示部、108…移動部、110…制御部、111…音声解析部、112…移動制御部、113…判定部、114…対話制御部、115…唇動作検出部、120…操作ボタン、130…電源部 DESCRIPTION OF SYMBOLS 100, 200... Robot 101... Head 102... Body part 103... Hand part 104... Microphone 105... Imaging part 106... Speaker 107... Display part 108... Moving part 110... Control part 111 112 movement control unit 113 determination unit 114 dialogue control unit 115 lip motion detection unit 120 operation button 130 power supply unit

Claims (16)

自装置に動作をさせる動作手段と、
前記自装置を移動させる移動手段と、
前記自装置が所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の距離を検出し、検出された前記距離が前記所定の対象との対話の音声認識精度を確保できる対話可能距離を超えるか否かを判定する判定手段と、
前記判定手段により、検出された前記距離が前記対話可能距離を超えていると判定された場合、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御する制御手段と、
を備え
前記制御手段は、前記自装置の前記所定の対象に向けての移動中に前記所定の対象から再度話しかけられた場合、前記判定手段により前記自装置と前記所定の対象との間の距離が前記対話可能距離以下となったと判定された後に、前記移動中に話しかけられた内容を認識できていないことを示す動作をするように前記動作手段を制御する、
ことを特徴とするロボット。
an operation means for causing the device to operate;
a moving means for moving the own device;
When the device is spoken to by a predetermined target, the device detects the distance between the device and the predetermined target, and the detected distance can ensure the speech recognition accuracy of the dialogue with the predetermined target. a determination means for determining whether or not the interactive distance is exceeded ;
a control means for controlling the movement means so that the self-device moves toward the predetermined target when the determination means determines that the detected distance exceeds the interactive distance ; ,
with
When the predetermined target speaks to the device again while the device is moving toward the predetermined target, the control means determines the distance between the device and the predetermined target by the determination device. controlling the operating means so as to perform an operation indicating that the content spoken to during the movement is not recognized after it is determined that the distance is equal to or less than the interactive distance ;
A robot characterized by:
前記制御手段は、前記判定手段により、検出された前記距離が前記対話可能距離を超えていると判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する、
ことを特徴とする請求項1に記載のロボット。
When the determination means determines that the detected distance exceeds the interactive distance, the control means makes a first response for causing the predetermined target to stop the talking. controlling said operating means to
The robot according to claim 1, characterized by:
前記制御手段は、前記自装置と前記所定の対象との間の距離が前記対話可能距離以下になるまでの間、前記話しかけの中断をさせるための前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする請求項2に記載のロボット。
The control means causes the operation means to make the first response for interrupting the talking until the distance between the device and the predetermined object becomes equal to or less than the interactive distance . to control the
3. The robot according to claim 2, characterized by:
前記制御手段が、前記第1の応答をするように前記動作手段を制御した後、前記判定手段が前記自装置と前記所定の対象との間の距離が前記対話可能距離以下になったと判定すると、前記制御手段は、前記第1の応答とは異なる前記所定の対象に前記対話の継続をさせるための第2の応答をするように前記動作手段を制御する、
ことを特徴とする請求項2又は3に記載のロボット。
After the control means controls the operation means to make the first response, the determination means determines that the distance between the own device and the predetermined object has become equal to or less than the interactive distance. Then, the control means controls the operation means to make a second response different from the first response to cause the predetermined target to continue the dialogue.
4. The robot according to claim 2 or 3, characterized in that:
前記第2の応答は、前記移動中に話しかけられた内容を認識できていないことを示す動作の前に行われる、
ことを特徴とする請求項に記載のロボット。
The second response is performed before an action indicating that the content spoken to during the movement is not recognized .
5. The robot according to claim 4 , characterized in that:
音声を入力する音声入力手段と、
呼びかけ音声が記憶されたメモリと、
を更に備え、
前記判定手段は、前記音声入力手段から入力された音声と、前記メモリに記憶されている呼びかけ音声と、を比較することにより前記所定の対象から話しかけられているかを判定する、
ことを特徴とする請求項乃至の何れか1項に記載のロボット。
voice input means for inputting voice;
a memory in which a calling voice is stored;
further comprising
The determining means compares the voice input from the voice input means with the calling voice stored in the memory to determine whether the predetermined target is speaking to the user .
6. The robot according to any one of claims 1 to 5 , characterized in that:
前記判定手段により前記自装置と前記所定の対象との距離が前記対話可能距離を超えると判定された場合に、
前記制御手段は、前記自装置が任意の方向に移動をしている場合には前記自装置が移動の方向を変更して前記所定の対象に向けて移動をするように前記移動手段を制御して、前記自装置が停止をしている場合には前記自装置が前記所定の対象に向けて移動を始めるように前記移動手段を制御する、
ことを特徴とする請求項乃至の何れか1項に記載のロボット。
when the determining means determines that the distance between the device and the predetermined target exceeds the interactive distance,
The control means controls the movement means so that, when the device is moving in an arbitrary direction, the device changes the direction of movement and moves toward the predetermined target. and controlling the moving means so that the own device starts moving toward the predetermined target when the own device is stopped;
7. The robot according to any one of claims 1 to 6 , characterized in that:
前記判定手段により前記自装置と前記所定の対象との距離が前記対話可能距離以下であると判定された場合に、
前記制御手段は、前記自装置が移動をしている場合には前記自装置を停止するように前記移動手段を制御して、前記自装置が停止をしている場合には前記自装置の停止を維持するように前記移動手段を制御して、
前記制御手段は、前記所定の対象に前記対話の継続をさせるための前記第2の応答をするように前記動作手段を制御する、
ことを特徴とする請求項4又は5に記載のロボット。
when the determining means determines that the distance between the device and the predetermined target is equal to or less than the interactive distance,
The control means controls the moving means to stop the own device when the own device is moving, and stops the own device when the own device is stopped. controlling the moving means to maintain
The control means controls the action means to give the second response for causing the predetermined target to continue the dialogue.
6. The robot according to claim 4 or 5, characterized in that:
音声を出力する音声出力手段を更に備え、
前記移動中に話しかけられた内容を認識できていないことを示す動作は、前記所定の対象からの話しかけの内容を再度繰り返すことを要求する音声、又は、前記所定の対象からの話しかけの内容を認識できていないことを示す音声を前記音声出力手段から出力する動作である
ことを特徴とする請求項1乃至8の何れか1項に記載のロボット。
further comprising audio output means for outputting audio,
The action indicating that the content spoken to while moving is not recognized is a voice requesting to repeat the content of the speech from the predetermined target, or recognizing the content of the speech from the predetermined target. An operation of outputting a voice indicating that it is not done from the voice output means ,
9. The robot according to any one of claims 1 to 8 , characterized in that:
音声を出力する音声出力手段を更に備え、
前記第1の応答は、前記所定の対象に前記対話の前記中断を促す、前記音声出力手段による音声の出力、又は、前記所定の対象に前記対話の前記中断を促す、前記動作手段による姿勢の出力を含む、
ことを特徴とする請求項に記載のロボット。
further comprising audio output means for outputting audio,
The first response prompts the predetermined target to discontinue the dialogue, outputs voice by the voice output means, or prompts the predetermined target to discontinue the dialogue, and changes posture by the action means. including output,
3. The robot according to claim 2 , characterized by:
音声を入力する音声入力手段と、
画像を撮像する撮像手段と、
を更に備え、
前記第1の応答は、前記音声入力手段及び前記撮像手段が意図的に機能していないふりをして、前記自装置が音声を聞いておらず、且つ、画像も見ていないような感情表現をすることを含む、
ことを特徴とする請求項2に記載のロボット。
voice input means for inputting voice;
an imaging means for imaging an image;
further comprising
The first response is to intentionally pretend that the voice input means and the imaging means are not functioning, and to express an emotion such that the self-device neither hears voices nor sees images. including doing
3. The robot according to claim 2, characterized by:
音声を出力する音声出力手段を更に備え、
前記第2の応答は、前記所定の対象に前記対話の前記継続を促す、前記音声出力手段による音声の出力、又は、前記所定の対象に前記対話の前記継続を促す、前記動作手段による姿勢の出力を含む、
ことを特徴とする請求項4、5又はに記載のロボット。
further comprising audio output means for outputting audio,
The second response prompts the predetermined target to continue the dialogue, outputs voice by the voice output means, or prompts the predetermined target to continue the dialogue, and changes posture by the action means. including output,
9. The robot according to claim 4 , 5 or 8 , characterized in that:
音声を入力する音声入力手段と、
画像を撮像する撮像手段と、
を更に備え、
前記第2の応答は、前記音声入力手段及び前記撮像手段が意図的に機能しているふりをして、前記自装置が音声を聞いており、且つ、画像も見ているような感情表現をすることを含む、
ことを特徴とする請求項4、5又はに記載のロボット。
voice input means for inputting voice;
an imaging means for imaging an image;
further comprising
The second response is to pretend that the voice input means and the imaging means are functioning intentionally, and to express emotions such that the self-device is listening to voices and also seeing images. including to
9. The robot according to claim 4 , 5 or 8 , characterized in that:
前記所定の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする請求項1乃至13の何れか1項に記載のロボット。
the predetermined target includes a human or animal or other robot;
14. The robot according to any one of claims 1 to 13 , characterized in that:
自装置に動作をさせる動作手段と、前記自装置を移動させる移動手段と、を備えるロボットの制御方法であって、
前記自装置が所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の距離を検出し、検出された前記距離が前記所定の対象との対話の音声認識精度を確保できる対話可能距離を超えるか否かを判定する判定ステップと、
前記判定ステップにより、検出された前記距離が前記対話可能距離を超えていると判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御ステップと、
を含
前記判定ステップにより、前記距離が前記対話可能距離を超えると判定された場合、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御し、
前記自装置の前記所定の対象に向けての移動中に前記所定の対象から再度話しかけられた場合、前記自装置と前記所定の対象との間の距離が前記対話可能距離以下となったと判定された後に、前記移動中に話しかけられた内容を認識できていないことを示す動作をするように前記動作手段を制御する、
ことを特徴とするロボットの制御方法。
A control method for a robot comprising operating means for causing the own device to operate and moving means for moving the own device ,
When the device is spoken to by a predetermined target, the device detects the distance between the device and the predetermined target, and the detected distance can ensure the speech recognition accuracy of the dialogue with the predetermined target. a determination step of determining whether or not the interactive distance is exceeded ;
When the determination step determines that the detected distance exceeds the interactive distance, the operation means makes a first response for causing the predetermined target to stop the talking. a control step for controlling
including
if the determining step determines that the distance exceeds the interactive distance, controlling the moving means so that the own device moves toward the predetermined target;
When the predetermined target speaks to the device again while the device is moving toward the predetermined target, it is determined that the distance between the device and the predetermined target is equal to or less than the interactive distance. After that, controlling the operation means to perform an operation indicating that the content spoken to during the movement is not recognized.
A robot control method characterized by:
自装置に動作をさせる動作手段と、前記自装置を移動させる移動手段と、を備えるロボットを制御するコンピュータを、
前記自装置が所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の距離を検出し、検出された前記距離が前記所定の対象との対話の音声認識精度を確保できる対話可能距離を超えるか否かを判定する判定手段、
前記判定手段により、検出された前記距離が前記対話可能距離を超えていると判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段、
として機能させ
前記制御手段は、
前記判定手段により前記距離が前記対話可能距離を超えると判定された場合、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御し、
前記自装置の前記所定の対象に向けての移動中に前記所定の対象から再度話しかけられた場合、前記判定手段により前記自装置と前記所定の対象との間の距離が前記対話可能距離以下となったと判定された後に、前記移動中に話しかけられた内容を認識できていないことを示す動作をするように前記動作手段を制御する、
ことを特徴とするプログラム。
A computer that controls a robot comprising operating means for causing the own device to move and moving means for moving the own device ,
When the device is spoken to by a predetermined target, the device detects the distance between the device and the predetermined target, and the detected distance can ensure the speech recognition accuracy of the dialogue with the predetermined target. Determination means for determining whether or not the interactive distance is exceeded ;
When the determining means determines that the detected distance exceeds the interactive distance, the operating means makes a first response for causing the predetermined target to stop talking. control means for controlling
function as
The control means is
controlling the movement means so that the device moves toward the predetermined target when the determination means determines that the distance exceeds the interactive distance;
When the predetermined target speaks to the device again while the device is moving toward the predetermined target, the determining means determines that the distance between the device and the predetermined target is equal to or less than the interactive distance. controlling the operating means to perform an operation indicating that the content spoken to during the movement is not recognized after it is determined that the
A program characterized by
JP2018116650A 2018-06-20 2018-06-20 Robot, robot control method and program Active JP7176244B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018116650A JP7176244B2 (en) 2018-06-20 2018-06-20 Robot, robot control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018116650A JP7176244B2 (en) 2018-06-20 2018-06-20 Robot, robot control method and program

Publications (2)

Publication Number Publication Date
JP2019219509A JP2019219509A (en) 2019-12-26
JP7176244B2 true JP7176244B2 (en) 2022-11-22

Family

ID=69096421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116650A Active JP7176244B2 (en) 2018-06-20 2018-06-20 Robot, robot control method and program

Country Status (1)

Country Link
JP (1) JP7176244B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7351757B2 (en) * 2020-01-24 2023-09-27 株式会社日立製作所 How to control a moving robot
JP7430083B2 (en) 2020-03-19 2024-02-09 株式会社フジタ speech control device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006181651A (en) 2004-12-24 2006-07-13 Toshiba Corp Interactive robot, voice recognition method of interactive robot and voice recognition program of interactive robot
JP2006187825A (en) 2005-01-05 2006-07-20 Yaskawa Electric Corp Robot device and method of controlling the same
JP2006251266A (en) 2005-03-10 2006-09-21 Hitachi Ltd Audio-visual coordinated recognition method and device
JP2009192942A (en) 2008-02-15 2009-08-27 Toshiba Corp Voice interaction apparatus and support method
JP2009222969A (en) 2008-03-17 2009-10-01 Toyota Motor Corp Speech recognition robot and control method for speech recognition robot
JP2013061715A (en) 2011-09-12 2013-04-04 Nec Corp Person monitoring system, robot, person monitoring method and robot control program
JP2013244566A (en) 2012-05-28 2013-12-09 Fujitsu Ltd Robot, and method for controlling the same
WO2017169826A1 (en) 2016-03-28 2017-10-05 Groove X株式会社 Autonomous behavior robot that performs welcoming behavior
JP2018086689A (en) 2016-11-28 2018-06-07 株式会社G−グロボット Communication robot

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006181651A (en) 2004-12-24 2006-07-13 Toshiba Corp Interactive robot, voice recognition method of interactive robot and voice recognition program of interactive robot
JP2006187825A (en) 2005-01-05 2006-07-20 Yaskawa Electric Corp Robot device and method of controlling the same
JP2006251266A (en) 2005-03-10 2006-09-21 Hitachi Ltd Audio-visual coordinated recognition method and device
JP2009192942A (en) 2008-02-15 2009-08-27 Toshiba Corp Voice interaction apparatus and support method
JP2009222969A (en) 2008-03-17 2009-10-01 Toyota Motor Corp Speech recognition robot and control method for speech recognition robot
JP2013061715A (en) 2011-09-12 2013-04-04 Nec Corp Person monitoring system, robot, person monitoring method and robot control program
JP2013244566A (en) 2012-05-28 2013-12-09 Fujitsu Ltd Robot, and method for controlling the same
WO2017169826A1 (en) 2016-03-28 2017-10-05 Groove X株式会社 Autonomous behavior robot that performs welcoming behavior
JP2018086689A (en) 2016-11-28 2018-06-07 株式会社G−グロボット Communication robot

Also Published As

Publication number Publication date
JP2019219509A (en) 2019-12-26

Similar Documents

Publication Publication Date Title
US10930303B2 (en) System and method for enhancing speech activity detection using facial feature detection
CN108363706B (en) Method and device for man-machine dialogue interaction
JP6551507B2 (en) Robot control device, robot, robot control method and program
JP7038210B2 (en) Systems and methods for interactive session management
US11548147B2 (en) Method and device for robot interactions
WO2022033236A1 (en) Audio enhancement method and apparatus, storage medium, and wearable device
JP7176244B2 (en) Robot, robot control method and program
JP2018185362A (en) Robot and control method of the same
JP2014191029A (en) Voice recognition system and method for controlling voice recognition system
JP2009166184A (en) Guide robot
JP7180139B2 (en) Robot, robot control method and program
JP2018171683A (en) Robot control program, robot device, and robot control method
KR102629796B1 (en) An electronic device supporting improved speech recognition
KR102115222B1 (en) Electronic device for controlling sound and method for operating thereof
JP2020126195A (en) Voice interactive device, control device for voice interactive device and control program
JP2004234631A (en) System for managing interaction between user and interactive embodied agent, and method for managing interaction of interactive embodied agent with user
JP2007155986A (en) Voice recognition device and robot equipped with the same
JP6874437B2 (en) Communication robots, programs and systems
JP2015150620A (en) robot control system and robot control program
KR102168812B1 (en) Electronic device for controlling sound and method for operating thereof
KR102134860B1 (en) Artificial Intelligence speaker and method for activating action based on non-verbal element
JP7286303B2 (en) Conference support system and conference robot
EP3288035A2 (en) Personal audio lifestyle analytics and behavior modification feedback
JP7342928B2 (en) Conference support device, conference support method, conference support system, and conference support program
JP5709955B2 (en) Robot, voice recognition apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221024

R150 Certificate of patent or registration of utility model

Ref document number: 7176244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150