JP4373903B2 - Autonomous mobile robot - Google Patents
Autonomous mobile robot Download PDFInfo
- Publication number
- JP4373903B2 JP4373903B2 JP2004361530A JP2004361530A JP4373903B2 JP 4373903 B2 JP4373903 B2 JP 4373903B2 JP 2004361530 A JP2004361530 A JP 2004361530A JP 2004361530 A JP2004361530 A JP 2004361530A JP 4373903 B2 JP4373903 B2 JP 4373903B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- voice
- robot
- voice input
- light emitting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Toys (AREA)
Description
本発明は、自律移動ロボットに関し、特に耳部を有する頭部が胴体部に連結されている自律移動ロボットに関する。 The present invention relates to an autonomous mobile robot, and more particularly to an autonomous mobile robot in which a head having an ear is connected to a trunk.
近年、自律移動ロボットに人間とのコミュニケーションを行えるように、例えば、外見上の目として機能する部分に配置した複数のLEDを人間の働きかけ等に対して所定の発光パターンで点滅させて感情を表現したり、さらに、人間からの話しかけに対しても所定の動作を行わせることができるように構成されたものが提案されている(例えば、特許文献1参照)。
ところで、前記特許文献1のようなロボット装置(ペットロボット)では、「耳」として機能するマイクロホンで人間からの音声を入力して、その入力音声情報に基づいて予め設定されている動作を行うように構成されているが、このロボット装置の電源OFF状態から電源ONして起動した初期時には、ロボット装置に話しかけて、このロボット装置が所定の動作を行うまでは、人間はロボット装置の「耳」として機能するマイクロホンを含む音声入力手段が正常に機能しているか否かを判断することができなかった。 By the way, in the robot apparatus (pet robot) like the above-mentioned patent document 1, a voice from a human is input with a microphone functioning as an “ear”, and a preset operation is performed based on the input voice information. However, at the initial time when the robot apparatus is turned on from the power-off state and started up, the robot apparatus “ears” until the robot apparatus speaks and performs a predetermined operation. It was not possible to determine whether or not the voice input means including the microphone functioning as
そこで、本発明は、電源OFF状態から電源ONして起動した初期時における音声入力手段の初期状態チェックを容易に行うことができる自律移動ロボットを提供することを目的とする。 Accordingly, an object of the present invention is to provide an autonomous mobile robot that can easily check the initial state of the voice input means at the initial time when the power is turned on from the power-off state and started.
前記目的を達成するために請求項1に記載の発明は、胴体部に連結された駆動自在な頭部の両側に、外見上の耳として機能する音声入力手段を備え、前記胴体部の下部に連結された脚部の駆動により自律移動自在な自律移動ロボットであって、前記各音声入力手段は、外部から音声を入力する音声入力部と、前記音声入力部の外側に半円弧状に配置され、複数の発光部が一体的に連結されて構成された表示手段と、を備え、さらに、制御手段を有し、制御手段を有し、前記制御手段は、前記頭部に設けられたCCDカメラから入力される画像情報に基づいて、画像処理を行い、その撮影範囲内にある物体の形状認識および距離と位置を算出する画像情報処理部と、前記音声入力部から入力される音声情報に基づいて、音源からの音声入力の有無、音源定位の特定、音声入力レベルの各状況を得るための演算を行う音声情報処理部と、前記画像情報処理部で処理された画像情報に基づいて、人間がいるかを判断すると共に、前記音声情報処理部で処理された音声情報に基づいて、音声入力の有無、音源定位の特定、音声入力レベルの大きさを判断する状況判断部と、この状況判断部で得られた判断状況に基づいて、予め記憶している動作シナリオの中から前記判断状況に応じた動作シナリオを選択する動作シナリオ作成部と、前記動作シナリオ作成部で選択された動作シナリオに基づいて、予め記憶している複数のロボット動作のうちから適切なロボット動作を選択するロボット動作選択部と、前記動作シナリオ作成部で選択された動作シナリオに基づいて、前記発光部の点灯、点滅、消灯の動作を選択すると共に、前記自律移動ロボットを電源ONして起動したときに前記各音声入力手段が正常であるか否かの初期状態チェックの判定を、前記各発光部の点灯状態で行うLED動作選択部と、前記ロボット動作選択部で選択したロボット動作に基づいて、頭部、腕部、脚部を駆動制御するロボット動作制御部と、を備え、前記状況判断部により音源定位となる人間が当該自律移動ロボットの左45度よりも大きな角度方向にいると判断したときには、左側の前記発光部を前記音声入力レベルに基づいて前記LED動作選択部により個別に点灯させ、前記状況判断部により音源定位となる人間が当該自律移動ロボットの左右に45度の範囲内にいると判断したときには、左右側の前記発光部を前記音声入力レベルに基づいて、LED動作選択部により個別に点灯させ、前記状況判断部により音源定位となる人間が当該自律移動ロボットの右45度よりも大きな角度方向にいると判断したときには、右側の前記発光部を前記音声入力レベルに基づいて前記LED動作選択部により個別に点灯させることを特徴としている。 In order to achieve the above object, the invention according to claim 1 is provided with voice input means functioning as an appearance ear on both sides of a driveable head connected to the body part, and at the lower part of the body part. An autonomous mobile robot that is autonomously movable by driving connected legs, wherein each of the voice input means is arranged in a semicircular shape outside a voice input unit that inputs voice from outside and the voice input unit. , comprising display means having a plurality of light emitting portions are configured by integrally connected, and further comprising a control means has a control means, said control means, provided in said head An image information processing unit that performs image processing based on image information input from a CCD camera and calculates the shape recognition and distance and position of an object within the shooting range; and audio information input from the audio input unit Based on the presence of audio input from the sound source. A sound information processing unit that performs calculations for obtaining sound source localization and sound input level situations, and determining whether a person is present based on image information processed by the image information processing unit, and Based on the voice information processed by the information processing unit, based on the judgment status obtained by the situation judgment unit and the presence / absence of voice input, identification of sound source localization, judgment of the level of the voice input level An operation scenario creation unit that selects an operation scenario according to the determination situation from among operation scenarios stored in advance, and a plurality of pre-stored operations based on the operation scenario selected by the operation scenario creation unit A robot motion selection unit that selects an appropriate robot motion from among the robot motions, and lighting and blinking of the light emitting unit based on the motion scenario selected by the motion scenario creation unit With selecting an operation of turning off, the determination of the initial state check whether the sound input means is normal when starting the autonomous mobile robot and the power ON, performing the in lighting state of the light emitting portion An LED operation selection unit; and a robot operation control unit that drives and controls the head, arms, and legs based on the robot operation selected by the robot operation selection unit, and the situation determination unit performs sound source localization. When it is determined that a human is in an angle direction greater than 45 degrees to the left of the autonomous mobile robot, the light emitting unit on the left side is individually turned on by the LED operation selection unit based on the voice input level, and the situation determination unit When it is determined that the person who becomes the sound source localization is within a range of 45 degrees to the left and right of the autonomous mobile robot, the left and right light emitting units are moved based on the voice input level. When the LED determining unit determines that the human being who is the sound source is located in an angle direction larger than 45 degrees to the right of the autonomous mobile robot, the right light-emitting unit is input to the voice. Based on the level, the LED operation selection unit individually turns on the light .
請求項1に記載の発明によれば、自律移動ロボットを電源ONして起動したときに各音声入力手段が正常であるか否かの初期状態チェックの判定を、各発光部の点灯状態で行うことができる。また、音声の方向および音声入力レベルに対応して発光部が点灯することができる。
また、請求項2に記載の発明は、前記音声入力レベルに対応して予め複数の発話情報が記憶されている発話関係選択手段をさらに備え、前記シナリオ作成部は、入力された音声入力レベルに基づいて、前記発話関係選択手段から発話を選択して前記頭部に設けたスピーカから、前記発話関係選択手段から選択した発話を音声出力することを特徴としている。
さらに、請求項3に記載の発明は、前記ロボット動作制御部が少なくとも前記頭部を駆動制御して、前記音源定位となる人間の方向を向くようにすることを特徴としている。
According to the first aspect of the present invention, when the autonomous mobile robot is powered on and activated, the initial state check for determining whether each voice input unit is normal is performed based on the lighting state of each light emitting unit. be able to. In addition, the light emitting unit can be lit corresponding to the direction of the sound and the sound input level.
The invention according to
Furthermore, the invention described in
また、請求項4に記載の発明において、前記制御手段は、前記LED動作選択部が、前記初期状態チェックの判定後に、前記音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して前記各発光部を個別にON/OFF制御することを特徴としている。
Further, in the invention described in
請求項4に記載の発明によれば、初期状態チェックの判定後に、直ちに音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して各発光部を個別にON/OFF制御することができる。 According to the fourth aspect of the present invention, after the initial state check is determined, each light emitting unit is individually turned on / off corresponding to the volume of the voice input to the voice input unit, the presence / absence of voice recognition, and the voice direction. OFF control can be performed.
また、請求項5に記載の発明において、前記制御手段は、前記音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して前記各発光部を個別にON/OFF制御するときに、前記音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応させて、前記ロボット動作制御部が少なくとも前記頭部を駆動制御することを特徴としている。
Further, in the invention described in
請求項5に記載の発明によれば、音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して前記各発光部を個別にON/OFF制御するときに、音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応させて少なくとも頭部を駆動することができる。 According to the fifth aspect of the present invention, when each of the light emitting units is individually controlled to be turned on / off corresponding to the volume of the voice input to the voice input unit, the presence / absence of voice recognition, and the voice direction, At least the head can be driven in correspondence with the volume of voice input to the input unit, presence or absence of voice recognition, and voice direction.
請求項1に記載の発明によれば、自律移動ロボットを電源ONして起動したときに各音声入力手段が正常であるか否かの初期状態チェックの判定を、各発光部の点灯状態で行うことができるので、この初期状態チェックの判定を人間が可視的に容易に認識することができる。また、音声の方向および音声入力レベルに対応して発光部を個別に点灯することができる。 According to the first aspect of the present invention, when the autonomous mobile robot is powered on and activated, the initial state check for determining whether each voice input unit is normal is performed based on the lighting state of each light emitting unit. Therefore, the determination of the initial state check can be easily recognized visually by humans. In addition, the light emitting units can be individually lit corresponding to the direction of sound and the sound input level.
請求項2に記載の発明によれば、入力された音声入力レベルに基づいて、前記発話関係選択手段から発話を選択して前記頭部に設けたスピーカーから音声出力を行うことができるので、人間とのコミュニケーション状況をより親しみのあるものにすることができる。
請求項3に記載の発明によれば、前記音源定位となる人間の方向を向くので、人間とのコミュニケーション状況をより親しみのあるものにすることができる。
請求項4に記載の発明によれば、初期状態チェックの判定後に、直ちに音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して各発光部を個別にON/OFF制御することができるので、自律移動ロボットが入力した音声を認識している状況を、人間が可視的に知ることができる。
According to the second aspect of the present invention, it is possible to select an utterance from the utterance relation selection unit and output a voice from a speaker provided on the head based on the input voice input level. The communication situation with can be made more friendly.
According to the third aspect of the present invention, since the sound source is directed toward the human being, the communication status with the human can be made more familiar.
According to the fourth aspect of the present invention, after the initial state check is determined, each light emitting unit is individually turned on / off corresponding to the volume of the voice input to the voice input unit, the presence / absence of voice recognition, and the voice direction. Since the OFF control can be performed, a human can visually know the situation in which the voice input by the autonomous mobile robot is recognized.
請求項5に記載の発明によれば、音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して前記各発光部を個別にON/OFF制御するときに、音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応させて少なくとも頭部を駆動することができるので、自律移動ロボットが音声入力しているときにおける、人間とのコミュニケーション状況をより親しみのあるものにすることができる。 According to the fifth aspect of the present invention, when each of the light emitting units is individually controlled to be turned on / off corresponding to the volume of the voice input to the voice input unit, the presence / absence of voice recognition, and the voice direction, Communication status with humans when an autonomous mobile robot is inputting voice, because at least the head can be driven in response to the volume of voice input to the input unit, presence or absence of voice recognition, and voice direction Can be made more familiar.
以下、本発明を図示の実施形態に基づいて説明する。
図1は、本発明の実施形態に係る自律移動ロボットとしての自律移動2脚ロボット(以下、「ロボット」という)を示す正面図、図2は、本実施形態に係るロボットの頭部を示す側面図、図3は、本実施形態に係るロボットの制御装置の構成を示すブロック図である。
Hereinafter, the present invention will be described based on the illustrated embodiments.
FIG. 1 is a front view showing an autonomous mobile biped robot (hereinafter referred to as “robot”) as an autonomous mobile robot according to an embodiment of the present invention, and FIG. 2 is a side view showing the head of the robot according to this embodiment. 3 and 3 are block diagrams showing the configuration of the robot control apparatus according to the present embodiment.
[ロボットの構成]
図1、図2に示すように、本実施形態に係るロボット1は、胴体部2の上部に首部3を介して頭部4を備え、胴体部2の上部両側に2本の腕部5を有するとともに、胴体部2の下部に2本の脚部6を有している。
[Robot configuration]
As shown in FIGS. 1 and 2, the robot 1 according to this embodiment includes a
頭部4(首部3)、腕部5、および脚部6の人間とほぼ対応する各関節部分はアクチュエータ(不図示)によりそれぞれ動作可能であり、ロボット動作制御部28(図3参照)によって頭部4(首部3)、腕部5、脚部6の各動作が制御される。
The joint portions of the head 4 (neck 3), the
ロボット1の頭部4には、その前面部(顔部)4a内に所定間隔で左右に並べた2個のCCDカメラ7a,7bと、その下側にスピーカ8が配置されており、さらに、頭部4の両側面に音声入力手段としての耳部9a,9bが設けられている。なお、頭部4の前面部4aは、可視光透過自在な材質で形成されている。
The
2個のCCDカメラ7a,7bは、ロボット1の前方移動方向側を撮影するカメラであり、各CCDカメラ7a,7bで撮像した各画像情報は画像情報処理部21(図3参照)に入力される。スピーカ8は、発話関係選択部27(図3参照)に予め記憶されている所定の発話情報に基づいて所定の音声を発することができる。
The two
耳部9a,9bは、音声入力部としてのマイクロホン10a,10bとその外側に半円弧状の表示手段としてのLED表示部11a,11bをそれぞれ備えており、マイクロホン10a,10bで検出した音声情報は音声情報処理部22(図3参照)に入力される。図2に示すように、耳部9aのLED表示部11aは、3つの発光部L1,L2,L3が下から順に分割されて一体的に構成されており、各発光部L1,L2,L3は、ロボット1の電源ONによる起動時、マイクロホン10aの音声認識の状態、および音源(人間)の方向に応じて個別に点灯(点滅)と消灯を行うことができる(詳細は後述する)なお、他方側(頭部4の右側)の耳部9bにおいても、同様に構成されている。また、発光部L1,L2,L3内にはそれぞれ複数のLED(例えば、白色LED)が設置されており、全点灯時にはLED表示部11a,11b全体が半円弧状に点灯する。
The
[ロボットの制御装置]
図3は、ロボット1の制御装置20を示すブロック構成図である。図3に示すように、制御装置20は、画像情報処理部21、音声情報処理部22、状況判断部23、動作シナリオ作成部24、ロボット動作選択部25、LED動作選択部26、発話関係選択部27およびロボット動作制御部28を有している。
[Robot control device]
FIG. 3 is a block diagram showing the control device 20 of the robot 1. As illustrated in FIG. 3, the control device 20 includes an image
画像情報処理部21は、各CCDカメラ7a,7bから入力される各画像情報に基づいて画像処理を行い、その撮像範囲(例えば、ロボット1が前方移動方向を向いた起立状態で、水平方向および垂直方向の視野が150度程度でロボット1の少し前方から数m先程度の範囲)内にある物体(障害物や人間など)の形状認識、およびこの物体(障害物や人間など)までの距離と位置を算出(認識)する。
The image
音声情報処理部22は、各耳部9a,9bのマイクロホン10a,10bからそれぞれ入力される音声情報に基づいて、音源(本実施形態では、人間)からの音声入力の有無(以下、「音声認識」という)、音源(人間)の方向の特定(以下、「音源定位」という)、および音声入力のレベル(以下、「マイクレベル」という)の各状況を得るための演算処理を行う。本実施形態に係るロボット1は、頭部4の両横の各耳部9a,9bにそれぞれマイクロホン10a,10bを設けているので、音声情報処理部22は、各マイクロホン10a,10bから入力される音声情報の時間的ずれによって、音源定位を特定することができる。各マイクロホン10a,10bの良好な可聴範囲は、例えば、真横から前方側の周囲数m程度までの範囲である。
The voice
状況判断部23は、画像情報処理部21で処理された画像情報に基づいて移動方向に人間がいるか障害物があるかなどを判断し、さらに、音声情報処理部22で処理された音声情報に基づいて、音声認識の有無、音源定位の特定、マイクレベルの大きさを判断する。
The
動作シナリオ作成部24は、状況判断部23で得た状況判断に基づいて、例えば、前方近くに人間がいると判断し、かつ音声が入力されていると判断した場合は、ロボット1に対して人間が話しかけていると判断して、予め記憶している複数の動作シナリオの中からその状況に応じた動作シナリオを選択し(詳細は後述する)、選択した動作シナリオに基づいてロボット動作選択部25、LED動作選択部26、発話関係選択部27を制御する。
Based on the situation determination obtained by the
ロボット動作選択部25は、動作シナリオ作成部24で選択した動作シナリオに基づいて、予め記憶している複数のロボット動作のうちから適切なロボット動作(例えばロボット1の頭部4(首部3)を横に傾けたりする動作)を選択する。
The robot
LED動作選択部26は、動作シナリオ作成部24で選択した動作シナリオと音声情報処理部22からの処理情報(音声認識、音源定位、マイクレベル)に基づいて、各耳部9a,9bのLED表示部11a,11b(発光部L1,L2,L3)のLED点灯(点滅)と消灯動作を選択する(詳細は後述する)。
Based on the operation scenario selected by the operation
また、LED動作選択部26は、ロボット1の電源をONして起動した直後に、耳部9a,9bのLED表示部11a,11bとマイクロホン10a,10bに故障が生じていないときには、LED表示部11a,11bの発光部L1,L2,L3を一旦全て点灯させる初期状態チェック機能と、この初期状態チェック後に、マイクロホン10a,10bに入力される音声に対し、音声認識、音源定位、マイクレベルに応じて発光部L1,L2,L3を個別に点灯させる機能を有している(詳細は後述する)。なお、マイクロホン10a,10bのマイクレベルが所定の閾値以下の場合には、発光部L1,L2,L3は全て消灯する。
Further, the LED
発話関係選択部27は、動作シナリオ作成部24で選択した動作シナリオに基づいて、予め記憶している複数の発話関係のうちから適切な発話を選択する。
The utterance
ロボット動作制御部28は、ロボット動作選択部25で選択したロボット動作に基づいて、頭部4(首部3)、腕部5、脚部6を駆動制御する。
The robot motion control unit 28 drives and controls the head 4 (neck 3), the
[耳部の初期状態チェックと音声認識動作]
次に、図4に示すフローチャートを参照して、ロボット1の電源ONによる起動時の耳部9a,9bの初期状態チェックと、耳部9a,9bによる音声認識動作について説明する。
[Early ear status check and voice recognition]
Next, with reference to the flowchart shown in FIG. 4, the initial state check of the
ロボット1の電源(不図示)をONして起動すると、前記LED動作選択部26の初期状態チェック機能により、耳部9a,9bのLED表示部11a,11bとマイクロホン10a,10bが正常であるか否かの判定を行う(ステップS1,S2)。ステップS2の判定で正常であると判定した場合(ステップS2、YES)には、消灯状態にあるLED表示部11a,11bの発光部L1,L2,L3を一旦全て点灯させる(ステップS3)。これにより、人間に対して耳部9a,9bのLED表示部11a,11bとマイクロホン10a,10bが正常に機能していることを可視的に知らせることができる。
When the robot 1 is turned on and started up, whether the
また、ステップS2で、仮に耳部9a,9bのLED表示部11a,11bまたはマイクロホン10a,10bに故障が生じていると判定した場合には、消灯状態にあるLED表示部11a,11bの発光部L1,L2,L3は消灯のままである。よって、人間に対して耳部9a,9bのLED表示部11a,11bまたはマイクロホン10a,10bの機能に故障が生じていることを可視的に知らせることができる。
If it is determined in step S2 that the
そして、耳部9a,9bのLED表示部11a,11bとマイクロホン10a,10bが正常に機能している場合には、ステップS3の状態から耳部9a,9bのマイクロホン10a,10bは、直ぐに音声入力可能状態となる(ステップS4)。そして、ステップS4で、マイクロホン10a,10bに音声入力がない場合(ステップS4、NO)、すなわち、各CCDカメラ7a,7bの撮像範囲に人間がいなくて、ロボット1に対して話しかけていないときには、マイクロホン10a,10bのマイクレベルが所定の閾値以下と判断し、LED表示部11a,11bの発光部L1,L2,L3を全て消灯状態にする(ステップS5)。
Then, when the
そして、ステップS4で、音声入力がある場合(ステップS4、YES)、すなわち、例えば図5に示すように、各CCDカメラ7a,7bの撮像範囲(斜線部分)Aに人間Mがいて、ロボット1に対して話しかけているときには音声認識動作に入る(ステップS6)。
If there is a voice input in step S4 (step S4, YES), that is, for example, as shown in FIG. 5, there is a person M in the imaging range (shaded area) A of each
このとき、ロボット1の制御装置20の状況判断部23は、図5に示す状況において、各CCDカメラ7a,7bの画像情報を処理する画像情報処理部21からの処理情報に基づいて、ロボット1の左斜め前方に人間Mがいることを検知し、さらに、マイクロホン10a,10bの音声情報を処理する音声情報処理部22に基づいて、音声認識の有無、音源定位、マイクレベルの大きさを検知する。そして、動作シナリオ作成部24は、状況判断部23による状況判断に基づいて、このときの動作シナリオ(例えば、図5に示すような、人間Mが前方左斜め方向から話しかけている状況)を作成する。
At this time, the
そして、ステップS6で、音源(図では人間M)から発せられる音声に対して音声認識ができた場合(ステップS6、YES)、その音声認識状況に応じて、動作シナリオ作成部24はLED動作選択部26に対して、例えば、以下のようにLED表示部11a,11bの発光部L1,L2,L3を点灯させる(ステップS47)。
Then, in step S6, when voice recognition can be performed on the voice emitted from the sound source (human M in the figure) (step S6, YES), the operation
すなわち、ステップS7において、例えば、図5に示すように、人間Mがロボット1の左斜め前方から話しかけている場合、動作シナリオ作成部24は、音源定位としての人間Mが左斜め前方にいると認識していることを、この人間Mに対して可視的に知らせるために、左側の耳部9aのLED表示部11aの各発光部L1,L2,L3をマイクレベルの大きさに応じて個別に点灯させる。
That is, in step S7, for example, as shown in FIG. 5, when the human M is talking from the left diagonal front of the robot 1, the motion
例えば、人間Mから左側のマイクロホン10aに入力される音声のレベル(マイクレベル)が小さいと判断した場合には発光部L1のみを点灯させ、人間Mから左側のマイクロホン10aに入力される音声のレベル(マイクレベル)が普通(ちょうどよい)である判断した場合には発光部L1,L2の2つを点灯させ、人間Mから左側のマイクロホン10aに入力される音声のレベル(マイクレベル)が大きいと判断した場合には発光部L1,L2,L3の3つを全て点灯させる。
For example, when it is determined that the level (microphone level) of sound input from the person M to the
ステップS7で、マイクレベルが小さく発光部L1だけを点灯させたときにおいて、動作シナリオ作成部24はロボット動作選択部25に対して、例えば、頭部4(首部3)を斜め横に傾けるような動作を選択させ、ロボット動作制御部28の制御により頭部4(首部3)が斜め横を向くように駆動する。また、このとき同時に、動作シナリオ作成部24は発話関係選択部27から記憶されている複数の発話関係のうちから、例えば、「もっと大きな声でもう一度はなしてください」を選択して、スピーカ8から発話(音声出力)する。
When the microphone level is small and only the light emitting unit L1 is turned on in step S7, the motion
また、ステップS7で、マイクレベルが大きく発光部L1,L2,L3の全てを点灯させたときにおいて、動作シナリオ作成部24はロボット動作選択部25に対して、例えば、脚部6を一歩後ずさりするような動作を選択させ、ロボット動作制御部28の制御により脚部6を一歩後ずさりするように駆動する。また、このとき同時に、動作シナリオ作成部24は発話関係選択部27から記憶されている複数の発話関係のうちから、例えば、「もう少し小さな声で話してね」を選択して、スピーカ8から発話(音声出力)する。
In addition, when the microphone level is large and all of the light emitting units L1, L2, and L3 are turned on in step S7, the operation
また、ステップS7で、マイクレベルがちょうどよく発光部L1,L2の2つを点灯させたときにおいては、動作シナリオ作成部24はロボット動作選択部25に対して、今の姿勢を保持するようにし、また、このときには、発話関係選択部27から発音を選択することなく、スピーカ8から発話しないようにする。
Also, when the microphone level is exactly good and the two light emitting units L1 and L2 are turned on in step S7, the motion
また、ステップS6で、音声認識ができなく、各発光部L1,L2,L3を点滅させたとき(ステップS6、NO)において、動作シナリオ作成部24はロボット動作選択部25に対して、例えば、頭部4(首部3)を斜め横に傾けるような動作を選択させ、ロボット動作制御部28の制御により頭部4(首部3)が斜め横を向くように駆動する。また、このとき同時に、動作シナリオ作成部24は発話関係選択部27から記憶されている複数の発音関係のうちから、例えば、「もう一度言って下さい」を選択して、スピーカ8から発話(音声出力)する。
In addition, when the voice recognition is not possible in step S6 and each of the light emitting units L1, L2, and L3 is blinked (NO in step S6), the motion
また、音源定位が、前記した図5の状況のように、ロボット1の真正面方向に対して左側に約45度もしくは45度よりも大きい角度方向にいる人間Mのときには、左側の耳部9aのLED表示部11aの各発光部L1,L2,L3をマイクレベルの大きさに応じて個別に点灯させるが、音源である人間Mがロボット1の真正面方向に対して左右に約45度程度の範囲内にいる人間Mのときには、左右側の耳部9a,9bのLED表示部11a,11bの各発光部L1,L2,L3をマイクレベルの大きさに応じて個別に点灯させ、また、人間Mがロボット1の真正面方向に対して右側に約45度もしくは45度よりも大きい角度方向にいるときには、右側の耳部9bのLED表示部11bの各発光部L1,L2,L3をマイクレベルの大きさに応じて個別に点灯させる。また、音源定位である人間Mの位置に合わせて、頭部4(首部3)を、ロボット動作制御部28の制御により人間Mがいる方向に向けるように駆動してもよい。
Further, when the sound source localization is a person M who is at an angle of about 45 degrees or greater than 45 degrees on the left side with respect to the direction in front of the robot 1 as in the situation of FIG. 5, the
このように、本実施形態に係るロボット1は、耳部9a,9bのLED表示部11a,11bとマイクロホン10a,10bの初期状態をチェックするチェック機能を有しており、ロボット1の電源をONして起動したときに、消灯状態にあるLED表示部11a,11bの発光部L1,L2,L3が一旦全て点灯することにより、人間に対して耳部9a,9bのLED表示部11a,11bとマイクロホン10a,10bが正常に機能していることを可視的に容易に知らせることができる。
Thus, the robot 1 according to the present embodiment has a check function for checking the initial states of the
また、ロボット1が音源である人間Mが発した音声のマイクレベル、音声認識状態および音源定位を、各耳部9a,9bのLED表示部11a,11bの発光部L1,L2,L3の点灯(点滅)および消灯状態によって、人間に対して可視的に知らせることができる。また、このときに、例えば、頭部4(首部3)も合わせて動作させることにより、ロボット1が音声入力(音声認識)しているときにおける、人間とのコミュニケーション状況をより親しみのあるものにすることができる。
Further, the microphone level of the voice generated by the human M who is the sound source of the robot 1, the voice recognition state, and the sound source localization are turned on by the light emitting portions L1, L2, L3 of the
また、前記した実施形態では、耳部9a,9bのLED表示部11a,11bは3つに分割された発光部L1,L2,L3によって形成されていたが、これに限定されることなく、例えば、2つまたは4つ以上に分割された発光部で形成してもよい。
In the above-described embodiment, the
1 ロボット(自律移動ロボット)
2 胴体部
3 首部
4 頭部
5 腕部
6 脚部
7a,7b CCDカメラ
8 スピーカ
9a,9b 耳部(音声入力手段)
10a,10b マイクロホン(音声入力部)
11a,11b LED表示部(表示手段)
20 制御装置(制御手段)
21 画像情報処理部
22 音声情報処理部
23 状況判断部
24 動作シナリオ作成部
25 ロボット動作選択部
26 LED動作選択部
27 発話関係選択部
28 ロボット動作制御部
L1,L2,L3 発光部
1 Robot (autonomous mobile robot)
2
10a, 10b Microphone (voice input unit)
11a, 11b LED display section (display means)
20 Control device (control means)
DESCRIPTION OF
Claims (5)
前記各音声入力手段は、外部から音声を入力する音声入力部と、前記音声入力部の外側に半円弧状に配置され、複数の発光部が一体的に連結されて構成された表示手段と、を備え、
さらに、制御手段を有し、
前記制御手段は、前記頭部に設けられたCCDカメラから入力される画像情報に基づいて、画像処理を行い、その撮影範囲内にある物体の形状認識および距離と位置を算出する画像情報処理部と、
前記音声入力部から入力される音声情報に基づいて、音源からの音声入力の有無、音源定位の特定、音声入力レベルの各状況を得るための演算を行う音声情報処理部と、
前記画像情報処理部で処理された画像情報に基づいて、人間がいるかを判断すると共に、前記音声情報処理部で処理された音声情報に基づいて、音声入力の有無、音源定位の特定、音声入力レベルの大きさを判断する状況判断部と、
この状況判断部で得られた判断状況に基づいて、予め記憶している動作シナリオの中から前記判断状況に応じた動作シナリオを選択する動作シナリオ作成部と、
前記動作シナリオ作成部で選択された動作シナリオに基づいて、予め記憶している複数のロボット動作のうちから適切なロボット動作を選択するロボット動作選択部と、
前記動作シナリオ作成部で選択された動作シナリオに基づいて、前記発光部の点灯、点滅、消灯の動作を選択すると共に、前記自律移動ロボットを電源ONして起動したときに前記各音声入力手段が正常であるか否かの初期状態チェックの判定を、前記各発光部の点灯状態で行うLED動作選択部と、
前記ロボット動作選択部で選択したロボット動作に基づいて、頭部、腕部、脚部を駆動制御するロボット動作制御部と、を備え、
前記状況判断部により音源定位となる人間が当該自律移動ロボットの左45度よりも大きな角度方向にいると判断したときには、左側の前記発光部を前記音声入力レベルに基づいて前記LED動作選択部により個別に点灯させ、
前記状況判断部により音源定位となる人間が当該自律移動ロボットの左右に45度の範囲内にいると判断したときには、左右側の前記発光部を前記音声入力レベルに基づいて、LED動作選択部により個別に点灯させ、
前記状況判断部により音源定位となる人間が当該自律移動ロボットの右45度よりも大きな角度方向にいると判断したときには、右側の前記発光部を前記音声入力レベルに基づいて前記LED動作選択部により個別に点灯させることを特徴とする自律移動ロボット。 An autonomous mobile robot equipped with voice input means functioning as an apparent ear on both sides of a freely-movable head connected to the body part, and autonomously movable by driving a leg part connected to the lower part of the body part. There,
Each of the voice input means includes a voice input unit for inputting voice from the outside, a display unit arranged in a semicircular shape outside the voice input unit, and a plurality of light emitting units integrally connected; With
In addition, having a control means,
The control means performs image processing based on image information input from a CCD camera provided in the head, and recognizes the shape of an object within the photographing range and calculates a distance and position When,
A voice information processing unit that performs operations for obtaining each status of voice input level based on voice information input from the voice input unit, whether or not voice input from a sound source is specified, sound source localization;
Based on the image information processed by the image information processing unit, it is determined whether there is a person, and based on the audio information processed by the audio information processing unit, presence / absence of sound input, sound source localization specification, sound input A situation determination unit that determines the size of the level;
Based on the judgment situation obtained by this situation judgment section, an operation scenario creation section that selects an operation scenario according to the judgment situation from the operation scenarios stored in advance,
A robot operation selection unit that selects an appropriate robot operation from a plurality of robot operations stored in advance based on the operation scenario selected by the operation scenario creation unit;
Based on the operation scenario selected by the operation scenario creation unit, the operation of turning on, blinking, and turning off the light emitting unit is selected, and each voice input means is activated when the autonomous mobile robot is turned on and activated. An LED operation selection unit that performs an initial state check determination as to whether or not normal is performed in a lighting state of each light emitting unit, and
A robot operation control unit that drives and controls the head, arms, and legs based on the robot operation selected by the robot operation selection unit;
When it is determined by the situation determination unit that the person who is sound source localization is in an angle direction larger than 45 degrees to the left of the autonomous mobile robot, the LED operation selection unit moves the light emitting unit on the left side based on the voice input level. Light up individually,
When the situation determination unit determines that the person who is in the sound source localization is within a range of 45 degrees to the left and right of the autonomous mobile robot, the left and right light emitting units are moved by the LED operation selection unit based on the audio input level. Light up individually,
When it is determined by the situation determination unit that the person who is sound source localization is in an angle direction larger than 45 degrees to the right of the autonomous mobile robot, the LED operation selection unit moves the right light emitting unit based on the voice input level. Autonomous mobile robot characterized by lighting individually .
前記シナリオ作成部は、入力された音声入力レベルに基づいて、前記発話関係選択手段から発話を選択して前記頭部に設けたスピーカから、前記発話関係選択手段から選択した発話を音声出力することを特徴とする請求項1に記載の自律移動ロボット。 The scenario creation unit selects an utterance from the utterance relation selection unit based on the input voice input level, and outputs the utterance selected from the utterance relation selection unit from a speaker provided on the head. The autonomous mobile robot according to claim 1.
ことを特徴とする請求項1に記載の自律移動ロボット。 The control means is configured so that the LED operation selecting unit individually sets the light emitting units corresponding to the volume of voice inputted to the voice input unit, presence / absence of voice recognition, and voice direction after the determination of the initial state check. ON / OFF control to
The autonomous mobile robot according to claim 1.
ことを特徴とする請求項1ないし請求項3のいずれか一項に記載の自律移動ロボット。 The control means inputs to the voice input unit when ON / OFF control is individually performed for each light emitting unit corresponding to the volume of voice input to the voice input unit, presence / absence of voice recognition, and voice direction. The robot operation control unit drives and controls at least the head in correspondence with the volume of voice to be played , presence or absence of voice recognition, and voice direction.
The autonomous mobile robot according to any one of claims 1 to 3, wherein:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004361530A JP4373903B2 (en) | 2004-12-14 | 2004-12-14 | Autonomous mobile robot |
US11/294,366 US7894941B2 (en) | 2004-12-14 | 2005-12-06 | Sound detection and associated indicators for an autonomous moving robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004361530A JP4373903B2 (en) | 2004-12-14 | 2004-12-14 | Autonomous mobile robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006167838A JP2006167838A (en) | 2006-06-29 |
JP4373903B2 true JP4373903B2 (en) | 2009-11-25 |
Family
ID=36585117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004361530A Expired - Fee Related JP4373903B2 (en) | 2004-12-14 | 2004-12-14 | Autonomous mobile robot |
Country Status (2)
Country | Link |
---|---|
US (1) | US7894941B2 (en) |
JP (1) | JP4373903B2 (en) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007132571A1 (en) * | 2006-05-16 | 2007-11-22 | Murata Kikai Kabushiki Kaisha | Robot |
EP1870215A1 (en) * | 2006-06-22 | 2007-12-26 | Honda Research Institute Europe GmbH | Robot head with artificial ears |
EP1870212A1 (en) * | 2006-06-22 | 2007-12-26 | Honda Research Institute Europe GmbH | Robot having a head with artificial ears |
US20080055836A1 (en) * | 2006-08-25 | 2008-03-06 | The Boeing Company | System and method for compartment control |
US8180486B2 (en) | 2006-10-02 | 2012-05-15 | Honda Motor Co., Ltd. | Mobile robot and controller for same |
JP4658891B2 (en) * | 2006-10-02 | 2011-03-23 | 本田技研工業株式会社 | Robot control device |
US20080119959A1 (en) * | 2006-11-21 | 2008-05-22 | Park Cheonshu | Expression of emotions in robot |
KR20080061901A (en) * | 2006-12-28 | 2008-07-03 | 주식회사 유진로봇 | System and method of effcient speech recognition by input/output device of robot |
JP5326934B2 (en) * | 2009-01-23 | 2013-10-30 | 株式会社Jvcケンウッド | Electronics |
JP5577605B2 (en) * | 2009-02-27 | 2014-08-27 | トヨタ自動車株式会社 | In-vehicle robot |
WO2010149167A1 (en) * | 2009-06-26 | 2010-12-29 | Lizard Technology Aps | Sound localizing robot |
ES2358139B1 (en) * | 2009-10-21 | 2012-02-09 | Thecorpora, S.L. | SOCIAL ROBOT. |
TW201434600A (en) * | 2013-03-01 | 2014-09-16 | Compal Electronics Inc | Robot for generating body motion corresponding to sound signal |
US9310800B1 (en) * | 2013-07-30 | 2016-04-12 | The Boeing Company | Robotic platform evaluation system |
KR102392113B1 (en) * | 2016-01-20 | 2022-04-29 | 삼성전자주식회사 | Electronic device and method for processing voice command thereof |
US10379534B2 (en) * | 2016-01-28 | 2019-08-13 | Qualcomm Incorporated | Drone flight control |
JP2019123055A (en) * | 2018-01-18 | 2019-07-25 | 株式会社ユピテル | apparatus |
CN112771463A (en) * | 2019-02-19 | 2021-05-07 | 松下知识产权经营株式会社 | Unmanned aerial vehicle, information processing method, and program |
EP3957561B1 (en) * | 2019-04-18 | 2023-07-19 | Panasonic Intellectual Property Management Co., Ltd. | Unmanned flight body, control method, and program |
KR102306437B1 (en) * | 2019-07-05 | 2021-09-28 | 엘지전자 주식회사 | Moving Robot and controlling method |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3911618A (en) * | 1974-12-19 | 1975-10-14 | Joel Lee Gerst | Finger puppet |
JP4524524B2 (en) | 2000-10-11 | 2010-08-18 | ソニー株式会社 | Robot apparatus and control method thereof |
JP2002116792A (en) | 2000-10-11 | 2002-04-19 | Sony Corp | Robot controller and method for robot control and recording medium |
CN1398214A (en) * | 2000-10-23 | 2003-02-19 | 索尼公司 | Legged robot, legged robot behavior control method, and storage medium |
JP4689107B2 (en) * | 2001-08-22 | 2011-05-25 | 本田技研工業株式会社 | Autonomous robot |
JP3824920B2 (en) | 2001-12-07 | 2006-09-20 | ヤマハ発動機株式会社 | Microphone unit and sound source direction identification system |
JP3714268B2 (en) | 2002-03-18 | 2005-11-09 | ソニー株式会社 | Robot device |
JP4281286B2 (en) | 2002-03-18 | 2009-06-17 | ソニー株式会社 | Robot apparatus and control method thereof |
JP2003285285A (en) | 2002-03-27 | 2003-10-07 | Nec Corp | Robot unit having software agent, control method thereof and program |
JP2004237392A (en) * | 2003-02-05 | 2004-08-26 | Sony Corp | Robotic device and expression method of robotic device |
US7348746B2 (en) * | 2003-02-14 | 2008-03-25 | Honda Giken Kogyo Kabushiki Kaisha | Abnormality detection system of mobile robot |
JP2003326479A (en) | 2003-05-26 | 2003-11-18 | Nec Corp | Autonomous operation robot |
-
2004
- 2004-12-14 JP JP2004361530A patent/JP4373903B2/en not_active Expired - Fee Related
-
2005
- 2005-12-06 US US11/294,366 patent/US7894941B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20060129275A1 (en) | 2006-06-15 |
US7894941B2 (en) | 2011-02-22 |
JP2006167838A (en) | 2006-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4373903B2 (en) | Autonomous mobile robot | |
JP5526942B2 (en) | Robot apparatus, control method and program for robot apparatus | |
JP6203696B2 (en) | robot | |
JP5987842B2 (en) | Communication pull-in system, communication pull-in method and communication pull-in program | |
JP4822319B2 (en) | Communication robot and attention control system using the same | |
JP4131392B2 (en) | Robot apparatus, robot control method, recording medium, and program | |
JP4315872B2 (en) | Mobile robot controller | |
CN208543477U (en) | A kind of guest-meeting robot | |
US11474499B2 (en) | Communication robot and control program of communication robot | |
JP5755011B2 (en) | Robot group control apparatus and method | |
JP2008087140A (en) | Speech recognition robot and control method of speech recognition robot | |
JP2007216363A (en) | Communication robot | |
EP3450118A1 (en) | Robot | |
JP2006272471A (en) | Communication robot | |
WO2021006547A3 (en) | Moving robot and method of controlling the same | |
JP4617428B2 (en) | Motion generation system | |
JP2007156689A (en) | Light source position detection device and face recognition device using the same and self-propelled robot | |
JP2022078741A (en) | robot | |
JP2018183856A (en) | Voice-interactive robot and voice-interactive system | |
CN110971815B (en) | Image processing apparatus, robot, image processing method, and storage medium | |
JP6686583B2 (en) | Robots and programs | |
KR102613040B1 (en) | Video communication method and robot for implementing thereof | |
JP2003271196A (en) | Robot system and method for controlling the same | |
JP2008040075A (en) | Robot apparatus and control method of robot apparatus | |
KR101402908B1 (en) | Situation dependent behavior based robot control appartus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090901 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090904 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120911 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4373903 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120911 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130911 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140911 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |