JP2003326479A - Autonomous operation robot - Google Patents

Autonomous operation robot

Info

Publication number
JP2003326479A
JP2003326479A JP2003147615A JP2003147615A JP2003326479A JP 2003326479 A JP2003326479 A JP 2003326479A JP 2003147615 A JP2003147615 A JP 2003147615A JP 2003147615 A JP2003147615 A JP 2003147615A JP 2003326479 A JP2003326479 A JP 2003326479A
Authority
JP
Japan
Prior art keywords
person
detected
processing unit
robot
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003147615A
Other languages
Japanese (ja)
Inventor
Shinichi Onaka
慎一 大中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2003147615A priority Critical patent/JP2003326479A/en
Publication of JP2003326479A publication Critical patent/JP2003326479A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an operation control device for an autonomous operation robot providing an affinity to personnel by responding to the personnel with such a behavior as a pet. <P>SOLUTION: This autonomous operation robot comprises an image input device 1 by a stereo camera, a person detection device 2 detecting a person by image processing and tracking the face area of the person, a distance calculation device 3 for calculating a distance by using the image of the stereo camera, a person identification device 4 for identifying the person by using information in a person information storage part 5, a voice input device 6 formed of a microphone, a voice source direction detecting device 7, and a voice recognition device 8 fitted to a body, ultrasonic wave sensors 9 installed at the front and rear and the right and left sides of the robot to send out obstacle information to an obstacle detection device 10, touch sensors 11 for sending out signals capable of identifying a stroke and a strike to an operation control device when the robot is stroked and struck, a leg part motor 13 formed of two wheels, a head part motor 14 for rotating the head part, and a voice output device 15 fitted to the mouth of the robot. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、家庭などにおい
て、ペットとしての役割をはたす自律行動ロボットに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autonomous action robot that plays the role of a pet at home.

【0002】[0002]

【従来の技術】家庭において、ペットと同等の位置づけ
を持って人間と接する自律行動ロボットの開発が一般化
している。例えば、犬のような形状を持ち、人間の声に
反応してあらかじめプログラムされた動作を行ったり、
色のついた物体に反応して近づいてきたりするロボット
が開発されている。
2. Description of the Related Art At home, the development of an autonomous behavior robot that contacts humans in the same position as pets has become common. For example, it has a dog-like shape and performs a pre-programmed action in response to a human voice,
Robots have been developed that respond to colored objects and approach them.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述の
ようなロボットでは人物を検出・識別できないので、人
とコミュニケーションをしたり、特定の人になつくな
ど、ペットとしての重要な機能が欠落しており、人間が
ペットと同じような親近感を持てない原因となってい
る。人間が親近感を持てるようにするには、ロボットが
そこにいる人物を検出し、また、その人物が誰であるか
を識別し、また、その人物を好きであるとか嫌いである
とかの情報を持つ必要があり、さらには、これらの認識
結果や情報に基づいてロボットをペットらしく振る舞わ
せることが必須となるという課題があった。このとき、
外界の様々な情報を得ると同時に適切に処理を行い、ペ
ットらしく振る舞うことが重要な課題である。
However, since the above-mentioned robot cannot detect and identify a person, important functions as a pet, such as communicating with a person and getting on a particular person, are missing. That is why humans do not have the same familiarity as pets. In order for humans to have a sense of familiarity, the robot detects a person there, identifies who the person is, and information about whether the person likes or dislikes it. There is a problem that it is necessary to make the robot behave like a pet based on these recognition results and information. At this time,
It is an important task to obtain various information on the outside world, to process it appropriately, and to behave like a pet.

【0004】本発明は、このような点を鑑みてなされた
もので、様々な外界の情報を得ると同時に適切な処理を
行うことによって、人間に対してできるだけペットのよ
うな振る舞いで応答し、人間が親近感を感じることがで
きるような自律行動ロボットのための行動制御装置を提
供することを目的とする。
The present invention has been made in view of the above points, and responds to human beings as much as a pet by performing appropriate processing while obtaining various external information, An object of the present invention is to provide an action control device for an autonomous action robot that allows humans to feel a sense of familiarity.

【0005】[0005]

【課題を解決するための手段】請求項1に記載の発明
は、画像入力装置と、該画像入力装置により入力された
画像から人物を検出する人物検出手段と、該人物検出手
段により検出された人物までの距離を算出する距離算出
手段と、前記人物検出手段により検出された人物を識別
する人物識別手段と、人物の情報を記憶する人物情報記
憶手段と、音声入力装置と、該音声入力装置により入力
された音声の方向を検出する音源方向検出手段と、前記
音声入力装置により入力された音声を認識する音声認識
手段と、超音波センサにより周囲の障害物を検出する障
害物検出手段と、撫でられたか叩かれたかを検出する接
触検出手段と、前記人物検出手段により検出された人物
検出情報と前記人物識別手段により識別された人物識別
情報と前記音源方向検出手段により検出された音源方向
と前記音声認識手段により認識された音声情報と前記障
害物検出手段により検出された障害物情報と前記接触検
出手段により検出された接触情報とを用いてロボットの
行動を制御する行動制御手段と、該行動制御手段の制御
により可動する脚部と頭部と、前記行動制御手段の制御
により応答を出力する応答出力手段とを備える自律行動
ロボットにおいて、前記行動制御手段が、前記人物検出
手段及び前記人物識別手段及び前記音源方向検出手段及
び前記音声認識手段及び前記障害物検出手段及び前記接
触検出手段の出力を順々に記憶する入力情報記憶部と、
該入力情報記憶部に記憶されている入力情報を参照し、
前記障害物検出手段により検出された障害物情報を用い
て周囲の障害物に衝突しないようにロボットを移動さ
せ、前記人物検出手段により人物が検出された場合なら
びに前記音源方向検出手段により音源方向が検出された
場合ならびに前記接触検出手段により接触が検出された
場合に終了する移動制御処理部と、前記入力情報記憶部
に記憶されている入力情報を参照し、その場でロボット
を停止させ、前記音源方向検出手段により音源方向が検
出されたらロボットを該方向に向け、前記人物検出手段
により人物が検出された場合とあらかじめ決められた時
間人物が検出されない場合に終了する人物探索処理部
と、前記入力情報記憶部に記憶されている入力情報を参
照し、ロボットに前記人物検出手段により検出している
人物の方向を向かせ、前記距離算出手段により算出され
た人物までの距離があらかじめ決められた値よりも大き
くかつ前記障害物検出手段により人物までの間に障害物
が検出されないときに人物へ接近し、前記距離があらか
じめ決められた値よりも小さいときに接近を止め、前記
音声認識手段により音声を認識した場合に認識した音声
に応じた反応を前記応答出力手段により出力し、前記接
触検出手段により接触が検出されたときに撫でられたか
叩かれたかによって異なる応答を前記応答出力手段によ
り出力し、前記人物識別手段により検出している人物を
識別した場合に前記人物情報記憶手段に記憶されている
前記人物の情報を参照して該人物に応じた応答をし、前
記人物を見失った場合ならびにあらかじめ決められた音
声を認識した場合に終了することを特徴とする対話処理
部と、ロボットが起動されたときに前記移動制御処理部
を起動し、該移動制御処理部が前記人物検出手段により
人物が検出されたために終了した場合に前記対話処理部
を起動し、前記移動制御処理部が前記音源方向検出手段
により終了した場合と前記接触検出手段により終了した
場合に人物探索処理部を起動し、該人物探索処理部が前
記人物検出手段により人物が検出されたために終了した
場合に対話処理部を起動し、前記人物探索処理部があら
かじめ決められた時間人物が検出されないために終了し
た場合に移動制御処理部を起動し、前記対話処理部が人
物を見失ったために終了した場合に人物探索処理部を起
動し、前記対話処理部があらかじめ決められた音声を認
識したために終了した場合に移動制御手段を起動する、
ことを特徴とする制御切替部とからなることを特徴とす
る自律行動ロボットを提供する。
According to a first aspect of the present invention, there is provided an image input device, a person detecting means for detecting a person from an image inputted by the image input device, and a person detecting means for detecting the person. Distance calculating means for calculating the distance to a person, person identifying means for identifying the person detected by the person detecting means, person information storing means for storing information of the person, voice input device, and voice input device A sound source direction detecting means for detecting the direction of the voice input by the voice recognition means, a voice recognition means for recognizing the voice input by the voice input device, and an obstacle detection means for detecting an obstacle around the ultrasonic sensor, Contact detection means for detecting whether it is stroked or hit, person detection information detected by the person detection means, person identification information identified by the person identification means, and the sound source direction Behavior of robot using sound source direction detected by output means, voice information recognized by voice recognition means, obstacle information detected by obstacle detection means, and contact information detected by contact detection means In the autonomous behavior robot, the behavior control means comprises: a behavior control means for controlling the movement of the body; a leg and a head movable under the control of the behavior control means; and a response output means for outputting a response under the control of the behavior control means. Is an input information storage unit that sequentially stores the outputs of the person detection unit, the person identification unit, the sound source direction detection unit, the voice recognition unit, the obstacle detection unit, and the contact detection unit,
Referring to the input information stored in the input information storage unit,
Using the obstacle information detected by the obstacle detecting means, the robot is moved so as not to collide with surrounding obstacles, and when the person is detected by the person detecting means and when the sound source direction is detected by the sound source direction detecting means. A movement control processing unit that ends when a contact is detected by the contact detection unit and the input information stored in the input information storage unit is referred to, and the robot is stopped on the spot. When the sound source direction is detected by the sound source direction detecting means, the robot is directed to the direction, and a person search processing unit which ends when a person is detected by the person detecting means and when a person is not detected for a predetermined time, Referring to the input information stored in the input information storage unit, the robot is directed to the direction of the person detected by the person detecting means, When the distance to the person calculated by the distance calculating means is larger than a predetermined value and an obstacle is not detected between the persons by the obstacle detecting means, the person approaches the person and the distance is predetermined. When the contact is detected by the contact detecting means, the response output means outputs a reaction corresponding to the recognized voice when the voice is recognized by the voice recognizing means when the contact is detected when the contact is detected by the contact detecting means. The response output means outputs different responses depending on whether the person is stroked or hit, and when the person detected by the person identifying means is identified, the information of the person stored in the person information storing means is referred to. Then, it responds according to the person, and ends when the person loses sight of the person or when a predetermined voice is recognized. To activate the movement control processing unit when the robot is activated, and activates the interaction processing unit when the movement control processing unit ends because the person is detected by the person detecting means. The person search processing unit is started when the movement control processing unit is ended by the sound source direction detection unit and when the movement detection processing unit is ended by the contact detection unit, and the person search processing unit detects the person by the person detection unit. When it ends, the dialogue processing unit is started, and when the person search processing unit ends because the person is not detected for a predetermined time, the movement control processing unit is started, and the dialogue processing unit loses sight of the person. When it ends, the person search processing unit is activated, and when the interaction processing unit recognizes a predetermined voice, the movement control means is activated.
Provided is an autonomous action robot characterized by comprising a control switching unit characterized by the above.

【0006】請求項2に記載の発明は、前記人物情報記
憶手段が、前記構成に加えて人物に対する好感度を記憶
することを特徴とし、前記行動制御手段における対話処
理部が、前記構成に加えて好感度と距離の対応表を持
ち、前記人物識別手段によって人物を識別したときに前
記人物情報記憶手段を参照して記憶されている該人物の
好感度を得、前記対応表から該好感度に対応する距離値
L1を得、前記距離算出手段により算出される該人物ま
での距離値L2を得、L1>L2であるときにロボット
を人物から遠ざけ、L1<L2であるときにロボットを
人物に近づけ、前記音声認識手段により単語を認識した
ときに認識した単語と人物に対する好感度を参照して応
答することを特徴とする、請求項1記載の自律行動ロボ
ットを提供する。
According to a second aspect of the present invention, the personal information storage means stores the liking for a person in addition to the configuration, and the dialogue processing section in the action control means adds to the configuration. Has a correspondence table between the positivity and the distance, and when the person is identified by the person identifying means, the positivity of the person stored by referring to the person information storage means is obtained, and the positivity is calculated from the correspondence table. Is obtained, the distance value L2 to the person calculated by the distance calculation means is obtained, the robot is moved away from the person when L1> L2, and the robot is moved to the person when L1 <L2. 2. The autonomous action robot according to claim 1, characterized in that when the word is recognized by the voice recognizing means, the robot recognizes and responds to the word and the person's preference for the person.

【0007】また、請求項3に記載の発明は、前記行動
制御手段が、前記構成に加えて入力情報解析処理部を有
し、前記入力情報解析処理部が、前記入力情報記憶部に
記憶されている入力情報を参照して、前記音源方向検出
手段による出力が複数存在するときに最も新しいものだ
けを残して他の前記音源方向検出手段による出力を前記
入力情報記憶部から削除し、前記障害物検出手段による
出力が複数存在するときに最も新しい出力だけを残して
他の前記障害物検出手段による出力を前記入力情報記憶
部から削除し、前記接触検出手段による出力が複数存在
するときに最も新しい出力だけを残して他の前記接触検
出手段による出力を前記入力情報記憶部から削除するこ
とを特徴とする、請求項1または2記載の自律行動ロボ
ットを提供する。
Further, in the invention according to claim 3, the action control means has an input information analysis processing section in addition to the configuration, and the input information analysis processing section is stored in the input information storage section. When there are a plurality of outputs from the sound source direction detecting means, only the most recent one is left, and the outputs from the other sound source direction detecting means are deleted from the input information storage unit by referring to the input information When there are a plurality of outputs from the object detection means, only the latest output is left and the outputs from the other obstacle detection means are deleted from the input information storage section. The autonomous action robot according to claim 1 or 2, wherein only the new output is left and the output from the other contact detection means is deleted from the input information storage unit.

【0008】本発明に係る自律行動ロボットの行動制御
装置は、移動制御処理、人物探索処理、対話処理とこれ
らを切り替える切替処理とから構成され、人物の検出・
識別、音源方向検出、音声認識、タッチセンサ、超音波
センサによる障害物検出、などの様々な入力を適切に処
理して、ペットらしく自然に応答することを特徴とす
る。
An action control apparatus for an autonomous action robot according to the present invention comprises a movement control process, a person search process, a dialogue process, and a switching process for switching these processes, and detects a person.
It is characterized by responding naturally like a pet by appropriately processing various inputs such as identification, sound source direction detection, voice recognition, touch sensor, and obstacle detection by an ultrasonic sensor.

【0009】[0009]

【発明の実施の形態】以下、本発明の実施形態を図面に
より詳細に説明する。図1に本発明に従う自律行動ロボ
ットの第一の実施形態の概略構成を示す。図1を参照し
て、本装置の構成及び動作の概要を説明する。また、図
5に本発明の実施形態において想定するロボットの外観
を示す。本装置は、画像入力装置1、人物検出装置2、
距離算出装置3、人物識別装置4、人物情報記憶部5、
音声入力装置6、音源方向検出装置7、音声認識装置
8、超音波センサ9、障害物検出装置10、タッチセン
サ11、行動制御装置12、脚部モータ13、頭部モー
タ14、音声出力装置15を有する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 shows a schematic configuration of a first embodiment of an autonomous action robot according to the present invention. An outline of the configuration and operation of this device will be described with reference to FIG. Further, FIG. 5 shows an appearance of a robot assumed in the embodiment of the present invention. The present device includes an image input device 1, a person detection device 2,
A distance calculation device 3, a person identification device 4, a person information storage unit 5,
Voice input device 6, sound source direction detection device 7, voice recognition device 8, ultrasonic sensor 9, obstacle detection device 10, touch sensor 11, action control device 12, leg motor 13, head motor 14, voice output device 15 Have.

【0010】画像入力装置1はステレオカメラとなって
いて、片方のカメラの画像が人物検出装置2へ入力さ
れ、両方のカメラの画像が距離算出装置3へ入力され
る。人物検出装置2では、画像処理によって人物が検出
され、人物の顔領域が抽出され、以後顔領域を追跡す
る。人物を検出したときには検出を示す信号を行動制御
装置12へ出力し、人物を見失ったときには見失ったこ
とを示す信号を行動制御装置12へ出力する。また、人
物検出装置2が保持する人物の顔の画像上の位置情報は
行動制御装置12から参照することが可能となってい
る。人物検出装置2で抽出された顔領域は距離算出装置
3と人物識別装置4へ供給される。
The image input device 1 is a stereo camera, and the images of one camera are input to the person detection device 2 and the images of both cameras are input to the distance calculation device 3. The person detection device 2 detects a person by image processing, extracts the face area of the person, and then tracks the face area. When the person is detected, a signal indicating the detection is output to the behavior control device 12, and when the person is lost, the signal indicating the loss is output to the behavior control device 12. Further, the position information on the image of the face of the person held by the person detecting device 2 can be referred to from the action control device 12. The face area extracted by the person detecting device 2 is supplied to the distance calculating device 3 and the person identifying device 4.

【0011】距離算出装置3では、ステレオマッチング
によって人物までの距離が算出される。この距離値は距
離算出装置3に保持され、行動制御装置12から参照す
ることが可能となっている。人物識別装置4では、人物
情報記憶部5に記憶されている人物の顔画像の情報を参
照して、検出された人物が登録された人物のうちの誰で
あるか、または登録されていない人物であるかが識別さ
れ、結果が出たときに行動制御装置12へその結果が供
給される。
The distance calculation device 3 calculates the distance to a person by stereo matching. This distance value is held in the distance calculation device 3 and can be referred to from the behavior control device 12. In the person identifying device 4, by referring to the face image information of the person stored in the person information storage unit 5, the detected person is one of the registered persons or a person who is not registered. Is identified, and when the result is obtained, the result is supplied to the behavior control device 12.

【0012】音声入力装置6はボディに付けられた三つ
のマイクから構成され、ボディ正面のマイクの入力が音
声認識装置8へ供給される。音声認識装置8では、入力
された音声が、あらかじめ登録された単語のどれかと一
致するときにその単語が行動制御装置12へ供給され
る。また、音声入力装置6の三つのマイクの入力が音源
方向検出装置7へ出力される。音源方向検出装置7で
は、複数のマイクによる音声信号を解析して、その音が
発生した方向を検出し、ロボットに固定された座標系に
おける方向ベクトルを算出して音がしたという情報とと
もに行動制御装置12へ出力する。
The voice input device 6 is composed of three microphones attached to the body, and the input from the microphone on the front of the body is supplied to the voice recognition device 8. In the voice recognition device 8, when the input voice matches any of the words registered in advance, the word is supplied to the action control device 12. Inputs from the three microphones of the voice input device 6 are output to the sound source direction detection device 7. The sound source direction detection device 7 analyzes voice signals from a plurality of microphones, detects a direction in which the sound is generated, calculates a direction vector in a coordinate system fixed to the robot, and performs action control together with information that a sound is generated. Output to the device 12.

【0013】超音波センサ9はロボットの前後左右に設
置され、その出力は障害物検出装置10へ供給される、
障害物検出装置10では、各超音波センサ毎の障害物ま
での距離値を算出して保持し、これらの距離値のうちの
どれか又は複数が、あらかじめ決められた距離以下であ
るとき、障害物が存在すると判断して、障害物が存在す
るという信号とその方向を行動制御装置12へ供給す
る。障害物検出装置10が保持する距離情報は行動制御
装置12から参照することが可能である。タッチセンサ
11は、ロボットの頭部に設置され、このタッチセンサ
が撫でられた場合と叩かれた場合に、それぞれを識別で
きる信号を行動制御装置12へ供給する。
The ultrasonic sensors 9 are installed on the front, rear, left and right of the robot, and the output thereof is supplied to the obstacle detecting device 10.
The obstacle detection device 10 calculates and holds a distance value to an obstacle for each ultrasonic sensor, and when any or a plurality of these distance values are equal to or shorter than a predetermined distance, the obstacle is detected. When it is determined that an object is present, a signal that an obstacle is present and its direction are supplied to the behavior control device 12. The distance information held by the obstacle detection device 10 can be referred to from the behavior control device 12. The touch sensor 11 is installed on the head of the robot and supplies a signal capable of identifying the touch sensor to the behavior control device 12 when the touch sensor is stroked or hit.

【0014】脚部モータ13は、図5にあるようにロボ
ットの下部の左右にある二つの車輪をそれぞれ独立に回
転させることができる。また、頭部モータ14はロボッ
トの頭部を上下左右に回転させることができる。音声出
力装置15は、ロボットの口に付けられたスピーカであ
る。行動制御装置12は、移動制御処理部21、人物探
索処理部22、対話処理部23、制御切替部24、入力
情報記憶部25とからなる。入力情報記憶部25には、
人物検出装置2、人物識別装置4、音源方向検出装置
7、音声認識装置8、障害物検出装置10、タッチセン
サ11から行動制御装置12へ出力される情報が順次記
憶される。
The leg motor 13 can independently rotate two wheels on the left and right under the robot as shown in FIG. Further, the head motor 14 can rotate the head of the robot vertically and horizontally. The voice output device 15 is a speaker attached to the mouth of the robot. The behavior control device 12 includes a movement control processing unit 21, a person search processing unit 22, a dialogue processing unit 23, a control switching unit 24, and an input information storage unit 25. In the input information storage unit 25,
Information output from the person detection device 2, the person identification device 4, the sound source direction detection device 7, the voice recognition device 8, the obstacle detection device 10, and the touch sensor 11 to the action control device 12 is sequentially stored.

【0015】移動制御処理部21、人物探索処理部2
2、対話処理部23は、ループ処理を終了するまで繰り
返し、そのループ処理の中で、記憶部25を参照してそ
こに何らかの出力情報があれば、それに対応した命令を
脚部モータ13、頭部モータ14、音声出力装置15へ
送り、脚部を稼働してロボットを移動させたり、頭部を
稼働したり、音声を出力したりする。この記憶部25に
記憶されている情報を行動制御装置側からは入力情報と
呼ぶことにする。
Movement control processing unit 21, person search processing unit 2
2. The dialogue processing section 23 repeats until the loop processing is completed, and if there is some output information in the loop processing by referring to the storage section 25, the corresponding instruction is given to the leg motor 13, the head. The motor is sent to the local motor 14 and the voice output device 15, and the robot is moved by operating the legs, the head is operated, and the voice is output. The information stored in the storage unit 25 will be referred to as input information from the behavior control device side.

【0016】次に、本実施形態の行動制御装置12の動
作について詳細に説明する。図3に行動制御装置12の
概略図を示す。まずはじめに、移動制御処理部21につ
いて図2を参照して説明する。移動制御処理部21は、
図2に示すようにループ(繰り返し)処理を行う。ルー
プ処理の中には、入力情報参照部211と制御処理部2
12とがあり、入力情報参照部211では入力情報記憶
部25に記憶されている入力情報のうちのもっとも古い
情報を取り出してこれを制御処理部212へ渡す。制御
処理部212では、渡された入力情報に応じた命令を脚
部モータ13および頭部モータ14へ送り、次に、入力
された情報に応じて、ループ処理を抜けるかループ処理
を続けるかの判断を行う。ループ処理を抜けた場合、移
動制御処理部21は終了する。
Next, the operation of the behavior control device 12 of this embodiment will be described in detail. FIG. 3 shows a schematic diagram of the behavior control device 12. First, the movement control processing unit 21 will be described with reference to FIG. The movement control processing unit 21
A loop (repetition) process is performed as shown in FIG. During the loop processing, the input information reference unit 211 and the control processing unit 2
12, the input information reference unit 211 extracts the oldest information from the input information stored in the input information storage unit 25, and passes it to the control processing unit 212. The control processing unit 212 sends an instruction according to the passed input information to the leg motor 13 and the head motor 14, and then either exits the loop processing or continues the loop processing according to the input information. Make a decision. When the loop processing is exited, the movement control processing unit 21 ends.

【0017】以下に制御処理部212の動作を具体的に
説明する。入力情報が障害物検出装置10の出力である
場合、脚部モータ13に停止命令を送る。次に、障害物
の存在する方向と逆の方向を向くように脚部モータ13
に命令を送る。このときにはループ処理を続ける。入力
情報が人物検出装置2の出力であり、その内容が人物検
出であるときには、ループを抜ける。入力情報が音源方
向検出装置7の出力であるときには、脚部モータ13に
命令を送り、音のした方向にロボットを向け、ループ処
理を抜ける。入力情報がタッチセンサ11の出力である
ときには、撫でられたか叩かれたかに関わらず、ループ
処理を抜ける。入力情報が上記以外の場合(入力情報が
空の場合も含む)には脚部モータ13に命令を送りロボ
ットを前進させ、ループ処理を続ける。
The operation of the control processing unit 212 will be specifically described below. When the input information is the output of the obstacle detection device 10, a stop command is sent to the leg motor 13. Next, the leg motor 13 is turned so as to face the direction opposite to the direction in which the obstacle exists.
Send an order to. At this time, the loop processing is continued. When the input information is the output of the person detection device 2 and the content is person detection, the loop is exited. When the input information is the output of the sound source direction detecting device 7, a command is sent to the leg motor 13 to direct the robot in the direction of the sound and exit the loop processing. When the input information is the output of the touch sensor 11, the loop processing is exited regardless of whether it is stroked or hit. If the input information is other than the above (including the case where the input information is empty), a command is sent to the leg motor 13 to move the robot forward, and the loop processing is continued.

【0018】次に、人物探索処理部22の動作について
説明する。人物探索処理部22は移動制御処理部21と
同様に、ループ処理からなる。ループ処理の中には、入
力情報参照部211と制御処理部212とがあり、入力
情報参照部211では入力情報記憶部25に記憶されて
いる入力情報のうちのもっとも古い情報を取り出してこ
れを制御処理部212へ渡す。制御処理部212では、
渡された入力情報に応じた命令を脚部モータ13および
頭部モータ14へ送り、入力された情報に応じて、ルー
プ処理を抜けるかループ処理を続けるかの判断を行う。
ループ処理を抜けた場合、人物探索処理部22は終了す
る。
Next, the operation of the person search processing section 22 will be described. The person search processing unit 22 is composed of a loop process like the movement control processing unit 21. The loop processing includes an input information reference unit 211 and a control processing unit 212, and the input information reference unit 211 extracts the oldest information of the input information stored in the input information storage unit 25 and executes this. It is passed to the control processing unit 212. In the control processing unit 212,
An instruction corresponding to the input information passed is sent to the leg motor 13 and the head motor 14, and it is determined whether to exit the loop processing or continue the loop processing according to the input information.
When the loop processing is exited, the person search processing unit 22 ends.

【0019】以下に制御処理部212の動作を具体的に
説明する。入力情報が人物検出装置2の出力であり、そ
の内容が人物検出である場合、ループを抜ける。入力情
報が音源方向検出装置7の出力であるときには、脚部モ
ータ13に命令を送り、音のした方向にロボットを向け
る。このときにはループ処理を抜けない。入力情報が上
記以外の場合(入力情報が空の場合も含む)、人物探索
処理部22が起動されてからの時間をチェックし、この
時間があらかじめ決められた時間よりも長いときにルー
プ処理を抜ける。
The operation of the control processing unit 212 will be specifically described below. If the input information is the output of the person detection device 2 and the content is person detection, the loop is exited. When the input information is the output of the sound source direction detecting device 7, a command is sent to the leg motor 13 to direct the robot in the direction in which the sound is generated. At this time, the loop processing cannot be exited. If the input information is other than the above (including the case where the input information is empty), the time after the person search processing unit 22 is activated is checked, and if this time is longer than a predetermined time, loop processing is performed. Get out.

【0020】次に、対話処理部23の動作について説明
する。対話処理部23は移動制御処理部21と同様に、
入力情報参照部211と制御処理部212とから構成さ
れるループ処理になっている。入力情報参照部211で
は入力情報記憶部25に記憶されている入力情報のうち
のもっとも古い情報を取り出してこれを制御処理部21
2へ渡す。制御処理部212では、渡された入力情報に
応じた命令を脚部モータ13および頭部モータ14およ
び音声出力装置15へ送り、入力された情報に応じて、
ループ処理を抜けるかループ処理を続けるかの判断を行
う。ループ処理を抜けた場合、対話処理部23は終了す
る。
Next, the operation of the dialogue processing section 23 will be described. The dialogue processing unit 23, like the movement control processing unit 21,
The loop processing is composed of the input information reference unit 211 and the control processing unit 212. The input information reference unit 211 extracts the oldest information from the input information stored in the input information storage unit 25, and extracts it from the control processing unit 21.
Pass to 2. The control processing unit 212 sends a command according to the passed input information to the leg motor 13, the head motor 14, and the voice output device 15, and according to the input information,
It is determined whether to exit the loop processing or continue the loop processing. When the loop processing is exited, the dialogue processing section 23 ends.

【0021】以下に制御処理部212の動作を具体的に
説明する。入力情報が人物検出装置2の出力であり、そ
の内容が「人物を見失った」である場合にはループを抜
ける。入力情報が音声認識装置8の出力であるとき、認
識した単語に応じた音声を音声出力装置15から出力す
る。このとき人物識別結果がすでに得られている場合に
は、識別した人物の好感度を参照して、好感度に応じた
応答をする。例えば、好感度が一定値よりも小さいとき
には何も応答しない、であるとか、頭部モータに命令を
送って横を向く、などが考えられる(この場合には人物
を見失うので対話処理部23は終了することになる)。
このときループは抜けない。また、認識した単語があら
かじめ決められた特定の単語であるときには、ループを
抜ける。これは例えば、人間が「さようなら」と言った
ときに対話を終了するということである。
The operation of the control processing unit 212 will be specifically described below. If the input information is the output of the person detecting device 2 and the content is “I lost sight of a person”, the loop is exited. When the input information is the output of the voice recognition device 8, the voice output device 15 outputs a voice corresponding to the recognized word. At this time, if the person identification result has already been obtained, the user's liking is referred to and a response is made in accordance with the liking. For example, when the liking is smaller than a certain value, nothing is responded to, or a command is sent to the head motor to turn to the side. Will end).
At this time, the loop cannot be removed. Further, when the recognized word is a predetermined specific word, the loop is exited. This means, for example, that the dialogue ends when a human says "goodbye."

【0022】入力情報が人物識別装置4の出力であると
きには識別結果を保持してループ処理を抜けない。入力
情報が障害物検出装置10の出力であるときにはロボッ
トを停止させるが、ループ処理は抜けない。入力情報が
タッチセンサ11の出力であるとき、撫でられた場合に
は、喜びを表現する音声を音声出力装置15から出力
し、人物が識別できているときにはその人物の好感度を
増やす。叩かれた場合には、怒りを表現する音声を音声
出力装置15から出力し、人物が識別できているときに
はその人物の好感度を減少させる。入力情報が上記以外
の場合(入力情報が空の場合も含む)には、人物検出装
置2に保持されている人物の顔の中心の画像上の位置座
標を参照し、この位置が画像の中心から一定値以上離れ
ている場合には、顔の中心位置が画像上の中心に来るよ
うにロボットを動かす。
When the input information is the output of the person identifying device 4, the identification result is held and the loop processing cannot be exited. When the input information is the output of the obstacle detection device 10, the robot is stopped, but the loop processing cannot be completed. When the input information is the output of the touch sensor 11, when it is stroked, a voice expressing joy is output from the voice output device 15, and when the person can be identified, the likability of the person is increased. When the person is hit, a voice expressing anger is output from the voice output device 15, and when the person can be identified, the liking of the person is reduced. When the input information is other than the above (including the case where the input information is empty), the position coordinate on the image of the center of the face of the person held in the person detecting device 2 is referred to, and this position is the center of the image. If the distance is more than a certain value from, the robot is moved so that the center position of the face comes to the center on the image.

【0023】また、顔の中心位置が画像の中心から一定
値以内にあり、かつ、人物がすでに識別されている場合
には、その人物の好感度を人物情報記憶部5から取得
し、好感度毎に設定されている距離値L1を取得する。
この距離値L1は、例えば、好感度が0から1まで変化
するときに、好感度が0.3未満であればLa、0.3
以上0.7未満であればLb、0.7以上であればLc
(La>Lb>Lc)のようにあらかじめ設定されてい
る。次に距離算出装置3に保持されている人物までの距
離値L2を取得し、L2>L1であればロボットを距離
Ltだけ人物に接近させ、逆に、L2<L1であればロ
ボットを距離Ltだけ人物から遠ざける。
If the center position of the face is within a certain value from the center of the image and the person has already been identified, the person's positivity is acquired from the person information storage unit 5, and the positivity is calculated. The distance value L1 set for each is acquired.
This distance value L1 is, for example, La, 0.3 if the positivity is less than 0.3 when the positivity changes from 0 to 1.
If it is 0.7 or more and less than 0.7, it is Lb, and if it is 0.7 or more, Lc.
It is preset such as (La>Lb> Lc). Next, the distance value L2 to the person stored in the distance calculation device 3 is acquired, and if L2> L1, the robot is made to approach the person by the distance Lt, and conversely, if L2 <L1, the robot is moved to the distance Lt. Only keep away from the person.

【0024】次に制御切替部24の動作について説明す
る。制御切替部24は、自律行動ロボットが起動された
ときに、移動制御処理部21を起動する。移動制御処理
部21が、人物を検出して終了した場合には対話処理部
23を起動し、音源方向検出及びタッチセンサによって
終了した場合、人物探索処理部22を起動する。人物探
索処理部22が、人物を検出して終了した場合には対話
処理部23を起動し、あらかじめ決められた時間よりも
長いという条件で終了した場合には移動制御処理部21
を起動する。対話処理部23が、人物を見失って終了し
た場合には人物探索処理部22を起動し、特定の単語を
認識して終了した場合には移動制御処理部21を起動す
る。
Next, the operation of the control switching unit 24 will be described. The control switching unit 24 activates the movement control processing unit 21 when the autonomous behavior robot is activated. When the movement control processing unit 21 detects and ends a person, the movement processing unit 23 activates the dialogue processing unit 23, and when the movement control processing unit 21 ends the detection by the sound source direction detection and the touch sensor, it activates the person search processing unit 22. When the person search processing unit 22 detects a person and ends, the dialogue processing unit 23 is activated, and when the person search processing unit 22 ends on the condition that the time is longer than a predetermined time, the movement control processing unit 21.
To start. The dialogue processing unit 23 activates the person search processing unit 22 when ending after losing sight of the person, and activates the movement control processing unit 21 when ending after recognizing a specific word.

【0025】次に、本発明の第二の実施形態について説
明する。本発明の第二の実施形態は、画像入力装置1、
人物検出装置2、距離算出装置3、人物識別装置4、人
物情報記憶部5、音声入力装置6、音源方向検出装置
7、音声認識装置8、超音波センサ9、障害物検出装置
10、タッチセンサ11、行動制御装置12、脚部モー
タ13、頭部モータ14、および音声出力装置15を有
する。本発明の第二の実施形態は、上で述べた第一の実
施形態の構成と比較し、図4にあるように、行動制御装
置12が、人物情報解析処理部26を有する点で、第一
の実施形態における行動制御装置12と異なる。したが
って、第二の実施形態の説明では、人物情報解析処理部
26の説明を以下に行う。
Next, a second embodiment of the present invention will be described. In the second embodiment of the present invention, the image input device 1,
Person detection device 2, distance calculation device 3, person identification device 4, person information storage unit 5, voice input device 6, sound source direction detection device 7, voice recognition device 8, ultrasonic sensor 9, obstacle detection device 10, touch sensor 11, a behavior control device 12, a leg motor 13, a head motor 14, and a voice output device 15. The second embodiment of the present invention is different from the configuration of the first embodiment described above in that the behavior control device 12 has a person information analysis processing unit 26 as shown in FIG. It is different from the behavior control device 12 in one embodiment. Therefore, in the description of the second embodiment, the personal information analysis processing unit 26 will be described below.

【0026】人物情報解析処理部26は、人物情報記憶
部25に記憶されているすべての人物情報を取り出し、
音源方向検出装置7による出力が複数存在するときに最
も新しいものだけを残して他の音源方向検出装置7によ
る出力を人物情報記憶部から削除し、障害物検出装置1
0による出力が複数存在するときに最も新しい出力だけ
を残して他の障害物検出装置10による出力を人物情報
記憶部から削除し、タッチセンサ11による出力が複数
存在するときに最も新しい出力だけを残して他のタッチ
センサ11による出力を人物情報記憶部から削除する。
The personal information analysis processing unit 26 extracts all the personal information stored in the personal information storage unit 25,
When there are a plurality of outputs from the sound source direction detecting device 7, only the newest one is left and the outputs from the other sound source direction detecting devices 7 are deleted from the person information storage unit.
When there are multiple outputs from 0, only the newest output is left and the outputs from the other obstacle detection devices 10 are deleted from the person information storage unit. When there are multiple outputs from the touch sensor 11, only the latest output is output. The output from another touch sensor 11 is left and deleted from the person information storage unit.

【0027】以上、本発明の好適な実施形態を説明した
が、本発明の要旨を逸脱しない範囲で、他の種々の態様
で実施した場合も本発明に含まれる。
Although the preferred embodiment of the present invention has been described above, the present invention also includes various other embodiments without departing from the scope of the present invention.

【0028】[0028]

【発明の効果】以上説明したように、本発明によれば、
人物の検出・識別、音源方向検出、音声認識、タッチセ
ンサ、超音波センサによる障害物検出、などの様々な入
力を適切に処理して、ペットらしく自然に応答すること
ができるので、人間にとって親しみやすいペットのよう
な自律行動ロボットを提供することができるという効果
が得られる。
As described above, according to the present invention,
Various inputs such as human detection / identification, sound source direction detection, voice recognition, touch sensor, ultrasonic sensor obstacle detection, etc. can be processed appropriately and respond naturally like a pet, so it is familiar to humans. The effect that it is possible to provide an autonomous action robot such as an easy pet is obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の第一の実施形態の全体の構成を示す
ブロック図。
FIG. 1 is a block diagram showing the overall configuration of a first embodiment of the present invention.

【図2】 本発明の第一の実施形態における移動制御処
理部の処理の流れをを示す図。
FIG. 2 is a diagram showing a processing flow of a movement control processing unit in the first embodiment of the present invention.

【図3】 本発明の第一の実施形態における行動制御装
置を示すブロック図。
FIG. 3 is a block diagram showing a behavior control device according to the first embodiment of the present invention.

【図4】 本発明の第二の実施形態における行動制御装
置を示すブロック図。
FIG. 4 is a block diagram showing a behavior control device according to a second embodiment of the present invention.

【図5】 本発明の実施形態における自律行動ロボット
の外観の概略を示す図。
FIG. 5 is a diagram showing an outline of an external appearance of an autonomous action robot according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…画像入力装置 2…人物検出装置 3…距離算出装置 4…人物識別装置 5…人物情報記憶部 6…音声入力装置 7…音源方向検出装置 8…音声認識装置 9…超音波センサ 10…障害物検出装置 11…タッチセンサ 12…行動制御装置 13…脚部モータ 14…頭部モータ 15…音声出力装置 21…移動制御処理部 22…人物探索処理部 23…対話処理部 24…制御切替部 25…人物情報記憶部 26…人物情報解析処理部 211…人物情報参照部 212…制御処理部 1 ... Image input device 2 ... Person detection device 3 ... Distance calculation device 4 ... person identification device 5 ... person information storage unit 6 ... Voice input device 7 ... Sound source direction detector 8 ... Voice recognition device 9 ... Ultrasonic sensor 10 ... Obstacle detection device 11 ... Touch sensor 12 ... Behavior control device 13 ... Leg motor 14 ... Head motor 15 ... Voice output device 21 ... Movement control processing unit 22 ... Person search processing unit 23 ... Dialog processing unit 24 ... Control switching unit 25 ... Person information storage unit 26 ... Person information analysis processing unit 211 ... Person information reference section 212 ... Control processing unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B25J 13/08 B25J 13/08 Z Fターム(参考) 2C150 CA04 DA06 DA24 DA28 DC28 DF02 DF31 DJ01 EB01 ED02 ED08 ED21 ED37 ED42 EE02 EF01 EF13 EF16 EF23 EF29 EF32 EH08 FA01 3C007 AS36 CS08 KS04 KS11 KS12 KS31 KS36 KS39 KT03 KT04 WA16 WB19 WB21 WB23 WB25─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) B25J 13/08 B25J 13/08 ZF term (reference) 2C150 CA04 DA06 DA24 DA28 DC28 DF02 DF31 DJ01 EB01 ED02 ED08 ED21 ED37 ED42 EE02 EF01 EF13 EF16 EF23 EF29 EF32 EH08 FA01 3C007 AS36 CS08 KS04 KS11 KS12 KS31 KS36 KS39 KT03 KT04 WA16 WB19 WB21 WB23 WB25

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 画像入力装置と、該画像入力装置により
入力された画像から人物を検出する人物検出手段と、該
人物検出手段により検出された人物までの距離を算出す
る距離算出手段と、前記人物検出手段により検出された
人物を識別する人物識別手段と、人物の情報を記憶する
人物情報記憶手段と、音声入力装置と、該音声入力装置
により入力された音声の方向を検出する音源方向検出手
段と、前記音声入力装置により入力された音声を認識す
る音声認識手段と、超音波センサにより周囲の障害物を
検出する障害物検出手段と、撫でられたか叩かれたかを
検出する接触検出手段と、前記人物検出手段により検出
された人物検出情報と前記人物識別手段により識別され
た人物識別情報と前記音源方向検出手段により検出され
た音源方向と前記音声認識手段により認識された音声情
報と前記障害物検出手段により検出された障害物情報と
前記接触検出手段により検出された接触情報とを用いて
ロボットの行動を制御する行動制御手段と、該行動制御
手段の制御により可動する脚部と頭部と、前記行動制御
手段の制御により応答を出力する応答出力手段とを備え
る自律行動ロボットにおいて、 前記行動制御手段が、 前記人物検出手段及び前記人物識別手段及び前記音源方
向検出手段及び前記音声認識手段及び前記障害物検出手
段及び前記接触検出手段の出力を順々に記憶する入力情
報記憶部と、 該入力情報記憶部に記憶されている入力情報を参照し、
前記障害物検出手段により検出された障害物情報を用い
て周囲の障害物に衝突しないようにロボットを移動さ
せ、前記人物検出手段により人物が検出された場合なら
びに前記音源方向検出手段により音源方向が検出された
場合ならびに前記接触検出手段により接触が検出された
場合に終了する移動制御処理部と、 前記入力情報記憶部に記憶されている入力情報を参照
し、その場でロボットを停止させ、前記音源方向検出手
段により音源方向が検出されたらロボットを該方向に向
け、前記人物検出手段により人物が検出された場合とあ
らかじめ決められた時間人物が検出されない場合に終了
する人物探索処理部と、 前記入力情報記憶部に記憶されている入力情報を参照
し、ロボットに前記人物検出手段により検出している人
物の方向を向かせ、前記距離算出手段により算出された
人物までの距離があらかじめ決められた値よりも大きく
かつ前記障害物検出手段により人物までの間に障害物が
検出されないときに人物へ接近し、前記距離があらかじ
め決められた値よりも小さいときに接近を止め、前記音
声認識手段により音声を認識した場合に認識した音声に
応じた反応を前記応答出力手段により出力し、前記接触
検出手段により接触が検出されたときに撫でられたか叩
かれたかによって異なる応答を前記応答出力手段により
出力し、前記人物識別手段により検出している人物を識
別した場合に前記人物情報記憶手段に記憶されている前
記人物の情報を参照して該人物に応じた応答をし、前記
人物を見失った場合ならびにあらかじめ決められた音声
を認識した場合に終了することを特徴とする対話処理部
と、 ロボットが起動されたときに前記移動制御処理部を起動
し、該移動制御処理部が前記人物検出手段により人物が
検出されたために終了した場合に前記対話処理部を起動
し、前記移動制御処理部が前記音源方向検出手段により
終了した場合と前記接触検出手段により終了した場合に
人物探索処理部を起動し、該人物探索処理部が前記人物
検出手段により人物が検出されたために終了した場合に
対話処理部を起動し、前記人物探索処理部があらかじめ
決められた時間人物が検出されないために終了した場合
に移動制御処理部を起動し、前記対話処理部が人物を見
失ったために終了した場合に人物探索処理部を起動し、
前記対話処理部があらかじめ決められた音声を認識した
ために終了した場合に移動制御手段を起動する、ことを
特徴とする制御切替部とからなることを特徴とする自律
行動ロボット。
1. An image input apparatus, a person detecting means for detecting a person from an image input by the image input apparatus, a distance calculating means for calculating a distance to the person detected by the person detecting means, A person identifying means for identifying a person detected by the person detecting means, a person information storing means for storing information of a person, a voice input device, and a sound source direction detection for detecting a direction of a voice input by the voice input device. Means, a voice recognition means for recognizing a voice input by the voice input device, an obstacle detection means for detecting an obstacle around the ultrasonic sensor, and a contact detection means for detecting whether it is stroked or hit. The person detection information detected by the person detection means, the person identification information identified by the person identification means, the sound source direction detected by the sound source direction detection means, and the sound Action control means for controlling the action of the robot using the voice information recognized by the voice recognition means, the obstacle information detected by the obstacle detection means, and the contact information detected by the contact detection means; In an autonomous action robot including a leg and a head that are movable under the control of a control unit, and a response output unit that outputs a response under the control of the action control unit, the action control unit includes the person detecting unit and the person identifying unit. Means, the sound source direction detecting means, the voice recognizing means, the obstacle detecting means, and the contact detecting means, and an input information storage section for sequentially storing the outputs, and input information stored in the input information storage section. See,
Using the obstacle information detected by the obstacle detecting means, the robot is moved so as not to collide with surrounding obstacles, and when the person is detected by the person detecting means and when the sound source direction is detected by the sound source direction detecting means. A movement control processing unit that ends when a contact is detected by the contact detection unit and when detected, and refers to the input information stored in the input information storage unit, stops the robot on the spot, and A person search processing unit which ends when a person is detected by the person detecting means and when a person is not detected for a predetermined time when the sound source direction is detected by the sound source direction detecting means; Referring to the input information stored in the input information storage unit, the robot is caused to face the person detected by the person detecting means. When the distance to the person calculated by the distance calculating means is larger than a predetermined value and no obstacle is detected by the obstacle detecting means up to the person, the person approaches the person and the distance is predetermined. When the contact is detected by the contact detecting means, the response output means outputs a reaction corresponding to the recognized voice when the voice is recognized by the voice recognizing means when the contact is detected when the contact is detected by the contact detecting means. The response output means outputs different responses depending on whether the person is stroked or hit, and when the person detected by the person identifying means is identified, the information of the person stored in the person information storing means is referred to. Then, it responds according to the person, and ends when the person loses sight of the person or when a predetermined voice is recognized. And a dialogue processing unit for activating the movement control processing unit when the robot is activated, and activating the dialogue processing unit when the movement control processing unit ends because a person is detected by the person detecting means. Then, the person search processing unit is activated when the movement control processing unit is ended by the sound source direction detection unit and when the movement detection processing unit is ended by the contact detection unit, and the person search processing unit detects the person by the person detection unit. The dialog processing unit is started when the processing ends because of the failure, and the movement control processing unit is started when the person search processing unit ends because the person is not detected for a predetermined time, and the dialog processing unit loses sight of the person. If it ends because of the problem, start the person search processing unit,
An autonomous action robot comprising: a control switching unit, which activates a movement control unit when the dialogue processing unit ends because it recognizes a predetermined voice.
【請求項2】 前記人物情報記憶手段は、前記構成に加
えて人物に対する好感度を記憶することを特徴とし、 前記行動制御手段における対話処理部は、前記構成に加
えて好感度と距離の対応表を持ち、前記人物識別手段に
よって人物を識別したときに前記人物情報記憶手段を参
照して記憶されている該人物の好感度を得、前記対応表
から該好感度に対応する距離値L1を得、前記距離算出
手段により算出される該人物までの距離値L2を得、L
1>L2であるときにロボットを人物から遠ざけ、L1
<L2であるときにロボットを人物に近づけ、前記音声
認識手段により単語を認識したときに認識した単語と人
物に対する好感度を参照して応答することを特徴とす
る、請求項1記載の自律行動ロボット。
2. The personal information storage means stores, in addition to the configuration, a positivity for a person, and the dialogue processing section in the behavior control means corresponds to the positivity and the distance in addition to the configuration. When a person is identified by the person identifying means, a table is provided, and the person's liking stored by referring to the person information storage means is obtained. And obtain a distance value L2 to the person calculated by the distance calculation means,
If 1> L2, move the robot away from the person, L1
The autonomous action according to claim 1, wherein when L <2, the robot is brought close to a person, and when the word is recognized by the voice recognition means, a response is made by referring to the recognized word and the preference for the person. robot.
【請求項3】 前記行動制御手段は、前記構成に加えて
入力情報解析処理部を有し、 前記入力情報解析処理部は、前記入力情報記憶部に記憶
されている入力情報を参照して、前記音源方向検出手段
による出力が複数存在するときに最も新しいものだけを
残して他の前記音源方向検出手段による出力を前記入力
情報記憶部から削除し、前記障害物検出手段による出力
が複数存在するときに最も新しい出力だけを残して他の
前記障害物検出手段による出力を前記入力情報記憶部か
ら削除し、前記接触検出手段による出力が複数存在する
ときに最も新しい出力だけを残して他の前記接触検出手
段による出力を前記入力情報記憶部から削除することを
特徴とする、請求項1または2記載の自律行動ロボッ
ト。
3. The action control means has an input information analysis processing unit in addition to the configuration, and the input information analysis processing unit refers to the input information stored in the input information storage unit, When there are a plurality of outputs by the sound source direction detecting means, only the most recent one is deleted and the outputs by the other sound source direction detecting means are deleted from the input information storage unit, and there are a plurality of outputs by the obstacle detecting means. Sometimes only the newest output is left and the output from the other obstacle detection means is deleted from the input information storage section, and when there are multiple outputs from the contact detection means, only the newest output is left and the other output The autonomous action robot according to claim 1 or 2, wherein an output from the contact detection means is deleted from the input information storage unit.
JP2003147615A 2003-05-26 2003-05-26 Autonomous operation robot Withdrawn JP2003326479A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003147615A JP2003326479A (en) 2003-05-26 2003-05-26 Autonomous operation robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003147615A JP2003326479A (en) 2003-05-26 2003-05-26 Autonomous operation robot

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP11144090A Division JP2000326274A (en) 1999-05-24 1999-05-24 Acting robot

Publications (1)

Publication Number Publication Date
JP2003326479A true JP2003326479A (en) 2003-11-18

Family

ID=29707508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003147615A Withdrawn JP2003326479A (en) 2003-05-26 2003-05-26 Autonomous operation robot

Country Status (1)

Country Link
JP (1) JP2003326479A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100749083B1 (en) 2006-02-16 2007-08-13 정경수 Moving apparatus capable of standing up and method of controlling the same
JPWO2005099971A1 (en) * 2004-04-16 2007-08-16 松下電器産業株式会社 Robot, hint output device, robot control system, robot control method, robot control program, and integrated circuit
US7366309B2 (en) 2004-03-08 2008-04-29 Nec Corporation Robot
WO2010031233A1 (en) * 2008-09-22 2010-03-25 Li Lili An intelligent toy and a using method thereof
US7894941B2 (en) 2004-12-14 2011-02-22 Honda Motor Co., Ltd. Sound detection and associated indicators for an autonomous moving robot
WO2011079452A1 (en) * 2009-12-30 2011-07-07 孙亚凯 Dancing doll synchronized with person
KR101086602B1 (en) * 2005-08-26 2011-11-23 현대자동차주식회사 Voice recognition system for vehicle and the method thereof
KR101250055B1 (en) 2011-09-20 2013-04-02 엘지전자 주식회사 Robot cleaner
WO2013114493A1 (en) * 2012-02-03 2013-08-08 日本電気株式会社 Communication draw-in system, communication draw-in method, and communication draw-in program
CN103623586A (en) * 2013-12-20 2014-03-12 大连大学 Intelligent voice doll
US8774981B2 (en) 2009-09-14 2014-07-08 Israel Aerospace Industries Ltd. Infantry robotic porter system and methods useful in conjunction therewith
CN104440925A (en) * 2014-11-27 2015-03-25 国家康复辅具研究中心 Pet type accompanying robot and system
CN104977934A (en) * 2015-07-09 2015-10-14 深圳中科智酷机器人科技有限公司 Robot system and human body detection and tracking method based on robot system
CN105292052A (en) * 2015-11-12 2016-02-03 福州大学 Automatic monitoring and alarming system for vehicle traffic safety
JP2016087402A (en) * 2014-10-31 2016-05-23 ヤリー インコーポレイテッド User-interaction toy and interaction method of the toy
CN108694796A (en) * 2018-06-04 2018-10-23 四川斐讯信息技术有限公司 Security audit pre-warning system and its method are realized based on router and smart home
CN110456791A (en) * 2019-07-30 2019-11-15 中国地质大学(武汉) A kind of leg type mobile robot object ranging and identifying system based on monocular vision
US10576618B2 (en) 2016-06-23 2020-03-03 Casio Computer Co., Ltd. Robot having communication with human, robot control method, and non-transitory recording medium

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366309B2 (en) 2004-03-08 2008-04-29 Nec Corporation Robot
JPWO2005099971A1 (en) * 2004-04-16 2007-08-16 松下電器産業株式会社 Robot, hint output device, robot control system, robot control method, robot control program, and integrated circuit
US7894941B2 (en) 2004-12-14 2011-02-22 Honda Motor Co., Ltd. Sound detection and associated indicators for an autonomous moving robot
KR101086602B1 (en) * 2005-08-26 2011-11-23 현대자동차주식회사 Voice recognition system for vehicle and the method thereof
KR100749083B1 (en) 2006-02-16 2007-08-13 정경수 Moving apparatus capable of standing up and method of controlling the same
WO2010031233A1 (en) * 2008-09-22 2010-03-25 Li Lili An intelligent toy and a using method thereof
US8774981B2 (en) 2009-09-14 2014-07-08 Israel Aerospace Industries Ltd. Infantry robotic porter system and methods useful in conjunction therewith
WO2011079452A1 (en) * 2009-12-30 2011-07-07 孙亚凯 Dancing doll synchronized with person
KR101250055B1 (en) 2011-09-20 2013-04-02 엘지전자 주식회사 Robot cleaner
US9662788B2 (en) 2012-02-03 2017-05-30 Nec Corporation Communication draw-in system, communication draw-in method, and communication draw-in program
CN104093527A (en) * 2012-02-03 2014-10-08 日本电气株式会社 Communication draw-in system, communication draw-in method, and communication draw-in program
JPWO2013114493A1 (en) * 2012-02-03 2015-05-11 日本電気株式会社 Communication pull-in system, communication pull-in method and communication pull-in program
WO2013114493A1 (en) * 2012-02-03 2013-08-08 日本電気株式会社 Communication draw-in system, communication draw-in method, and communication draw-in program
CN103623586A (en) * 2013-12-20 2014-03-12 大连大学 Intelligent voice doll
JP2016087402A (en) * 2014-10-31 2016-05-23 ヤリー インコーポレイテッド User-interaction toy and interaction method of the toy
CN104440925A (en) * 2014-11-27 2015-03-25 国家康复辅具研究中心 Pet type accompanying robot and system
CN104977934A (en) * 2015-07-09 2015-10-14 深圳中科智酷机器人科技有限公司 Robot system and human body detection and tracking method based on robot system
CN105292052A (en) * 2015-11-12 2016-02-03 福州大学 Automatic monitoring and alarming system for vehicle traffic safety
US10576618B2 (en) 2016-06-23 2020-03-03 Casio Computer Co., Ltd. Robot having communication with human, robot control method, and non-transitory recording medium
CN108694796A (en) * 2018-06-04 2018-10-23 四川斐讯信息技术有限公司 Security audit pre-warning system and its method are realized based on router and smart home
CN110456791A (en) * 2019-07-30 2019-11-15 中国地质大学(武汉) A kind of leg type mobile robot object ranging and identifying system based on monocular vision

Similar Documents

Publication Publication Date Title
JP2000326274A (en) Acting robot
JP2003326479A (en) Autonomous operation robot
JP5429462B2 (en) Communication robot
JP5366048B2 (en) Information provision system
EP2068275B1 (en) Communication robot
JP2009113190A (en) Autonomous working robot and method of controlling operation of autonomous working robot
JP2009222969A (en) Speech recognition robot and control method for speech recognition robot
JP5764795B2 (en) Mobile robot, mobile robot learning system, and mobile robot behavior learning method
JPH09185412A (en) Autonomous moving device
WO2017217038A1 (en) Information processing device and storage medium
JP2008087140A (en) Speech recognition robot and control method of speech recognition robot
KR100962593B1 (en) Method and apparatus for area based control of vacuum cleaner, and recording medium thereof
JP5755011B2 (en) Robot group control apparatus and method
JP2000202790A (en) Robot device
JP4798581B2 (en) Robot system
JP2020181434A (en) Autonomous traveling work apparatus and autonomous traveling work system
JP2021171905A (en) Robot control device, method, and program
JP2018185362A (en) Robot and control method of the same
JP2007152470A (en) Robot with self-diagnostic function
Li et al. An egocentric computer vision based co-robot wheelchair
JP2020004182A (en) Robot, robot control program and robot control method
JP2006231447A (en) Confirmation method for indicating position or specific object and method and device for coordinate acquisition
JP6713637B2 (en) Service provision robot system
JP4198676B2 (en) Robot device, robot device movement tracking method, and program
JP5324956B2 (en) Road guidance robot

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060801