JP2007147217A - Robot - Google Patents

Robot Download PDF

Info

Publication number
JP2007147217A
JP2007147217A JP2005345619A JP2005345619A JP2007147217A JP 2007147217 A JP2007147217 A JP 2007147217A JP 2005345619 A JP2005345619 A JP 2005345619A JP 2005345619 A JP2005345619 A JP 2005345619A JP 2007147217 A JP2007147217 A JP 2007147217A
Authority
JP
Japan
Prior art keywords
robot
human
sensor
axis
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005345619A
Other languages
Japanese (ja)
Inventor
Masahiro Shiomi
昌裕 塩見
Takayuki Kanda
崇行 神田
Hiroshi Ishiguro
浩 石黒
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005345619A priority Critical patent/JP2007147217A/en
Publication of JP2007147217A publication Critical patent/JP2007147217A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To substantialize a comfortable environment for humans without depending on manual operation. <P>SOLUTION: The robot 10 includes various sensors and detects the environmental state such as temperature, humidity, soiling on a floor, and dirtiness in the air. When the detected result of the environmental state is different from a set condition (set temperature, set humidity, set value of dirtiness, set value of odor), the robot 10 controls an electronic apparatus for adjusting the environmental state. For example, when the detected temperature is different from the set temperature, an air conditioner A is controlled to adjust the temperature of the room. Further, when the detected dirtiness of the floor is more than the set value of dirtiness, a fully automatic vacuum cleaner B is controlled to remove (reduce) dirt on the floor. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明はロボットに関し、特にたとえば、温度、湿度、床や空気の汚れのような環境状況を検出する複数のセンサを備える、ロボットに関する。   The present invention relates to a robot, and more particularly to a robot provided with a plurality of sensors for detecting environmental conditions such as temperature, humidity, floor and air contamination.

従来、携帯電話やコンピュータなどの通信技術を用いて、家庭内のテレビジョン受像機やエアーコンディショナ(以下、単に「エアコン」ということがある。)などの電気機器を、外部から制御する技術が報告されている。たとえば、特許文献1の遠隔制御システムによれば、携帯電話システムにおける携帯端末が有する送受信機能と同じ送受信機能を有し、建物内部を移動することができるロボットが住宅の内部に配置され、ユーザは携帯端末によってロボットを遠隔操作することにより、テレビジョン受像機、VTR、エアコンなどの家電製品を遠隔操作する。   2. Description of the Related Art Conventionally, there has been a technology for externally controlling electrical equipment such as a television receiver and an air conditioner (hereinafter sometimes simply referred to as “air conditioner”) using a communication technology such as a mobile phone or a computer. It has been reported. For example, according to the remote control system of Patent Document 1, a robot that has the same transmission / reception function as that of a portable terminal in a mobile phone system and can move inside a building is arranged inside a house, By remotely operating the robot with a portable terminal, home appliances such as a television receiver, a VTR, and an air conditioner are remotely operated.

また、特許文献2(特許文献3も同様。)の遠隔操作装置によれば、ロボットは、テレビジョン受像機やエアコンなどの電気機器に対してそれぞれの駆動を制御するリモコンとしての機能を備え、携帯電話端末やコンピュータ端末などの指示端末から各電気機器の設定内容を指示することで、ロボットがその各電気機器の近くに移動してこれらの駆動を制御する。   Further, according to the remote control device disclosed in Patent Document 2 (the same applies to Patent Document 3), the robot has a function as a remote controller that controls driving of each electric device such as a television receiver and an air conditioner. By instructing the setting contents of each electric device from an instruction terminal such as a mobile phone terminal or a computer terminal, the robot moves to the vicinity of each electric device and controls their drive.

さらに、自走式ロボット掃除機の一例が非特許文献1に開示される。この自走式ロボット掃除機(家庭用掃除ロボット)は、たとえば、自動で部屋内の地図を作成し、自律的に移動しながら掃除を行う。
特開2002−281567号公報[H04Q 9/00] 特開2003−18665号公報[H04Q 9/00] 特開2003−18670号公報[H04Q 9/00] http://kadenfan.hitachi.co.jp/robot/
Furthermore, an example of a self-propelled robot cleaner is disclosed in Non-Patent Document 1. This self-propelled robot cleaner (home cleaning robot), for example, automatically creates a map in a room and performs cleaning while moving autonomously.
JP 2002-281567 A [H04Q 9/00] JP 2003-18665 A [H04Q 9/00] JP 2003-18670 A [H04Q 9/00] http://kadenfan.hitachi.co.jp/robot/

しかし、特許文献1ないし3の技術では、電気機器を遠隔操作することは可能であるが、あくまでもロボットをリモコンとして用いているだけであり、電気機器を適切に制御するためには、利用者から指示を与える必要がある。つまり、操作が面倒である。   However, in the techniques of Patent Documents 1 to 3, it is possible to remotely operate an electric device, but only a robot is used as a remote controller. In order to appropriately control the electric device, a user needs Need to give instructions. That is, the operation is troublesome.

また、非特許文献1の技術では、家庭用掃除ロボットは、ユーザの操作に応じて、部屋全域または部屋内をランダムに掃除するだけであり、ロボット自らが必要に応じて掃除することはできない。   In the technique of Non-Patent Document 1, the home cleaning robot only cleans the entire room or the room at random according to the user's operation, and the robot itself cannot clean as needed.

それゆえに、この発明の主たる目的は、人間にとって快適な環境を実現できる、新規なロボットを提供することである。   Therefore, a main object of the present invention is to provide a novel robot capable of realizing a comfortable environment for human beings.

請求項1の発明は、環境状況を検出する検出手段、および検出手段の検出結果が所定条件を満たさないとき、環境状況を調整する電気機器に、当該所定条件を満足させるための制御信号を送信する送信手段を備える、ロボットである。   According to the first aspect of the present invention, when the detection means for detecting the environmental situation and the detection result of the detection means do not satisfy the predetermined condition, a control signal for satisfying the predetermined condition is transmitted to the electric device for adjusting the environmental situation. It is a robot provided with the transmission means to do.

請求項1の発明では、ロボット(10:実施例で相当する参照番号。以下同じ。)は、たとえば、環境状況(たとえば、温度、湿度、床または空気の汚れなど)を調整するための電気機器(たとえば、エアコンA、全自動掃除機B、空気清浄機C、加湿器Dおよび除湿機E)が設置されたオフィスや家庭などの屋内に配置される。検出手段(72,100〜106,S81)は、たとえば温度や湿度、床の汚れまたは空気の汚れのような環境の状況(環境状況)を検出する。CPU(72)は、検出手段(72,100〜106,S81)が検出した環境状況が、予め設定しておいた環境状況の条件(設定条件)を満たすか否かを判断する。検出した環境状況が設定条件を満たさない場合には、送信手段(72,98,S85,S89,S93,S97)は、電気機器に対して制御信号を送信し、環境状況が設定条件を満足するように電気機器に調整させる。   According to the first aspect of the present invention, the robot (10: reference number corresponding to the embodiment; the same applies hereinafter) is an electrical device for adjusting environmental conditions (for example, temperature, humidity, floor or air contamination, etc.), for example. (For example, an air conditioner A, a fully automatic vacuum cleaner B, an air purifier C, a humidifier D, and a dehumidifier E) are disposed indoors such as an office or home where the air conditioner A is installed. The detection means (72, 100 to 106, S81) detects an environmental condition (environmental condition) such as temperature, humidity, floor dirt or air dirt. The CPU (72) determines whether or not the environmental status detected by the detection means (72, 100 to 106, S81) satisfies a preset environmental status condition (setting condition). When the detected environmental situation does not satisfy the setting condition, the transmission means (72, 98, S85, S89, S93, S97) transmits a control signal to the electric device, and the environmental situation satisfies the setting condition. Let the electrical equipment adjust.

請求項1の発明によれば、環境状況を検出し、検出した環境状況が設定条件を満たすように、電気機器を適切に制御するので、人間の手を煩わせることなく、人間にとって快適な空間を実現できる。   According to the first aspect of the present invention, since the environmental condition is detected and the electric device is appropriately controlled so that the detected environmental condition satisfies the setting condition, a comfortable space for human beings without bothering human hands. Can be realized.

請求項2の発明は、請求項1に従属し、検出手段は、温度センサ、湿度センサ、汚れセンサおよび臭いセンサの少なくとも1つを含む。   The invention of claim 2 is dependent on claim 1, and the detection means includes at least one of a temperature sensor, a humidity sensor, a dirt sensor, and an odor sensor.

請求項2の発明では、検出手段(72,100〜106,S81)は、温度センサ(100)、湿度センサ(102)、汚れセンサ(104)および臭いセンサ(106)の少なくとも1つを含む。ロボット(10)では、温度センサ(100)、湿度センサ(102)、汚れセンサ(104)および臭いセンサ(106)の検出結果に基づいて、自身の近傍の環境状況を認識することができる。つまり、ロボット(10)の現在位置(部屋ないしその一部の領域)における温度や湿度を検出することができ、また、床や空気の汚れを検出することもできる。   In the invention of claim 2, the detection means (72, 100 to 106, S81) includes at least one of a temperature sensor (100), a humidity sensor (102), a dirt sensor (104), and an odor sensor (106). The robot (10) can recognize environmental conditions in the vicinity of itself based on the detection results of the temperature sensor (100), the humidity sensor (102), the dirt sensor (104), and the odor sensor (106). That is, it is possible to detect the temperature and humidity at the current position (room or a part of the area) of the robot (10), and it is also possible to detect dirt on the floor and air.

請求項2の発明によれば、様々なセンサを備えるので、各センサの出力に基づいて電気機器を制御することにより、温度や湿度を調整したり、床や空気の汚れを浄化したりすることができる。   According to the invention of claim 2, since various sensors are provided, it is possible to adjust the temperature and humidity, or to clean the floor and air dirt by controlling the electrical equipment based on the output of each sensor. it can.

請求項3の発明は、請求項1または2に従属し、自律移動するための自律移動手段を備える。   The invention of claim 3 is dependent on claim 1 or 2, and comprises an autonomous moving means for autonomously moving.

請求項3の発明では、ロボット(10)は、自律移動手段(24,26,72,78)を備え、屋内を自律移動する。   In the invention of claim 3, the robot (10) includes autonomous moving means (24, 26, 72, 78) and autonomously moves indoors.

請求項3の発明によれば、自律移動するので、様々な場所の環境状況を検出することができる。このため、局所的な温度や湿度を調整したり、局所的な床や空気の汚れを浄化したりすることができる。つまり、人間にとって快適な空間を保つ(実現する)ために、より細やかに対応することができる。   According to invention of Claim 3, since it moves autonomously, the environmental condition of various places is detectable. For this reason, it is possible to adjust the local temperature and humidity, and to purify local floor and air stains. That is, in order to maintain (realize) a comfortable space for human beings, it is possible to respond more precisely.

請求項4の発明は、請求項3に従属し、地図データを記憶する地図記憶手段をさらに備え、検出手段は、地図記憶手段に記憶された地図データを参照して、自律移動手段によって自律移動するとき、環境状況を検出する。   The invention of claim 4 is dependent on claim 3 and further comprises map storage means for storing map data, and the detection means refers to the map data stored in the map storage means and moves autonomously by the autonomous movement means. When detecting environmental conditions.

請求項4の発明では、地図記憶手段(110)は、ロボット(10)を配置する空間についての地図データ(たとえば、或る会社の建物や家庭などの屋内の地図データ)を記憶する。当該地図データは、たとえば、大領域と小領域とに分けて管理される。具体的には、ロボット(10)の配置される屋内が部屋単位のような大領域に分割され、さらに、各部屋においては、一定範囲毎の小領域に分割される。ロボット(10)は、地図記憶手段(110)が記憶した地図データに基づいて、自立移動手段(24,26,72,78)により自律移動し、検出手段(72,100〜106,S81)によって環境状況(情報)を検出する。   According to a fourth aspect of the present invention, the map storage means (110) stores map data (for example, indoor map data such as a building or home of a certain company) about the space where the robot (10) is placed. The map data is managed, for example, divided into a large area and a small area. Specifically, the room where the robot (10) is arranged is divided into large areas such as room units, and each room is further divided into small areas for each predetermined range. The robot (10) moves autonomously by the self-moving means (24, 26, 72, 78) based on the map data stored in the map storage means (110), and by the detecting means (72, 100-106, S81). Detect environmental status (information).

請求項4の発明によれば、地図を参照して移動するため、全ての領域を探索して、効率的に環境状況を整えることができる。   According to invention of Claim 4, since it moves, referring a map, all areas can be searched and an environmental condition can be adjusted efficiently.

請求項5の発明は、請求項1ないし4のいずれかに従属し、周囲或いは近傍に存在する人間を検知する人間検知手段をさらに備え、人間検出手段によって人間が検知された場合、自律移動手段によって当該人間を追従する。   The invention according to claim 5 is dependent on any one of claims 1 to 4 and further comprises human detection means for detecting a person existing around or in the vicinity, and when the person is detected by the human detection means, the autonomous movement means Follow the person.

請求項5の発明では、人間検知手段(42,48,72,76,80,S15,S41)は、人間(14)の存在を検知する。自律移動手段(24,26,72,78)は、人間検知手段(42,48,72,76,80,S15,S41)が人間の存在を検出した場合、当該人間(14)に追従する。具体的には、人間検知手段(42,48,72,76,80,S15,S41)が人間(14)の存在を検知すると、モータ制御ボード(78)はCPU(72)からの制御データを受け、車輪モータ(26)を駆動させ、ロボット(10)を人間(14)の近くに移動させる。そして、たとえば超音波距離センサ(32)により、ロボット(10)と当該人間との距離を測定し、その距離が、あらかじめ設定しておいた距離(たとえば、1m)より近くなるまで移動する。また、ロボット(10)は、当該人間(14)が移動することによりロボット(10)から離れると(当該人間(14)とロボット(10)との距離が、あらかじめ設定した距離より遠くなると)、当該設定した距離より近くなるまで自律移動手段(24,26,72,78)により移動する。このようにして、ロボット(10)は人間(14)との距離を所定の距離以内に保つように移動し、したがって、人間に追従する。   In the invention of claim 5, the human detection means (42, 48, 72, 76, 80, S15, S41) detects the presence of the human (14). The autonomous moving means (24, 26, 72, 78) follows the human (14) when the human detecting means (42, 48, 72, 76, 80, S15, S41) detects the presence of a human. Specifically, when the human detection means (42, 48, 72, 76, 80, S15, S41) detects the presence of the human (14), the motor control board (78) receives the control data from the CPU (72). The wheel motor (26) is driven and the robot (10) is moved close to the human (14). Then, for example, the distance between the robot (10) and the person is measured by the ultrasonic distance sensor (32), and the robot moves until the distance is closer than a preset distance (for example, 1 m). Further, when the robot (10) moves away from the robot (10) due to the movement of the human (14) (when the distance between the human (14) and the robot (10) becomes longer than a preset distance), It moves by the autonomous moving means (24, 26, 72, 78) until it becomes closer than the set distance. In this way, the robot (10) moves so as to keep the distance from the human (14) within a predetermined distance, and therefore follows the human.

請求項5の発明によれば、検知した人間を追従するので、人間近傍の環境状況を快適に保ったり、整えたりすることができる。   According to the invention of claim 5, since the detected human is followed, the environmental condition in the vicinity of the human can be maintained comfortably or can be adjusted.

請求項6の発明は、請求項1ないし5のいずれかに従属し、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動するコミュニケーション行動実行手段をさらに備える。   The invention according to claim 6 is dependent on any one of claims 1 to 5, and further includes a communication action executing means for performing a communication action with a human using at least one of a body motion and a voice.

請求項6の発明では、ロボット(10)は、身体動作および音声の少なくとも一方を用いて、人間(14)とコミュニケーション行動することができる。たとえば、検知手段(42,48,72,76,80,S15,S41)が、人間の存在を検知して、当該人間に接近するときに、片手を挙げながら「おはよう」と声をかけることができる。また、たとえば検知した人間(14)に追従しているときに、人間から「離れて」と声をかけられると、「ばいばい」と声をかけて人間(14)から離れ、単独で行動することもできる。   In the invention of claim 6, the robot (10) can communicate with the human (14) by using at least one of body movement and voice. For example, when the detection means (42, 48, 72, 76, 80, S15, S41) detects the presence of a person and approaches the person, he may say "Good morning" with one hand up. it can. Also, for example, when following a detected person (14), if you say "separate" from the person, you will say "I'm wrong" and leave the person (14) and act alone. You can also.

請求項6の発明によれば、人間の存在する空間内に自然と解け込むことができ、人間の行動を邪魔することなく、環境状況を検出して、人間の近傍の環境状況を快適に保つことができる。   According to the sixth aspect of the present invention, it is possible to naturally dissolve in the space where a human exists, and to detect the environmental situation without disturbing the human behavior and to keep the environmental situation near the human being comfortable. be able to.

この発明によれば、検出された環境状況に基づいて電気機器を適切に制御するので、人間からの指令がなくても、人間にとって快適な環境を実現することができる。   According to the present invention, since the electric device is appropriately controlled based on the detected environmental situation, it is possible to realize a comfortable environment for humans even without a command from humans.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のロボット10は、たとえば、主として人間14のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のもので、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を行う機能を備えている。   Referring to FIG. 1, a robot 10 according to this embodiment is an interaction-oriented robot mainly intended to communicate with a communication target such as a human 14, for example, body movements and voices such as gesture gestures. It has a function to perform communication behavior including at least one of the above.

ロボット10は、電気機器が設置されたオフィスや家庭などの屋内に配置される。この実施例では、図1に示すように、電気機器としては、エアーコンディショナ(エアコン)A、全自動掃除機B、空気清浄機C、加湿器Dおよび除湿機Eなどが該当する。つまり、電気機器は、その屋内の環境(温度、湿度、空気や床の汚れなど)を調整する。   The robot 10 is disposed indoors such as an office or home where electric devices are installed. In this embodiment, as shown in FIG. 1, an air conditioner (air conditioner) A, a fully automatic cleaner B, an air cleaner C, a humidifier D, a dehumidifier E, and the like correspond to the electrical devices. That is, the electric device adjusts its indoor environment (temperature, humidity, air, floor dirt, etc.).

また、詳細な機構は後述するが、ロボット10は、自律移動するための機構を備え、配置された空間内(屋内)を自由に自律移動することができる。図1では省略するが、ロボット10はさらに、各電気機器を制御する制御信号を送信する、赤外線信号送信装置98(図3参照)を備えている。   Moreover, although a detailed mechanism will be described later, the robot 10 includes a mechanism for autonomously moving, and can freely move autonomously in the arranged space (indoor). Although omitted in FIG. 1, the robot 10 further includes an infrared signal transmission device 98 (see FIG. 3) that transmits a control signal for controlling each electric device.

なお、図1においては、簡単のため、1人の人間14が存在するように示してあるが、複数人存在してもよく、また、存在しなくてもよい。   In FIG. 1, for simplicity, a single person 14 is shown. However, a plurality of persons may exist or may not exist.

図2は、ロボット10の外観を示す正面図であり、この図2を参照して、ロボット10のハードウェアの構成について説明する。ロボット10は台車22を含み、この台車22の下面にはロボット10を自律移動させる車輪24が設けられる。車輪24は車輪モータ26(図3参照)によって駆動され、台車22すなわちロボット10を前後左右任意の方向に動かすことができる。このように、ロボット10は組織の空間内を移動可能なものであるが、場合によっては空間内の所定位置に固定的に設けられてもよい。   FIG. 2 is a front view showing the appearance of the robot 10, and the hardware configuration of the robot 10 will be described with reference to FIG. The robot 10 includes a carriage 22, and wheels 24 for autonomously moving the robot 10 are provided on the lower surface of the carriage 22. The wheel 24 is driven by a wheel motor 26 (see FIG. 3), and the carriage 22, that is, the robot 10 can be moved in any direction, front, rear, left, and right. As described above, the robot 10 is movable in the space of the tissue, but may be fixedly provided at a predetermined position in the space depending on circumstances.

なお、図2においては省略するが、台車22の前面には、衝突センサ28(図3参照)が取り付けられ、この衝突センサ28は台車22への人や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪24の駆動を停止してロボット10の移動を急停止させる。   Although omitted in FIG. 2, a collision sensor 28 (see FIG. 3) is attached to the front surface of the carriage 22, and the collision sensor 28 detects contact of a person and other obstacles to the carriage 22. That is, when contact with an obstacle is detected during the movement of the robot 10, the driving of the wheels 24 is immediately stopped to suddenly stop the movement of the robot 10.

また、この実施例では、ロボット10の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。   In this embodiment, the height of the robot 10 is about 100 cm so as not to intimidate people, particularly children. However, this height can be changed.

台車22の上には、多角形柱のセンサ取付パネル30が設けられ、このセンサ取付パネル30の各面には、超音波距離センサ32が取り付けられる。この超音波距離センサ32は、センサ取付パネル30すなわちロボット10の周囲の主として人との距離を計測するものである。   A polygonal column sensor mounting panel 30 is provided on the carriage 22, and an ultrasonic distance sensor 32 is mounted on each surface of the sensor mounting panel 30. The ultrasonic distance sensor 32 measures the distance between the sensor mounting panel 30, that is, the person around the robot 10 mainly.

また、台車22の上には、さらに、その下部がセンサ取付パネル30に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体34と上部胴体36とによって構成され、下部胴体34および上部胴体36は、連結部38によって互いに連結される。図示は省略するが、連結部38には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体36の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ40(図3参照)によって駆動される。   Moreover, the lower part of the robot 22 is surrounded by the sensor mounting panel 30 so that the body of the robot 10 stands upright. This body is constituted by a lower body 34 and an upper body 36, and the lower body 34 and the upper body 36 are connected to each other by a connecting portion 38. Although illustration is omitted, the connecting portion 38 has a built-in lifting mechanism, and the height of the upper body 36, that is, the height of the robot 10 can be changed by using this lifting mechanism. The lifting mechanism is driven by a waist motor 40 (see FIG. 3), as will be described later.

なお、上述したロボット10の背の高さは、上部胴体36をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることも可能である。   The height of the robot 10 described above is that when the upper body 36 is at its lowest position. Therefore, the height of the robot 10 can be 100 cm or more.

上部胴体36のほぼ中央には、1つの全方位カメラ42と1つのマイク46とが設けられる。全方位カメラ42は、ロボット10の周囲を撮影するものであり、後述する眼カメラ48とは区別される。この全方位カメラ42としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、マイク46は、周囲の音、とりわけコミュニケーション対象である人の声を取り込む。なお、これら全方位カメラ42およびマイク46の設置位置は上部胴体36に限られず適宜変更され得る。   One omnidirectional camera 42 and one microphone 46 are provided in the approximate center of the upper body 36. The omnidirectional camera 42 photographs the surroundings of the robot 10 and is distinguished from an eye camera 48 described later. As this omnidirectional camera 42, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. The microphone 46 captures ambient sounds, particularly voices of people who are communication targets. The installation positions of the omnidirectional camera 42 and the microphone 46 are not limited to the upper body 36 and can be changed as appropriate.

上部胴体36の両肩には、それぞれ、肩関節50Rおよび50Lによって、上腕52Rおよび52Lが設けられる。肩関節50Rおよび50Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節50Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕52Rの角度を制御できる。Y軸は、上腕52Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節50Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕52Lの角度を制御できる。B軸は、上腕52Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。   Upper arms 52R and 52L are provided on both shoulders of the upper body 36 by shoulder joints 50R and 50L, respectively. The shoulder joints 50R and 50L each have three axes of freedom. That is, the shoulder joint 50R can control the angle of the upper arm 52R around each of the X axis, the Y axis, and the Z axis. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 52R, and the X axis and the Z axis are orthogonal to the Y axis from different directions. On the other hand, the shoulder joint 50L can control the angle of the upper arm 52L around each of the A axis, the B axis, and the C axis. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 52L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.

また、上腕52Rおよび52Lのそれぞれの先端には、肘関節54Rおよび54Lを介して、前腕56Rおよび56Lが設けられる。肘関節54Rおよび54Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕56Rおよび56Lの角度を制御できる。   Further, forearms 56R and 56L are provided at the respective distal ends of the upper arms 52R and 52L via elbow joints 54R and 54L. The elbow joints 54R and 54L can control the angles of the forearms 56R and 56L around the axes of the W axis and the D axis, respectively.

なお、上腕52Rおよび52Lならびに前腕56Rおよび56Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、上腕52Rおよび52Lならびに前腕56Rおよび56Lは下方に向けられる。   In the X axis, Y axis, Z axis, W axis, A axis, B axis, C axis, and D axis that control the displacement of the upper arms 52R and 52L and the forearms 56R and 56L, "0 degree" is the home position, respectively. In this home position, as shown in FIG. 2, the upper arms 52R and 52L and the forearms 56R and 56L are directed downward.

また、図示は省略するが、上部胴体36の肩関節50Rおよび50Lを含む肩の部分や上述の上腕52Rおよび52Lならびに前腕56Rおよび56Lには、それぞれ、タッチセンサ(図3で包括的に示す。:58)が設けられていて、これらのタッチセンサ58は、人がロボット10の当該各部位に触れたかどうかを検知する。   Although not shown in the figure, the shoulder portion including the shoulder joints 50R and 50L of the upper body 36, the upper arms 52R and 52L, and the forearms 56R and 56L described above are each shown by touch sensors (shown comprehensively in FIG. 3). : 58), and these touch sensors 58 detect whether or not a person touches each part of the robot 10.

前腕56Rおよび56Lのそれぞれの先端には、手に相当する球体60Rおよび60Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。   Spheres 60R and 60L corresponding to hands are fixedly provided at the tips of the forearms 56R and 56L, respectively. However, if a finger or palm function is required, a “hand” in the shape of a human hand can be used.

なお、ロボット10の形状・寸法などは適宜設定されるが、他の実施例では、たとえば、上部胴体36は、前面、背面、右側面、左側面、上面および底面を含み、右側面および左側面は表面が斜め前方に向くように形成してもよい。つまり、前面の横幅が背面の横幅よりも短く、上部胴体36を上から見た形状が台形になるように形成されてもよい。   Although the shape and dimensions of the robot 10 are set as appropriate, in another embodiment, for example, the upper body 36 includes a front surface, a back surface, a right side surface, a left side surface, a top surface, and a bottom surface, and the right side surface and the left side surface. You may form so that the surface may face diagonally forward. That is, the width of the front surface may be shorter than the width of the back surface, and the shape of the upper body 36 viewed from above may be a trapezoid.

このような場合、肩関節50Rおよび50Lは、右側面および左側面に、その表面が左右両側面とそれぞれ平行である左右の支持部を介して設けられる。そして、上腕52Rおよび上腕52Lの回動範囲は、これら左右側面または支持部の表面(取り付け面)によって規制され、上腕52Rおよび52Lは取り付け面を超えて回動することはない。   In such a case, the shoulder joints 50R and 50L are provided on the right side surface and the left side surface via left and right support portions whose surfaces are parallel to the left and right side surfaces, respectively. The rotation range of the upper arm 52R and the upper arm 52L is restricted by the left and right side surfaces or the surface (attachment surface) of the support portion, and the upper arms 52R and 52L do not rotate beyond the attachment surface.

しかし、左右側面の傾斜角、B軸とY軸との間隔、上腕52Rおよび52Lの長さ、ならびに前腕56Rおよび56Lの長さなどを適宜に設定すれば、上腕52Rおよび52Lは前方を超えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット10の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接で親密なコミュニケーション行動を実行することができる。   However, if the inclination angle of the left and right side surfaces, the distance between the B axis and the Y axis, the lengths of the upper arms 52R and 52L, the lengths of the forearms 56R and 56L, etc. are appropriately set, the upper arms 52R and 52L Since it can rotate to the inner side, the arms of the robot 10 can cross forward even if there is no degree of freedom of the arms by the W axis and D axis. Therefore, even when the degree of freedom of arms is small, it is possible to execute close and intimate communication behavior such as embracing a person in front.

上部胴体36の中央上方には、首関節62を介して頭部64が設けられる。首関節62は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部64には、人の口に相当する位置に、スピーカ66が設けられる。スピーカ66は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。ただし、スピーカ66は、ロボット10の他の部位、たとえば胴体などに設けられてもよい。   A head 64 is provided above the center of the upper body 36 via a neck joint 62. The neck joint 62 has a degree of freedom of three axes, and the angle can be controlled around each of the S axis, the T axis, and the U axis. The S-axis is an axis that extends from the neck directly upward (vertically upward), and the T-axis and the U-axis are axes that are orthogonal to the S-axis in different directions. The head 64 is provided with a speaker 66 at a position corresponding to a human mouth. The speaker 66 is used for the robot 10 to communicate with people around it by voice or sound. However, the speaker 66 may be provided in another part of the robot 10, for example, the trunk.

また、頭部64には、目に相当する位置に眼球部68Rおよび68Lが設けられる。眼球部68Rおよび68Lは、それぞれ眼カメラ48Rおよび48Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがあり、また、右の眼カメラ48Rと左の眼カメラ48Lとをまとめて眼カメラ48ということもある。   The head 64 is provided with eyeballs 68R and 68L at positions corresponding to the eyes. Eyeball portions 68R and 68L include eye cameras 48R and 48L, respectively. Hereinafter, the right eyeball portion 68R and the left eyeball portion 68L may be collectively referred to as the eyeball portion 68, and the right eye camera 48R and the left eye camera 48L may be collectively referred to as the eye camera 48.

眼カメラ48は、ロボット10に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ48としては、上述した全方位カメラ42と同様のカメラを用いることができる。   The eye camera 48 captures the face of the person approaching the robot 10 and other parts or objects, and captures the corresponding video signal. As the eye camera 48, a camera similar to the omnidirectional camera 42 described above can be used.

たとえば、眼カメラ48は眼球部68内に固定され、眼球部68は眼球支持部(図示せず)を介して頭部64内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部64に対して設けられる軸であり、α軸は頭部64の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部64の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部64がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部64において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ48の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。   For example, the eye camera 48 is fixed in the eyeball part 68, and the eyeball part 68 is attached to a predetermined position in the head 64 via an eyeball support part (not shown). The eyeball support unit has two degrees of freedom and can be controlled in angle around each of the α axis and the β axis. The α axis and the β axis are axes provided with respect to the head 64, the α axis is an axis in a direction toward the top of the head 64, the β axis is orthogonal to the α axis and the front side of the head 64 ( It is an axis in a direction perpendicular to the direction in which the face is facing. In this embodiment, when the head 64 is at the home position, the α axis is set to be parallel to the S axis, and the β axis is set to be parallel to the U axis. In such a head 64, when the eyeball support portion is rotated around each of the α axis and the β axis, the tip (front) side of the eyeball portion 68 or the eye camera 48 is displaced, and the camera axis, that is, the line-of-sight direction is changed. Moved.

なお、眼カメラ48の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ48のカメラ軸は頭部64の正面側(顔)が向く方向に向けられ、視線は正視状態となる。   In the α axis and β axis that control the displacement of the eye camera 48, “0 degree” is the home position. At this home position, the camera axis of the eye camera 48 is the head 64 as shown in FIG. The direction of the front side (face) is directed, and the line of sight is in the normal viewing state.

さらに、ロボット10は、温度センサ100、湿度センサ102、汚れセンサ104および臭いセンサ106を備える。たとえば、温度センサ100、湿度センサ102および臭いセンサ106は肩部に取り付けられる。ただし、厳密には、各センサ100−106の検出部がロボット10の肩部から露出するように設けられ、検出部以外の他の部分はロボット10の内部に設けられる。もちろん、これらのセンサ100、102、106の取り付け位置は肩に特定されず、実施条件などによって適宜変更可能である。また、これらのセンサ100、102および106は、同じ部位(この実施例では、肩)に設ける必要はなく、それぞれ異なる部位に設けるようにしてもよい。また、汚れセンサ104は台車22の下面に取り付けられる。この汚れセンサ104の取り付け位置もまた、台車22の下面に限定される必要はなく、当該汚れセンサ104の機能や検出方法などにより適宜変更可能である。   Further, the robot 10 includes a temperature sensor 100, a humidity sensor 102, a dirt sensor 104, and an odor sensor 106. For example, the temperature sensor 100, the humidity sensor 102, and the odor sensor 106 are attached to the shoulder. However, strictly speaking, the detection units of the sensors 100 to 106 are provided so as to be exposed from the shoulders of the robot 10, and other parts other than the detection units are provided inside the robot 10. Of course, the attachment positions of these sensors 100, 102, and 106 are not specified on the shoulders, and can be appropriately changed depending on the implementation conditions. Further, these sensors 100, 102 and 106 do not have to be provided at the same site (in this embodiment, shoulders), and may be provided at different sites. The dirt sensor 104 is attached to the lower surface of the carriage 22. The attachment position of the dirt sensor 104 is not necessarily limited to the lower surface of the carriage 22, and can be appropriately changed depending on the function of the dirt sensor 104, the detection method, and the like.

たとえば、汚れセンサ104としては、光学的に床面の反射率を測定する光センサなどを用いることができる。また、臭いセンサ106としては、熱線型半導体式センサなどを用いることができる。   For example, as the dirt sensor 104, an optical sensor that optically measures the reflectance of the floor surface can be used. Further, as the odor sensor 106, a hot-wire semiconductor sensor or the like can be used.

後で詳細に説明するが、ロボット10は、これらのセンサ100−106によって、温度、湿度、床の汚れや空気の汚れの度合い、すなわちロボット10が存在する近傍の環境状況(状態)を検出する。したがって、他の状態を検出したい場合には、その状態を検出するためのセンサを別途設ける必要がある。   As will be described in detail later, the robot 10 detects the temperature, humidity, the degree of dirt on the floor or the air, that is, the environmental condition (state) in the vicinity where the robot 10 exists, by using these sensors 100-106. . Therefore, when it is desired to detect another state, it is necessary to separately provide a sensor for detecting the state.

図3はロボット10の電気的な構成を示すブロック図であり、この図3を参照して、ロボット10は、全体を制御するCPU72を含む。CPU72は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス74を介して、メモリ76、モータ制御ボード78、センサ入力/出力ボード80および音声入力/出力ボード82に接続される。   FIG. 3 is a block diagram showing an electrical configuration of the robot 10. With reference to FIG. 3, the robot 10 includes a CPU 72 for controlling the whole. The CPU 72 is also called a microcomputer or a processor, and is connected to the memory 76, the motor control board 78, the sensor input / output board 80, and the audio input / output board 82 via the bus 74.

メモリ76は、図示は省略するが、ROMやRAMを含み、ROMにはロボット10の制御プログラムが予め記憶されるとともに、コミュニケーション行動を実行する際にスピーカ66から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データなども記憶される。RAMは、ワークメモリやバッファメモリとして用いられる。また、メモリ76には、コミュニケーション行動を実行するための行動制御プログラム、外部コンピュータと通信するための通信プログラム、および環境センサ100〜106の検出した検出条件とあらかじめ設定した設定条件とを比較して、電気機器に制御信号を送信するための電気機器制御プログラムなどが記憶される。   Although not shown in the figure, the memory 76 includes a ROM and a RAM. The ROM 10 stores a control program for the robot 10 in advance, and voice or voice data to be generated from the speaker 66 when the communication action is executed. (Speech synthesis data) and angle data for presenting a predetermined gesture are also stored. The RAM is used as a work memory or a buffer memory. Further, the memory 76 compares the action control program for executing the communication action, the communication program for communicating with the external computer, and the detection condition detected by the environmental sensors 100 to 106 and the preset setting condition. An electric device control program for transmitting a control signal to the electric device is stored.

モータ制御ボード78は、たとえばDSPで構成され、各腕や頭部および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード78は、CPU72からの制御データを受け、右眼球部68Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)84の回転角度を制御する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左眼球部68Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)86の回転角度を制御する。   The motor control board 78 is constituted by, for example, a DSP, and controls driving of each axis motor such as each arm, head, and eyeball. That is, the motor control board 78 receives the control data from the CPU 72 and controls two angles of the α axis and β axis of the right eyeball portion 68R (in FIG. 3, collectively referred to as “right eyeball motor”). .) Control the rotation angle of 84. Similarly, the motor control board 78 receives control data from the CPU 72, and controls two angles of the α axis and β axis of the left eyeball portion 68L (in FIG. 3, collectively referred to as “left eyeball motor”). Controls the rotation angle of 86.

また、モータ制御ボード78は、CPU72からの制御データを受け、右肩関節50RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節54RのW軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)88の回転角度を調節する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左肩関節50LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節54LのD軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)90の回転角度を調整する。   The motor control board 78 receives the control data from the CPU 72, and controls the angles of the X axis, Y axis and Z axis of the right shoulder joint 50R and the W axis angle of the right elbow joint 54R. The rotation angles of a total of four motors (one collectively shown as “right arm motor” in FIG. 3) 88 including one motor to be controlled are adjusted. Similarly, the motor control board 78 receives the control data from the CPU 72 and determines the angles of the three motors for controlling the angles of the A-axis, B-axis and C-axis of the left shoulder joint 50L and the D-axis angle of the left elbow joint 54L. The rotation angle of a total of four motors (one collectively shown as “left arm motor” in FIG. 3) 90 with one motor to be controlled is adjusted.

さらに、モータ制御ボード78は、CPU72からの制御データを受け、頭部64のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)92の回転角度を制御する。さらにまた、モータ制御ボード78は、CPU72からの制御データを受け、腰モータ40および車輪24を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。   Further, the motor control board 78 receives control data from the CPU 72, and controls three angles of the S-axis, T-axis, and U-axis of the head 64 (collectively "head motor" in FIG. 3). The rotation angle of 92 is controlled. Furthermore, the motor control board 78 receives the control data from the CPU 72 and controls the rotation angle of two motors 26 (hereinafter collectively referred to as “wheel motors”) 26 that drive the waist motor 40 and the wheels 24. To do.

なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。   In this embodiment, a motor other than the wheel motor 26 is a stepping motor or a pulse motor in order to simplify the control. However, as with the wheel motor 26, a DC motor may be used.

センサ入力/出力ボード80もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU72に与える。すなわち、超音波距離センサ32のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード80を通してCPU72に入力される。また、全方位カメラ42からの映像信号が、必要に応じてこのセンサ入力/出力ボード80で所定の処理を施された後、CPU72に入力される。眼カメラ48からの映像信号も、同様にして、CPU72に入力される。また、上述した複数のタッチセンサ(図3では、まとめて「タッチセンサ58」と示す。)、および衝突センサ28からの信号がセンサ入力/出力ボード80を介してCPU72に与えられる。さらに、上述した、温度センサ100、湿度センサ102、汚れセンサ104および臭いセンサ106などの各種環境状況を検出する環境センサ100〜106からの信号も、同様にして、CPU72に与えられる。   Similarly, the sensor input / output board 80 is also constituted by a DSP, and takes in signals from each sensor and gives them to the CPU 72. That is, data relating to the reflection time from each of the ultrasonic distance sensors 32 is input to the CPU 72 through the sensor input / output board 80. Further, a video signal from the omnidirectional camera 42 is input to the CPU 72 after being subjected to predetermined processing by the sensor input / output board 80 as required. Similarly, the video signal from the eye camera 48 is also input to the CPU 72. Further, the plurality of touch sensors described above (collectively indicated as “touch sensor 58” in FIG. 3) and signals from the collision sensor 28 are provided to the CPU 72 via the sensor input / output board 80. Furthermore, signals from the environmental sensors 100 to 106 that detect various environmental conditions such as the temperature sensor 100, the humidity sensor 102, the dirt sensor 104, and the odor sensor 106 described above are also given to the CPU 72 in the same manner.

音声入力/出力ボード82もまた、同様に、DSPで構成され、CPU72から与えられる音声合成データに従った音声または声がスピーカ66から出力される。また、マイク46からの音声入力が、音声入力/出力ボード82を介してCPU72に取り込まれる。   Similarly, the voice input / output board 82 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the CPU 72 is output from the speaker 66. Also, the voice input from the microphone 46 is taken into the CPU 72 via the voice input / output board 82.

また、CPU72は、バス74を介して通信LANボード94に接続される。通信LANボード94は、DSPで構成され、CPU72から送られる送信データを無線通信装置96に与え、無線通信装置96から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介して外部コンピュータに送信させる。また、通信LANボード94は、無線通信装置96を介してデータを受信し、受信したデータをCPU72に与える。つまり、この通信LANボード94および無線通信装置96によって、ロボット10は外部コンピュータなどと無線通信を行うことができる。   The CPU 72 is connected to the communication LAN board 94 via the bus 74. The communication LAN board 94 is configured by a DSP, gives transmission data sent from the CPU 72 to the wireless communication device 96, and transmits the transmission data from the wireless communication device 96 to the wireless communication device 96 via a network such as a wireless LAN, although not shown. To send to an external computer. The communication LAN board 94 receives data via the wireless communication device 96 and gives the received data to the CPU 72. That is, the communication LAN board 94 and the wireless communication device 96 allow the robot 10 to perform wireless communication with an external computer or the like.

赤外線信号送信装置98は、バス74を介してCPU72に接続される。CPU72は、電気機器を制御するための制御信号を生成し、これを赤外線信号送信装置98に与える。赤外線信号送信装置(赤外線発光装置)98は、CPU72から与えられた制御信号を赤外線信号に変換し、各電気機器A−Eに送信する。   The infrared signal transmission device 98 is connected to the CPU 72 via the bus 74. The CPU 72 generates a control signal for controlling the electric device and gives it to the infrared signal transmitting device 98. The infrared signal transmitting device (infrared light emitting device) 98 converts the control signal given from the CPU 72 into an infrared signal and transmits it to each electrical device AE.

なお、図示は省略するが、各電気機器は配置位置(高さや方向)が異なるため、赤外線信号を各電気機器に確実に受信させるために、赤外線の送信部(発光部)はロボット10の複数箇所に設けるようにする必要がある。   Although illustration is omitted, since each electric device has a different arrangement position (height and direction), in order to reliably receive an infrared signal to each electric device, an infrared transmission unit (light emitting unit) includes a plurality of robots 10. It is necessary to provide it at the place.

さらに、CPU72は、バス74を介して地図情報データベース(以下、単に「地図DB」という。)110に接続される。地図DB110は、ロボット10を配置する領域(空間)についての地図のデータ(地図データ)を記憶するためのデータベースである。この実施例では、地図データは、大領域と小領域とに分けて管理される。たとえば、図4(A)に示すように、地図データは、ロボット10が配置される屋内に設けられる部屋単位のように大領域で分割され、さらに、図4(B)に示すように、各部屋において、たとえばX[cm]×Y[cm]の小領域に分割される。具体的には、ロボット10が配置される屋内には、部屋Rx(R1,R2,…,RN-1,RN)が存在し、或る部屋Rxは、複数の小領域RxAy(RxA1,RxA2,…,RxAM)に分割される。ただし、図4(B)では、変数xがNの場合について示してある。   Further, the CPU 72 is connected to a map information database (hereinafter simply referred to as “map DB”) 110 via a bus 74. The map DB 110 is a database for storing map data (map data) for an area (space) in which the robot 10 is placed. In this embodiment, the map data is managed by dividing it into a large area and a small area. For example, as shown in FIG. 4 (A), the map data is divided into large areas such as a room unit provided indoors where the robot 10 is arranged. Further, as shown in FIG. In the room, for example, it is divided into small areas of X [cm] × Y [cm]. Specifically, a room Rx (R1, R2,..., RN-1, RN) exists inside the robot 10 and a certain room Rx includes a plurality of small areas RxAy (RxA1, RxA2, ... RxAM). However, FIG. 4B shows a case where the variable x is N.

なお、この実施例では、XおよびYは同じ値(たとえば、30)に設定してあるが、XおよびYは異なる値であってもよい。   In this embodiment, X and Y are set to the same value (for example, 30), but X and Y may be different values.

このような構成のロボット10は、上述したように、電気機器が設置されたオフィスや家庭などの屋内(3次元空間内)に配置される。ロボット10は、温度センサ100、湿度センサ102、汚れセンサ104および臭いセンサ106(これらをまとめて、「環境センサ」と呼ぶことがある。)の検出結果に基づいて、自身の近傍の環境状況(室内の環境)を認識する。つまり、ロボット10の現在位置(部屋ないしその中の或る領域)における温度や湿度を知ることができ、また、床や空気の汚れを知ることもできる。   As described above, the robot 10 having such a configuration is disposed indoors (in a three-dimensional space) such as an office or a home in which electric devices are installed. Based on the detection results of the temperature sensor 100, the humidity sensor 102, the dirt sensor 104, and the odor sensor 106 (these may be collectively referred to as “environmental sensors”), the robot 10 Recognize the indoor environment). That is, it is possible to know the temperature and humidity at the current position of the robot 10 (the room or a certain region in the room), and it is also possible to know the dirt on the floor and air.

ロボット10は、予め設定された温度(設定温度Ts)に環境状況(室温)が調整されるように、エアコンAを制御する。具体的には、ロボット10は、温度センサ100で検出された温度(検出温度)Tと設定温度Tsとを比較し、その比較結果に基づいて、検出温度Tと設定温度Tsとが一致するように、運転/停止(電源をオン/オフ)、運転切換(たとえば、冷房、暖房、除湿など)および温度の設定などについての制御信号をエアコンAに送信する。   The robot 10 controls the air conditioner A so that the environmental condition (room temperature) is adjusted to a preset temperature (set temperature Ts). Specifically, the robot 10 compares the temperature (detected temperature) T detected by the temperature sensor 100 with the set temperature Ts, and based on the comparison result, the detected temperature T matches the set temperature Ts. In addition, control signals for operation / stop (power on / off), operation switching (for example, cooling, heating, dehumidification, etc.) and temperature setting are transmitted to the air conditioner A.

また、ロボット10は、予め設定された湿度(設定湿度Ss)に環境状況(部屋の湿度)が調整されるように、加湿器Dまたは除湿機Eを制御する。具体的には、ロボット10は、湿度センサ102で検出された湿度(検出湿度)Sと設定湿度Ssとを比較し、その比較結果に基づいて、検出湿度Sと設定湿度Ssとが一致するように、運転/停止(電源をオン/オフ)や強さ(強,中,弱など)などについての制御信号を、加湿器Dや除湿機Eに送信する。   Further, the robot 10 controls the humidifier D or the dehumidifier E so that the environmental condition (room humidity) is adjusted to a preset humidity (set humidity Ss). Specifically, the robot 10 compares the humidity (detected humidity) S detected by the humidity sensor 102 with the set humidity Ss, and based on the comparison result, the detected humidity S and the set humidity Ss match. In addition, control signals for operation / stop (power on / off) and strength (strong, medium, weak, etc.) are transmitted to the humidifier D and the dehumidifier E.

さらに、ロボット10は、汚れセンサ104で検出された汚れの度合い(汚れ検出値)Yと設定された汚れの度合い(汚れ設定値)Ysとを比較し、その比較結果に基づいて、汚れ値Yが汚れ設定値Ysよりも小さくなるように、運転/停止(電源をオン/オフ)および掃除する部屋Rx(領域RxAy)の指定などについての制御信号を全自動掃除機Bに送信する。   Further, the robot 10 compares the degree of dirt (dirt detection value) Y detected by the dirt sensor 104 with the set degree of dirt (dirt set value) Ys, and based on the comparison result, the dirt value Y Control signal for operating / stopping (power supply on / off) and designating the room Rx (region RxAy) to be cleaned is transmitted to the fully automatic cleaner B so that becomes smaller than the dirt set value Ys.

さらにまた、ロボット10は、臭いセンサ106で検出された臭い(空気の汚れ)の度合い(臭い検出値)Nと設定された臭いの強度(臭い設定値)Nsとを比較し、その比較結果に基づいて、臭い検出値Nが臭い設定値Nsよりも小さくなるように、運転/停止(電源をオン/オフ)および強度などについての制御信号を空気清浄機Cに送信する。   Furthermore, the robot 10 compares the degree (odor detection value) N of the odor (air dirt) detected by the odor sensor 106 with the set odor intensity (odor setting value) Ns, and the comparison result is obtained. Based on this, a control signal for operation / stop (power on / off) and intensity is transmitted to the air cleaner C so that the odor detection value N is smaller than the odor setting value Ns.

なお、エアコンAが空気清浄機能を有する場合には、空気清浄機Cを設ける必要はなく、かかる場合には、空気清浄機Cに代えて、当該エアコンAを制御すればよい。   When the air conditioner A has an air purifying function, it is not necessary to provide the air purifier C. In such a case, the air conditioner A may be controlled instead of the air purifier C.

また、上述した設定温度Ts、設定湿度Ss、汚れ設定値Ysおよび臭い設定値Nsは、人間14にとって快適な環境となるための値であり、実験などにより経験的に得られる値である。したがって、そのような設定値Ts,Ss,Ys,Nsは、このロボット10が適用される環境(季節を含む。)に応じて可変的に設定される。   The set temperature Ts, the set humidity Ss, the dirt set value Ys, and the odor set value Ns described above are values for creating a comfortable environment for the human 14 and are obtained empirically through experiments and the like. Accordingly, such set values Ts, Ss, Ys, and Ns are variably set according to the environment (including seasons) to which the robot 10 is applied.

上述したように、ロボット10は、自律移動(自走)可能であり、また、人間14との間でコミュニケーション行動を実行することも可能である。したがって、この実施例では、ロボット10は、人間14を探索し、探索した結果、人間14を検出(検知)すれば、当該人間14に追従し(追従行動)、追従行動しながら環境状況を検出し、必要に応じて、各電気機器を制御する。ただし、探索した結果、複数の人間14を検知した場合には、所定のルールに従って、いずれか1人の人間14を追従する。たとえば、所定のルールに従って1人の人間14を選択する方法としては、たとえば、ランダムに1人の人間14を選択したり、最初に検出または最後に検出した人間14を選択したり、各人間14に対して優先度をつけておき、その優先度が最大または最小の人間14を選択したりすることが考えられる。また、全ての部屋Rxおよび全ての領域RxAyを探索した結果、人間14を検出しなかった場合や、人間を検出しても当該検出した人間に追従行動を拒否された場合は、ロボット10は単独で行動(単独行動)しながら環境状況を検出し、必要に応じて、各電気機器を制御する。   As described above, the robot 10 is capable of autonomous movement (self-propelled) and can also perform communication behavior with the human 14. Therefore, in this embodiment, the robot 10 searches for the human 14, and if the human 14 is detected (detected) as a result of the search, the robot 10 follows the human 14 (following behavior) and detects the environmental situation while following the human being. Then, each electric device is controlled as necessary. However, when a plurality of humans 14 are detected as a result of the search, any one human 14 is followed according to a predetermined rule. For example, as a method of selecting one person 14 according to a predetermined rule, for example, one person 14 is selected at random, the person 14 detected first or last is selected, or each person 14 is selected. It is conceivable that a priority is assigned to the person 14 and the person 14 having the highest or lowest priority is selected. Further, as a result of searching all the rooms Rx and all the regions RxAy, if the human 14 is not detected, or if the detected human is rejected by the detected human even if the human is detected, the robot 10 alone Detects environmental conditions while acting (single action), and controls each electrical device as necessary.

また、この実施例では、人間14を探索する場合や単独行動で自律移動(自走)する場合には、部屋Rxを順番に(R1,R2,R3,…,RN)回るとともに、各部屋Rxにおいても領域RxAyを順番に(RxA1,RxA2,RxA3,…,RxAM)回る。このとき、地図データが参照される。   Further, in this embodiment, when searching for the human 14 or autonomously moving (self-propelled) by a single action, the room Rx is rotated in order (R1, R2, R3,..., RN) and each room Rx. , The region RxAy is sequentially rotated (RxA1, RxA2, RxA3,..., RxAM). At this time, map data is referred to.

たとえば、ロボット10は、部屋R1の左上の位置(たとえば、入り口の扉付近)に配置され、当該位置を原点(基準位置)として、地図データを参照しながら自律移動する。したがって、ロボット10は、現在どの領域にいるのかを容易に把握することができ、また、別の領域に容易に移動することもできる。   For example, the robot 10 is arranged at the upper left position of the room R1 (for example, near the entrance door), and moves autonomously with reference to the map data with the position as the origin (reference position). Therefore, the robot 10 can easily grasp which area it is currently in, and can easily move to another area.

なお、この実施例では、地図データを予め地図DB110に記憶するようにしてあるが、ロボット10の各種センサ、たとえば、超音波距離センサ32や全方位カメラ42を用いて検出した検出データに基づいて、ロボット10自らが地図データを作成し、地図DB110に記憶させるようにしてもよい。   In this embodiment, the map data is stored in the map DB 110 in advance, but based on detection data detected using various sensors of the robot 10, such as the ultrasonic distance sensor 32 and the omnidirectional camera 42. Alternatively, the robot 10 itself may create map data and store it in the map DB 110.

また、上述したように、ロボット10は人間14を検出する。詳細な説明は省略するが、単に人間14を検出する場合には、ロボット10の全方位カメラ42や眼カメラ48からの映像に基づいて判断することができる。ただし、映像処理により、人間14を検出する場合には、処理が膨大になるため、たとえば、人間14の衣服に特定のマーク(文字、記号、図形など)を付しておき、当該マークに基づいて人間14を検出することができる。また、人間14に無線タグを所持ないし装着しておき、ロボット10に無線タグからの信号を受信する装置を設けておけば、人間14を簡単に検出することができる。さらに、上述したマークや無線タグの識別情報を各人間14で異なるようにしておき、その情報をロボット10内部のデータベースないしはロボット10がアクセス可能に外部に接続したデータベースに記憶しておくことにより、個別に人間14を検出することもできる。   Further, as described above, the robot 10 detects the human 14. Although detailed description is omitted, when the human 14 is simply detected, the determination can be made based on the video from the omnidirectional camera 42 or the eye camera 48 of the robot 10. However, when the human 14 is detected by video processing, the processing becomes enormous. For example, a specific mark (a character, a symbol, a figure, or the like) is attached to the clothes of the human 14 and, based on the mark. Thus, the human 14 can be detected. In addition, if the person 14 has or attaches a wireless tag and the robot 10 is provided with a device that receives a signal from the wireless tag, the person 14 can be easily detected. Further, the identification information of the mark and the wireless tag described above is made different for each person 14, and the information is stored in a database inside the robot 10 or a database connected to the outside so that the robot 10 can access, The human 14 can also be detected individually.

具体的には、図3に示したCPU72が図5に示すフロー図に従って全体処理を実行する。図5に示すように、CPU72は全体処理を開始すると、まず、ステップS1で、初期化を実行する。具体的には、変数IsRxに「0」を代入(設定)し、変数xに「1」を代入する。ここで、変数IsRxは、当該部屋Rxを探索したか否かを判別するための変数(フラグ)である。したがって、部屋Rxを探索していない場合には変数IsRxに「0」が設定され、当該部屋Rxを探索した場合には変数IsRxに「1」が設定される。また、変数xは各部屋を識別するための番号であり、1〜Nで設定される。上述したように、この実施例では、各部屋Rxを順番に回るようにしてあるため、初期化する場合には、変数xに「1」が代入される。以下、初期化する場合において同じ処理が実行される。   Specifically, the CPU 72 shown in FIG. 3 executes the entire process according to the flowchart shown in FIG. As shown in FIG. 5, when the CPU 72 starts the entire process, first, initialization is executed in step S1. Specifically, “0” is assigned (set) to the variable IsRx, and “1” is assigned to the variable x. Here, the variable IsRx is a variable (flag) for determining whether or not the room Rx has been searched. Therefore, “0” is set to the variable IsRx when the room Rx is not searched, and “1” is set to the variable IsRx when the room Rx is searched. The variable x is a number for identifying each room and is set from 1 to N. As described above, in this embodiment, since each room Rx is rotated in order, “1” is assigned to the variable x when initialization is performed. Thereafter, the same processing is executed in initialization.

次のステップS3では、人間14からの停止命令があるか否かを判断する。停止命令は、たとえば、音声により入力してもよいし、ロボット10に停止命令用のボタンを設けておき、これを操作してもよいし、外部コンピュータからロボット10に停止命令のコマンドを送信するようにしてもよい。ステップS3で“YES”であれば、つまり、人間14からの停止命令が有れば、そのまま一連の動作を終了する。一方、ステップS3で“NO”であれば、つまり、人間14からの停止命令が無ければ、ステップS5で、変数IsRxに「0」が設定されているかどうかを判断する。   In the next step S3, it is determined whether or not there is a stop command from the human 14. The stop command may be input by voice, for example, a stop command button may be provided on the robot 10 and operated, or a stop command command is transmitted to the robot 10 from an external computer. You may do it. If “YES” in the step S3, that is, if there is a stop command from the human 14, the series of operations is ended as it is. On the other hand, if “NO” in the step S3, that is, if there is no stop command from the human 14, in a step S5, it is determined whether or not “0” is set in the variable IsRx.

ステップS5で“NO”であれば、つまり、変数IsRxに「1」が設定されていれば、部屋Rxはすでに探索したと判断し、ステップS7で、変数xをインクリメント(x=x+1)して、ステップS5に戻る。つまり、次の部屋Rxについての判断を行う。一方、ステップS5で“YES”であれば、つまり、変数IsRxに「0」が設定されていれば、部屋Rxはまだ探索していないと判断し、ステップS9に進む。   If “NO” in the step S5, that is, if the variable IsRx is set to “1”, it is determined that the room Rx has already been searched, and the variable x is incremented (x = x + 1) in a step S7. Return to step S5. In other words, the next room Rx is determined. On the other hand, if “YES” in the step S5, that is, if the variable IsRx is set to “0”, it is determined that the room Rx has not been searched yet, and the process proceeds to the step S9.

ステップS9では、変数xがN以下であるかどうかを判断する。ここで、変数xは1からNまでの整数であり、変数xがNより大きくなるということは、ロボット10が全ての部屋Rxを探索したことを意味する。以下、ロボット10が探索する場合において、同様である。変数xがN以下である場合、つまり探索していない部屋Rxが存在する場合、ステップS9で“YES”となり、ステップS11で、部屋Rxへ移動する。具体的には、ステップS11では、CPU72は、車輪モータ26を駆動制御して、現在位置から部屋Rxに移動する。このとき、CPU72は、地図DB110に記憶された地図データを参照して、移動方向および距離を決定し、これらに応じた制御信号をモータ制御ボード78に与える。   In step S9, it is determined whether the variable x is N or less. Here, the variable x is an integer from 1 to N, and the variable x being larger than N means that the robot 10 has searched all the rooms Rx. The same applies when the robot 10 searches. If the variable x is N or less, that is, if there is a room Rx that has not been searched, “YES” is determined in the step S9, and the process moves to the room Rx in a step S11. Specifically, in step S11, the CPU 72 drives and controls the wheel motor 26 to move from the current position to the room Rx. At this time, the CPU 72 refers to the map data stored in the map DB 110 to determine the moving direction and distance, and gives a control signal corresponding to these to the motor control board 78.

次に、ステップS13では、変数IsRxに「1」を代入する。続いて、ステップS15で、部屋Rxに人間14が存在するか否かを判断する。人間14が存在するか否かの判断手法は上述したとおりであるため、重複する説明は省略する。ステップS15で“NO”であれば、すなわち部屋Rxに人間14が存在しない場合には、そのままステップS7に進む。一方、ステップS15で“YES”であれば、すなわち部屋Rxに人間14が存在する場合には、ステップS17で、検知した人間14の近く(たとえば、人間14との距離が1m程度)まで移動し、ステップS19に進む。   Next, in step S13, “1” is substituted into the variable IsRx. Subsequently, in step S15, it is determined whether or not a person 14 exists in the room Rx. Since the method for determining whether or not the human 14 exists is as described above, a duplicate description is omitted. If “NO” in the step S15, that is, if the person 14 does not exist in the room Rx, the process proceeds to the step S7 as it is. On the other hand, if “YES” in the step S15, that is, if the person 14 exists in the room Rx, the person moves to the vicinity of the detected person 14 (for example, the distance to the person 14 is about 1 m) in the step S17. The process proceeds to step S19.

なお、詳細な説明は省略するが、人間14の近くまで移動する場合には、CPU72は、車輪モータ26を駆動制御するとともに、超音波距離センサ32の出力に基づいて人間14との距離を測定する。以下、人間14に接近する場合についても同様である。   Although detailed explanation is omitted, when moving close to the human 14, the CPU 72 controls the driving of the wheel motor 26 and measures the distance to the human 14 based on the output of the ultrasonic distance sensor 32. To do. Hereinafter, the same applies to the case of approaching the human 14.

ステップS19では、ロボット10は、検知した人間14から離れる指示があるかどうかを判断する。ここで、離れる指示は、音声により入力されてもよく、当該離れる指示を入力するためのボタンをロボット10に設けておき、それを操作されてもよい。たとえば、人間14が“離れて”や“ばいばい”などとロボット10に向けて発話した場合に、これを認識(音声認識)して、離れる指示が入力されたと判断することができる。また、上述したように、ロボット10は、複数のタッチセンサ58を備えているため、たとえば、背中を連続して2度触れられた場合に、CPU72はタッチセンサ58の出力により、これを検出して、離れる指示が入力されたと判断することもできる。これらは単なる例示であり、いずれか1つの方法を採用すればよく、また、2つ以上の方法を採用するようにしてもよい。   In step S <b> 19, the robot 10 determines whether there is an instruction to leave the detected human 14. Here, the instruction to leave may be input by voice, or a button for inputting the instruction to leave may be provided on the robot 10 and operated. For example, when the human 14 utters “separate” or “fuzzy” toward the robot 10, it can be recognized (voice recognition) and it can be determined that an instruction to leave is input. As described above, since the robot 10 includes the plurality of touch sensors 58, for example, when the back is touched twice in succession, the CPU 72 detects this by the output of the touch sensor 58. Thus, it can be determined that an instruction to leave is input. These are merely examples, and any one method may be employed, and two or more methods may be employed.

ステップS19で“YES”であれば、すなわち、人間14から離れる指示が有る場合には、ステップS23に進む。一方、ステップS19で“NO”であれば、すなわち、人間14から離れる指示が無い場合には、ステップS21で、当該人間14への追従行動処理を実行し、ステップS1に戻る。なお、追従行動処理(図6参照)については後述する。   If “YES” in the step S19, that is, if there is an instruction to leave the person 14, the process proceeds to a step S23. On the other hand, if “NO” in the step S19, that is, if there is no instruction to leave the person 14, a follow-up action process for the person 14 is executed in a step S21, and the process returns to the step S1. The follow-up action process (see FIG. 6) will be described later.

また、ステップS9で“NO”であれば、つまり変数xがNを超えれば、全ての部屋Rxについて探索したと判断し、ステップS23で、初期化を実行する。初期化については、ステップS1で説明した内容と同じであるため、重複した説明は省略する。そして、ステップS25で、単独行動処理を実行し、ステップS1に戻る。なお、単独行動処理(図7参照)については後述する。   If “NO” in the step S9, that is, if the variable x exceeds N, it is determined that all the rooms Rx have been searched, and initialization is executed in a step S23. Since the initialization is the same as that described in step S1, duplicate description is omitted. In step S25, the single action process is executed, and the process returns to step S1. The single action process (see FIG. 7) will be described later.

図6は、図5に示したステップS21の追従行動処理を示すフロー図である。図6に示すように、CPU72は、追従行動処理を開始すると、ステップS31で、人間による停止命令が有るかどうかを判断する。ステップS31で“YES”であれば、つまり停止命令が有れば、そのまま処理を終了する。一方、ステップS31で“NO”であれば、つまり停止命令が無ければ、ステップS33で、人間14から離れる指示が有るかどうかを判断する。ステップS33で“YES”であれば、つまり人間14から離れる指示が有れば、単独行動処理へ移行する。一方、ステップS33で“NO”であれば、つまり人間14から離れる指示が無ければ、ステップS35で、距離Distが予め設定された距離(設定距離)MaxDist未満であるかどうかを判断する。ここで、距離Distは、人間14とロボット10との距離であり、超音波距離センサ32で測定される。設定距離MaxDistは、ロボット10が人間14を追従するための最大距離(たとえば、1m)である。   FIG. 6 is a flowchart showing the follow-up action process in step S21 shown in FIG. As shown in FIG. 6, when starting the follow-up action process, the CPU 72 determines whether or not there is a stop instruction by a human in step S31. If “YES” in the step S31, that is, if there is a stop command, the process is ended as it is. On the other hand, if “NO” in the step S31, that is, if there is no stop command, it is determined whether or not there is an instruction to leave the person 14 in a step S33. If “YES” in the step S33, that is, if there is an instruction to leave the person 14, the process proceeds to a single action process. On the other hand, if “NO” in the step S33, that is, if there is no instruction to leave the person 14, it is determined whether or not the distance Dist is less than a preset distance (set distance) MaxDist in a step S35. Here, the distance Dist is the distance between the human 14 and the robot 10 and is measured by the ultrasonic distance sensor 32. The set distance MaxDist is the maximum distance (for example, 1 m) for the robot 10 to follow the human 14.

ステップS35で“NO”であれば、つまり距離Distが設定距離MaxDist以上であれば、人間14から離れ過ぎていると判断し、当該人間14に追従すべく、ステップS37で、当該人間14に接近して、ステップS35に戻る。一方、ステップS35で“YES”であれば、つまり距離Distが設定距離MaxDist未満であれば、ステップS39で、後述する環境状況の検出および電気機器の制御(図8参照)を実行して、ステップS41に進む。   If “NO” in the step S 35, that is, if the distance Dist is equal to or larger than the set distance MaxDist, it is determined that the person 14 is too far away, and the person 14 is approached in the step S 37 in order to follow the person 14. Then, the process returns to step S35. On the other hand, if “YES” in the step S35, that is, if the distance Dist is less than the set distance MaxDist, in a step S39, an environmental condition detection and electrical device control (see FIG. 8) described later are executed, Proceed to S41.

ステップS41では、人間14が存在するかどうか判断する。つまり、追従している人間14を見失っていないかどうかを判断する。ステップS41で“NO”であれば、つまり人間14が存在しなければ、当該人間を見失ったと判断して、追従行動処理をリターンする。一方、ステップS41で“YES”であれば、つまり人間14が存在すれば、ステップS43で、人間14が移動したかどうかを判断する。ここでは、超音波距離センサ32によって検出される距離Distに変化があるかどうかを判断する。ステップS43で“YES”であれば、つまり人間14が移動すれば、これに追従すべく、そのままステップS31に戻る。一方、ステップS43で“NO”であれば、つまり人間14が移動していなければ、そこに留まるべく、ステップS45で、一定時間待機行動してから、ステップS31に戻る。たとえば、ステップS45では、一定時間(たとえば、数十秒)同じ位置に留まり、周囲を見渡すように、首(頭部)を左右に回動させる。   In step S41, it is determined whether or not the human 14 exists. That is, it is determined whether or not the following human 14 is lost. If “NO” in the step S41, that is, if the human 14 does not exist, it is determined that the human is lost, and the follow-up action process is returned. On the other hand, if “YES” in the step S41, that is, if the human 14 exists, it is determined whether or not the human 14 has moved in a step S43. Here, it is determined whether there is a change in the distance Dist detected by the ultrasonic distance sensor 32. If “YES” in the step S43, that is, if the human 14 moves, the process returns to the step S31 as it is to follow the movement. On the other hand, if “NO” in the step S43, that is, if the human 14 is not moving, in order to stay there, in a step S45, a standby action is performed for a predetermined time, and then the process returns to the step S31. For example, in step S45, the neck (head) is rotated left and right so as to remain at the same position for a certain time (for example, several tens of seconds) and look around.

このように、追従行動をしながら、環境状況を検出し、必要に応じて電気機器を制御するので、或る特定の場所に固定されたセンサを用いて環境状況を検出する場合と異なり、人間14が存在する空間の環境を整えたり、快適に保ったりすることができる。   In this way, the environmental situation is detected while following the behavior, and the electrical equipment is controlled as necessary. Therefore, unlike the case where the environmental situation is detected using a sensor fixed at a specific location, human beings are used. The environment of the space where 14 exists can be arranged or can be kept comfortable.

図7は、図5に示したステップS25の単独行動処理を示すフロー図である。図7に示すように、CPU72は単独行動処理を開始すると、ステップS51で、人間14による停止命令があるかどうかを判断する。ステップS51で“YES”であれば、つまり人間14による停止命令が有れば、そのまま処理を終了する。一方、ステップS51で“NO”であれば、つまり停止命令が無ければ、ステップS53で、変数IsRxに「0」が設定されているかどうかを判断する。ステップS53で“NO”であれば、つまり変数IsRxに「1」が設定されている場合には、部屋Rxを既に探索したと判断して、ステップS55で、変数xをインクリメントして、ステップS51に戻る。一方、ステップS53で“YES”であれば、つまり変数IsRxに「0」が設定されている場合には、すなわち、この部屋Rxをまだ探索していないと判断し、ステップS57で、変数xがN以下であるかどうかを判断する。ステップS57で“NO”であれば、つまり変数xがNを超えている場合には、全ての部屋Rxを探索したと判断し、ステップS59で、一定時間待機行動し、単独行動処理をリターンする。ここでは、上述した追従行動における待機行動とは異なり、人間14を追従する必要はないため、比較的長い時間待機することができる。したがって、たとえば、ロボット10は、一定時間(5〜10分)同じ位置に留まり、周囲を見渡すように、首(頭部)を左右に回動させる。また、ロボット10は、「暇だな」のような音声を発することにより、周囲に存在する人間14に呼びかけたりする。或いは、ロボット10は、歌を歌ったり、周辺を移動(うろうろ)したりするなどして、一人遊びする。   FIG. 7 is a flowchart showing the single action process of step S25 shown in FIG. As shown in FIG. 7, when starting the single action process, the CPU 72 determines whether or not there is a stop command from the human 14 in step S51. If “YES” in the step S51, that is, if there is a stop command by the human 14, the process is ended as it is. On the other hand, if “NO” in the step S51, that is, if there is no stop command, it is determined whether or not “0” is set in the variable IsRx in a step S53. If “NO” in the step S53, that is, if “1” is set in the variable IsRx, it is determined that the room Rx has already been searched, the variable x is incremented in a step S55, and the step S51 is performed. Return to. On the other hand, if “YES” in the step S53, that is, if the variable IsRx is set to “0”, that is, it is determined that the room Rx has not been searched yet, and the variable x is determined in the step S57. Judge whether it is N or less. If “NO” in the step S57, that is, if the variable x exceeds N, it is determined that all the rooms Rx have been searched. In a step S59, the waiting action is performed for a predetermined time, and the single action process is returned. . Here, unlike the standby action in the follow-up action described above, it is not necessary to follow the human 14 and therefore it is possible to wait for a relatively long time. Therefore, for example, the robot 10 stays at the same position for a fixed time (5 to 10 minutes) and rotates the neck (head) left and right so as to look around. Further, the robot 10 calls out to the humans 14 existing in the surrounding area by uttering a voice such as “I am free”. Alternatively, the robot 10 plays alone, for example, by singing a song or moving around.

また、ステップS57で“YES”であれば、つまり変数xがN以下であれば、ステップS61で、部屋Rxに移動する。そして、ステップS63で、変数IsRxAyに「0」が設定されているかどうかを判断する。ここで、変数IsRxAyは、部屋Rxにおける領域RxAyを探索したか否かを判断するための変数(フラグ)である。部屋Rxの領域RxAyを探索した場合には、変数IsRxAyには「1」が設定され、まだ探索していない場合には、変数IsRxAyには「0」が設定される。   If “YES” in the step S57, that is, if the variable x is N or less, the process moves to the room Rx in a step S61. In step S63, it is determined whether or not “0” is set in the variable IsRxAy. Here, the variable IsRxAy is a variable (flag) for determining whether or not the region RxAy in the room Rx has been searched. When the area RxAy of the room Rx is searched, “1” is set to the variable IsRxAy, and “0” is set to the variable IsRxAy when the search is not yet performed.

ステップS63で“NO”であれば、つまりIsRxAyに「1」が設定されていれば、部屋Rxの領域RxAyを既に探索したと判断して、ステップS65で、変数yをインクリメントして、ステップS63に戻る。一方、ステップS63で“YES”であれば、つまり変数IsRxAyに0が設定されていれば、部屋Rxの領域RxAyをまだ探索していないと判断して、ステップS67で、変数yがM以下であるかどうかを判断する。ここで、変数yは1からMまでの整数であり、変数yがMを超えれば、或る部屋Rxの全ての領域RxAyを探索したことを意味する。   If “NO” in the step S63, that is, if “1” is set in the IsRxAy, it is determined that the area RxAy of the room Rx has already been searched, the variable y is incremented in the step S65, and the step S63 is performed. Return to. On the other hand, if “YES” in the step S63, that is, if the variable IsRxAy is set to 0, it is determined that the region RxAy of the room Rx has not been searched yet, and the variable y is equal to or less than M in the step S67. Determine if there is. Here, the variable y is an integer from 1 to M. If the variable y exceeds M, it means that all areas RxAy of a certain room Rx have been searched.

ステップS67で“NO”であれば、つまり変数yがMを超える場合には、或る部屋Rxの全ての領域RxAyを探索したと判断して、ステップS69で、変数IsRxに「1」を設定し、変数xをインクリメントし、変数yに初期値「1」を設定して、ステップS51に戻り、次の部屋Rxについて探索を行う。一方、ステップS67で“YES”であれば、つまり変数yがM以下であれば、或る部屋Rxの領域RxAyをまだ探索していないと判断して、ステップS71で、部屋Rxの領域RxAyへ移動する。次にステップS73で、環境状況の検出および電気機器の制御処理を実行し、ステップS75で、変数IsRxAyに「1」を設定し、変数yをインクリメントして、ステップS63に戻り、次の領域RxAyについて探索を行う。   If “NO” in the step S67, that is, if the variable y exceeds M, it is determined that all the regions RxAy of the room Rx are searched, and “1” is set to the variable IsRx in a step S69. Then, the variable x is incremented, the initial value “1” is set in the variable y, the process returns to step S51, and the next room Rx is searched. On the other hand, if “YES” in the step S67, that is, if the variable y is equal to or less than M, it is determined that the area RxAy of a certain room Rx has not been searched, and the area RxAy of the room Rx is determined in a step S71. Moving. Next, in step S73, environmental status detection and electrical device control processing are executed. In step S75, "1" is set to the variable IsRxAy, the variable y is incremented, and the process returns to step S63 to return to the next region RxAy. Search for.

このように、ロボット10は、単独行動により、全ての部屋Rxの全ての領域Ryを探索するので、局所的な環境の異常(たとえば、温度や湿度の高低、床や空気の汚れ)を検出することができ、人間14の手を煩わすことなく、快適な環境に調整したり、快適な環境を保ったりすることができる。   As described above, the robot 10 searches for all the regions Ry in all the rooms Rx by a single action, so that it detects a local environmental abnormality (for example, temperature and humidity levels, floor and air contamination). Therefore, it is possible to adjust to a comfortable environment or maintain a comfortable environment without bothering the human 14.

図8は、図6に示したステップS39および図7に示したステップS73の環境状況の検出および電気機器の制御処理を示すフロー図である。図8に示すように、CPU72は環境状況の検出および電気機器の制御処理を開始すると、ステップS81において、環境センサ100〜106の出力を検出する。つまり、CPU72は、検出温度T、検出湿度S、汚れ検出値Yおよび臭い検出値Nを取得する。   FIG. 8 is a flowchart showing the environmental state detection and electrical device control processing in step S39 shown in FIG. 6 and step S73 shown in FIG. As shown in FIG. 8, when the CPU 72 starts the detection of the environmental situation and the control process of the electric device, the CPU 72 detects the outputs of the environmental sensors 100 to 106 in step S81. That is, the CPU 72 acquires the detection temperature T, the detection humidity S, the dirt detection value Y, and the odor detection value N.

続くステップS83では、検出温度Tと設定温度Tsとが等しいかどうかを判断する。ステップS83で“YES”であれば、つまり検出温度Tと設定温度Tsとが等しければ、人間14にとって快適な温度であると判断して、そのままステップS87に進む。一方、検出温度Tと設定温度Tsとが等しくない場合には、人間14にとって快適な温度ではないと判断して、ステップS85で、温度調節機にロボット10の居る領域(RxAy)の温度調整用信号を送信する。具体的には、CPU72は、温度調節機(たとえば、エアコンA)の制御信号を、赤外線信号送信装置98を介して、当該温度調節機に送信する。すると、温度調節機では、電源がオン/オフされたり、設定(目標)温度の設定が変更されたり、風量の強弱の設定が変更されたり、風向などが調節されたりして、人間14にとって快適な温度(設定温度Ts)に調整する。   In a succeeding step S83, it is determined whether or not the detected temperature T is equal to the set temperature Ts. If “YES” in the step S83, that is, if the detected temperature T and the set temperature Ts are equal, it is determined that the temperature is comfortable for the human 14, and the process proceeds to a step S87 as it is. On the other hand, if the detected temperature T and the set temperature Ts are not equal, it is determined that the temperature is not comfortable for the human 14, and in step S 85, the temperature adjustment device is used for temperature adjustment in the region where the robot 10 is located (RxAy). Send a signal. Specifically, the CPU 72 transmits a control signal of the temperature controller (for example, the air conditioner A) to the temperature controller via the infrared signal transmitter 98. Then, in the temperature controller, the power supply is turned on / off, the setting (target) temperature setting is changed, the air flow strength setting is changed, the wind direction is adjusted, etc., so that it is comfortable for the human 14. To a suitable temperature (set temperature Ts).

ステップS87では、検出湿度Sと設定湿度Ssとが等しいかどうかを判断する。ステップS87で“YES”であれば、つまり検出湿度Sと設定湿度Ssとが等しい場合には、人間14にとって快適な湿度であると判断して、そのままステップS91に進む。一方、ステップS87で“NO”であれば、つまり検出湿度Sと設定湿度Ssとが等しくない場合には、人間14にとって快適な湿度ではないと判断して、ステップS89において、湿度調節機(たとえば、加湿器Dや除湿機Eなど)に、ロボット10の居る領域(RxAy)の湿度を調整する湿度調整用信号を送信する。具体的には、CPU72は、湿度調節機(加湿器Dや除湿機E)の制御信号を、赤外線信号送信装置98を介して、当該湿度調節機に送信する。すると、湿度調節機では、電源がオン/オフされたり、除湿の強度や蒸気を排出する強度が調節されたりして、人間14にとって快適な湿度(設定湿度Ss)に調整する。   In step S87, it is determined whether the detected humidity S and the set humidity Ss are equal. If “YES” in the step S87, that is, if the detected humidity S and the set humidity Ss are equal, it is determined that the humidity is comfortable for the human 14, and the process proceeds to a step S91 as it is. On the other hand, if “NO” in the step S87, that is, if the detected humidity S and the set humidity Ss are not equal, it is determined that the humidity is not comfortable for the human 14, and in step S89, a humidity controller (for example, , A humidity adjustment signal for adjusting the humidity of the region (RxAy) where the robot 10 is located is transmitted to the humidifier D and the dehumidifier E). Specifically, the CPU 72 transmits a control signal of the humidity controller (humidifier D or dehumidifier E) to the humidity controller via the infrared signal transmitter 98. Then, in the humidity adjuster, the power is turned on / off, the strength of dehumidification and the strength of exhausting steam are adjusted, and the humidity is adjusted to a comfortable humidity (set humidity Ss) for the human 14.

ステップS91では、汚れ検出値Yが汚れ設定値Ys未満であるかどうかを判断する。また、たとえば、台車22の下面にゴミの吸い込み口を設け、吸い込んだゴミを赤外線センサで検出することにより、床面の汚れを検出するようにしてもよい。ステップS91で“YES”であれば、つまり汚れ検出値Yが汚れ設定値Ys未満であれば、人間14にとって不快となる汚れ(ごみ)は無い(少ない)と判断して、そのままステップS95に進む。一方、ステップS91で“NO”であれば、つまり汚れ検出値Yが汚れ設定値Ys以上であれば、すなわち、人間14にとって不快となる汚れ(ごみ)が有ると判断して、ステップS93において、清掃機に、ロボット10の居る領域(RxAy)の汚れを除去するための清掃開始用信号を送信する。具体的には、CPU72は、清掃機(たとえば、全自動掃除機B)の制御信号を、赤外線信号送信装置98を介して、当該掃除機に送信する。すると、たとえば、全自動掃除機Bが駆動され、不快な汚れが除去され、人間14にとって清潔な環境に調整される。   In step S91, it is determined whether the contamination detection value Y is less than the contamination setting value Ys. Further, for example, a dirt suction port may be provided on the lower surface of the carriage 22, and the dirt on the floor may be detected by detecting the sucked dust with an infrared sensor. If “YES” in the step S91, that is, if the dirt detection value Y is less than the dirt setting value Ys, it is determined that there is no (small) dirt (garbage) that is uncomfortable for the human 14, and the process proceeds to a step S95 as it is. . On the other hand, if “NO” in the step S91, that is, if the dirt detection value Y is greater than or equal to the dirt setting value Ys, that is, it is determined that there is dirt (garbage) that is uncomfortable for the human 14, and in a step S93, A cleaning start signal for removing dirt in the area (RxAy) where the robot 10 is located is transmitted to the cleaner. Specifically, the CPU 72 transmits a control signal of the cleaner (for example, a fully automatic cleaner B) to the cleaner through the infrared signal transmission device 98. Then, for example, the fully automatic vacuum cleaner B is driven, unpleasant dirt is removed, and a clean environment is adjusted for the human 14.

なお、ロボット10が掃除機能を備えるようにして、ロボット10自身が、当該掃除機能を用いて不快な汚れを除去するようにしてもよい。   Note that the robot 10 may have a cleaning function, and the robot 10 itself may remove unpleasant dirt using the cleaning function.

ステップS95では、臭い検出値Nが臭い設定値Ns未満であるかどうかを判断する。ステップS95で“YES”であれば、つまり臭い検出値Nが臭い設定値Ns未満であれば、人間14にとって不快(健康を害する)となる臭いや空気の汚れは無い(少ない)と判断して、そのまま環境状況の検出および電気機器の制御処理をリターンする。一方、ステップS95で“NO”であれば、つまり臭い検出値Nが臭い設定値Ns以上であれば、人間14にとって不快(健康を害する)となる臭いや空気の汚れが有ると判断して、ステップS97で、臭い除去機(たとえば、空気清浄機Cや換気扇)に、ロボット10の居る領域(RxAy)の空気清浄用信号を送信する。具体的には、CPU72は、臭い除去機(たとえば、空気清浄機Cや換気扇)の制御信号を、赤外線信号送信装置98を介して、当該臭い除去機に送信する。すると、臭い除去機が駆動され、不快(健康を害する)となる臭いや空気の汚れが除去され、人間14にとって清潔で心地良い環境に調整される。   In step S95, it is determined whether the odor detection value N is less than the odor setting value Ns. If “YES” in the step S95, that is, if the odor detection value N is less than the odor setting value Ns, it is determined that there is no (small) odor or air pollution that is uncomfortable (damaging to health) for the human 14. As it is, the detection of the environmental condition and the control processing of the electric device are returned. On the other hand, if “NO” in step S95, that is, if the odor detection value N is equal to or greater than the odor setting value Ns, it is determined that there is an odor or air pollution that is uncomfortable (harmful to health) for the human 14, In step S97, an air purifying signal for the area (RxAy) where the robot 10 is located is transmitted to the odor removing machine (for example, the air purifier C or the ventilation fan). Specifically, the CPU 72 transmits a control signal of the odor removing machine (for example, the air purifier C or the ventilation fan) to the odor removing machine via the infrared signal transmitting device 98. Then, the odor removing machine is driven to remove unpleasant (healthy health) odors and air stains, and the human 14 is adjusted to a clean and comfortable environment.

なお、この実施例では、図4(A)および図4(B)に示したように、各部屋の大きさおよび形状を同じにしてあるため、すべての部屋において、領域の数はMであるが、部屋の大きさが異なる場合には、Mの値も変化する。たとえば、地図データにおいて、各部屋毎にMの値を関連付けて記憶しておけば、探索する部屋に応じてMの値を可変的に設定することができる。   In this embodiment, as shown in FIGS. 4A and 4B, since the size and shape of each room are the same, the number of regions is M in all the rooms. However, if the room sizes are different, the value of M also changes. For example, in the map data, if the value of M is stored in association with each room, the value of M can be variably set according to the room to be searched.

この実施例によれば、自律移動可能なロボットに環境センサを設けておき、必要に応じて、ロボットが各電気機器を適切に制御するので、人間の手を煩わすことなく、快適な環境を実現することができる。   According to this embodiment, an environment sensor is provided in a robot that can move autonomously, and the robot appropriately controls each electrical device as necessary, so that a comfortable environment is realized without bothering human hands. can do.

なお、この実施例では、温度センサ、湿度センサ、汚れセンサおよび臭いセンサにより、環境状況を検出し、検出した環境状況に応じて各種電気機器を制御するようにした。しかし、センサや電気機器は上述したものに限定されるべきではない。また、電気機器に限らず、リモコンなどにより制御可能な構成にすれば、他の装置であっても制御することができ、これによって、環境状況を整えることも可能である。たとえば、窓を電気的に開閉可能にしておけば、その自動開閉装置をロボットから送信する赤外線信号によって制御することにより、窓を開けたり、閉めたりすることができる。これにより、温度や湿度を調整することも可能である。また、音センサすなわちマイク(実施例では、46)により周囲の音(騒音)を検出し、その音の大きさに応じて、窓を開閉することもできる。したがって、たとえば、騒音が屋内に入ってきたり、騒音が外に漏れたりすることを防ぐことができる。また、たとえば、照明装置をロボットから送信する赤外線信号によって制御可能にし、ロボットには光センサを設けておく。そして、たとえば、人間に追従してその周辺の明るさを検出し、照明装置をオン/オフしたり、その明るさを調整したりすることにより、人間付近の明るさを一定に保つことができる。   In this embodiment, an environmental condition is detected by a temperature sensor, a humidity sensor, a dirt sensor, and an odor sensor, and various electric devices are controlled according to the detected environmental condition. However, sensors and electrical devices should not be limited to those described above. Further, if the configuration can be controlled by a remote controller or the like without being limited to electrical devices, other devices can also be controlled, and thereby the environmental situation can be adjusted. For example, if the window can be electrically opened and closed, the window can be opened and closed by controlling the automatic opening and closing device with an infrared signal transmitted from the robot. Thereby, it is also possible to adjust temperature and humidity. Further, a surrounding sound (noise) can be detected by a sound sensor, that is, a microphone (46 in the embodiment), and the window can be opened and closed according to the volume of the sound. Therefore, for example, it is possible to prevent noise from entering the room or leaking outside. Further, for example, the lighting device can be controlled by an infrared signal transmitted from the robot, and the robot is provided with an optical sensor. Then, for example, the brightness in the vicinity of a person can be kept constant by detecting the brightness of the surrounding area following the person, turning the lighting device on / off, and adjusting the brightness. .

また、この実施例では、ロボットが人間を検知した場合、離れる指示があるまで、当該検知した人間を追従するようにしたが、これに限定されるべきでない。たとえば、追従行動を開始する前に、全範囲について人間が存在するか否かを探索し、検知した複数の人間から1人の人間を検知した順番に基づいて選択して(たとえば、最初または最後に検知した人間を選択)、追従行動を実行するようにすることもできる。また、各人間を識別可能にするとともに、各人間に優先順位をつけておき、検出した複数の人間から1人の人間を優先順位に従って選択する(たとえば、優先順位が一番高いまたは一番低い人間を選択する)ようにしてもよい。さらには、一度追従を拒否した(離れる指示を出した)人間には、次回以降遭遇した場合であっても、追従行動を実行しないようにしたり、優先順位を低く(高く)したりして選択され難くするようにしてもよい。逆に、人間からロボットに話しかけてきた場合には、当該人間に対して直ぐに追従行動を実行したり、その人間の優先順位を高く(低く)したりして選択され易くするようにしてもよい。また、ロボットが単独行動中であっても、人間に呼ばれた場合や離れる指示をした人間とは違う人間を検出した場合などは、直ぐに単独行動から追従行動に移行するようにしてもよい。   Further, in this embodiment, when the robot detects a human, the detected human is followed until an instruction to leave, but the present invention should not be limited to this. For example, before starting a follow-up action, search for the presence or absence of humans over the entire range and select from a plurality of detected humans based on the order in which one human was detected (eg, first or last) It is also possible to select a person who has detected the above and perform a follow-up action. In addition, each person can be identified, and a priority order is assigned to each person, and one person is selected from a plurality of detected persons according to the priority order (for example, the highest priority order or the lowest priority order). It is also possible to select a human). Furthermore, even if a person who refuses to follow (has given an instruction to leave) once, even if it encounters after the next time, he chooses not to execute the follow-up action or to lower (higher) the priority. You may make it hard to be done. Conversely, when a person talks to a robot, the person may immediately follow the person or increase (decrease) the priority of the person so that the person can be selected easily. . Further, even if the robot is in a single action, when it is called by a human or when a person different from the person who gives an instruction to leave is detected, the robot may immediately shift from the single action to the following action.

また、この実施例では、ロボットを配置する領域についての地図データを大領域(部屋毎)と小領域(X[cm]×Y[cm]の領域)とに分けて管理するようにしたが、これに限定されない。たとえば、一部屋が広い場合などは、最大に離れても人間が検出できる程度の広さの中領域(部屋を数個に分けた程度の領域:たとえば数メートル四方)を設け、大領域と中領域と小領域とに分けて管理するようにしてもよい。   In this embodiment, the map data for the area where the robot is arranged is managed by dividing it into a large area (for each room) and a small area (area of X [cm] × Y [cm]). It is not limited to this. For example, if one room is large, a medium area (area that is divided into several rooms, for example, several meters square) that is large enough to be detected by humans even if it is farthest away is provided. You may make it manage by dividing into an area | region and a small area | region.

さらに、この実施例では、人間を映像に基づいて検知したり、周波数タグを用いて個人を識別可能に検知したりするようにした。しかし、ロボットが適用される建物の床に床圧力センサを敷き詰めておき、その出力に基づいて人間を検知し、検知した情報を、外部コンピュータを介してロボットに送信するようにしてもよい。   Furthermore, in this embodiment, humans are detected based on video images, and individuals are identifiable using frequency tags. However, a floor pressure sensor may be laid down on the floor of a building to which the robot is applied, a person is detected based on the output, and the detected information may be transmitted to the robot via an external computer.

さらにまた、この実施例では、ロボットが電気機器に赤外線信号を直接送信するようにした。しかし、これに限定される必要はなく、他の方法を採用することもできる。たとえば、各部屋毎に、赤外線信号を受信する受信装置をロボットから赤外線信号を送信し易い位置(場所:高さや方向)に設けておき、当該受信装置と各電気機器とをたとえば有線で接続し、受信装置を介して赤外線信号(制御信号)を各電気機器に送信するようにしてもよい。かかる場合には、受信装置の位置を地図データに含めておくことにより、正確に制御信号(赤外線信号)を送信して、環境状況の調整を確実に行うことができる。或いは、外部コンピュータを各電気機器に接続して、制御信号を送信可能にしておけば、当該外部コンピュータとロボットとを無線LANのようなネットワークで接続することにより、ネットワークおよび外部コンピュータを介して、各電気機器に制御信号を送信することもできる。   Furthermore, in this embodiment, the robot directly transmits an infrared signal to the electric device. However, the present invention is not limited to this, and other methods can be adopted. For example, for each room, a receiving device that receives an infrared signal is provided at a position (location: height or direction) where the infrared signal is easily transmitted from the robot, and the receiving device and each electrical device are connected, for example, by wire. The infrared signal (control signal) may be transmitted to each electric device via the receiving device. In such a case, by including the position of the receiving device in the map data, it is possible to accurately transmit the control signal (infrared signal) and reliably adjust the environmental situation. Alternatively, if an external computer is connected to each electrical device and control signals can be transmitted, the external computer and the robot are connected via a network such as a wireless LAN, via the network and the external computer, A control signal can also be transmitted to each electric device.

図1はこの発明の一実施例のロボットおよび当該ロボットが存在する現実空間の様子を示す図解図である。FIG. 1 is an illustrative view showing a robot according to an embodiment of the present invention and a state of a real space where the robot exists. 図2は図1のロボットの外観を正面から見た図解図である。FIG. 2 is an illustrative view showing the appearance of the robot of FIG. 1 from the front. 図3は図1のロボットの電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing an electrical configuration of the robot of FIG. 図4は図3示す地図DBの内容の一例を説明するための図解図である。FIG. 4 is an illustrative view for explaining an example of the contents of the map DB shown in FIG. 図5は図3に示すCPUの全体処理を示すフロー図である。FIG. 5 is a flowchart showing the overall processing of the CPU shown in FIG. 図6は図3に示すCPUの追従行動処理を示すフロー図である。FIG. 6 is a flowchart showing the follow-up action process of the CPU shown in FIG. 図7は図3に示すCPUの単独行動処理を示すフロー図である。FIG. 7 is a flowchart showing the single action process of the CPU shown in FIG. 図8は図3に示すCPUの環境状況の検出および電気機器の制御処理を示すフロー図である。FIG. 8 is a flowchart showing the detection of the environmental condition of the CPU and the control process of the electric equipment shown in FIG.

符号の説明Explanation of symbols

10 …ロボット
42 …全方位カメラ
48 …眼カメラ
72 …CPU
76 …メモリ
98 …赤外線信号送信装置
100 …温度センサ
102 …湿度センサ
104 …汚れセンサ
106 …臭いセンサ
110 …データベース
10. Robot 42 ... Omnidirectional camera 48 ... Eye camera 72 ... CPU
76 ... Memory 98 ... Infrared signal transmitter 100 ... Temperature sensor 102 ... Humidity sensor 104 ... Dirt sensor 106 ... Odor sensor 110 ... Database

Claims (6)

環境状況を検出する検出手段、および
前記検出手段の検出結果が所定条件を満たさないとき、前記環境状況を調整する電気機器に、当該所定条件を満足させるための制御信号を送信する送信手段を備える、ロボット。
Detection means for detecting an environmental situation, and transmission means for transmitting a control signal for satisfying the predetermined condition to an electrical device that adjusts the environmental situation when a detection result of the detection means does not satisfy the predetermined condition ,robot.
前記検出手段は、温度センサ、湿度センサ、汚れセンサおよび臭いセンサの少なくとも1つを含む、請求項1記載のロボット。   The robot according to claim 1, wherein the detection unit includes at least one of a temperature sensor, a humidity sensor, a dirt sensor, and an odor sensor. 自律移動するための自律移動手段をさらに備える、請求項1または2記載のロボット。   The robot according to claim 1, further comprising autonomous moving means for autonomously moving. 地図データを記憶する地図記憶手段をさらに備え、
前記検出手段は、前記地図記憶手段に記憶された地図データを参照して、前記自律移動手段によって自律移動するとき、前記環境状況を検出する、請求項3記載のロボット。
Map storage means for storing map data;
The robot according to claim 3, wherein the detection means detects the environmental situation when the autonomous movement means refers to map data stored in the map storage means and moves autonomously.
周囲或いは近傍に存在する人間を検知する人間検知手段をさらに備え、
前記人間検出手段によって人間が検知された場合、前記自律移動手段によって当該人間を追従する、請求項1ないし4のいずれかに記載のロボット。
It further comprises a human detection means for detecting a human existing around or in the vicinity,
The robot according to any one of claims 1 to 4, wherein when the human is detected by the human detection means, the autonomous movement means follows the human.
身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動するコミュニケーション行動実行手段をさらに備える、請求項1ないし5のいずれかに記載のロボット。   The robot according to any one of claims 1 to 5, further comprising communication action execution means for performing a communication action with a human using at least one of a body motion and a voice.
JP2005345619A 2005-11-30 2005-11-30 Robot Pending JP2007147217A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005345619A JP2007147217A (en) 2005-11-30 2005-11-30 Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005345619A JP2007147217A (en) 2005-11-30 2005-11-30 Robot

Publications (1)

Publication Number Publication Date
JP2007147217A true JP2007147217A (en) 2007-06-14

Family

ID=38208816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005345619A Pending JP2007147217A (en) 2005-11-30 2005-11-30 Robot

Country Status (1)

Country Link
JP (1) JP2007147217A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011152019A1 (en) * 2010-05-31 2011-12-08 株式会社エナリス Power demand management device and power demand management system
JP2014059764A (en) * 2012-09-18 2014-04-03 Sharp Corp Self-propelled control device, method for controlling self-propelled control device, external device control system, self-propelled control device control program and computer-readable recording medium with the same recorded therein
JP2014149115A (en) * 2013-01-31 2014-08-21 Tokyo Gas Co Ltd Home energy management system
CN104697122A (en) * 2013-12-04 2015-06-10 海尔集团公司 Intelligent air adjusting method and device
WO2015199197A1 (en) * 2014-06-25 2015-12-30 株式会社未来機械 Work system utilizing self-propelled robot
JP2016135530A (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot
CN105841735A (en) * 2015-01-12 2016-08-10 芋头科技(杭州)有限公司 Air quality detection system and method through robot
JP2017022745A (en) * 2016-09-07 2017-01-26 Necプラットフォームズ株式会社 Control apparatus, communication system, control method, and program
CN106705388A (en) * 2017-03-03 2017-05-24 广州飒括科技有限公司 Air quality detecting device and method for linkage-controlling air quality improving device
CN106765984A (en) * 2017-01-11 2017-05-31 广东美的制冷设备有限公司 A kind of progress control method of Intelligent mobile air-conditioner
JP2017122577A (en) * 2017-04-18 2017-07-13 三菱電機株式会社 Environment control system
CN108344116A (en) * 2018-02-11 2018-07-31 深圳市沃特沃德股份有限公司 The adjusting method and clean robot of indoor air quality
JP2018160210A (en) * 2017-03-24 2018-10-11 株式会社日立ビルシステム Robot control system and robot
CN109469970A (en) * 2018-10-29 2019-03-15 珠海格力电器股份有限公司 A kind of method, apparatus, air-conditioning and storage medium controlling air-conditioning
JP2019207039A (en) * 2018-05-28 2019-12-05 株式会社日立ビルシステム Environment adjusting system and environment adjusting method
WO2019151845A3 (en) * 2019-03-20 2020-02-06 엘지전자 주식회사 Air conditioner
WO2019151846A3 (en) * 2019-03-20 2020-02-06 엘지전자 주식회사 Air purifier
JP2020137914A (en) * 2019-03-01 2020-09-03 株式会社コーエーテクモゲームス Information processing device, game processing method and game processing program
US20200345905A1 (en) * 2019-05-02 2020-11-05 National Cheng Kung University Surgical smoke removing device
CN113251631A (en) * 2021-04-27 2021-08-13 青岛海尔空调器有限总公司 Air conditioner control method and device, control box, air conditioner and storage medium
CN113915717A (en) * 2021-10-18 2022-01-11 刘晓燕 Multifunctional air purifier with security system
JP7025170B2 (en) 2013-01-18 2022-02-24 アイロボット・コーポレーション A mobile robot that provides environment mapping for home environment control
US11648685B2 (en) 2013-01-18 2023-05-16 Irobot Corporation Mobile robot providing environmental mapping for household environmental control

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6129638A (en) * 1984-07-23 1986-02-10 Mitsubishi Electric Corp Controlling device of indoor environment
JP2002350555A (en) * 2001-05-28 2002-12-04 Yamaha Motor Co Ltd Human presence detector
JP2003111157A (en) * 2001-09-28 2003-04-11 Toshiba Corp Integrated controller, apparatus controlling method, and apparatus controlling program
JP2005065026A (en) * 2003-08-18 2005-03-10 Honda Motor Co Ltd Information collecting robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6129638A (en) * 1984-07-23 1986-02-10 Mitsubishi Electric Corp Controlling device of indoor environment
JP2002350555A (en) * 2001-05-28 2002-12-04 Yamaha Motor Co Ltd Human presence detector
JP2003111157A (en) * 2001-09-28 2003-04-11 Toshiba Corp Integrated controller, apparatus controlling method, and apparatus controlling program
JP2005065026A (en) * 2003-08-18 2005-03-10 Honda Motor Co Ltd Information collecting robot

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011254586A (en) * 2010-05-31 2011-12-15 Eneres Corp Electric power demand management device and electric power demand management system
WO2011152019A1 (en) * 2010-05-31 2011-12-08 株式会社エナリス Power demand management device and power demand management system
JP2014059764A (en) * 2012-09-18 2014-04-03 Sharp Corp Self-propelled control device, method for controlling self-propelled control device, external device control system, self-propelled control device control program and computer-readable recording medium with the same recorded therein
JP7025170B2 (en) 2013-01-18 2022-02-24 アイロボット・コーポレーション A mobile robot that provides environment mapping for home environment control
US11648685B2 (en) 2013-01-18 2023-05-16 Irobot Corporation Mobile robot providing environmental mapping for household environmental control
JP2014149115A (en) * 2013-01-31 2014-08-21 Tokyo Gas Co Ltd Home energy management system
CN104697122A (en) * 2013-12-04 2015-06-10 海尔集团公司 Intelligent air adjusting method and device
JPWO2015199197A1 (en) * 2014-06-25 2017-04-20 株式会社未来機械 Work system using self-propelled robot
WO2015199197A1 (en) * 2014-06-25 2015-12-30 株式会社未来機械 Work system utilizing self-propelled robot
CN105841735A (en) * 2015-01-12 2016-08-10 芋头科技(杭州)有限公司 Air quality detection system and method through robot
JP2016135530A (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot
WO2016117514A1 (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot
JP2017022745A (en) * 2016-09-07 2017-01-26 Necプラットフォームズ株式会社 Control apparatus, communication system, control method, and program
CN106765984A (en) * 2017-01-11 2017-05-31 广东美的制冷设备有限公司 A kind of progress control method of Intelligent mobile air-conditioner
CN106765984B (en) * 2017-01-11 2019-07-26 广东美的制冷设备有限公司 A kind of progress control method of Intelligent mobile air conditioner
CN106705388A (en) * 2017-03-03 2017-05-24 广州飒括科技有限公司 Air quality detecting device and method for linkage-controlling air quality improving device
JP2018160210A (en) * 2017-03-24 2018-10-11 株式会社日立ビルシステム Robot control system and robot
JP2017122577A (en) * 2017-04-18 2017-07-13 三菱電機株式会社 Environment control system
CN108344116A (en) * 2018-02-11 2018-07-31 深圳市沃特沃德股份有限公司 The adjusting method and clean robot of indoor air quality
WO2019153381A1 (en) * 2018-02-11 2019-08-15 深圳市沃特沃德股份有限公司 Indoor air quality regulating method and cleaning robot
JP2019207039A (en) * 2018-05-28 2019-12-05 株式会社日立ビルシステム Environment adjusting system and environment adjusting method
JP7042159B2 (en) 2018-05-28 2022-03-25 株式会社日立ビルシステム Environmental adjustment system and environmental adjustment method
CN109469970A (en) * 2018-10-29 2019-03-15 珠海格力电器股份有限公司 A kind of method, apparatus, air-conditioning and storage medium controlling air-conditioning
JP2020137914A (en) * 2019-03-01 2020-09-03 株式会社コーエーテクモゲームス Information processing device, game processing method and game processing program
JP7312574B2 (en) 2019-03-01 2023-07-21 株式会社コーエーテクモゲームス Information processing device, game processing method and game processing program
WO2019151846A3 (en) * 2019-03-20 2020-02-06 엘지전자 주식회사 Air purifier
US11571648B2 (en) 2019-03-20 2023-02-07 Lg Electronics Inc. Air cleaner
US11649980B2 (en) 2019-03-20 2023-05-16 Lg Electronics Inc. Air conditioner communicating with moving agent to sense indoor space
WO2019151845A3 (en) * 2019-03-20 2020-02-06 엘지전자 주식회사 Air conditioner
US20200345905A1 (en) * 2019-05-02 2020-11-05 National Cheng Kung University Surgical smoke removing device
CN113251631A (en) * 2021-04-27 2021-08-13 青岛海尔空调器有限总公司 Air conditioner control method and device, control box, air conditioner and storage medium
WO2022227569A1 (en) * 2021-04-27 2022-11-03 青岛海尔空调器有限总公司 Air conditioner control method and apparatus, control box, air conditioner, and storage medium
CN113915717A (en) * 2021-10-18 2022-01-11 刘晓燕 Multifunctional air purifier with security system

Similar Documents

Publication Publication Date Title
JP2007147217A (en) Robot
JP4822319B2 (en) Communication robot and attention control system using the same
US11076734B2 (en) Robot cleaner and control method thereof using artificial intelligence
JP6428921B2 (en) Blower equipment and blower system
JP5318623B2 (en) Remote control device and remote control program
CN105291093A (en) Domestic robot system
JP2006123158A (en) Robot control system and robot control method
JP2007260822A (en) Guide robot
KR20020088880A (en) Multi Functional Robot and Method for Controlling thereof
JP7375748B2 (en) Information processing device, information processing method, and program
JP7204840B2 (en) Air-conditioning control device, air-conditioning system, air-conditioning control method and program
JP2012139798A (en) Mobile robot, learning system for the same, and method of learning action of the same
JP2007160427A (en) Robot control system
KR102290983B1 (en) Controlling method for Artificial intelligence Moving robot
KR20180018211A (en) Self-learning robot
JP5552710B2 (en) Robot movement control system, robot movement control program, and robot movement control method
KR101708301B1 (en) Robot cleaner and remote control system of the same
KR102423572B1 (en) Controlling method for Artificial intelligence Moving robot
JP6142307B2 (en) Attention target estimation system, robot and control program
KR102183098B1 (en) A moving-robot and control method thereof
CN109991961A (en) Mobile device and its control method, tele-control system
JP6031465B2 (en) Housing equipment control device
KR102508073B1 (en) A moving-robot and control method thereof
JP2006263874A (en) Communication robot
KR20200115691A (en) A moving-robot and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100810