JP2007147217A - Robot - Google Patents
Robot Download PDFInfo
- Publication number
- JP2007147217A JP2007147217A JP2005345619A JP2005345619A JP2007147217A JP 2007147217 A JP2007147217 A JP 2007147217A JP 2005345619 A JP2005345619 A JP 2005345619A JP 2005345619 A JP2005345619 A JP 2005345619A JP 2007147217 A JP2007147217 A JP 2007147217A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- human
- sensor
- axis
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明はロボットに関し、特にたとえば、温度、湿度、床や空気の汚れのような環境状況を検出する複数のセンサを備える、ロボットに関する。 The present invention relates to a robot, and more particularly to a robot provided with a plurality of sensors for detecting environmental conditions such as temperature, humidity, floor and air contamination.
従来、携帯電話やコンピュータなどの通信技術を用いて、家庭内のテレビジョン受像機やエアーコンディショナ(以下、単に「エアコン」ということがある。)などの電気機器を、外部から制御する技術が報告されている。たとえば、特許文献1の遠隔制御システムによれば、携帯電話システムにおける携帯端末が有する送受信機能と同じ送受信機能を有し、建物内部を移動することができるロボットが住宅の内部に配置され、ユーザは携帯端末によってロボットを遠隔操作することにより、テレビジョン受像機、VTR、エアコンなどの家電製品を遠隔操作する。
2. Description of the Related Art Conventionally, there has been a technology for externally controlling electrical equipment such as a television receiver and an air conditioner (hereinafter sometimes simply referred to as “air conditioner”) using a communication technology such as a mobile phone or a computer. It has been reported. For example, according to the remote control system of
また、特許文献2(特許文献3も同様。)の遠隔操作装置によれば、ロボットは、テレビジョン受像機やエアコンなどの電気機器に対してそれぞれの駆動を制御するリモコンとしての機能を備え、携帯電話端末やコンピュータ端末などの指示端末から各電気機器の設定内容を指示することで、ロボットがその各電気機器の近くに移動してこれらの駆動を制御する。 Further, according to the remote control device disclosed in Patent Document 2 (the same applies to Patent Document 3), the robot has a function as a remote controller that controls driving of each electric device such as a television receiver and an air conditioner. By instructing the setting contents of each electric device from an instruction terminal such as a mobile phone terminal or a computer terminal, the robot moves to the vicinity of each electric device and controls their drive.
さらに、自走式ロボット掃除機の一例が非特許文献1に開示される。この自走式ロボット掃除機(家庭用掃除ロボット)は、たとえば、自動で部屋内の地図を作成し、自律的に移動しながら掃除を行う。
しかし、特許文献1ないし3の技術では、電気機器を遠隔操作することは可能であるが、あくまでもロボットをリモコンとして用いているだけであり、電気機器を適切に制御するためには、利用者から指示を与える必要がある。つまり、操作が面倒である。
However, in the techniques of
また、非特許文献1の技術では、家庭用掃除ロボットは、ユーザの操作に応じて、部屋全域または部屋内をランダムに掃除するだけであり、ロボット自らが必要に応じて掃除することはできない。
In the technique of Non-Patent
それゆえに、この発明の主たる目的は、人間にとって快適な環境を実現できる、新規なロボットを提供することである。 Therefore, a main object of the present invention is to provide a novel robot capable of realizing a comfortable environment for human beings.
請求項1の発明は、環境状況を検出する検出手段、および検出手段の検出結果が所定条件を満たさないとき、環境状況を調整する電気機器に、当該所定条件を満足させるための制御信号を送信する送信手段を備える、ロボットである。 According to the first aspect of the present invention, when the detection means for detecting the environmental situation and the detection result of the detection means do not satisfy the predetermined condition, a control signal for satisfying the predetermined condition is transmitted to the electric device for adjusting the environmental situation. It is a robot provided with the transmission means to do.
請求項1の発明では、ロボット(10:実施例で相当する参照番号。以下同じ。)は、たとえば、環境状況(たとえば、温度、湿度、床または空気の汚れなど)を調整するための電気機器(たとえば、エアコンA、全自動掃除機B、空気清浄機C、加湿器Dおよび除湿機E)が設置されたオフィスや家庭などの屋内に配置される。検出手段(72,100〜106,S81)は、たとえば温度や湿度、床の汚れまたは空気の汚れのような環境の状況(環境状況)を検出する。CPU(72)は、検出手段(72,100〜106,S81)が検出した環境状況が、予め設定しておいた環境状況の条件(設定条件)を満たすか否かを判断する。検出した環境状況が設定条件を満たさない場合には、送信手段(72,98,S85,S89,S93,S97)は、電気機器に対して制御信号を送信し、環境状況が設定条件を満足するように電気機器に調整させる。 According to the first aspect of the present invention, the robot (10: reference number corresponding to the embodiment; the same applies hereinafter) is an electrical device for adjusting environmental conditions (for example, temperature, humidity, floor or air contamination, etc.), for example. (For example, an air conditioner A, a fully automatic vacuum cleaner B, an air purifier C, a humidifier D, and a dehumidifier E) are disposed indoors such as an office or home where the air conditioner A is installed. The detection means (72, 100 to 106, S81) detects an environmental condition (environmental condition) such as temperature, humidity, floor dirt or air dirt. The CPU (72) determines whether or not the environmental status detected by the detection means (72, 100 to 106, S81) satisfies a preset environmental status condition (setting condition). When the detected environmental situation does not satisfy the setting condition, the transmission means (72, 98, S85, S89, S93, S97) transmits a control signal to the electric device, and the environmental situation satisfies the setting condition. Let the electrical equipment adjust.
請求項1の発明によれば、環境状況を検出し、検出した環境状況が設定条件を満たすように、電気機器を適切に制御するので、人間の手を煩わせることなく、人間にとって快適な空間を実現できる。 According to the first aspect of the present invention, since the environmental condition is detected and the electric device is appropriately controlled so that the detected environmental condition satisfies the setting condition, a comfortable space for human beings without bothering human hands. Can be realized.
請求項2の発明は、請求項1に従属し、検出手段は、温度センサ、湿度センサ、汚れセンサおよび臭いセンサの少なくとも1つを含む。
The invention of claim 2 is dependent on
請求項2の発明では、検出手段(72,100〜106,S81)は、温度センサ(100)、湿度センサ(102)、汚れセンサ(104)および臭いセンサ(106)の少なくとも1つを含む。ロボット(10)では、温度センサ(100)、湿度センサ(102)、汚れセンサ(104)および臭いセンサ(106)の検出結果に基づいて、自身の近傍の環境状況を認識することができる。つまり、ロボット(10)の現在位置(部屋ないしその一部の領域)における温度や湿度を検出することができ、また、床や空気の汚れを検出することもできる。 In the invention of claim 2, the detection means (72, 100 to 106, S81) includes at least one of a temperature sensor (100), a humidity sensor (102), a dirt sensor (104), and an odor sensor (106). The robot (10) can recognize environmental conditions in the vicinity of itself based on the detection results of the temperature sensor (100), the humidity sensor (102), the dirt sensor (104), and the odor sensor (106). That is, it is possible to detect the temperature and humidity at the current position (room or a part of the area) of the robot (10), and it is also possible to detect dirt on the floor and air.
請求項2の発明によれば、様々なセンサを備えるので、各センサの出力に基づいて電気機器を制御することにより、温度や湿度を調整したり、床や空気の汚れを浄化したりすることができる。 According to the invention of claim 2, since various sensors are provided, it is possible to adjust the temperature and humidity, or to clean the floor and air dirt by controlling the electrical equipment based on the output of each sensor. it can.
請求項3の発明は、請求項1または2に従属し、自律移動するための自律移動手段を備える。
The invention of
請求項3の発明では、ロボット(10)は、自律移動手段(24,26,72,78)を備え、屋内を自律移動する。
In the invention of
請求項3の発明によれば、自律移動するので、様々な場所の環境状況を検出することができる。このため、局所的な温度や湿度を調整したり、局所的な床や空気の汚れを浄化したりすることができる。つまり、人間にとって快適な空間を保つ(実現する)ために、より細やかに対応することができる。
According to invention of
請求項4の発明は、請求項3に従属し、地図データを記憶する地図記憶手段をさらに備え、検出手段は、地図記憶手段に記憶された地図データを参照して、自律移動手段によって自律移動するとき、環境状況を検出する。
The invention of claim 4 is dependent on
請求項4の発明では、地図記憶手段(110)は、ロボット(10)を配置する空間についての地図データ(たとえば、或る会社の建物や家庭などの屋内の地図データ)を記憶する。当該地図データは、たとえば、大領域と小領域とに分けて管理される。具体的には、ロボット(10)の配置される屋内が部屋単位のような大領域に分割され、さらに、各部屋においては、一定範囲毎の小領域に分割される。ロボット(10)は、地図記憶手段(110)が記憶した地図データに基づいて、自立移動手段(24,26,72,78)により自律移動し、検出手段(72,100〜106,S81)によって環境状況(情報)を検出する。 According to a fourth aspect of the present invention, the map storage means (110) stores map data (for example, indoor map data such as a building or home of a certain company) about the space where the robot (10) is placed. The map data is managed, for example, divided into a large area and a small area. Specifically, the room where the robot (10) is arranged is divided into large areas such as room units, and each room is further divided into small areas for each predetermined range. The robot (10) moves autonomously by the self-moving means (24, 26, 72, 78) based on the map data stored in the map storage means (110), and by the detecting means (72, 100-106, S81). Detect environmental status (information).
請求項4の発明によれば、地図を参照して移動するため、全ての領域を探索して、効率的に環境状況を整えることができる。 According to invention of Claim 4, since it moves, referring a map, all areas can be searched and an environmental condition can be adjusted efficiently.
請求項5の発明は、請求項1ないし4のいずれかに従属し、周囲或いは近傍に存在する人間を検知する人間検知手段をさらに備え、人間検出手段によって人間が検知された場合、自律移動手段によって当該人間を追従する。
The invention according to
請求項5の発明では、人間検知手段(42,48,72,76,80,S15,S41)は、人間(14)の存在を検知する。自律移動手段(24,26,72,78)は、人間検知手段(42,48,72,76,80,S15,S41)が人間の存在を検出した場合、当該人間(14)に追従する。具体的には、人間検知手段(42,48,72,76,80,S15,S41)が人間(14)の存在を検知すると、モータ制御ボード(78)はCPU(72)からの制御データを受け、車輪モータ(26)を駆動させ、ロボット(10)を人間(14)の近くに移動させる。そして、たとえば超音波距離センサ(32)により、ロボット(10)と当該人間との距離を測定し、その距離が、あらかじめ設定しておいた距離(たとえば、1m)より近くなるまで移動する。また、ロボット(10)は、当該人間(14)が移動することによりロボット(10)から離れると(当該人間(14)とロボット(10)との距離が、あらかじめ設定した距離より遠くなると)、当該設定した距離より近くなるまで自律移動手段(24,26,72,78)により移動する。このようにして、ロボット(10)は人間(14)との距離を所定の距離以内に保つように移動し、したがって、人間に追従する。
In the invention of
請求項5の発明によれば、検知した人間を追従するので、人間近傍の環境状況を快適に保ったり、整えたりすることができる。
According to the invention of
請求項6の発明は、請求項1ないし5のいずれかに従属し、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動するコミュニケーション行動実行手段をさらに備える。
The invention according to claim 6 is dependent on any one of
請求項6の発明では、ロボット(10)は、身体動作および音声の少なくとも一方を用いて、人間(14)とコミュニケーション行動することができる。たとえば、検知手段(42,48,72,76,80,S15,S41)が、人間の存在を検知して、当該人間に接近するときに、片手を挙げながら「おはよう」と声をかけることができる。また、たとえば検知した人間(14)に追従しているときに、人間から「離れて」と声をかけられると、「ばいばい」と声をかけて人間(14)から離れ、単独で行動することもできる。 In the invention of claim 6, the robot (10) can communicate with the human (14) by using at least one of body movement and voice. For example, when the detection means (42, 48, 72, 76, 80, S15, S41) detects the presence of a person and approaches the person, he may say "Good morning" with one hand up. it can. Also, for example, when following a detected person (14), if you say "separate" from the person, you will say "I'm wrong" and leave the person (14) and act alone. You can also.
請求項6の発明によれば、人間の存在する空間内に自然と解け込むことができ、人間の行動を邪魔することなく、環境状況を検出して、人間の近傍の環境状況を快適に保つことができる。 According to the sixth aspect of the present invention, it is possible to naturally dissolve in the space where a human exists, and to detect the environmental situation without disturbing the human behavior and to keep the environmental situation near the human being comfortable. be able to.
この発明によれば、検出された環境状況に基づいて電気機器を適切に制御するので、人間からの指令がなくても、人間にとって快適な環境を実現することができる。 According to the present invention, since the electric device is appropriately controlled based on the detected environmental situation, it is possible to realize a comfortable environment for humans even without a command from humans.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のロボット10は、たとえば、主として人間14のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のもので、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を行う機能を備えている。
Referring to FIG. 1, a
ロボット10は、電気機器が設置されたオフィスや家庭などの屋内に配置される。この実施例では、図1に示すように、電気機器としては、エアーコンディショナ(エアコン)A、全自動掃除機B、空気清浄機C、加湿器Dおよび除湿機Eなどが該当する。つまり、電気機器は、その屋内の環境(温度、湿度、空気や床の汚れなど)を調整する。
The
また、詳細な機構は後述するが、ロボット10は、自律移動するための機構を備え、配置された空間内(屋内)を自由に自律移動することができる。図1では省略するが、ロボット10はさらに、各電気機器を制御する制御信号を送信する、赤外線信号送信装置98(図3参照)を備えている。
Moreover, although a detailed mechanism will be described later, the
なお、図1においては、簡単のため、1人の人間14が存在するように示してあるが、複数人存在してもよく、また、存在しなくてもよい。
In FIG. 1, for simplicity, a
図2は、ロボット10の外観を示す正面図であり、この図2を参照して、ロボット10のハードウェアの構成について説明する。ロボット10は台車22を含み、この台車22の下面にはロボット10を自律移動させる車輪24が設けられる。車輪24は車輪モータ26(図3参照)によって駆動され、台車22すなわちロボット10を前後左右任意の方向に動かすことができる。このように、ロボット10は組織の空間内を移動可能なものであるが、場合によっては空間内の所定位置に固定的に設けられてもよい。
FIG. 2 is a front view showing the appearance of the
なお、図2においては省略するが、台車22の前面には、衝突センサ28(図3参照)が取り付けられ、この衝突センサ28は台車22への人や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪24の駆動を停止してロボット10の移動を急停止させる。
Although omitted in FIG. 2, a collision sensor 28 (see FIG. 3) is attached to the front surface of the carriage 22, and the
また、この実施例では、ロボット10の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。
In this embodiment, the height of the
台車22の上には、多角形柱のセンサ取付パネル30が設けられ、このセンサ取付パネル30の各面には、超音波距離センサ32が取り付けられる。この超音波距離センサ32は、センサ取付パネル30すなわちロボット10の周囲の主として人との距離を計測するものである。
A polygonal column
また、台車22の上には、さらに、その下部がセンサ取付パネル30に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体34と上部胴体36とによって構成され、下部胴体34および上部胴体36は、連結部38によって互いに連結される。図示は省略するが、連結部38には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体36の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ40(図3参照)によって駆動される。
Moreover, the lower part of the robot 22 is surrounded by the
なお、上述したロボット10の背の高さは、上部胴体36をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることも可能である。
The height of the
上部胴体36のほぼ中央には、1つの全方位カメラ42と1つのマイク46とが設けられる。全方位カメラ42は、ロボット10の周囲を撮影するものであり、後述する眼カメラ48とは区別される。この全方位カメラ42としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、マイク46は、周囲の音、とりわけコミュニケーション対象である人の声を取り込む。なお、これら全方位カメラ42およびマイク46の設置位置は上部胴体36に限られず適宜変更され得る。
One
上部胴体36の両肩には、それぞれ、肩関節50Rおよび50Lによって、上腕52Rおよび52Lが設けられる。肩関節50Rおよび50Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節50Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕52Rの角度を制御できる。Y軸は、上腕52Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節50Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕52Lの角度を制御できる。B軸は、上腕52Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。
また、上腕52Rおよび52Lのそれぞれの先端には、肘関節54Rおよび54Lを介して、前腕56Rおよび56Lが設けられる。肘関節54Rおよび54Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕56Rおよび56Lの角度を制御できる。
Further, forearms 56R and 56L are provided at the respective distal ends of the
なお、上腕52Rおよび52Lならびに前腕56Rおよび56Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、上腕52Rおよび52Lならびに前腕56Rおよび56Lは下方に向けられる。
In the X axis, Y axis, Z axis, W axis, A axis, B axis, C axis, and D axis that control the displacement of the
また、図示は省略するが、上部胴体36の肩関節50Rおよび50Lを含む肩の部分や上述の上腕52Rおよび52Lならびに前腕56Rおよび56Lには、それぞれ、タッチセンサ(図3で包括的に示す。:58)が設けられていて、これらのタッチセンサ58は、人がロボット10の当該各部位に触れたかどうかを検知する。
Although not shown in the figure, the shoulder portion including the
前腕56Rおよび56Lのそれぞれの先端には、手に相当する球体60Rおよび60Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
なお、ロボット10の形状・寸法などは適宜設定されるが、他の実施例では、たとえば、上部胴体36は、前面、背面、右側面、左側面、上面および底面を含み、右側面および左側面は表面が斜め前方に向くように形成してもよい。つまり、前面の横幅が背面の横幅よりも短く、上部胴体36を上から見た形状が台形になるように形成されてもよい。
Although the shape and dimensions of the
このような場合、肩関節50Rおよび50Lは、右側面および左側面に、その表面が左右両側面とそれぞれ平行である左右の支持部を介して設けられる。そして、上腕52Rおよび上腕52Lの回動範囲は、これら左右側面または支持部の表面(取り付け面)によって規制され、上腕52Rおよび52Lは取り付け面を超えて回動することはない。
In such a case, the
しかし、左右側面の傾斜角、B軸とY軸との間隔、上腕52Rおよび52Lの長さ、ならびに前腕56Rおよび56Lの長さなどを適宜に設定すれば、上腕52Rおよび52Lは前方を超えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット10の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接で親密なコミュニケーション行動を実行することができる。
However, if the inclination angle of the left and right side surfaces, the distance between the B axis and the Y axis, the lengths of the
上部胴体36の中央上方には、首関節62を介して頭部64が設けられる。首関節62は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部64には、人の口に相当する位置に、スピーカ66が設けられる。スピーカ66は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。ただし、スピーカ66は、ロボット10の他の部位、たとえば胴体などに設けられてもよい。
A
また、頭部64には、目に相当する位置に眼球部68Rおよび68Lが設けられる。眼球部68Rおよび68Lは、それぞれ眼カメラ48Rおよび48Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがあり、また、右の眼カメラ48Rと左の眼カメラ48Lとをまとめて眼カメラ48ということもある。
The
眼カメラ48は、ロボット10に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ48としては、上述した全方位カメラ42と同様のカメラを用いることができる。
The
たとえば、眼カメラ48は眼球部68内に固定され、眼球部68は眼球支持部(図示せず)を介して頭部64内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部64に対して設けられる軸であり、α軸は頭部64の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部64の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部64がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部64において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ48の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
For example, the
なお、眼カメラ48の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ48のカメラ軸は頭部64の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
In the α axis and β axis that control the displacement of the
さらに、ロボット10は、温度センサ100、湿度センサ102、汚れセンサ104および臭いセンサ106を備える。たとえば、温度センサ100、湿度センサ102および臭いセンサ106は肩部に取り付けられる。ただし、厳密には、各センサ100−106の検出部がロボット10の肩部から露出するように設けられ、検出部以外の他の部分はロボット10の内部に設けられる。もちろん、これらのセンサ100、102、106の取り付け位置は肩に特定されず、実施条件などによって適宜変更可能である。また、これらのセンサ100、102および106は、同じ部位(この実施例では、肩)に設ける必要はなく、それぞれ異なる部位に設けるようにしてもよい。また、汚れセンサ104は台車22の下面に取り付けられる。この汚れセンサ104の取り付け位置もまた、台車22の下面に限定される必要はなく、当該汚れセンサ104の機能や検出方法などにより適宜変更可能である。
Further, the
たとえば、汚れセンサ104としては、光学的に床面の反射率を測定する光センサなどを用いることができる。また、臭いセンサ106としては、熱線型半導体式センサなどを用いることができる。
For example, as the
後で詳細に説明するが、ロボット10は、これらのセンサ100−106によって、温度、湿度、床の汚れや空気の汚れの度合い、すなわちロボット10が存在する近傍の環境状況(状態)を検出する。したがって、他の状態を検出したい場合には、その状態を検出するためのセンサを別途設ける必要がある。
As will be described in detail later, the
図3はロボット10の電気的な構成を示すブロック図であり、この図3を参照して、ロボット10は、全体を制御するCPU72を含む。CPU72は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス74を介して、メモリ76、モータ制御ボード78、センサ入力/出力ボード80および音声入力/出力ボード82に接続される。
FIG. 3 is a block diagram showing an electrical configuration of the
メモリ76は、図示は省略するが、ROMやRAMを含み、ROMにはロボット10の制御プログラムが予め記憶されるとともに、コミュニケーション行動を実行する際にスピーカ66から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データなども記憶される。RAMは、ワークメモリやバッファメモリとして用いられる。また、メモリ76には、コミュニケーション行動を実行するための行動制御プログラム、外部コンピュータと通信するための通信プログラム、および環境センサ100〜106の検出した検出条件とあらかじめ設定した設定条件とを比較して、電気機器に制御信号を送信するための電気機器制御プログラムなどが記憶される。
Although not shown in the figure, the
モータ制御ボード78は、たとえばDSPで構成され、各腕や頭部および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード78は、CPU72からの制御データを受け、右眼球部68Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)84の回転角度を制御する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左眼球部68Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)86の回転角度を制御する。
The
また、モータ制御ボード78は、CPU72からの制御データを受け、右肩関節50RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節54RのW軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)88の回転角度を調節する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左肩関節50LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節54LのD軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)90の回転角度を調整する。
The
さらに、モータ制御ボード78は、CPU72からの制御データを受け、頭部64のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)92の回転角度を制御する。さらにまた、モータ制御ボード78は、CPU72からの制御データを受け、腰モータ40および車輪24を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。
Further, the
なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。
In this embodiment, a motor other than the
センサ入力/出力ボード80もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU72に与える。すなわち、超音波距離センサ32のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード80を通してCPU72に入力される。また、全方位カメラ42からの映像信号が、必要に応じてこのセンサ入力/出力ボード80で所定の処理を施された後、CPU72に入力される。眼カメラ48からの映像信号も、同様にして、CPU72に入力される。また、上述した複数のタッチセンサ(図3では、まとめて「タッチセンサ58」と示す。)、および衝突センサ28からの信号がセンサ入力/出力ボード80を介してCPU72に与えられる。さらに、上述した、温度センサ100、湿度センサ102、汚れセンサ104および臭いセンサ106などの各種環境状況を検出する環境センサ100〜106からの信号も、同様にして、CPU72に与えられる。
Similarly, the sensor input /
音声入力/出力ボード82もまた、同様に、DSPで構成され、CPU72から与えられる音声合成データに従った音声または声がスピーカ66から出力される。また、マイク46からの音声入力が、音声入力/出力ボード82を介してCPU72に取り込まれる。
Similarly, the voice input /
また、CPU72は、バス74を介して通信LANボード94に接続される。通信LANボード94は、DSPで構成され、CPU72から送られる送信データを無線通信装置96に与え、無線通信装置96から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介して外部コンピュータに送信させる。また、通信LANボード94は、無線通信装置96を介してデータを受信し、受信したデータをCPU72に与える。つまり、この通信LANボード94および無線通信装置96によって、ロボット10は外部コンピュータなどと無線通信を行うことができる。
The
赤外線信号送信装置98は、バス74を介してCPU72に接続される。CPU72は、電気機器を制御するための制御信号を生成し、これを赤外線信号送信装置98に与える。赤外線信号送信装置(赤外線発光装置)98は、CPU72から与えられた制御信号を赤外線信号に変換し、各電気機器A−Eに送信する。
The infrared
なお、図示は省略するが、各電気機器は配置位置(高さや方向)が異なるため、赤外線信号を各電気機器に確実に受信させるために、赤外線の送信部(発光部)はロボット10の複数箇所に設けるようにする必要がある。
Although illustration is omitted, since each electric device has a different arrangement position (height and direction), in order to reliably receive an infrared signal to each electric device, an infrared transmission unit (light emitting unit) includes a plurality of
さらに、CPU72は、バス74を介して地図情報データベース(以下、単に「地図DB」という。)110に接続される。地図DB110は、ロボット10を配置する領域(空間)についての地図のデータ(地図データ)を記憶するためのデータベースである。この実施例では、地図データは、大領域と小領域とに分けて管理される。たとえば、図4(A)に示すように、地図データは、ロボット10が配置される屋内に設けられる部屋単位のように大領域で分割され、さらに、図4(B)に示すように、各部屋において、たとえばX[cm]×Y[cm]の小領域に分割される。具体的には、ロボット10が配置される屋内には、部屋Rx(R1,R2,…,RN-1,RN)が存在し、或る部屋Rxは、複数の小領域RxAy(RxA1,RxA2,…,RxAM)に分割される。ただし、図4(B)では、変数xがNの場合について示してある。
Further, the
なお、この実施例では、XおよびYは同じ値(たとえば、30)に設定してあるが、XおよびYは異なる値であってもよい。 In this embodiment, X and Y are set to the same value (for example, 30), but X and Y may be different values.
このような構成のロボット10は、上述したように、電気機器が設置されたオフィスや家庭などの屋内(3次元空間内)に配置される。ロボット10は、温度センサ100、湿度センサ102、汚れセンサ104および臭いセンサ106(これらをまとめて、「環境センサ」と呼ぶことがある。)の検出結果に基づいて、自身の近傍の環境状況(室内の環境)を認識する。つまり、ロボット10の現在位置(部屋ないしその中の或る領域)における温度や湿度を知ることができ、また、床や空気の汚れを知ることもできる。
As described above, the
ロボット10は、予め設定された温度(設定温度Ts)に環境状況(室温)が調整されるように、エアコンAを制御する。具体的には、ロボット10は、温度センサ100で検出された温度(検出温度)Tと設定温度Tsとを比較し、その比較結果に基づいて、検出温度Tと設定温度Tsとが一致するように、運転/停止(電源をオン/オフ)、運転切換(たとえば、冷房、暖房、除湿など)および温度の設定などについての制御信号をエアコンAに送信する。
The
また、ロボット10は、予め設定された湿度(設定湿度Ss)に環境状況(部屋の湿度)が調整されるように、加湿器Dまたは除湿機Eを制御する。具体的には、ロボット10は、湿度センサ102で検出された湿度(検出湿度)Sと設定湿度Ssとを比較し、その比較結果に基づいて、検出湿度Sと設定湿度Ssとが一致するように、運転/停止(電源をオン/オフ)や強さ(強,中,弱など)などについての制御信号を、加湿器Dや除湿機Eに送信する。
Further, the
さらに、ロボット10は、汚れセンサ104で検出された汚れの度合い(汚れ検出値)Yと設定された汚れの度合い(汚れ設定値)Ysとを比較し、その比較結果に基づいて、汚れ値Yが汚れ設定値Ysよりも小さくなるように、運転/停止(電源をオン/オフ)および掃除する部屋Rx(領域RxAy)の指定などについての制御信号を全自動掃除機Bに送信する。
Further, the
さらにまた、ロボット10は、臭いセンサ106で検出された臭い(空気の汚れ)の度合い(臭い検出値)Nと設定された臭いの強度(臭い設定値)Nsとを比較し、その比較結果に基づいて、臭い検出値Nが臭い設定値Nsよりも小さくなるように、運転/停止(電源をオン/オフ)および強度などについての制御信号を空気清浄機Cに送信する。
Furthermore, the
なお、エアコンAが空気清浄機能を有する場合には、空気清浄機Cを設ける必要はなく、かかる場合には、空気清浄機Cに代えて、当該エアコンAを制御すればよい。 When the air conditioner A has an air purifying function, it is not necessary to provide the air purifier C. In such a case, the air conditioner A may be controlled instead of the air purifier C.
また、上述した設定温度Ts、設定湿度Ss、汚れ設定値Ysおよび臭い設定値Nsは、人間14にとって快適な環境となるための値であり、実験などにより経験的に得られる値である。したがって、そのような設定値Ts,Ss,Ys,Nsは、このロボット10が適用される環境(季節を含む。)に応じて可変的に設定される。
The set temperature Ts, the set humidity Ss, the dirt set value Ys, and the odor set value Ns described above are values for creating a comfortable environment for the human 14 and are obtained empirically through experiments and the like. Accordingly, such set values Ts, Ss, Ys, and Ns are variably set according to the environment (including seasons) to which the
上述したように、ロボット10は、自律移動(自走)可能であり、また、人間14との間でコミュニケーション行動を実行することも可能である。したがって、この実施例では、ロボット10は、人間14を探索し、探索した結果、人間14を検出(検知)すれば、当該人間14に追従し(追従行動)、追従行動しながら環境状況を検出し、必要に応じて、各電気機器を制御する。ただし、探索した結果、複数の人間14を検知した場合には、所定のルールに従って、いずれか1人の人間14を追従する。たとえば、所定のルールに従って1人の人間14を選択する方法としては、たとえば、ランダムに1人の人間14を選択したり、最初に検出または最後に検出した人間14を選択したり、各人間14に対して優先度をつけておき、その優先度が最大または最小の人間14を選択したりすることが考えられる。また、全ての部屋Rxおよび全ての領域RxAyを探索した結果、人間14を検出しなかった場合や、人間を検出しても当該検出した人間に追従行動を拒否された場合は、ロボット10は単独で行動(単独行動)しながら環境状況を検出し、必要に応じて、各電気機器を制御する。
As described above, the
また、この実施例では、人間14を探索する場合や単独行動で自律移動(自走)する場合には、部屋Rxを順番に(R1,R2,R3,…,RN)回るとともに、各部屋Rxにおいても領域RxAyを順番に(RxA1,RxA2,RxA3,…,RxAM)回る。このとき、地図データが参照される。 Further, in this embodiment, when searching for the human 14 or autonomously moving (self-propelled) by a single action, the room Rx is rotated in order (R1, R2, R3,..., RN) and each room Rx. , The region RxAy is sequentially rotated (RxA1, RxA2, RxA3,..., RxAM). At this time, map data is referred to.
たとえば、ロボット10は、部屋R1の左上の位置(たとえば、入り口の扉付近)に配置され、当該位置を原点(基準位置)として、地図データを参照しながら自律移動する。したがって、ロボット10は、現在どの領域にいるのかを容易に把握することができ、また、別の領域に容易に移動することもできる。
For example, the
なお、この実施例では、地図データを予め地図DB110に記憶するようにしてあるが、ロボット10の各種センサ、たとえば、超音波距離センサ32や全方位カメラ42を用いて検出した検出データに基づいて、ロボット10自らが地図データを作成し、地図DB110に記憶させるようにしてもよい。
In this embodiment, the map data is stored in the
また、上述したように、ロボット10は人間14を検出する。詳細な説明は省略するが、単に人間14を検出する場合には、ロボット10の全方位カメラ42や眼カメラ48からの映像に基づいて判断することができる。ただし、映像処理により、人間14を検出する場合には、処理が膨大になるため、たとえば、人間14の衣服に特定のマーク(文字、記号、図形など)を付しておき、当該マークに基づいて人間14を検出することができる。また、人間14に無線タグを所持ないし装着しておき、ロボット10に無線タグからの信号を受信する装置を設けておけば、人間14を簡単に検出することができる。さらに、上述したマークや無線タグの識別情報を各人間14で異なるようにしておき、その情報をロボット10内部のデータベースないしはロボット10がアクセス可能に外部に接続したデータベースに記憶しておくことにより、個別に人間14を検出することもできる。
Further, as described above, the
具体的には、図3に示したCPU72が図5に示すフロー図に従って全体処理を実行する。図5に示すように、CPU72は全体処理を開始すると、まず、ステップS1で、初期化を実行する。具体的には、変数IsRxに「0」を代入(設定)し、変数xに「1」を代入する。ここで、変数IsRxは、当該部屋Rxを探索したか否かを判別するための変数(フラグ)である。したがって、部屋Rxを探索していない場合には変数IsRxに「0」が設定され、当該部屋Rxを探索した場合には変数IsRxに「1」が設定される。また、変数xは各部屋を識別するための番号であり、1〜Nで設定される。上述したように、この実施例では、各部屋Rxを順番に回るようにしてあるため、初期化する場合には、変数xに「1」が代入される。以下、初期化する場合において同じ処理が実行される。
Specifically, the
次のステップS3では、人間14からの停止命令があるか否かを判断する。停止命令は、たとえば、音声により入力してもよいし、ロボット10に停止命令用のボタンを設けておき、これを操作してもよいし、外部コンピュータからロボット10に停止命令のコマンドを送信するようにしてもよい。ステップS3で“YES”であれば、つまり、人間14からの停止命令が有れば、そのまま一連の動作を終了する。一方、ステップS3で“NO”であれば、つまり、人間14からの停止命令が無ければ、ステップS5で、変数IsRxに「0」が設定されているかどうかを判断する。
In the next step S3, it is determined whether or not there is a stop command from the human 14. The stop command may be input by voice, for example, a stop command button may be provided on the
ステップS5で“NO”であれば、つまり、変数IsRxに「1」が設定されていれば、部屋Rxはすでに探索したと判断し、ステップS7で、変数xをインクリメント(x=x+1)して、ステップS5に戻る。つまり、次の部屋Rxについての判断を行う。一方、ステップS5で“YES”であれば、つまり、変数IsRxに「0」が設定されていれば、部屋Rxはまだ探索していないと判断し、ステップS9に進む。 If “NO” in the step S5, that is, if the variable IsRx is set to “1”, it is determined that the room Rx has already been searched, and the variable x is incremented (x = x + 1) in a step S7. Return to step S5. In other words, the next room Rx is determined. On the other hand, if “YES” in the step S5, that is, if the variable IsRx is set to “0”, it is determined that the room Rx has not been searched yet, and the process proceeds to the step S9.
ステップS9では、変数xがN以下であるかどうかを判断する。ここで、変数xは1からNまでの整数であり、変数xがNより大きくなるということは、ロボット10が全ての部屋Rxを探索したことを意味する。以下、ロボット10が探索する場合において、同様である。変数xがN以下である場合、つまり探索していない部屋Rxが存在する場合、ステップS9で“YES”となり、ステップS11で、部屋Rxへ移動する。具体的には、ステップS11では、CPU72は、車輪モータ26を駆動制御して、現在位置から部屋Rxに移動する。このとき、CPU72は、地図DB110に記憶された地図データを参照して、移動方向および距離を決定し、これらに応じた制御信号をモータ制御ボード78に与える。
In step S9, it is determined whether the variable x is N or less. Here, the variable x is an integer from 1 to N, and the variable x being larger than N means that the
次に、ステップS13では、変数IsRxに「1」を代入する。続いて、ステップS15で、部屋Rxに人間14が存在するか否かを判断する。人間14が存在するか否かの判断手法は上述したとおりであるため、重複する説明は省略する。ステップS15で“NO”であれば、すなわち部屋Rxに人間14が存在しない場合には、そのままステップS7に進む。一方、ステップS15で“YES”であれば、すなわち部屋Rxに人間14が存在する場合には、ステップS17で、検知した人間14の近く(たとえば、人間14との距離が1m程度)まで移動し、ステップS19に進む。
Next, in step S13, “1” is substituted into the variable IsRx. Subsequently, in step S15, it is determined whether or not a
なお、詳細な説明は省略するが、人間14の近くまで移動する場合には、CPU72は、車輪モータ26を駆動制御するとともに、超音波距離センサ32の出力に基づいて人間14との距離を測定する。以下、人間14に接近する場合についても同様である。
Although detailed explanation is omitted, when moving close to the human 14, the
ステップS19では、ロボット10は、検知した人間14から離れる指示があるかどうかを判断する。ここで、離れる指示は、音声により入力されてもよく、当該離れる指示を入力するためのボタンをロボット10に設けておき、それを操作されてもよい。たとえば、人間14が“離れて”や“ばいばい”などとロボット10に向けて発話した場合に、これを認識(音声認識)して、離れる指示が入力されたと判断することができる。また、上述したように、ロボット10は、複数のタッチセンサ58を備えているため、たとえば、背中を連続して2度触れられた場合に、CPU72はタッチセンサ58の出力により、これを検出して、離れる指示が入力されたと判断することもできる。これらは単なる例示であり、いずれか1つの方法を採用すればよく、また、2つ以上の方法を採用するようにしてもよい。
In step S <b> 19, the
ステップS19で“YES”であれば、すなわち、人間14から離れる指示が有る場合には、ステップS23に進む。一方、ステップS19で“NO”であれば、すなわち、人間14から離れる指示が無い場合には、ステップS21で、当該人間14への追従行動処理を実行し、ステップS1に戻る。なお、追従行動処理(図6参照)については後述する。
If “YES” in the step S19, that is, if there is an instruction to leave the
また、ステップS9で“NO”であれば、つまり変数xがNを超えれば、全ての部屋Rxについて探索したと判断し、ステップS23で、初期化を実行する。初期化については、ステップS1で説明した内容と同じであるため、重複した説明は省略する。そして、ステップS25で、単独行動処理を実行し、ステップS1に戻る。なお、単独行動処理(図7参照)については後述する。 If “NO” in the step S9, that is, if the variable x exceeds N, it is determined that all the rooms Rx have been searched, and initialization is executed in a step S23. Since the initialization is the same as that described in step S1, duplicate description is omitted. In step S25, the single action process is executed, and the process returns to step S1. The single action process (see FIG. 7) will be described later.
図6は、図5に示したステップS21の追従行動処理を示すフロー図である。図6に示すように、CPU72は、追従行動処理を開始すると、ステップS31で、人間による停止命令が有るかどうかを判断する。ステップS31で“YES”であれば、つまり停止命令が有れば、そのまま処理を終了する。一方、ステップS31で“NO”であれば、つまり停止命令が無ければ、ステップS33で、人間14から離れる指示が有るかどうかを判断する。ステップS33で“YES”であれば、つまり人間14から離れる指示が有れば、単独行動処理へ移行する。一方、ステップS33で“NO”であれば、つまり人間14から離れる指示が無ければ、ステップS35で、距離Distが予め設定された距離(設定距離)MaxDist未満であるかどうかを判断する。ここで、距離Distは、人間14とロボット10との距離であり、超音波距離センサ32で測定される。設定距離MaxDistは、ロボット10が人間14を追従するための最大距離(たとえば、1m)である。
FIG. 6 is a flowchart showing the follow-up action process in step S21 shown in FIG. As shown in FIG. 6, when starting the follow-up action process, the
ステップS35で“NO”であれば、つまり距離Distが設定距離MaxDist以上であれば、人間14から離れ過ぎていると判断し、当該人間14に追従すべく、ステップS37で、当該人間14に接近して、ステップS35に戻る。一方、ステップS35で“YES”であれば、つまり距離Distが設定距離MaxDist未満であれば、ステップS39で、後述する環境状況の検出および電気機器の制御(図8参照)を実行して、ステップS41に進む。
If “NO” in the
ステップS41では、人間14が存在するかどうか判断する。つまり、追従している人間14を見失っていないかどうかを判断する。ステップS41で“NO”であれば、つまり人間14が存在しなければ、当該人間を見失ったと判断して、追従行動処理をリターンする。一方、ステップS41で“YES”であれば、つまり人間14が存在すれば、ステップS43で、人間14が移動したかどうかを判断する。ここでは、超音波距離センサ32によって検出される距離Distに変化があるかどうかを判断する。ステップS43で“YES”であれば、つまり人間14が移動すれば、これに追従すべく、そのままステップS31に戻る。一方、ステップS43で“NO”であれば、つまり人間14が移動していなければ、そこに留まるべく、ステップS45で、一定時間待機行動してから、ステップS31に戻る。たとえば、ステップS45では、一定時間(たとえば、数十秒)同じ位置に留まり、周囲を見渡すように、首(頭部)を左右に回動させる。
In step S41, it is determined whether or not the human 14 exists. That is, it is determined whether or not the following
このように、追従行動をしながら、環境状況を検出し、必要に応じて電気機器を制御するので、或る特定の場所に固定されたセンサを用いて環境状況を検出する場合と異なり、人間14が存在する空間の環境を整えたり、快適に保ったりすることができる。 In this way, the environmental situation is detected while following the behavior, and the electrical equipment is controlled as necessary. Therefore, unlike the case where the environmental situation is detected using a sensor fixed at a specific location, human beings are used. The environment of the space where 14 exists can be arranged or can be kept comfortable.
図7は、図5に示したステップS25の単独行動処理を示すフロー図である。図7に示すように、CPU72は単独行動処理を開始すると、ステップS51で、人間14による停止命令があるかどうかを判断する。ステップS51で“YES”であれば、つまり人間14による停止命令が有れば、そのまま処理を終了する。一方、ステップS51で“NO”であれば、つまり停止命令が無ければ、ステップS53で、変数IsRxに「0」が設定されているかどうかを判断する。ステップS53で“NO”であれば、つまり変数IsRxに「1」が設定されている場合には、部屋Rxを既に探索したと判断して、ステップS55で、変数xをインクリメントして、ステップS51に戻る。一方、ステップS53で“YES”であれば、つまり変数IsRxに「0」が設定されている場合には、すなわち、この部屋Rxをまだ探索していないと判断し、ステップS57で、変数xがN以下であるかどうかを判断する。ステップS57で“NO”であれば、つまり変数xがNを超えている場合には、全ての部屋Rxを探索したと判断し、ステップS59で、一定時間待機行動し、単独行動処理をリターンする。ここでは、上述した追従行動における待機行動とは異なり、人間14を追従する必要はないため、比較的長い時間待機することができる。したがって、たとえば、ロボット10は、一定時間(5〜10分)同じ位置に留まり、周囲を見渡すように、首(頭部)を左右に回動させる。また、ロボット10は、「暇だな」のような音声を発することにより、周囲に存在する人間14に呼びかけたりする。或いは、ロボット10は、歌を歌ったり、周辺を移動(うろうろ)したりするなどして、一人遊びする。
FIG. 7 is a flowchart showing the single action process of step S25 shown in FIG. As shown in FIG. 7, when starting the single action process, the
また、ステップS57で“YES”であれば、つまり変数xがN以下であれば、ステップS61で、部屋Rxに移動する。そして、ステップS63で、変数IsRxAyに「0」が設定されているかどうかを判断する。ここで、変数IsRxAyは、部屋Rxにおける領域RxAyを探索したか否かを判断するための変数(フラグ)である。部屋Rxの領域RxAyを探索した場合には、変数IsRxAyには「1」が設定され、まだ探索していない場合には、変数IsRxAyには「0」が設定される。 If “YES” in the step S57, that is, if the variable x is N or less, the process moves to the room Rx in a step S61. In step S63, it is determined whether or not “0” is set in the variable IsRxAy. Here, the variable IsRxAy is a variable (flag) for determining whether or not the region RxAy in the room Rx has been searched. When the area RxAy of the room Rx is searched, “1” is set to the variable IsRxAy, and “0” is set to the variable IsRxAy when the search is not yet performed.
ステップS63で“NO”であれば、つまりIsRxAyに「1」が設定されていれば、部屋Rxの領域RxAyを既に探索したと判断して、ステップS65で、変数yをインクリメントして、ステップS63に戻る。一方、ステップS63で“YES”であれば、つまり変数IsRxAyに0が設定されていれば、部屋Rxの領域RxAyをまだ探索していないと判断して、ステップS67で、変数yがM以下であるかどうかを判断する。ここで、変数yは1からMまでの整数であり、変数yがMを超えれば、或る部屋Rxの全ての領域RxAyを探索したことを意味する。 If “NO” in the step S63, that is, if “1” is set in the IsRxAy, it is determined that the area RxAy of the room Rx has already been searched, the variable y is incremented in the step S65, and the step S63 is performed. Return to. On the other hand, if “YES” in the step S63, that is, if the variable IsRxAy is set to 0, it is determined that the region RxAy of the room Rx has not been searched yet, and the variable y is equal to or less than M in the step S67. Determine if there is. Here, the variable y is an integer from 1 to M. If the variable y exceeds M, it means that all areas RxAy of a certain room Rx have been searched.
ステップS67で“NO”であれば、つまり変数yがMを超える場合には、或る部屋Rxの全ての領域RxAyを探索したと判断して、ステップS69で、変数IsRxに「1」を設定し、変数xをインクリメントし、変数yに初期値「1」を設定して、ステップS51に戻り、次の部屋Rxについて探索を行う。一方、ステップS67で“YES”であれば、つまり変数yがM以下であれば、或る部屋Rxの領域RxAyをまだ探索していないと判断して、ステップS71で、部屋Rxの領域RxAyへ移動する。次にステップS73で、環境状況の検出および電気機器の制御処理を実行し、ステップS75で、変数IsRxAyに「1」を設定し、変数yをインクリメントして、ステップS63に戻り、次の領域RxAyについて探索を行う。 If “NO” in the step S67, that is, if the variable y exceeds M, it is determined that all the regions RxAy of the room Rx are searched, and “1” is set to the variable IsRx in a step S69. Then, the variable x is incremented, the initial value “1” is set in the variable y, the process returns to step S51, and the next room Rx is searched. On the other hand, if “YES” in the step S67, that is, if the variable y is equal to or less than M, it is determined that the area RxAy of a certain room Rx has not been searched, and the area RxAy of the room Rx is determined in a step S71. Moving. Next, in step S73, environmental status detection and electrical device control processing are executed. In step S75, "1" is set to the variable IsRxAy, the variable y is incremented, and the process returns to step S63 to return to the next region RxAy. Search for.
このように、ロボット10は、単独行動により、全ての部屋Rxの全ての領域Ryを探索するので、局所的な環境の異常(たとえば、温度や湿度の高低、床や空気の汚れ)を検出することができ、人間14の手を煩わすことなく、快適な環境に調整したり、快適な環境を保ったりすることができる。
As described above, the
図8は、図6に示したステップS39および図7に示したステップS73の環境状況の検出および電気機器の制御処理を示すフロー図である。図8に示すように、CPU72は環境状況の検出および電気機器の制御処理を開始すると、ステップS81において、環境センサ100〜106の出力を検出する。つまり、CPU72は、検出温度T、検出湿度S、汚れ検出値Yおよび臭い検出値Nを取得する。
FIG. 8 is a flowchart showing the environmental state detection and electrical device control processing in step S39 shown in FIG. 6 and step S73 shown in FIG. As shown in FIG. 8, when the
続くステップS83では、検出温度Tと設定温度Tsとが等しいかどうかを判断する。ステップS83で“YES”であれば、つまり検出温度Tと設定温度Tsとが等しければ、人間14にとって快適な温度であると判断して、そのままステップS87に進む。一方、検出温度Tと設定温度Tsとが等しくない場合には、人間14にとって快適な温度ではないと判断して、ステップS85で、温度調節機にロボット10の居る領域(RxAy)の温度調整用信号を送信する。具体的には、CPU72は、温度調節機(たとえば、エアコンA)の制御信号を、赤外線信号送信装置98を介して、当該温度調節機に送信する。すると、温度調節機では、電源がオン/オフされたり、設定(目標)温度の設定が変更されたり、風量の強弱の設定が変更されたり、風向などが調節されたりして、人間14にとって快適な温度(設定温度Ts)に調整する。
In a succeeding step S83, it is determined whether or not the detected temperature T is equal to the set temperature Ts. If “YES” in the step S83, that is, if the detected temperature T and the set temperature Ts are equal, it is determined that the temperature is comfortable for the human 14, and the process proceeds to a step S87 as it is. On the other hand, if the detected temperature T and the set temperature Ts are not equal, it is determined that the temperature is not comfortable for the human 14, and in step S 85, the temperature adjustment device is used for temperature adjustment in the region where the
ステップS87では、検出湿度Sと設定湿度Ssとが等しいかどうかを判断する。ステップS87で“YES”であれば、つまり検出湿度Sと設定湿度Ssとが等しい場合には、人間14にとって快適な湿度であると判断して、そのままステップS91に進む。一方、ステップS87で“NO”であれば、つまり検出湿度Sと設定湿度Ssとが等しくない場合には、人間14にとって快適な湿度ではないと判断して、ステップS89において、湿度調節機(たとえば、加湿器Dや除湿機Eなど)に、ロボット10の居る領域(RxAy)の湿度を調整する湿度調整用信号を送信する。具体的には、CPU72は、湿度調節機(加湿器Dや除湿機E)の制御信号を、赤外線信号送信装置98を介して、当該湿度調節機に送信する。すると、湿度調節機では、電源がオン/オフされたり、除湿の強度や蒸気を排出する強度が調節されたりして、人間14にとって快適な湿度(設定湿度Ss)に調整する。
In step S87, it is determined whether the detected humidity S and the set humidity Ss are equal. If “YES” in the step S87, that is, if the detected humidity S and the set humidity Ss are equal, it is determined that the humidity is comfortable for the human 14, and the process proceeds to a step S91 as it is. On the other hand, if “NO” in the step S87, that is, if the detected humidity S and the set humidity Ss are not equal, it is determined that the humidity is not comfortable for the human 14, and in step S89, a humidity controller (for example, , A humidity adjustment signal for adjusting the humidity of the region (RxAy) where the
ステップS91では、汚れ検出値Yが汚れ設定値Ys未満であるかどうかを判断する。また、たとえば、台車22の下面にゴミの吸い込み口を設け、吸い込んだゴミを赤外線センサで検出することにより、床面の汚れを検出するようにしてもよい。ステップS91で“YES”であれば、つまり汚れ検出値Yが汚れ設定値Ys未満であれば、人間14にとって不快となる汚れ(ごみ)は無い(少ない)と判断して、そのままステップS95に進む。一方、ステップS91で“NO”であれば、つまり汚れ検出値Yが汚れ設定値Ys以上であれば、すなわち、人間14にとって不快となる汚れ(ごみ)が有ると判断して、ステップS93において、清掃機に、ロボット10の居る領域(RxAy)の汚れを除去するための清掃開始用信号を送信する。具体的には、CPU72は、清掃機(たとえば、全自動掃除機B)の制御信号を、赤外線信号送信装置98を介して、当該掃除機に送信する。すると、たとえば、全自動掃除機Bが駆動され、不快な汚れが除去され、人間14にとって清潔な環境に調整される。
In step S91, it is determined whether the contamination detection value Y is less than the contamination setting value Ys. Further, for example, a dirt suction port may be provided on the lower surface of the carriage 22, and the dirt on the floor may be detected by detecting the sucked dust with an infrared sensor. If “YES” in the step S91, that is, if the dirt detection value Y is less than the dirt setting value Ys, it is determined that there is no (small) dirt (garbage) that is uncomfortable for the human 14, and the process proceeds to a step S95 as it is. . On the other hand, if “NO” in the step S91, that is, if the dirt detection value Y is greater than or equal to the dirt setting value Ys, that is, it is determined that there is dirt (garbage) that is uncomfortable for the human 14, and in a step S93, A cleaning start signal for removing dirt in the area (RxAy) where the
なお、ロボット10が掃除機能を備えるようにして、ロボット10自身が、当該掃除機能を用いて不快な汚れを除去するようにしてもよい。
Note that the
ステップS95では、臭い検出値Nが臭い設定値Ns未満であるかどうかを判断する。ステップS95で“YES”であれば、つまり臭い検出値Nが臭い設定値Ns未満であれば、人間14にとって不快(健康を害する)となる臭いや空気の汚れは無い(少ない)と判断して、そのまま環境状況の検出および電気機器の制御処理をリターンする。一方、ステップS95で“NO”であれば、つまり臭い検出値Nが臭い設定値Ns以上であれば、人間14にとって不快(健康を害する)となる臭いや空気の汚れが有ると判断して、ステップS97で、臭い除去機(たとえば、空気清浄機Cや換気扇)に、ロボット10の居る領域(RxAy)の空気清浄用信号を送信する。具体的には、CPU72は、臭い除去機(たとえば、空気清浄機Cや換気扇)の制御信号を、赤外線信号送信装置98を介して、当該臭い除去機に送信する。すると、臭い除去機が駆動され、不快(健康を害する)となる臭いや空気の汚れが除去され、人間14にとって清潔で心地良い環境に調整される。
In step S95, it is determined whether the odor detection value N is less than the odor setting value Ns. If “YES” in the step S95, that is, if the odor detection value N is less than the odor setting value Ns, it is determined that there is no (small) odor or air pollution that is uncomfortable (damaging to health) for the human 14. As it is, the detection of the environmental condition and the control processing of the electric device are returned. On the other hand, if “NO” in step S95, that is, if the odor detection value N is equal to or greater than the odor setting value Ns, it is determined that there is an odor or air pollution that is uncomfortable (harmful to health) for the human 14, In step S97, an air purifying signal for the area (RxAy) where the
なお、この実施例では、図4(A)および図4(B)に示したように、各部屋の大きさおよび形状を同じにしてあるため、すべての部屋において、領域の数はMであるが、部屋の大きさが異なる場合には、Mの値も変化する。たとえば、地図データにおいて、各部屋毎にMの値を関連付けて記憶しておけば、探索する部屋に応じてMの値を可変的に設定することができる。 In this embodiment, as shown in FIGS. 4A and 4B, since the size and shape of each room are the same, the number of regions is M in all the rooms. However, if the room sizes are different, the value of M also changes. For example, in the map data, if the value of M is stored in association with each room, the value of M can be variably set according to the room to be searched.
この実施例によれば、自律移動可能なロボットに環境センサを設けておき、必要に応じて、ロボットが各電気機器を適切に制御するので、人間の手を煩わすことなく、快適な環境を実現することができる。 According to this embodiment, an environment sensor is provided in a robot that can move autonomously, and the robot appropriately controls each electrical device as necessary, so that a comfortable environment is realized without bothering human hands. can do.
なお、この実施例では、温度センサ、湿度センサ、汚れセンサおよび臭いセンサにより、環境状況を検出し、検出した環境状況に応じて各種電気機器を制御するようにした。しかし、センサや電気機器は上述したものに限定されるべきではない。また、電気機器に限らず、リモコンなどにより制御可能な構成にすれば、他の装置であっても制御することができ、これによって、環境状況を整えることも可能である。たとえば、窓を電気的に開閉可能にしておけば、その自動開閉装置をロボットから送信する赤外線信号によって制御することにより、窓を開けたり、閉めたりすることができる。これにより、温度や湿度を調整することも可能である。また、音センサすなわちマイク(実施例では、46)により周囲の音(騒音)を検出し、その音の大きさに応じて、窓を開閉することもできる。したがって、たとえば、騒音が屋内に入ってきたり、騒音が外に漏れたりすることを防ぐことができる。また、たとえば、照明装置をロボットから送信する赤外線信号によって制御可能にし、ロボットには光センサを設けておく。そして、たとえば、人間に追従してその周辺の明るさを検出し、照明装置をオン/オフしたり、その明るさを調整したりすることにより、人間付近の明るさを一定に保つことができる。 In this embodiment, an environmental condition is detected by a temperature sensor, a humidity sensor, a dirt sensor, and an odor sensor, and various electric devices are controlled according to the detected environmental condition. However, sensors and electrical devices should not be limited to those described above. Further, if the configuration can be controlled by a remote controller or the like without being limited to electrical devices, other devices can also be controlled, and thereby the environmental situation can be adjusted. For example, if the window can be electrically opened and closed, the window can be opened and closed by controlling the automatic opening and closing device with an infrared signal transmitted from the robot. Thereby, it is also possible to adjust temperature and humidity. Further, a surrounding sound (noise) can be detected by a sound sensor, that is, a microphone (46 in the embodiment), and the window can be opened and closed according to the volume of the sound. Therefore, for example, it is possible to prevent noise from entering the room or leaking outside. Further, for example, the lighting device can be controlled by an infrared signal transmitted from the robot, and the robot is provided with an optical sensor. Then, for example, the brightness in the vicinity of a person can be kept constant by detecting the brightness of the surrounding area following the person, turning the lighting device on / off, and adjusting the brightness. .
また、この実施例では、ロボットが人間を検知した場合、離れる指示があるまで、当該検知した人間を追従するようにしたが、これに限定されるべきでない。たとえば、追従行動を開始する前に、全範囲について人間が存在するか否かを探索し、検知した複数の人間から1人の人間を検知した順番に基づいて選択して(たとえば、最初または最後に検知した人間を選択)、追従行動を実行するようにすることもできる。また、各人間を識別可能にするとともに、各人間に優先順位をつけておき、検出した複数の人間から1人の人間を優先順位に従って選択する(たとえば、優先順位が一番高いまたは一番低い人間を選択する)ようにしてもよい。さらには、一度追従を拒否した(離れる指示を出した)人間には、次回以降遭遇した場合であっても、追従行動を実行しないようにしたり、優先順位を低く(高く)したりして選択され難くするようにしてもよい。逆に、人間からロボットに話しかけてきた場合には、当該人間に対して直ぐに追従行動を実行したり、その人間の優先順位を高く(低く)したりして選択され易くするようにしてもよい。また、ロボットが単独行動中であっても、人間に呼ばれた場合や離れる指示をした人間とは違う人間を検出した場合などは、直ぐに単独行動から追従行動に移行するようにしてもよい。 Further, in this embodiment, when the robot detects a human, the detected human is followed until an instruction to leave, but the present invention should not be limited to this. For example, before starting a follow-up action, search for the presence or absence of humans over the entire range and select from a plurality of detected humans based on the order in which one human was detected (eg, first or last) It is also possible to select a person who has detected the above and perform a follow-up action. In addition, each person can be identified, and a priority order is assigned to each person, and one person is selected from a plurality of detected persons according to the priority order (for example, the highest priority order or the lowest priority order). It is also possible to select a human). Furthermore, even if a person who refuses to follow (has given an instruction to leave) once, even if it encounters after the next time, he chooses not to execute the follow-up action or to lower (higher) the priority. You may make it hard to be done. Conversely, when a person talks to a robot, the person may immediately follow the person or increase (decrease) the priority of the person so that the person can be selected easily. . Further, even if the robot is in a single action, when it is called by a human or when a person different from the person who gives an instruction to leave is detected, the robot may immediately shift from the single action to the following action.
また、この実施例では、ロボットを配置する領域についての地図データを大領域(部屋毎)と小領域(X[cm]×Y[cm]の領域)とに分けて管理するようにしたが、これに限定されない。たとえば、一部屋が広い場合などは、最大に離れても人間が検出できる程度の広さの中領域(部屋を数個に分けた程度の領域:たとえば数メートル四方)を設け、大領域と中領域と小領域とに分けて管理するようにしてもよい。 In this embodiment, the map data for the area where the robot is arranged is managed by dividing it into a large area (for each room) and a small area (area of X [cm] × Y [cm]). It is not limited to this. For example, if one room is large, a medium area (area that is divided into several rooms, for example, several meters square) that is large enough to be detected by humans even if it is farthest away is provided. You may make it manage by dividing into an area | region and a small area | region.
さらに、この実施例では、人間を映像に基づいて検知したり、周波数タグを用いて個人を識別可能に検知したりするようにした。しかし、ロボットが適用される建物の床に床圧力センサを敷き詰めておき、その出力に基づいて人間を検知し、検知した情報を、外部コンピュータを介してロボットに送信するようにしてもよい。 Furthermore, in this embodiment, humans are detected based on video images, and individuals are identifiable using frequency tags. However, a floor pressure sensor may be laid down on the floor of a building to which the robot is applied, a person is detected based on the output, and the detected information may be transmitted to the robot via an external computer.
さらにまた、この実施例では、ロボットが電気機器に赤外線信号を直接送信するようにした。しかし、これに限定される必要はなく、他の方法を採用することもできる。たとえば、各部屋毎に、赤外線信号を受信する受信装置をロボットから赤外線信号を送信し易い位置(場所:高さや方向)に設けておき、当該受信装置と各電気機器とをたとえば有線で接続し、受信装置を介して赤外線信号(制御信号)を各電気機器に送信するようにしてもよい。かかる場合には、受信装置の位置を地図データに含めておくことにより、正確に制御信号(赤外線信号)を送信して、環境状況の調整を確実に行うことができる。或いは、外部コンピュータを各電気機器に接続して、制御信号を送信可能にしておけば、当該外部コンピュータとロボットとを無線LANのようなネットワークで接続することにより、ネットワークおよび外部コンピュータを介して、各電気機器に制御信号を送信することもできる。 Furthermore, in this embodiment, the robot directly transmits an infrared signal to the electric device. However, the present invention is not limited to this, and other methods can be adopted. For example, for each room, a receiving device that receives an infrared signal is provided at a position (location: height or direction) where the infrared signal is easily transmitted from the robot, and the receiving device and each electrical device are connected, for example, by wire. The infrared signal (control signal) may be transmitted to each electric device via the receiving device. In such a case, by including the position of the receiving device in the map data, it is possible to accurately transmit the control signal (infrared signal) and reliably adjust the environmental situation. Alternatively, if an external computer is connected to each electrical device and control signals can be transmitted, the external computer and the robot are connected via a network such as a wireless LAN, via the network and the external computer, A control signal can also be transmitted to each electric device.
10 …ロボット
42 …全方位カメラ
48 …眼カメラ
72 …CPU
76 …メモリ
98 …赤外線信号送信装置
100 …温度センサ
102 …湿度センサ
104 …汚れセンサ
106 …臭いセンサ
110 …データベース
10.
76 ...
Claims (6)
前記検出手段の検出結果が所定条件を満たさないとき、前記環境状況を調整する電気機器に、当該所定条件を満足させるための制御信号を送信する送信手段を備える、ロボット。 Detection means for detecting an environmental situation, and transmission means for transmitting a control signal for satisfying the predetermined condition to an electrical device that adjusts the environmental situation when a detection result of the detection means does not satisfy the predetermined condition ,robot.
前記検出手段は、前記地図記憶手段に記憶された地図データを参照して、前記自律移動手段によって自律移動するとき、前記環境状況を検出する、請求項3記載のロボット。 Map storage means for storing map data;
The robot according to claim 3, wherein the detection means detects the environmental situation when the autonomous movement means refers to map data stored in the map storage means and moves autonomously.
前記人間検出手段によって人間が検知された場合、前記自律移動手段によって当該人間を追従する、請求項1ないし4のいずれかに記載のロボット。 It further comprises a human detection means for detecting a human existing around or in the vicinity,
The robot according to any one of claims 1 to 4, wherein when the human is detected by the human detection means, the autonomous movement means follows the human.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005345619A JP2007147217A (en) | 2005-11-30 | 2005-11-30 | Robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005345619A JP2007147217A (en) | 2005-11-30 | 2005-11-30 | Robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007147217A true JP2007147217A (en) | 2007-06-14 |
Family
ID=38208816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005345619A Pending JP2007147217A (en) | 2005-11-30 | 2005-11-30 | Robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007147217A (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011152019A1 (en) * | 2010-05-31 | 2011-12-08 | 株式会社エナリス | Power demand management device and power demand management system |
JP2014059764A (en) * | 2012-09-18 | 2014-04-03 | Sharp Corp | Self-propelled control device, method for controlling self-propelled control device, external device control system, self-propelled control device control program and computer-readable recording medium with the same recorded therein |
JP2014149115A (en) * | 2013-01-31 | 2014-08-21 | Tokyo Gas Co Ltd | Home energy management system |
CN104697122A (en) * | 2013-12-04 | 2015-06-10 | 海尔集团公司 | Intelligent air adjusting method and device |
WO2015199197A1 (en) * | 2014-06-25 | 2015-12-30 | 株式会社未来機械 | Work system utilizing self-propelled robot |
JP2016135530A (en) * | 2015-01-23 | 2016-07-28 | シャープ株式会社 | Robot control device and robot |
CN105841735A (en) * | 2015-01-12 | 2016-08-10 | 芋头科技(杭州)有限公司 | Air quality detection system and method through robot |
JP2017022745A (en) * | 2016-09-07 | 2017-01-26 | Necプラットフォームズ株式会社 | Control apparatus, communication system, control method, and program |
CN106705388A (en) * | 2017-03-03 | 2017-05-24 | 广州飒括科技有限公司 | Air quality detecting device and method for linkage-controlling air quality improving device |
CN106765984A (en) * | 2017-01-11 | 2017-05-31 | 广东美的制冷设备有限公司 | A kind of progress control method of Intelligent mobile air-conditioner |
JP2017122577A (en) * | 2017-04-18 | 2017-07-13 | 三菱電機株式会社 | Environment control system |
CN108344116A (en) * | 2018-02-11 | 2018-07-31 | 深圳市沃特沃德股份有限公司 | The adjusting method and clean robot of indoor air quality |
JP2018160210A (en) * | 2017-03-24 | 2018-10-11 | 株式会社日立ビルシステム | Robot control system and robot |
CN109469970A (en) * | 2018-10-29 | 2019-03-15 | 珠海格力电器股份有限公司 | A kind of method, apparatus, air-conditioning and storage medium controlling air-conditioning |
JP2019207039A (en) * | 2018-05-28 | 2019-12-05 | 株式会社日立ビルシステム | Environment adjusting system and environment adjusting method |
WO2019151845A3 (en) * | 2019-03-20 | 2020-02-06 | 엘지전자 주식회사 | Air conditioner |
WO2019151846A3 (en) * | 2019-03-20 | 2020-02-06 | 엘지전자 주식회사 | Air purifier |
JP2020137914A (en) * | 2019-03-01 | 2020-09-03 | 株式会社コーエーテクモゲームス | Information processing device, game processing method and game processing program |
US20200345905A1 (en) * | 2019-05-02 | 2020-11-05 | National Cheng Kung University | Surgical smoke removing device |
CN113251631A (en) * | 2021-04-27 | 2021-08-13 | 青岛海尔空调器有限总公司 | Air conditioner control method and device, control box, air conditioner and storage medium |
CN113915717A (en) * | 2021-10-18 | 2022-01-11 | 刘晓燕 | Multifunctional air purifier with security system |
JP7025170B2 (en) | 2013-01-18 | 2022-02-24 | アイロボット・コーポレーション | A mobile robot that provides environment mapping for home environment control |
US11648685B2 (en) | 2013-01-18 | 2023-05-16 | Irobot Corporation | Mobile robot providing environmental mapping for household environmental control |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6129638A (en) * | 1984-07-23 | 1986-02-10 | Mitsubishi Electric Corp | Controlling device of indoor environment |
JP2002350555A (en) * | 2001-05-28 | 2002-12-04 | Yamaha Motor Co Ltd | Human presence detector |
JP2003111157A (en) * | 2001-09-28 | 2003-04-11 | Toshiba Corp | Integrated controller, apparatus controlling method, and apparatus controlling program |
JP2005065026A (en) * | 2003-08-18 | 2005-03-10 | Honda Motor Co Ltd | Information collecting robot |
-
2005
- 2005-11-30 JP JP2005345619A patent/JP2007147217A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6129638A (en) * | 1984-07-23 | 1986-02-10 | Mitsubishi Electric Corp | Controlling device of indoor environment |
JP2002350555A (en) * | 2001-05-28 | 2002-12-04 | Yamaha Motor Co Ltd | Human presence detector |
JP2003111157A (en) * | 2001-09-28 | 2003-04-11 | Toshiba Corp | Integrated controller, apparatus controlling method, and apparatus controlling program |
JP2005065026A (en) * | 2003-08-18 | 2005-03-10 | Honda Motor Co Ltd | Information collecting robot |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011254586A (en) * | 2010-05-31 | 2011-12-15 | Eneres Corp | Electric power demand management device and electric power demand management system |
WO2011152019A1 (en) * | 2010-05-31 | 2011-12-08 | 株式会社エナリス | Power demand management device and power demand management system |
JP2014059764A (en) * | 2012-09-18 | 2014-04-03 | Sharp Corp | Self-propelled control device, method for controlling self-propelled control device, external device control system, self-propelled control device control program and computer-readable recording medium with the same recorded therein |
JP7025170B2 (en) | 2013-01-18 | 2022-02-24 | アイロボット・コーポレーション | A mobile robot that provides environment mapping for home environment control |
US11648685B2 (en) | 2013-01-18 | 2023-05-16 | Irobot Corporation | Mobile robot providing environmental mapping for household environmental control |
JP2014149115A (en) * | 2013-01-31 | 2014-08-21 | Tokyo Gas Co Ltd | Home energy management system |
CN104697122A (en) * | 2013-12-04 | 2015-06-10 | 海尔集团公司 | Intelligent air adjusting method and device |
JPWO2015199197A1 (en) * | 2014-06-25 | 2017-04-20 | 株式会社未来機械 | Work system using self-propelled robot |
WO2015199197A1 (en) * | 2014-06-25 | 2015-12-30 | 株式会社未来機械 | Work system utilizing self-propelled robot |
CN105841735A (en) * | 2015-01-12 | 2016-08-10 | 芋头科技(杭州)有限公司 | Air quality detection system and method through robot |
JP2016135530A (en) * | 2015-01-23 | 2016-07-28 | シャープ株式会社 | Robot control device and robot |
WO2016117514A1 (en) * | 2015-01-23 | 2016-07-28 | シャープ株式会社 | Robot control device and robot |
JP2017022745A (en) * | 2016-09-07 | 2017-01-26 | Necプラットフォームズ株式会社 | Control apparatus, communication system, control method, and program |
CN106765984A (en) * | 2017-01-11 | 2017-05-31 | 广东美的制冷设备有限公司 | A kind of progress control method of Intelligent mobile air-conditioner |
CN106765984B (en) * | 2017-01-11 | 2019-07-26 | 广东美的制冷设备有限公司 | A kind of progress control method of Intelligent mobile air conditioner |
CN106705388A (en) * | 2017-03-03 | 2017-05-24 | 广州飒括科技有限公司 | Air quality detecting device and method for linkage-controlling air quality improving device |
JP2018160210A (en) * | 2017-03-24 | 2018-10-11 | 株式会社日立ビルシステム | Robot control system and robot |
JP2017122577A (en) * | 2017-04-18 | 2017-07-13 | 三菱電機株式会社 | Environment control system |
CN108344116A (en) * | 2018-02-11 | 2018-07-31 | 深圳市沃特沃德股份有限公司 | The adjusting method and clean robot of indoor air quality |
WO2019153381A1 (en) * | 2018-02-11 | 2019-08-15 | 深圳市沃特沃德股份有限公司 | Indoor air quality regulating method and cleaning robot |
JP2019207039A (en) * | 2018-05-28 | 2019-12-05 | 株式会社日立ビルシステム | Environment adjusting system and environment adjusting method |
JP7042159B2 (en) | 2018-05-28 | 2022-03-25 | 株式会社日立ビルシステム | Environmental adjustment system and environmental adjustment method |
CN109469970A (en) * | 2018-10-29 | 2019-03-15 | 珠海格力电器股份有限公司 | A kind of method, apparatus, air-conditioning and storage medium controlling air-conditioning |
JP2020137914A (en) * | 2019-03-01 | 2020-09-03 | 株式会社コーエーテクモゲームス | Information processing device, game processing method and game processing program |
JP7312574B2 (en) | 2019-03-01 | 2023-07-21 | 株式会社コーエーテクモゲームス | Information processing device, game processing method and game processing program |
WO2019151846A3 (en) * | 2019-03-20 | 2020-02-06 | 엘지전자 주식회사 | Air purifier |
US11571648B2 (en) | 2019-03-20 | 2023-02-07 | Lg Electronics Inc. | Air cleaner |
US11649980B2 (en) | 2019-03-20 | 2023-05-16 | Lg Electronics Inc. | Air conditioner communicating with moving agent to sense indoor space |
WO2019151845A3 (en) * | 2019-03-20 | 2020-02-06 | 엘지전자 주식회사 | Air conditioner |
US20200345905A1 (en) * | 2019-05-02 | 2020-11-05 | National Cheng Kung University | Surgical smoke removing device |
CN113251631A (en) * | 2021-04-27 | 2021-08-13 | 青岛海尔空调器有限总公司 | Air conditioner control method and device, control box, air conditioner and storage medium |
WO2022227569A1 (en) * | 2021-04-27 | 2022-11-03 | 青岛海尔空调器有限总公司 | Air conditioner control method and apparatus, control box, air conditioner, and storage medium |
CN113915717A (en) * | 2021-10-18 | 2022-01-11 | 刘晓燕 | Multifunctional air purifier with security system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007147217A (en) | Robot | |
JP4822319B2 (en) | Communication robot and attention control system using the same | |
US11076734B2 (en) | Robot cleaner and control method thereof using artificial intelligence | |
JP6428921B2 (en) | Blower equipment and blower system | |
JP5318623B2 (en) | Remote control device and remote control program | |
CN105291093A (en) | Domestic robot system | |
JP2006123158A (en) | Robot control system and robot control method | |
JP2007260822A (en) | Guide robot | |
KR20020088880A (en) | Multi Functional Robot and Method for Controlling thereof | |
JP7375748B2 (en) | Information processing device, information processing method, and program | |
JP7204840B2 (en) | Air-conditioning control device, air-conditioning system, air-conditioning control method and program | |
JP2012139798A (en) | Mobile robot, learning system for the same, and method of learning action of the same | |
JP2007160427A (en) | Robot control system | |
KR102290983B1 (en) | Controlling method for Artificial intelligence Moving robot | |
KR20180018211A (en) | Self-learning robot | |
JP5552710B2 (en) | Robot movement control system, robot movement control program, and robot movement control method | |
KR101708301B1 (en) | Robot cleaner and remote control system of the same | |
KR102423572B1 (en) | Controlling method for Artificial intelligence Moving robot | |
JP6142307B2 (en) | Attention target estimation system, robot and control program | |
KR102183098B1 (en) | A moving-robot and control method thereof | |
CN109991961A (en) | Mobile device and its control method, tele-control system | |
JP6031465B2 (en) | Housing equipment control device | |
KR102508073B1 (en) | A moving-robot and control method thereof | |
JP2006263874A (en) | Communication robot | |
KR20200115691A (en) | A moving-robot and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100223 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100810 |