JP2001306145A - Moving robot device and program record medium therefor - Google Patents
Moving robot device and program record medium thereforInfo
- Publication number
- JP2001306145A JP2001306145A JP2000123535A JP2000123535A JP2001306145A JP 2001306145 A JP2001306145 A JP 2001306145A JP 2000123535 A JP2000123535 A JP 2000123535A JP 2000123535 A JP2000123535 A JP 2000123535A JP 2001306145 A JP2001306145 A JP 2001306145A
- Authority
- JP
- Japan
- Prior art keywords
- moving
- group
- robot device
- mobile robot
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 24
- 230000009471 action Effects 0.000 claims description 78
- 238000000926 separation method Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 abstract description 4
- 230000000875 corresponding effect Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 14
- 241001465754 Metazoa Species 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000006399 behavior Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 101100116283 Arabidopsis thaliana DD11 gene Proteins 0.000 description 1
- 102100033007 Carbonic anhydrase 14 Human genes 0.000 description 1
- 101150042515 DA26 gene Proteins 0.000 description 1
- 101000867862 Homo sapiens Carbonic anhydrase 14 Proteins 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Toys (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、周囲環境に基づ
いて自律移動する移動ロボット装置およびそのプログラ
ム記録媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile robot apparatus that moves autonomously based on a surrounding environment and a program recording medium for the mobile robot apparatus.
【0002】[0002]
【従来の技術】従来、周囲環境に基づいて自律移動する
移動ロボット装置、特に動物型ロボットやペットロボッ
トと呼ばれる娯楽ロボットは、外界検出機能や認識機能
を有し、現在の外界情報や内界情報を常時認識しなが
ら、その認識結果にしたがって予め組み込まれている動
作パターンを選択的に呼び出して自律移動(歩行)する
ようにしている。2. Description of the Related Art Conventionally, a mobile robot device that autonomously moves based on the surrounding environment, particularly an entertainment robot called an animal-type robot or a pet robot, has an external world detecting function and a recognizing function. Is constantly recognized, and an operation pattern incorporated in advance is selectively called in accordance with the recognition result to autonomously move (walk).
【0003】[0003]
【発明が解決しようとする課題】しかしながら、この種
の移動ロボット装置においては、周囲環境に基づいて予
め組み込まれている動作パターンを選択して自律移動す
る場合、例えば、部屋の壁や障害物を避けて迂回する
等、単調な動きが多く、直ぐに飽きられてしまうという
欠点があった。この発明の課題は、他の移動体との相互
関係において、予測不可能な行動や複雑な行動を可能と
し、変化に富んだ動きによって飽きのこない移動ロボッ
ト装置を提供できるようにすることであるHowever, in this type of mobile robot device, when a pre-installed motion pattern is selected based on the surrounding environment and autonomously moves, for example, a wall or an obstacle in a room may be moved. There are many monotonous movements, such as avoiding detours, and there is a drawback that one gets tired immediately. It is an object of the present invention to provide an unpredictable action or a complicated action in a mutual relationship with another moving object, and to provide a mobile robot apparatus that does not get tired of a variety of movements.
【0004】この発明の手段は、次の通りである。請求
項第1記載の発明は、周囲環境に基づいて自律移動する
移動ロボット装置であって、当該装置本体と他の移動体
との位置関係を自己の行動ルールとして記憶する行動ル
ール記憶手段と、装置本体の周囲環境をサーチして外界
情報を検出する外界情報検出手段と、この外界情報検出
手段によって検出された外界情報に基づいて他の移動体
の位置とその距離とを認識する移動体認識手段と、この
移動体認識手段による認識内容と前記行動ルールとに基
づいてその行動ルールを満たす方向を装置本体の移動方
向として決定する移動方向決定手段と、この移動方向決
定手段によって決定された方向に装置本体を移動させる
動作制御手段とを具備するものである。また、コンピュ
ータに対して、上述した各機能を実行させるためのプロ
グラムコードをそれぞれ記録した記録媒体を提供するも
のである。[0004] The means of the present invention are as follows. An invention according to claim 1 is a mobile robot device that autonomously moves based on a surrounding environment, and an action rule storage unit that stores a positional relationship between the device body and another mobile object as its own action rule, External object information detecting means for searching the surrounding environment of the apparatus body to detect external information, and moving object recognition for recognizing the position and distance of another moving object based on the external information detected by the external information detecting means. Means, moving direction determining means for determining, as the moving direction of the apparatus body, a direction satisfying the action rule based on the content of recognition by the moving body recognizing means and the action rule, and a direction determined by the moving direction determining means. Operation control means for moving the apparatus main body. Another object of the present invention is to provide a recording medium in which a program code for causing a computer to execute each of the above-described functions is recorded.
【0005】なお、この発明は次のようなものであって
もよい。 (1)前記行動ルールは、装置本体を中心とした周囲所
定距離の範囲内において他の移動体と共存可能な共存数
を示す要求条件であり、前記移動方向決定手段は、前記
共存数を満たす方向を装置本体の移動方向として決定す
る。この場合、前記要求条件は、複数の移動体を複数グ
ループに分割した場合での、夫々のグループに対応する
要求条件であり、前記移動方向決定手段は、前記移動体
認識手段によって認識された他の移動体がどのグループ
に属するかに応じて前記移動方向を決定するようにして
もよい。また、前記各移動体のグループの属性識別は、
その移動体が出力する識別信号に基づいて行うようにし
てもよい。 (2)前記行動ルールは、他の移動体への追跡条件であ
り、前記移動方向決定手段は、その要求条件を満たす方
向を装置本体の移動方向として決定する他、その移動量
を決定するようにしてもよい。この場合、前記追跡条件
には、追跡対象となる移動体に近づいた際での追跡離間
距離を含み、前記動作制御手段は、前記決定方向に装置
本体を移動させたことにより追跡対象となる移動体に近
づいた後は、前記追跡離間距離を保持しながら追跡移動
させるようにしてもよい。また、前追跡条件には、追跡
対象となる移動体の対象条件を含み、他の移動体のうち
で、その対象条件に合致する移動体に対応して前記追跡
移動を行うようにしてもよい。 (3)前記行動ルールを任意に設定可能な設定手段を設
ける。したがって、請求項1記載の発明においては、検
出された外界情報に基づいて他の移動体の位置とその距
離とを認識し、この認識内容と予め決められている行動
ルールとに基づいてその行動ルールを満たす方向を自己
の移動方向として決定して装置本体を移動させること
で、他の移動体との相互関係において、予測不可能な行
動や複雑な行動を可能とし、変化に富んだ動きによって
飽きのこない移動ロボット装置を提供することができ
る。[0005] The present invention may be as follows. (1) The action rule is a requirement condition indicating a coexistence number that can coexist with another moving body within a range of a predetermined distance around the apparatus main body, and the moving direction determining unit satisfies the coexistence number. The direction is determined as the moving direction of the apparatus main body. In this case, the request condition is a request condition corresponding to each group in a case where a plurality of moving objects are divided into a plurality of groups. The moving direction may be determined according to which group the moving object belongs to. Further, the attribute identification of the group of each mobile unit is as follows:
You may make it perform based on the identification signal which the moving body outputs. (2) The action rule is a tracking condition for another moving body, and the moving direction determining means determines a direction satisfying the required condition as a moving direction of the apparatus main body and also determines a moving amount. It may be. In this case, the tracking condition includes a tracking separation distance when approaching a moving object to be tracked, and the operation control unit moves the device to be tracked by moving the apparatus body in the determination direction. After approaching the body, the subject may be tracked while maintaining the tracking separation distance. Further, the pre-tracking condition may include a target condition of a moving object to be tracked, and the tracking movement may be performed corresponding to a moving object that matches the target condition among other moving objects. . (3) A setting means capable of arbitrarily setting the action rule is provided. Therefore, according to the first aspect of the present invention, the position and the distance of another moving object are recognized based on the detected outside world information, and the action of the moving object is determined based on the recognized content and a predetermined action rule. By determining the direction that satisfies the rule as its own moving direction and moving the device itself, it is possible to perform unpredictable and complex actions in the interrelation with other moving objects, A mobile robot device that does not get tired can be provided.
【0006】[0006]
【発明の実施の形態】以下、図1〜図9を参照してこの
発明の一実施形態を説明する。図1は、この実施形態に
おける移動ロボット装置の全体構成を示したブロック図
である。この移動ロボット装置は、周囲環境に基づいて
自律的に歩行移動する動物型ロボット装置(ペットロボ
ット装置)であり、当該装置本体とその周囲に存在する
他の移動体との位置関係を常時認識し、その認識結果と
予め設定されている行動ルールとに基づいて装置本体の
移動方向を決定して、複雑な自律移動を可能としたもの
である。なお、他の移動体としては、同一構成の動物型
ロボット装置の他、人間等も含み、複数の動物型ロボッ
ト装置を同時駆動させ、人間等の移動体を含めて、それ
らの相互関係において複雑な行動を楽しむことができる
ようになっている。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to FIGS. FIG. 1 is a block diagram showing the overall configuration of the mobile robot device according to this embodiment. This mobile robot device is an animal-type robot device (pet robot device) that walks and moves autonomously based on the surrounding environment, and constantly recognizes the positional relationship between the main body of the device and other moving objects around it. The moving direction of the apparatus body is determined based on the recognition result and a preset action rule, thereby enabling complicated autonomous movement. In addition, the other moving objects include not only animal-type robot devices having the same configuration but also humans and the like. You can enjoy various actions.
【0007】この場合、複数の動物型ロボット装置は、
Aグループ、Bグループ等のように予め複数のグループ
に分類され、また、動物型ロボット装置以外の移動体
(人間や動物)は、その他のグループに属するものとし
て分類されている。また、各動物型ロボット装置には、
後で詳述するが、2種類の動作モードとして、「群遊モ
ード」、「追随モード」を有し、任意に切り替え可能と
なっている。ここで、「群遊モード」とは、自己の周囲
に存在する他の移動体がどのグループに属するかに応じ
て自己が進む移動方向を決定しながら自律移動する動作
モードで、例えば、複雑な群行動をも可能としたもので
ある。また、「追随モード」は、自己の周囲に存在する
各移動体の中から所定の移動体を特定し、それに追随し
て移動する動作モードで、例えば、複数のロボット装置
を1列縦隊で整然として追跡させることも可能としたも
のである。In this case, the plurality of animal robot devices are
A moving object (human or animal) other than an animal-type robot device is classified as belonging to another group, such as a group A, a group B, and the like. Also, each animal-type robot device has
As will be described in detail later, there are two types of operation modes, a “group play mode” and a “follow-up mode”, which can be arbitrarily switched. Here, the “group play mode” is an operation mode in which an autonomous movement is performed while deciding a movement direction in which the self moves in accordance with which group the other moving objects existing around the self belong to. It also enables group behavior. The “follow-up mode” is an operation mode in which a predetermined moving body is specified from among the moving bodies existing around itself, and moves following the moving body. It is also possible to track as.
【0008】CPU1は、記憶部2内のオペレーティン
グシステムや各種アプリケーションソフトにしたがって
この動物型ロボットの全体動作を制御する中央演算処理
装置である。記憶部2は、オペレーティングシステムや
各種アプリケーションソフト等が格納され、磁気的、光
学的、半導体メモリ等によって構成されている記録媒体
やその駆動系を有している。この記録媒体はハードディ
スク等の固定的な媒体若しくは着脱自在に装着可能なC
D−ROM、フロッピィデスク、RAMカード、磁気カ
ード等の可搬型の媒体である。また、CPU1は記録媒
体内に格納されるその一部あるいは全部を他の機器側か
ら取り込み、記録媒体に新規登録あるいは追加登録する
こともできる。The CPU 1 is a central processing unit that controls the overall operation of the animal type robot in accordance with the operating system and various application software in the storage unit 2. The storage unit 2 stores an operating system, various application software, and the like, and has a recording medium including a magnetic, optical, semiconductor memory, and the like, and a drive system therefor. This recording medium may be a fixed medium such as a hard disk or a removable medium.
It is a portable medium such as a D-ROM, a floppy desk, a RAM card, and a magnetic card. The CPU 1 can also take in some or all of the data stored in the recording medium from another device and newly register or additionally register it in the recording medium.
【0009】一方、この動物型ロボットには、物体距離
センサ3、移動駆動部4、信号発信部5、信号受信部6
を有し、それらは入力周辺デバイスとしてCPU1に接
続されている。物体距離センサ3は、自己の周囲環境を
検出するもので、発光素子や受光素子を有し、光照射し
た後の反射光に基づいて障害物や他の移動体との距離や
位置を測定する光学的センサである。この物体距離セン
サ3は、当該装置本体に対して360度回転可能に取り
付けられており、装置本体を中心として周囲環境をサー
チし、障害物や他の移動体との距離や位置を測定するこ
とにより、CPU1は、この検出結果に基づいて周囲環
境地図を作成すると共に、その環境地図内に存在する他
の移動体の位置、距離を認識するようにしている。移動
駆動部4は、モータ、電源、駆動機構を備え、動物型ロ
ボット装置を構成する四脚の関節やその他の可動部分を
駆動させることにより、装置本体を歩行移動させるもの
である。On the other hand, the animal type robot has an object distance sensor 3, a movement drive unit 4, a signal transmission unit 5, and a signal reception unit 6.
Which are connected to the CPU 1 as input peripheral devices. The object distance sensor 3 detects its surrounding environment, has a light emitting element or a light receiving element, and measures a distance or a position to an obstacle or another moving object based on reflected light after light irradiation. An optical sensor. The object distance sensor 3 is mounted to be rotatable 360 degrees with respect to the apparatus main body, searches the surrounding environment around the apparatus main body, and measures a distance and a position to an obstacle or another moving body. Thus, the CPU 1 creates a surrounding environment map based on the detection result, and recognizes the position and distance of another moving object existing in the environment map. The movement drive unit 4 includes a motor, a power supply, and a drive mechanism, and drives the four-legged joints and other movable parts of the animal robot device to walk and move the device body.
【0010】信号発信部5は、他の動物型ロボット装置
に対して自己を識別させるための情報を固有信号として
発信出力すると共に、自己が属するグループを識別させ
るための情報をグループ識別信号として発信出力するも
ので、例えば、赤外線通信によって固有信号、グループ
識別信号を常時発信出力するようにしている。信号受信
部6は、他の動物型ロボット装置から送信されて来た上
述の固有信号、グループ識別信号を受信する他、通信操
作部7から送信されて来た各種の情報を受信するもの
で、例えば、赤外線通信装置によって構成されている。
なお、通信操作部7は、コードレスのリモートコントロ
ーラで、表示部、入力部を有し、入力情報を例えば、赤
外線通信によって動物型ロボット装置に対して送信す
る。この場合、通信操作部7は、複数の動物型ロボット
装置のうち、任意のロボット装置を選択指定してそれを
遠隔操作できるようにしている他、各動物型ロボット装
置に対して所定の情報を設定できるようにしている。The signal transmitting unit 5 transmits and outputs information for identifying itself to other animal type robot devices as a unique signal, and transmits information for identifying the group to which it belongs to as a group identification signal. For example, a unique signal and a group identification signal are always transmitted and output by infrared communication. The signal receiving unit 6 receives the above-described unique signal and group identification signal transmitted from another animal-type robot device, and also receives various information transmitted from the communication operation unit 7. For example, it is constituted by an infrared communication device.
The communication operation unit 7 is a cordless remote controller, has a display unit and an input unit, and transmits input information to the animal robot device by, for example, infrared communication. In this case, the communication operation unit 7 selects and designates an arbitrary robot device from among the plurality of animal robot devices so that it can be remotely operated, and also transmits predetermined information to each animal robot device. It is settable.
【0011】また、記憶部2内には、行動ルールテーブ
ル2−1、環境地図2−2、移動体テーブル2−3が記
憶される他、予め設定登録されているグループ識別信
号、固有信号が記憶されている。行動ルールテーブル2
−1は、予めグループ別に任意に設定された行動ルール
を記憶するもので、その設定は通信操作部7からの送信
情報にしたがって行われる。この場合、行動ルールテー
ブル2−1の構成は、現在セットされている動作モード
が上述の「群遊モード」か「追随モード」かに応じて異
なり、「群遊モード」においては、図9(A)に示すよ
うな構成となっており、「追随モード」においては、図
9(B)に示すような構成となっている。The storage unit 2 stores an action rule table 2-1, an environment map 2-2, and a moving object table 2-3, and stores a group identification signal and a unique signal which are registered in advance. It is remembered. Action rule table 2
-1 stores an action rule arbitrarily set for each group in advance, and the setting is performed according to transmission information from the communication operation unit 7. In this case, the configuration of the action rule table 2-1 is different depending on whether the currently set operation mode is the “group play mode” or the “follow-up mode”. A), and in the “follow-up mode”, the configuration as shown in FIG. 9B.
【0012】すなわち、「群遊モード」対応の行動ルー
ルテーブル2−1は、グループ「A」、「B」、「C」
に対応して「グループ識別信号」、「制限範囲(半径
m)」、「共存数」を記憶する構成となっている。この
場合、グループ「A」、「B」は、複数の動物型ロボッ
ト装置をAグループ、Bグループに分類した場合におけ
るグループを示し、グループ「C」は、ロボット装置以
外の人間等を同一グループとした場合であり、また、
「グループ識別信号」は、グループ「A」、「B」、
「C」を識別する識別情報であり、グループ「A」、
「B」に対応して「グループ識別信号」は設定されてい
るが、グループ「C」には設定されてはおらず、「設定
無し」によってグループ「C」を識別するようにしてい
る。That is, the action rule table 2-1 corresponding to the “group play mode” includes the groups “A”, “B”, “C”
, The “group identification signal”, “restricted range (radius m)”, and “coexistence number” are stored. In this case, the groups “A” and “B” indicate a group in which a plurality of animal-type robot devices are classified into the A group and the B group, and the group “C” indicates a person other than the robot device as the same group. If you do,
The “group identification signal” includes the groups “A”, “B”,
Identification information for identifying “C”, group “A”,
“Group identification signal” is set for “B”, but is not set for group “C”, and group “C” is identified by “no setting”.
【0013】また、この実施形態においては、自己を中
心としてその周囲に存在する他の移動体によって自己が
進む移動方向を制限するようにしているが、上述の「制
限範囲」は、任意に設定された周囲所定距離範囲を示し
ている。また、「共存数」は、「制限範囲」内に共存可
能なグループ毎の移動体の数を示している。つまり、図
9(A)の設定例において、Aグループに対応して設定
されている「制限範囲」、「共存数」は、自己を中心と
してその半径3m内にAグループに属するロボット装置
が3台共存すべきことを定義した内容となっている。す
なわち、半径3m内にAグループのロボット装置が3台
共存していなければ、Aグループのロボット装置を探し
回って追いかけるような行動をとり、逆に4台以上共存
している場合には、「共存数」が“3”となるまで逃げ
るような行動をとる行動ルールを定義した内容となって
いる。Also, in this embodiment, the moving direction of the self is restricted by another moving body around the self, but the "restricted range" is set arbitrarily. The range of the predetermined surrounding distance is shown. The “number of coexistences” indicates the number of mobile units in each group that can coexist within the “limit range”. That is, in the setting example of FIG. 9A, the “restricted range” and the “coexistence number” set corresponding to the A group indicate that the robot apparatuses belonging to the A group are within a radius of 3 m around the self. The content defines what should coexist. In other words, if three robots of the group A do not coexist within a radius of 3 m, the behavior of searching for and chasing the robots of the group A is taken. The content defines an action rule that takes an action to escape until the “number” becomes “3”.
【0014】「追随モード」対応の行動ルールテーブル
2−1は、図9(B)に示すように、グループ「A」、
「B」、「C」に対応して「グループ識別信号」、「追
跡フラグ」、「離間距離」、「優先度」を記憶する構成
となっている。ここで、「追跡フラグ」は、追跡対象の
グループを特定するもので、その値が“1”の時には、
追跡対象グループ、“0”の時には、追跡対象外のグル
ープであることを示している。「離間距離」は、一定間
隔を保持しながら追跡させるために、予め設定された離
間距離を示している。また、「優先度」は、追跡対象グ
ループが複数存在する場合に、どのグループを優先し
て、そのグループに属する移動体を追跡するかを示して
いる。As shown in FIG. 9B, the action rule table 2-1 corresponding to the “follow-up mode” includes groups “A”,
The “group identification signal”, the “tracking flag”, the “separation distance”, and the “priority” are stored in correspondence with “B” and “C”. Here, the “tracking flag” specifies a tracking target group, and when its value is “1”,
When the tracking target group is “0”, it indicates that the group is not a tracking target group. The “separation distance” indicates a separation distance that is set in advance in order to cause tracking while maintaining a constant interval. In addition, the “priority” indicates which group has a higher priority when a plurality of tracking target groups exist, and the mobile unit belonging to the group is tracked.
【0015】環境地図2−2は、物体距離センサ3の検
出結果に基づいて作成された周囲360度の環境地図で
ある。また、移動体テーブル2−3は、この環境地図の
範囲内において、物体距離センサ3によって他の移動体
毎に検出されたその距離、位置等を記憶する。ここで、
物体距離センサ3は、環境地図の範囲内に存在する他の
移動体を確認すると、その位置、距離を検出し、CPU
1は、この検出結果を認識して、移動体別にその位置、
距離を移動体テーブル2−3に書き込む。移動体テーブ
ル2−3は、図6、図8(A)に示すように、移動体毎
に「連番」、「グループ識別信号」、「座標」、「距
離」、「固有信号」を記憶する構成となっている。「連
番」は環境地図の範囲内に存在する移動体が検出される
毎に更新される一連番号であり、「グループ識別信号」
は、その移動体から発信された識別信号、「座標」は、
自己を原点とした当該移動体の位置座標(XY座標
値)、「距離」は、自己を中心とした当該移動体までの
距離、「固有信号」は、当該移動体から発信された固有
信号である。The environment map 2-2 is a 360-degree environment map created based on the detection result of the object distance sensor 3. The moving object table 2-3 stores the distance, position, and the like detected by the object distance sensor 3 for each other moving object within the range of the environment map. here,
When the object distance sensor 3 confirms another moving object existing within the range of the environment map, the object distance sensor 3 detects the position and the distance,
1 recognizes this detection result and determines the position of each moving object,
The distance is written to the moving object table 2-3. As shown in FIGS. 6 and 8A, the moving object table 2-3 stores “serial number”, “group identification signal”, “coordinate”, “distance”, and “unique signal” for each moving object. Configuration. The “serial number” is a serial number that is updated each time a moving object existing within the range of the environmental map is detected, and the “group identification signal”
Is the identification signal sent from the moving object,
The position coordinates (XY coordinate values) of the moving object with its origin as its origin, the “distance” is the distance to the moving object with its own center, and the “unique signal” is the unique signal transmitted from the moving object. is there.
【0016】次に、この一実施形態における動物型ロボ
ット装置の動作を図2および図2〜図4に示すフローチ
ャートを参照して説明する。ここで、これらのフローチ
ャートに記述されている各機能を実現するためのプログ
ラムは、読み取り可能なプログラムコードの形態で記憶
部2に格納されており、CPU1はこのプログラムコー
ドにしたがった動作を逐次実行する。図2および図3
は、動物型ロボット装置の全体動作を示したフローチャ
ートであり、電源投入に伴って実行開始される。先ず、
物体距離センサ3を駆動させて周囲360度の環境をサ
ーチする(ステップA1)。この場合、図5に示すよう
に、自己を中心とした半径6mの周囲環境が測定され
る。なお、図中、中心部に存在するハッチングを付した
矩形部分は、自己の動物型ロボット装置(移動対象の着
目ロボット)を示し、また、外側の円は、半径6mの測
定環境範囲を示し、また、内側の破線で描いた円は、上
述した行動ルールテーブル2−1内に設定されている
「制限範囲」を示し、更に、周囲環境内の斜線部分との
境界線は、部屋の壁や障害物等を示している。そして、
CPU1はこの周囲環境の測定結果に基づいて部屋の壁
や障害物等を記述した環境地図を作成し、記憶部2に格
納しておくと共に(ステップA2)、自己の現在位置を
平面座標系の原点とするために、その位置変化量を
(0、0)として初期化しておく(ステップA3)。Next, the operation of the animal type robot apparatus according to this embodiment will be described with reference to the flow charts shown in FIG. 2 and FIGS. Here, the programs for realizing the functions described in these flowcharts are stored in the storage unit 2 in the form of readable program codes, and the CPU 1 sequentially executes the operations according to the program codes. I do. 2 and 3
Is a flowchart showing the overall operation of the animal-type robot device, and is started to be executed when the power is turned on. First,
The object distance sensor 3 is driven to search for an environment around 360 degrees (step A1). In this case, as shown in FIG. 5, a surrounding environment having a radius of 6 m around the self is measured. In the figure, the hatched rectangular portion existing in the center indicates the animal-type robot device (the robot of interest to be moved), and the outer circle indicates the measurement environment range with a radius of 6 m. Further, the circle drawn by the inner broken line indicates the “restricted range” set in the above-described action rule table 2-1. Indicates an obstacle or the like. And
The CPU 1 creates an environment map describing the walls and obstacles of the room based on the measurement results of the surrounding environment, stores the created environment map in the storage unit 2 (step A2), and stores the current position of the CPU 1 in the plane coordinate system. In order to set the position as the origin, the position change amount is initialized as (0, 0) (step A3).
【0017】この状態において、再び、物体距離センサ
3を駆動させて半径6mの周囲環境内に存在する他の移
動体をサーチし(ステップA4)、移動体を検出したか
を調べ(ステップA5)、移動体の存在を確認するまで
サーチ動作を継続する。この場合、移動体の確認は、そ
の外形全体を認識することによって行われる。これによ
って周囲環境内に存在する移動体を確認した場合には、
各移動体の現在位置、距離を検出すると共に(ステップ
A6)、その移動体が発信しているグループ識別信号お
よび個別信号を受信する(ステップA7)。そして、移
動体別にその位置、距離を認識し、グループ識別信号、
個別信号と共に移動体テーブル2−3に書き込む(ステ
ップA8)。In this state, the object distance sensor 3 is driven again to search for another moving object existing in the surrounding environment having a radius of 6 m (step A4), and to check whether the moving object has been detected (step A5). The search operation is continued until the existence of the moving object is confirmed. In this case, the confirmation of the moving object is performed by recognizing the entire outer shape. If you see a moving object in the surrounding environment by this,
The current position and distance of each mobile unit are detected (step A6), and the group identification signal and the individual signal transmitted by the mobile unit are received (step A7). Then, the position and distance of each moving object are recognized, and a group identification signal,
The data is written into the mobile unit table 2-3 together with the individual signal (step A8).
【0018】そして、現在セットされている動作モード
は、「群遊モード」か、「追随モード」かを判別し(ス
テップA9)、以下、行動ルールテーブル2−1の内容
を参照しながらその動作モードに応じた制御処理が行わ
れる。ここで、動作モードの指定や行動ルールテーブル
2−1に対する設定は、通信操作部7による遠隔操作に
よって行われる。図4は、通信操作部7による遠隔操作
に応答した動物型ロボット装置の動作を示したフローチ
ャートであり、通信操作部7の入力部から送信要求を受
信した際に実行開始される割り込み処理を示している。
先ず、「群遊モード」、「追随モード」別に行動ルール
テーブル2−1の内容をグループ毎に設定する処理が行
われる(ステップB1)。この場合、図9(A)、
(B)に示したように、行動ルールテーブル2−1の構
成は、「群遊モード」、「追随モード」毎に相違してい
るため、モードに応じて必要項目の設定を行う。そし
て、動作モードの種別が選択指定されると、選択された
モードを記憶部2内の一時ワークメモリ(図示せず)内
に記憶保持しておく(ステップB2)。Then, it is determined whether the currently set operation mode is the "group play mode" or the "follow-up mode" (step A9), and the operation is performed with reference to the contents of the action rule table 2-1. Control processing according to the mode is performed. Here, the designation of the operation mode and the setting for the action rule table 2-1 are performed by remote operation by the communication operation unit 7. FIG. 4 is a flowchart showing the operation of the animal-type robot device in response to the remote operation by the communication operation unit 7, and shows an interrupt process started when a transmission request is received from the input unit of the communication operation unit 7. ing.
First, a process of setting the contents of the action rule table 2-1 for each group is performed for each of the "group play mode" and the "follow-up mode" (step B1). In this case, FIG.
As shown in (B), since the configuration of the action rule table 2-1 is different for each of the "group play mode" and the "follow-up mode", necessary items are set according to the mode. When the type of the operation mode is selected and designated, the selected mode is stored and held in a temporary work memory (not shown) in the storage unit 2 (step B2).
【0019】いま、「群遊モード」が選択指定されて、
それに応じた必要項目が行動ルールテーブル2−1に設
定されたものとする。この場合、図2のステップA10
に移り、移動体テーブル2−3の内容と「群遊モード」
対応の行動ルールテーブル2−1とを参照し、各グルー
プに対応する行動ルール条件を全て満たしているかを判
別する。図5は、「群遊モード」にセットされている状
態において、他の移動体との位置関係を図式化したもの
である。ここで、ロボット装置a1、a2、a3は、A
グループに属し、b1は、Bグループに属し、人間c1
は、Cグループに属しているものとする。Now, the "group play mode" is selected and designated,
It is assumed that necessary items corresponding thereto are set in the action rule table 2-1. In this case, step A10 in FIG.
And the contents of the moving object table 2-3 and the "group play mode"
With reference to the corresponding action rule table 2-1, it is determined whether all the action rule conditions corresponding to each group are satisfied. FIG. 5 is a diagram illustrating a positional relationship with another moving body in a state where the game mode is set to the “group play mode”. Here, the robot devices a1, a2, and a3 are A
Belongs to group, b1 belongs to group B, and human c1
Belong to group C.
【0020】図6は、図5の周囲環境において、物体距
離センサ3によって各移動体毎に測定された移動体テー
ブル2−2の内容を示し、各移動体の位置、距離を反時
計回りに測定した場合であり、ロボット装置b1、a
1、b2、a2、‥‥の順でサーチされる。なお、「グ
ループ識別信号」の“001”は、Aグループ、“00
2”はBグループ、また、“なし”はCグループを示し
ている。この状態において、「群遊モード」対応の行動
ルールテーブル2−1の内容は、図9(A)に示すよう
に設定されているものとすると、半径3mの「制限範
囲」内には、ロボット装置a1、a2、a3とb1とが
存在する。この行動ルールテーブル2−1には「共存
数」として、Aグループに対応して“3”が設定され、
Bグループに対応して“0”、Cグループに対応して
“1”が設定されているため、Aグループ対応の「共存
数」については、その条件を満たすが、Bグループ、C
グループ対応の「共存数」については、その条件不成立
となる。FIG. 6 shows the contents of the moving object table 2-2 measured for each moving object by the object distance sensor 3 in the surrounding environment of FIG. 5, and the position and distance of each moving object are counterclockwise. This is the case where the measurement is performed, and the robot devices b1, a
The search is performed in the order of 1, b2, a2,. Note that "001" of the "group identification signal" is the A group, "00"
“2” indicates a group B, and “none” indicates a group C. In this state, the contents of the action rule table 2-1 corresponding to “group play mode” are set as shown in FIG. It is assumed that the robot devices a1, a2, a3, and b1 exist within a "limit range" having a radius of 3 m. In this action rule table 2-1, “3” is set as “the number of coexistences” corresponding to the A group.
Since “0” is set for the B group and “1” is set for the C group, the “number of coexistences” corresponding to the A group satisfies the conditions.
For the “coexistence number” corresponding to the group, the condition is not satisfied.
【0021】ここで、全ての行動ルールを満たしている
と判別された場合には、そのままステップA4に戻っ
て、周囲の移動体をサーチするが、いま、全ての行動ル
ールを満たしていないので、条件不成立となって、次の
ステップA11に移り、各グループに対応する行動ルー
ル条件を満たす方向・位置を移動候補として選択する。
この場合、ロボット装置b1から離れる方向であって、
ロボット装置a1、a2、a3から離れず、人間c1に
近づく方向が移動候補として選択される。なお、図5中
の太線矢印は、選択候補の移動方向を示しているが、候
補の選択は、1つに限らず、複数の候補を一度に選択さ
れる場合もある。そして、選択された候補のうち環境地
図上において障害物の無い候補への絞り込みを行って、
それを第1候補として決定し(ステップA12)、この
第1候補の位置・方向へ所定量移動させる(ステップA
13)。Here, if it is determined that all the action rules are satisfied, the process directly returns to step A4 to search for the surrounding moving objects. When the condition is not satisfied, the process proceeds to the next step A11, and a direction / position satisfying the action rule condition corresponding to each group is selected as a movement candidate.
In this case, the direction is away from the robot device b1,
A direction approaching the human c1 without leaving the robot devices a1, a2, and a3 is selected as a movement candidate. Although the thick arrow in FIG. 5 indicates the moving direction of the selection candidate, the selection of the candidate is not limited to one, and a plurality of candidates may be selected at one time. Then, among the selected candidates, narrow down to candidates without obstacles on the environmental map,
It is determined as a first candidate (step A12), and is moved by a predetermined amount in the position and direction of the first candidate (step A12).
13).
【0022】これによって自己のロボット装置が自律移
動し始めると、その移動に伴って変化する変化量を逐次
更新してゆき、その変化量が所定量を超えたか、例え
ば、「制限範囲」の半分、この場合、半径1.5mを超
えたかを判別する(ステップA14)。ここで、変化量
が所定量超えたことが判別された場合には、環境地図を
作成し直すためにステップA1に戻るが、変化量が所定
量超えていなければ、現在の環境地図上において、現在
位置を変化量分補正した後(ステップA15)、周囲移
動体をサーチする処理に戻る(ステップA4)。以下、
上述の動作を繰り返すことにより、現時点の移動体テー
ブル2−3の内容と「群遊モード」対応の行動ルールテ
ーブル2−1の内容とを参照し、各グループに対応する
行動ルール条件にしたがった移動が行われる。この場
合、ロボット装置b1が「制限範囲」外となり、ロボッ
ト装置a1、a2、a3および人間c1が「制限範囲」
内となるまで移動し続けることになる。As a result, when the own robot apparatus starts to move autonomously, the amount of change that changes with the movement is updated successively, and the amount of change exceeds a predetermined amount, for example, half of the “restricted range”. In this case, it is determined whether the radius exceeds 1.5 m (step A14). Here, when it is determined that the change amount exceeds the predetermined amount, the process returns to step A1 to re-create the environmental map. After correcting the current position by the amount of change (step A15), the process returns to the process of searching for surrounding moving objects (step A4). Less than,
By repeating the above-described operation, the contents of the moving object table 2-3 at the present time and the contents of the action rule table 2-1 corresponding to the "group play mode" are referred to, and the action rule conditions corresponding to each group are followed. Movement is performed. In this case, the robot device b1 is out of the “limit range”, and the robot devices a1, a2, a3 and the human c1 are in the “limit range”.
It will keep moving until it is inside.
【0023】なお、他のロボット装置毎にもその行動ル
ールテーブル2−1には、任意の行動ルール条件が設定
されているため、その設定内容によっては、各ロボット
装置は、他の移動体との位置関係によって複雑な行動を
とることができる。例えば、図5で着目した対象ロボッ
ト装置をBグループに属するb3と仮定した場合に、ロ
ボット装置a1、a2、a3の行動ルールテーブル2−
1に、Bグループ対応の「共存数」として“0”が設定
されているものとする。この場合、ロボット装置a1、
a2、a3は、ロボット装置b1が近づいて来る毎に、
ロボット装置b1から逃げるように移動するようにな
る。つまり、ロボット装置a1、a2、a3がロボット
装置b1を誘導するような動作が可能となる。逆に、ロ
ボット装置b1がAグループの各ロボット装置を誘導す
るような動作も可能となる。また、2以上のグループと
関係付けた行動ルールを設定しておけば、更に複雑な行
動が可能となり、各ロボット装置が群を成し、あるいは
群れから離れて自由に遊んでいるような行動等、各ロボ
ット装置にグループ対応の行動ルールをどのように設定
するかによって、予期できない複雑な行動も可能とな
る。Since any action rule condition is set in the action rule table 2-1 for each of the other robot apparatuses, depending on the set contents, each robot apparatus may be connected to another moving object. Depending on the positional relationship, complex actions can be taken. For example, assuming that the target robot device of interest in FIG. 5 is b3 belonging to group B, the behavior rule table 2- of the robot devices a1, a2, and a3
It is assumed that “0” is set to 1 as the “coexistence number” corresponding to the B group. In this case, the robot device a1,
a2 and a3 are calculated each time the robot device b1 approaches.
The robot moves so as to escape from the robot device b1. That is, an operation in which the robot devices a1, a2, and a3 guide the robot device b1 becomes possible. Conversely, an operation in which the robot device b1 guides each robot device of the A group can be performed. In addition, if action rules associated with two or more groups are set, more complex actions are possible, such as actions in which each robot device forms a group or plays freely away from the group. Depending on how the group-based action rules are set for each robot device, unpredictable and complex actions are also possible.
【0024】一方、「追随モード」が選択指定されて、
それに応じた必要項目が行動ルールテーブル2−1に設
定されたものとする。この場合、図3のステップA16
に移り、移動体テーブル2−3の内容と「追随モード」
対応の行動ルールテーブル2−1の内容とを参照し、
「追跡フラグ」が立っているグループの移動体は、周囲
に存在するかを調べる。図7は、「追随モード」の状態
において他の移動体との位置関係を図式化したものであ
る。ここで、ロボット装置a1、a2は、Aグループに
属し、b1は、Bグループに属し、人間c1は、Cグル
ープに属しているものとする。図8(A)は、図7の周
囲環境において、物体距離センサ3によって各移動体毎
に測定された移動体テーブル2−3の内容を示し、上述
と同様、各移動体を反時計回りに測定した場合であり、
ロボット装置a1、a2、‥‥の順でサーチされる。こ
の場合、「追随モード」対応の行動ルールテーブル2−
1には、図9(B)に示した内容が設定されているもの
とする。On the other hand, if the "follow mode" is selected and designated,
It is assumed that necessary items corresponding thereto are set in the action rule table 2-1. In this case, step A16 in FIG.
And the contents of the moving object table 2-3 and the “follow mode”
With reference to the contents of the corresponding action rule table 2-1,
It is checked whether or not the moving object of the group in which the “tracking flag” is set exists around. FIG. 7 is a diagram schematically illustrating a positional relationship with another moving body in the state of the “follow-up mode”. Here, it is assumed that the robot devices a1 and a2 belong to the A group, b1 belongs to the B group, and the human c1 belongs to the C group. FIG. 8A shows the contents of the moving object table 2-3 measured for each moving object by the object distance sensor 3 in the surrounding environment of FIG. Is measured
The search is performed in the order of the robot devices a1, a2,. In this case, the action rule table 2-
It is assumed that the content shown in FIG. 9B is set in 1.
【0025】この状態において、「追随モード」対応の
行動ルールテーブル2−1には、AグループとCグルー
プに対応して「追跡フラグ」がセットされており、この
グループに属する移動体として、周囲に移動体a1、a
2、c1が存在するため、ステップA17では該当有り
と判別される。すると、ステップA18に移り、複数の
該当グループのうち、行動ルールテーブル2−1に設定
されている「優先度」にしたがってグループを特定す
る。この場合、図9(B)に示すように優先度はA>C
の関係に設定されているため、Aグループが特定され
る。そして、特定グループ内の移動体は周囲に複数存在
しているかを判別するが(ステップA19)、この場
合、移動体a1、a2が存在するため、その中から自己
に最も距離が近い移動体(a2)を追跡対象として特定
する(ステップA20)。言換えれば、自己の移動方向
を決定する。In this state, the "tracking flag" is set in the action rule table 2-1 corresponding to the "follow-up mode" so as to correspond to the A group and the C group. Moving bodies a1, a
Since 2, c1 exists, it is determined in step A17 that there is a match. Then, the process proceeds to step A18, and the group is specified according to the “priority” set in the action rule table 2-1 among the plurality of corresponding groups. In this case, the priority is A> C as shown in FIG.
Is set, the group A is specified. Then, it is determined whether there are a plurality of moving objects in the specific group around (step A19). In this case, since the moving objects a1 and a2 are present, the moving object closest to the self from among them ( a2) is specified as a tracking target (step A20). In other words, it determines its own moving direction.
【0026】このようにして特定した移動体を追跡対象
として記憶部2内の一時ワークメモリに登録保持してお
く(ステップA21)。図8(B)は、追跡対象の登録
内容を示し、その「固有信号」と、現在の「距離」とが
登録される。そして、追跡対象が属する当該グループに
対応して行動ルールテーブル2−1に設定されている
「離間距離」を呼び出すと共に、自己と追跡対象との距
離を求め、自己と追跡対象との間が「離間距離」以上離
れているかを調べ(ステップA22)、「離間距離」以
上離れていれば、追跡対象の移動体に向って所定量移動
させる(ステップA23)。図7の太線矢印は、その移
動方向を示している。次に、ステップA24で追跡対象
の移動体との距離を測定した後、ステップA22に戻
り、上述の追随移動を繰り返す。The moving object specified in this way is registered and held in the temporary work memory in the storage unit 2 as a tracking target (step A21). FIG. 8B shows the registered content of the tracking target, in which the “unique signal” and the current “distance” are registered. Then, the “separation distance” set in the action rule table 2-1 corresponding to the group to which the tracking target belongs is called, and the distance between itself and the tracking target is obtained. It is checked whether the distance is equal to or more than the "separation distance" (step A22). If the distance is equal to or more than the "separation distance", the moving body is moved toward the tracking target by a predetermined amount (step A23). The thick arrow in FIG. 7 indicates the moving direction. Next, after measuring the distance to the moving object to be tracked in step A24, the process returns to step A22, and the following movement is repeated.
【0027】なお、他のロボット装置毎にもその行動ル
ールテーブル2−1には、任意の行動ルール条件が設定
されているため、その設定内容によっては、各ロボット
装置は、他の移動体との位置関係によって複雑な行動を
とることができる。例えば、ロボット装置a1、a2、
b1を1列縦隊で、所定間隔を保持したまま整然と追随
させたり、2列縦隊で追随させることもできる。この場
合、先頭のロボット装置を通信操作部7によって遠隔操
作すれば、縦隊状態のまま所望する位置まで移動させる
ことができる。Since any action rule condition is set in the action rule table 2-1 for each of the other robot devices, depending on the set contents, each of the robot devices may be connected to another mobile object. Depending on the positional relationship, complex actions can be taken. For example, robot devices a1, a2,
It is also possible to follow b1 in a single-column file systematically while maintaining a predetermined interval, or to make it follow in a two-column column device. In this case, if the first robot device is remotely operated by the communication operation unit 7, it can be moved to a desired position in the column state.
【0028】以上のように、この一実施形態おいては、
予め他の移動体との位置関係を自己の行動ルールとして
記憶しておき、周囲に存在する他の移動体との位置・距
離と行動ルールとに基づいてその行動ルールを満たす方
向を自己の移動方向として決定し、その方向に自律移動
させるようにしたから、他のロボット装置や人間等との
相互関係において複雑な自律移動が可能となり、予測で
きないような行動や変化に富んだ行動が可能となり、飽
きのこない自律移動型のロボット装置を提供することが
できる。As described above, in this embodiment,
The positional relationship with other moving objects is stored in advance as own action rules, and the direction that satisfies the action rules is determined based on the position / distance and the action rules with other moving objects existing in the vicinity. Since it is determined as a direction and made to move autonomously in that direction, complex autonomous movement becomes possible in the interrelationship with other robotic devices and humans, etc., and unpredictable behaviors and behaviors rich in changes become possible. It is possible to provide an autonomous mobile robot device that does not get tired.
【0029】また、自己を中心とした周囲所定距離の範
囲内において、他の移動体と共存可能な共存数を行動ル
ールとしたから、共存数を満たす方向に他の移動体へ接
近したり、共存数が“0”または共存数よりも多い移動
体がその範囲内に存在する場合には、それから逃げる方
向に移動するようになり、共存数という簡単な設定で複
雑な移動が可能となる。また、複数の移動体をグループ
に分類すると共に、グループに対応して行動ルールを設
定するようにしたから、複雑な群行動も可能となり、ま
た個別に行動ルールを設定するよりもグループを単位と
した設定が可能となり、その設定も容易なものとなる。In addition, since the number of coexistences that can coexist with other moving objects is defined as an action rule within a predetermined distance around the self, the vehicle approaches another moving object in a direction satisfying the coexistence number. If a moving object having a coexistence number of “0” or more than the coexistence number exists in the range, the moving body moves in a direction to escape therefrom, and complicated movement is possible with a simple setting of the coexistence number. In addition, since multiple moving objects are classified into groups and action rules are set corresponding to the groups, complex group actions are possible, and groups are grouped as a unit rather than individually setting action rules. Settings can be made, and the settings can be made easily.
【0030】また、「群遊モード」、「追随モード」と
を任意に指定することができ、「群遊モード」において
は、自己の周囲に存在する他の移動体がどのグループに
属するかに応じて自己が進む移動方向を決定しながら自
律移動させることで、例えば、複雑な群行動をも可能と
なり、また、「追随モード」においては、自己の周囲に
存在する各移動体の中から所定の移動体を特定し、それ
に追随して移動させることで、例えば、複数のロボット
装置を1列縦隊で整然として追跡させるこも可能とな
る。この場合、「追随モード」において、追跡対象とな
る移動体との追跡離間距離を保持しながら追跡移動させ
ることもできる。また、行動ルールは、「群遊モー
ド」、「追随モード」別に任意に設定可能としたから、
その設定内容によって使用者が所望する行動や予期でき
ないような複雑な行動をとらせることができる。Further, a "group play mode" and a "follow-up mode" can be arbitrarily designated. In the "group play mode", the group to which the other moving objects existing around the user belong is determined. By autonomously moving while deciding the direction of travel according to the self, for example, it is also possible to perform complex group actions, and in the "follow mode", a predetermined group is selected from among the moving objects existing around the self. By specifying the moving object and moving it following the moving object, for example, it is also possible to cause a plurality of robot devices to be tracked in order in a single column. In this case, in the “follow-up mode”, it is possible to perform the tracking movement while maintaining the tracking separation distance from the moving object to be tracked. In addition, since action rules can be set arbitrarily for "group play mode" and "follow mode",
Depending on the setting contents, it is possible to cause the user to take a desired action or a complicated action that cannot be expected.
【0031】なお、上述した一実施形態においては、通
信操作部7による遠隔操作によって動物型ロボット装置
内に行動ルールを設定したが,コンピュータ装置を使用
してその設定を行なってもよい。勿論、ロボット装置に
入力部を設け、この入力部から行動ルールを設定しても
よい。また、行動ルールとしてグループ別の「共存数」
を設定するようにしたが、例えば、「排他関係」や「家
族関係」等を設定してもよく、その内容は任意であり、
どのような行動ルールを設定するかによって、より複雑
な動作制御が可能となる。また、周囲環境を測定した
り、他の移動体の位置・距離を測定する手段としては、
デジタルカメラ等であってもよい。更に、室内の四隅に
位置確認用の信号発信器を設置しておき、この発信器か
らの位置確認信号を受信することによって現在位置を特
定すると共に、他のロボット装置に対して自己の現在位
置を送信するようにすれば、自己の現在位置を確認しな
がら他のロボット装置から送信されて来る位置情報に基
づいてその位置および距離を確認することができる。ま
た、動物型ロボットやペットロボットに限らず、自動車
ロボット、人間型ロボット等の娯楽ロボットであっても
よく、更に、「追随モード」において、それを実用的な
用途に使用する実用ロボットであってもよい。In the above-described embodiment, the action rules are set in the animal-type robot apparatus by remote control by the communication operation unit 7. However, the setting may be performed using a computer. Of course, an input unit may be provided in the robot device, and an action rule may be set from the input unit. In addition, as a rule of action,
Is set, but for example, "exclusive relationship" or "family relationship" may be set, and the content is arbitrary.
Depending on what kind of action rule is set, more complicated operation control becomes possible. In addition, as a means to measure the surrounding environment and the position and distance of other moving objects,
It may be a digital camera or the like. Further, signal transmitters for position confirmation are installed at the four corners in the room, and the current position is specified by receiving a position confirmation signal from the transmitter, and the current position of the robot is determined with respect to other robot devices. Is transmitted, the position and the distance can be confirmed based on the position information transmitted from another robot device while confirming the current position of the robot. Further, the robot is not limited to an animal robot or a pet robot, and may be an amusement robot such as an automobile robot or a humanoid robot. Is also good.
【0032】[0032]
【発明の効果】この発明によれば、検出された外界情報
に基づいて他の移動体の位置とその距離とを認識し、こ
の認識内容と予め決められている行動ルールとに基づい
てその行動ルールを満たす方向を自己の移動方向として
決定して装置本体を移動させるようにしたから、他の移
動体との相互関係において、予測不可能な行動や複雑な
行動が可能となり、変化に富んだ動きによって飽きのこ
ない移動ロボット装置を提供することすることができ
る。According to the present invention, the position and the distance of another moving object are recognized based on the detected outside world information, and the action is performed based on the recognized contents and a predetermined action rule. Since the device body is moved by determining the direction that satisfies the rule as its own moving direction, unpredictable and complex actions are possible in the interaction with other moving objects, and there are many changes It is possible to provide a mobile robot device that does not get tired by movement.
【図1】動物型ロボットの全体構成を示したブロック
図。FIG. 1 is a block diagram showing an overall configuration of an animal-type robot.
【図2】電源投入に伴って実行開始される動物型ロボッ
ト装置の全体動作を示したフローチャート。FIG. 2 is a flowchart illustrating an overall operation of the animal-type robot device that is started to be executed when the power is turned on.
【図3】図2に続く動物型ロボット装置の全体動作を示
したフローチャート。FIG. 3 is a flowchart showing the overall operation of the animal-type robot device continued from FIG. 2;
【図4】通信操作部7による遠隔操作に応答した動物型
ロボット装置の動作を示したフローチャート。FIG. 4 is a flowchart showing an operation of the animal-type robot apparatus in response to a remote operation by the communication operation unit 7;
【図5】「群遊モード」にセットされている状態におい
て、他の移動体との位置関係を図式化した図。FIG. 5 is a diagram schematically illustrating a positional relationship with another moving body in a state where the game mode is set to a “group play mode”.
【図6】図5の周囲環境において、物体距離センサ3に
よって各移動体毎に測定された移動体テーブル2−2の
内容を示した図。6 is a diagram showing the contents of a moving object table 2-2 measured for each moving object by the object distance sensor 3 in the surrounding environment of FIG.
【図7】「追随モード」の状態において他の移動体との
位置関係を図式化した図。FIG. 7 is a diagram schematically illustrating a positional relationship with another moving body in a “follow-up mode” state.
【図8】(A)は、図7の周囲環境において、物体距離
センサ3によって各移動体毎に測定された移動体テーブ
ル2−3の内容を示した図、(B)は、追跡対象特定時
の登録内容を示した図。8A is a diagram showing the contents of a moving object table 2-3 measured for each moving object by the object distance sensor 3 in the surrounding environment of FIG. 7, and FIG. The figure which showed the registration content at the time.
【図9】(A)は、「群遊モード」対応の行動ルールテ
ーブル2−1の構成を示した図、(B)は、「追随モー
ド」対応の行動ルールテーブル2−1の構成を示した
図。9A is a diagram illustrating a configuration of an action rule table 2-1 corresponding to “group play mode”, and FIG. 9B is a diagram illustrating a configuration of an action rule table 2-1 corresponding to “follow mode”. Figure.
1 CPU 2 記憶部 3 物体距離センサ 4 移動駆動部 5 信号発信部 6 信号受信部 7 通信操作部 2−1 行動ルールテーブル 2−2 環境地図 2−3 移動体テーブル DESCRIPTION OF SYMBOLS 1 CPU 2 Storage part 3 Object distance sensor 4 Movement drive part 5 Signal transmission part 6 Signal reception part 7 Communication operation part 2-1 Action rule table 2-2 Environmental map 2-3 Moving body table
───────────────────────────────────────────────────── フロントページの続き (72)発明者 浜田 玲 東京都羽村市栄町3丁目2番1号 カシオ 計算機株式会社羽村技術センター内 Fターム(参考) 2C150 BA06 CA01 CA02 DA05 DA24 DA26 DA27 DA28 ED42 ED52 EF03 EF07 EF13 EF16 EF23 EF29 EF33 EF36 3F059 AA00 BB06 CA05 DA05 DC08 DD11 FB12 FC01 3F060 AA00 BA10 CA14 5H301 AA02 AA10 BB14 BB15 CC03 CC06 DD01 DD06 DD08 DD16 FF10 FF11 FF13 GG11 GG19 LL02 LL03 LL06 LL11 LL14 LL16 QQ08 ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Akira Hamada 3-2-1 Sakaemachi, Hamura-shi, Tokyo Casio Computer Co., Ltd. Hamura Technical Center F-term (reference) 2C150 BA06 CA01 CA02 DA05 DA24 DA26 DA27 DA28 ED42 ED52 EF03 EF07 EF13 EF16 EF23 EF29 EF33 EF36 3F059 AA00 BB06 CA05 DA05 DC08 DD11 FB12 FC01 3F060 AA00 BA10 CA14 5H301 AA02 AA10 BB14 BB15 CC03 CC06 DD01 DD06 DD08 DD16 FF10 FF11 FF13 GG11 LL19 GG11 LL19
Claims (9)
ット装置であって、 当該装置本体と他の移動体との位置関係を自己の行動ル
ールとして記憶する行動ルール記憶手段と、 装置本体の周囲環境をサーチして外界情報を検出する外
界情報検出手段と、 この外界情報検出手段によって検出された外界情報に基
づいて他の移動体の位置とその距離とを認識する移動体
認識手段と、 この移動体認識手段による認識内容と前記行動ルールと
に基づいてその行動ルールを満たす方向を装置本体の移
動方向として決定する移動方向決定手段と、 この移動方向決定手段によって決定された方向に装置本
体を移動させる動作制御手段とを具備したことを特徴と
する移動ロボット装置。1. A mobile robot device that autonomously moves based on a surrounding environment, comprising: action rule storage means for storing a positional relationship between the device body and another moving body as its own action rule; An external world information detecting means for searching an environment to detect external world information; a moving body recognizing means for recognizing a position and a distance of another mobile body based on the external world information detected by the external world information detecting means; Moving direction determining means for determining, as a moving direction of the apparatus body, a direction satisfying the action rule based on the content of recognition by the moving body recognizing means and the action rule; and moving the apparatus body in the direction determined by the moving direction determining means. A mobile robot device comprising: an operation control means for moving.
周囲所定距離の範囲内において他の移動体と共存可能な
共存数を示す要求条件であり、 前記移動方向決定手段は、前記共存数を満たす方向を装
置本体の移動方向として決定するようにしたことを特徴
とする請求項1記載の移動ロボット装置。2. The movement rule is a requirement condition indicating a coexistence number that can coexist with another moving body within a predetermined distance around the apparatus main body. 2. The mobile robot device according to claim 1, wherein a direction that satisfies is satisfied is determined as a moving direction of the device main body.
ープに分割した場合での、夫々のグループに対応する要
求条件であり、 前記移動方向決定手段は、前記移動体認識手段によって
認識された他の移動体がどのグループに属するかに応じ
て前記移動方向を決定するようにしたことを特徴とする
請求項2記載の移動ロボット装置。3. The request condition is a request condition corresponding to each group when a plurality of moving objects are divided into a plurality of groups. The moving direction determining means is recognized by the moving object recognizing means. The mobile robot device according to claim 2, wherein the moving direction is determined according to a group to which the other moving object belongs.
の移動体が出力する識別信号に基づいて行うようにした
こと特徴とする請求項3記載の移動ロボット装置。4. The mobile robot apparatus according to claim 3, wherein the attribute identification of the group of each mobile unit is performed based on an identification signal output from the mobile unit.
件であり、 前記移動方向決定手段は、その要求条件を満たす方向を
装置本体の移動方向として決定する他、その移動量を決
定するようにしたこと特徴とする請求項1記載の移動ロ
ボット装置。5. The action rule is a tracking condition for another moving body, and the moving direction determining means determines a direction satisfying the required condition as a moving direction of the apparatus main body and determines a moving amount thereof. The mobile robot device according to claim 1, wherein
に近づいた際での追跡離間距離を含み、 前記動作制御手段は、前記決定方向に装置本体を移動さ
せたことにより追跡対象となる移動体に近づいた後は、
前記追跡離間距離を保持しながら追跡移動させるように
したことを特徴とする請求項5記載の移動ロボット装
置。6. The tracking condition includes a tracking separation distance when approaching a moving object to be tracked, and the operation control means determines that the tracking target is moved by moving the apparatus body in the determination direction. After approaching the moving object
6. The mobile robot device according to claim 5, wherein the mobile robot device performs tracking movement while maintaining the tracking separation distance.
対象条件を含み、他の移動体のうちで、その対象条件に
合致する移動体に対応して前記追跡移動を行うようにし
たことを特徴とする請求項6記載の移動ロボット装置。7. The pre-tracking condition includes a target condition of a moving object to be tracked, and the tracking movement is performed in accordance with a moving object that meets the target condition among other moving objects. The mobile robot device according to claim 6, wherein
段を設けたことを特徴とする請求項1記載の移動ロボッ
ト装置。8. The mobile robot device according to claim 1, further comprising setting means for arbitrarily setting said action rule.
コードを有する記録媒体であって、 装置本体の周囲環境をサーチした外界情報に基づいて他
の移動体の位置とその距離とを認識させるコンピュータ
が読み取り可能なプログラムコードと、 この認識内容と、装置本体と他の移動体との位置関係を
示す行動ルールとに基づいてその行動ルールを満たす方
向を装置本体の移動方向として決定させるコンピュータ
が読み取り可能なプログラムコードと、 決定された方向に装置本体を移動させるコンピュータが
読み取り可能なプログラムコードとを有する記録媒体。9. A recording medium having a program code readable by a computer, wherein the computer is readable by a computer for recognizing the position of another moving object and its distance based on external world information searched for the surrounding environment of the apparatus main body. A computer-readable program that determines a direction satisfying the behavior rule as a movement direction of the device body based on a simple program code, the recognition content, and a behavior rule indicating a positional relationship between the device body and another moving body. A recording medium having a code and a computer-readable program code for moving the apparatus body in the determined direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000123535A JP2001306145A (en) | 2000-04-25 | 2000-04-25 | Moving robot device and program record medium therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000123535A JP2001306145A (en) | 2000-04-25 | 2000-04-25 | Moving robot device and program record medium therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001306145A true JP2001306145A (en) | 2001-11-02 |
Family
ID=18633826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000123535A Pending JP2001306145A (en) | 2000-04-25 | 2000-04-25 | Moving robot device and program record medium therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001306145A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004299025A (en) * | 2003-04-01 | 2004-10-28 | Honda Motor Co Ltd | Mobile robot control device, mobile robot control method and mobile robot control program |
JP2009183538A (en) * | 2008-02-07 | 2009-08-20 | Saitama Univ | Wheelchair with autonomous traveling ability |
JP2014142828A (en) * | 2013-01-24 | 2014-08-07 | Secom Co Ltd | Autonomous mobile robot |
JP2016503910A (en) * | 2012-12-11 | 2016-02-08 | タレス | A set of robot control methods and a set of robots |
WO2016072132A1 (en) * | 2014-11-07 | 2016-05-12 | ソニー株式会社 | Information processing device, information processing system, real object system, and information processing method |
WO2017212723A1 (en) * | 2016-06-06 | 2017-12-14 | ソニー株式会社 | Virtual lifeform control system and virtual lifeform control method |
JP2019048545A (en) * | 2017-09-08 | 2019-03-28 | 株式会社フジタ | Automatic walking type work bench |
WO2020166371A1 (en) * | 2019-02-15 | 2020-08-20 | ソニー株式会社 | Moving body, moving method |
-
2000
- 2000-04-25 JP JP2000123535A patent/JP2001306145A/en active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004299025A (en) * | 2003-04-01 | 2004-10-28 | Honda Motor Co Ltd | Mobile robot control device, mobile robot control method and mobile robot control program |
JP2009183538A (en) * | 2008-02-07 | 2009-08-20 | Saitama Univ | Wheelchair with autonomous traveling ability |
US10303170B2 (en) | 2012-12-11 | 2019-05-28 | Thales | Method for controlling a set of robots, and set of robots |
JP2016503910A (en) * | 2012-12-11 | 2016-02-08 | タレス | A set of robot control methods and a set of robots |
JP2014142828A (en) * | 2013-01-24 | 2014-08-07 | Secom Co Ltd | Autonomous mobile robot |
WO2016072132A1 (en) * | 2014-11-07 | 2016-05-12 | ソニー株式会社 | Information processing device, information processing system, real object system, and information processing method |
JPWO2017212723A1 (en) * | 2016-06-06 | 2019-04-04 | ソニー株式会社 | Virtual biological control system and virtual biological control method |
WO2017212723A1 (en) * | 2016-06-06 | 2017-12-14 | ソニー株式会社 | Virtual lifeform control system and virtual lifeform control method |
US11185989B2 (en) | 2016-06-06 | 2021-11-30 | Sony Corporation | Virtual creature control system and virtual creature control method |
US11826898B2 (en) | 2016-06-06 | 2023-11-28 | Sony Corporation | Virtual creature control system and virtual creature control method |
JP2019048545A (en) * | 2017-09-08 | 2019-03-28 | 株式会社フジタ | Automatic walking type work bench |
WO2020166371A1 (en) * | 2019-02-15 | 2020-08-20 | ソニー株式会社 | Moving body, moving method |
CN113474065A (en) * | 2019-02-15 | 2021-10-01 | 索尼集团公司 | Moving body and moving method |
JPWO2020166371A1 (en) * | 2019-02-15 | 2021-12-16 | ソニーグループ株式会社 | Moving body, moving method |
US20220088788A1 (en) * | 2019-02-15 | 2022-03-24 | Sony Group Corporation | Moving body, moving method |
CN113474065B (en) * | 2019-02-15 | 2023-06-23 | 索尼集团公司 | Moving body and moving method |
JP7468367B2 (en) | 2019-02-15 | 2024-04-16 | ソニーグループ株式会社 | Moving object, moving method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10427295B2 (en) | System and method for reinforcing programming education through robotic feedback | |
US11826897B2 (en) | Robot to human feedback | |
EP2068275B1 (en) | Communication robot | |
EP3196726A2 (en) | Apparatus and system for remotely controlling a moving robot and method thereof | |
CN110825121B (en) | Control device and unmanned aerial vehicle control method | |
US20230057965A1 (en) | Robot and control method therefor | |
WO2004018159A1 (en) | Environment identification device, environment identification method, and robot device | |
JP2003166824A (en) | Self position identification system and self position identification method for robot | |
JP2007094743A (en) | Autonomous mobile robot and system therefor | |
CN108415675B (en) | Information processing apparatus, information processing system, and information processing method | |
JP2004042148A (en) | Mobile robot | |
JP2004110802A (en) | Device, method for identifying environment, program, recording medium and robot device | |
JP2003266345A (en) | Path planning device, path planning method, path planning program, and moving robot device | |
CN114800535B (en) | Robot control method, mechanical arm control method, robot and control terminal | |
CN105824292A (en) | Robot distributed controller and control method | |
JP2001306145A (en) | Moving robot device and program record medium therefor | |
US20220314432A1 (en) | Information processing system, information processing method, and nonvolatile storage medium capable of being read by computer that stores information processing program | |
CN117500642A (en) | System, apparatus and method for exploiting robot autonomy | |
Silva et al. | Navigation and obstacle avoidance: A case study using Pepper robot | |
Peng et al. | Tracking control of human-following robot with sonar sensors | |
WO2024131138A1 (en) | Intelligent device, control method and apparatus thereof, and computer program product | |
CN111290574B (en) | Method and device for controlling unmanned aerial vehicle by using gestures and readable storage medium | |
CN108415676B (en) | Information processing apparatus and information processing method | |
Animireddy et al. | Robotic library assistant | |
US20190314983A1 (en) | Recording medium, information processing apparatus, and information processing method |