JP2003071777A - Contact detecting device and robot device - Google Patents
Contact detecting device and robot deviceInfo
- Publication number
- JP2003071777A JP2003071777A JP2001268124A JP2001268124A JP2003071777A JP 2003071777 A JP2003071777 A JP 2003071777A JP 2001268124 A JP2001268124 A JP 2001268124A JP 2001268124 A JP2001268124 A JP 2001268124A JP 2003071777 A JP2003071777 A JP 2003071777A
- Authority
- JP
- Japan
- Prior art keywords
- switch
- contact
- pressing member
- robot
- robot apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、接触を検出するた
めの接触検出装置及びその接触検出装置を備えたロボッ
ト装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a contact detecting device for detecting a contact and a robot device equipped with the contact detecting device.
【0002】[0002]
【従来の技術】電気的又は磁気的な作用を用いて人間
(生物)の動作に似た運動を行う機械装置を「ロボッ
ト」という。我が国においてロボットが普及し始めたの
は、1960年代末からであるが、その多くは、工場に
おける生産作業の自動化・無人化等を目的としたマニピ
ュレータや搬送ロボット等の産業用ロボット(Industri
al Robot)であった。2. Description of the Related Art A mechanical device that makes a movement similar to that of a human being (organism) using electric or magnetic action is called a "robot". Robots began to spread in Japan from the end of the 1960s, but most of them are industrial robots (Industri) such as manipulators and transfer robots for the purpose of automating and unmanning production work in factories.
al Robot).
【0003】最近では、人間のパートナーとして生活を
支援する、すなわち住環境その他の日常生活上の様々な
場面における人的活動を支援する実用ロボットの開発が
進められている。このような実用ロボットは、産業用ロ
ボットとは異なり、人間の生活環境の様々な局面におい
て、個々に個性の相違した人間、又は様々な環境への適
応方法を自ら学習する能力を備えている。例えば、犬、
猫のように4足歩行の動物の身体メカニズムやその動作
を模した「ペット型」ロボット、或いは、2足直立歩行
を行う動物の身体メカニズムや動作をモデルにしてデザ
インされた「人間型」又は「人間形」ロボット(Humano
id Robot)等の脚式移動ロボットは、既に実用化されつ
つある。Recently, practical robots have been developed to support life as a human partner, that is, to support human activities in various situations in daily life such as living environment. Unlike industrial robots, such practical robots have the ability to learn by themselves how to adapt to humans with different personalities or various environments in various aspects of human living environments. For example, a dog,
A "pet-type" robot that imitates the body mechanism and movement of a four-legged animal like a cat, or a "human-type" robot modeled on the body mechanism and movement of an animal that walks upright on two legs or "Humanoid" robot (Humano
Leg type mobile robots such as id Robot) are already in practical use.
【0004】これらの脚式移動ロボットは、産業用ロボ
ットと比較して、エンターテインメント性を重視した様
々な動作を行うことができるため、エンターテインメン
トロボットと呼称される場合もある。These legged mobile robots are capable of performing various operations with an emphasis on entertainment, as compared with industrial robots, and are therefore sometimes referred to as entertainment robots.
【0005】脚式移動ロボットは、動物や人間の容姿に
できる限り近い外観形状とされ、動物や人間の動作にで
きる限り近い動作を行うように設計されている。例え
ば、上述した4足歩行の「ペット型」ロボットの場合
は、一般家庭において飼育される犬や猫に似た外観形状
を有し、ユーザ(飼い主)からの「叩く」や「撫でる」
といった働きかけや、周囲の環境等に応じて自律的に行
動する。例えば、自律的な行動として、実際の動物と同
様に、「吠える」、「寝る」等といった行動をする。The legged mobile robot has an external shape that is as close as possible to the appearance of an animal or human, and is designed to perform a motion as close as possible to the motion of an animal or human. For example, in the case of the four-legged “pet type” robot described above, it has an appearance similar to a dog or cat raised in a general household, and is “struck” or “stroked” by the user (owner).
And act autonomously according to the surrounding environment. For example, as an autonomous behavior, the behavior such as "barking" and "sleeping" is performed as in the case of an actual animal.
【0006】[0006]
【発明が解決しようとする課題】ところで、上述した脚
式移動ロボットは、ユーザからの「叩く」や「撫でる」
といった働きかけを検出するために、頭や脚先等に接触
センサ或いは接触スイッチを有しており、各接触センサ
或いは接触スイッチの検出結果を動作に反映させてい
る。このような接触センサ、接触スイッチにより接触を
検出するための概念構成を図18に示す。図18に示す
ように、筐体300の外装の所定の箇所に、目立つよう
に入力部301が設けられている。また、筐体内には、
押し方向を感知する接触スイッチ302が格納されてい
る。そして、入力部301が例えば叩かれることにより
接触スイッチ302が押され、これにより接触を検出し
ていた。By the way, the above-mentioned legged mobile robot is "struck" or "stroked" by the user.
In order to detect such an action, a contact sensor or a contact switch is provided on the head or the tip of the leg, and the detection result of each contact sensor or contact switch is reflected in the operation. FIG. 18 shows a conceptual configuration for detecting contact with such a contact sensor and contact switch. As shown in FIG. 18, an input unit 301 is prominently provided at a predetermined location on the exterior of the housing 300. Also, in the housing,
A contact switch 302 that senses the pushing direction is stored. Then, the input switch 301 is hit, for example, to press the contact switch 302, which detects contact.
【0007】しかし、上述したような従来の構成では、
入力部301に対する垂直方向の力は検出できるもの
の、水平方向の力は検出しにくく、したがって、撫でら
れたような場合には、どちらの方向から撫でられたのか
が分からないという問題があった。However, in the conventional structure as described above,
Although the force in the vertical direction on the input unit 301 can be detected, it is difficult to detect the force in the horizontal direction. Therefore, in the case of being stroked, there is a problem that it cannot be known from which direction the stroke is made.
【0008】また、外装の一部である所定の箇所に、目
立つように入力部301が設けられているが、このこと
は、例えば、ユーザが確実に入力部301を叩くことを
可能とする反面、ユーザが入力部301を意識する必要
があり、ユーザと脚式移動ロボットとの自然なインタラ
クションの妨げになるという問題があった。Further, the input portion 301 is conspicuously provided at a predetermined portion which is a part of the exterior, but this makes it possible for the user to hit the input portion 301 without fail. However, there is a problem that the user needs to be aware of the input unit 301, which hinders a natural interaction between the user and the legged mobile robot.
【0009】さらに、入力部301が筐体300の外装
に設けられているため、デザインが制約されるという問
題があった。Further, since the input section 301 is provided on the exterior of the housing 300, there is a problem that the design is restricted.
【0010】本発明は、このような従来の実情に鑑みて
提案されたものであり、ユーザに意識させないことが可
能とされた接触検出装置及びその接触検出装置を備えた
ロボット装置を提供することを目的とする。The present invention has been proposed in view of such a conventional situation, and provides a contact detection device and a robot device equipped with the contact detection device which can be made unnoticeable to the user. With the goal.
【0011】[0011]
【課題を解決するための手段】上述した目的を達成する
ために、本発明に係る接触検出装置は、本体に接続され
る一以上の構成部品の外装に対する接触を検出する接触
検出装置であって、上記構成部品の内部に配置され、上
記構成部品の外装と一体化して動くスイッチ押圧部材を
備え、上記スイッチ押圧部材によって上記構成部品内の
スイッチが押圧駆動されることを特徴としている。In order to achieve the above-mentioned object, a contact detecting device according to the present invention is a contact detecting device for detecting contact of one or more component parts connected to a main body with an exterior. A switch pressing member that is arranged inside the component and moves integrally with the exterior of the component is provided, and the switch in the component is pressed by the switch pressing member.
【0012】ここで、上記接触検出装置は、上記本体に
連結され、上記スイッチを支持する支持部を備え、上記
スイッチ押圧部材は、上記支持部と支軸を介して接続さ
れ、当該スイッチ押圧部材が上記支軸を中心として微小
回動することで、当該スイッチ押圧部材の押圧部によっ
て上記スイッチが押圧駆動される。Here, the contact detection device includes a support portion that is connected to the main body and supports the switch, the switch pressing member is connected to the support portion through a support shaft, and the switch pressing member is connected. When the switch slightly rotates about the support shaft, the switch is pressed by the pressing portion of the switch pressing member.
【0013】また、接触検出装置において上記支持部に
は、上記支軸を中心とする微小回動の互いに異なる回動
方向をそれぞれ検出する2個のスイッチが設けられてい
る。Further, in the contact detecting device, the supporting portion is provided with two switches for respectively detecting different rotation directions of the minute rotation about the support shaft.
【0014】このような接触検出装置は、本体に接続さ
れる一以上の構成部品の外装における任意の箇所に対す
る接触により、スイッチが押圧駆動され、接触を検出す
ることができる。さらに、スイッチを所定の箇所に2個
設けることで、支軸を中心とする微小回動の互いに異な
る回動方向をそれぞれ検出することができる。In such a contact detecting device, the switch is pressed and driven by contact with an arbitrary portion of the exterior of one or more component parts connected to the main body, and the contact can be detected. Further, by providing two switches at predetermined positions, it is possible to detect different rotation directions of the minute rotation about the support shaft.
【0015】また、上述した目的を達成するために、本
発明に係るロボット装置は、ロボット装置の胴体部とさ
れる本体に接続される構成部品の外装に対する接触を検
出する接触検出手段を備え、上記接触検出手段は、上記
構成部品の内部に配置され、上記構成部品の外装と一体
化して動くスイッチ押圧部材を有し、当該スイッチ押圧
部材によって上記構成部品内のスイッチが押圧駆動され
ることを特徴としている。Further, in order to achieve the above-mentioned object, the robot apparatus according to the present invention is provided with a contact detecting means for detecting a contact of a component connected to a main body, which is a body of the robot apparatus, with an exterior. The contact detection means has a switch pressing member that is disposed inside the component and moves integrally with the exterior of the component, and the switch pressing member drives the switch in the component by pressing. It has a feature.
【0016】ここで、上記ロボット装置は、動物を模し
た外観形状とされており、上記構成部品は、少なくとも
上記ロボット装置の頭部を含む。Here, the robot apparatus has an external shape imitating an animal, and the constituent parts include at least the head of the robot apparatus.
【0017】また、上記接触検出手段は、上記本体に接
続され、上記スイッチを支持する支持部を有し、上記ス
イッチ押圧部材は、上記支持部と支軸を介して接続さ
れ、当該スイッチ押圧部材が上記支軸を中心として微小
回動することで、当該スイッチ押圧部材の押圧部によっ
て上記スイッチが押圧駆動される。Further, the contact detecting means has a supporting portion that is connected to the main body and supports the switch, and the switch pressing member is connected to the supporting portion via a support shaft, and the switch pressing member is connected. When the switch slightly rotates about the support shaft, the switch is pressed by the pressing portion of the switch pressing member.
【0018】さらに、上記支持部には、上記支軸を中心
とする微小回動の互いに異なる回動方向をそれぞれ検出
する2個のスイッチが設けられている。Further, the support portion is provided with two switches for respectively detecting different rotation directions of minute rotations about the support shaft.
【0019】このようなロボット装置は、ロボット装置
の胴体部とされる本体に接続される構成部品の外装にお
ける任意の箇所に対する接触により、スイッチが押圧駆
動され、接触を検出することができる。さらに、スイッ
チを所定の箇所に2個設けることで、支軸を中心とする
微小回動の互いに異なる回動方向をそれぞれ検出するこ
とができる。In such a robot device, the switch is pressed and driven by contact with an arbitrary position on the exterior of the component connected to the body of the robot device, and the contact can be detected. Further, by providing two switches at predetermined positions, it is possible to detect different rotation directions of the minute rotation about the support shaft.
【0020】[0020]
【発明の実施の形態】以下、本発明を適用した具体的な
実施の形態について、図面を参照しながら詳細に説明す
る。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Specific embodiments to which the present invention is applied will be described below in detail with reference to the drawings.
【0021】本発明の一構成例として示すロボット装置
は、内部状態に応じて自律動作するロボット装置であ
る。このロボット装置は、少なくとも上肢と体幹部と下
肢とを備え、上肢及び下肢、又は下肢のみを移動手段と
する脚式移動ロボットである。脚式移動ロボットには、
4足歩行の動物の身体メカニズムやその動きを模倣した
ペット型ロボットや、下肢のみを移動手段として使用す
る2足歩行の動物の身体メカニズムやその動きを模倣し
たロボット装置があるが、本実施の形態として示すロボ
ット装置は、4足歩行タイプの脚式移動ロボットであ
る。A robot device shown as an example of the configuration of the present invention is a robot device which operates autonomously according to an internal state. This robot apparatus is a legged mobile robot that includes at least an upper limb, a trunk and a lower limb, and uses only the upper limb and the lower limb or only the lower limb as a moving means. For legged mobile robots,
There is a pet robot that imitates the body mechanism and movement of a quadruped animal, and a robot device that imitates the body mechanism and movement of a biped animal that uses only its lower limbs as a means of movement. The robot device shown as a form is a four-legged walking type legged mobile robot.
【0022】このロボット装置は、住環境その他の日常
生活上の様々な場面における人的活動を支援する実用ロ
ボットであり、内部状態(怒り、悲しみ、喜び、楽しみ
等)に応じて行動できるほか、4足歩行の動物が行う基
本的な動作を表出できるエンターテインメントロボット
である。This robot apparatus is a practical robot that supports human activities in various situations in daily life such as living environment, and can act according to internal conditions (anger, sadness, joy, enjoyment, etc.). It is an entertainment robot that can express the basic movements of a quadruped animal.
【0023】このロボット装置は、特に、頭部、胴体
部、上肢部、下肢部等を有している。各部の連結部分及
び関節に相当する部位には、運動の自由度に応じた数の
アクチュエータ及びポテンショメータが備えられてお
り、制御部の制御によって目標とする動作を表出でき
る。This robot apparatus has, in particular, a head portion, a body portion, an upper limb portion, a lower limb portion and the like. The number of actuators and potentiometers corresponding to the degrees of freedom of movement are provided at the connecting portions of the respective portions and the portions corresponding to the joints, and the target movement can be expressed by the control of the control portion.
【0024】さらに、ロボット装置は、周囲の状況を画
像データとして取得するための撮像部や、外部から受け
る作用を検出するための各種センサや、外部から受ける
物理的な働きかけ等を検出するための各種スイッチ等を
備えている。撮像部としては、小型のCCD(Charge-C
oupled Device)カメラを使用する。また、各種センサ
には、加速度を検出する加速度センサ、CCDカメラに
よって撮像した被写体までの距離を計測する距離センサ
等がある。各種スイッチには、使用者から触られたこと
を検出する接点型の押下スイッチ、使用者によって操作
されたことを検出する操作スイッチ等がある。これら
は、ロボット装置外部又は内部の適切な箇所に設置され
ている。特に、使用者から触られたことを検出するスイ
ッチは、ロボット装置の外装に設置されておらず、後述
するように、外装に対する「撫でる」や「叩く」等の接
触が間接的にロボット装置内部のスイッチに伝達される
ような構成とされている。Further, the robot apparatus is provided with an image pickup section for acquiring the surrounding condition as image data, various sensors for detecting an externally applied action, and a physical effect or the like received from the outside. Equipped with various switches. As an imaging unit, a small CCD (Charge-C
oupled Device) Use a camera. Further, various sensors include an acceleration sensor that detects acceleration, a distance sensor that measures a distance to a subject captured by a CCD camera, and the like. The various switches include a contact-type push switch that detects a touch by a user, an operation switch that detects a touch by a user, and the like. These are installed at appropriate locations outside or inside the robot apparatus. In particular, the switch that detects the touch by the user is not installed on the exterior of the robot device, and as will be described later, contact with the exterior such as “stroking” or “tapping” is indirectly performed inside the robot device. Is configured to be transmitted to the switch.
【0025】本実施の形態については、先ずロボット装
置の構成について説明し、その後ロボット装置における
本発明の適用部分について詳細に説明する。In the present embodiment, first, the configuration of the robot apparatus will be described, and then the application portion of the present invention in the robot apparatus will be described in detail.
【0026】ロボット装置1は、図1に示すように、胴
体部ユニット2の前後左右に脚部ユニット3A、3B、
3C、3Dが連結され、胴体部ユニット2の前端部に頭
部ユニット4が連結されて構成されている。As shown in FIG. 1, the robot apparatus 1 includes the leg units 3A, 3B, and the front, rear, left, and right sides of the body unit 2.
3C and 3D are connected, and the head unit 4 is connected to the front end of the body unit 2.
【0027】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read Only Memory)12、PC(Personal Com
puter)カードインターフェイス回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また、胴体部ユニット2には、ロボット装置1の向
きや動きの加速度を検出するための加速度センサ19が
収納されている。また、胴体部ユニット2には、鳴き声
等の音声又はメロディを出力するためのスピーカ20
が、図1に示すように所定位置に配置されている。ま
た、胴体部ユニット2の尻尾部5には、使用者からの操
作入力を検出する検出機構としての操作スイッチ21が
備えられている。操作スイッチ21は、使用者による操
作の種類を検出できるスイッチであって、ロボット装置
1は、操作スイッチ21によって検出される操作の種類
に応じて、例えば「誉められた」か「叱られた」かを認
識する。As shown in FIG. 2, the body unit 2 includes a CPU (Central Processing Unit) 10 and a DRA.
M (Dynamic Random Access Memory) 11, Flash ROM (Read Only Memory) 12, PC (Personal Com)
puter) A card interface circuit 13 and a signal processing circuit 14 are connected to each other via an internal bus 15, and a control unit 16 and a battery 17 as a power source of the robot apparatus 1 are housed. . Further, the body unit 2 accommodates an acceleration sensor 19 for detecting the acceleration of the direction and movement of the robot apparatus 1. Further, the body unit 2 is provided with a speaker 20 for outputting a voice such as a cry or a melody.
Are arranged at predetermined positions as shown in FIG. Further, the tail portion 5 of the body unit 2 is provided with an operation switch 21 as a detection mechanism for detecting an operation input from the user. The operation switch 21 is a switch that can detect the type of operation by the user, and the robot apparatus 1 is, for example, “praised” or “scolded” depending on the type of operation detected by the operation switch 21. Recognize
【0028】頭部ユニット4には、外部の状況や対象物
の色、形、動き等を撮像するためのCCD(Charge Cou
pled Device)カメラ22と、前方に位置する対象物ま
での距離を測定するための距離センサ23と、外部音を
集音するためのマイク24と、例えばLED(Light Em
itting Diode)を備えた発光部25等が、図1に示すよ
うに所定位置にそれぞれ配置されている。ただし、発光
部25は、構成の説明等においては、必要に応じてLE
D25と示す。また、頭部ユニット4内部には、図1に
は図示しないが、ユーザの頭部ユニット4に対する接触
を間接的に検出するための検出機構として頭部スイッチ
26が備えられている。頭部スイッチ26は、例えば、
使用者の接触によって頭部が動かされた場合、その傾き
方向を検出できるスイッチであって、ロボット装置1
は、頭部スイッチ26によって検出される頭部の傾き方
向に応じて、「誉められた」か「叱られた」かを認識す
る。The head unit 4 is provided with a CCD (Charge Cou) for picking up an image of the external condition, color, shape, movement of the object.
pled device) camera 22, a distance sensor 23 for measuring a distance to an object located in front, a microphone 24 for collecting an external sound, an LED (Light Em), for example.
Light emitting parts 25 and the like provided with itting diodes are arranged at predetermined positions as shown in FIG. However, in the description of the configuration, the light emitting unit 25 may be LE
It shows as D25. Although not shown in FIG. 1, a head switch 26 is provided inside the head unit 4 as a detection mechanism for indirectly detecting a contact of the user with the head unit 4. The head switch 26 is, for example,
A switch that can detect the tilt direction of the head when the head is moved by the contact of the user.
Recognizes "praised" or "scold" according to the tilt direction of the head detected by the head switch 26.
【0029】各脚部ユニット3A〜3Dの関節部分、各
脚部ユニット3A〜3Dと胴体部ユニット2との連結部
分、頭部ユニット4と胴体部ユニット2との連結部分に
は、自由度数分のアクチュエータ281〜28n及びポ
テンショメータ291〜29 nがそれぞれ配設されてい
る。アクチュエータ281〜28nは、例えば、サーボ
モータを備えている。サーボモータの駆動により、脚部
ユニット3A〜3Dが制御されて目標の姿勢、或いは動
作に遷移する。各脚部ユニット3A〜3Dの先端の「肉
球」に相当する位置には、主としてユーザからの接触を
検出する検出機構としての肉球スイッチ27A〜27D
が設けられ、ユーザによる接触等を検出できるようにな
っている。Joint portions of the leg units 3A to 3D,
Connection between the leg units 3A to 3D and the body unit 2
Minutes, in the connecting portion between the head unit 4 and the body unit 2
Is the actuator 28 for the number of degrees of freedom1~ 28nAnd po
Tension meter 291~ 29 nAre installed respectively
It Actuator 281~ 28nIs, for example, a servo
Equipped with a motor. By driving the servo motor, the legs
The units 3A to 3D are controlled to control the target posture or movement.
Transition to work. The "meat" at the tip of each leg unit 3A-3D
At the position corresponding to the sphere, contact from the user is mainly
Pad ball switches 27A to 27D as a detection mechanism for detecting
Is provided so that user contact can be detected.
ing.
【0030】ロボット装置1は、このほかにも、ここで
は図示しないが、該ロボット装置1の内部状態とは別の
動作状態(動作モード)を表すための発光部や、充電
中、起動中、起動停止等、内部電源の状態を表す状態ラ
ンプ等を、適切な箇所に適宜備えていてもよい。In addition to the above, the robot apparatus 1 is not shown here, but also includes a light emitting section for indicating an operation state (operation mode) different from the internal state of the robot apparatus 1, charging, starting, A status lamp indicating the status of the internal power supply such as start-up / shutdown may be appropriately provided at an appropriate location.
【0031】そして、ロボット装置1において、操作ス
イッチ21、頭部スイッチ26及び肉球スイッチ27等
の各種スイッチと、加速度センサ19、距離センサ23
等の各種センサと、スピーカ20、マイク24、発光部
25、各アクチュエータ28 1〜28n、各ポテンショ
メータ291〜29nは、それぞれ対応するハブ30 1
〜30nを介してコントロール部16の信号処理回路1
4と接続されている。一方、CCDカメラ22及びバッ
テリ17は、それぞれ信号処理回路14と直接接続され
ている。Then, in the robot apparatus 1, the operation switch
Switch 21, head switch 26, paddle switch 27, etc.
Various switches, acceleration sensor 19, distance sensor 23
Etc., various sensors, speaker 20, microphone 24, light emitting unit
25, each actuator 28 1~ 28n, Each pot
Meter 291~ 29nAre respectively corresponding hubs 30 1
~ 30nSignal processing circuit 1 of control unit 16 via
It is connected with 4. On the other hand, the CCD camera 22 and the back
The territories 17 are each directly connected to the signal processing circuit 14.
ing.
【0032】信号処理回路14は、上述の各種スイッチ
から供給されるスイッチデータ、各種センサから供給さ
れるセンサデータ、画像データ及び音声データを順次取
り込み、これらをそれぞれ内部バス15を介してDRA
M11内の所定位置に順次格納する。また信号処理回路
14は、これとともにバッテリ17から供給されるバッ
テリ残量を表すバッテリ残量データを順次取り込み、D
RAM11内の所定位置に格納する。The signal processing circuit 14 sequentially takes in the switch data supplied from the various switches described above, the sensor data supplied from the various sensors, the image data and the audio data, and the DRA via the internal bus 15 respectively.
The data is sequentially stored at a predetermined position in M11. In addition, the signal processing circuit 14 sequentially takes in the battery remaining amount data representing the battery remaining amount supplied from the battery 17, and D
It is stored in a predetermined position in the RAM 11.
【0033】このようにしてDRAM11に格納された
各スイッチデータ、各センサデータ、画像データ、音声
データ及びバッテリ残量データは、CPU10が当該ロ
ボット装置1の動作制御を行う際に使用される。The switch data, the sensor data, the image data, the voice data and the battery remaining amount data thus stored in the DRAM 11 are used when the CPU 10 controls the operation of the robot apparatus 1.
【0034】CPU10は、ロボット装置1の電源が投
入された初期時において、フラッシュROM12に格納
された制御プログラムを読み出して、DRAM11に格
納する。又は、CPU10は、図1に図示しない胴体部
ユニット2のPCカードスロットに装着された半導体メ
モリ装置、例えば、メモリカード31に格納された制御
プログラムをPCカードインターフェイス回路13を介
して読み出してDRAM11に格納する。The CPU 10 reads the control program stored in the flash ROM 12 and stores it in the DRAM 11 at the initial stage when the power of the robot apparatus 1 is turned on. Alternatively, the CPU 10 reads a control program stored in a semiconductor memory device, for example, a memory card 31 mounted in a PC card slot of the body unit 2 (not shown in FIG. 1) through the PC card interface circuit 13 and stores it in the DRAM 11. Store.
【0035】CPU10は、上述のように信号処理回路
14よりDRAM11に順次格納される各センサデー
タ、画像データ、音声データ、及びバッテリ残量データ
に基づいて自己及び周囲の状況や、使用者からの指示及
び働きかけの有無を判断している。The CPU 10, based on the sensor data, the image data, the audio data, and the battery remaining amount data, which are sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above, is based on the self and surrounding conditions and the user. Judging whether or not there is any instruction or work.
【0036】さらに、CPU10は、この判断結果とD
RAM11に格納した制御プログラムとに基づく行動を
決定する。CPU10は、当該決定結果に基づいてアク
チュエータ281〜28nの中から必要とするアクチュ
エータを駆動することによって、例えば頭部ユニット4
を上下左右に振らせたり、各脚部ユニット3A乃至3D
を駆動して歩行させたりする。また、CPU10は、必
要に応じて音声データを生成し、信号処理回路14を介
してスピーカ20に供給する。また、CPU10は、上
述の発光部25におけるLEDの点灯及び消灯を指示す
る信号を生成し、発光部25を点灯したり消灯したりす
る。Further, the CPU 10 and this determination result and D
The action based on the control program stored in the RAM 11 is determined. The CPU 10 drives, for example, a necessary actuator from the actuators 28 1 to 28 n based on the determination result, and thus, for example, the head unit 4
Can be swung up and down, left and right, and each leg unit 3A to 3D
Drive and walk. The CPU 10 also generates audio data as needed and supplies it to the speaker 20 via the signal processing circuit 14. Further, the CPU 10 generates a signal for instructing turning on and off of the LED in the light emitting unit 25, and turns on or off the light emitting unit 25.
【0037】このように、ロボット装置1は、自己及び
周囲の状況や、使用者からの指示及び働きかけに応じて
自律的に行動する。As described above, the robot apparatus 1 behaves autonomously according to its own and surrounding conditions, and instructions and actions from the user.
【0038】ところで、本実施の形態として示すロボッ
ト装置1は、内部状態に応じて自律的に行動できるロボ
ット装置である。ロボット装置1を制御する制御プログ
ラムのソフトウェア構成の一例は、図3に示すようにな
る。この制御プログラムは、上述したように、予めフラ
ッシュROM12に格納されており、ロボット装置1の
電源投入初期時において読み出される。By the way, the robot apparatus 1 shown as the present embodiment is a robot apparatus capable of autonomously acting according to the internal state. An example of the software configuration of the control program for controlling the robot apparatus 1 is as shown in FIG. As described above, this control program is stored in the flash ROM 12 in advance and is read out at the initial stage of power-on of the robot apparatus 1.
【0039】図3において、デバイス・ドライバ・レイ
ヤ200は、制御プログラムの最下位層に位置し、複数
のデバイス・ドライバからなるデバイス・ドライバ・セ
ット201から構成されている。この場合、各デバイス
・ドライバは、CCDカメラ22(図2)やタイマ等の
通常のコンピュータで用いられるハードウェアに直接ア
クセスすることを許されたオブジェクトであり、対応す
るハードウェアからの割り込みを受けて処理を行う。In FIG. 3, the device driver layer 200 is located at the lowest layer of the control program and is composed of a device driver set 201 composed of a plurality of device drivers. In this case, each device driver is an object that is allowed to directly access the hardware used in a normal computer such as the CCD camera 22 (FIG. 2) and the timer, and receives an interrupt from the corresponding hardware. Perform processing.
【0040】また、ロボティック・サーバ・オブジェク
ト202は、デバイス・ドライバ・レイヤ200の最下
位層に位置し、例えば上述の各種センサやアクチュエー
タ281〜28n等のハードウェアにアクセスするため
のインターフェイスを提供するソフトウェア群でなるバ
ーチャル・ロボット203と、電源の切換えなどを管理
するソフトウェア群でなるパワーマネージャ204と、
他の種々のデバイス・ドライバを管理するソフトウェア
群でなるデバイス・ドライバ・マネージャ205と、ロ
ボット装置1の機構を管理するソフトウェア群でなるデ
ザインド・ロボット206とから構成されている。The robotic server object 202 is located in the lowest layer of the device driver layer 200, and is an interface for accessing hardware such as the above-mentioned various sensors and actuators 28 1 to 28 n. A virtual robot 203 that is a software group that provides a power supply, and a power manager 204 that is a software group that manages switching of power supplies,
The device driver manager 205 is a software group that manages various other device drivers, and the designed robot 206 is a software group that manages the mechanism of the robot apparatus 1.
【0041】マネージャ・オブジェクト207は、オブ
ジェクト・マネージャ208及びサービス・マネージャ
209から構成されている。オブジェクト・マネージャ
208は、ロボティック・サーバ・オブジェクト20
2、ミドル・ウェア・レイヤ210、及びアプリケーシ
ョン・レイヤ211に含まれる各ソフトウェア群の起動
や終了を管理するソフトウェア群であり、サービス・マ
ネージャ209は、メモリカード31(図2)に格納さ
れたコネクションファイルに記述されている各オブジェ
クト間の接続情報に基づいて各オブジェクトの接続を管
理するソフトウェア群である。The manager object 207 is composed of an object manager 208 and a service manager 209. The object manager 208 uses the robotic server object 20
2, the middleware layer 210, and the software group that manages the activation and termination of each software group included in the application layer 211. The service manager 209 is a connection group stored in the memory card 31 (FIG. 2). It is a software group that manages the connection of each object based on the connection information between each object described in the file.
【0042】ミドル・ウェア・レイヤ210は、ロボテ
ィック・サーバ・オブジェクト202の上位層に位置
し、画像処理や音声処理などのこのロボット装置1の基
本的な機能を提供するソフトウェア群から構成されてい
る。また、アプリケーション・レイヤ211は、ミドル
・ウェア・レイヤ210の上位層に位置し、当該ミドル
・ウェア・レイヤ210を構成する各ソフトウェア群に
よって処理された処理結果に基づいてロボット装置1の
行動を決定するためのソフトウェア群から構成されてい
る。The middleware layer 210 is located in the upper layer of the robotic server object 202 and is composed of a software group that provides basic functions of the robot apparatus 1 such as image processing and voice processing. There is. Further, the application layer 211 is located in an upper layer of the middle wear layer 210, and determines the action of the robot apparatus 1 based on the processing result processed by each software group forming the middle wear layer 210. It is composed of a software group for doing.
【0043】なお、ミドル・ウェア・レイヤ210及び
アプリケーション・レイヤ211の具体的なソフトウェ
ア構成をそれぞれ図4及び図5に示す。The specific software configurations of the middleware layer 210 and the application layer 211 are shown in FIGS. 4 and 5, respectively.
【0044】ミドル・ウェア・レイヤ210は、図4に
示すように、騒音検出用、温度検出用、明るさ検出用、
音階認識用、距離検出用、姿勢検出用、接触検出用、操
作入力検出用、動き検出用及び色認識用の各信号処理モ
ジュール220〜229並びに入力セマンティクスコン
バータモジュール230などを有する認識系250と、
出力セマンティクスコンバータモジュール247並びに
姿勢管理用、トラッキング用、モーション再生用、歩行
用、転倒復帰用、LED点灯用及び音再生用の各信号処
理モジュール240〜246等を有する出力系251と
から構成されている。The middle wear layer 210, as shown in FIG. 4, is for noise detection, temperature detection, brightness detection,
A recognition system 250 having each of the signal processing modules 220 to 229 for the scale recognition, the distance detection, the posture detection, the contact detection, the operation input detection, the motion detection and the color recognition, the input semantics converter module 230, and the like,
The output system 251 includes an output semantics converter module 247 and signal processing modules 240 to 246 for posture management, tracking, motion reproduction, walking, fall recovery, LED lighting, and sound reproduction. There is.
【0045】認識系250の各信号処理モジュール22
0〜229は、ロボティック・サーバ・オブジェクト2
02のバーチャル・ロボット203によりDRAM11
(図2)から読み出される各スイッチデータ、各センサ
データ、音声データ又は画像データのうちの対応するデ
ータを取り込み、当該データに基づいて所定の処理を施
して、処理結果を入力セマンティクスコンバータモジュ
ール230に与える。ここで、例えば、バーチャル・ロ
ボット203は、所定の通信規約によって、信号の授受
或いは変換をする部分として構成されている。Each signal processing module 22 of the recognition system 250
0 to 229 are robotic server objects 2
02 by the virtual robot 203
The corresponding data of each switch data, each sensor data, audio data or image data read from (FIG. 2) is taken in, predetermined processing is performed based on the data, and the processing result is input to the input semantics converter module 230. give. Here, for example, the virtual robot 203 is configured as a portion that exchanges or converts a signal according to a predetermined communication protocol.
【0046】入力セマンティクスコンバータモジュール
230は、これら各信号処理モジュール220〜228
から与えられる処理結果に基づいて、「うるさい」、
「暑い」、「明るい」、「ドミソの音階が聞こえた」、
「障害物を検出した」、「転倒を検出した」、「叱られ
た」、「誉められた」、「動く物体を検出した」又は
「ボールを検出した」等の自己及び周囲の状況や、使用
者からの指令及び働きかけを認識し、認識結果をアプリ
ケーション・レイヤ211に出力する。The input semantics converter module 230 includes the signal processing modules 220 to 228.
"Noisy" based on the processing result given by
"Hot", "bright", "I heard Domiso scale",
Situation of self and surroundings such as "detected obstacle", "detected fall", "scolded", "praised", "detected moving object" or "detected ball", The command and the action from the user are recognized, and the recognition result is output to the application layer 211.
【0047】アプリケーション・レイヤ211は、図5
に示すように、行動モデルライブラリ260、行動切換
モジュール261、学習モジュール262、感情モデル
263及び本能モデル264の5つのモジュールから構
成されている。The application layer 211 is shown in FIG.
As shown in FIG. 5, the behavior model library 260, the behavior switching module 261, the learning module 262, the emotion model 263, and the instinct model 264 are composed of five modules.
【0048】行動モデルライブラリ260には、図6に
示すように、「バッテリ残量が少なくなった場合」、
「転倒復帰する場合」、「障害物を回避する場合」、
「感情を表現する場合」、「ボールを検出した場合」な
どの予め選択されたいくつかの条件項目にそれぞれ対応
させて、それぞれ独立した行動モデルが設けられてい
る。In the behavior model library 260, as shown in FIG. 6, "when the battery level is low",
"When returning from a fall", "When avoiding obstacles",
Independent behavior models are provided corresponding to some preselected condition items such as “when expressing emotions” and “when detecting a ball”.
【0049】そして、これら行動モデルは、それぞれ入
力セマンティクスコンバータモジュール230から認識
結果が与えられたときや、最後の認識結果が与えられて
から一定時間が経過したときなどに、必要に応じて後述
のように感情モデル263に保持されている対応する情
動のパラメータ値や、本能モデル264に保持されてい
る対応する欲求のパラメータ値を参照しながら続く行動
をそれぞれ決定し、決定結果を行動切換モジュール26
1に出力する。Each of these behavior models will be described later as necessary when a recognition result is given from the input semantics converter module 230, or when a fixed time has elapsed since the last recognition result was given. As described above, the subsequent action is determined with reference to the corresponding emotional parameter value held in the emotion model 263 and the corresponding desire parameter value held in the instinct model 264, and the decision result is determined by the action switching module 26.
Output to 1.
【0050】なお、本具体例として示すロボット装置1
の場合、各行動モデルは、次の行動を決定する手法とし
て、図7に示すような1つのノード(状態)NODE0
〜NODEnから他のどのノードNODE0〜NODE
nに遷移するかを有限確率オートマトンと呼ばれるアル
ゴリズムを用いて次の行動を決定している。有限確率オ
ートマトンとは、ノードNODE0〜NODEnのうち
の1つのノードから他のどのノードに遷移するか否かを
各ノードNODE0〜NODEnの間を接続するアーク
ARC1〜ARCn−1に対してそれぞれ設定された遷
移確率P1〜P nに基づいて確率的に決定するアルゴリ
ズムである。The robot device 1 shown as the present specific example.
In the case of, each behavior model is a method to determine the next behavior.
One node (state) NODE as shown in FIG.0
~ NODEnFrom any other node NODE0~ NODE
nIs called an finite-probability automaton.
The next action is determined by using the gorism. Finite probability
-What is Tomaton? NODE NODE0~ NODEnOut of
Whether to transition from one node of
Node NODE0~ NODEnArc connecting between
ARC1~ ARCn-1The transition set for each
Transfer probability P1~ P nAn algorithm that determines probabilistically based on
It is a rhythm.
【0051】具体的に、各行動モデルは、それぞれ自己
の行動モデルを形成するノードNODE0〜NODEn
にそれぞれ対応させて、これらノードNODE0〜NO
DE n毎に図8に示すような状態遷移表270を有して
いる。Specifically, each behavior model is
NODE that forms the behavior model of the child0~ NODEn
To correspond to each of these nodes NODE0~ NO
DE nEach has a state transition table 270 as shown in FIG.
There is.
【0052】この状態遷移表270では、そのノードN
ODE0〜NODEnにおいて遷移条件とする入力イベ
ント(認識結果)が「入力イベント名」の行に優先順に
列記され、その遷移条件についてのさらなる条件が「デ
ータ名」及び「データ範囲」の行における対応する列に
記述されている。In this state transition table 270, the node N
Input events (recognition results) that are transition conditions in ODE 0 to NODE n are listed in the order of priority in the row of “input event name”, and further conditions regarding the transition conditions are displayed in the rows of “data name” and “data range”. Described in the corresponding column.
【0053】したがって、図8の状態遷移表270で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果とともに与えられるそのボールの「大きさ(SI
ZE)」が「0から1000」の範囲であることや、
「障害物を検出(OBSTACLE)」という認識結果
が与えられた場合に、当該認識結果とともに与えられる
その障害物までの「距離(DISTANCE)」が「0
から100」の範囲であることが他のノードに遷移する
ための条件となっている。Therefore, in the node NODE 100 represented by the state transition table 270 of FIG.
"ALL)", the "size (SI) of the ball given together with the recognition result is given.
ZE) ”is in the range of“ 0 to 1000 ”,
When the recognition result of “obstacle detection (OBSTACE)” is given, the “distance (DISTANCE)” to the obstacle given together with the recognition result is “0”.
The condition for transitioning to another node is that it is in the range of 100 to 100 ”.
【0054】また、このノードNODE100では、認
識結果の入力がない場合でも、行動モデルが周期的に参
照する感情モデル263及び本能モデル264にそれぞ
れ保持された各情動及び各欲求のパラメータ値のうち、
感情モデル263に保持された「喜び(Joy)」、「驚
き(Surprise)」若しくは「悲しみ(Sadness)」のい
ずれかのパラメータ値が「50から100」の範囲であ
るときには他のノードに遷移することができるようにな
っている。Further, in this node NODE 100 , among the parameter values of each emotion and each desire held in the emotion model 263 and the instinct model 264, which the behavior model periodically refers to, even if the recognition result is not input. ,
When the parameter value of any of "Joy", "Surprise" or "Sadness" held in the emotion model 263 is in the range of "50 to 100", transition to another node is made. Is able to.
【0055】また、状態遷移表270では、「他のノー
ドヘの遷移確率」の欄における「遷移先ノード」の列に
そのノードNODE0〜NODEnから遷移できるノー
ド名が列記されているとともに、「入力イベント名」、
「データ名」及び「データの範囲」の行に記述された全
ての条件が揃ったときに遷移できるほかの各ノードNO
DE0〜NODEnへの遷移確率が「他のノードヘの遷
移確率」の欄内の対応する箇所にそれぞれ記述され、そ
のノードNODE0〜NODEnに遷移する際に出力す
べき行動が「他のノードヘの遷移確率」の欄における
「出力行動」の行に記述されている。なお、「他のノー
ドヘの遷移確率」の欄における各行の確率の和は100
[%]となっている。Further, in the state transition table 270, the names of nodes that can transit from the nodes NODE 0 to NODE n are listed in the column of “transition destination node” in the column of “transition probability to another node”. Input event name ",
Other nodes that can transition when all the conditions described in the "Data name" and "Data range" rows are met
The transition probabilities from DE 0 to NODE n are respectively described in the corresponding places in the column of “probability of transition to other node”, and the action to be output when transitioning to the nodes NODE 0 to NODE n is “other It is described in the row of “output action” in the column of “transition probability to node”. In addition, the sum of the probabilities of each row in the column of "probability of transition to other node" is 100.
It is [%].
【0056】したがって、図8の状態遷移表270で表
されるノードNODE100では、例えば「ボールを検
出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結
果が与えられた場合には、「30[%]」の確率で「ノ
ードNODE120(node 120)」に遷移でき、そのと
き「ACTION1」の行動が出力されることとなる。Therefore, in the node NODE 100 represented by the state transition table 270 of FIG. 8, for example, "ball is detected (BALL)" and the "SIZE" of the ball is in the range of "0 to 1000". When the recognition result that is "1" is given, the transition to "node NODE 120 (node 120)" is possible with a probability of "30 [%]", and the action of "ACTION 1" is output at that time.
【0057】各行動モデルは、それぞれこのような状態
遷移表270として記述されたノードNODE0〜 N
ODEnが幾つも繋がるようにして構成されており、入
力セマンティクスコンバータモジュール230から認識
結果が与えられたときなどに、対応するノードNODE
0〜NODEnの状態遷移表を利用して確率的に次の行
動を決定し、決定結果を行動切換モジュール261に出
力するようになされている。Each behavior model has nodes NODE 0 to N described as such a state transition table 270.
The ODE n is configured to be connected to each other, and when a recognition result is given from the input semantics converter module 230, the corresponding node NODE n is input.
The next action is stochastically determined using the state transition table of 0 to NODE n , and the determination result is output to the action switching module 261.
【0058】図5に示す行動切換モジュール261は、
行動モデルライブラリ260の各行動モデルからそれぞ
れ出力される行動のうち、予め定められた優先順位の高
い行動モデルから出力された行動を選択し、当該行動を
実行すべき旨のコマンド(以下、これを行動コマンドと
いう。)をミドル・ウェア・レイヤ210の出力セマン
ティクスコンバータモジュール247に送出する。な
お、この実施の形態においては、図7において下側に表
記された行動モデルほど優先順位が高く設定されてい
る。The action switching module 261 shown in FIG.
Among the actions output from each action model of the action model library 260, the action output from the action model having a predetermined high priority is selected, and a command to execute the action (hereinafter, Action command)) to the output semantics converter module 247 of the middleware layer 210. In addition, in this embodiment, the lower the action model shown in FIG. 7, the higher the priority is set.
【0059】また、行動切換モジュール261は、行動
完了後に出力セマンティクスコンバータモジュール24
7から与えられる行動完了情報に基づいて、その行動が
完了したことを学習モジュール262、感情モデル26
3及び本能モデル264に通知する。Further, the action switching module 261 outputs the output semantics converter module 24 after the action is completed.
Based on the action completion information given from 7, the learning module 262 and the emotion model 26 indicate that the action is completed.
3 and instinct model 264.
【0060】学習モジュール262は、入力セマンティ
クスコンバータモジュール230から与えられる認識結
果のうち、「叱られた」や「誉められた」等、使用者か
らの働きかけとして受けた教示の認識結果を入力する。
そして、学習モジュール262は、この認識結果及び行
動切換モジュール261からの通知に基づいて、「叱ら
れた」ときにはその行動の発現確率を低下させ、「誉め
られた」ときにはその行動の発現確率を上昇させるよう
に、行動モデルライブラリ260における対応する行動
モデルの対応する遷移確率を変更する。The learning module 262 inputs the recognition result of the teaching received as an action from the user, such as "scold" or "praised" among the recognition results given from the input semantics converter module 230.
Then, based on the recognition result and the notification from the action switching module 261, the learning module 262 decreases the expression probability of the action when “scolded” and increases the expression probability of the action when “praised”. Thus, the corresponding transition probability of the corresponding behavior model in the behavior model library 260 is changed.
【0061】また、感情モデル263は、「喜び(Jo
y)」、「悲しみ(Sadness)」、「怒り(Anger)」、
「驚き(Surprise)」、「嫌悪(Disgust)」及び「恐
れ(Fear)」の合計6つの情動について、各情動毎にそ
の情動の強さを表すパラメータを保持している。そし
て、感情モデル263は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
230から与えられる「叱られた」及び「誉められた」
などの特定の認識結果と、経過時間及び行動切換モジュ
ール261からの通知となどに基づいて周期的に更新す
る。The emotion model 263 is "joy (Jo
y) ”,“ Sadness ”,“ Anger ”,
With respect to a total of 6 emotions of “Surprise”, “Disgust”, and “Fear”, a parameter indicating the strength of the emotion is held for each emotion. Then, the emotion model 263 “scolds” and “praises” the parameter values of each of these emotions, which are given from the input semantics converter module 230, respectively.
It is periodically updated based on a specific recognition result such as, the elapsed time, and the notification from the action switching module 261.
【0062】具体的には、感情モデル263は、入力セ
マンティクスコンバータモジュール230から与えられ
る認識結果と、そのときのロボット装置1の行動と、前
回更新してからの経過時間となどに基づいて所定の演算
式により算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkeとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル263は、これと同様に
して全ての情動のパラメータ値を更新する。Specifically, the emotion model 263 is predetermined based on the recognition result given from the input semantics converter module 230, the action of the robot apparatus 1 at that time, the elapsed time from the last update, and the like. The amount of change in emotion at that time calculated by the arithmetic expression is ΔE
[T], E [t] of the current parameter value of the emotion, the coefficient representing the sensitivity of the emotion as k e, (1) the parameter value of the emotion in a next period by equation E [t +
1] is calculated, and this is used as the current parameter value E of the emotion.
The parameter value of the emotion is updated by replacing it with [t]. Further, the emotion model 263 updates the parameter values of all emotions in the same manner.
【0063】[0063]
【数1】 [Equation 1]
【0064】なお、各認識結果や出力セマンティクスコ
ンバータモジュール247からの通知が各情動のパラメ
ータ値の変動量△E[t]にどの程度の影響を与えるか
は予め決められており、例えば「叱られた」といった認
識結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「誉められた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。The degree of influence of each recognition result and the notification from the output semantics converter module 247 on the fluctuation amount ΔE [t] of the parameter value of each emotion is predetermined, and for example, “Scary is scolded”. The recognition result such as “ta” is the variation amount ΔE of the parameter value of the emotion of “anger”
[T] has a great influence, and the recognition result such as "praised" is the variation amount of the parameter value of the emotion of "joy" ΔE.
It has a great influence on [t].
【0065】ここで、出力セマンティクスコンバータモ
ジュール247からの通知とは、いわゆる行動のフィー
ドバック情報(行動完了情報)であり、行動の出現結果
の情報であり、感情モデル263は、このような情報に
よっても感情を変化させる。これは、例えば、「吠え
る」といった行動により怒りの感情レベルが下がるとい
ったようなことである。なお、出力セマンティクスコン
バータモジュール247からの通知は、上述した学習モ
ジュール262にも入力されており、学習モジュール2
62は、その通知に基づいて行動モデルの対応する遷移
確率を変更する。Here, the notification from the output semantics converter module 247 is so-called action feedback information (action completion information), which is information about the appearance result of the action, and the emotion model 263 is also based on such information. Change emotions. This is, for example, that the behavior level of anger is lowered by the action of "barking". The notification from the output semantics converter module 247 is also input to the learning module 262 described above.
62 changes the corresponding transition probability of the behavior model based on the notification.
【0066】なお、行動結果のフィードバックは、行動
切換モジュール261の出力(感情が付加された行動)
によりなされるものであってもよい。The action result feedback is output from the action switching module 261 (behavior with emotion added).
May be made by
【0067】また、本能モデル264は、「運動欲(ex
ercise)」、「愛情欲(affection)」、「充電欲(以
下、食欲(appetite)と記す。)」及び「好奇心(curi
osity)」の互いに独立した4つの欲求について、これ
ら欲求毎にその欲求の強さを表すパラメータを保持して
いる。そして、本能モデル264は、これらの欲求のパ
ラメータ値を、それぞれ入力セマンティクスコンバータ
モジュール230から与えられる認識結果や、経過時間
及び行動切換モジュール261からの通知などに基づい
て周期的に更新する。Further, the instinct model 264 has a
"ercise", "affection", "charge desire (hereinafter referred to as appetite)" and "curi"
“Osity)”, each of the four independent desires holds a parameter indicating the strength of the desire. Then, the instinct model 264 periodically updates the parameter values of these desires based on the recognition result given from the input semantics converter module 230, the elapsed time, the notification from the action switching module 261, and the like.
【0068】具体的には、本能モデル264は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール247からの通知などに基づいて所定の演算式によ
り算出されるそのときのその欲求の変動量をΔI
[k]、現在のその欲求のパラメータ値をI[k]、そ
の欲求の感度を表す係数kiとして、所定周期で(2)
式を用いて次の周期におけるその欲求のパラメータ値I
[k+1]を算出し、この演算結果を現在のその欲求の
パラメータ値I[k]と置き換えるようにしてその欲求
のパラメータ値を更新する。また、本能モデル264
は、これと同様にして「食欲」を除く各欲求のパラメー
タ値を更新する。Specifically, the instinct model 264 determines the “motility”, “love”, and “curiosity” based on the recognition result, the elapsed time, the notification from the output semantics converter module 247, and the like. The fluctuation amount of the desire at that time calculated by the arithmetic expression is ΔI
[K], the current parameter value of the desire is I [k], and a coefficient k i representing the sensitivity of the desire is set in a predetermined cycle (2).
Using the formula, the parameter value I of the desire in the next cycle
[K + 1] is calculated, and the calculation result is replaced with the current parameter value I [k] of the desire to update the parameter value of the desire. Also, the instinct model 264
Updates the parameter values of each desire except "appetite" in the same manner.
【0069】[0069]
【数2】 [Equation 2]
【0070】なお、認識結果及び出力セマンティクスコ
ンバータモジュール247からの通知などが各欲求のパ
ラメータ値の変動量△I[k]にどの程度の影響を与え
るかは予め決められており、例えば出力セマンティクス
コンバータモジュール247からの通知は、「疲れ」の
パラメータ値の変動量△I[k]に大きな影響を与える
ようになっている。The degree of influence of the recognition result and the notification from the output semantics converter module 247 on the variation amount ΔI [k] of the parameter value of each desire is predetermined, and for example, the output semantics converter is used. The notification from the module 247 has a great influence on the variation amount ΔI [k] of the “tiredness” parameter value.
【0071】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から10
0までの範囲で変動するように規制されており、また係
数k e、kiの値も各情動及び各欲求毎に個別に設定さ
れている。In this embodiment, each affect
And each desire (instinct) parameter value is 0 to 10
It is regulated to fluctuate within the range of 0, and
A few k e, KiThe value of is also set individually for each emotion and each desire.
Has been.
【0072】ミドル・ウェア・レイヤ210の出力セマ
ンティクスコンバータモジュール247は、図4に示す
ように、上述のようにしてアプリケーション・レイヤ2
11の行動切換モジュール261から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系251の対応する信号処理モジュール240〜246
に与える。The output semantics converter module 247 of the middleware layer 210 uses the application layer 2 as described above, as shown in FIG.
An abstract action command such as “forward”, “pleasing”, “squealing” or “tracking (chasing the ball)” given from the action switching module 261 of 11 corresponds to the signal processing modules 240 to 246 of the output system 251.
Give to.
【0073】そしてこれら信号処理モジュール240〜
246は、行動コマンドが与えられると当該行動コマン
ドに基づいて、その行動をするために対応するアクチュ
エータ281〜28n(図2)に与えるべきサーボ指令
値や、スピーカ20(図2)から出力する音の音声デー
タ及び/又は発光部25(図2)のLEDに与える駆動
データを生成し、これらのデータをロボティック・サー
バ・オブジェクト202のバーチャル・ロボット203
及び信号処理回路14(図2)を介して対応するアクチ
ュエータ281〜28n、スピーカ20又は発光部25
に順次送出する。Then, these signal processing modules 240-
246, when an action command is given, the servo command value to be given to the corresponding actuators 28 1 to 28 n (FIG. 2) to take the action based on the action command, and the output from the speaker 20 (FIG. 2). Sound data of the sound to be played and / or drive data to be given to the LED of the light emitting unit 25 (FIG. 2) is generated, and these data are generated by the virtual robot 203 of the robotic server object 202.
And corresponding actuators 28 1 to 28 n , the speaker 20 or the light emitting unit 25 via the signal processing circuit 14 (FIG. 2).
It is sequentially sent to.
【0074】このようにしてロボット装置1は、制御プ
ログラムに基づいて自己(内部)及び周囲(外部)の状
況や、使用者からの指示及び働きかけに応じた自律的な
行動ができる。In this way, the robot apparatus 1 can perform autonomous actions according to its own (internal) and surrounding (external) conditions, and instructions and actions from the user based on the control program.
【0075】ところで、上述したように、例えば感情モ
デルにおいて、「怒り」や「喜び」等の情動は、ユーザ
から「叱られた」や「誉められた」等の働きかけを検出
することによって変化されている。そして、ロボット装
置1は、上述したように、頭部スイッチ26によって検
出される頭部の傾き方向に応じて、「叱られた」か「誉
められた」かを認識する。By the way, as described above, for example, in the emotion model, emotions such as "anger" and "joy" are changed by detecting the action of "scold" or "praised" by the user. ing. Then, as described above, the robot apparatus 1 recognizes whether the player is "scold" or "praised" according to the tilt direction of the head detected by the head switch 26.
【0076】頭部スイッチ26は、上述したように、頭
部ユニット4に備えられたスイッチである。この頭部ス
イッチ26は、頭部ユニット4に対する使用者の接触を
間接的に検出することができるスイッチである。The head switch 26 is a switch provided in the head unit 4 as described above. The head switch 26 is a switch that can indirectly detect a user's contact with the head unit 4.
【0077】先ず、この頭部スイッチ26を含めた周辺
部分の概念構成について、図9を用いて説明する。図9
に示すように、上述した胴体部ユニット2の内部に配置
される内部筐体101には、上述したロボット装置1の
「頸部」に相当する可動部材102が連結され、この可
動部材102には、スイッチを支持する支持部材103
が連結される。また、支持部材103には、スイッチを
押圧する押圧部を有するスイッチ押圧部材104が支軸
107を介して連結される。このスイッチ押圧部材10
4は、頭部ユニット4の外装105に固定され、外装1
05と一体化して動くように構成されている。First, the conceptual structure of the peripheral portion including the head switch 26 will be described with reference to FIG. Figure 9
As shown in FIG. 3, a movable member 102 corresponding to the “neck” of the robot apparatus 1 described above is connected to the internal housing 101 arranged inside the body unit 2 described above. , Support member 103 for supporting the switch
Are connected. A switch pressing member 104 having a pressing portion that presses the switch is connected to the support member 103 via a support shaft 107. This switch pressing member 10
4 is fixed to the exterior 105 of the head unit 4, and the exterior 1
It is configured to move integrally with 05.
【0078】可動部材102は、図示しないモータによ
って、内部筐体101に対して可動とされており、可動
部材102は、図示しないモータによって、支軸106
を中心として回転駆動される。The movable member 102 is movable with respect to the inner casing 101 by a motor (not shown), and the movable member 102 is supported by a motor (not shown).
It is driven to rotate around.
【0079】例えば使用者が頭部ユニット4の外装10
5を撫でると、撫でる際に使用者の手から頭部ユニット
4の外装105に加わる摩擦力が、支軸107を中心と
する回動力に変換される。この回動力によって、頭部ユ
ニット4の外装105とスイッチ押圧部材104とが一
体化して回動し、スイッチ押圧部材104の押圧部によ
って支持部材103のスイッチが押圧駆動される。For example, the user may use the exterior 10 of the head unit 4.
When stroking 5, the frictional force applied from the user's hand to the exterior 105 of the head unit 4 when stroking is converted into a rotational force about the support shaft 107. Due to this turning force, the exterior 105 of the head unit 4 and the switch pressing member 104 are integrally rotated and the pressing portion of the switch pressing member 104 presses and drives the switch of the support member 103.
【0080】なお、支持部材103は、支軸106を中
心として回動することができるが、モータの抗力によ
り、通常の撫でる動作によって支持部材103が回動し
てしまうことはない。The support member 103 can rotate about the support shaft 106, but the support member 103 does not rotate due to the normal stroking operation due to the drag force of the motor.
【0081】次に、この頭部スイッチ26によって、頭
部ユニット4の外装に対する接触を検出する原理につい
て説明する。図10に示すように、頭部スイッチ26
は、接点型のスイッチである2つの第1及び第2のスイ
ッチ110a,110bを有する支持部材111と、略
板形状のスイッチ押圧部113と、スイッチ押圧部11
3の裏面113aから突出された2つの第1及び第2の
突出部114a,114bにより構成され、当該第1及
び第2の突出部114a,114bが第1及び第2の各
スイッチ110a,110b上に位置される押圧部11
4とが一体として構成されているスイッチ押圧部材11
2とを備えている。Next, the principle of detecting the contact of the head unit 4 with the exterior by the head switch 26 will be described. As shown in FIG. 10, the head switch 26
Is a support member 111 having two first and second switches 110a and 110b, which are contact type switches, a substantially plate-shaped switch pressing portion 113, and a switch pressing portion 11
3 is composed of two first and second protrusions 114a and 114b protruding from the back surface 113a, and the first and second protrusions 114a and 114b are on the first and second switches 110a and 110b. Pressing part 11 located at
Switch pressing member 11 which is configured integrally with 4
2 and.
【0082】ここで、スイッチ押圧部113は、頭部ユ
ニット4と一体化して動作し、支持部材111に対して
図中矢印aの方向に微小回動可能とされている。また、
支持部材111は、上述したように、図示しないモータ
によって、図中矢印bの方向に回動することができる。Here, the switch pressing portion 113 operates integrally with the head unit 4, and is finely rotatable with respect to the support member 111 in the direction of arrow a in the figure. Also,
As described above, the support member 111 can be rotated in the direction of arrow b in the figure by a motor (not shown).
【0083】押圧部114の第1及び第2の突出部11
4a,114bは、例えば、スイッチ押圧部113の裏
面113aから突出されている。The first and second protruding portions 11 of the pressing portion 114
4a and 114b are projected from the back surface 113a of the switch pressing part 113, for example.
【0084】この図9、図10に示す頭部スイッチ26
の状態は、スイッチ押圧部113或いはスイッチ押圧部
材112が押されていないときのものであり、押圧部1
14の第1及び第2の突出部114a,114bと第1
及び第2のスイッチ110a,110bとが非接触状
態、あるいは接触していても押圧されていない非押圧状
態に維持された状態である。Head switch 26 shown in FIGS. 9 and 10.
The state is when the switch pressing portion 113 or the switch pressing member 112 is not pressed.
14 first and second protrusions 114a, 114b and the first
And the second switches 110a and 110b are in a non-contact state, or are in a non-pressed state in which they are not pressed even if they are in contact with each other.
【0085】このような状態を維持するために、頭部ス
イッチ26は、弾性力によって、押圧部114の第1及
び第2の突出部114a,114bと第1及び第2のス
イッチ110a,110bとを非接触状態又は非押圧状
態に維持する弾性部材115a,115bを備えてい
る。弾性部材としては、例えば、スプリングが挙げられ
る。なお、弾性部材115a,115bとしては、後述
するように、板バネであっても構わない。In order to maintain such a state, the head switch 26 causes the first and second projecting portions 114a and 114b of the pressing portion 114 and the first and second switches 110a and 110b by the elastic force. Is provided with elastic members 115a and 115b for maintaining the non-contact state or the non-pressed state. The elastic member may be, for example, a spring. The elastic members 115a and 115b may be leaf springs, as will be described later.
【0086】このような頭部スイッチ26は、図11中
(A)に示すように、頭部ユニット4が撫でられたこと
で、スイッチ押圧部113が第1のスイッチ110aが
配置されている位置から第2のスイッチ110bが配置
されている位置に向かって図中矢印a1の方向に回動し
たときには、押圧部114の第2の突出部114bの端
部114dにより第2のスイッチ110bが押圧され
る。このとき、押圧部114の第1の突出部114aの
端部114cは、第1のスイッチ110aから離間され
て、第1の突出部114aの端部114cと第1のスイ
ッチ110aとは非接触状態とされる。In such a head switch 26, as shown in FIG. 11 (A), the head pressing unit 113 is stroked so that the switch pressing portion 113 is located at the position where the first switch 110a is arranged. from when the second switch 110b is rotated in the direction of the arrow in the drawing a 1 toward the position is located, the second switch 110b by the end 114d of the second protrusion 114b of the pressing portion 114 is pressed To be done. At this time, the end 114c of the first protrusion 114a of the pressing portion 114 is separated from the first switch 110a, and the end 114c of the first protrusion 114a and the first switch 110a are in a non-contact state. It is said that
【0087】また、図11中(B)に示すように、スイ
ッチ押圧部113が第2のスイッチ110bが配置され
ている位置から第1のスイッチ110aが配置されてい
る位置に向かって図中矢印a2の方向に回動したときに
は、押圧部114の第1の突出部114aにより第2の
スイッチ110aが押圧されるようになる。Further, as shown in FIG. 11B, the switch pressing portion 113 moves from the position where the second switch 110b is arranged toward the position where the first switch 110a is arranged to the arrow in the drawing. When rotated in the direction of a 2 , the second protrusion 110 a of the pressing portion 114 presses the second switch 110 a.
【0088】このように、頭部スイッチ26において、
スイッチ押圧部113が回動することにより、ロボット
装置1の頭部ユニット4が「撫でられた」ことを検出す
ることができる。Thus, in the head switch 26,
By rotating the switch pressing portion 113, it is possible to detect that the head unit 4 of the robot apparatus 1 has been “stroked”.
【0089】また、頭部スイッチ26により、撫でられ
た方向の検出が可能とされている。具体的には、撫でら
れた方向は、頭部スイッチ26の第1のスイッチ110
aの出力と第2のスイッチ110bの出力とに基づいて
検出される。具体的には、次のような構成により押され
た方向が検出される。The head switch 26 can detect the stroked direction. Specifically, the stroked direction is the first switch 110 of the head switch 26.
It is detected based on the output of a and the output of the second switch 110b. Specifically, the pressed direction is detected by the following configuration.
【0090】図12に示すように、ロボット装置1は、
第1及び第2のスイッチ110a,110bの出力信号
が入力される押し方向検出手段120を備えている。As shown in FIG. 12, the robot apparatus 1 has
The pushing direction detecting means 120 is provided to which the output signals of the first and second switches 110a and 110b are input.
【0091】押し方向検出手段120は、第1及び第2
のスイッチ110a,110bの出力信号に基づいて押
された方向を検出している。押し方向検出手段120に
より、具体的には次のようにして押された方向が検出さ
れる。例えば、押し方向検出手段120において、第1
のスイッチ110aのみから出力信号が検出された場合
には、第2のスイッチ110bが配置されている位置か
ら第1のスイッチ110aが配置されている位置に向か
って「撫でられた」ことが検出されたことになる。ま
た、押し方向検出手段120において、第2のスイッチ
110bのみから出力信号が検出された場合には、第1
のスイッチ110aが配置されている位置から第2のス
イッチ110bが配置されている位置に向かって「撫で
られた」ことが検出されたことになる。The pushing direction detecting means 120 includes the first and second
The pressing direction is detected based on the output signals of the switches 110a and 110b. Specifically, the pushing direction detecting means 120 detects the pushing direction as follows. For example, in the pushing direction detecting means 120, the first
When the output signal is detected only from the switch 110a of the second switch 110a, it is detected that the “stroking” is performed from the position where the second switch 110b is arranged toward the position where the first switch 110a is arranged. It will be. If the output signal is detected only from the second switch 110b in the pushing direction detecting means 120, the first
That is, it is detected that the "stroking" is performed from the position where the switch 110a is arranged to the position where the second switch 110b is arranged.
【0092】以上、頭部スイッチ26を含む周辺部分の
概念構成及び頭部スイッチ41により接触を検出する原
理について説明した。次に、ロボット装置1の頭部ユニ
ット4に設けられた頭部スイッチ26の具体的な構造に
ついて説明する。The conceptual configuration of the peripheral portion including the head switch 26 and the principle of detecting contact by the head switch 41 have been described above. Next, a specific structure of the head switch 26 provided in the head unit 4 of the robot apparatus 1 will be described.
【0093】頭部スイッチ26は、ロボット装置1の頭
部ユニット4に適用された場合、図13に示すように、
大別して、上述したスイッチ押圧部材112に相当する
スイッチ押圧部材130と、例えば板バネである弾性部
材140と、上述した支持部材111に相当する支持部
材150とから構成される。When the head switch 26 is applied to the head unit 4 of the robot apparatus 1, as shown in FIG.
It is roughly classified into a switch pressing member 130 corresponding to the switch pressing member 112 described above, an elastic member 140 such as a leaf spring, and a support member 150 corresponding to the support member 111 described above.
【0094】スイッチ押圧部材130は、図13及び図
14に示すように、略L字型の略板形状とされており、
中央付近から垂直下方に折曲加工された舌片131a,
131bが設けられている。また、この舌片131a,
131bには、支持部材150に対して微小回動を可能
とするための支軸132a,132bがそれぞれ外側に
向かって設けられている。また、スイッチ押圧部材13
0の上面には、裏面に向かって切り起こし片133a,
133bが設けられており、その先端は、上面に対して
略平行となるように折曲加工されている。なお、この切
り起こし片133a,133bは、頭部スイッチ26を
構成したときに、それぞれ後述する第1のスイッチ15
3a及び第2のスイッチ153bと僅かな隙間をもって
対面するような位置に設けられている。As shown in FIGS. 13 and 14, the switch pressing member 130 has a substantially L-shaped and substantially plate shape,
A tongue piece 131a bent vertically downward from around the center,
131b is provided. Also, this tongue piece 131a,
Support shafts 132a and 132b are provided on the 131b so as to be capable of finely rotating with respect to the support member 150, respectively. In addition, the switch pressing member 13
On the upper surface of 0, cut and raised pieces 133a,
133b is provided, and its tip is bent so as to be substantially parallel to the upper surface. The cut-and-raised pieces 133a and 133b are used when the head switch 26 is configured, and each of the cut-and-raised pieces 133a and 133b will be described later.
3a and the second switch 153b are provided at positions facing each other with a slight gap.
【0095】弾性部材140は、略V字型を有してお
り、その中間部分が平面部141とされている。また、
平面部141を介して両端には、切り起こし片133
a,133bをそれぞれ通すための開口部142a,1
42bが設けられている。また、弾性部材140の端部
143a,143bが後述する支持部材150の凸部1
53a,153bと接するように構成されている。支持
部材150の中央付近には、垂直上方に折曲加工された
舌片151a,151bが設けられている。また、この
舌片151a,151bには、上述した支軸132a,
132bを挿通するための挿通孔152a,152bが
設けられている。また、上面の両端には、凸部153
a,153bが設けられており、この凸部153a,1
53bの上面において、上述した弾性部材140の端部
143a,143bが接する。さらに、支持部材150
の上面には、押し方向を感知する第1のスイッチ154
a及び第2のスイッチ154bが設けられている。The elastic member 140 has a substantially V shape, and an intermediate portion thereof is a plane portion 141. Also,
Cut-and-raised pieces 133 are provided on both ends of the flat portion 141.
a, 133b through openings 142a, 1 respectively
42b is provided. In addition, the end portions 143a and 143b of the elastic member 140 have the convex portions 1 of the support member 150 described later.
It is configured to be in contact with 53a and 153b. In the vicinity of the center of the support member 150, tongues 151a and 151b that are vertically bent are provided. The tongue pieces 151a and 151b are provided with the support shafts 132a,
Insertion holes 152a and 152b for inserting 132b are provided. In addition, at both ends of the upper surface, the protrusions 153
a, 153b are provided, and the protrusions 153a, 1
The ends 143a and 143b of the elastic member 140 described above are in contact with the upper surface of 53b. Further, the support member 150
On the upper surface of the first switch 154 for detecting the pushing direction.
a and the second switch 154b are provided.
【0096】これらのスイッチ押圧部材130、弾性部
材140及び支持部材150により、頭部スイッチ26
は、図14に示すように構成される。図14のように構
成された頭部スイッチ26は、2点破線で仮想的に示す
頭部ユニット4の内部に格納されている。また、この頭
部ユニット26は、ロボット装置1の「頸部」に相当す
る可動部160と連結され、可動部160は、可動部1
60を駆動する駆動モータを有する支持部170によっ
て支持される。この支持部170は、胴体部ユニット2
の内部の内部筐体180に格納される。With the switch pressing member 130, the elastic member 140 and the supporting member 150, the head switch 26
Are configured as shown in FIG. The head switch 26 configured as shown in FIG. 14 is stored inside the head unit 4 virtually shown by a two-dotted broken line. The head unit 26 is connected to a movable part 160 corresponding to the “neck” of the robot apparatus 1, and the movable part 160 is the movable part 1.
It is supported by a support 170 having a drive motor that drives 60. The support portion 170 is used for the body unit 2
It is stored in the internal housing 180 inside the.
【0097】より詳しくは、図15の斜視図に示すよう
に、頭部ユニット4の外装4A,4Bの内部に頭部筐体
190A,190B,190Cが設けられ、その頭部筐
体190A,190B,190Cの内部に、上述したス
イッチ押圧部材130、弾性部材140、第1及び第2
のスイッチ154a,154b、支持部材150が格納
される。なお、図15に示す駆動モータ161は、図1
4に示した可動部160の内部に格納され、可動部16
0に対して支持部材150を駆動させるためのものであ
る。More specifically, as shown in the perspective view of FIG. 15, head casings 190A, 190B and 190C are provided inside the outer casings 4A and 4B of the head unit 4, and the head casings 190A and 190B are provided. , 190C inside the switch pressing member 130, the elastic member 140, the first and second members.
The switches 154a and 154b and the support member 150 are stored. The drive motor 161 shown in FIG.
4 is housed inside the movable part 160 shown in FIG.
This is for driving the support member 150 with respect to zero.
【0098】そして、ユーザによってロボット装置1の
頭部ユニット4が「撫でられる」と、頭部ユニット4の
外装4A,4Bと一体に、頭部筐体190A,190
B,190C及びそれに連結されたスイッチ押圧部材1
30が動く。この結果、弾性部材140の開口部142
a,142bを通じて、スイッチ押圧部材130の切り
起こし片133a,133bによって第1のスイッチ1
54a及び第2のスイッチ154bが押圧駆動される。When the head unit 4 of the robot apparatus 1 is "stroked" by the user, the head units 190A and 190 are integrated with the outer casings 4A and 4B of the head unit 4.
B, 190C and switch pressing member 1 connected thereto
30 moves. As a result, the opening 142 of the elastic member 140
the first switch 1 by the cut-and-raised pieces 133a, 133b of the switch pressing member 130 through a.
54a and the second switch 154b are pressed and driven.
【0099】以下、図16を用いてさらに詳細に説明す
る。なお、図16では、説明に必要な部分以外の構成を
省略して記載する。図16中(A)に示す頭部スイッチ
41は、頭部ユニット4の外装が押されていない状態の
ものである。この状態では、弾性部材140の弾性力に
より、スイッチ押圧部材130が支持部材150から離
反する方向に予圧がかかっているため、スイッチ押圧部
材130の切り起こし片133a,133bと第1のス
イッチ154a及び第2のスイッチ154bとが非接触
状態に維持される。Hereinafter, further details will be described with reference to FIG. Note that in FIG. 16, components other than those necessary for the description are omitted. The head switch 41 shown in FIG. 16 (A) is in a state where the exterior of the head unit 4 is not pressed. In this state, the elastic force of the elastic member 140 applies a preload to the switch pressing member 130 in a direction in which the switch pressing member 130 is separated from the support member 150. Therefore, the cut-and-raised pieces 133a and 133b of the switch pressing member 130 and the first switch 154a and The second switch 154b is maintained in a non-contact state.
【0100】頭部ユニット4の外装が第1のスイッチ1
54aが配置されている位置から第2のスイッチ154
bが配置されている位置に向かって「撫でられた」とき
には、図16中(B)に示すように、スイッチ押圧部材
130の切り起こし片133bにより第2のスイッチ1
54bが押圧される。このとき、スイッチ押圧部材13
0の切り起こし片133aは、第1のスイッチ154a
から離間されて、スイッチ押圧部材130の切り起こし
片133aと第1のスイッチ154aとは非接触状態と
される。The exterior of the head unit 4 is the first switch 1
The second switch 154 from the position where 54a is arranged.
When the "b" is stroked toward the position where b is arranged, as shown in FIG. 16B, the cut-and-raised piece 133b of the switch pressing member 130 causes the second switch 1 to move.
54b is pressed. At this time, the switch pressing member 13
The cut-and-raised piece 133a of 0 is the first switch 154a.
Are separated from each other, the cut-and-raised piece 133a of the switch pressing member 130 and the first switch 154a are brought into a non-contact state.
【0101】また、図示しないが、反対に頭部ユニット
4の外装が、第2のスイッチ154bが配置されている
位置から第1のスイッチ154aが配置されている位置
に向かって「撫でられた」ときには、スイッチ押圧部材
130の切り起こし片133aにより第1のスイッチ1
54aが押圧される。Although not shown, on the contrary, the exterior of the head unit 4 is "stroked" from the position where the second switch 154b is arranged toward the position where the first switch 154a is arranged. Sometimes, the cut-and-raised piece 133a of the switch pressing member 130 causes the first switch 1 to move.
54a is pressed.
【0102】このように、頭部ユニット4の外装への刺
激がスイッチ押圧部材130を介して第1のスイッチ1
54a及び第2のスイッチ154bに伝えられるため、
頭部ユニット4の外装にスイッチを設けずに、接触を検
出することができる。また、ロボット装置の外装にスイ
ッチを設ける必要がないため、外装を自由に設計するこ
とができ、デザインの自由度が向上する。さらに、支軸
を中心とする微小回動の互いに異なる回動方向をそれぞ
れ検出する2個のスイッチが設けられているため、どち
らの方向から接触されたかについても検出することがで
きる。これにより、検出される頭部の傾き方向に応じ
て、「叱られた」「誉められた」かを認識することがで
きる。As described above, the stimulus to the exterior of the head unit 4 is transmitted through the switch pressing member 130 to the first switch 1
54a and the second switch 154b,
The contact can be detected without providing a switch on the exterior of the head unit 4. Further, since it is not necessary to provide a switch on the exterior of the robot device, the exterior can be freely designed, and the degree of freedom in design is improved. Further, since the two switches for detecting the different rotation directions of the minute rotation about the support shaft are provided, it is possible to detect from which direction the contact is made. As a result, it is possible to recognize whether the person has been scolded or praised, depending on the detected tilt direction of the head.
【0103】また、頭部ユニット4の外装が押されてい
ない状態では、弾性部材140の弾性力により、スイッ
チ押圧部材130の切り起こし片133a,133bと
第1のスイッチ154a及び第2のスイッチ154bと
が非接触状態に維持されており、切り起こし片133
a,133bが常に第1のスイッチ154a及び第2の
スイッチ154bに接触している訳ではないので、スイ
ッチの耐久性が向上する。Further, when the exterior of the head unit 4 is not pressed, the elastic force of the elastic member 140 causes the cut and raised pieces 133a and 133b of the switch pressing member 130, the first switch 154a and the second switch 154b. And are kept in a non-contact state, and the cut and raised piece 133 is
Since a and 133b do not always contact the first switch 154a and the second switch 154b, the durability of the switch is improved.
【0104】なお、本発明は、上述した実施の形態のみ
に限定されるものではなく、本発明の要旨を逸脱しない
範囲において種々の変更が可能であることは勿論であ
る。例えば、本実施の形態では、4足歩行の脚式移動ロ
ボットに関して説明したが、ロボット装置は、内部状態
に応じて動作するものであれば適用可能であって、移動
手段は、4足歩行、さらには脚式移動方式に限定されな
い。The present invention is not limited to the above-described embodiments, and it goes without saying that various modifications can be made without departing from the gist of the present invention. For example, although the present embodiment has been described with respect to a quadrupedal legged mobile robot, the robot device is applicable as long as it operates according to the internal state, and the moving means is a quadrupedal locomotion device, Further, it is not limited to the leg type moving method.
【0105】また、本実施の形態では、ユーザによって
ロボット装置1の頭部が「撫でられた」場合についての
み説明したが、ロボット装置1の頭部が「叩かれた」場
合についても検出できるように構成することができる。
すなわち、例えば図17に示すように、ロボット装置1
の頭部が略垂直方向に強く押されたときに、図17中
(A)から図17中(B)のように、スイッチ押圧部材
130と支持部材150とを接続する支軸がずれるよう
に構成することで、第1のスイッチ154a及び第2の
スイッチ154bが同時に押圧駆動され、これにより
「叩かれた」ことを検出することができる。Further, in the present embodiment, only the case where the head of the robot apparatus 1 is “stroked” by the user has been described, but the case where the head of the robot apparatus 1 is “struck” can be detected. Can be configured to.
That is, for example, as shown in FIG.
When the head of the user is strongly pushed in the substantially vertical direction, the spindle connecting the switch pressing member 130 and the supporting member 150 is displaced as shown in FIGS. 17 (A) to 17 (B). With the configuration, it is possible to detect that the first switch 154a and the second switch 154b are pressed at the same time, and thereby "struck".
【0106】[0106]
【発明の効果】以上詳細に説明したように本発明に係る
接触検出装置は、本体に接続される一以上の構成部品の
外装に対する接触を検出する接触検出装置であって、上
記構成部品の内部に配置され、上記構成部品の外装と一
体化して動くスイッチ押圧部材を備え、上記スイッチ押
圧部材によって上記構成部品内のスイッチが押圧駆動さ
れることを特徴としている。As described in detail above, the contact detecting device according to the present invention is a contact detecting device for detecting the contact of one or more component parts connected to the main body with the exterior, and the inside of the component parts. And a switch pressing member that moves integrally with the exterior of the component, and the switch in the component is pressed by the switch pressing member.
【0107】ここで、上記接触検出装置は、上記本体に
連結され、上記スイッチを支持する支持部を備え、上記
スイッチ押圧部材は、上記支持部と支軸を介して接続さ
れ、当該スイッチ押圧部材が上記支軸を中心として微小
回動することで、当該スイッチ押圧部材の押圧部によっ
て上記スイッチが押圧駆動される。Here, the contact detection device is provided with a support portion that is connected to the main body and supports the switch, and the switch pressing member is connected to the support portion through a support shaft, and the switch pressing member is connected. When the switch slightly rotates about the support shaft, the switch is pressed by the pressing portion of the switch pressing member.
【0108】また、接触検出装置において上記支持部に
は、上記支軸を中心とする微小回動の互いに異なる回動
方向をそれぞれ検出する2個のスイッチが設けられてい
る。Further, in the contact detecting device, the supporting portion is provided with two switches for respectively detecting different rotating directions of minute rotations about the supporting shaft.
【0109】このような接触検出装置は、本体に接続さ
れる一以上の構成部品の外装における任意の箇所に対す
る接触により、スイッチが押圧駆動され、接触を検出す
ることができる。さらに、スイッチを所定の箇所に2個
設けることで、支軸を中心とする微小回動の互いに異な
る回動方向をそれぞれ検出することができる。In such a contact detecting device, the switch is pressed and driven by contact with any part of the exterior of one or more component parts connected to the main body, and the contact can be detected. Further, by providing two switches at predetermined positions, it is possible to detect different rotation directions of the minute rotation about the support shaft.
【0110】また、本発明に係るロボット装置は、ロボ
ット装置の胴体部とされる本体に接続される構成部品の
外装に対する接触を検出する接触検出手段を備え、上記
接触検出手段は、上記構成部品の内部に配置され、上記
構成部品の外装と一体化して動くスイッチ押圧部材を有
し、当該スイッチ押圧部材によって上記構成部品内のス
イッチが押圧駆動されることを特徴としている。Further, the robot apparatus according to the present invention is provided with a contact detecting means for detecting a contact of a component connected to a main body, which is a body of the robot apparatus, with the exterior, and the contact detecting means is the component. Is characterized in that it has a switch pressing member that is disposed inside the housing and moves integrally with the exterior of the above-mentioned component, and that the switch inside the above-mentioned component is pressed by the switch pressing member.
【0111】ここで、上記ロボット装置は、動物を模し
た外観形状とされており、上記構成部品は、少なくとも
上記ロボット装置の頭部を含む。Here, the robot apparatus has an external shape imitating an animal, and the constituent parts include at least the head of the robot apparatus.
【0112】また、上記接触検出手段は、上記本体に接
続され、上記スイッチを支持する支持部を有し、上記ス
イッチ押圧部材は、上記支持部と支軸を介して接続さ
れ、当該スイッチ押圧部材が上記支軸を中心として微小
回動することで、当該スイッチ押圧部材の押圧部によっ
て上記スイッチが押圧駆動される。Further, the contact detecting means has a supporting portion which is connected to the main body and supports the switch, and the switch pressing member is connected to the supporting portion through a support shaft, and the switch pressing member is connected. When the switch slightly rotates about the support shaft, the switch is pressed by the pressing portion of the switch pressing member.
【0113】さらに、上記支持部には、上記支軸を中心
とする微小回動の互いに異なる回動方向をそれぞれ検出
する2個のスイッチが設けられている。Further, the support portion is provided with two switches for respectively detecting different rotation directions of minute rotation about the support shaft.
【0114】このようなロボット装置は、ロボット装置
の胴体部とされる本体に接続される構成部品の外装にお
ける任意の箇所に対する接触により、スイッチが押圧駆
動され、接触を検出することができる。このように、ロ
ボット装置の外装にスイッチが設けられていないため、
ロボット装置の外装を自由に設計することができ、デザ
インの自由度が向上する。さらに、スイッチを所定の箇
所に2個設けることで、支軸を中心とする微小回動の互
いに異なる回動方向をそれぞれ検出することができる。In such a robot apparatus, a switch is pressed and driven by contact with an arbitrary position on the exterior of a component connected to the body of the robot apparatus, and the contact can be detected. In this way, because there is no switch on the exterior of the robot device,
The exterior of the robot device can be freely designed, and the degree of freedom in design is improved. Further, by providing two switches at predetermined positions, it is possible to detect different rotation directions of the minute rotation about the support shaft.
【図1】本発明の一構成例として示すロボット装置の外
観を示す外観図である。FIG. 1 is an external view showing the external appearance of a robot apparatus shown as a configuration example of the present invention.
【図2】本発明の一構成例として示すロボット装置の構
成を示す構成図である。FIG. 2 is a configuration diagram showing a configuration of a robot apparatus shown as a configuration example of the present invention.
【図3】本発明の一構成例として示すロボット装置の制
御プログラムのソフトウェア構成を示す構成図である。FIG. 3 is a configuration diagram showing a software configuration of a control program of a robot apparatus shown as a configuration example of the present invention.
【図4】本発明の一構成例として示すロボット装置の制
御プログラムのうち、ミドル・ウェア・レイヤの構成を
示す構成図である。FIG. 4 is a configuration diagram showing a configuration of a middle wear layer in the control program of the robot apparatus shown as a configuration example of the present invention.
【図5】本発明の一構成例として示すロボット装置の制
御プログラムのうち、アプリケーション・レイヤの構成
を示す構成図である。FIG. 5 is a configuration diagram showing a configuration of an application layer in the control program of the robot apparatus shown as a configuration example of the present invention.
【図6】本発明の一構成例として示すロボット装置の制
御プログラムのうち、行動モデルライブラリの構成を示
す構成図である。FIG. 6 is a configuration diagram showing a configuration of a behavior model library in the control program of the robot apparatus shown as a configuration example of the present invention.
【図7】本発明の一構成例として示すロボット装置の行
動を決定するためのアルゴリズムである有限確率オート
マトンを説明する模式図である。FIG. 7 is a schematic diagram illustrating a finite-probability automaton that is an algorithm for determining the behavior of the robot device shown as a configuration example of the present invention.
【図8】本発明の一構成例として示すロボット装置の行
動を決定するための状態遷移条件を表す図である。FIG. 8 is a diagram showing a state transition condition for determining an action of the robot apparatus shown as one configuration example of the present invention.
【図9】本実施の形態における頭部スイッチとその周辺
部分の概念構成を説明する断面図である。FIG. 9 is a cross-sectional view illustrating a conceptual configuration of a head switch and its peripheral portion in the present embodiment.
【図10】本実施の形態における頭部スイッチの概念構
成を説明する断面図である。FIG. 10 is a sectional view illustrating a conceptual configuration of a head switch according to the present embodiment.
【図11】撫でられたことを頭部スイッチが検出する例
を原理的に説明する図であり、同図(A)は、第1のス
イッチが配置されている位置から第2のスイッチが配置
されている位置に向かって撫でられた例を示し、同図
(B)は、第2のスイッチが配置されている位置から第
1のスイッチが配置されている位置に向かって撫でられ
た例を示す。FIG. 11 is a diagram for explaining in principle an example in which the head switch detects that a stroke has been made; in FIG. 11A, the second switch is arranged from the position where the first switch is arranged. FIG. 6B shows an example of being stroked toward the position where the second switch is arranged, and an example where the second switch is arranged toward the position where the first switch is arranged. Show.
【図12】押された方向を検出する押し方向検出手段を
示すブロック図である。FIG. 12 is a block diagram showing a pushing direction detecting means for detecting a pushing direction.
【図13】頭部スイッチにおけるスイッチ押圧部材、弾
性部材及び支持部材の詳細な構成を説明する構成図であ
る。FIG. 13 is a configuration diagram illustrating a detailed configuration of a switch pressing member, an elastic member, and a supporting member in the head switch.
【図14】スイッチ押圧部材、弾性部材及び支持部材が
一体化して構成された頭部スイッチとその周辺部分の構
成を説明する図である。FIG. 14 is a diagram illustrating a configuration of a head switch including a switch pressing member, an elastic member, and a supporting member that are integrally formed, and a peripheral portion thereof.
【図15】頭部ユニット内部の構成を詳細に示す斜視図
である。FIG. 15 is a perspective view showing the internal structure of the head unit in detail.
【図16】撫でられたことを頭部スイッチが検出する例
を説明する図であり、同図(A)は、撫でられていない
状態を示し、同図(B)は、第1のスイッチが配置され
ている位置から第2のスイッチが配置されている位置に
向かって撫でられた状態を示す。FIG. 16 is a diagram for explaining an example in which the head switch detects that the stroke has been stroked; FIG. 16A shows a state in which the stroke has not been stroked, and FIG. The state of being stroked from the position where it is arranged to the position where the second switch is arranged is shown.
【図17】支軸の移動によって、叩かれた場合を検出す
る例を示し、同図(A)は、叩かれていない状態を示
し、同図(B)は、頭部が略垂直方向に叩かれた状態を
示す。FIG. 17 shows an example of detecting the case of being hit by the movement of the support shaft. FIG. 17A shows a state in which the person is not hitting, and FIG. The state of being hit is shown.
【図18】従来の接触検出装置の一例を説明する図であ
る。FIG. 18 is a diagram illustrating an example of a conventional contact detection device.
1 ロボット装置、2 胴体部ユニット、3A,3B,
3C,3D 脚部ユニット、4 頭部ユニット、5 尻
尾部ユニット、101 内部筐体、102 可動部材1
02、103 支持部材103、104 スイッチ押圧
部材、105外装、106,107 支軸、130 ス
イッチ押圧部材、132a,132b支軸、133a,
133b 切り起こし片、140 弾性部材、142
a,142b 開口部、150 支持部材、152a,
152b 挿通孔、154a第1のスイッチ、154b
第2のスイッチ1 robot device, 2 body unit, 3A, 3B,
3C, 3D leg unit, 4 head unit, 5 tail unit, 101 internal housing, 102 movable member 1
02, 103 support member 103, 104 switch pressing member, 105 exterior, 106, 107 support shaft, 130 switch pressing member, 132a, 132b support shaft 133a,
133b Cut and raised piece, 140 Elastic member, 142
a, 142b opening, 150 support member, 152a,
152b insertion hole, 154a first switch, 154b
Second switch
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA02 CA04 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EF07 EF16 EF23 EF29 EF33 EF36 FA42 3C007 AS36 CS08 HS09 HS27 KS11 KS31 KW01 KX02 WA04 WA14 ─────────────────────────────────────────────────── ─── Continued front page F-term (reference) 2C150 CA02 CA04 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EF07 EF16 EF23 EF29 EF33 EF36 FA42 3C007 AS36 CS08 HS09 HS27 KS11 KS31 KW01 KX02 WA04 WA14
Claims (15)
装に対する接触を検出する接触検出装置であって、 上記構成部品の内部に配置され、上記構成部品の外装と
一体化して動くスイッチ押圧部材を備え、 上記スイッチ押圧部材によって上記構成部品内のスイッ
チが押圧駆動されることを特徴とする接触検出装置。1. A contact detection device for detecting a contact of one or more component parts connected to a main body with respect to an exterior, the switch pressing device being disposed inside the component and moving integrally with the exterior of the component. A contact detection device comprising a member, wherein the switch in the component is pressed by the switch pressing member.
持する支持部を備え、 上記スイッチ押圧部材は、上記支持部と支軸を介して接
続され、当該スイッチ押圧部材が上記支軸を中心として
微小回動することで、当該スイッチ押圧部材の押圧部に
よって上記スイッチが押圧駆動されることを特徴とする
請求項1記載の接触検出装置。2. A support portion, which is connected to the main body and supports the switch, is provided, the switch pressing member is connected to the support portion via a support shaft, and the switch pressing member is centered on the support shaft. The contact detection device according to claim 1, wherein the switch is pressed by the pressing portion of the switch pressing member by being slightly rotated.
微小回動の互いに異なる回動方向をそれぞれ検出する2
個のスイッチが設けられていることを特徴とする請求項
2記載の接触検出装置。3. The support portion detects two different rotation directions of minute rotations about the support shaft.
The contact detection device according to claim 2, wherein one switch is provided.
状態において、弾性力によって上記押圧部と上記スイッ
チとを非接触状態又は非押圧状態に維持する弾性部材を
有していることを特徴とする請求項2記載の接触検出装
置。4. An elastic member for maintaining the pressing portion and the switch in a non-contact state or a non-pressing state by an elastic force when there is no contact with the exterior of the component. The contact detection device according to claim 2.
されており、 上記スイッチ押圧部材は、上記支持部に対して微小回動
可能とされていることを特徴とする請求項2記載の接触
検出装置。5. The support section is movable with respect to the main body, and the switch pressing member is capable of fine rotation with respect to the support section. Contact detection device.
する可動軸を有するスイッチであることを特徴とする請
求項1記載の接触検出装置。6. The contact detection device according to claim 1, wherein the switch is a switch having a movable shaft that appears and disappears when pressed.
する請求項1記載の接触検出装置。7. The contact detection device according to claim 1, wherein the contact detection device is provided in a robot device.
形状となされており、 上記構成部品は、少なくとも上記ロボット装置の頭部を
含むことを特徴とする請求項7記載の接触検出装置。8. The contact detection device according to claim 7, wherein the robot device has an appearance shape imitating an animal, and the constituent parts include at least the head of the robot device.
続される構成部品の外装に対する接触を検出する接触検
出手段を備え、 上記接触検出手段は、上記構成部品の内部に配置され、
上記構成部品の外装と一体化して動くスイッチ押圧部材
を有し、当該スイッチ押圧部材によって上記構成部品内
のスイッチが押圧駆動されることを特徴とするロボット
装置。9. A contact detecting means for detecting a contact of a component connected to a main body, which is a body of the robot apparatus, with an exterior, the contact detecting means being disposed inside the component,
A robot apparatus comprising a switch pressing member that moves integrally with the exterior of the above-mentioned component, and a switch inside the above-mentioned component is pressed by the switch pressing member.
観形状とされており、 上記構成部品は、少なくとも上記ロボット装置の頭部を
含むことを特徴とする請求項9記載のロボット装置。10. The robot apparatus according to claim 9, wherein the robot apparatus has an appearance shape imitating an animal, and the constituent parts include at least a head of the robot apparatus.
され、上記スイッチを支持する支持部を有し、 上記スイッチ押圧部材は、上記支持部と支軸を介して接
続され、当該スイッチ押圧部材が上記支軸を中心として
微小回動することで、当該スイッチ押圧部材の押圧部に
よって上記スイッチが押圧駆動されることを特徴とする
請求項9記載のロボット装置。11. The contact detection means has a support portion that is connected to the main body and supports the switch, the switch pressing member is connected to the support portion via a support shaft, and the switch pressing member is provided. 10. The robot apparatus according to claim 9, wherein the switch is pressed by the pressing portion of the switch pressing member when the switch slightly rotates about the support shaft.
る微小回動の互いに異なる回動方向をそれぞれ検出する
2個のスイッチが設けられていることを特徴とする請求
項11記載のロボット装置。12. The support section is provided with two switches for respectively detecting different rotation directions of minute rotations about the support shaft. Robot device.
い状態において、弾性力によって上記押圧部と上記スイ
ッチとを非接触状態又は非押圧状態に維持する弾性部材
を有していることを特徴とする請求項11記載のロボッ
ト装置。13. An elastic member for maintaining the pressing portion and the switch in a non-contact state or a non-pressing state by an elastic force when there is no contact with the exterior of the component part. The robot apparatus according to claim 11.
とされており、 上記スイッチ押圧部材は、上記支持部に対して微小回動
可能とされていることを特徴とする請求項11記載のロ
ボット装置。14. The support section is movable with respect to the main body, and the switch pressing member is capable of fine rotation with respect to the support section. Robotic device.
没する可動軸を有するスイッチであることを特徴とする
請求項9記載のロボット装置。15. The robot apparatus according to claim 9, wherein the switch is a switch having a movable shaft that appears and disappears when pressed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001268124A JP2003071777A (en) | 2001-09-04 | 2001-09-04 | Contact detecting device and robot device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001268124A JP2003071777A (en) | 2001-09-04 | 2001-09-04 | Contact detecting device and robot device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003071777A true JP2003071777A (en) | 2003-03-12 |
Family
ID=19094152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001268124A Withdrawn JP2003071777A (en) | 2001-09-04 | 2001-09-04 | Contact detecting device and robot device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003071777A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019142537A1 (en) * | 2018-01-16 | 2019-07-25 | 株式会社セガトイズ | Game device and switch device for game device |
-
2001
- 2001-09-04 JP JP2001268124A patent/JP2003071777A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019142537A1 (en) * | 2018-01-16 | 2019-07-25 | 株式会社セガトイズ | Game device and switch device for game device |
JP2019122538A (en) * | 2018-01-16 | 2019-07-25 | 株式会社セガ トイズ | Game device and switch device for the same |
JP7108367B2 (en) | 2018-01-16 | 2022-07-28 | 株式会社セガトイズ | Game device and switch device for game device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1151779B1 (en) | Robot and action deciding method for robot | |
WO2001039932A1 (en) | Robot apparatus, control method thereof, and method for judging character of robot apparatus | |
JP2002239963A (en) | Robot device and its action control method, program, and recoding medium of robot device | |
WO2000068879A1 (en) | Robot device, its control method, and recorded medium | |
JP5227362B2 (en) | Emotion engine, emotion engine system, and electronic device control method | |
JP4635398B2 (en) | Robot equipment | |
JP2003159674A (en) | Robot system, external force detecting method and program for the system, and calibration method and program for the system | |
JP2004298975A (en) | Robot device and obstacle searching method | |
JP2003136456A (en) | Robot device, brightness detection method of robot device, brightness detection program and recording medium | |
US11833441B2 (en) | Robot | |
JP2004130427A (en) | Robot device and method for controling operation of robot device | |
JP4649806B2 (en) | Robot apparatus and shock absorbing method for robot apparatus | |
JP2003071775A (en) | Robot device | |
JP2003071777A (en) | Contact detecting device and robot device | |
JP2003340760A (en) | Robot device and robot control method, recording medium and program | |
JP2003071757A (en) | Robot device | |
JP2002116100A (en) | Contact detecting sensor and toy | |
JP2003071765A (en) | Robot device and input method therefor | |
JP2002120183A (en) | Robot device and input information detecting method for robot device | |
JP2003071756A (en) | Robot device | |
JP2001157980A (en) | Robot device, and control method thereof | |
JP4379052B2 (en) | Moving object detection apparatus, moving object detection method, and robot apparatus | |
JP2003077587A (en) | Power supplying connector | |
JP2003136439A (en) | Robot device, and method and program for controlling gait of robot device | |
JP2004130426A (en) | Robot device and its operation control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081104 |