JP4385281B2 - Robot apparatus and control method thereof - Google Patents

Robot apparatus and control method thereof Download PDF

Info

Publication number
JP4385281B2
JP4385281B2 JP2003305031A JP2003305031A JP4385281B2 JP 4385281 B2 JP4385281 B2 JP 4385281B2 JP 2003305031 A JP2003305031 A JP 2003305031A JP 2003305031 A JP2003305031 A JP 2003305031A JP 4385281 B2 JP4385281 B2 JP 4385281B2
Authority
JP
Japan
Prior art keywords
unit
dot patterns
expression
emotion
dot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003305031A
Other languages
Japanese (ja)
Other versions
JP2005074535A (en
Inventor
仁夫 永塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003305031A priority Critical patent/JP4385281B2/en
Publication of JP2005074535A publication Critical patent/JP2005074535A/en
Application granted granted Critical
Publication of JP4385281B2 publication Critical patent/JP4385281B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は、ロボット装置及びその制御方法に関し、例えばエンターテインメントロボットに適用して好適なものである。   The present invention relates to a robot apparatus and a control method thereof, and is suitably applied to, for example, an entertainment robot.

近年、ユーザからの指示や周囲の環境に応じて自律的に行動を行う4足歩行型のペットロボットが本願特許出願人により開発され、商品化されている。かかるペットロボットは、一般家庭において飼育される犬や猫に似せた形状を有し、ユーザからの指示や周囲の環境に応じて行動するものである(例えば非特許文献1参照)。
特願2000−135146
In recent years, a quadruped walking type pet robot that autonomously behaves according to an instruction from a user and the surrounding environment has been developed and commercialized by the present applicant. Such a pet robot has a shape resembling a dog or a cat bred in a general home, and behaves in accordance with an instruction from the user and the surrounding environment (for example, see Non-Patent Document 1).
Japanese Patent Application 2000-135146

ところで、上述の特願2000−135146では、ペットロボットの「目」の位置に外見上の「目」を表すLED(Light Emitting Diode)を配置し、これを点滅駆動することにより感情を表現することが開示されている。そしてこのようにペットロボットを構成することによって、ユーザとペットロボットとのコミュニケーションを円滑化させることができ、その分ペットロボットに対するユーザの愛着心や好奇心を向上させて、ペットロボットのエンターテインメント性を向上させ得るものと考えられる。   By the way, in the above-mentioned Japanese Patent Application No. 2000-135146, an LED (Light Emitting Diode) representing an apparent “eye” is arranged at the position of the “eyes” of the pet robot, and the emotion is expressed by driving the LED to blink. Is disclosed. By configuring the pet robot in this way, the communication between the user and the pet robot can be facilitated, and the user's attachment and curiosity to the pet robot can be improved accordingly, thereby enhancing the entertainment characteristics of the pet robot. It is thought that it can be improved.

しかしながら、この特願2000−135146では、かかるLEDとして形状及び色が固定のものを用い、LEDの点滅パターンを変化させることでペットロボットの種々の感情を表現するようになされており、LEDの形状にとらわれない多彩な表情表現を行い得ない問題があった。   However, in this Japanese Patent Application No. 2000-135146, the LED having a fixed shape and color is used to express various emotions of the pet robot by changing the blinking pattern of the LED. There was a problem that could not express a variety of facial expressions that were not confined to.

かかる問題を解決するための1つの手法として、例えば点発光するLEDをマトリクス状に複数設け、これらLEDをそれぞれ独立に点滅制御することで、ペットロボットの表情をアニメーション表示する方法が考えられる。そしてこの方法によれば、ペットロボットの感情等をLEDの形状にとらわれることなく多彩に表現できるものと考えられる。   As one method for solving such a problem, for example, a method of displaying a pet robot's facial expression in an animation by providing a plurality of point-emitting LEDs in a matrix and independently controlling these LEDs to blink can be considered. According to this method, it is considered that the emotions of the pet robot can be expressed in various ways without being constrained by the LED shape.

ところが、かかる方法によると、各LEDをそれぞれ独立に点滅駆動するための駆動回路としてLED数分の出力ポートを有するものが必要となり、その分構成が煩雑になったり、製造コストが高くなる問題があった。   However, according to such a method, it is necessary to have a drive circuit for the number of LEDs as a drive circuit for independently blinking and driving each LED, and there is a problem that the configuration becomes complicated and the manufacturing cost increases accordingly. there were.

従って、かかるペットロボットにおいて、少ない出力ポートの駆動回路を用いて当該ペットロボットの感情等をより多彩な表情表現を行い得るようにすることができれば、簡易な構成でペットロボットのエンターテインメント性をより一層と向上させ得るものと考えられる。   Therefore, in such a pet robot, if it is possible to express a variety of facial expressions of the pet robot's emotions using a drive circuit with a small number of output ports, the pet robot's entertainment characteristics can be further improved with a simple configuration. It is thought that it can be improved.

本発明は以上の点を考慮してなされたもので、エンターテインメント性を向上させ得るロボット装置及びその制御方法を提案しようとするものである。   The present invention has been made in consideration of the above points, and an object of the present invention is to propose a robot apparatus and a control method thereof that can improve entertainment properties.

かかる課題を解決するため本発明においては、所定パターンで配置された複数の発光素子のうちの1又は複数の発光素子を点灯することにより表示される互いに位置及び形状の異なるドットパターンが対応付けられた複数のポートを有し、各ポートにそれぞれ対応付けられたドットパターンを表示する1又は複数の発光素子を、同時にかつポートごとに独立して点灯駆動する駆動手段と、1又は複数のドットパターンの点滅の組み合わせによって所望の表情を表現するように、駆動手段を制御する制御手段とを設けるようにした。   In order to solve such a problem, in the present invention, dot patterns having different positions and shapes displayed by lighting one or a plurality of light emitting elements among a plurality of light emitting elements arranged in a predetermined pattern are associated with each other. Driving means for driving one or more light-emitting elements, each of which has a plurality of ports, and displaying a dot pattern associated with each port, simultaneously and independently for each port, and one or more dot patterns Control means for controlling the drive means is provided so as to express a desired expression by a combination of blinking.

この結果このロボット装置では、少ないポート数の駆動手段を用いて多彩な表情を表示することができる。   As a result, this robot apparatus can display various facial expressions using a driving means with a small number of ports.

また本発明においては、ロボット装置の制御方法において、駆動手段の各ポートに、それぞれ所定パターンで配置された複数の発光素子のうちの1又は複数の発光素子を点灯することにより表示される互いに位置及び形状の異なるドットパターンを対応付ける第1のステップと、1又は複数のドットパターンの点滅の組み合わせによって表情を表現するように、駆動手段を制御する第2のステップとを設けるようにした。   Further, in the present invention, in the control method of the robot apparatus, the positions of each other displayed by lighting one or a plurality of light emitting elements among the plurality of light emitting elements arranged in a predetermined pattern at each port of the driving unit. And a first step for associating dot patterns having different shapes with each other and a second step for controlling the driving means so as to express a facial expression by a combination of blinking of one or more dot patterns.

この結果このロボット装置の制御方法によれば、少ないポート数の駆動手段を用いて多彩な表情を表示することができる。   As a result, according to the control method of the robot apparatus, various facial expressions can be displayed using the driving means having a small number of ports.

以上のように本発明によれば、ロボット装置において、所定パターンで配置された複数の発光素子のうちの1又は複数の発光素子を点灯することにより表示される互いに位置及び形状の異なるドットパターンが対応付けられた複数のポートを有し、各ポートにそれぞれ対応付けられたドットパターンを表示する1又は複数の発光素子を、同時にかつポートごとに独立して点灯駆動する駆動手段と、1又は複数のドットパターンの点滅の組み合わせによって所望の表情を表現するように、駆動手段を制御する制御手段とを設けるようにしたことにより、少ないポート数の駆動手段を用いて多彩な表情を表示することができ、かくしてエンターテインメント性を向上させ得るロボット装置を実現できる。   As described above, according to the present invention, in the robot apparatus, dot patterns having different positions and shapes displayed by turning on one or more of the light emitting elements arranged in a predetermined pattern are displayed. A driving unit that has a plurality of associated ports and that individually and simultaneously drives one or a plurality of light emitting elements that display a dot pattern associated with each port, and one or more of them; By providing a control means for controlling the drive means so as to express a desired expression by combining the blinking of the dot pattern, it is possible to display a variety of expressions using the drive means with a small number of ports. Thus, a robot apparatus capable of improving entertainment performance can be realized.

また本発明によれば、ロボット装置の制御方法において、駆動手段の各ポートに、それぞれ所定パターンで配置された複数の発光素子のうちの1又は複数の発光素子を点灯することにより表示される互いに位置及び形状の異なるドットパターンを対応付ける第1のステップと、1又は複数のドットパターンの点滅の組み合わせによって表情を表現するように、駆動手段を制御する第2のステップとを設けるようにしたことにより、少ないポート数の駆動手段を用いて多彩な表情を表示することができ、かくしてエンターテインメント性を向上させ得るロボット装置の制御方法を実現できる。   According to the invention, in the control method of the robot apparatus, each of the ports displayed on the respective ports of the driving unit is displayed by turning on one or a plurality of light-emitting elements arranged in a predetermined pattern. By providing a first step for associating dot patterns with different positions and shapes, and a second step for controlling the driving means so as to express an expression by a combination of blinking of one or more dot patterns Therefore, it is possible to display a variety of facial expressions using a driving means with a small number of ports, and thus to realize a control method for a robot apparatus that can improve entertainment properties.

以下、図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)本実施の形態によるペットロボット1の構成
図1において、1は全体として本実施の形態によるペットロボットを示し、胴体部ユニット2の前後左右にそれぞれ脚部ユニット3A〜3Dが連結されると共に、胴体部ユニット2の前端部及び後端部にそれぞれ頭部ユニット4及び尻尾部ユニット5が連結されることにより構成されている。
(1) Configuration of Pet Robot 1 According to the Present Embodiment In FIG. 1, 1 indicates a pet robot according to the present embodiment as a whole, and leg units 3 </ b> A to 3 </ b> D are connected to the front and rear, left and right of the body unit 2, respectively. In addition, the head unit 4 and the tail unit 5 are connected to the front end portion and the rear end portion of the body unit 2, respectively.

この場合胴体部ユニット2には、図2に示すように、このペットロボット1全体の動作を制御するコントローラ10と、このペットロボット1の動力源としてのバッテリ11と、バッテリセンサ12及び温度センサ13などからなる内部センサ部14となどが収納されている。   In this case, as shown in FIG. 2, the body unit 2 includes a controller 10 that controls the operation of the entire pet robot 1, a battery 11 as a power source of the pet robot 1, a battery sensor 12, and a temperature sensor 13. The internal sensor unit 14 and the like are housed.

また頭部ユニット4には、このペットロボット1の実質的な「目」として機能するCCD(Charge Coupled Device)カメラ15、「耳」として機能するマイクロホン16及びタッチセンサ17などからなる外部センサ部18と、ペットロボット1の表情をアニメーションで表示するための表情表示部19及びその駆動回路20と、「口」として機能するスピーカ21となどがそれぞれ所定位置に配設されている。   The head unit 4 includes an external sensor unit 18 including a CCD (Charge Coupled Device) camera 15 that functions as a substantial “eye” of the pet robot 1, a microphone 16 that functions as an “ear”, and a touch sensor 17. A facial expression display unit 19 for displaying the facial expression of the pet robot 1 as an animation, its driving circuit 20, a speaker 21 functioning as a “mouth”, and the like are disposed at predetermined positions.

さらに各脚部ユニット3A〜3Dの関節部分や、各脚部ユニット3A〜3D及び胴体部ユニット2の各連結部分、頭部ユニット4及び胴体部ユニット2の連結部分、並びに尻尾部ユニット5における尻尾5A(図1)の付根部分などには、それぞれ対応する自由度数分のアクチュエータ22〜22が配設されている。 Further, the joint portions of the leg units 3A to 3D, the connecting portions of the leg units 3A to 3D and the torso unit 2, the connecting portions of the head unit 4 and the torso unit 2, and the tail in the tail unit 5 Actuators 22 1 to 22 n corresponding to the number of degrees of freedom corresponding to the root portion of 5A (FIG. 1) are arranged.

そして頭部ユニット4のCCDカメラ15は、周囲の状況を撮像し、得られた画像信号S1Aをコントローラ10に送出する。またマイクロホン16は、ユーザから発せられた「歩け」、「伏せ」又は「ボールを追いかけろ」等の音声を集音し、得られた音声信号S1Bをコントローラ10に送出する。   Then, the CCD camera 15 of the head unit 4 images the surrounding situation and sends the obtained image signal S1A to the controller 10. In addition, the microphone 16 collects voices such as “walk”, “turn down” or “follow the ball” emitted from the user, and send the obtained voice signal S 1 B to the controller 10.

さらにタッチセンサ17は、図1において明らかなように頭部ユニット4の上部に設けられており、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出し、検出結果を圧力検出信号S1Cとしてコントローラ10に送出する。   Further, as apparent from FIG. 1, the touch sensor 17 is provided on the upper part of the head unit 4, and detects a pressure received by a physical action such as “blowing” or “striking” from the user. Is sent to the controller 10 as a pressure detection signal S1C.

さらにバッテリセンサ12は、バッテリ11の残量を検出して、検出結果をバッテリ残量検出信号S2Aとしてコントローラ10に送出し、温度センサ13は、ペットロボット1内部の温度を検出して検出結果を温度検出信号S2Bとしてコントローラ10に送出する。   Further, the battery sensor 12 detects the remaining amount of the battery 11 and sends the detection result to the controller 10 as a battery remaining amount detection signal S2A. The temperature sensor 13 detects the temperature inside the pet robot 1 and displays the detection result. The temperature detection signal S2B is sent to the controller 10.

コントローラ10は、外部センサ部18のCCDカメラ15、マイクロホン16及びタッチセンサ17からそれぞれ供給される画像信号S1A、音声信号S1B及び圧力検出信号S1Cなど(以下、これらをまとめて外部センサ信号S1と呼ぶ)と、内部センサ部14のバッテリセンサ12及び温度センサ13からそれぞれ与えられるバッテリ残量検出信号S2A及び温度検出信号S2Bなど(以下、これらをまとめて内部センサ信号S2と呼ぶ)とに基づいて、ペットロボット1の周囲及び内部の状況や、ユーザからの指令、ユーザからの働きかけの有無などを判断する。   The controller 10 includes an image signal S1A, an audio signal S1B, and a pressure detection signal S1C supplied from the CCD camera 15, microphone 16, and touch sensor 17 of the external sensor unit 18 (hereinafter, these are collectively referred to as an external sensor signal S1). ) And the remaining battery level detection signal S2A and the temperature detection signal S2B given from the battery sensor 12 and the temperature sensor 13 of the internal sensor unit 14 (hereinafter collectively referred to as the internal sensor signal S2), The situation around and inside the pet robot 1, the instruction from the user, the presence / absence of the action from the user, and the like are determined.

そしてコントローラ10は、この判断結果と、予めメモリ10Aに格納されている制御プログラムとに基づいて続く行動を決定し、決定結果に基づいて必要なアクチュエータ22〜22を駆動させることにより、頭部ユニット4を上下左右に振らせたり、尻尾部ユニット5の尻尾5Aを動かせたり、各脚部ユニット3A〜3Dを駆動して歩行させるなどの行動を発現させる。 The controller 10 determines the subsequent action based on the determination result and the control program stored in the memory 10A in advance, and drives the necessary actuators 22 1 to 22 n based on the determination result, thereby Actions such as swinging the head unit 4 up and down, left and right, moving the tail 5A of the tail unit 5 and driving the leg units 3A to 3D to make them walk are developed.

またこの際コントローラ10は、必要に応じて所定の音声信号S3をスピーカ21に与えることにより当該音声信号S3に基づく音声を外部に出力させたり、必要に応じて所定の制御信号S4を駆動回路20に与えることにより所定の表情のアニメーションを表情表示部19に表示させる。   At this time, the controller 10 outputs a sound based on the sound signal S3 to the outside by giving a predetermined sound signal S3 to the speaker 21 as necessary, or outputs a predetermined control signal S4 as needed. To display an animation of a predetermined facial expression on the facial expression display unit 19.

このようにしてこのペットロボット1においては、周囲及び内部の状況や、ユーザからの指令及び働きかけの有無などに基づいて自律的に行動することができるようになされている。   In this way, the pet robot 1 can act autonomously based on the surrounding and internal situations, the commands from the user, the presence or absence of actions, and the like.

(2)行動生成に関するコントローラ10の処理
次にこのペットロボット1におけるコントローラ10の具体的な処理について説明する。
(2) Processing of Controller 10 Regarding Action Generation Next, specific processing of the controller 10 in the pet robot 1 will be described.

コントローラ10は、メモリ10Aに格納された制御プログラムに従って上述のような各種処理を実行する。そしてかかるコントローラ10の処理内容を機能的に分類すると、図3に示すように、外部及び内部の状態を認識する状態認識部30と、状態認識部30の認識結果に基づいて感情及び本能の状態を決定する感情・本能モデル部31と、状態認識部30の認識結果及び感情・本能モデル部31の出力に基づいて続く行動を決定する行動決定部32と、行動決定部32の決定結果に応じた行動をペットロボットに生成(発現)させる行動生成部33とに分けることができる。   The controller 10 executes various processes as described above according to the control program stored in the memory 10A. When the processing contents of the controller 10 are functionally classified, as shown in FIG. 3, the state recognition unit 30 that recognizes the external and internal states, and the state of emotion and instinct based on the recognition result of the state recognition unit 30 The action / instinct model unit 31 for determining the action, the action determination unit 32 for determining the action to be continued based on the recognition result of the state recognition unit 30 and the output of the emotion / instinct model unit 31, and the determination result of the action determination unit 32 The behavior generation unit 33 that generates (expresses) the behavior of the pet robot can be divided.

以下、これら状態認識部30、感情・本能モデル部31、行動決定部32及び行動生成部33について詳細に説明する。   Hereinafter, the state recognition unit 30, the emotion / instinct model unit 31, the behavior determination unit 32, and the behavior generation unit 33 will be described in detail.

(2−1)状態認識部30の構成
状態認識部30は、外部センサ部18(図2)から与えられる外部情報信号S1と、内部センサ部14(図2)から与えられる内部情報信号S2とに基づいて特定の状態を認識し、認識結果を状態認識情報S10として感情・本能モデル部31及び行動決定部32に通知する。
(2-1) Configuration of State Recognizing Unit 30 The state recognizing unit 30 includes an external information signal S1 provided from the external sensor unit 18 (FIG. 2) and an internal information signal S2 provided from the internal sensor unit 14 (FIG. 2). A specific state is recognized based on the information, and the recognition result is notified to the emotion / instinct model unit 31 and the action determination unit 32 as state recognition information S10.

実際上、状態認識部30は、外部センサ部18のCCDカメラ15(図2)から与えられる画像信号S1A(図2)を常時監視し、当該画像信号S1Aに基づく画像内に例えば「赤い丸いもの」や、「垂直な平面」を検出したときには、「ボールがある」、「壁がある」と認識し、認識結果を感情・本能モデル部31及び行動決定部32に通知する。   In practice, the state recognizing unit 30 constantly monitors the image signal S1A (FIG. 2) given from the CCD camera 15 (FIG. 2) of the external sensor unit 18, and the image based on the image signal S1A includes, for example, a “red round object”. ”Or“ vertical plane ”is recognized,“ there is a ball ”and“ there is a wall ”, and the recognition result is notified to the emotion / instinct model unit 31 and the action determination unit 32.

また状態認識部30は、マイクロホン16(図2)から与えられる音声信号S1B(図2)を常時監視し、当該音声信号S1Bに基づいて「歩け」、「伏せ」、「ボールを追いかけろ」などの指令音が入力されたことを認識すると、かかる認識結果を感情・本能モデル部31及び行動決定部32に通知する。   Further, the state recognition unit 30 constantly monitors the audio signal S1B (FIG. 2) given from the microphone 16 (FIG. 2), and based on the audio signal S1B, “walk”, “lie down”, “follow the ball”, and the like. When recognizing that a command sound is input, the recognition result is notified to the emotion / instinct model unit 31 and the action determining unit 32.

さらに状態認識部30は、タッチセンサ17(図2)から与えられる圧力検出信号S1C(図2)を常時監視し、当該圧力検出信号S1Cに基づいて所定の閾値以上のかつ短時間(例えば2秒未満)の圧力を検出したときには「叩かれた(叱られた)」と認識し、所定の閾値未満のかつ長時間(例えば2秒以上)の圧力を検出したときには「撫でられた(誉められた)」と認識し、認識結果を感情・本能モデル部31及び行動決定部32に通知する。   Further, the state recognizing unit 30 constantly monitors the pressure detection signal S1C (FIG. 2) given from the touch sensor 17 (FIG. 2) and based on the pressure detection signal S1C for a short time (for example, 2 seconds). Is detected as “struck (struck)”, and when a pressure below a predetermined threshold is detected for a long time (eg, 2 seconds or more), “struck (admired) And the recognition result is notified to the emotion / instinct model unit 31 and the action determination unit 32.

さらに状態認識部30は、内部センサ部14(図2)の温度センサ13(図2)から与えられる温度検出信号S2B(図2)を常時監視し、当該温度検出信号S2Bに基づいて所定以上の温度を検出したときには「内部温度が上昇した」と認識し、認識結果を感情・本能モデル部31及び行動決定部32に通知する。   Furthermore, the state recognition unit 30 constantly monitors the temperature detection signal S2B (FIG. 2) given from the temperature sensor 13 (FIG. 2) of the internal sensor unit 14 (FIG. 2), and based on the temperature detection signal S2B, the state recognition unit 30 When the temperature is detected, it is recognized that “the internal temperature has increased”, and the recognition result is notified to the emotion / instinct model unit 31 and the action determination unit 32.

(2−2)感情・本能モデル部31の構成
感情・本能モデル部31は、「喜び」、「悲しみ」、「驚き」、「恐怖」、「嫌悪」及び「怒り」の合計6つの情動について、各情動ごとにその情動の強さを表すパラメータを保持している。そして感情・本能モデル部31は、これら各情動のパラメータ値を、それぞれ状態認識部30から状態認識情報S10として与えられる「叩かれた」及び「撫でられた」などの特定の認識結果と、後述のように行動決定部32から与えられる決定された出力行動を表す行動決定情報S11と、経過時間となどに基づいて順次更新する。
(2-2) Configuration of Emotion / Instinct Model Unit 31 The emotion / instinct model unit 31 has a total of six emotions: “joy”, “sadness”, “surprise”, “fear”, “disgust”, and “anger”. For each emotion, a parameter indicating the strength of the emotion is held. Then, the emotion / instinct model unit 31 sets the parameter values of each emotion as specific recognition results such as “struck” and “boiled” given from the state recognition unit 30 as the state recognition information S10, respectively. As described above, the action determination information S11 representing the determined output action given from the action determination unit 32 and the elapsed time are sequentially updated.

具体的に感情・本能モデル部31は、状態認識情報S10に基づき得られる認識結果及び行動決定情報S11に基づく出力行動がその情動に対して作用する度合い(予め設定されている)と、他の情動から受ける抑制及び刺激の度合いと、経過時間となどに基づいて所定の演算式により算出されるその情動の変化量をΔE〔t〕、現在のその情動のパラメータ値をE〔t〕、認識結果等に応じてその情動を変化させる割合を表す係数をkとして、所定周期で次式 Specifically, the emotion / instinct model unit 31 determines whether the recognition result obtained based on the state recognition information S10 and the output action based on the action determination information S11 act on the emotion (set in advance), Recognize the amount of change in the emotion calculated by a predetermined arithmetic expression based on the degree of suppression and stimulation received from the emotion, the elapsed time, etc., and the current parameter value of the emotion as E [t] the coefficient representing the ratio to change its emotion as k e in accordance with the results of the following formula in a predetermined cycle

Figure 0004385281
Figure 0004385281

を用いて次の周期におけるその情動のパラメータ値E〔t+1〕を算出する。 Is used to calculate the parameter value E [t + 1] of the emotion in the next cycle.

そして感情・本能モデル部31は、この演算結果を現在のその情動のパラメータ値E〔t〕と置き換えるようにしてその情動のパラメータ値を更新する。なお各認識結果や各出力行動に対してどの情動のパラメータ値を更新するかは予め決められており、例えば「叩かれた」といった認識結果が与えられた場合には「怒り」の情動のパラメータ値が上がると共に「喜び」の情動のパラメータが下がり、「撫でられた」といった認識結果が与えられた場合には「喜び」の情動のパラメータ値が上がると共に「悲しみ」の情動のパラメータ値が下がる。   Then, the emotion / instinct model unit 31 updates the parameter value of the emotion so as to replace the calculation result with the current parameter value E [t] of the emotion. It should be noted that the emotion parameter value to be updated for each recognition result and each output action is determined in advance. For example, when a recognition result such as “struck” is given, the parameter of the emotion of “anger” As the value increases, the emotion parameter of “joy” decreases, and when the recognition result “boiled” is given, the parameter value of emotion of “joy” increases and the parameter value of emotion of “sadness” decreases. .

これと同様にして、感情・本能モデル部31は、「運動欲」、「愛情欲」、「食欲」、「好奇心」及び「眠気」の互いに独立した5つの欲求について、これら欲求ごとにその欲求の強さを表すパラメータを保持している。そして感情・本能モデル部31は、これら欲求のパラメータ値を、それぞれ状態認識部30からの状態認識情報S10や、経過時間及び行動決定部32からの行動決定情報S11などに基づいて順次更新する。   In the same manner, the emotion / instinct model unit 31 determines, for each of these needs, five independent needs of “exercise greed”, “loving lust”, “appetite”, “curiosity” and “sleepiness”. It holds a parameter that represents the strength of desire. Then, the emotion / instinct model unit 31 sequentially updates the parameter values of these desires based on the state recognition information S10 from the state recognition unit 30, the elapsed time and the action determination information S11 from the behavior determination unit 32, and the like.

具体的に感情・本能モデル部31は、「運動欲」、「愛情欲」及び「好奇心」については、ペットロボット1の出力行動、経過時間及び認識結果などに基づいて所定の演算式により算出されるその欲求の変動量をΔI〔k〕、減算のその欲求のパラメータ値をI〔k〕、その欲求の感度を表す係数をkとして、所定周期で次式 Specifically, the emotion / instinct model unit 31 calculates “greed for exercise”, “loving desire”, and “curiosity” by a predetermined arithmetic expression based on the output behavior, elapsed time, recognition result, and the like of the pet robot 1. ΔI [k] is the amount of change in the desire to be performed, I [k] is the parameter value of the desire for subtraction, and k i is the coefficient representing the sensitivity of the desire.

Figure 0004385281
Figure 0004385281

を用いて次の周期におけるその欲求のパラメータ値I〔k+1〕を算出し、この演算結果を現在のその欲求のパラメータ値I〔k〕と置き換えるようにしてその欲求のパラメータ値を更新する。なお出力行動や認識結果等に対してどの欲求のパラメータ値を変化させるかは予め定められており、例えば行動決定部32から行動決定情報S11として何らかの行動を行ったとの通知があったときには「運動欲」のパラメータ値が下がる。 Is used to calculate the parameter value I [k + 1] of the desire in the next cycle, and the parameter value of the desire is updated so that the calculation result is replaced with the current parameter value I [k] of the desire. Note that the parameter value of the desire to be changed with respect to the output action, the recognition result, and the like is determined in advance. For example, when the action determination unit 32 notifies that the action determination information S11 has performed some action, “exercise The parameter value of “greed” decreases.

また感情・本能モデル部31は、「食欲」については、状態認識部30を介して与えられるバッテリ残量検出信号S2A(図2)に基づいて、バッテリ残量をBとして所定周期で次式 The emotion or instinct model unit 31, for "appetite", based on the battery level detection signal supplied via the condition recognition unit 30 S2A (FIG. 2), the following equation at a predetermined cycle battery remaining amount as B 1

Figure 0004385281
Figure 0004385281

により「食欲」のパラメータ値I〔k+1〕を算出し、この演算結果を現在の食欲のパラメータ値I〔k〕と置き換えるようにして当該「食欲」のパラメータ値を更新する。 Thus, the parameter value I [k + 1] of “appetite” is calculated, and the parameter value of “appetite” is updated so that the calculation result is replaced with the parameter value I [k] of the current appetite.

さらに感情・本能モデル部31は、「眠気」については、自己が有する1日周期の正弦波状で表される「活動」又は「睡眠」のリズムに従って所定周期でそのパラメータ値を更新する。   Further, the emotion / instinct model unit 31 updates the parameter value of “sleepiness” in a predetermined cycle according to the rhythm of “activity” or “sleep” expressed by the sine wave of the daily cycle that it has.

なお本実施の形態においては、各情動及び各欲求のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数k、kの値も各情動及び各欲求ごとに個別に設定されている。 In the present embodiment, the parameter values of each emotion and each desire are regulated so as to fluctuate in the range of 0 to 100, and the values of the coefficients k e and k i are also set for each emotion and each desire. Are set individually.

(2−3)行動決定部32の構成
行動決定部32は、状態認識部30から与えられる状態認識情報S10と、感情・本能モデル部31における各情動及び各欲求のパラメータ値と、予めメモリ10Aに格納された行動モデルと、時間経過となどに基づいて次の行動を決定し、決定結果を行動決定情報S11として感情・本能モデル部31及び行動生成部33に出力する。
(2-3) Configuration of Action Determination Unit 32 The action determination unit 32 includes state recognition information S10 given from the state recognition unit 30, parameter values of each emotion and each desire in the emotion / instinct model unit 31, and a memory 10A in advance. The next behavior is determined based on the behavior model stored in time and the passage of time, and the determination result is output to the emotion / instinct model unit 31 and the behavior generation unit 33 as behavior determination information S11.

この場合、行動決定部32は、次の行動を決定する手法として、図4に示すような1つのノード(状態)NODEから同じ又は他のどのノードNODE〜NODEに遷移するかを各ノードNODE〜NODE間を接続するアークARC〜ARCに対してそれぞれ設定された遷移確率P〜Pに基づいて確率的に決定する確率オートマトンと呼ばれるアルゴリズムを用いる。 In this case, the behavior determination unit 32 determines each of the transitions from one node (state) NODE 0 as shown in FIG. 4 to the same or other nodes NODE 0 to NODE n as a method for determining the next behavior. node nODE 0 ~NODE arcs connecting the n aRC 0 ~ARC n using an algorithm called probability automaton for determining probabilistically based on the transition probability P 0 to P n which is set respectively.

より具体的には、メモリ10Aには、行動モデルとして、各ノードNODE〜NODEごとの図5に示すような状態遷移表40が格納されており、行動決定部32がこの状態遷移表40に基づいて次の行動を決定するようになされている。 More specifically, the state transition table 40 as shown in FIG. 5 for each of the nodes NODE 0 to NODE n is stored in the memory 10A as the behavior model, and the behavior determination unit 32 performs the state transition table 40. Based on the above, the next action is determined.

ここで状態遷移表40においては、そのノードNODE〜NODEにおいて遷移条件とする入力イベント(状態認識部30の認識結果)が「入力イベント」の行に優先順に列記され、その条件についてのさらなる条件が「データ名」及び「データ範囲」の行における対応する列に記述されている。 Here, in the state transition table 40, input events (recognition results of the state recognition unit 30) as transition conditions in the nodes NODE 0 to NODE n are listed in the order of priority in the “input event” row, and further about the conditions. The conditions are described in the corresponding columns in the rows of “data name” and “data range”.

従って図5の状態遷移表40で定義されたノードNODE100では、「ボールを発見した(BALL)」という認識結果が与えられた場合に、当該認識結果と共に与えられるそのボールの「大きさ(SIZE)」が「0から1000の範囲(0,1000)」であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果と共に与えられるその障害物までの「距離(DISTANCE)」が「0から1000の範囲(0,1000)」であることが自己又は他のノードに遷移するための条件となっている。 Therefore, in the node NODE 100 defined in the state transition table 40 of FIG. 5, when the recognition result “BALL FOUND” is given, the “size (SIZE)” of the ball given together with the recognition result is given. ) "Is in the range of 0 to 1000 (0, 1000), or when the recognition result" OBSTACLE "is given, the obstacle to be given along with the recognition result It is a condition for transition to self or another node that “distance” is “range from 0 to 1000 (0, 1000)”.

またこのノードNODE100では、認識結果の入力がない場合においても、行動決定部32が周期的に参照する感情・本能モデル部31の各情動及び各欲求のパラメータ値のうち「喜び(JOY)」、「驚き(SUPRISE)」又は「悲しみ(SUDNESS)」のいずれかの情動のパラメータ値が「50から100の範囲(50,100)」であるときには自己又は他のノードに遷移することができる。 Further, in this node NODE 100 , even when there is no input of the recognition result, “joy” of the emotion and instinct model unit 31 of the emotion and instinctive parameter unit 31 that the behavior determination unit 32 periodically refers to. When the parameter value of the emotion of “Surprise” or “Sadness” is in the range of “50 to 100 (50, 100)”, it is possible to transit to the self or another node.

さらに状態遷移表40では、「他のノードへの遷移確率」の欄における「遷移先ノード」の列にそのノードNODE〜NODEから遷移できるノード名が列記されると共に、「入力イベント名」、「データ値」及び「データの範囲」の各行に記述された全ての条件が揃った場合におけるそのノードNODE〜NODEへの遷移確率が「他のノードへの遷移確率」の欄におけるそのノードNODE〜NODEの行に記述され、このとき出力される行動又は動作が「出力行動」の行に記述される。なお「他のノードへの遷移確率」の欄における各行の遷移確率の和は100〔%〕となっている。 Further, in the state transition table 40, node names that can be transitioned from the nodes NODE 0 to NODE n are listed in the “transition destination node” column in the “transition probability to other nodes” column, and “input event name” , When all the conditions described in each row of “data value” and “data range” are met, the transition probability to the node NODE 0 to NODE n is the value in the “transition probability to other node” column. It is described in the lines of the nodes NODE 0 to NODE n , and the action or action output at this time is described in the line of “output action”. The sum of the transition probabilities of each row in the “transition probability to other node” column is 100 [%].

従ってこの例のノードNODE100では、例えば「ボールを発見(BALL)」し、そのボールの「大きさ(SIZE)」が「0から1000の範囲(0,1000)」であるという認識結果が与えられた場合には、「30〔%〕」の確率で「ノードNODE120(node 120)」に遷移でき、そのとき「ACTION 1」の行動又は動作が出力されることとなる。 Therefore, in the node NODE 100 of this example, for example, “discover the ball (BALL)” and the recognition result that the “size (SIZE)” of the ball is “range from 0 to 1000 (0, 1000)” is given. If it is, the transition to “node NODE 120 (node 120)” can be made with a probability of “30 [%]”, and the action or action of “ACTION 1” is output at that time.

そして行動モデルは、このような状態遷移表40として記述されたノードNODE〜NODEがいくつも繋がるようにして構成されている。 The behavior model is configured such that any number of nodes NODE 0 to NODE n described as the state transition table 40 are connected.

かくして行動決定部32は、状態認識部30から状態認識情報S10が与えられたときや、最後に行動を発現してから一定時間が経過したときなどに、メモリ10Aに格納されている行動モデルのうちの対応するノードNODE〜NODEの状態遷移表40を利用して次の行動や動作(「出力行動」の行に記述された行動又は動作)を確率的に決定し、決定結果を行動決定情報S11として感情・本能モデル部31及び行動生成部33に出力する。 Thus, the action determination unit 32 receives the action model stored in the memory 10 </ b> A when the state recognition information S <b> 10 is given from the state recognition unit 30 or when a certain time has elapsed since the last action was expressed. Using the state transition table 40 of the corresponding nodes NODE 0 to NODE n , the next action or action (the action or action described in the “output action” line) is determined probabilistically, and the decision result is taken as the action The determination information S11 is output to the emotion / instinct model unit 31 and the behavior generation unit 33.

(2−3)行動生成部33の処理
行動生成部33は、行動決定部32から与えられる行動決定情報S11に基づいて、必要なアクチュエータ22〜22(図2)に駆動信号S12〜S12を送出したり、スピーカ21(図2)に必要な音声信号S3を送出したり、対応する制御信号S4を駆動回路20に送出する。
(2-3) Processing of Behavior Generation Unit 33 The behavior generation unit 33 sends drive signals S12 1 to the required actuators 22 1 to 22 n (FIG. 2) based on the behavior determination information S11 given from the behavior determination unit 32. S12 n is sent out, a sound signal S3 necessary for the speaker 21 (FIG. 2) is sent out, and a corresponding control signal S4 is sent out to the drive circuit 20.

これにより行動生成部33は、この駆動信号S13〜S13に基づいて必要なアクチュエータ22〜22を所定状態に駆動させたり、音声信号S3に基づく音声をスピーカ21から出力させたり、制御信号S4に応じたアニメーションを表情表示部19に表示させる。 Thereby, the action generation unit 33 drives the necessary actuators 22 1 to 22 n to a predetermined state based on the drive signals S 13 1 to S 13 n , or outputs sound based on the audio signal S 3 from the speaker 21. An animation corresponding to the signal S4 is displayed on the expression display unit 19.

(3)ペットロボット1における表情表現
(3−1)ペットロボット1における表情表現
次に、このペットロボット1における表情の表現方法について説明する。
(3) Expression expression in pet robot 1 (3-1) Expression expression in pet robot 1 Next, an expression method of expression in the pet robot 1 will be described.

このペットロボット1では、上述のようにコントローラ10の機能の1つである行動決定部32において、対応する状態遷移表40(図5)を利用して続く行動を決定する。   In the pet robot 1, the action determining unit 32, which is one of the functions of the controller 10, as described above, determines the subsequent action using the corresponding state transition table 40 (FIG. 5).

この場合、状態遷移表40における「入力イベント」の行に記述された各認識結果(「ボールを発見(BALL)」等)や、「データ名」の行に記述された各感情又は本能(「喜び(JOY)」等)とそれぞれ対応付けられた各出力行動(「ACTON 1」等)には、その認識結果に対する感情や、そのときのペットロボット1の感情又は本能の状態を表現する行動をペットロボット1に発現させるための制御データが格納されたモーションファイルが関連付けられると共に、これに加えてその感情や本能の状態を表情表示部19においてアニメーションで表示するための表示用制御データが格納されたアニメーションファイルが関連付けられている。   In this case, each recognition result described in the “input event” line in the state transition table 40 (such as “find a ball (BALL)”), each emotion or instinct described in the “data name” line (“ Each of the output actions (“ACTON 1”, etc.) associated with “joy” (JOY) etc.) includes an emotion for the recognition result and an action expressing the emotion or instinct of the pet robot 1 at that time. A motion file storing control data for causing the pet robot 1 to express is associated, and in addition, display control data for displaying the emotion and instinct state on the facial expression display unit 19 as animation is stored. Associated animation files.

そして行動決定部32は、状態認識部30から「撫でられた(PAT)」、「叩かれた(HIT)」などの認識結果が与えられた場合や、最後に行動を発現してから一定時間が経過したときなどに、上述のように対応する状態遷移表40を用いて確率的に次の行動を決定し、決定した行動と対応付けられたモーションファイル及びアニメーションファイルのファイルIDを行動決定情報S11として行動生成部33に通知するようになされている。   Then, the behavior determination unit 32 receives a recognition result such as “boiled (PAT)” or “hit (HIT)” from the state recognition unit 30 or for a certain period of time after the last manifestation of the behavior. When the lapse of time, the next action is determined probabilistically using the corresponding state transition table 40 as described above, and the file ID of the motion file and animation file associated with the determined action is action determination information. The action generation unit 33 is notified as S11.

かくしてこのとき行動生成部33は、行動決定部32から与えられる行動決定情報S11に基づいて、対応するファイルIDのモーションファイルをメモリ10Aから読み出し、当該モーションファイルに格納された制御データに基づいて必要なアクチュエータ22〜22を駆動させることにより、指定された「喜び」や「怒り」等の行動や動作をペットロボット1に発現させる一方、これと同期して対応するファイルIDのアニメーションファイルをメモリ10Aから読み出し、当該アニメーションファイルに格納された表示用制御データに基づいて駆動回路20を制御することにより、対応する「喜び」、「怒り」又は「眠気」等の感情や欲求を表すアニメーションを表情表示部19に表示させる。 Thus, at this time, the behavior generation unit 33 reads the motion file with the corresponding file ID from the memory 10A based on the behavior determination information S11 given from the behavior determination unit 32, and is necessary based on the control data stored in the motion file. By driving the actuators 22 1 to 22 n , the pet robot 1 is allowed to express the designated actions and actions such as “joy” and “anger”, and the animation file with the corresponding file ID is synchronized with this. By controlling the drive circuit 20 based on the display control data read from the memory 10A and stored in the animation file, an animation representing emotions and desires such as “joy”, “anger”, or “sleepiness” is displayed. It is displayed on the expression display unit 19.

このようにしてこのペットロボット1においては、外部又は内部の状況に応じた表情を表情表示部19に表示するようになされている。   In this way, the pet robot 1 displays an expression according to the external or internal situation on the expression display unit 19.

(3−2)表情表示部19に表示される各アニメーションパターン
ここでこのペットロボット1の場合、表情表示部19は、図6に示すように、縦方向及び横方向に一定間隔でLED19Aを複数並べたマトリクス状の配置に対して、LED19Aを1列おきに各LED19A間距離の半分づつずらした状態に配置(すなわち、かかるマトリクス状の配列を45〔°〕傾けた配列で複数のLED19Aを配置)することにより構成されている。
(3-2) Each animation pattern displayed on the expression display unit 19 Here, in the case of this pet robot 1, the expression display unit 19 includes a plurality of LEDs 19A at regular intervals in the vertical and horizontal directions as shown in FIG. With respect to the arranged matrix arrangement, the LEDs 19A are arranged so as to be shifted by half the distance between the LEDs 19A every other row (that is, a plurality of LEDs 19A are arranged in an array inclined by 45 [°]. ).

この場合、表情表示部19においては、これら複数のLED19Aのうち少なくとも図7(H)において斜線を引いた6個と、図7(I)において斜線を引いた6個との合計12個のLED19Aについては白色光及び赤色光の2色の光を同時又は別個に発光することができるものが用いられ、図8(A)において斜線を引いた6個と、図8(B)において斜線を引いた4個との合計10個のLED19Aについては緑色光を発光し得るものが用いられ、図8(H)において斜線を引いた4個と、図8(I)において斜線を引いた4個との合計8個のLED19Aについては青色光を発光し得るものが用いられている。また他のLED19Aについては少なくとも白色光を発光することができるものが用いられている。   In this case, in the facial expression display unit 19, a total of 12 LEDs 19A including at least six of the plurality of LEDs 19A that are hatched in FIG. 7 (H) and six that are hatched in FIG. 7 (I). As for, those capable of emitting light of two colors of white light and red light simultaneously or separately are used, and the six shaded lines in FIG. 8A and the hatched lines in FIG. 8B are drawn. As for the total of 10 LEDs 19A including 4 LEDs, those capable of emitting green light are used, and four shaded lines in FIG. 8H and 4 shaded lines in FIG. A total of eight LEDs 19A that can emit blue light are used. The other LEDs 19A that can emit at least white light are used.

そしてこの表情表示部19に表示される各表情のアニメーションは、図7(A)〜(I)に示すようなそれぞれ所定位置の複数個のLED19Aを同時に点灯させることにより表示される14種類のドットのパターン(以下、これらをA面のドットパターンと呼ぶ)a〜a14、又は図8(A)〜(I)に示すようなそれぞれ所定位置の複数個のLED19Aを同時に点灯させることにより表示される14種類のドットのパターン(以下、これらをB面のドットパターンと呼ぶ)b〜b14の点滅の組み合わせにより作成されている。 The animation of each facial expression displayed on the facial expression display unit 19 is 14 types of dots displayed by simultaneously lighting a plurality of LEDs 19A at predetermined positions as shown in FIGS. Displayed by simultaneously lighting a plurality of LEDs 19A at predetermined positions as shown in FIGS. 8A to 8I (hereinafter referred to as dot patterns on the A surface) a 1 to a 14 or FIGS. 14 types of dot patterns (hereinafter referred to as “B-side dot patterns”) b 1 to b 14 are created by combinations of blinking.

なお、A面の第13及び第14のドットパターンa13、a14は、対応するLED19Aをそれぞれ赤色に発光させたものであり、B面の第1〜第4のドットパターンb〜bは対応するLED19Aをそれぞれ緑色に発光させたものである。またB面の第13〜第14のドットパターンb13〜b1は対応するLED19Aをそれぞれ青色に発光させたものである。 Incidentally, thirteenth and fourteenth dot patterns a 13, a 14 of the A side is for the corresponding LED19A respectively emit light in red, the first to fourth dot pattern b 1 ~b 4 B surface Corresponds to the corresponding LED 19A emitting green light. Also thirteenth 14 dot pattern b 13 ~ B1 4 of the B surface is obtained by emitting the corresponding LED19A blue respectively.

このドットパターンa〜a14、b〜b14は、駆動回路20として出力ポートが14個という少ない出力ポート数のものを利用する場合においてもより効果的にペットロボット1の表情を表現するために採用されたものであり、例えばA面の各ドットパターンa〜a14は、図9に示すように、表情表示部19の全LED19Aの中から互いに重複しないようにそれぞれ選定された「V字」、「逆V字」、「ひし形」又は「×字」を形成する3〜5個のLED19Aを同時に点灯することにより表示され、B面の各ドットパターンb〜b14は、図10に示すように、表情表示部19の全LED19Aの中から互いに重複しないようにそれぞれ選定された「V字」、「逆V字」、「ひし形」、「×字」、「直線」又は「斜め線」を形成する2〜5個のLED19Aを同時に点灯することにより表示される。 The dot patterns a 1 to a 14 and b 1 to b 14 represent the expression of the pet robot 1 more effectively even when a drive circuit 20 having a small number of output ports such as 14 is used. For example, as shown in FIG. 9, the dot patterns a 1 to a 14 on the A surface are respectively selected so as not to overlap each other from all the LEDs 19A of the expression display unit 19. V "," inverted V shape ", is displayed by simultaneously lighting the 3-5 LED19A forming the" diamonds "or" × letter ", the dot patterns b 1 ~b 14 of B-side, FIG. As shown in FIG. 10, “V-shaped”, “inverted V-shaped”, “diamond”, “× -shaped”, “straight line” or “ Slant It is displayed by lighting two to five LED19A forming the line "at the same time.

またA面及びB面という2面構成にしたのは、かかる出力ポート数の少ない駆動回路20を利用する場合においても多くの種類のドットパターンa〜a14、b〜b14を表示できるようにし、これにより表現のバリエーションを増やすためである。 In addition, the two-surface configuration of the A-plane and the B-plane can display many types of dot patterns a 1 to a 14 and b 1 to b 14 even when the drive circuit 20 having a small number of output ports is used. This is to increase the variation of expression.

そしてこのペットロボット1では、駆動回路20が動作モードとして第1及び第2の動作モードを有しており、例えば第1の動作モード時には、駆動回路20の第1の出力ポートから出力されるLED駆動信号S20(図1)に基づいて表情表示部19においてA面の第1のドットパターンa(図7(A))を表示する3つのLED19Aを同時に点滅駆動でき、駆動回路20の第2の出力ポートから出力されるLED駆動信号S20に基づいて表情表示部19においてA面の第2のドットパターンa(図7(A))を表示する3つのLED19Aを同時に点滅駆動でき、……というように、駆動回路20の各出力ポートとA面の各ドットパターンa〜a14とがそれぞれ対応付けられ、これら出力ポートから出力されるLED駆動信号S20によって対応するドットパターンa〜a14を表示する全てのLED19Aを同時にかつ出力ポートごとに独立して点滅駆動させることができるようになされている。 In the pet robot 1, the drive circuit 20 has first and second operation modes as operation modes. For example, in the first operation mode, the LED output from the first output port of the drive circuit 20 Based on the drive signal S20 (FIG. 1), the expression display unit 19 can simultaneously drive the three LEDs 19A for displaying the first dot pattern a 1 (FIG. 7A) on the surface A to blink. On the basis of the LED drive signal S20 output from the output port, the three LEDs 19A for displaying the second dot pattern a 2 on the A surface (FIG. 7A) can be simultaneously blinked in the expression display unit 19,. As described above, each output port of the drive circuit 20 is associated with each dot pattern a 1 to a 14 on the A surface, and the LED drive output from these output ports. All the LEDs 19A displaying the corresponding dot patterns a 1 to a 14 by the motion signal S20 can be driven to blink simultaneously and independently for each output port.

またペットロボット1においては、駆動回路20の第2動作モード時、当該駆動回路20の第1の出力ポートから出力されるLED駆動信号S20(図2)に基づいて表情表示部19においてB面の第1のドットパターンbを表示する3つのLED19Aを同時に点滅駆動でき、駆動回路20の第2の出力ポートから出力されるLED駆動信号S20に基づいて表情表示部19においてB面の第2のドットパターンbを表示する3つのLED19Aを同時に点滅駆動でき、……というように、駆動回路20の各出力ポートとB面の各ドットパターンb〜b14とがそれぞれ対応付けられ、これら出力ポートから出力されるLED駆動信号S20によって対応するドットパターンb〜b14を表示する全てのLED19Aを同時にかつ出力ポートごとに独立して点滅駆動させることができるようになされている。 In the pet robot 1, when the driving circuit 20 is in the second operation mode, the expression display unit 19 displays the B-side on the basis of the LED driving signal S20 (FIG. 2) output from the first output port of the driving circuit 20. three possible simultaneously flashed the LED19A displaying a first dot pattern b 1, the facial expression display unit 19 based on the LED driving signal S20 that is output from the second output port of the drive circuit 20 B face second of can simultaneously flashed three LED19A displaying the dot pattern b 2, and so ...., and each dot pattern b 1 ~b 14 of each output port and the B surface of the drive circuit 20 is associated with each of these outputs simultaneous all LED19A displaying the dot pattern b 1 ~b 14 corresponding with the LED drive signal S20 output from the port And it is made to be able to blink independently driven for each output port.

そしてこのペットロボット1においては、これらA面の14種類のドットパターンa〜a14の1若しくは複数を組み合わせ、又はB面の14種類のドットパターンb〜b14の1若しくは複数を組み合わせて、これらドットパターンa〜a14、b〜b14をそれぞれ所定パターンで点滅させることで、「喜び」、「悲しみ」、「怒り」、「驚き」及び「眠気」などの種々の感情や本能の状態等を表す表情を表現するようになされている。 In the pet robot 1, one or more of the 14 types of dot patterns a 1 to a 14 on the A surface are combined, or one or more of the 14 types of dot patterns b 1 to b 14 on the B surface are combined. By blinking these dot patterns a 1 to a 14 and b 1 to b 14 in predetermined patterns, various emotions such as “joy”, “sadness”, “anger”, “surprise” and “sleepiness” It is designed to express facial expressions that represent the state of instinct.

例えば「喜び」の表情は、図11(A)に示すように、B面の第3及び第4のドットパターンb、b(図8(B))の点灯を同時に開始させた直後にB面の第1及び第2のドットパターンb、b(図8(A))の点灯を同時に開始させ、その後所定時間経過後にこれら第1〜第4のドットパターンb〜bを同時に消灯させることにより表現する。また「怒り」の表情は、図12(A)に示すように、A面の第13及び第14のドットパターンa13(図7(H))、a14(図7(I))を同時に点滅させることにより表現する。さらに「悲しみ」の表情は、図13(A)に示すように、B面の第14のドットパターンb14(図8(I))の点灯を開始させた直後にB面の第13のドットパターンb13(図8(H))の点灯を開始させ、その後所定時間経過後にこれら第13及び第14のドットパターンb13、b14を同時に消灯させることにより表現する。 For example, as shown in FIG. 11 (A), the expression of “joy” is immediately after the lighting of the third and fourth dot patterns b 3 and b 4 (FIG. 8 (B)) on the B surface is started simultaneously. The first and second dot patterns b 1 and b 2 (FIG. 8A) on the B surface are turned on at the same time, and after the predetermined time has elapsed, the first to fourth dot patterns b 1 to b 4 are displayed. Express by turning off the lights at the same time. Further, as shown in FIG. 12A, the expression of “anger” is obtained by simultaneously applying the thirteenth and fourteenth dot patterns a 13 (FIG. 7H) and a 14 (FIG. 7I) on the A surface. Express by blinking. Further, as shown in FIG. 13A, the expression of “sadness” is the 13th dot on the B side immediately after the lighting of the 14th dot pattern b 14 on the B side (FIG. 8I). The pattern b 13 (FIG. 8H) is turned on, and then the thirteenth and fourteenth dot patterns b 13 and b 14 are turned off simultaneously after a predetermined time has elapsed.

さらに「驚き」の表情は、図14(A)に示すように、A面の第3〜第12のドットパターンa〜a12(図7(B)〜図7(G))を全て同時に点滅させることにより表現し、「眠気」の表情は、図15(A)に示すように、A面の第3及び第4のドットパターンa、a(図7(B))の点灯を同時に開始させた直後にA面の第1、第2、第7及び第8のドットパターンa、a(図7(A))、a、a(図7(D))の点灯を同時に開始させ、これら第1〜第4、第7及び第8のドットパターンa〜a、a、aが点灯し終えた後に第1、第2、第7及び第8のドットパターンa、a、a、aの消灯を同時に開始させ、その直後から第3及び第4のドットパターンa、aの点灯を同時に開始させることにより表現する。 Furthermore, as shown in FIG. 14A, the expression “surprise” is the same for all the third to twelfth dot patterns a 3 to a 12 (FIG. 7B to FIG. 7G) on the A surface. The expression of “sleepiness” is expressed by blinking, and the lighting of the third and fourth dot patterns a 3 and a 4 (FIG. 7B) on the A surface is performed as shown in FIG. Immediately after the start, the first, second, seventh and eighth dot patterns a 1 , a 2 (FIG. 7A), a 7 , a 8 (FIG. 7D) on the A surface are turned on. Are started simultaneously, and after the first to fourth, seventh, and eighth dot patterns a 1 to a 4 , a 7 , and a 8 have finished being lit, the first, second, seventh, and eighth dots At the same time to start off the pattern a 1, a 2, a 7 , a 8, a lighting immediately after its third and fourth dot patterns a 3, a 4 To express by starting at the time.

この場合において、このペットロボット1では、駆動回路20として各出力ポートから出力するLED駆動信号S20(図1)の信号レベルを255段階でPWM変調し得るものが用いられている。これによりこのペットロボット1では、各ドットパターンa〜a14、b〜b14の輝度をそれぞれ個別に255階調で制御し得、かくして隣接するドットパターンa〜a14、b〜b14を時間差をつけて点滅させることで流れるようなアニメーションで表情を表現したり、やわらかい表情を表現することができるようになされている。 In this case, the pet robot 1 uses a drive circuit 20 that can PWM modulate the signal level of the LED drive signal S20 (FIG. 1) output from each output port in 255 stages. Thus, in this pet robot 1, obtained by controlling the dot patterns a 1 ~a 14, b 1 ~b 14 of the brightness in each individual 255 gradations, thus the dot pattern a 1 adjacent ~a 14, b 1 ~ or represent a facial animation flowing by causing a b 14 to blink with a time difference, are made to be able to express the soft look.

例えば図11(A)について上述した「喜び」の表情の場合には、図11(B)に示すように、対応する各ドットパターンb〜bの点灯時の輝度を一定の割合で徐々に増加するように変化させ、消灯時の輝度を一定の割合で徐々に減少するように変化させるようになされ、これにより穏やかな「喜び」の情動を表現するようになされている。 For example, in the case of the expression of “joy” described above with reference to FIG. 11A, as shown in FIG. 11B, the brightness of the corresponding dot patterns b 1 to b 4 is gradually increased at a constant rate. The luminance at the time of extinction is changed so as to gradually decrease at a constant rate, thereby expressing a gentle “joy” emotion.

また図12(A)について上述した「怒り」の表情の場合には、図12(B)に示すように、対応する各ドットパターンa13、a14の輝度をインパルス応答のように瞬間的に変化させようになされ、これにより激しい「怒り」の情動を表現する。 In the case of the expression of “anger” described above with reference to FIG. 12A, as shown in FIG. 12B, the brightness of each corresponding dot pattern a 13 , a 14 is instantaneously changed like an impulse response. It is made to change, and expresses the emotion of intense "anger" by this.

さらに図13(A)について上述した「悲しみ」の表情の場合には、図13(B)に示すように、対応する各ドットパターンb13、b14の点灯時の輝度を、輝度と時間の関係が2次曲線を描くように滑らかに増加するように変化させ、消灯時の輝度を、輝度と時間の関係が2次曲線を描くように滑らかに減少するように変化させるようになされ、これにより落ち着きのある「悲しみ」の情動を表現する。 Further, in the case of the expression of “sadness” described above with reference to FIG. 13A, as shown in FIG. 13B, the brightness when the corresponding dot patterns b 13 and b 14 are turned on The relationship is changed so as to increase smoothly so as to draw a quadratic curve, and the luminance at the time of extinction is changed so that the relationship between luminance and time decreases smoothly so as to draw a quadratic curve. Expresses the emotion of "sadness" with calmness.

さらに図14(A)について上述した「驚き」の表情の場合には、図14(B)に示すように、対応する各ドットパターンa〜a12の点灯時の輝度を瞬間的に増加するように変化させ、消灯時の輝度を輝度と時間の関係が2次曲線を描くように滑らかに減少するように変化させるようになされ、これにより瞬間的に平常心を失い、その後の落ち着きを取り戻したような「驚き」の情動を表現する。 Further, in the case of the expression “surprise” described above with reference to FIG. 14A, as shown in FIG. 14B, the brightness when the corresponding dot patterns a 3 to a 12 are turned on is instantaneously increased. The brightness at the time of extinction is changed so that the relationship between brightness and time decreases smoothly so as to draw a quadratic curve, thereby losing normality instantaneously and regaining calmness thereafter. Expresses the emotion of “surprise”.

さらに図15(A)について上述した「眠気」の表情の場合には、図15(B)に示すように、対応する各ドットパターンa〜a、a、aの点灯時及び消灯時の輝度を「悲しみ」の場合と同様に変化させるようになされ、これによりやんわりとした「眠気」の欲求を表現する。 Further, in the case of the expression of “sleepiness” described above with reference to FIG. 15A, as shown in FIG. 15B, the corresponding dot patterns a 1 to a 4 , a 7 and a 8 are turned on and off. The brightness of the time is changed in the same manner as in the case of “sadness”, thereby expressing the desire for a gentle “sleepiness”.

そしてペットロボット1では、表情ごとに、どのドットパターンa〜a14、b〜b14をどのタイミングで点滅させるかといった情報に加えて、駆動回路20を第1及び第2の動作モードのいずれの動作モードで動作させるかといった情報や、そのドットパターンa〜a14、b〜b14の輝度をどのように変化させるかといった点滅駆動するドットパターンa〜a14、b〜b14ごとの輝度変化に関する情報がそれぞれ対応するアニメーションファイルに表示用制御データとして格納され、これらアニメーションファイルがメモリ10Aに格納されている。 In the pet robot 1, in addition to information on which dot patterns a 1 to a 14 and b 1 to b 14 are blinked at each timing for each facial expression, the drive circuit 20 is set in the first and second operation modes. or information and such to operate in either mode, the dot pattern a 1 ~a 14, b 1 ~b dot pattern a 1 ~a 14 flashing drive such how to vary the brightness of 14, b 1 ~ b. Information on the luminance change for each of 14 is stored as display control data in the corresponding animation file, and these animation files are stored in the memory 10A.

かくして行動生成部33(図3)は、行動決定部32から与えられる行動決定情報S11に基づいて対応するファイルIDを有するアニメーションファイルをメモリ10Aから読み出し、格納された表示用制御データに応じた制御信号S4を駆動回路20に送出する一方、駆動回路20は、この制御信号S4に基づいて、必要に応じて動作モードを対応する第1又は第2の動作モードに切り替え、この後所定レベルの駆動電圧を255階調のうちの対応する階調値にPWM変調してなるLED駆動信号S20を生成し、これを対応する出力ポートから出力することにより対応するドットパターンa〜a14、b〜b14を指定された輝度で点滅させる。 Thus, the behavior generation unit 33 (FIG. 3) reads out an animation file having a corresponding file ID from the memory 10A based on the behavior determination information S11 given from the behavior determination unit 32, and performs control according to the stored display control data. While the signal S4 is sent to the drive circuit 20, the drive circuit 20 switches the operation mode to the corresponding first or second operation mode as necessary based on the control signal S4, and then drives at a predetermined level. The LED drive signal S20 obtained by PWM modulating the voltage to the corresponding gradation value of 255 gradations is generated and output from the corresponding output port, thereby corresponding dot patterns a 1 to a 14 and b 1. -B 14 blinks with the specified brightness.

このようにしてこのペットロボット1においては、外部及び内部の状況に応じて時々刻々と変化する感情や本能の状態をより多彩なアニメーションで表現することができるようになされている。   In this way, the pet robot 1 can express emotions and instinct states that change from moment to moment in accordance with external and internal situations in a variety of animations.

(4)本実施の形態の動作及び効果
以上の構成において、このペットロボット1では、表情表示部19の対応するLED19Aを点滅させるようにしてそのときの感情や本能の状態をアニメーションとして表現する。
(4) Operation and effect of the present embodiment In the above configuration, the pet robot 1 expresses the state of emotion and instinct at that time as an animation by blinking the corresponding LED 19A of the expression display unit 19.

この場合において、このペットロボット1では、表情表示部19のLED19Aを互いに位置及び形状の異なる複数のドットパターンa〜a14、b〜b14を表示する複数の組に分け、同じ組のLED19Aを一塊として同時に点滅駆動する一方、これらドットパターンa〜a14、b〜b14の点滅の組み合わせによって表情を表現するようにしているため、少ないポート数の駆動回路20を用いる場合においても多彩な表情を表現することができる。 In this case, in this pet robot 1, the LED 19A of the expression display unit 19 is divided into a plurality of groups that display a plurality of dot patterns a 1 to a 14 and b 1 to b 14 having different positions and shapes, and the same group While the LED 19A is driven to blink simultaneously as a lump, the expression is expressed by the combination of blinking of these dot patterns a 1 to a 14 and b 1 to b 14 , so that when the drive circuit 20 with a small number of ports is used. Can also express a variety of facial expressions.

またこのペットロボット1では、かかる構成に加えて各ドットパターンa〜a14、b〜b14の階調をも制御できるようにしているため、より多彩な表情を表現することができ、さらにドットパターンa〜a14、b〜b14をA面及びB面の2面構造としているため、少ないポート数の駆動回路20を用いてより一層と多彩な表情を表現することができる。 In addition to this configuration, the pet robot 1 can also control the gradation of each dot pattern a 1 to a 14 , b 1 to b 14 , so that more various expressions can be expressed. Furthermore, since the dot patterns a 1 to a 14 and b 1 to b 14 have a two-sided structure of the A side and the B side, a wider variety of expressions can be expressed using the drive circuit 20 with a small number of ports. .

さらにこのペットロボット1では、表情表示部19を、縦方向及び横方向に一定間隔でLED19Aを複数並べたマトリクス状の配置に対して、LED19Aを1列おきに各LED19A間距離の半分づつずらした状態に配置するようにして形成しているため、例えばひし形を最小限の4個のLED19Aによって表示することができ、また図9のように横5列全てのLED19Aを点灯させ得るように各ドットパターンa〜a14、b〜b14の形状を選定する際にも、単純なマトリクスではなく、それぞれ形が異なる種々の形状を選定し易く、その分より複雑で美しい表現方法で表情を表示することができる。 Further, in this pet robot 1, the expression display unit 19 is shifted by half of the distance between the LEDs 19A every other row with respect to the matrix arrangement in which a plurality of LEDs 19A are arranged at regular intervals in the vertical and horizontal directions. For example, a rhombus can be displayed by a minimum of four LEDs 19A, and each of the dots can be turned on so that all the LEDs 19A in the five horizontal rows can be lit as shown in FIG. When selecting the shapes of the patterns a 1 to a 14 and b 1 to b 14 , it is easy to select various shapes that are different from each other, not a simple matrix. Can be displayed.

因みに、表情表示部19を、縦方向及び横方向に一定間隔でLED19Aを複数並べたマトリクス状に配置するようにして形成した場合には、ひし形を表示するに際して5つのLED19Aが必要となったり、又は枠だけの場合には4つのLED19Aですむが、真中のLED19Aが余分となることから、図9のように横5列全てのLED19Aを点灯させ得るように各ドットパターンa〜a14、b〜b14の形状を選定する際に各ドットパターンa〜a14、b〜b14をデザイン的に綺麗な形状に選定し難い。 Incidentally, when the expression display unit 19 is formed so as to be arranged in a matrix in which a plurality of LEDs 19A are arranged at regular intervals in the vertical and horizontal directions, five LEDs 19A are required to display the rhombus, Alternatively, in the case of only the frame, four LEDs 19A are sufficient, but since the middle LED 19A is redundant, each of the dot patterns a 1 to a 14 , so that all the horizontal LEDs 19A can be lit as shown in FIG. difficult to select each dot patterns a 1 ~a 14, b 1 ~b 14 in design beautiful shape in selecting the shape of b 1 ~b 14.

またこのペットロボット1のように、表情表示部19を、縦方向及び横方向に一定間隔でLED19Aを複数並べたマトリクス状の配置に対して、LED19Aを1列おきに各LED19A間距離の半分づつずらした状態に配置するようにして形成することによって、顔のアニメーション表現において「目」、「眉毛」及び「口」の形状として頻繁に使用される「V」字や「へ」字を表示しやすく、図11(A)〜図15(A)について柔術した表情のアニメーション表示他、例えば図16(A)のような「泣き顔」又は「寝顔」のアニメーションや、図16(B)のような「笑い顔」のアニメーションを図7(A)のドットパターンa1や図7(D)のドットパターンa8を利用して表示することもできる。   Further, like the pet robot 1, the expression display unit 19 is arranged in a matrix-like arrangement in which a plurality of LEDs 19A are arranged at regular intervals in the vertical direction and the horizontal direction, and the LEDs 19A are arranged at half the distance between the LEDs 19A every other row. By forming it so as to be placed in a shifted state, the “V” and “he” characters that are frequently used as the shapes of “eyes”, “eyebrows”, and “mouth” in the animation expression of the face are displayed. It is easy to display animations of facial expressions that are jijutsu about FIG. 11 (A) to FIG. 15 (A), for example, animation of “crying face” or “sleeping face” as shown in FIG. 16 (A), and FIG. 16 (B). The animation of “laughing face” can be displayed using the dot pattern a1 in FIG. 7A or the dot pattern a8 in FIG.

以上の構成によれば、表情表示部19のLED19Aを互いに位置及び形状の異なる複数のドットパターンa〜a14、b〜b14を表示する複数の組に分け、同じ組のLED19Aを一塊として同時に点滅駆動する一方、これらドットパターンa〜a14、b〜b14の点滅の組み合わせによって表情を表現するようにしたことにより、少ないポート数の駆動回路20を用いて多彩な表情を表現することができ、かくしてエンターテインメント性を向上させ得るペットロボットを実現できる。 According to the above configuration, the LEDs 19A of the facial expression display unit 19 are divided into a plurality of groups for displaying a plurality of dot patterns a 1 to a 14 and b 1 to b 14 having different positions and shapes, and the same group of LEDs 19A are grouped together. As the expression is expressed by the combination of the blinking of these dot patterns a 1 to a 14 and b 1 to b 14 , various expressions can be made using the drive circuit 20 with a small number of ports. It is possible to realize a pet robot that can be expressed and thus can improve entertainment properties.

(4)他の実施の形態
なお上述の実施の形態においては、本発明を図1のように構成された4足歩行型のペットロボット1に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を有するロボット装置に広く適用することができる。
(4) Other Embodiments In the above-described embodiment, the case where the present invention is applied to the quadruped walking type pet robot 1 configured as shown in FIG. 1 has been described. The present invention is not limited to this, and can be widely applied to robot devices having various other configurations.

また上述の実施の形態においては、表情表示部19におけるLED19Aの配置を図6について上述したパターンとするようにした場合について述べたが、本発明はこれに限らず、表情表示部19におけるLED19Aの配置パターンとしては、この他種々のパターンを適用することができる。   In the above-described embodiment, the case where the LED 19A is arranged in the expression display unit 19 in the pattern described above with reference to FIG. 6 has been described. However, the present invention is not limited to this, and the LED 19A in the expression display unit 19 is arranged. Various other patterns can be applied as the arrangement pattern.

さらに上述の実施の形態においては、ドットパターンa〜a14、b〜b14を2以上のLED19Aの点灯により表示される形状に限定するようにした場合について述べたが、本発明はこれに限らず、1つのLED19Aの点灯により表現されるドットパターンa〜a14、b〜b14を用意するようにしても良い。 Furthermore, in the above-described embodiment, the case where the dot patterns a 1 to a 14 and b 1 to b 14 are limited to shapes displayed by lighting of two or more LEDs 19A has been described. Not limited to this, dot patterns a 1 to a 14 and b 1 to b 14 expressed by lighting of one LED 19A may be prepared.

さらに上述の実施の形態においては、表情表示部19のLED19Aを点滅駆動する駆動手段としての駆動回路20として出力ポート数が14個のものを採用し、これに合わせてドットパターンa〜a14、b〜b14をA面及びB面ともに14種類とするようにした場合について述べたが、本発明はこれに限らず、出力ポート数が14個以外の駆動回路を採用するようにしても良く、この場合にはドットパターンa〜a14、b〜b14の数をその出力ポート数分だけ用意するようにすれば良い。またこの場合において、ドットパターンa〜a14、b〜b14としては、図7及び図8に表示したパターン以外のパターンを広く適用することができる。 Further, in the above-described embodiment, a drive circuit 20 having 14 output ports is adopted as the drive circuit 20 as a drive means for driving the LED 19A of the facial expression display unit 19 to blink, and dot patterns a 1 to a 14 are adapted to this. , B 1 to b 14 have been described as having 14 types for both the A and B surfaces, but the present invention is not limited to this, and a drive circuit having a number of output ports other than 14 is adopted. In this case, as many dot patterns a 1 to a 14 and b 1 to b 14 as the number of output ports may be prepared. In this case, as the dot patterns a 1 to a 14 and b 1 to b 14 , patterns other than the patterns displayed in FIGS. 7 and 8 can be widely applied.

さらに上述の実施の形態においては、駆動回路20を制御する制御手段としてのコントローラ10が、図11〜図15について上述したようなパターンで「喜び」、「怒り」等の表情を表現させるようにした場合について述べたが、本発明はこれに限らず、「喜び」等の表情の表現方法としては、この他種々の表現方法を広く適用することができる。   Further, in the above-described embodiment, the controller 10 as the control means for controlling the drive circuit 20 is configured to express facial expressions such as “joy” and “anger” in the patterns described above with reference to FIGS. However, the present invention is not limited to this, and various other expression methods can be widely applied as a method for expressing an expression such as “joy”.

本発明はペットロボットのほか、種々の用途のロボット装置に広く適用することができる。   The present invention can be widely applied to a robot apparatus for various purposes in addition to a pet robot.

本実施の形態によるペットロボットの外観構成を示す斜視図である。It is a perspective view which shows the external appearance structure of the pet robot by this Embodiment. 本実施の形態によるペットロボットの内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the pet robot by this Embodiment. コントローラの処理内容の説明に供するブロック図である。It is a block diagram with which it uses for description of the processing content of a controller. 確率オートマトンの説明に供する概念図である。It is a conceptual diagram with which it uses for description of a stochastic automaton. 状態遷移表の説明に供する概念図である。It is a conceptual diagram with which it uses for description of a state transition table. 表情表示部の構成を示す平面図である。It is a top view which shows the structure of a facial expression display part. A面のドットパターンの説明に供する略線図である。It is a basic diagram with which it uses for description of the dot pattern of A surface. B面のドットパターンの説明に供する略線図である。It is a basic diagram with which it uses for description of the dot pattern of B surface. A面の各ドットパターンの位置関係の説明に供する略線図である。It is a basic diagram with which it uses for description of the positional relationship of each dot pattern of A surface. B面の各ドットパターンの位置関係の説明に供する略線図である。It is a basic diagram with which it uses for description of the positional relationship of each dot pattern of B surface. 「喜び」の表情のアニメーション表示の説明に供する略線図及び特性曲線図である。It is an approximate line figure and a characteristic curve figure with which it uses for explanation of animation display of the expression of "joy". 「怒り」の表情のアニメーション表示の説明に供する略線図及び特性曲線図である。It is an approximate line figure and a characteristic curve figure with which it uses for explanation of animation display of an expression of "anger". 「悲しみ」の表情のアニメーション表示の説明に供する略線図及び特性曲線図である。It is an approximate line figure and a characteristic curve figure with which it uses for explanation of animation display of a facial expression of "sadness". 「驚き」の表情のアニメーション表示の説明に供する略線図及び特性曲線図である。It is an approximate line figure and a characteristic curve figure used for explanation of animation display of an expression of "surprise". 「眠気」の表情のアニメーション表示の説明に供する略線図及び特性曲線図である。It is an approximate line figure and a characteristic curve figure used for explanation of animation display of a facial expression of “sleepiness”. 顔のアニメーション表示例を示す略線図である。It is a basic diagram which shows the example of a face animation display.

符号の説明Explanation of symbols

1……ペットロボット、4……頭部ユニット、10……コントローラ、10A……メモリ、12……バッテリセンサ、13……温度センサ、15……CCDカメラ、16……マイクロホン、17……タッチセンサ、18……外部センサ、19……表情表示部、19A……LED、20……駆動回路、31……感情・本能モデル部、32……行動決定部、33……行動生成部、40……状態遷移表、a〜a14、b〜b14……ドットパターン、S4……制御信号、S20……LED駆動信号。 DESCRIPTION OF SYMBOLS 1 ... Pet robot, 4 ... Head unit, 10 ... Controller, 10A ... Memory, 12 ... Battery sensor, 13 ... Temperature sensor, 15 ... CCD camera, 16 ... Microphone, 17 ... Touch Sensor: 18 ... External sensor, 19 ... Expression display unit, 19A ... LED, 20 ... Drive circuit, 31 ... Emotion / instinct model unit, 32 ... Behavior determination unit, 33 ... Behavior generation unit, 40 State transition table, a 1 to a 14 , b 1 to b 14 ... Dot pattern, S 4... Control signal, S 20.

Claims (6)

所定のパターンで配置された複数の発光素子と、
それぞれ1又は複数の上記発光素子を点灯することにより表示される互いに位置及び形状の異なるドットパターンが対応付けられた複数のポートを有し、各上記ポートにそれぞれ対応付けられた上記ドットパターンを表示する1又は複数の上記発光素子を、同時にかつ上記ポートごとに独立して点灯駆動する駆動手段と、
1又は複数の上記ドットパターンの点滅の組み合わせによって所望の表情を表現するように、上記駆動手段を制御する制御手段と
を具えることを特徴とするロボット装置。
A plurality of light emitting elements arranged in a predetermined pattern;
Each pixel has a plurality of ports associated with dot patterns of different positions and shapes displayed by lighting one or a plurality of the light emitting elements, and displays the dot patterns respectively associated with the ports. Drive means for lighting and driving one or a plurality of the light emitting elements simultaneously and independently for each port;
And a control means for controlling the driving means so as to express a desired expression by a combination of blinking of one or a plurality of the dot patterns.
上記駆動手段は、
上記ポートごとに、対応するドットパターンの輝度を複数階調で変化させることができ、
上記制御手段は、
点滅させる上記ドットパターンの輝度を必要に応じて所定パターンで変化させるように、上記駆動手段を制御する
ことを特徴とする請求項1に記載のロボット装置。
The drive means is
For each port, the brightness of the corresponding dot pattern can be changed in multiple tones,
The control means includes
The robot apparatus according to claim 1, wherein the driving unit is controlled so that the luminance of the dot pattern to be blinked is changed in a predetermined pattern as necessary.
上記駆動手段は、
複数の動作モードを有し、上記動作モードごとに、全部又は一部の上記ポートに異なる上記ドットパターンが対応付けられ、
上記制御手段は、
上記所望する表情に応じて上記駆動手段の上記動作モードを切り替える
ことを特徴とする請求項1に記載のロボット装置。
The drive means is
There are a plurality of operation modes, and for each of the operation modes, all or some of the ports are associated with different dot patterns,
The control means includes
The robot apparatus according to claim 1, wherein the operation mode of the driving unit is switched according to the desired facial expression.
所定パターンで配置された複数の発光素子と、複数のポートを有し、各上記ポートに対応付けられた上記発光素子を当該ポートごとに独立して点滅駆動する駆動手段とを有するロボット装置の制御方法において、
上記駆動手段の各上記ポートに、それぞれ1又は複数の上記発光素子を点灯することにより表示される互いに位置及び形状の異なるドットパターンを対応付ける第1のステップと、
1又は複数の上記ドットパターンの点滅の組み合わせによって表情を表現するように、上記駆動手段を制御する第2のステップと
を具えることを特徴とするロボット装置の制御方法。
Control of a robot apparatus having a plurality of light emitting elements arranged in a predetermined pattern, and a drive unit having a plurality of ports and driving the light emitting elements associated with each port independently for each port. In the method
A first step of associating each of the ports of the driving means with dot patterns having different positions and shapes displayed by lighting one or a plurality of the light emitting elements;
And a second step of controlling the driving means so as to express a facial expression by a combination of blinking one or a plurality of the dot patterns.
上記駆動手段は、
上記ポートごとに、対応するドットパターンの輝度を複数階調で変化させることができ、
上記第2のステップでは、
点滅させる上記ドットパターンの輝度を必要に応じて所定パターンで変化させるように、上記駆動手段を制御する
ことを特徴とする請求項4に記載のロボット装置の制御方法。
The drive means is
For each port, the brightness of the corresponding dot pattern can be changed in multiple tones,
In the second step,
The method of controlling a robot apparatus according to claim 4, wherein the driving unit is controlled so that the brightness of the dot pattern to be blinked is changed in a predetermined pattern as necessary.
上記駆動手段は、
複数の動作モードを有し、上記動作モードごとに、全部又は一部の上記ポートに異なる上記ドットパターンが対応付けられ
上記第2のステップでは、
上記所望する表情に応じて上記駆動手段の上記動作モードを切り替える
ことを特徴とする請求項4に記載のロボット装置の制御方法。
The drive means is
There are a plurality of operation modes, and for each of the operation modes, all or some of the ports are associated with different dot patterns. In the second step,
The method for controlling a robot apparatus according to claim 4, wherein the operation mode of the driving unit is switched according to the desired facial expression.
JP2003305031A 2003-08-28 2003-08-28 Robot apparatus and control method thereof Expired - Lifetime JP4385281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003305031A JP4385281B2 (en) 2003-08-28 2003-08-28 Robot apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003305031A JP4385281B2 (en) 2003-08-28 2003-08-28 Robot apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2005074535A JP2005074535A (en) 2005-03-24
JP4385281B2 true JP4385281B2 (en) 2009-12-16

Family

ID=34408545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003305031A Expired - Lifetime JP4385281B2 (en) 2003-08-28 2003-08-28 Robot apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP4385281B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI416289B (en) 2010-05-28 2013-11-21 Compal Communications Inc Automatic machine and method for controlling the same
JP2017192851A (en) * 2017-08-07 2017-10-26 シャープ株式会社 Robot device, control program, and computer readable recording medium recording control program

Also Published As

Publication number Publication date
JP2005074535A (en) 2005-03-24

Similar Documents

Publication Publication Date Title
EP1120740B1 (en) Robot device, its control method, and recorded medium
US6681150B1 (en) Insect robot
JP3277500B2 (en) Robot device
JP6572943B2 (en) Robot, robot control method and program
US6711469B2 (en) Robot system, robot apparatus and cover for robot apparatus
WO2001039932A1 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
KR20010053481A (en) Robot device and method for controlling the same
JP5227362B2 (en) Emotion engine, emotion engine system, and electronic device control method
US20030014159A1 (en) Robot apparatus and its control method
JP2001191281A (en) Editing device, editing method, and storage medium
JP4385281B2 (en) Robot apparatus and control method thereof
CN105364931A (en) Emotion information processing method and small intelligent robot
JP4524524B2 (en) Robot apparatus and control method thereof
JP2003136456A (en) Robot device, brightness detection method of robot device, brightness detection program and recording medium
US8311670B2 (en) Genetic robot platform and genetic robot behavior expression method
JP4411503B2 (en) Robot apparatus and control method thereof
JP4419035B2 (en) Robot apparatus and control method thereof
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus
JP2001154707A (en) Robot device and its controlling method
JP3983416B2 (en) Insect robot
US20200005686A1 (en) Systems and methods for projecting a dynamic matrix display on an outer surface of a housing
JP2003136439A (en) Robot device, and method and program for controlling gait of robot device
WO2023037608A1 (en) Autonomous mobile body, information processing method, and program
WO2023037609A1 (en) Autonomous mobile body, information processing method, and program
JP2003071765A (en) Robot device and input method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090903

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090916

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121009

Year of fee payment: 3