JP4385281B2 - Robot apparatus and control method thereof - Google Patents
Robot apparatus and control method thereof Download PDFInfo
- Publication number
- JP4385281B2 JP4385281B2 JP2003305031A JP2003305031A JP4385281B2 JP 4385281 B2 JP4385281 B2 JP 4385281B2 JP 2003305031 A JP2003305031 A JP 2003305031A JP 2003305031 A JP2003305031 A JP 2003305031A JP 4385281 B2 JP4385281 B2 JP 4385281B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- dot patterns
- expression
- emotion
- dot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Description
本発明は、ロボット装置及びその制御方法に関し、例えばエンターテインメントロボットに適用して好適なものである。 The present invention relates to a robot apparatus and a control method thereof, and is suitably applied to, for example, an entertainment robot.
近年、ユーザからの指示や周囲の環境に応じて自律的に行動を行う4足歩行型のペットロボットが本願特許出願人により開発され、商品化されている。かかるペットロボットは、一般家庭において飼育される犬や猫に似せた形状を有し、ユーザからの指示や周囲の環境に応じて行動するものである(例えば非特許文献1参照)。
ところで、上述の特願2000−135146では、ペットロボットの「目」の位置に外見上の「目」を表すLED(Light Emitting Diode)を配置し、これを点滅駆動することにより感情を表現することが開示されている。そしてこのようにペットロボットを構成することによって、ユーザとペットロボットとのコミュニケーションを円滑化させることができ、その分ペットロボットに対するユーザの愛着心や好奇心を向上させて、ペットロボットのエンターテインメント性を向上させ得るものと考えられる。 By the way, in the above-mentioned Japanese Patent Application No. 2000-135146, an LED (Light Emitting Diode) representing an apparent “eye” is arranged at the position of the “eyes” of the pet robot, and the emotion is expressed by driving the LED to blink. Is disclosed. By configuring the pet robot in this way, the communication between the user and the pet robot can be facilitated, and the user's attachment and curiosity to the pet robot can be improved accordingly, thereby enhancing the entertainment characteristics of the pet robot. It is thought that it can be improved.
しかしながら、この特願2000−135146では、かかるLEDとして形状及び色が固定のものを用い、LEDの点滅パターンを変化させることでペットロボットの種々の感情を表現するようになされており、LEDの形状にとらわれない多彩な表情表現を行い得ない問題があった。 However, in this Japanese Patent Application No. 2000-135146, the LED having a fixed shape and color is used to express various emotions of the pet robot by changing the blinking pattern of the LED. There was a problem that could not express a variety of facial expressions that were not confined to.
かかる問題を解決するための1つの手法として、例えば点発光するLEDをマトリクス状に複数設け、これらLEDをそれぞれ独立に点滅制御することで、ペットロボットの表情をアニメーション表示する方法が考えられる。そしてこの方法によれば、ペットロボットの感情等をLEDの形状にとらわれることなく多彩に表現できるものと考えられる。 As one method for solving such a problem, for example, a method of displaying a pet robot's facial expression in an animation by providing a plurality of point-emitting LEDs in a matrix and independently controlling these LEDs to blink can be considered. According to this method, it is considered that the emotions of the pet robot can be expressed in various ways without being constrained by the LED shape.
ところが、かかる方法によると、各LEDをそれぞれ独立に点滅駆動するための駆動回路としてLED数分の出力ポートを有するものが必要となり、その分構成が煩雑になったり、製造コストが高くなる問題があった。 However, according to such a method, it is necessary to have a drive circuit for the number of LEDs as a drive circuit for independently blinking and driving each LED, and there is a problem that the configuration becomes complicated and the manufacturing cost increases accordingly. there were.
従って、かかるペットロボットにおいて、少ない出力ポートの駆動回路を用いて当該ペットロボットの感情等をより多彩な表情表現を行い得るようにすることができれば、簡易な構成でペットロボットのエンターテインメント性をより一層と向上させ得るものと考えられる。 Therefore, in such a pet robot, if it is possible to express a variety of facial expressions of the pet robot's emotions using a drive circuit with a small number of output ports, the pet robot's entertainment characteristics can be further improved with a simple configuration. It is thought that it can be improved.
本発明は以上の点を考慮してなされたもので、エンターテインメント性を向上させ得るロボット装置及びその制御方法を提案しようとするものである。 The present invention has been made in consideration of the above points, and an object of the present invention is to propose a robot apparatus and a control method thereof that can improve entertainment properties.
かかる課題を解決するため本発明においては、所定パターンで配置された複数の発光素子のうちの1又は複数の発光素子を点灯することにより表示される互いに位置及び形状の異なるドットパターンが対応付けられた複数のポートを有し、各ポートにそれぞれ対応付けられたドットパターンを表示する1又は複数の発光素子を、同時にかつポートごとに独立して点灯駆動する駆動手段と、1又は複数のドットパターンの点滅の組み合わせによって所望の表情を表現するように、駆動手段を制御する制御手段とを設けるようにした。 In order to solve such a problem, in the present invention, dot patterns having different positions and shapes displayed by lighting one or a plurality of light emitting elements among a plurality of light emitting elements arranged in a predetermined pattern are associated with each other. Driving means for driving one or more light-emitting elements, each of which has a plurality of ports, and displaying a dot pattern associated with each port, simultaneously and independently for each port, and one or more dot patterns Control means for controlling the drive means is provided so as to express a desired expression by a combination of blinking.
この結果このロボット装置では、少ないポート数の駆動手段を用いて多彩な表情を表示することができる。 As a result, this robot apparatus can display various facial expressions using a driving means with a small number of ports.
また本発明においては、ロボット装置の制御方法において、駆動手段の各ポートに、それぞれ所定パターンで配置された複数の発光素子のうちの1又は複数の発光素子を点灯することにより表示される互いに位置及び形状の異なるドットパターンを対応付ける第1のステップと、1又は複数のドットパターンの点滅の組み合わせによって表情を表現するように、駆動手段を制御する第2のステップとを設けるようにした。 Further, in the present invention, in the control method of the robot apparatus, the positions of each other displayed by lighting one or a plurality of light emitting elements among the plurality of light emitting elements arranged in a predetermined pattern at each port of the driving unit. And a first step for associating dot patterns having different shapes with each other and a second step for controlling the driving means so as to express a facial expression by a combination of blinking of one or more dot patterns.
この結果このロボット装置の制御方法によれば、少ないポート数の駆動手段を用いて多彩な表情を表示することができる。 As a result, according to the control method of the robot apparatus, various facial expressions can be displayed using the driving means having a small number of ports.
以上のように本発明によれば、ロボット装置において、所定パターンで配置された複数の発光素子のうちの1又は複数の発光素子を点灯することにより表示される互いに位置及び形状の異なるドットパターンが対応付けられた複数のポートを有し、各ポートにそれぞれ対応付けられたドットパターンを表示する1又は複数の発光素子を、同時にかつポートごとに独立して点灯駆動する駆動手段と、1又は複数のドットパターンの点滅の組み合わせによって所望の表情を表現するように、駆動手段を制御する制御手段とを設けるようにしたことにより、少ないポート数の駆動手段を用いて多彩な表情を表示することができ、かくしてエンターテインメント性を向上させ得るロボット装置を実現できる。 As described above, according to the present invention, in the robot apparatus, dot patterns having different positions and shapes displayed by turning on one or more of the light emitting elements arranged in a predetermined pattern are displayed. A driving unit that has a plurality of associated ports and that individually and simultaneously drives one or a plurality of light emitting elements that display a dot pattern associated with each port, and one or more of them; By providing a control means for controlling the drive means so as to express a desired expression by combining the blinking of the dot pattern, it is possible to display a variety of expressions using the drive means with a small number of ports. Thus, a robot apparatus capable of improving entertainment performance can be realized.
また本発明によれば、ロボット装置の制御方法において、駆動手段の各ポートに、それぞれ所定パターンで配置された複数の発光素子のうちの1又は複数の発光素子を点灯することにより表示される互いに位置及び形状の異なるドットパターンを対応付ける第1のステップと、1又は複数のドットパターンの点滅の組み合わせによって表情を表現するように、駆動手段を制御する第2のステップとを設けるようにしたことにより、少ないポート数の駆動手段を用いて多彩な表情を表示することができ、かくしてエンターテインメント性を向上させ得るロボット装置の制御方法を実現できる。 According to the invention, in the control method of the robot apparatus, each of the ports displayed on the respective ports of the driving unit is displayed by turning on one or a plurality of light-emitting elements arranged in a predetermined pattern. By providing a first step for associating dot patterns with different positions and shapes, and a second step for controlling the driving means so as to express an expression by a combination of blinking of one or more dot patterns Therefore, it is possible to display a variety of facial expressions using a driving means with a small number of ports, and thus to realize a control method for a robot apparatus that can improve entertainment properties.
以下、図面について、本発明の一実施の形態を詳述する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
(1)本実施の形態によるペットロボット1の構成
図1において、1は全体として本実施の形態によるペットロボットを示し、胴体部ユニット2の前後左右にそれぞれ脚部ユニット3A〜3Dが連結されると共に、胴体部ユニット2の前端部及び後端部にそれぞれ頭部ユニット4及び尻尾部ユニット5が連結されることにより構成されている。
(1) Configuration of Pet Robot 1 According to the Present Embodiment In FIG. 1, 1 indicates a pet robot according to the present embodiment as a whole, and
この場合胴体部ユニット2には、図2に示すように、このペットロボット1全体の動作を制御するコントローラ10と、このペットロボット1の動力源としてのバッテリ11と、バッテリセンサ12及び温度センサ13などからなる内部センサ部14となどが収納されている。
In this case, as shown in FIG. 2, the
また頭部ユニット4には、このペットロボット1の実質的な「目」として機能するCCD(Charge Coupled Device)カメラ15、「耳」として機能するマイクロホン16及びタッチセンサ17などからなる外部センサ部18と、ペットロボット1の表情をアニメーションで表示するための表情表示部19及びその駆動回路20と、「口」として機能するスピーカ21となどがそれぞれ所定位置に配設されている。
The
さらに各脚部ユニット3A〜3Dの関節部分や、各脚部ユニット3A〜3D及び胴体部ユニット2の各連結部分、頭部ユニット4及び胴体部ユニット2の連結部分、並びに尻尾部ユニット5における尻尾5A(図1)の付根部分などには、それぞれ対応する自由度数分のアクチュエータ221〜22nが配設されている。
Further, the joint portions of the leg units 3A to 3D, the connecting portions of the leg units 3A to 3D and the
そして頭部ユニット4のCCDカメラ15は、周囲の状況を撮像し、得られた画像信号S1Aをコントローラ10に送出する。またマイクロホン16は、ユーザから発せられた「歩け」、「伏せ」又は「ボールを追いかけろ」等の音声を集音し、得られた音声信号S1Bをコントローラ10に送出する。
Then, the
さらにタッチセンサ17は、図1において明らかなように頭部ユニット4の上部に設けられており、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出し、検出結果を圧力検出信号S1Cとしてコントローラ10に送出する。
Further, as apparent from FIG. 1, the
さらにバッテリセンサ12は、バッテリ11の残量を検出して、検出結果をバッテリ残量検出信号S2Aとしてコントローラ10に送出し、温度センサ13は、ペットロボット1内部の温度を検出して検出結果を温度検出信号S2Bとしてコントローラ10に送出する。
Further, the
コントローラ10は、外部センサ部18のCCDカメラ15、マイクロホン16及びタッチセンサ17からそれぞれ供給される画像信号S1A、音声信号S1B及び圧力検出信号S1Cなど(以下、これらをまとめて外部センサ信号S1と呼ぶ)と、内部センサ部14のバッテリセンサ12及び温度センサ13からそれぞれ与えられるバッテリ残量検出信号S2A及び温度検出信号S2Bなど(以下、これらをまとめて内部センサ信号S2と呼ぶ)とに基づいて、ペットロボット1の周囲及び内部の状況や、ユーザからの指令、ユーザからの働きかけの有無などを判断する。
The
そしてコントローラ10は、この判断結果と、予めメモリ10Aに格納されている制御プログラムとに基づいて続く行動を決定し、決定結果に基づいて必要なアクチュエータ221〜22nを駆動させることにより、頭部ユニット4を上下左右に振らせたり、尻尾部ユニット5の尻尾5Aを動かせたり、各脚部ユニット3A〜3Dを駆動して歩行させるなどの行動を発現させる。
The
またこの際コントローラ10は、必要に応じて所定の音声信号S3をスピーカ21に与えることにより当該音声信号S3に基づく音声を外部に出力させたり、必要に応じて所定の制御信号S4を駆動回路20に与えることにより所定の表情のアニメーションを表情表示部19に表示させる。
At this time, the
このようにしてこのペットロボット1においては、周囲及び内部の状況や、ユーザからの指令及び働きかけの有無などに基づいて自律的に行動することができるようになされている。
In this way, the
(2)行動生成に関するコントローラ10の処理
次にこのペットロボット1におけるコントローラ10の具体的な処理について説明する。
(2) Processing of
コントローラ10は、メモリ10Aに格納された制御プログラムに従って上述のような各種処理を実行する。そしてかかるコントローラ10の処理内容を機能的に分類すると、図3に示すように、外部及び内部の状態を認識する状態認識部30と、状態認識部30の認識結果に基づいて感情及び本能の状態を決定する感情・本能モデル部31と、状態認識部30の認識結果及び感情・本能モデル部31の出力に基づいて続く行動を決定する行動決定部32と、行動決定部32の決定結果に応じた行動をペットロボットに生成(発現)させる行動生成部33とに分けることができる。
The
以下、これら状態認識部30、感情・本能モデル部31、行動決定部32及び行動生成部33について詳細に説明する。
Hereinafter, the
(2−1)状態認識部30の構成
状態認識部30は、外部センサ部18(図2)から与えられる外部情報信号S1と、内部センサ部14(図2)から与えられる内部情報信号S2とに基づいて特定の状態を認識し、認識結果を状態認識情報S10として感情・本能モデル部31及び行動決定部32に通知する。
(2-1) Configuration of
実際上、状態認識部30は、外部センサ部18のCCDカメラ15(図2)から与えられる画像信号S1A(図2)を常時監視し、当該画像信号S1Aに基づく画像内に例えば「赤い丸いもの」や、「垂直な平面」を検出したときには、「ボールがある」、「壁がある」と認識し、認識結果を感情・本能モデル部31及び行動決定部32に通知する。
In practice, the
また状態認識部30は、マイクロホン16(図2)から与えられる音声信号S1B(図2)を常時監視し、当該音声信号S1Bに基づいて「歩け」、「伏せ」、「ボールを追いかけろ」などの指令音が入力されたことを認識すると、かかる認識結果を感情・本能モデル部31及び行動決定部32に通知する。
Further, the
さらに状態認識部30は、タッチセンサ17(図2)から与えられる圧力検出信号S1C(図2)を常時監視し、当該圧力検出信号S1Cに基づいて所定の閾値以上のかつ短時間(例えば2秒未満)の圧力を検出したときには「叩かれた(叱られた)」と認識し、所定の閾値未満のかつ長時間(例えば2秒以上)の圧力を検出したときには「撫でられた(誉められた)」と認識し、認識結果を感情・本能モデル部31及び行動決定部32に通知する。
Further, the
さらに状態認識部30は、内部センサ部14(図2)の温度センサ13(図2)から与えられる温度検出信号S2B(図2)を常時監視し、当該温度検出信号S2Bに基づいて所定以上の温度を検出したときには「内部温度が上昇した」と認識し、認識結果を感情・本能モデル部31及び行動決定部32に通知する。
Furthermore, the
(2−2)感情・本能モデル部31の構成
感情・本能モデル部31は、「喜び」、「悲しみ」、「驚き」、「恐怖」、「嫌悪」及び「怒り」の合計6つの情動について、各情動ごとにその情動の強さを表すパラメータを保持している。そして感情・本能モデル部31は、これら各情動のパラメータ値を、それぞれ状態認識部30から状態認識情報S10として与えられる「叩かれた」及び「撫でられた」などの特定の認識結果と、後述のように行動決定部32から与えられる決定された出力行動を表す行動決定情報S11と、経過時間となどに基づいて順次更新する。
(2-2) Configuration of Emotion / Instinct Model Unit 31 The emotion /
具体的に感情・本能モデル部31は、状態認識情報S10に基づき得られる認識結果及び行動決定情報S11に基づく出力行動がその情動に対して作用する度合い(予め設定されている)と、他の情動から受ける抑制及び刺激の度合いと、経過時間となどに基づいて所定の演算式により算出されるその情動の変化量をΔE〔t〕、現在のその情動のパラメータ値をE〔t〕、認識結果等に応じてその情動を変化させる割合を表す係数をkeとして、所定周期で次式
Specifically, the emotion /
を用いて次の周期におけるその情動のパラメータ値E〔t+1〕を算出する。 Is used to calculate the parameter value E [t + 1] of the emotion in the next cycle.
そして感情・本能モデル部31は、この演算結果を現在のその情動のパラメータ値E〔t〕と置き換えるようにしてその情動のパラメータ値を更新する。なお各認識結果や各出力行動に対してどの情動のパラメータ値を更新するかは予め決められており、例えば「叩かれた」といった認識結果が与えられた場合には「怒り」の情動のパラメータ値が上がると共に「喜び」の情動のパラメータが下がり、「撫でられた」といった認識結果が与えられた場合には「喜び」の情動のパラメータ値が上がると共に「悲しみ」の情動のパラメータ値が下がる。
Then, the emotion /
これと同様にして、感情・本能モデル部31は、「運動欲」、「愛情欲」、「食欲」、「好奇心」及び「眠気」の互いに独立した5つの欲求について、これら欲求ごとにその欲求の強さを表すパラメータを保持している。そして感情・本能モデル部31は、これら欲求のパラメータ値を、それぞれ状態認識部30からの状態認識情報S10や、経過時間及び行動決定部32からの行動決定情報S11などに基づいて順次更新する。
In the same manner, the emotion /
具体的に感情・本能モデル部31は、「運動欲」、「愛情欲」及び「好奇心」については、ペットロボット1の出力行動、経過時間及び認識結果などに基づいて所定の演算式により算出されるその欲求の変動量をΔI〔k〕、減算のその欲求のパラメータ値をI〔k〕、その欲求の感度を表す係数をkiとして、所定周期で次式
Specifically, the emotion /
を用いて次の周期におけるその欲求のパラメータ値I〔k+1〕を算出し、この演算結果を現在のその欲求のパラメータ値I〔k〕と置き換えるようにしてその欲求のパラメータ値を更新する。なお出力行動や認識結果等に対してどの欲求のパラメータ値を変化させるかは予め定められており、例えば行動決定部32から行動決定情報S11として何らかの行動を行ったとの通知があったときには「運動欲」のパラメータ値が下がる。
Is used to calculate the parameter value I [k + 1] of the desire in the next cycle, and the parameter value of the desire is updated so that the calculation result is replaced with the current parameter value I [k] of the desire. Note that the parameter value of the desire to be changed with respect to the output action, the recognition result, and the like is determined in advance. For example, when the
また感情・本能モデル部31は、「食欲」については、状態認識部30を介して与えられるバッテリ残量検出信号S2A(図2)に基づいて、バッテリ残量をB1として所定周期で次式
The emotion or
により「食欲」のパラメータ値I〔k+1〕を算出し、この演算結果を現在の食欲のパラメータ値I〔k〕と置き換えるようにして当該「食欲」のパラメータ値を更新する。 Thus, the parameter value I [k + 1] of “appetite” is calculated, and the parameter value of “appetite” is updated so that the calculation result is replaced with the parameter value I [k] of the current appetite.
さらに感情・本能モデル部31は、「眠気」については、自己が有する1日周期の正弦波状で表される「活動」又は「睡眠」のリズムに従って所定周期でそのパラメータ値を更新する。
Further, the emotion /
なお本実施の形態においては、各情動及び各欲求のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数ke、kiの値も各情動及び各欲求ごとに個別に設定されている。 In the present embodiment, the parameter values of each emotion and each desire are regulated so as to fluctuate in the range of 0 to 100, and the values of the coefficients k e and k i are also set for each emotion and each desire. Are set individually.
(2−3)行動決定部32の構成
行動決定部32は、状態認識部30から与えられる状態認識情報S10と、感情・本能モデル部31における各情動及び各欲求のパラメータ値と、予めメモリ10Aに格納された行動モデルと、時間経過となどに基づいて次の行動を決定し、決定結果を行動決定情報S11として感情・本能モデル部31及び行動生成部33に出力する。
(2-3) Configuration of
この場合、行動決定部32は、次の行動を決定する手法として、図4に示すような1つのノード(状態)NODE0から同じ又は他のどのノードNODE0〜NODEnに遷移するかを各ノードNODE0〜NODEn間を接続するアークARC0〜ARCnに対してそれぞれ設定された遷移確率P0〜Pnに基づいて確率的に決定する確率オートマトンと呼ばれるアルゴリズムを用いる。
In this case, the
より具体的には、メモリ10Aには、行動モデルとして、各ノードNODE0〜NODEnごとの図5に示すような状態遷移表40が格納されており、行動決定部32がこの状態遷移表40に基づいて次の行動を決定するようになされている。
More specifically, the state transition table 40 as shown in FIG. 5 for each of the nodes NODE 0 to NODE n is stored in the
ここで状態遷移表40においては、そのノードNODE0〜NODEnにおいて遷移条件とする入力イベント(状態認識部30の認識結果)が「入力イベント」の行に優先順に列記され、その条件についてのさらなる条件が「データ名」及び「データ範囲」の行における対応する列に記述されている。 Here, in the state transition table 40, input events (recognition results of the state recognition unit 30) as transition conditions in the nodes NODE 0 to NODE n are listed in the order of priority in the “input event” row, and further about the conditions. The conditions are described in the corresponding columns in the rows of “data name” and “data range”.
従って図5の状態遷移表40で定義されたノードNODE100では、「ボールを発見した(BALL)」という認識結果が与えられた場合に、当該認識結果と共に与えられるそのボールの「大きさ(SIZE)」が「0から1000の範囲(0,1000)」であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果と共に与えられるその障害物までの「距離(DISTANCE)」が「0から1000の範囲(0,1000)」であることが自己又は他のノードに遷移するための条件となっている。 Therefore, in the node NODE 100 defined in the state transition table 40 of FIG. 5, when the recognition result “BALL FOUND” is given, the “size (SIZE)” of the ball given together with the recognition result is given. ) "Is in the range of 0 to 1000 (0, 1000), or when the recognition result" OBSTACLE "is given, the obstacle to be given along with the recognition result It is a condition for transition to self or another node that “distance” is “range from 0 to 1000 (0, 1000)”.
またこのノードNODE100では、認識結果の入力がない場合においても、行動決定部32が周期的に参照する感情・本能モデル部31の各情動及び各欲求のパラメータ値のうち「喜び(JOY)」、「驚き(SUPRISE)」又は「悲しみ(SUDNESS)」のいずれかの情動のパラメータ値が「50から100の範囲(50,100)」であるときには自己又は他のノードに遷移することができる。
Further, in this node NODE 100 , even when there is no input of the recognition result, “joy” of the emotion and
さらに状態遷移表40では、「他のノードへの遷移確率」の欄における「遷移先ノード」の列にそのノードNODE0〜NODEnから遷移できるノード名が列記されると共に、「入力イベント名」、「データ値」及び「データの範囲」の各行に記述された全ての条件が揃った場合におけるそのノードNODE0〜NODEnへの遷移確率が「他のノードへの遷移確率」の欄におけるそのノードNODE0〜NODEnの行に記述され、このとき出力される行動又は動作が「出力行動」の行に記述される。なお「他のノードへの遷移確率」の欄における各行の遷移確率の和は100〔%〕となっている。 Further, in the state transition table 40, node names that can be transitioned from the nodes NODE 0 to NODE n are listed in the “transition destination node” column in the “transition probability to other nodes” column, and “input event name” , When all the conditions described in each row of “data value” and “data range” are met, the transition probability to the node NODE 0 to NODE n is the value in the “transition probability to other node” column. It is described in the lines of the nodes NODE 0 to NODE n , and the action or action output at this time is described in the line of “output action”. The sum of the transition probabilities of each row in the “transition probability to other node” column is 100 [%].
従ってこの例のノードNODE100では、例えば「ボールを発見(BALL)」し、そのボールの「大きさ(SIZE)」が「0から1000の範囲(0,1000)」であるという認識結果が与えられた場合には、「30〔%〕」の確率で「ノードNODE120(node 120)」に遷移でき、そのとき「ACTION 1」の行動又は動作が出力されることとなる。
Therefore, in the node NODE 100 of this example, for example, “discover the ball (BALL)” and the recognition result that the “size (SIZE)” of the ball is “range from 0 to 1000 (0, 1000)” is given. If it is, the transition to “node NODE 120 (node 120)” can be made with a probability of “30 [%]”, and the action or action of “
そして行動モデルは、このような状態遷移表40として記述されたノードNODE0〜NODEnがいくつも繋がるようにして構成されている。 The behavior model is configured such that any number of nodes NODE 0 to NODE n described as the state transition table 40 are connected.
かくして行動決定部32は、状態認識部30から状態認識情報S10が与えられたときや、最後に行動を発現してから一定時間が経過したときなどに、メモリ10Aに格納されている行動モデルのうちの対応するノードNODE0〜NODEnの状態遷移表40を利用して次の行動や動作(「出力行動」の行に記述された行動又は動作)を確率的に決定し、決定結果を行動決定情報S11として感情・本能モデル部31及び行動生成部33に出力する。
Thus, the
(2−3)行動生成部33の処理
行動生成部33は、行動決定部32から与えられる行動決定情報S11に基づいて、必要なアクチュエータ221〜22n(図2)に駆動信号S121〜S12nを送出したり、スピーカ21(図2)に必要な音声信号S3を送出したり、対応する制御信号S4を駆動回路20に送出する。
(2-3) Processing of
これにより行動生成部33は、この駆動信号S131〜S13nに基づいて必要なアクチュエータ221〜22nを所定状態に駆動させたり、音声信号S3に基づく音声をスピーカ21から出力させたり、制御信号S4に応じたアニメーションを表情表示部19に表示させる。
Thereby, the
(3)ペットロボット1における表情表現
(3−1)ペットロボット1における表情表現
次に、このペットロボット1における表情の表現方法について説明する。
(3) Expression expression in pet robot 1 (3-1) Expression expression in
このペットロボット1では、上述のようにコントローラ10の機能の1つである行動決定部32において、対応する状態遷移表40(図5)を利用して続く行動を決定する。
In the
この場合、状態遷移表40における「入力イベント」の行に記述された各認識結果(「ボールを発見(BALL)」等)や、「データ名」の行に記述された各感情又は本能(「喜び(JOY)」等)とそれぞれ対応付けられた各出力行動(「ACTON 1」等)には、その認識結果に対する感情や、そのときのペットロボット1の感情又は本能の状態を表現する行動をペットロボット1に発現させるための制御データが格納されたモーションファイルが関連付けられると共に、これに加えてその感情や本能の状態を表情表示部19においてアニメーションで表示するための表示用制御データが格納されたアニメーションファイルが関連付けられている。
In this case, each recognition result described in the “input event” line in the state transition table 40 (such as “find a ball (BALL)”), each emotion or instinct described in the “data name” line (“ Each of the output actions (“
そして行動決定部32は、状態認識部30から「撫でられた(PAT)」、「叩かれた(HIT)」などの認識結果が与えられた場合や、最後に行動を発現してから一定時間が経過したときなどに、上述のように対応する状態遷移表40を用いて確率的に次の行動を決定し、決定した行動と対応付けられたモーションファイル及びアニメーションファイルのファイルIDを行動決定情報S11として行動生成部33に通知するようになされている。
Then, the
かくしてこのとき行動生成部33は、行動決定部32から与えられる行動決定情報S11に基づいて、対応するファイルIDのモーションファイルをメモリ10Aから読み出し、当該モーションファイルに格納された制御データに基づいて必要なアクチュエータ221〜22nを駆動させることにより、指定された「喜び」や「怒り」等の行動や動作をペットロボット1に発現させる一方、これと同期して対応するファイルIDのアニメーションファイルをメモリ10Aから読み出し、当該アニメーションファイルに格納された表示用制御データに基づいて駆動回路20を制御することにより、対応する「喜び」、「怒り」又は「眠気」等の感情や欲求を表すアニメーションを表情表示部19に表示させる。
Thus, at this time, the
このようにしてこのペットロボット1においては、外部又は内部の状況に応じた表情を表情表示部19に表示するようになされている。
In this way, the
(3−2)表情表示部19に表示される各アニメーションパターン
ここでこのペットロボット1の場合、表情表示部19は、図6に示すように、縦方向及び横方向に一定間隔でLED19Aを複数並べたマトリクス状の配置に対して、LED19Aを1列おきに各LED19A間距離の半分づつずらした状態に配置(すなわち、かかるマトリクス状の配列を45〔°〕傾けた配列で複数のLED19Aを配置)することにより構成されている。
(3-2) Each animation pattern displayed on the
この場合、表情表示部19においては、これら複数のLED19Aのうち少なくとも図7(H)において斜線を引いた6個と、図7(I)において斜線を引いた6個との合計12個のLED19Aについては白色光及び赤色光の2色の光を同時又は別個に発光することができるものが用いられ、図8(A)において斜線を引いた6個と、図8(B)において斜線を引いた4個との合計10個のLED19Aについては緑色光を発光し得るものが用いられ、図8(H)において斜線を引いた4個と、図8(I)において斜線を引いた4個との合計8個のLED19Aについては青色光を発光し得るものが用いられている。また他のLED19Aについては少なくとも白色光を発光することができるものが用いられている。
In this case, in the facial
そしてこの表情表示部19に表示される各表情のアニメーションは、図7(A)〜(I)に示すようなそれぞれ所定位置の複数個のLED19Aを同時に点灯させることにより表示される14種類のドットのパターン(以下、これらをA面のドットパターンと呼ぶ)a1〜a14、又は図8(A)〜(I)に示すようなそれぞれ所定位置の複数個のLED19Aを同時に点灯させることにより表示される14種類のドットのパターン(以下、これらをB面のドットパターンと呼ぶ)b1〜b14の点滅の組み合わせにより作成されている。
The animation of each facial expression displayed on the facial
なお、A面の第13及び第14のドットパターンa13、a14は、対応するLED19Aをそれぞれ赤色に発光させたものであり、B面の第1〜第4のドットパターンb1〜b4は対応するLED19Aをそれぞれ緑色に発光させたものである。またB面の第13〜第14のドットパターンb13〜b14は対応するLED19Aをそれぞれ青色に発光させたものである。
Incidentally, thirteenth and fourteenth dot patterns a 13, a 14 of the A side is for the corresponding LED19A respectively emit light in red, the first to
このドットパターンa1〜a14、b1〜b14は、駆動回路20として出力ポートが14個という少ない出力ポート数のものを利用する場合においてもより効果的にペットロボット1の表情を表現するために採用されたものであり、例えばA面の各ドットパターンa1〜a14は、図9に示すように、表情表示部19の全LED19Aの中から互いに重複しないようにそれぞれ選定された「V字」、「逆V字」、「ひし形」又は「×字」を形成する3〜5個のLED19Aを同時に点灯することにより表示され、B面の各ドットパターンb1〜b14は、図10に示すように、表情表示部19の全LED19Aの中から互いに重複しないようにそれぞれ選定された「V字」、「逆V字」、「ひし形」、「×字」、「直線」又は「斜め線」を形成する2〜5個のLED19Aを同時に点灯することにより表示される。
The dot patterns a 1 to a 14 and b 1 to b 14 represent the expression of the
またA面及びB面という2面構成にしたのは、かかる出力ポート数の少ない駆動回路20を利用する場合においても多くの種類のドットパターンa1〜a14、b1〜b14を表示できるようにし、これにより表現のバリエーションを増やすためである。
In addition, the two-surface configuration of the A-plane and the B-plane can display many types of dot patterns a 1 to a 14 and b 1 to b 14 even when the
そしてこのペットロボット1では、駆動回路20が動作モードとして第1及び第2の動作モードを有しており、例えば第1の動作モード時には、駆動回路20の第1の出力ポートから出力されるLED駆動信号S20(図1)に基づいて表情表示部19においてA面の第1のドットパターンa1(図7(A))を表示する3つのLED19Aを同時に点滅駆動でき、駆動回路20の第2の出力ポートから出力されるLED駆動信号S20に基づいて表情表示部19においてA面の第2のドットパターンa2(図7(A))を表示する3つのLED19Aを同時に点滅駆動でき、……というように、駆動回路20の各出力ポートとA面の各ドットパターンa1〜a14とがそれぞれ対応付けられ、これら出力ポートから出力されるLED駆動信号S20によって対応するドットパターンa1〜a14を表示する全てのLED19Aを同時にかつ出力ポートごとに独立して点滅駆動させることができるようになされている。
In the
またペットロボット1においては、駆動回路20の第2動作モード時、当該駆動回路20の第1の出力ポートから出力されるLED駆動信号S20(図2)に基づいて表情表示部19においてB面の第1のドットパターンb1を表示する3つのLED19Aを同時に点滅駆動でき、駆動回路20の第2の出力ポートから出力されるLED駆動信号S20に基づいて表情表示部19においてB面の第2のドットパターンb2を表示する3つのLED19Aを同時に点滅駆動でき、……というように、駆動回路20の各出力ポートとB面の各ドットパターンb1〜b14とがそれぞれ対応付けられ、これら出力ポートから出力されるLED駆動信号S20によって対応するドットパターンb1〜b14を表示する全てのLED19Aを同時にかつ出力ポートごとに独立して点滅駆動させることができるようになされている。
In the
そしてこのペットロボット1においては、これらA面の14種類のドットパターンa1〜a14の1若しくは複数を組み合わせ、又はB面の14種類のドットパターンb1〜b14の1若しくは複数を組み合わせて、これらドットパターンa1〜a14、b1〜b14をそれぞれ所定パターンで点滅させることで、「喜び」、「悲しみ」、「怒り」、「驚き」及び「眠気」などの種々の感情や本能の状態等を表す表情を表現するようになされている。
In the
例えば「喜び」の表情は、図11(A)に示すように、B面の第3及び第4のドットパターンb3、b4(図8(B))の点灯を同時に開始させた直後にB面の第1及び第2のドットパターンb1、b2(図8(A))の点灯を同時に開始させ、その後所定時間経過後にこれら第1〜第4のドットパターンb1〜b4を同時に消灯させることにより表現する。また「怒り」の表情は、図12(A)に示すように、A面の第13及び第14のドットパターンa13(図7(H))、a14(図7(I))を同時に点滅させることにより表現する。さらに「悲しみ」の表情は、図13(A)に示すように、B面の第14のドットパターンb14(図8(I))の点灯を開始させた直後にB面の第13のドットパターンb13(図8(H))の点灯を開始させ、その後所定時間経過後にこれら第13及び第14のドットパターンb13、b14を同時に消灯させることにより表現する。 For example, as shown in FIG. 11 (A), the expression of “joy” is immediately after the lighting of the third and fourth dot patterns b 3 and b 4 (FIG. 8 (B)) on the B surface is started simultaneously. The first and second dot patterns b 1 and b 2 (FIG. 8A) on the B surface are turned on at the same time, and after the predetermined time has elapsed, the first to fourth dot patterns b 1 to b 4 are displayed. Express by turning off the lights at the same time. Further, as shown in FIG. 12A, the expression of “anger” is obtained by simultaneously applying the thirteenth and fourteenth dot patterns a 13 (FIG. 7H) and a 14 (FIG. 7I) on the A surface. Express by blinking. Further, as shown in FIG. 13A, the expression of “sadness” is the 13th dot on the B side immediately after the lighting of the 14th dot pattern b 14 on the B side (FIG. 8I). The pattern b 13 (FIG. 8H) is turned on, and then the thirteenth and fourteenth dot patterns b 13 and b 14 are turned off simultaneously after a predetermined time has elapsed.
さらに「驚き」の表情は、図14(A)に示すように、A面の第3〜第12のドットパターンa3〜a12(図7(B)〜図7(G))を全て同時に点滅させることにより表現し、「眠気」の表情は、図15(A)に示すように、A面の第3及び第4のドットパターンa3、a4(図7(B))の点灯を同時に開始させた直後にA面の第1、第2、第7及び第8のドットパターンa1、a2(図7(A))、a7、a8(図7(D))の点灯を同時に開始させ、これら第1〜第4、第7及び第8のドットパターンa1〜a4、a7、a8が点灯し終えた後に第1、第2、第7及び第8のドットパターンa1、a2、a7、a8の消灯を同時に開始させ、その直後から第3及び第4のドットパターンa3、a4の点灯を同時に開始させることにより表現する。
Furthermore, as shown in FIG. 14A, the expression “surprise” is the same for all the third to twelfth dot patterns a 3 to a 12 (FIG. 7B to FIG. 7G) on the A surface. The expression of “sleepiness” is expressed by blinking, and the lighting of the third and fourth dot patterns a 3 and a 4 (FIG. 7B) on the A surface is performed as shown in FIG. Immediately after the start, the first, second, seventh and eighth dot patterns a 1 , a 2 (FIG. 7A), a 7 , a 8 (FIG. 7D) on the A surface are turned on. Are started simultaneously, and after the first to fourth, seventh, and eighth dot patterns a 1 to a 4 , a 7 , and a 8 have finished being lit, the first, second, seventh, and eighth dots At the same time to start off the pattern a 1, a 2, a 7 , a 8, a lighting immediately after its third and
この場合において、このペットロボット1では、駆動回路20として各出力ポートから出力するLED駆動信号S20(図1)の信号レベルを255段階でPWM変調し得るものが用いられている。これによりこのペットロボット1では、各ドットパターンa1〜a14、b1〜b14の輝度をそれぞれ個別に255階調で制御し得、かくして隣接するドットパターンa1〜a14、b1〜b14を時間差をつけて点滅させることで流れるようなアニメーションで表情を表現したり、やわらかい表情を表現することができるようになされている。
In this case, the
例えば図11(A)について上述した「喜び」の表情の場合には、図11(B)に示すように、対応する各ドットパターンb1〜b4の点灯時の輝度を一定の割合で徐々に増加するように変化させ、消灯時の輝度を一定の割合で徐々に減少するように変化させるようになされ、これにより穏やかな「喜び」の情動を表現するようになされている。 For example, in the case of the expression of “joy” described above with reference to FIG. 11A, as shown in FIG. 11B, the brightness of the corresponding dot patterns b 1 to b 4 is gradually increased at a constant rate. The luminance at the time of extinction is changed so as to gradually decrease at a constant rate, thereby expressing a gentle “joy” emotion.
また図12(A)について上述した「怒り」の表情の場合には、図12(B)に示すように、対応する各ドットパターンa13、a14の輝度をインパルス応答のように瞬間的に変化させようになされ、これにより激しい「怒り」の情動を表現する。 In the case of the expression of “anger” described above with reference to FIG. 12A, as shown in FIG. 12B, the brightness of each corresponding dot pattern a 13 , a 14 is instantaneously changed like an impulse response. It is made to change, and expresses the emotion of intense "anger" by this.
さらに図13(A)について上述した「悲しみ」の表情の場合には、図13(B)に示すように、対応する各ドットパターンb13、b14の点灯時の輝度を、輝度と時間の関係が2次曲線を描くように滑らかに増加するように変化させ、消灯時の輝度を、輝度と時間の関係が2次曲線を描くように滑らかに減少するように変化させるようになされ、これにより落ち着きのある「悲しみ」の情動を表現する。 Further, in the case of the expression of “sadness” described above with reference to FIG. 13A, as shown in FIG. 13B, the brightness when the corresponding dot patterns b 13 and b 14 are turned on The relationship is changed so as to increase smoothly so as to draw a quadratic curve, and the luminance at the time of extinction is changed so that the relationship between luminance and time decreases smoothly so as to draw a quadratic curve. Expresses the emotion of "sadness" with calmness.
さらに図14(A)について上述した「驚き」の表情の場合には、図14(B)に示すように、対応する各ドットパターンa3〜a12の点灯時の輝度を瞬間的に増加するように変化させ、消灯時の輝度を輝度と時間の関係が2次曲線を描くように滑らかに減少するように変化させるようになされ、これにより瞬間的に平常心を失い、その後の落ち着きを取り戻したような「驚き」の情動を表現する。 Further, in the case of the expression “surprise” described above with reference to FIG. 14A, as shown in FIG. 14B, the brightness when the corresponding dot patterns a 3 to a 12 are turned on is instantaneously increased. The brightness at the time of extinction is changed so that the relationship between brightness and time decreases smoothly so as to draw a quadratic curve, thereby losing normality instantaneously and regaining calmness thereafter. Expresses the emotion of “surprise”.
さらに図15(A)について上述した「眠気」の表情の場合には、図15(B)に示すように、対応する各ドットパターンa1〜a4、a7、a8の点灯時及び消灯時の輝度を「悲しみ」の場合と同様に変化させるようになされ、これによりやんわりとした「眠気」の欲求を表現する。 Further, in the case of the expression of “sleepiness” described above with reference to FIG. 15A, as shown in FIG. 15B, the corresponding dot patterns a 1 to a 4 , a 7 and a 8 are turned on and off. The brightness of the time is changed in the same manner as in the case of “sadness”, thereby expressing the desire for a gentle “sleepiness”.
そしてペットロボット1では、表情ごとに、どのドットパターンa1〜a14、b1〜b14をどのタイミングで点滅させるかといった情報に加えて、駆動回路20を第1及び第2の動作モードのいずれの動作モードで動作させるかといった情報や、そのドットパターンa1〜a14、b1〜b14の輝度をどのように変化させるかといった点滅駆動するドットパターンa1〜a14、b1〜b14ごとの輝度変化に関する情報がそれぞれ対応するアニメーションファイルに表示用制御データとして格納され、これらアニメーションファイルがメモリ10Aに格納されている。
In the
かくして行動生成部33(図3)は、行動決定部32から与えられる行動決定情報S11に基づいて対応するファイルIDを有するアニメーションファイルをメモリ10Aから読み出し、格納された表示用制御データに応じた制御信号S4を駆動回路20に送出する一方、駆動回路20は、この制御信号S4に基づいて、必要に応じて動作モードを対応する第1又は第2の動作モードに切り替え、この後所定レベルの駆動電圧を255階調のうちの対応する階調値にPWM変調してなるLED駆動信号S20を生成し、これを対応する出力ポートから出力することにより対応するドットパターンa1〜a14、b1〜b14を指定された輝度で点滅させる。
Thus, the behavior generation unit 33 (FIG. 3) reads out an animation file having a corresponding file ID from the
このようにしてこのペットロボット1においては、外部及び内部の状況に応じて時々刻々と変化する感情や本能の状態をより多彩なアニメーションで表現することができるようになされている。
In this way, the
(4)本実施の形態の動作及び効果
以上の構成において、このペットロボット1では、表情表示部19の対応するLED19Aを点滅させるようにしてそのときの感情や本能の状態をアニメーションとして表現する。
(4) Operation and effect of the present embodiment In the above configuration, the
この場合において、このペットロボット1では、表情表示部19のLED19Aを互いに位置及び形状の異なる複数のドットパターンa1〜a14、b1〜b14を表示する複数の組に分け、同じ組のLED19Aを一塊として同時に点滅駆動する一方、これらドットパターンa1〜a14、b1〜b14の点滅の組み合わせによって表情を表現するようにしているため、少ないポート数の駆動回路20を用いる場合においても多彩な表情を表現することができる。
In this case, in this
またこのペットロボット1では、かかる構成に加えて各ドットパターンa1〜a14、b1〜b14の階調をも制御できるようにしているため、より多彩な表情を表現することができ、さらにドットパターンa1〜a14、b1〜b14をA面及びB面の2面構造としているため、少ないポート数の駆動回路20を用いてより一層と多彩な表情を表現することができる。
In addition to this configuration, the
さらにこのペットロボット1では、表情表示部19を、縦方向及び横方向に一定間隔でLED19Aを複数並べたマトリクス状の配置に対して、LED19Aを1列おきに各LED19A間距離の半分づつずらした状態に配置するようにして形成しているため、例えばひし形を最小限の4個のLED19Aによって表示することができ、また図9のように横5列全てのLED19Aを点灯させ得るように各ドットパターンa1〜a14、b1〜b14の形状を選定する際にも、単純なマトリクスではなく、それぞれ形が異なる種々の形状を選定し易く、その分より複雑で美しい表現方法で表情を表示することができる。
Further, in this
因みに、表情表示部19を、縦方向及び横方向に一定間隔でLED19Aを複数並べたマトリクス状に配置するようにして形成した場合には、ひし形を表示するに際して5つのLED19Aが必要となったり、又は枠だけの場合には4つのLED19Aですむが、真中のLED19Aが余分となることから、図9のように横5列全てのLED19Aを点灯させ得るように各ドットパターンa1〜a14、b1〜b14の形状を選定する際に各ドットパターンa1〜a14、b1〜b14をデザイン的に綺麗な形状に選定し難い。
Incidentally, when the
またこのペットロボット1のように、表情表示部19を、縦方向及び横方向に一定間隔でLED19Aを複数並べたマトリクス状の配置に対して、LED19Aを1列おきに各LED19A間距離の半分づつずらした状態に配置するようにして形成することによって、顔のアニメーション表現において「目」、「眉毛」及び「口」の形状として頻繁に使用される「V」字や「へ」字を表示しやすく、図11(A)〜図15(A)について柔術した表情のアニメーション表示他、例えば図16(A)のような「泣き顔」又は「寝顔」のアニメーションや、図16(B)のような「笑い顔」のアニメーションを図7(A)のドットパターンa1や図7(D)のドットパターンa8を利用して表示することもできる。
Further, like the
以上の構成によれば、表情表示部19のLED19Aを互いに位置及び形状の異なる複数のドットパターンa1〜a14、b1〜b14を表示する複数の組に分け、同じ組のLED19Aを一塊として同時に点滅駆動する一方、これらドットパターンa1〜a14、b1〜b14の点滅の組み合わせによって表情を表現するようにしたことにより、少ないポート数の駆動回路20を用いて多彩な表情を表現することができ、かくしてエンターテインメント性を向上させ得るペットロボットを実現できる。
According to the above configuration, the
(4)他の実施の形態
なお上述の実施の形態においては、本発明を図1のように構成された4足歩行型のペットロボット1に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を有するロボット装置に広く適用することができる。
(4) Other Embodiments In the above-described embodiment, the case where the present invention is applied to the quadruped walking
また上述の実施の形態においては、表情表示部19におけるLED19Aの配置を図6について上述したパターンとするようにした場合について述べたが、本発明はこれに限らず、表情表示部19におけるLED19Aの配置パターンとしては、この他種々のパターンを適用することができる。
In the above-described embodiment, the case where the
さらに上述の実施の形態においては、ドットパターンa1〜a14、b1〜b14を2以上のLED19Aの点灯により表示される形状に限定するようにした場合について述べたが、本発明はこれに限らず、1つのLED19Aの点灯により表現されるドットパターンa1〜a14、b1〜b14を用意するようにしても良い。
Furthermore, in the above-described embodiment, the case where the dot patterns a 1 to a 14 and b 1 to b 14 are limited to shapes displayed by lighting of two or
さらに上述の実施の形態においては、表情表示部19のLED19Aを点滅駆動する駆動手段としての駆動回路20として出力ポート数が14個のものを採用し、これに合わせてドットパターンa1〜a14、b1〜b14をA面及びB面ともに14種類とするようにした場合について述べたが、本発明はこれに限らず、出力ポート数が14個以外の駆動回路を採用するようにしても良く、この場合にはドットパターンa1〜a14、b1〜b14の数をその出力ポート数分だけ用意するようにすれば良い。またこの場合において、ドットパターンa1〜a14、b1〜b14としては、図7及び図8に表示したパターン以外のパターンを広く適用することができる。
Further, in the above-described embodiment, a
さらに上述の実施の形態においては、駆動回路20を制御する制御手段としてのコントローラ10が、図11〜図15について上述したようなパターンで「喜び」、「怒り」等の表情を表現させるようにした場合について述べたが、本発明はこれに限らず、「喜び」等の表情の表現方法としては、この他種々の表現方法を広く適用することができる。
Further, in the above-described embodiment, the
本発明はペットロボットのほか、種々の用途のロボット装置に広く適用することができる。 The present invention can be widely applied to a robot apparatus for various purposes in addition to a pet robot.
1……ペットロボット、4……頭部ユニット、10……コントローラ、10A……メモリ、12……バッテリセンサ、13……温度センサ、15……CCDカメラ、16……マイクロホン、17……タッチセンサ、18……外部センサ、19……表情表示部、19A……LED、20……駆動回路、31……感情・本能モデル部、32……行動決定部、33……行動生成部、40……状態遷移表、a1〜a14、b1〜b14……ドットパターン、S4……制御信号、S20……LED駆動信号。
DESCRIPTION OF
Claims (6)
それぞれ1又は複数の上記発光素子を点灯することにより表示される互いに位置及び形状の異なるドットパターンが対応付けられた複数のポートを有し、各上記ポートにそれぞれ対応付けられた上記ドットパターンを表示する1又は複数の上記発光素子を、同時にかつ上記ポートごとに独立して点灯駆動する駆動手段と、
1又は複数の上記ドットパターンの点滅の組み合わせによって所望の表情を表現するように、上記駆動手段を制御する制御手段と
を具えることを特徴とするロボット装置。 A plurality of light emitting elements arranged in a predetermined pattern;
Each pixel has a plurality of ports associated with dot patterns of different positions and shapes displayed by lighting one or a plurality of the light emitting elements, and displays the dot patterns respectively associated with the ports. Drive means for lighting and driving one or a plurality of the light emitting elements simultaneously and independently for each port;
And a control means for controlling the driving means so as to express a desired expression by a combination of blinking of one or a plurality of the dot patterns.
上記ポートごとに、対応するドットパターンの輝度を複数階調で変化させることができ、
上記制御手段は、
点滅させる上記ドットパターンの輝度を必要に応じて所定パターンで変化させるように、上記駆動手段を制御する
ことを特徴とする請求項1に記載のロボット装置。 The drive means is
For each port, the brightness of the corresponding dot pattern can be changed in multiple tones,
The control means includes
The robot apparatus according to claim 1, wherein the driving unit is controlled so that the luminance of the dot pattern to be blinked is changed in a predetermined pattern as necessary.
複数の動作モードを有し、上記動作モードごとに、全部又は一部の上記ポートに異なる上記ドットパターンが対応付けられ、
上記制御手段は、
上記所望する表情に応じて上記駆動手段の上記動作モードを切り替える
ことを特徴とする請求項1に記載のロボット装置。 The drive means is
There are a plurality of operation modes, and for each of the operation modes, all or some of the ports are associated with different dot patterns,
The control means includes
The robot apparatus according to claim 1, wherein the operation mode of the driving unit is switched according to the desired facial expression.
上記駆動手段の各上記ポートに、それぞれ1又は複数の上記発光素子を点灯することにより表示される互いに位置及び形状の異なるドットパターンを対応付ける第1のステップと、
1又は複数の上記ドットパターンの点滅の組み合わせによって表情を表現するように、上記駆動手段を制御する第2のステップと
を具えることを特徴とするロボット装置の制御方法。 Control of a robot apparatus having a plurality of light emitting elements arranged in a predetermined pattern, and a drive unit having a plurality of ports and driving the light emitting elements associated with each port independently for each port. In the method
A first step of associating each of the ports of the driving means with dot patterns having different positions and shapes displayed by lighting one or a plurality of the light emitting elements;
And a second step of controlling the driving means so as to express a facial expression by a combination of blinking one or a plurality of the dot patterns.
上記ポートごとに、対応するドットパターンの輝度を複数階調で変化させることができ、
上記第2のステップでは、
点滅させる上記ドットパターンの輝度を必要に応じて所定パターンで変化させるように、上記駆動手段を制御する
ことを特徴とする請求項4に記載のロボット装置の制御方法。 The drive means is
For each port, the brightness of the corresponding dot pattern can be changed in multiple tones,
In the second step,
The method of controlling a robot apparatus according to claim 4, wherein the driving unit is controlled so that the brightness of the dot pattern to be blinked is changed in a predetermined pattern as necessary.
複数の動作モードを有し、上記動作モードごとに、全部又は一部の上記ポートに異なる上記ドットパターンが対応付けられ
上記第2のステップでは、
上記所望する表情に応じて上記駆動手段の上記動作モードを切り替える
ことを特徴とする請求項4に記載のロボット装置の制御方法。 The drive means is
There are a plurality of operation modes, and for each of the operation modes, all or some of the ports are associated with different dot patterns. In the second step,
The method for controlling a robot apparatus according to claim 4, wherein the operation mode of the driving unit is switched according to the desired facial expression.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003305031A JP4385281B2 (en) | 2003-08-28 | 2003-08-28 | Robot apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003305031A JP4385281B2 (en) | 2003-08-28 | 2003-08-28 | Robot apparatus and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005074535A JP2005074535A (en) | 2005-03-24 |
JP4385281B2 true JP4385281B2 (en) | 2009-12-16 |
Family
ID=34408545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003305031A Expired - Lifetime JP4385281B2 (en) | 2003-08-28 | 2003-08-28 | Robot apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4385281B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI416289B (en) | 2010-05-28 | 2013-11-21 | Compal Communications Inc | Automatic machine and method for controlling the same |
JP2017192851A (en) * | 2017-08-07 | 2017-10-26 | シャープ株式会社 | Robot device, control program, and computer readable recording medium recording control program |
-
2003
- 2003-08-28 JP JP2003305031A patent/JP4385281B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2005074535A (en) | 2005-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1120740B1 (en) | Robot device, its control method, and recorded medium | |
US6681150B1 (en) | Insect robot | |
JP3277500B2 (en) | Robot device | |
JP6572943B2 (en) | Robot, robot control method and program | |
US6711469B2 (en) | Robot system, robot apparatus and cover for robot apparatus | |
WO2001039932A1 (en) | Robot apparatus, control method thereof, and method for judging character of robot apparatus | |
KR20010053481A (en) | Robot device and method for controlling the same | |
JP5227362B2 (en) | Emotion engine, emotion engine system, and electronic device control method | |
US20030014159A1 (en) | Robot apparatus and its control method | |
JP2001191281A (en) | Editing device, editing method, and storage medium | |
JP4385281B2 (en) | Robot apparatus and control method thereof | |
CN105364931A (en) | Emotion information processing method and small intelligent robot | |
JP4524524B2 (en) | Robot apparatus and control method thereof | |
JP2003136456A (en) | Robot device, brightness detection method of robot device, brightness detection program and recording medium | |
US8311670B2 (en) | Genetic robot platform and genetic robot behavior expression method | |
JP4411503B2 (en) | Robot apparatus and control method thereof | |
JP4419035B2 (en) | Robot apparatus and control method thereof | |
JP4379052B2 (en) | Moving object detection apparatus, moving object detection method, and robot apparatus | |
JP2001154707A (en) | Robot device and its controlling method | |
JP3983416B2 (en) | Insect robot | |
US20200005686A1 (en) | Systems and methods for projecting a dynamic matrix display on an outer surface of a housing | |
JP2003136439A (en) | Robot device, and method and program for controlling gait of robot device | |
WO2023037608A1 (en) | Autonomous mobile body, information processing method, and program | |
WO2023037609A1 (en) | Autonomous mobile body, information processing method, and program | |
JP2003071765A (en) | Robot device and input method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090903 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090916 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121009 Year of fee payment: 3 |