JP2002307354A - Electronic toy - Google Patents

Electronic toy

Info

Publication number
JP2002307354A
JP2002307354A JP2001170342A JP2001170342A JP2002307354A JP 2002307354 A JP2002307354 A JP 2002307354A JP 2001170342 A JP2001170342 A JP 2001170342A JP 2001170342 A JP2001170342 A JP 2001170342A JP 2002307354 A JP2002307354 A JP 2002307354A
Authority
JP
Japan
Prior art keywords
electronic toy
robot
electronic
control
toy according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001170342A
Other languages
Japanese (ja)
Other versions
JP2002307354A5 (en
Inventor
Satoshi Yamada
悟司 山田
Hirohiko Atobe
裕彦 跡部
Kaoru Igarashi
薫 五十嵐
Ryotaro Saji
良太郎 佐治
Tetsuya Hayakawa
徹哉 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Toys Co Ltd
Original Assignee
Sega Toys Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Toys Co Ltd filed Critical Sega Toys Co Ltd
Priority to JP2001170342A priority Critical patent/JP2002307354A/en
Priority to US09/985,909 priority patent/US20020081937A1/en
Publication of JP2002307354A publication Critical patent/JP2002307354A/en
Publication of JP2002307354A5 publication Critical patent/JP2002307354A5/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/48Mounting of parts within dolls, e.g. automatic eyes or parts for animation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic toy devised to automatically start at the time when a user is present nearby. SOLUTION: The electronic toy to be controlled to react against information from outside is furnished with a movement mechanism to constitute mechanical movement of the toy, an input means to acquire the information from the outside, a discrimination means to discriminate whether an objective body exists or not in the circumference and a control means to control movement of the movement mechanism by selecting a control parameter to control the movement mechanism in correspondence with the information from the outside in accordance with the discrimination result from a plurality of the control parameters and moves at the time when a person is present around.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、外部からの音声や
接触に応じて任意の動作を行うように制御する電子玩具
(大人用の「愛玩具」や「遊戯具」、家庭用ロボットを
も含む)に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic toy ("adult toy" or "playing toy" for an adult, a home robot, etc.) which is controlled to perform an arbitrary operation in response to an external voice or contact. Including).

【0002】[0002]

【従来の技術】従来から犬、猫、熊等の動物の縫いぐる
みが動物玩具として広く使用されている。また、動物の
縫いぐるみあるいは動物の形状とされた合成樹脂製の胴
体内部にモータ及びスピーカを内蔵し、例えば頭部に接
触して押圧することにより、足や口を動かすといった所
定の動作を行うと共に、所定の鳴き声を発声させるよう
構成された動物玩具もある。
2. Description of the Related Art Conventionally, stuffed animals such as dogs, cats, and bears have been widely used as animal toys. In addition, a motor and a speaker are built in the body of a synthetic resin made of a stuffed animal or an animal, and perform predetermined operations such as moving a foot or a mouth by, for example, touching and pressing the head. There are also animal toys that are configured to produce a predetermined call.

【0003】この種の動物玩具では、同じ動作を繰り返
すと共に、同じ鳴き声を繰り返し発声させるものである
ので、ユーザーが直ぐに飽きてしまうことが多い。
[0003] In this kind of animal toy, since the same operation is repeated and the same cry is repeatedly produced, the user often gets bored immediately.

【0004】逆にランダムに動作が選択されると、ユー
ザーにとっては期待した動作が起こらず、やはりすぐに
飽きてしまう場合がある。
[0004] Conversely, if an operation is selected at random, the expected operation does not occur for the user, and the user may soon get bored.

【0005】このような従来からある動物玩具に対し
て、ユーザーが飽きないように様々な動作を行うように
制御するマイクロコンピュータを搭載された電子玩具の
開発が進められている。
An electronic toy equipped with a microcomputer for controlling such a conventional animal toy to perform various operations so as to keep the user from getting tired is being developed.

【0006】電子玩具としては、例えば頭を撫でたり、
抱き上げたり、声をかけたりするとマイクロコンピュー
タの指令によりある種の動作(例えば、予め記憶されて
いる言葉をスピーカから発声したり、体を揺らしたりす
る動作等)を行うよう構成したものがある。また、この
種の電子玩具では、頭を撫でた回数、抱き上げた回数、
声をかけた回数をカウントし、例えばカウント値が増え
るにつれてスピーカから発声させる言葉がかわいらしい
表現に段階的に変化させるように制御している。
[0006] As electronic toys, for example, stroking the head,
Some are configured to perform a certain operation (for example, an operation of uttering a pre-stored word from a speaker, shaking the body, or the like) in response to a command from a microcomputer when the user lifts or calls up. Also, with this type of electronic toy, the number of times you stroke your head,
The number of times of calling is counted, and for example, as the count value increases, control is performed so that words to be uttered from the speaker are gradually changed to a pretty expression.

【0007】[0007]

【発明が解決しようとする課題】上記従来の電子玩具に
おいては、ユーザが電源をオンにしてから遊ぶのでユー
ザ(人)の存在の有無に対応して自動的に動きを選択し
て動作を行うようなものではない。また、電子玩具自身
が周囲の状況を判断して動作を決定するものではない。
ユーザとのコミュニケーションを図るような電子玩具を
想定した場合には、起動から自動的に行って動作をユー
ザに対応させることが望まれる。
In the above-mentioned conventional electronic toy, since the user plays after turning on the power, the operation is automatically selected according to the presence or absence of the user (person). Not something like that. Further, the electronic toy itself does not determine the operation by judging the surrounding situation.
When assuming an electronic toy that communicates with the user, it is desired that the operation is automatically performed from the start to make the operation correspond to the user.

【0008】よって、本発明は、ユーザが近くに存在す
るときに自動的に起動するようにした電子玩具を提供す
ることを目的とする。
Accordingly, an object of the present invention is to provide an electronic toy that is automatically activated when a user is nearby.

【0009】また、本発明は、ユーザとのコミュニケー
ションを図る要素を加味した電子玩具を提供することを
目的とする。
Another object of the present invention is to provide an electronic toy that takes into account elements for communicating with a user.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するた
め、本発明の電子玩具(すなわち、家庭用ロボット)
は、外部からの情報に反応するように制御される電子玩
具において、玩具の機械的な動きを構成する動作機構
と、外部からの情報を取得する入力手段と、周囲に対象
体が存在するかどうかを判別する判別手段と、該判別結
果に基づいて、上記外部からの情報に対応して上記動作
機構を制御するための制御パラメータを複数の制御パラ
メータの中から選択し、上記動作機構の動作を制御する
制御手段と、を備える。
In order to achieve the above object, an electronic toy of the present invention (ie, a home robot) is provided.
Is an electronic toy that is controlled to respond to external information, an operation mechanism that configures the mechanical movement of the toy, an input unit that acquires external information, and whether an object exists around the electronic toy. Discriminating means for discriminating whether or not, based on the discrimination result, selecting a control parameter for controlling the operating mechanism from a plurality of control parameters in accordance with the information from the outside, and operating the operating mechanism And control means for controlling

【0011】かかる構成とすることによって、周囲に人
等(対象体)が存在するときに、外部からの情報に対応
した動作するようにした電子玩具を得ることが可能とな
る。それにより、電子玩具側からユーザにコミュニケー
ションを働きかけることが可能となる。また、電池(電
源)の節約にもなる。
With this configuration, it is possible to obtain an electronic toy that operates in response to external information when a person or the like (object) is present in the vicinity. As a result, communication can be made to the user from the electronic toy side. Also, the battery (power supply) can be saved.

【0012】好ましくは、更に、外部に情報を表示する
情報表示手段を備え、上記制御手段は、上記外部からの
情報に対応して上記情報表示手段を制御するための制御
パラメータを複数の制御パラメータの中から選択し、上
記情報表示手段の動作を制御して情報表示を行う。
Preferably, the apparatus further comprises information display means for externally displaying information, wherein the control means includes a plurality of control parameters for controlling the information display means in response to the external information. And information display is performed by controlling the operation of the information display means.

【0013】これにより、機構の動作と視覚的な表示に
よって外部の情報に対応した反応を示す電子玩具を得る
ことが可能となる。
Thus, it is possible to obtain an electronic toy exhibiting a reaction corresponding to external information by the operation of the mechanism and the visual display.

【0014】好ましくは、更に、外部に音声を出力する
音声発生手段を備え、上記制御手段は、上記外部からの
情報に対応して上記音声発生手段を制御するための制御
パラメータを複数の制御パラメータの中から選択し、上
記音声発生手段の動作を制御して音声出力を行う。
Preferably, the apparatus further comprises a sound generating means for outputting a sound to the outside, wherein the control means includes a plurality of control parameters for controlling the sound generating means in response to the information from the outside. And outputs the sound by controlling the operation of the sound generating means.

【0015】これにより、機構の動作と、視覚的な表示
と、音声出力とによって外部の情報に対応した反応を示
す電子玩具を得ることが可能となる。
[0015] Thus, it is possible to obtain an electronic toy which shows a response corresponding to external information by the operation of the mechanism, the visual display, and the audio output.

【0016】好ましくは、更に、特定人の生活リズムを
計算する手段と、該生活リズムにおけるイベント発生を
検出するイベント検出手段と、を備え、上記制御手段
は、該イベントに対応して上記動作機構、上記情報表示
手段及び上記音声発生手段の少なくともいずれかの制御
パラメータを選択する。
Preferably, the apparatus further includes means for calculating a specific person's life rhythm, and event detection means for detecting occurrence of an event in the life rhythm, wherein the control means includes an operation mechanism corresponding to the event. And selecting at least one of the control parameters of the information display means and the sound generation means.

【0017】かかる構成とすることによって、ユーザの
生活リズム(例えば、バイオリズム)に対応したコミュ
ニケーションを働きかける電子玩具を得ることが可能と
なる。
With this configuration, it is possible to obtain an electronic toy that works for communication corresponding to the user's life rhythm (for example, biorhythm).

【0018】好ましくは、更に、現在の時間を検出する
時計手段と、予め時間軸上において計画されたイベント
の発生を検出する検出手段と、を備え、上記制御手段
は、該イベントに対応して上記動作機構、上記情報表示
手段及び上記音声発生手段の少なくともいずれかの制御
パラメータを選択する。
Preferably, the apparatus further comprises clock means for detecting a current time, and detection means for detecting the occurrence of an event planned on a time axis in advance, wherein the control means responds to the event. A control parameter of at least one of the operation mechanism, the information display means, and the sound generation means is selected.

【0019】かかる構成とすることによって、ユーザの
時間的な生活行動パターンに対応したコミュニケーショ
ンを働きかける電子玩具を得ることが可能となる。
[0019] With this configuration, it is possible to obtain an electronic toy that works for communication corresponding to the temporal living behavior pattern of the user.

【0020】好ましくは、上記判別手段は、周囲の音声
及び/又は動きを検出する。
Preferably, the discriminating means detects surrounding voice and / or movement.

【0021】好ましくは、上記判別手段は、周囲の音声
及び/又は明るさ検出する。
Preferably, the discriminating means detects surrounding voice and / or brightness.

【0022】好ましくは、上記判別手段は、周囲の音声
を収集するマイク及び/又は周囲を撮影するカメラを備
える。
Preferably, the discriminating means includes a microphone for collecting surrounding sounds and / or a camera for photographing the surroundings.

【0023】かかる構成とすることによって、周囲の音
声、明るさ、移動体の存在などを検出することによって
電子玩具の近くにユーザがいることを検知可能とする。
With this configuration, it is possible to detect the presence of a user near the electronic toy by detecting surrounding sounds, brightness, the presence of a moving object, and the like.

【0024】好ましくは、上記動作機構は、人型ロボッ
トの構造を有し、人の「喜」「怒」「哀」「楽」の少な
くともいずれかを表現するように動作が制御される。
Preferably, the operation mechanism has a structure of a humanoid robot, and the operation is controlled so as to express at least one of “joy”, “anger”, “sorrow”, and “easy” of a person.

【0025】好ましくは、上記制御手段は、周囲に人が
存在しないと判断されたときに、予め定められた一人遊
び動作をする制御パラメータを選択する。一人遊び動作
は、ユーザからの入力とは関係なく動作するもので、例
えば、電子玩具の表示器に一人で遊ぶゲームの様子を表
示するものが含まれる。
Preferably, the control means selects a control parameter for performing a predetermined single-player action when it is determined that there is no person around. The single play operation is performed irrespective of an input from a user, and includes, for example, an operation of displaying a state of a game played alone on an electronic toy display.

【0026】好ましくは、電子玩具は人型をしており、
上記情報表示手段は顔に相当する部分に設けられ、顔の
表情や文字等の記号を表示する。
Preferably, the electronic toy has a human shape,
The information display means is provided at a portion corresponding to a face, and displays symbols such as facial expressions and characters.

【0027】好ましくは、更に、人の声を録音する記憶
手段を備える。これによって、ボイスメモやもの(声)
真似などが可能となる。
Preferably, the apparatus further comprises storage means for recording a human voice. With this, voice memos and things (voices)
Imitation is possible.

【0028】好ましくは、上記入力手段は、タッチセン
サ、マイク、光センサ、カメラ、○×スイッチ、状態セ
ンサ、の少なくともいずれかを含む。
Preferably, the input means includes at least one of a touch sensor, a microphone, an optical sensor, a camera, a switch, and a state sensor.

【0029】好ましくは、更に、電池の出力を検出する
手段を備え、上記制御手段は、更に、上記電池の出力が
低下したときに外部に情報を表示する情報表示手段又は
外部に音声を出力する音声発生手段によって警告を発生
する。例えば、警告音は、「電池がないと元気がでない
な」等の音声を出力する。これにより、電池不足をユー
ザ知らせることが可能となる。
Preferably, the apparatus further comprises means for detecting the output of the battery, wherein the control means further outputs information or information to externally display information when the output of the battery decreases. A warning is generated by the voice generating means. For example, the warning sound outputs a sound such as "I am not fine without batteries". This allows the user to be notified of the battery shortage.

【0030】また、本発明の電子玩具は、外部からの情
報に反応するように制御される電子玩具において、人間
型の構造体と、外部からの情報に対応して上記該構造体
の動作を制御する制御手段と、上記構造体に設けられて
外部の状況を撮影する小型カメラと、撮影した画像を外
部に伝送する通信手段と、を備える。
Further, the electronic toy of the present invention is an electronic toy controlled to respond to external information, wherein the operation of the human-like structure and the operation of the structure correspond to the external information. Control means for controlling, a small camera provided on the structure to capture an external situation, and communication means for transmitting the captured image to the outside.

【0031】かかる構成とすることによって、周囲の状
況を画像データとして把握、被写体の動きなどからユー
ザ(人)の存在を把握することが可能となる。
With this configuration, it is possible to grasp the surrounding situation as image data and to grasp the presence of a user (person) from the movement of the subject.

【0032】例えば、通信手段としては、赤外線(I
R)通信、PHS、携帯電話、有線通信、一般電話回線
等が利用可能である。
For example, as a communication means, infrared (I
R) Communication, PHS, mobile phone, wired communication, general telephone line, etc. can be used.

【0033】また、本発明の電子玩具は、人型の玩具の
胴部に配置される基本フレームと、上記基本フレームの
両側にそれぞれ設けられ、上記基本フレームに回動可能
に取り付けられる第1及び第2のサブフレームと、上記
第1及び第2のサブフレームにそれぞれ設けられる第1
及び第2の回転軸と、第1のモータによって駆動される
第3の回転軸に設けられたカム機構と、上記カム機構と
上記第1及び第2のサブフレーム相互間を連結して両サ
ブフレームを揺動するリンクと、第2のモータによって
駆動されるギア機構と、上記基本フレーム、上記第1及
び第2のサブフレーム間に渡って配置されて、上記ギア
機構の出力を上記第1及び第2の回転軸に伝達する伝達
機構と、を備える。
Further, the electronic toy of the present invention comprises a basic frame arranged on the body of a humanoid toy, and first and second rotatably mounted on the basic frame provided on both sides of the basic frame. A second subframe and a first subframe provided in each of the first and second subframes.
And a second rotating shaft, a cam mechanism provided on a third rotating shaft driven by a first motor, and connecting the cam mechanism and the first and second subframes to each other. A link that swings a frame, a gear mechanism driven by a second motor, and a gear mechanism that is disposed between the basic frame and the first and second sub-frames, and outputs the output of the gear mechanism to the first sub-frame. And a transmission mechanism for transmitting the rotation to the second rotation shaft.

【0034】かかる構成を備えることによって、肩、
腕、首が可動可能となる。それにより、疑似人間的な動
作表現を行うことができる。
By providing such a structure, the shoulder,
Arms and necks become movable. Thereby, a pseudo-human motion expression can be performed.

【0035】好ましくは、上記伝達機構は複数の歯車か
らなる歯車列によって構成され、両端の各歯車は上記第
1及び第2のサブフレーム内にそれぞれ配置されると共
に、上記第1及び第2の回転軸と傘歯車を介してそれぞ
れ噛合する。
Preferably, the transmission mechanism is constituted by a gear train composed of a plurality of gears, and respective gears at both ends are arranged in the first and second sub-frames, respectively, and the first and second gears are arranged. The rotation shaft and the bevel gear mesh with each other.

【0036】かかる構成によって肩を回動しながら同時
に腕も回動することが可能となる。
With this configuration, it is possible to simultaneously rotate the arm while rotating the shoulder.

【0037】好ましくは、上記第1のモータと上記第3
の回転軸相互間に過負荷から部材を保護するための第1
のクラッチ機構が設けられる。
Preferably, the first motor and the third motor
To protect the member from overload between the rotating shafts
Is provided.

【0038】好ましくは、上記ギア機構には過負荷から
部材を保護するための第2のクラッチ機構が設けられ
る。
[0038] Preferably, the gear mechanism is provided with a second clutch mechanism for protecting the member from overload.

【0039】また、本発明の電子玩具は、人型あるいは
動物型の電子玩具において、頭部の顔面相当頭部に文
字、記号が表示できる表示部を有し、身体に設けられた
複数の入力スイッチよりなる入力部を操作して入力され
る情報が上記顔面相当部に設けられた表示部で目視によ
り確認できるように構成されている。
Further, the electronic toy of the present invention is a human-type or animal-type electronic toy having a display portion capable of displaying characters and symbols on a head equivalent to the face of the head, and a plurality of input devices provided on the body. The information input by operating the input unit including the switch is configured to be visually confirmed on a display unit provided in the above-mentioned face equivalent unit.

【0040】また、本発明の電子玩具は、頭部と胴体部
を有する人型あるいは動物型の電子玩具において、頭部
の顔面相当部に文字、記号が表示できる表示部を有し、
胴体部には複数の入力スイッチよりなる入力部が設けら
れており、上記入力部における操作結果が上記顔面相当
部に設けられた表示部で目視により確認できるように構
成されている。
Further, the electronic toy of the present invention is a human-shaped or animal-type electronic toy having a head and a body, and has a display portion capable of displaying characters and symbols on a portion corresponding to the face of the head,
An input unit including a plurality of input switches is provided on the body unit, and the operation result of the input unit is configured to be visually confirmed on a display unit provided on the face equivalent unit.

【0041】また、本発明の電子ロボットは、人型ある
いは動物型の電子ロボットにおいて、頭部の顔面相当部
に文字、記号が表示できる表示部を有し、操作者が上記
ロボットの身体に設けられた複数の入力スイッチよりな
る入力部を操作して入力する情報が上記顔面相当部に設
けられた表示部で目視により確認できるように構成され
ている。
Further, the electronic robot of the present invention is a human-type or animal-type electronic robot, which has a display portion on a portion corresponding to the face of the head on which characters and symbols can be displayed. The information input by operating the input unit including the plurality of input switches is visually confirmed on a display unit provided in the above-mentioned face equivalent unit.

【0042】また、本発明の電子ロボットは、人型ある
いは動物型電子ロボットにおいて、頭部の顔面相当部に
文字、記号が表示できる表示部を有し、操作者が上記ロ
ボットの身体に設けられた複数の入力スイッチよりなる
入力部を操作して入力する情報が上記顔面相当部に設け
られた表示部に表示され、上記ロボットの表情を形成す
る。
Further, the electronic robot of the present invention is a humanoid or animal type electronic robot, which has a display portion capable of displaying characters and symbols on a portion corresponding to the face of the head, and wherein an operator is provided on the body of the robot. Information input by operating an input unit including a plurality of input switches is displayed on a display unit provided on the face-corresponding portion, and forms an expression of the robot.

【0043】好ましくは、上記制御パラメータには感情
パラメータが含まれ、この感情パラメータは、特定人の
バイオリズムあるいはロボットのバイオリズムとして表
される。これによって、ロボット自身の感情に基づく表
現が可能となる。
Preferably, the control parameters include an emotion parameter, and the emotion parameter is expressed as a specific person's biorhythm or a robot's biorhythm. This enables expression based on the emotions of the robot itself.

【0044】好ましくは、上記感情パラメータはイベン
トの発生によって影響を受ける。それにより、状況によ
って感情が臨機応変に変化するようになる。
Preferably, the emotion parameter is affected by the occurrence of the event. As a result, emotions change according to circumstances.

【0045】好ましくは、このイベントには、電子玩具
がユーザに対してなした質問に対する回答が含まれる。
質問対する回答次第では、感情が変化するように出来
る。
Preferably, the event includes an answer to a question asked by the electronic toy to the user.
Depending on the answers to the questions, the emotions can change.

【0046】好ましくは、上記質問には、予め質問に対
する予想回答に対して感情パラメータの変化が定義され
ている。これによつて、質問の回答毎に対する影響が異
なるようにすることが可能となる。
Preferably, in the question, a change in an emotion parameter with respect to an expected answer to the question is defined in advance. Thereby, it is possible to make the influence on each answer of the question different.

【0047】好ましくは、制御部は、上記感情パラメー
タに基づいて外部に表示すべき情報の選択及び/又は外
部に出力すべき音声の選択を行う。これによって、感情
に基づいて外部に表出される情報、音声、が得られる。
Preferably, the control section selects information to be displayed externally and / or selects sound to be output externally based on the emotion parameter. As a result, information and voice that are expressed to the outside based on the emotion can be obtained.

【0048】好ましくは、上記制御手段は、更に、上記
質問対する回答を記憶し、この回答に係るデータを使用
して定型文を形成する。回答結果を制御に利用(反映)
するものである。
Preferably, the control means further stores an answer to the question and forms a fixed phrase using data on the answer. Use answer results for control (reflect)
Is what you do.

【0049】また、本発明の電子玩具は、人型あるいは
動物型の電子玩具において、頭部の顔面相当部又は胴体
相当部に文字、記号が表示可能な表示部と、身体に設け
られた入力操作を行う入力手段と、複数の言葉を記憶す
る記憶手段と、上記言葉を選択して上記表示部に表示さ
せると共に、自己の感情を表す感情パラメータ値を出力
する関数を有する制御手段と、を備え、上記制御手段は
上記感情パラメータに基づいて上記言葉を選択し、これ
を上記表示部に表示させる。
Further, the electronic toy of the present invention is a human-type or animal-type electronic toy, wherein a display portion capable of displaying characters and symbols on a portion corresponding to the face or the body of the head and an input device provided on the body are provided. Input means for performing an operation, storage means for storing a plurality of words, and control means having a function of selecting the words and displaying the selected words on the display unit and outputting an emotion parameter value representing their own emotions. The control means selects the word based on the emotion parameter and causes the display unit to display the selected word.

【0050】かかる構成とすることによって、ロボット
の感情に基づく言葉の出力が可能となる。
With this configuration, it is possible to output words based on the emotions of the robot.

【0051】また、本発明の電子玩具は、人型あるいは
動物型の電子玩具において、音声データを音声として出
力する発声手段と、身体に設けられた入力操作を行う入
力手段と、複数の音声データを記憶する記憶手段と、上
記音声データを選択して上記発声部に与えると共に、自
己の感情を表す感情パラメータ値を出力する関数を有す
る制御手段と、を備え、上記制御手段は上記感情パラメ
ータに基づいて上記音声データを選択し、これを上記発
声手段に発声させる。
Further, the electronic toy of the present invention is a human-type or animal-type electronic toy, comprising: a voice generating means for outputting voice data as voice; an input means provided on the body for performing input operation; And a control unit having a function of selecting the voice data and providing the selected voice data to the utterance unit, and outputting an emotion parameter value representing the user's own emotion. The voice data is selected based on the voice data, and the voice data is generated by the voice generating means.

【0052】かかる構成とすることによって、ロボット
の感情に基づく音声の出力が可能となる。また、本発明
の電子玩具は、人型あるいは動物型の電子玩具におい
て、頭部の顔面相当部又は胴体相当部に文字、記号が表
示可能な表示部と、音声データを音声として出力する発
声手段と、身体に設けられた入力操作を行う入力手段
と、複数の言葉と複数の音声データとを記憶する記憶手
段と、上記言葉を選択して上記表示部に表示させると共
に、自己の感情を表す感情パラメータ値を出力する関数
を有する制御手段と、を備え、上記制御手段は上記感情
パラメータに基づいて上記言葉及び上記音声データの選
択を行い、これ等を上記表示部及び上記発声手段に供給
する。
With this configuration, it is possible to output a voice based on the emotion of the robot. Further, the electronic toy of the present invention is a human- or animal-type electronic toy, a display portion capable of displaying characters and symbols on a portion corresponding to a face or a body of a head, and a vocalization means for outputting voice data as voice. And input means for performing an input operation provided on the body, storage means for storing a plurality of words and a plurality of voice data, and selecting and displaying the words on the display unit, and expressing their own emotions Control means having a function for outputting an emotion parameter value, wherein the control means selects the words and the voice data based on the emotion parameters, and supplies them to the display unit and the utterance means. .

【0053】かかる構成とすることによって、ロボット
の感情に基づく言葉及び音声の出力が可能となる。
With this configuration, it is possible to output words and voices based on the emotions of the robot.

【0054】好ましくは、上記感情パラメータは最大値
と最小値間で経時的に変化する。
Preferably, the emotion parameter changes with time between a maximum value and a minimum value.

【0055】好ましくは、上記制御手段は、上記文字又
は音声によって質問を行い、これに対する入力操作に応
じて上記感情パラメータの値を変化させる。ユーザの質
問に対する回答次第で電子玩具の感情が変化するように
なる。
Preferably, the control means asks a question using the character or voice, and changes the value of the emotion parameter according to an input operation for the question. The emotion of the electronic toy changes depending on the answer to the user's question.

【0056】好ましくは、上記質問には、予め複数が記
憶されており、各質問に対する予想回答に対して上記感
情パラメータの変化が定義されている。質問毎に感情の
変化の程度が異なるので面白い。
Preferably, a plurality of questions are stored in advance, and a change in the emotion parameter is defined for an expected answer to each question. Interesting because the degree of emotional change is different for each question.

【0057】好ましくは、上記質問には、予め複数が記
憶されており、各質問に対する予想回答に対して電子玩
具とユーザとの親密度が定義されていることを特徴とす
る。
Preferably, a plurality of questions are stored in advance, and the degree of intimacy between the electronic toy and the user is defined for an expected answer to each question.

【0058】好ましくは、上記制御手段は、更に、上記
質問に対する回答を記憶し、この回答に係るデータを使
用して定型文を形成する。
Preferably, the control means further stores an answer to the question and forms a fixed phrase by using data relating to the answer.

【0059】好ましくは、上記制御部は、各質問によっ
て得られた親密度を蓄積し、これが所定値を超えると上
記表示部及び/又は上記発声手段に特定の感情を表現す
るデータを供給する。これにより、電子玩具がそのユー
ザに対して親愛なる表現を行うことを可能とする。
Preferably, the control section accumulates the intimacy obtained by each question, and supplies a data expressing a specific emotion to the display section and / or the vocal means when the intimacy degree exceeds a predetermined value. This enables the electronic toy to perform dear expressions for the user.

【0060】好ましくは、上記質問には、上記感情パラ
メータに影響する質問と、影響しない質問とがある。
[0060] Preferably, the questions include questions that affect the emotion parameter and questions that do not.

【0061】好ましくは、予め、上記感情パラメータの
最大値と最小値間に複数のゾーンが定義され、上記言葉
や音声データが各ゾーンに振り分けられており、上記制
御手段は、現在の感情パラメータ値がいずれのゾーンに
属するかによって該当するゾーンの言葉や音声データを
選択する。
Preferably, a plurality of zones are defined in advance between the maximum value and the minimum value of the emotion parameter, and the words and voice data are distributed to each zone. The words and voice data of the corresponding zone are selected according to which zone the.

【0062】好ましくは、上記制御手段は、特定のゾー
ンで、更に、人型あるいは動物型を構成する部分の機械
的な動きを伴う特別の動作を行う制御を選択する。全体
の動作を行うことによって大きいインパクトをユーザに
与えることが可能となる。
Preferably, the control means selects a control for performing a special operation involving a mechanical movement of a part constituting a humanoid or animal type in a specific zone. By performing the entire operation, a great impact can be given to the user.

【0063】好ましくは、上記制御手段は、更に、上記
感情パラメータをその最大値と最小値間に短周期で変化
させる展示モードを備える。このようにすることによっ
て、ショーウィンドウの中で電子玩具の特徴を短時間で
アピールすることが可能となる。
Preferably, the control means further comprises an exhibition mode for changing the emotion parameter between its maximum value and its minimum value in a short period. By doing so, it becomes possible to appeal the characteristics of the electronic toy in the shop window in a short time.

【0064】好ましくは、更に、電子玩具をネットワー
クに接続する接続手段を備え、上記ネットワークに接続
されたサーバ装置から上記言葉、音声データを上記記憶
手段にダウンロードする。これにより、言葉や音声のデ
ータ、制御データ等を更新することが可能となる。
Preferably, the apparatus further comprises a connection means for connecting the electronic toy to a network, and downloads the words and voice data to the storage means from a server device connected to the network. This makes it possible to update words and voice data, control data, and the like.

【0065】好ましくは、上記ダウンロードされる言
葉、音声データは時事用語である。今風の玩具となって
面白い。
Preferably, the words and audio data to be downloaded are topical words. Interesting as a modern toy.

【0066】好ましくは、上記ダウンロードされる言
葉、音声データはユーザの特性に対応した用語である。
これにより、ユーザに適した言葉が選ばれる。
Preferably, the words and audio data to be downloaded are terms corresponding to the characteristics of the user.
Thereby, a word suitable for the user is selected.

【0067】好ましくは、更に、電子玩具同士を接続す
る接続手段を備え、接続された相手の電子玩具からそれ
が記憶しいる言葉、音声データを上記記憶手段に受け取
る。これにより、玩具同士でデータ交換を行うことが可
能となる。
Preferably, the electronic toy further comprises a connecting means for connecting the electronic toys, and the storage means receives the words and voice data stored therein from the connected electronic toy. Thereby, it is possible to exchange data between toys.

【0068】好ましくは、上記接続手段は、通信ケーブ
ル、PHS、携帯電話、パソコンの少なくともいずれか
を含む。
Preferably, the connection means includes at least one of a communication cable, a PHS, a mobile phone, and a personal computer.

【0069】好ましくは、電子玩具同士で文字データ交
換を行い、交換したデータを定型文に組み込んで模擬会
話を行う。これにより、電子玩具同士が会話をしている
ように見せることが可能となる。
Preferably, character data is exchanged between the electronic toys, and the exchanged data is incorporated into a fixed phrase for a simulated conversation. This makes it possible to make it appear that the electronic toys are having a conversation.

【0070】また、本発明の電子玩具は、人型あるいは
動物型の電子玩具において、周囲の音声を検出するする
音声検出手段と、頭部の顔面相当部又は胴体相当部に文
字、記号が表示可能な表示部と、複数の表情を記憶する
記憶手段と、自己の感情を表す感情パラメータ値を出力
する関数を有し、上記感情パラメータに基づいて上記表
情を選択し、これを上記表示部に表示させる制御手段
と、を備え、上記制御手段は、上記音声が所定レベル以
上であって所定時間以上継続するとき、上記感情パラメ
ータを不快の状態に設定する、ことを特徴とする。
In the electronic toy of the present invention, a human or animal type electronic toy is provided with a voice detecting means for detecting a surrounding voice, and characters and symbols displayed on a portion corresponding to the face or torso of the head. Possible display unit, storage means for storing a plurality of facial expressions, and a function to output an emotion parameter value representing its own emotion, select the facial expression based on the emotion parameters, and display it on the display unit And control means for displaying the emotion parameter in an unpleasant state when the voice is at a predetermined level or more and continues for a predetermined time or more.

【0071】かかる構成とすることによって、電子玩具
に大きな音を継続して与えると、これをいやがる表情や
仕草が行われる。
With such a configuration, when a loud sound is continuously given to the electronic toy, the expression or gesture that dislikes the sound is performed.

【0072】また、本発明の電子玩具は、人型あるいは
動物型の電子玩具において、頭部の顔面相当部又は胴体
相当部に文字、記号が表示可能な表示部と、複数の表情
を記憶する記憶手段と、身体に設けられた入力操作を行
う入力手段と、自己の感情を表す感情パラメータ値を出
力する関数を有し、上記感情パラメータに基づいて上記
表情を選択し、これを上記表示部に表示させる制御手段
と、を備え、上記制御手段は、上記入力手段が連続的に
所定時間又は所定回数操作されたときに、上記感情パラ
メータに対応した表情の選択を行う、ことを特徴とす
る。
The electronic toy of the present invention is a human-type or animal-type electronic toy, in which a display portion capable of displaying characters and symbols on a portion corresponding to a face or a body of a head and a plurality of facial expressions are stored. Storage means, input means provided on the body for performing an input operation, and a function for outputting an emotion parameter value representing own emotion, selecting the expression based on the emotion parameter, and displaying the selected expression on the display unit Control means for displaying an expression corresponding to the emotion parameter when the input means is continuously operated for a predetermined time or a predetermined number of times. .

【0073】かかる構成とすることによって、電子玩具
を叩いたり、なでりすると、そのときの感情に応じた表
情や動作が期待可能となる。
With this configuration, when the user hits or strokes the electronic toy, it is possible to expect a facial expression or motion according to the emotion at that time.

【0074】好ましくは、上記感情パラメータが不快を
示す状態では、怒りの表情が前記表示部に表示される。
Preferably, when the emotion parameter indicates discomfort, an expression of anger is displayed on the display unit.

【0075】好ましくは、上記連続的な操作に対応して
選択される表情が、叩かれて痛がる表情又はなでられて
喜ぶ表情である。
Preferably, the facial expression selected in response to the continuous operation is a facial expression that is painful when struck or a facial expression that is pleasantly stroked.

【0076】また、本発明の電子玩具は、人型あるいは
動物型の電子玩具において、頭部の顔面相当部又は胴体
相当部に文字、記号が表示可能な表示部と、複数の表情
を記憶する記憶手段と、周囲の明るさを検出可能な光セ
ンサと、自己の感情に対応する表情を選択し、これを上
記表示部に表示させる制御手段と、を備え、上記制御手
段は、上記光センサが所定時間以上暗い状態を検出した
ときに、目を閉じる表情を選択する、ことを特徴とす
る。
Further, the electronic toy of the present invention is a human-type or animal-type electronic toy, in which a display portion capable of displaying characters and symbols on a portion corresponding to a face or a body of a head and a plurality of facial expressions are stored. Storage means, an optical sensor capable of detecting ambient brightness, and control means for selecting an expression corresponding to his / her own emotion and displaying the selected expression on the display unit, wherein the control means comprises: Select a facial expression that closes the eyes when detecting a dark state for a predetermined time or more.

【0077】かかる構成とすることによって、眠りにつ
く状態を表現可能となる。
With this configuration, it is possible to express a state of falling asleep.

【0078】好ましくは、上記制御手段は、更に、人型
あるいは動物型を構成する機械的部分を動作させて、眠
りにつくのをいやがる感情を表現する。
[0078] Preferably, the control means further operates a mechanical part constituting a humanoid or animal type to express an emotion reluctant to fall asleep.

【0079】好ましくは、上記感情を表す感情パラメー
タ値を出力する関数の初期値は、ランダムに設定され
る。
Preferably, the initial value of the function for outputting the emotion parameter value representing the emotion is set at random.

【0080】かかる構成とすることによって、各電子玩
具の動作の始まりの状態が異なるようになるので各玩具
が個性化されて面白い。
With this configuration, each electronic toy has a different starting state of operation, so that each toy is individualized and interesting.

【0081】本発明の電子玩具は、人型あるいは動物型
の電子玩具であって、頭部の顔面相当部又は胴体相当部
に文字、記号が表示可能な表示部と、人型あるいは動物
型を構成し、可動に構成される機械的部分と、電子メー
ルに添付されたファイルからメッセージと制御情報を判
別し、前記メッセージを前記表示部に表示すると共に、
前記制御情報に対応して前記機械的部分を動作させる制
御部と、を備える。
The electronic toy of the present invention is a human-shaped or animal-shaped electronic toy, in which a display portion capable of displaying characters and symbols on a portion corresponding to a face or a body corresponding to a head, and a human-shaped or animal-shaped. Configured, mechanical parts configured to be movable, and determine the message and control information from the file attached to the e-mail, while displaying the message on the display unit,
A control unit that operates the mechanical part according to the control information.

【0082】好ましくは、前記添付されるファイルは音
声ファイルである。
Preferably, the attached file is an audio file.

【0083】好ましくは、前記音声ファイルはコンピュ
ータによって音声信号に再生され、前記音声信号が前記
制御部に供給される。
[0083] Preferably, the audio file is reproduced into an audio signal by a computer, and the audio signal is supplied to the control unit.

【0084】好ましくは、前記制御情報は、予め前記制
御部が記憶している動作を指定するものである。
Preferably, the control information specifies an operation stored in the control unit in advance.

【0085】好ましくは、前記制御情報は、前記制御部
に前記機械的部分の一連の制御手順を指定するものであ
る。
Preferably, the control information specifies a series of control procedures for the mechanical part to the control unit.

【0086】好ましくは、前記制御情報が添付されてい
ない場合、前記制御部は前記機械的部分の適当な動きを
選択する。
Preferably, when the control information is not attached, the control unit selects an appropriate movement of the mechanical part.

【0087】好ましくは、前記制御情報は、ロボットの
喜怒哀楽等の感情を表現するものである。
Preferably, the control information expresses emotions of the robot, such as emotions and joys.

【0088】本発明の電子メール方法は、入力される、
受信者の電子玩具に表示すべきメッセージと前記電子玩
具にさせるべき動作とを音声信号に変換する過程と、前
記音声信号を音声ファイルに変換し、これを電子メール
の添付ファイルとする過程と、当該音声ファイル付き電
子メールを発信者端末装置から受信者端末装置に送信す
る過程と、受信者端末装置で前記電子メールを受信し、
前記音声ファイルを再生して音声信号を得る過程と、前
記再生された音声信号を受信者端末装置から前記電子玩
具に転送する過程と、前記電子玩具に前記メッセージの
表示と前記動作とを行わせる過程と、を含む。
The e-mail method of the present invention comprises the steps of
A step of converting a message to be displayed on the electronic toy of the recipient and an operation to be performed by the electronic toy into a voice signal, a step of converting the voice signal into a voice file, and converting the voice signal into an attached file of an email; A step of transmitting the e-mail with the voice file from the sender terminal to the receiver terminal, and receiving the e-mail at the receiver terminal;
Reproducing the audio file to obtain an audio signal, transferring the reproduced audio signal from a receiver terminal device to the electronic toy, and causing the electronic toy to display the message and perform the operation. And a process.

【0089】本発明の電子玩具は、人型あるいは動物型
の電子玩具であって、人型あるいは動物型の一対の可動
の脚を構成する脚部構造体と、出力すべき音声に対応し
て前記脚の動きを制御する制御部と、を備える。
The electronic toy of the present invention is a human-shaped or animal-shaped electronic toy, and has a leg-shaped structure constituting a pair of human-shaped or animal-shaped movable legs and a sound to be output. A control unit for controlling the movement of the leg.

【0090】好ましくは、前記制御部は、前記音声の大
小やリズムに対応して前記脚の動きの速さを設定する。
Preferably, the control unit sets the speed of the movement of the leg in accordance with the volume or rhythm of the voice.

【0091】好ましくは、前記一対の脚の動きは、前記
脚を左右方向に開閉する動作である。
[0091] Preferably, the movement of the pair of legs is an operation of opening and closing the legs in the left-right direction.

【0092】好ましくは、前記脚の一方の足底には滑り
防止手段が施され、前記脚の他方の足底には滑り手段が
施される。
[0092] Preferably, one sole of the leg is provided with slip prevention means, and the other sole of the leg is provided with slip means.

【0093】好ましくは、前記脚部構造体は、少なくと
も一方向に回動可能な一対の股関節部が左右に設けられ
た腰部フレームと、前記一対の股関節部にそれぞれ連結
される一対の脚部と、各脚部に一端が取り付けられて他
端が当該脚部の股関節部を超えて前記腰部フレームの内
部に延在する一対の駆動軸と、各駆動軸の他端部を相互
に連結するリンク部材と、少なくとも一方の前記駆動軸
の前記他端部と前記リンク部材との間に介在して、前記
駆動軸の各一端部側を広狭に変化させるカム機構と、前
記脚部の一方に内蔵されて前記一方の前記駆動軸を回転
駆動するモータと、を含む。
[0093] Preferably, the leg structure includes a waist frame provided with a pair of left and right hip joints rotatable in at least one direction, and a pair of leg portions respectively connected to the pair of hip joints. A pair of drive shafts having one end attached to each leg and the other end extending beyond the hip joint of the leg and into the waist frame, and a link interconnecting the other end of each drive shaft. A member, a cam mechanism interposed between the other end of at least one of the drive shafts and the link member to change one end side of the drive shaft to wide and narrow, and built into one of the legs. And a motor that drives the one of the drive shafts to rotate.

【0094】好ましくは、前記駆動軸の他端部と前記リ
ンク部材相互間又は前記カムと前記リンク部材相互間は
球状の係合部材を介して連結される。
[0094] Preferably, the other end of the drive shaft and the link members or the cam and the link members are connected via a spherical engaging member.

【0095】好ましくは、前記一対の駆動軸のうちの他
方の駆動軸の一端部に設けられて地面あるいは床面を滑
るようになされた滑り手段と、を含む。
Preferably, a sliding means is provided at one end of the other drive shaft of the pair of drive shafts so as to slide on the ground or floor.

【0096】好ましくは、前記脚部の他方は、前記股関
節部に前後方向に回動可能に連結される膝上部と、この
膝上部と前後方向に回動可能に連結される膝下部と、前
記一対の駆動軸のうちの他方の駆動軸の一端部と左右方
向に回動可能に連結される接地部と、を含み、前記膝下
部の下面には突起が形成され、前記接地部の上面には前
記突起部が接触する傾斜面が形成されて、前記脚部の開
閉動作に伴って前記突起部が押し上げられ、前記膝上部
と前記膝下部との連結部が曲がるように構成される。
[0096] Preferably, the other of the legs has an upper knee portion rotatably connected to the hip joint portion in the front-rear direction, a lower knee portion rotatably connected to the upper knee portion in the front-rear direction, A ground contact portion rotatably connected to one end of the other drive shaft of the pair of drive shafts in the left and right direction, a projection is formed on the lower surface of the lower part of the knee, and the upper surface of the ground portion Is formed such that an inclined surface with which the protruding portion contacts is formed, and the protruding portion is pushed up in accordance with the opening and closing operation of the leg portion, so that a connecting portion between the upper knee portion and the lower knee portion is bent.

【0097】好ましくは、前記滑り手段がローラであ
る。
Preferably, the sliding means is a roller.

【0098】好ましくは、前記カム機構への前記係合部
材の取り付け位置によって脚の開閉加減を調整可能とし
たことを特徴とする。
Preferably, the opening and closing of the legs can be adjusted according to the mounting position of the engaging member on the cam mechanism.

【0099】本発明の電子玩具は、両足を前後に動作さ
せて2足歩行を行う歩行機構を備える電子玩具におい
て、片足の動作機構が、腰部フレームと、前記腰部フレ
ームに回動可能に連結される膝上部と、前記膝上部に回
動可能に連結される膝下部と、前記膝下部に回動可能に
連結される接地部と、前記腰部フレームに設けられて回
転駆動されるカムプーリと、前記カムプーリに設けられ
る第1のカムと、前記カムプーリに設けられる第2のカ
ムと、前記第1のカムによって前記接地部を上下方向に
揺動する長手部材と、前記第2のカムによって前記膝下
部を前後方向に揺動する短手部材と、を含む。
The electronic toy according to the present invention is an electronic toy having a walking mechanism for performing bipedal walking by moving both feet back and forth, wherein the one-legged operation mechanism is rotatably connected to the waist frame and the waist frame. A knee upper part, a knee lower part rotatably connected to the knee upper part, a ground contact part rotatably connected to the knee lower part, a cam pulley provided on the waist frame and driven to rotate, A first cam provided on a cam pulley, a second cam provided on the cam pulley, a longitudinal member for vertically swinging the ground contacting portion by the first cam, and a lower part of the knee by the second cam. And a short member that swings in the front-rear direction.

【0100】かかる構成とすることによって、両足を交
互に繰り出して前進あるいは後退する際に接地部(足)
の先端(爪先)あるいは後端(踵)を適当な角度に持ち
上げて移動することが可能となる。
With this configuration, when the feet are alternately extended and forward or backward, the ground contact portion (foot)
The tip (toe) or the rear end (heel) of the tongue can be lifted and moved at an appropriate angle.

【0101】また、本発明の電子玩具は、両足を前後に
動作させて2足歩行を行う歩行機構を備える電子玩具に
おいて、片足の動作機構が、腰部フレームと、上記腰部
フレームに回動可能に連結される膝上部と、上記膝上部
に回動可能に連結される膝下部と、上記膝下部に回動可
能に連結される接地部と、上記腰部フレームに設けられ
て回転駆動されるカムと、上記カムによって上記接地部
を上下方向に揺動する長手部材と、上記カムによって上
記膝下部を前後方向に揺動する短手部材と、を含む。
Further, the electronic toy according to the present invention is an electronic toy having a walking mechanism for performing bipedal walking by moving both feet back and forth, wherein the one-legged operating mechanism is rotatable about the waist frame and the waist frame. An upper knee connected to the upper knee, a lower knee rotatably connected to the upper knee, a ground contact portion rotatably connected to the lower knee, and a cam provided on the waist frame and driven to rotate. A long member that swings the ground contact portion in the vertical direction by the cam, and a short member that swings the lower part of the knee in the front-rear direction by the cam.

【0102】かかる構成とすることによって、両足を交
互に繰り出して前進あるいは後退する際に、接地部
(足)の先端(爪先)あるいは後端(踵)をより大きい
角度に持ち上げて移動することが可能となる。
With this configuration, when the both feet are alternately extended and forward or backward, the tip (toe) or the rear end (heel) of the contact portion (foot) can be lifted and moved to a larger angle. It becomes possible.

【0103】好ましくは、上記長手部材は、ガイド部材
が係合する案内穴と上記カムに接する押し下げプレート
とを備える。押し下げプレートは、接地部を押し下げる
と共に、長手部材の上限位置を設定する。それにより、
接地部のより大きい傾斜と上がり過ぎとを防止可能であ
る。
Preferably, the elongate member includes a guide hole with which the guide member is engaged and a push-down plate in contact with the cam. The push-down plate pushes down the contact portion and sets the upper limit position of the longitudinal member. Thereby,
It is possible to prevent a larger inclination and excessive rise of the ground contact portion.

【0104】好ましくは、上記接地部の先端を押し下げ
る方向に付勢する付勢手段を更に備える。それにより、
先端部の摩擦力、歩行の駆動力を増大して歩行能力や歩
行の安定、走破性を向上させることが可能となる。
Preferably, there is further provided an urging means for urging the tip of the ground contact portion in a direction of pushing down. Thereby,
By increasing the frictional force at the distal end and the driving force for walking, it is possible to improve walking ability, walking stability, and running performance.

【0105】好ましくは、前記電子玩具の大きさが約3
0cmである。この程度の大きさの願に好適な機構であ
る。
Preferably, the size of the electronic toy is about 3
0 cm. This mechanism is suitable for a request of this size.

【0106】好ましくは、前記接地部に、当該2足歩行
機構の進行方向に対して斜め方向に駆動する斜め方向駆
動手段を設けている。
Preferably, the ground contact portion is provided with a diagonal driving means for driving the biped walking mechanism diagonally with respect to the traveling direction.

【0107】好ましくは、前記斜め方向駆動手段は、回
転駆動される駆動ローラ又は駆動ベルトを含んで構成さ
れる。
Preferably, the oblique driving means includes a driving roller or a driving belt which is driven to rotate.

【0108】好ましくは、前記駆動ローラ又は駆動ベル
トは複数設けられる。
Preferably, a plurality of drive rollers or drive belts are provided.

【0109】好ましくは、前記斜め方向駆動手段は、両
足の各接地部に設けられ、両斜め方向駆動手段の各駆動
方向が略同一の曲率の円周上に存在するようになされ
る。
Preferably, the oblique driving means is provided at each of the grounding portions of both feet, and each driving direction of the two oblique driving means is present on a circumference having substantially the same curvature.

【0110】好ましくは、前記接地部のつま先側に前記
両斜め方向駆動手段を設け、前記接地部のかかと側に滑
りローラを設けた、ことを特徴とする。
[0110] Preferably, the oblique driving means is provided on the toe side of the grounding portion, and a sliding roller is provided on the heel side of the grounding portion.

【0111】本発明は、両足を前後に動作させて2足歩
行を行う歩行機構を備える電子玩具であって、前記足の
底部に、当該2足歩行機構の進行方向に対して斜め方向
に駆動する斜め方向駆動手段を設けた、ことを特徴とす
る。
The present invention relates to an electronic toy having a walking mechanism for bipedal walking by moving both feet back and forth, wherein the toy is driven obliquely with respect to the traveling direction of the bipedal walking mechanism on the bottom of the foot. Characterized in that an oblique driving means is provided.

【0112】好ましくは、前記斜め方向駆動手段は、回
転駆動される駆動ローラ又は駆動ベルトを含んで構成さ
れる。
Preferably, the oblique driving means includes a driving roller or a driving belt which is driven to rotate.

【0113】好ましくは、前記駆動ローラ又は駆動ベル
トは複数設けられる、ことを特徴とする。
Preferably, a plurality of the driving rollers or driving belts are provided.

【0114】好ましくは、前記斜め方向駆動手段は、両
足の各接地部に設けられ、両斜め方向駆動手段の各駆動
方向が略同一の曲率の円周上に存在するようになされ
る。
Preferably, the oblique driving means is provided at each of the grounding portions of both feet, and each driving direction of both oblique driving means is present on a circumference having substantially the same curvature.

【0115】好ましくは、前記接地部のつま先側に前記
両斜め方向駆動手段を設け、前記接地部のかかと側に滑
りローラを設けた、ことを特徴とする。
It is preferable that the oblique driving means is provided on the toe side of the grounding portion, and a sliding roller is provided on the heel side of the grounding portion.

【0116】[0116]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面参照しつつ説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0117】図1乃至図4は、電子玩具(家庭用ロボッ
ト)としての人間型ロボット(ペットロボット)の例を
示しており、各図はそれぞれ該ロボットの正面図、背面
図、上面図及び側面図を示している。
FIGS. 1 to 4 show an example of a humanoid robot (pet robot) as an electronic toy (home robot). Each figure shows a front view, a rear view, a top view, and a side view of the robot. FIG.

【0118】ロボット1は、頭部10、胴部20、左右
の腕部30、左右の脚部40を含んで構成される。頭部
10と胴部20との相互間は首関節K6により回動可能
に連結されている。胴部20と腕部30は肩関節K1に
よって回動可能に連結されている。腕部30には、肘関
節K2及び手首関節K3が設けられており、腕部30の
自由な折り曲げを可能としている。胴部20と脚部40
との相互間は股関節K4によって回動可能に連結されて
いる。また、脚部40には、膝関節K5が設けられてい
ている。
The robot 1 includes a head 10, a trunk 20, left and right arms 30, and left and right legs 40. The head 10 and the torso 20 are rotatably connected to each other by a neck joint K6. The trunk 20 and the arm 30 are rotatably connected by a shoulder joint K1. The arm 30 is provided with an elbow joint K2 and a wrist joint K3, so that the arm 30 can be freely bent. Body 20 and legs 40
Are rotatably connected to each other by a hip joint K4. The leg 40 is provided with a knee joint K5.

【0119】頭部10には、後述の、ロボット制御を行
うマイクロコンピュータシステム、ユーザとロボット間
のコミュニケーションを行うためのウインドウ表示部、
音声を収集する音センサ、周囲の情報を取得する光セン
サ(あるいはカメラ)、タッチセンサ、ロボットの音声
を発生するスピーカ、等が設けられている。また、頭部
10には、頭部10の図示しない内部フレームを回転す
る後述の首振り機構や、前後方向に頭部10を動かす、
図示しないうなずき機構が設けられている。これは、首
の関節K6に相当する。
The head 10 has a microcomputer system for controlling the robot, a window display for communicating between the user and the robot, which will be described later,
A sound sensor for collecting voice, an optical sensor (or camera) for obtaining surrounding information, a touch sensor, a speaker for generating a voice of the robot, and the like are provided. In addition, the head 10 has a swing mechanism that rotates an internal frame (not shown) of the head 10, and the head 10 is moved in the front-rear direction.
A nod mechanism (not shown) is provided. This corresponds to the neck joint K6.

【0120】胴部20には、動力源としてのモータ、左
右の腕部30を肩関節部K1のZ軸(図1の上下方向)
回りに回動させる腕開閉機構、左右の腕部30を肩関節
部K1のX軸(図1の左右方向)回りに回動させる腕回
転機構、頭部10をZ軸回りに回動させる首回転機構を
含んでいる。また、胴部20には、検出スイッチとして
の「○」、「×」スイッチ54が設けられている。
A motor as a power source and the left and right arms 30 are mounted on the body 20 in the Z axis of the shoulder joint K1 (vertical direction in FIG. 1).
An arm opening / closing mechanism for turning around, an arm rotating mechanism for turning left and right arms 30 around the X axis (the left-right direction in FIG. 1) of the shoulder joint K1, and a neck for turning the head 10 around the Z axis. Includes rotating mechanism. The body 20 is provided with “O” and “X” switches 54 as detection switches.

【0121】左右の脚部40の内部には、上記モータや
マイクロコンピュータシステム等を作動させる電源とし
ての電池が配置されている。なお、電池は、胴部20や
腕部30に配置することが可能である。胴部20に電池
を配置した場合には、膝関節K5の折り曲げが可能とな
る。
A battery as a power source for operating the motor, the microcomputer system, and the like is disposed inside the left and right legs 40. The battery can be arranged on the trunk 20 and the arm 30. When the battery is arranged on the torso 20, the knee joint K5 can be bent.

【0122】なお、各腕の内部や各脚部の内部に電磁石
やマイクロモータ等によるアクチュエータを配置するこ
とによって腕や脚の折り曲げが可能となり、より人間に
近いを動きをさせることが可能となる。
By arranging an actuator such as an electromagnet or a micromotor inside each arm or each leg, the arms and legs can be bent, and a movement closer to a human can be made. .

【0123】上述した、電子ロボットは人型であるが、
動物型の電子ロボットであってもよい。また、頭部の顔
面相当部に文字、記号が表示できる表示部71には、操
作者が上記ロボットの身体に設けられた複数の入力スイ
ッチ51、54等よりなる入力部を操作して入力する情
報が上記顔面相当部に設けられた表示部71で目視によ
り確認できるように構成されている。
The electronic robot described above is a humanoid,
An animal-type electronic robot may be used. In addition, an operator operates the input unit including a plurality of input switches 51 and 54 provided on the body of the robot and inputs the information to the display unit 71 on which characters and symbols can be displayed on a portion corresponding to the face of the head. The information can be visually confirmed on the display unit 71 provided in the above-mentioned face equivalent part.

【0124】図5乃至図8は、胴部20に内蔵される機
械構造体を説明する図である。図5は、該機械構造体の
正面図、図6は、機械構造体の斜視図を示している。図
7は、機械構造体における上述した腕開閉機構及び首回
転機構に相当する部分を示した説明図である。図8は、
機械構造体における上述した腕回転機構に相当する部分
を示した説明図である。
FIGS. 5 to 8 are views for explaining the mechanical structure incorporated in the body 20. FIG. FIG. 5 is a front view of the mechanical structure, and FIG. 6 is a perspective view of the mechanical structure. FIG. 7 is an explanatory diagram showing portions corresponding to the above-described arm opening / closing mechanism and neck rotation mechanism in the mechanical structure. FIG.
It is explanatory drawing which showed the part corresponding to the above-mentioned arm rotation mechanism in a mechanical structure.

【0125】図5及び図6に示すように、機械構造体2
00は、基本フレーム201、サブフレーム202、首
(頭部)回転機構210(図7参照)、腕(あるいは
肩)開閉機構220(図7参照)、腕回転機構230
(図8参照)、首(頭部)回転軸203、腕回転軸20
4、第1のモータ205、第2のモータ206、各モー
タをフレーム201に固定するモータ取り付けプレート
207等によって構成されている。
As shown in FIGS. 5 and 6, the mechanical structure 2
Reference numeral 00 denotes a basic frame 201, a sub-frame 202, a neck (head) rotation mechanism 210 (see FIG. 7), an arm (or shoulder) opening / closing mechanism 220 (see FIG. 7), and an arm rotation mechanism 230.
(See FIG. 8), neck (head) rotation shaft 203, arm rotation shaft 20
4, a first motor 205, a second motor 206, a motor mounting plate 207 for fixing each motor to the frame 201, and the like.

【0126】サブフレーム202は略「コの字」状の形
状をしており、基本フレーム201の左右の両側に、フ
レーム201に対してZ軸回りに回動自在になるように
それぞれ設けられている。サブフレームの内側には、動
力の伝達方向を変える傘歯車機構が設けられており、サ
ブフレーム202がZ軸回りに回動しても腕回転軸20
4に動力が伝達されるようにしている。
The sub-frame 202 has a substantially U-shape and is provided on each of the left and right sides of the basic frame 201 so as to be rotatable around the Z axis with respect to the frame 201. I have. A bevel gear mechanism for changing the power transmission direction is provided inside the sub-frame, and the arm rotation shaft 20 is provided even when the sub-frame 202 rotates around the Z-axis.
4 to be transmitted to the vehicle.

【0127】図7に示すように、首回転機構210及び
腕開閉機構220は、第1のモータ205によって駆動
される。モータ205の回転軸は動力の伝達方向の変更
とトルク変換を行うウォームギア機構211に接続され
ており、安全装置としてのスプリングクラッチ機構21
2を介して頭部回転軸203を回動させる。頭部回転軸
203の上端部には、頭部10の図示しないフレームに
結合され、頭部10をZ軸回りに回動させる。あるい
は、頭部回転軸203の上端部にウォームギア機構を設
け、x軸回りの回動を得るようにすることによって、頭
部が前後に頷くような動作を可能とする。頭部回転軸2
03の下端部には、腕開閉機構220が接続される。ス
プリングクラッチ機構212は頭部回転軸203やサブ
フレーム(腕開閉機構)202に過負荷が加わった際
に、滑りを起こして部品の破損を防止する。
As shown in FIG. 7, the neck rotation mechanism 210 and the arm opening / closing mechanism 220 are driven by a first motor 205. The rotating shaft of the motor 205 is connected to a worm gear mechanism 211 for changing the power transmission direction and converting the torque, and a spring clutch mechanism 21 as a safety device.
2, the head rotation shaft 203 is rotated. The upper end of the head rotation shaft 203 is coupled to a frame (not shown) of the head 10 to rotate the head 10 around the Z axis. Alternatively, a worm gear mechanism is provided at the upper end of the head rotating shaft 203 so as to obtain rotation about the x-axis, thereby enabling the head to move nod back and forth. Head rotation axis 2
An arm opening / closing mechanism 220 is connected to a lower end of the arm 03. When an overload is applied to the head rotation shaft 203 and the sub-frame (arm opening / closing mechanism) 202, the spring clutch mechanism 212 slides to prevent damage to components.

【0128】頭部回転軸203の下端部には、カム機構
221が設けられている。カム機構221は、軸203
に固定されたプレート222、プレート222に設けら
れた2つのアーム取り付けピン223、2つのサブフレ
ーム202にそれぞれ取り付けられた各ピン224、一
方のアーム取り付けピン223と一方のサブフレーム2
02のピン224間、及び他方のアーム取り付けピン2
23と他方のサブフレーム202のピン224間、をそ
れぞれ回動可能に連結する2つのリンク225によって
構成される。各サブフレーム202は、基本フレーム2
01にピン226によって回動可能に保持されている。
A cam mechanism 221 is provided at the lower end of the head rotation shaft 203. The cam mechanism 221 includes a shaft 203
222, two arm mounting pins 223 provided on the plate 222, pins 224 respectively mounted on the two subframes 202, one arm mounting pin 223 and one subframe 2
02 between the pins 224 and the other arm mounting pin 2
23 and two pins 225 for rotatably connecting the pins 224 of the other sub-frame 202 respectively. Each subframe 202 is a basic frame 2
01 is rotatably held by a pin 226.

【0129】従って、モータ205が回転すると、その
正逆の回転方向に対応して頭部回転軸203が回転し、
頭部10を回動させる。これに伴なってプレート222
が回転して、リンク225を動かし、サブフレーム20
2をZ軸回りに動かす。これは腕部30を開いたり閉じ
たりする動き(例えば、抱きしめる動作)を可能とす
る。モータ205はマイクロコンピュータによって制御
される。軸203の回転量、あるいは動作姿勢の把握
は、例えば、軸203の先端部に設けられた、図示しな
いセンサディスクの符号の読み取りや、軸203の先端
部に設けられた図示しないカムとスイッチの組み合わせ
によって把握される。
Therefore, when the motor 205 rotates, the head rotating shaft 203 rotates in the forward and reverse directions, and
The head 10 is rotated. Along with this, plate 222
Rotates to move the link 225 and the subframe 20
Move 2 around the Z axis. This enables the movement of opening and closing the arm 30 (for example, the embracing operation). The motor 205 is controlled by a microcomputer. The amount of rotation of the shaft 203 or the operation posture can be grasped, for example, by reading the sign of a sensor disk (not shown) provided at the tip of the shaft 203 or by using a cam and switch (not shown) provided at the tip of the shaft 203. It is grasped by the combination.

【0130】図8に示すように、腕回転機構230は、
第2のモータ206によって駆動される。モータ206
の回転軸に取り付けられたピニオンギアは、複数の歯車
からなるギア機構231を駆動する。このギア機構23
1は、基本フレーム201内上方で左右(水平)方向に
駆動力を伝搬する歯車列233を更に駆動する。ギア機
構231と歯車列233との相互間には過負荷による部
品の破損を防止するための保護機構としてクラッチ機構
233が設けられている。クラッチ機構233は、例え
ば、歯車間に狭持されるゴムの摩擦板(面)を介するこ
とによって、過負荷の際にゴム面ですべりを生ずるよう
にしている。なお、前述のスプリング式や、撓み性のあ
る凹凸板の組み合わせ等で良い。
As shown in FIG. 8, the arm rotation mechanism 230
Driven by the second motor 206. Motor 206
The pinion gear attached to the rotating shaft drives a gear mechanism 231 including a plurality of gears. This gear mechanism 23
1 further drives the gear train 233 that propagates the driving force in the left and right (horizontal) direction above the basic frame 201. A clutch mechanism 233 is provided between the gear mechanism 231 and the gear train 233 as a protection mechanism for preventing damage to components due to overload. The clutch mechanism 233 causes slippage on the rubber surface at the time of overload by, for example, interposing a rubber friction plate (surface) sandwiched between gears. It should be noted that the above-described spring type or a combination of flexible uneven plates may be used.

【0131】歯車列233は、例えば、6枚の歯車によ
って構成され、両側の歯車はサブフレーム202内に設
けられる。そして、両側の歯車は、サブフレーム202
に回動自在に保持された腕回転軸204の一端部に固定
された傘歯車と噛合する。腕回転軸204の他端部側に
は、軸204に固定されるカラー234を介して図示し
ない腕部30が取り付けられる。従って、モータ206
の駆動力は、ギア機構231、クラッチ機構233、歯
車列232を介して腕回転軸204を回動し、この回転
軸204に取り付けられる腕部30を回動する。この腕
の回動位置を検出し、モータ206を制御するために適
当な位置、例えば、カラー234にセンサが設けられ
る。
The gear train 233 is composed of, for example, six gears, and the gears on both sides are provided in the sub-frame 202. The gears on both sides are connected to the subframe 202.
Meshes with a bevel gear fixed to one end of an arm rotation shaft 204 rotatably held at the end. The arm 30 (not shown) is attached to the other end of the arm rotation shaft 204 via a collar 234 fixed to the shaft 204. Therefore, the motor 206
Drives the arm rotation shaft 204 via the gear mechanism 231, the clutch mechanism 233, and the gear train 232, and rotates the arm 30 attached to the rotation shaft 204. A sensor is provided at an appropriate position for detecting the rotational position of the arm and controlling the motor 206, for example, the collar 234.

【0132】図9は、電子玩具としてのロボットの制御
系を説明するブロック図である。ロボットは、周囲の状
況や入力を検出する手段として、タッチセンサ51、マ
イク(音センサ)52、光センサ(例えば、CCDカメ
ラ)53、「○」ボタン及び「×」ボタンの操作に対応
した出力を発生する「○」・「×」スイッチ部54、状
態(姿勢)センサ55、電池電圧検出センサ56を備え
る。タッチセンサ51は、例えば、ロボットの頭部10
の上面(図3参照)に設けられ、ユーザが頭部をなでた
(触れた)ことを検出する。タッチセンサ51は、例え
ば、マイクロスイッチや静電容量検出型の接触検出スイ
ッチである。状態センサ55は、ロボットの姿態を検出
する。これ等各種センサの出力は制御部60に供給され
る。制御部60は、これ等入力に基づいてモータ205
及び206、頭部のウインドウ表示部71、スピーカ7
2、関節部アクチュエータ群73を制御する。なお、ロ
ボットの腕や足の細かい動作を行わないより簡易な姿勢
制御を行う場合には、関節部アクチュエータ群73は省
略できる。またUSB端子や赤外線インタフェースを内
蔵させることにより光センサ53で読み込んだ画像をパ
ーソナルコンピュータやPHS、携帯電話に転送する機
能を組み込むことができる。また, ユーザ名を記憶させ
ておいてユーザ名で呼びかける機能をロボットに組み込
む場合、出荷初期状態においてあらゆる名前を記憶させ
ておくことはできないので、ホームページサーバに予
め、あるいはユーザからの要求に応じて、追加名データ
を用意し、ユーザはPC、PHS、携帯電話等をロボッ
トのUSB端子や赤外線インタフェースに接続し、ホー
ムページから欲しい名前情報をダウンロードし使用する
機能を持たせることができる。USB端子や赤外線イン
タフェースは、例えばCPUが組み込まれている後頭部
分に配置することができる。
FIG. 9 is a block diagram illustrating a control system of a robot as an electronic toy. The robot includes a touch sensor 51, a microphone (sound sensor) 52, an optical sensor (for example, a CCD camera) 53, and an output corresponding to the operation of the "O" button and the "X" button as means for detecting surrounding conditions and inputs. , A “×” switch unit 54, a state (posture) sensor 55, and a battery voltage detection sensor 56 that generate The touch sensor 51 is, for example, a robot head 10.
Is provided on the upper surface (see FIG. 3), and detects that the user pats (touches) the head. The touch sensor 51 is, for example, a micro switch or a capacitance detection type contact detection switch. The state sensor 55 detects the state of the robot. The outputs of these various sensors are supplied to the control unit 60. The control unit 60 controls the motor 205 based on these inputs.
And 206, the window display section 71 of the head, the speaker 7
2. Control the joint actuator group 73. In the case where simpler posture control is performed without performing fine movements of the arms and legs of the robot, the joint actuator group 73 can be omitted. By incorporating a USB terminal or an infrared interface, a function of transferring an image read by the optical sensor 53 to a personal computer, a PHS, or a mobile phone can be incorporated. In addition, when a function for calling a user name and storing the user name is incorporated into the robot, it is not possible to store all names in the initial state of shipment, so the homepage server may be stored in advance or in response to a request from the user. By preparing additional name data, the user can connect a PC, PHS, mobile phone, or the like to a USB terminal or an infrared interface of the robot, and have a function of downloading and using desired name information from a homepage. The USB terminal and the infrared interface can be arranged, for example, at the back of the head where the CPU is incorporated.

【0133】図10に示されるように、制御部60は、
中央演算処理部としてのCPU61と、ROM62(記
憶手段)と、RAM63と、タイマ(時計及びカレンダ
機能)64とを有する。ROM62には、表示部71、
スピ−カ72、モ−タ205、206、アクチュエータ
群73を駆動制御するための動作制御プログラムと、設
定すべきロボットの姿勢に応じてモ−タ205、206
(及びアクチュエータ群73)の回転方向及び回転量を
制御して複数の動作姿勢に切り替えるための姿勢制御デ
ータ、出力すべき声やメロディをスピ−カ72から発声
させるための音声制御データと、ロボットが表示すべき
情報を表示部71に表示させる表示制御データと、ユー
ザのバイオリズムを計算するプログラムデータと、音声
入力やCCDカメラの画像入力に基づいて周囲の状況、
例えば、ユーザの存在を判断する音声・画像処理プログ
ラム、PHS等を介して外部とのデータ通信を行うを通
信プログラム(図示せず)等とが格納されている。
As shown in FIG. 10, the control unit 60
It has a CPU 61 as a central processing unit, a ROM 62 (storage means), a RAM 63, and a timer (clock and calendar function) 64. The ROM 62 has a display unit 71,
An operation control program for driving and controlling the speaker 72, the motors 205 and 206, and the actuator group 73, and the motors 205 and 206 according to the posture of the robot to be set.
Attitude control data for controlling the rotation direction and amount of rotation of the actuator (and the actuator group 73) to switch to a plurality of operating attitudes, voice control data for causing the speaker 72 to output a voice or melody to be output, and a robot , Display control data for displaying information to be displayed on the display unit 71, program data for calculating a user's biorhythm, and surrounding conditions based on voice input and image input of a CCD camera.
For example, a voice / image processing program for determining the presence of a user, a communication program (not shown) for performing data communication with the outside via a PHS, and the like are stored.

【0134】音声・画像処理プログラムは、入力音声の
フィルタ処理、識別処理、変調処理等を行う音声処理プ
ログラムと、周囲の明るさ検出や被写体の動き検出を行
う画像処理プログラムとを含む。また、動作制御プログ
ラムは、音声及び/又は画像による周囲の状況の判断結
果に基づいて、複数の動作パターンの中から状況に対応
する動作パターンや表示パターンを選択する動作選択プ
ログラム、選択された動作パターンで、頭部10、腕部
30、関節等が動作するように制御を行う姿勢制御プロ
グラム等を有する。
The audio / image processing program includes an audio processing program for performing a filtering process, an identification process, a modulation process, and the like of an input audio, and an image processing program for detecting ambient brightness and motion of a subject. Further, the operation control program is an operation selection program for selecting an operation pattern or a display pattern corresponding to the situation from a plurality of operation patterns based on a result of determination of the surrounding situation by voice and / or image. A posture control program for controlling the head 10, the arm 30, the joints, and the like to operate in a pattern is provided.

【0135】RAM84には、マイク52の出力データ
及び光センサ(カメラ)53の出力データが図示しない
マイクロコンピュータのインタフェースを介してDMA
動作によって格納される。
The output data of the microphone 52 and the output data of the optical sensor (camera) 53 are stored in the RAM 84 via the interface of a microcomputer (not shown).
Stored by action.

【0136】マイク52が出力する音声信号はインタフ
ェースでA/D変換され、ノイズ除去などの為にローパ
スフィルタ処理されて人の音声領域のみが抽出され、音
声データとしてRAM63に保持される。音声データ
は、音声処理プログラムの処理対象となる。このデータ
は一定時間長記憶され、音声認識処理の対象となる。音
声認識の方式としては、一般話者認識、特定話者認識の
いずれの方法であっても良い。音声認識処理の結果、ユ
ーザの音声によって伝えられた言葉に対応するコマンド
を出力する。このコマンドは動作制御プログラムに伝え
られて該当する動作制御が行われ、ロボットが音声に対
応した動き、表示、発音をすることを可能とする。
The audio signal output from the microphone 52 is A / D-converted by the interface, subjected to low-pass filtering for noise removal and the like, and only the human voice region is extracted, and is stored in the RAM 63 as voice data. The audio data is processed by the audio processing program. This data is stored for a certain length of time, and becomes a target of voice recognition processing. As a method of voice recognition, any of general speaker recognition and specific speaker recognition may be used. As a result of the voice recognition processing, a command corresponding to the word conveyed by the voice of the user is output. This command is transmitted to the motion control program to perform the corresponding motion control, thereby enabling the robot to perform motion, display, and sound corresponding to the voice.

【0137】また、ロボットが動作していない待機状態
では、音声データの平均レベルを経時的に観察すること
によって生活音を収集し、ロボットの近くにユーザがい
るかどうかを判別する。
In a standby state in which the robot is not operating, daily sounds are collected by observing the average level of voice data over time, and it is determined whether or not a user is near the robot.

【0138】音声のメモリ63への記憶処理を含む音声
処理プログラムは、ユーザの音声を記憶するいわゆるボ
イスメモとしても使用可能である。また、記憶した音声
データに音色や音程の変換処理を施してスピーカ部72
に転送して発音させるもの真似(声まね)も可能であ
る。
The voice processing program including the processing of storing the voice in the memory 63 can be used as a so-called voice memo for storing the voice of the user. Further, the stored voice data is subjected to tone color and pitch conversion processing, and
It is also possible to imitate (voice imitation) that is transferred to and pronounced.

【0139】光センサとしてのCCDカメラが出力する
1フレーム相当の出力信号は、インタフェースで画像デ
ータに変換され、RAM63の画像記憶領域に保持され
る。画像データは画像処理プログラムの処理対象とな
る。例えば、待機状態において、画像は周期的にサンプ
リングされ、前回フレームの画像データと今回フレーム
の画像データの差分に基づいて画像の変化(被写体の動
き)が読み取られる。カメラの被写体の移動によってユ
ーザの存在を判別(あるいは推定)する。また、ユーザ
がロボットを移動したときにも被写体は変化する。な
お、フレームの全てを比較する必要はなく、フレーム内
の複数部分における画像データの比較を行うこととして
も良い。画像データ(輝度)の平均値によってロボット
の周囲の明るさを判別することができる。周囲の明るさ
のみを判別するときは、CCDカメラである必要はな
く、SPD、フォトトランジスタ等の光検出素子であっ
ても良い。この場合、例えば、時間と明るさを組み合わ
せることによって夜の時間帯に明るいことを認識してユ
ーザの存在を判別することが可能である。また、音声
(あるいは生活音)の存在と室内の明るさを判別するこ
とによってユーザの存在を判別することが可能である。
ユーザの存在あるいは不存在は、RAM63のフラグエ
リアに示される。
An output signal corresponding to one frame output from a CCD camera as an optical sensor is converted into image data by an interface and stored in an image storage area of the RAM 63. The image data is processed by the image processing program. For example, in the standby state, the image is periodically sampled, and a change in the image (movement of the subject) is read based on a difference between the image data of the previous frame and the image data of the current frame. The presence of the user is determined (or estimated) based on the movement of the subject of the camera. The subject also changes when the user moves the robot. Note that it is not necessary to compare all of the frames, and the image data in a plurality of portions in the frames may be compared. The brightness around the robot can be determined based on the average value of the image data (luminance). When judging only the ambient brightness, it is not necessary to use a CCD camera, and a photodetector such as an SPD or a phototransistor may be used. In this case, for example, it is possible to recognize the presence of the user by recognizing that it is bright in the night time zone by combining time and brightness. In addition, it is possible to determine the presence of the user by determining the presence of voice (or life sound) and the brightness of the room.
The presence or absence of the user is indicated in the flag area of the RAM 63.

【0140】なお、外部からの要求に応じてCCDカメ
ラ53が読み取った画像データを通信インタフェース7
4を介して外部に転送することが可能であり、例えば、
ユーザの携帯電話機からのアクセスに対応して室内の様
子を該携帯電話機に送出することが可能である。
The image data read by the CCD camera 53 in response to an external request is transmitted to the communication interface 7.
4 can be transferred to the outside via, for example,
It is possible to transmit the state of the room to the mobile phone in response to the access from the mobile phone of the user.

【0141】タッチセンサ51、○×スイッチ部54、
状態センサ55等の各出力はインタフェースを介してR
AM63の各スイッチのフラグエリアにフラグを設定す
る。フラグの設定によって割込みが発生し、イベント処
理が行われる。
Touch sensor 51, × switch section 54,
Each output of the state sensor 55, etc.
A flag is set in the flag area of each switch of AM63. An interrupt is generated by the setting of the flag, and event processing is performed.

【0142】次に、制御部60の動作について説明す
る。本発明の電子玩具としてのロボットは、ユーザの体
調(調子)を表す1つのパラメータとなるバイオリズム
に合わせて動作し得るようにし、いわゆる癒しの雰囲気
を持つ動きをするようにしている。
Next, the operation of the control unit 60 will be described. The robot as the electronic toy of the present invention can operate in accordance with the biorhythm which is one parameter representing the physical condition (condition) of the user, and performs a movement having a so-called healing atmosphere.

【0143】図11は、ユーザのバイオリズムを計算す
るために必要となる誕生日を取得するための入力処理を
説明するフローチャートである。
FIG. 11 is a flow chart for explaining an input process for acquiring a birthday required for calculating a user's biorhythm.

【0144】例えば、ユーザが胴部20に設けられた
「○」及び「×」ボタン54を両方同時に押すと、図示
しないモード選択状態になる。この状態では、表示部7
1に各種のモードが所定時間間隔で順次に示される。モ
ードには、「カレンダ日付設定」、「時計時間設定」、
「ユーザ氏名入力」、「ユーザ誕生日入力」、「ユーザ
性別入力」、「音声メモ入力」、「音声サンプル入
力」、「外部(携帯電話)転送可否設定」、「節電設
定」等がある。ユーザが、「ユーザ誕生日入力」が画面
に表示されているときに○ボタンを押すと、誕生日入力
プログラムが起動され、本ルーチンに移行する。
For example, when the user simultaneously presses both the “O” and “X” buttons 54 provided on the torso 20, a mode selection state (not shown) is set. In this state, the display unit 7
In FIG. 1, various modes are sequentially shown at predetermined time intervals. The modes include "Calendar Date Setting", "Clock Time Setting",
There are “user name input”, “user birthday input”, “user gender input”, “voice memo input”, “voice sample input”, “external (mobile phone) transfer enable / disable setting”, “power saving setting”, and the like. If the user presses the ボ タ ン button when “user birthday input” is displayed on the screen, the birthday input program is started, and the routine shifts to this routine.

【0145】制御部(CPU)60は、表示部の71の
液晶パネル又はLEDマトリクスに「生年月日を入力し
て下さい」、「年、月、日の順番で入力します」と表示
させる。表示器の画面の大きさに文字列が入りきれない
ときは、文字列が画面を横又は縦方向に移動するように
表示(スクロール表示)させる(S22)。「年を入力
してください」の表示の後に、例えば、対象となるユー
ザの年齢の範囲に対応して西暦の下二桁を「40」〜
「00(現在の西暦年)」まで、所定時間間隔で表示器
71に順次表示する(S24)。ユーザは自分の生まれ
た年が表示されたときに、○ボタンを押し選択する。○
ボタン及び×ボタンの操作は、RAM63内の対応する
フラグの設定によって判別される。制御部60は、選択
されたかどうかを判別する(S26)。所定時間を経過
しても選択されない場合には(S26;No)、表示年
を「1」増加することを繰り返す(S24及びS2
6)。選択された場合には(S26;Yes)、選択
「年」を保持する。なお、ユーザは○ボタンを押した
後、所定時間以内であれば、×ボタンを押すことによっ
て入力を取り消すことができる。
The control section (CPU) 60 causes the liquid crystal panel or the LED matrix of the display section 71 to display "Please enter your date of birth" and "Enter in order of year, month and day". If the character string does not fit in the size of the screen of the display device, the character string is displayed (scroll display) so as to move horizontally or vertically on the screen (S22). After the display of "Please enter the year", for example, the last two digits of the Christian era are changed from "40" to "40" to correspond to the age range of the target user.
Until "00 (current year)", the information is sequentially displayed on the display 71 at predetermined time intervals (S24). When the user's year of birth is displayed, the user presses the O button to select. ○
The operation of the button and the X button is determined by the setting of the corresponding flag in the RAM 63. The control unit 60 determines whether or not it has been selected (S26). If it is not selected even after the predetermined time has elapsed (S26; No), the display year is repeatedly increased by "1" (S24 and S2).
6). If selected (S26; Yes), the selected "year" is held. The user can cancel the input by pressing the X button within a predetermined time after pressing the O button.

【0146】「年」が選択されると、「月」の入力に移
行する。制御部60は、「月を入力してください」の表
示の後に、「1」〜「12」まで、所定時間間隔で表示
器71に順次表示させる(S28)。ユーザは自分の生
まれた月が表示されたときに、○ボタンを押し選択す
る。制御部60は、選択されたかどうかを判別する(S
30)。所定時間を経過しても選択されない場合には
(S30;No)、表示月を「1」増加することを繰り
返す(S28及びS30)。選択された場合には(S3
0;Yes)、選択「月」を保持する。
When "year" is selected, the process proceeds to the input of "month". The control unit 60 causes the display 71 to sequentially display “1” to “12” at predetermined time intervals after the display of “Please enter the month” (S28). When the month in which the user is born is displayed, the user presses the O button to select. The control unit 60 determines whether or not it has been selected (S
30). If the selected month is not selected even after the lapse of the predetermined time (S30; No), the display month is repeatedly increased by "1" (S28 and S30). If selected (S3
0; Yes), the selection “month” is held.

【0147】「月」が選択されると、「日」の入力に移
行する。制御部60は、「日を入力してください」の表
示の後に、「1」〜「31」まで、所定時間間隔で表示
器71に順次表示させる(S32)。ユーザは自分の生
まれた月が表示されたときに、○ボタンを押し選択す
る。制御部60は、選択されたかどうかを判別する(S
34)。所定時間を経過しても選択されない場合には
(S34;No)、表示日を「1」増加することを繰り
返す(S32及びS34)。選択された場合には(S3
4;Yes)、選択「日」を保持する。「年」、
「月」、「日」の入力が終了すると、制御部60は、R
OM62のユーザバイオリズムデータの領域にユーザの
「年」、「月」、「日」を書き込む。これにより、ユー
ザのバイオリズム計算が可能となる。なお、後述のよう
に、ロボット自身のバイオリズムで活動するように、ロ
ボットのバイオリズムを設定することもできる。
When "month" is selected, the process proceeds to "day" input. The control unit 60 causes the display 71 to sequentially display “1” to “31” at predetermined time intervals after the display of “Please enter the date” (S32). When the month in which the user is born is displayed, the user presses the O button to select. The control unit 60 determines whether or not it has been selected (S
34). If it is not selected even after the predetermined time has elapsed (S34; No), the display date is repeatedly increased by "1" (S32 and S34). If selected (S3
4; Yes), the selection “day” is held. "Year",
When the input of “month” and “day” is completed, the control unit 60
The user's "year", "month", and "day" are written in the user biorhythm data area of the OM 62. This allows the user to calculate the biorhythm. In addition, as will be described later, the biorhythm of the robot can be set so as to operate with the biorhythm of the robot itself.

【0148】同様にして、ユーザは、「カレンダ日付」
の設定、ロボット内蔵の「時計時間」の設定、「ユーザ
氏名」の入力、「ユーザ性別」の入力などを行う。
Similarly, the user sets “Calendar Date”
, The “clock time” built into the robot, the input of “user name”, and the input of “user gender”.

【0149】図12は、前述した制御部60の音声処理
(音量検出)の例を示している。制御部(CPU)60
は、RAM63に記憶された音声データから高域のノイ
ズ成分を除去するローパスフィルタに相当する演算処理
を行う(S42)。処理された音声データの所定時間範
囲における音声データの振幅レベルを積算し、平均値を
求める(S44)。制御部60はこの平均値を記憶する
(S46)。また、過去に記憶したユーザ不在時の音声
レベルや、音声レベルの平均値を継続的に観察して音声
レベルが急増したか、等を見分けてユーザの所在の有無
を判断する(S48)。ユーザが室内に存在(所在)す
ると判断したときは、既述した所在を表す(音声)フラ
グを設定する(S50)。
FIG. 12 shows an example of the sound processing (volume detection) of the control unit 60 described above. Control unit (CPU) 60
Performs an operation corresponding to a low-pass filter that removes high-frequency noise components from the audio data stored in the RAM 63 (S42). The amplitude levels of the audio data within a predetermined time range of the processed audio data are integrated to obtain an average value (S44). The control unit 60 stores this average value (S46). Also, the presence or absence of the user is determined by continuously observing the voice level at the time of absence of the user and the average value of the voice level stored in the past to determine whether the voice level has increased rapidly (S48). When it is determined that the user is present (location) in the room, the (voice) flag indicating the location described above is set (S50).

【0150】図13は、第2の音声処理(音声認識)の
例を示している。制御部(CPU)60は、RAM63
に記憶された音声データの時間軸や信号レベルを対比デ
ータと併せるべく正規化処理を行う(S62)。正規化
されたデータから音声の特徴パラメータを抽出する(S
64)。抽出された特徴パラメータに基づいて発声を判
別し、発生の内容(意味)に対応するロボットの動作の
コマンドを出力する(S66)。このコマンドを示すフ
ラグをRAM63に設定する(S68)。これにより、
制御部60は、コマンドに対応する発音制御データ、表
示制御データ、姿勢制御データを読み出して、後述する
ようにロボットの動作を制御する。
FIG. 13 shows an example of the second voice processing (voice recognition). The control unit (CPU) 60 includes a RAM 63
Then, a normalization process is performed to combine the time axis and signal level of the audio data stored in the data with the comparison data (S62). Extract voice feature parameters from the normalized data (S
64). The utterance is determined based on the extracted characteristic parameters, and a command of the robot operation corresponding to the content (meaning) of the occurrence is output (S66). A flag indicating this command is set in the RAM 63 (S68). This allows
The control unit 60 reads out the sound control data, the display control data, and the posture control data corresponding to the command, and controls the operation of the robot as described later.

【0151】図14は、制御部60の画像処理の例を示
している。所定サンプリング周期でRAM63に記憶さ
れたCCDカメラ53からの前回記憶画像データ(S7
2)と、今回記憶画像データ(S74)とを比較し、画
像データの変化を判別する。例えば、例えば、両フレー
ムの対応する位置同士の各画素相互のデータの差分を求
め集積する。被写体が動く場合には、この集積値が大き
く変化する。また、演算量を少なくするために、画面上
の特定の位置、例えば、画面中央と四角の部分において
データの変化を比較するようにしても良い(S76)。
これ等の差分に基づいてCCD画面(画像)で被写体の
移動(あるいは変化)をあったかどうかを判断する(S
78)。移動体が存在したときは、動き検出(ユーザ所
在)を表すフラグを設定する(S80)。なお、画像デ
ータの輝度の平均値によって室内の明るさを判別可能で
ある。
FIG. 14 shows an example of image processing of the control unit 60. The previously stored image data from the CCD camera 53 stored in the RAM 63 at the predetermined sampling cycle (S7
2) and the currently stored image data (S74) are compared to determine a change in the image data. For example, for example, a difference in data between pixels at corresponding positions in both frames is obtained and integrated. When the subject moves, the integrated value changes greatly. In addition, in order to reduce the amount of calculation, a change in data may be compared at a specific position on the screen, for example, at the center of the screen and a square portion (S76).
Based on these differences, it is determined whether the subject has moved (or changed) on the CCD screen (image) (S
78). If a moving object is present, a flag indicating motion detection (user location) is set (S80). The brightness of the room can be determined based on the average value of the brightness of the image data.

【0152】図15は、スイッチ類、音声、被写体の動
き等に基づいてユーザが所在(あるいは存在)するかど
うかを判断する例を説明するフローチャートである。
FIG. 15 is a flowchart for explaining an example in which it is determined whether or not a user is present (or present) based on switches, voice, movement of a subject, and the like.

【0153】同図において、制御部60は、待機状態に
おいて、所定周期で本ルーチンを繰り返す。まず、制御
部60は、タッチセンサ51、○×スイッチ54などの
ユーザによって直接操作されるスイッチ類が操作された
かどうかを、該当フラグをチェックすることにより判別
する(S102)。スイッチ類が操作されていれば(S
102;Yes)、ユーザがいることに他ならないか
ら、ユーザの所在を示すフラグを設定し(S112)、
終了する。
In the figure, control unit 60 repeats this routine at a predetermined cycle in a standby state. First, the control unit 60 determines whether switches directly operated by the user, such as the touch sensor 51 and the × switch 54, have been operated by checking the corresponding flag (S102). If the switches are operated (S
102; Yes), there is nothing other than the presence of a user, so a flag indicating the location of the user is set (S112).
finish.

【0154】スイッチ類が操作されていない場合には
(S102;No)、前述した画像処理の結果による動
き検出フラグ(S80)及び音声処理の結果による音声
検出フラグ(S50)のいずれもがオンに設定されてい
るかどうかを判別する(S104)。両フラグが共にオ
ンに設定されているときは(S104;Yes)、ユー
ザの所在の確率は高いから、ユーザの所在を示すフラグ
を設定し(S112)、終了する。
When the switches are not operated (S102; No), both the motion detection flag (S80) based on the result of the image processing and the voice detection flag (S50) based on the result of the voice processing are turned on. It is determined whether the setting has been made (S104). When both flags are set to ON (S104; Yes), since the probability of the user's location is high, a flag indicating the user's location is set (S112), and the process ends.

【0155】両フラグが共にオンに設定されてはいない
ときは(S104;No)、いずれか一方のフラグがオ
ンに設定されているかどうかを判断する(S106)。
いずれのフラグも設定されていない場合には(S10
6;No)、ユーザが室内にいる可能性は低いからユー
ザ存在を示すフラグをオフあるいはリセットし(S11
0)、終了する。一方のフラグがオンに設定されている
場合(S106;Yes)、現在の時間が予めユーザあ
るいは工場でプリセットされた動作禁止時間帯域内であ
るかどうかを判断する(S108)。例えば、深夜に動
作することによる迷惑の防止や留守時間帯内における無
駄な動きを防止することが可能である。動作禁止時間帯
外であるときは(S108;No)、ユーザが存在する
ことを示すフラグをオンに設定(S112)し、終了す
る。動作禁止時間帯内であるときは(S108;Ye
s)、ユーザフラグをオフあるいはリセットし(S11
0)、終了する。
If both flags are not set to ON (S104; No), it is determined whether one of the flags is set to ON (S106).
If neither flag is set (S10
6; No), the flag indicating the presence of the user is turned off or reset because the possibility that the user is indoors is low (S11).
0), end. If one of the flags is set to ON (S106; Yes), it is determined whether or not the current time is within the operation prohibition time band preset by the user or the factory (S108). For example, it is possible to prevent inconvenience caused by operation at midnight and to prevent useless movement during the absence time period. If it is outside the operation prohibition time zone (S108; No), a flag indicating that a user is present is set to ON (S112), and the process ends. If it is within the operation prohibition time zone (S108; Yes)
s), and turns off or resets the user flag (S11)
0), end.

【0156】図16は、スイッチ類、音声、被写体の動
き等に基づいてユーザが所在(あるいは存在)するかど
うかを判断する他の例を説明するフローチャートであ
る。
FIG. 16 is a flowchart for explaining another example of judging whether or not the user is located (or present) based on switches, voice, movement of the subject, and the like.

【0157】この例では、動き検出に変えて部屋の明る
さを検出し、明るい場合にはユーザが所在すると考える
点が図15に示す場合とは異なっている。すなわち、前
述した画像処理の結果により、あるいはフォトトランジ
スタ等によって部屋が明るいことを示すフラグ及び音声
処理の結果による音声検出フラグ(S50)のいずれも
がオンに設定されているかどうかを判別する(S12
0)。他は図15の場合と同様であるので説明を省略す
る。
This example differs from the case shown in FIG. 15 in that the brightness of the room is detected in place of the motion detection, and that when the room is bright, the user is considered to be present. That is, it is determined whether or not both the flag indicating that the room is bright by a phototransistor or the like and the voice detection flag (S50) based on the voice processing result are set to ON based on the result of the image processing described above (S12).
0). The other parts are the same as those in FIG.

【0158】次に、ロボットの動作制御例について説明
する。図17に示す例は、ユーザのバイオリズムに対応
してロボットが反応するようにした例を示している。
Next, an example of operation control of the robot will be described. The example shown in FIG. 17 shows an example in which the robot responds according to the biorhythm of the user.

【0159】制御部60は、例えば、朝に起動したとき
に、本ルーチンを実行する。まず、ユーザが室内(ある
いは近く)に存在するかどうかを判断する(S13
2)。存在しない場合には(S132;No)、本ルー
チンは終了する。ユーザが存在すると(S132;Ye
s)、内蔵のカレンダを読み取る(S134)。今日の
日付とユーザの生年月日に基づいて図18に示すような
ユーザのバイオリズムを計算する(S136)。このバ
イオリズムに予めイベント発生日が設定される。例え
ば、イベント発生日は、正及び負の調子が切り替わる変
節点E1及びE3、最良点E2、最低点E4とする。そ
して、本日が予め設定されたイベント発生日に相当する
かどうかを判断する(S138)。イベント発生日でな
いときは(S138;No)、本ルーチンを終了する。
The control section 60 executes this routine, for example, when started in the morning. First, it is determined whether the user exists indoors (or nearby) (S13).
2). If not (S132; No), this routine ends. If the user exists (S132; Ye
s) The built-in calendar is read (S134). The user's biorhythm as shown in FIG. 18 is calculated based on today's date and the user's date of birth (S136). The event occurrence date is set in advance for this biorhythm. For example, the event occurrence date is assumed to be inflection points E1 and E3 at which the tone changes between positive and negative, best point E2, and lowest point E4. Then, it is determined whether today is equivalent to a preset event occurrence date (S138). If it is not the event occurrence date (S138; No), this routine ends.

【0160】イベント発生日であると(S138;Ye
s)、予め設定された時間、例えば、ユーザの出勤時間
になったかどうかを判断する(S140)。設定された
時間になると(S140;Yes)、イベント発生日の
バイオリズムに対応した処理(ロボット動作)を選択す
る。例えば、イベントE1のときには、表示部21に、
図19(A)に示すような「にこにこの目」表示と図1
9(F)に示すように「これからだんだん調子がよくな
るよ」の文字表示(スクロール表示)とを行う。また、
スピーカ部72に「頑張ってね」等と出力を行わせる。
イベントE2のときには、表示部21に、図19(C)
に示すような「ハート目」表示と「調子は最高」の文字
表示とを行う。また、スピーカ部72に「張り切りすぎ
ないでね」等と出力を行わせる。イベントE3のときに
は、表示部21に、図19(D)に示すような「ジト
目」表示と「しばらくは体調に気を付けてね」の文字表
示とを行う。また、スピーカ部72に「疲れないように
してね」等と出力を行わせる。イベントE4のときに
は、表示部21に、図19(E)に示すような「丸め
目」表示と「今日は事故に気を付けて」の文字表示とを
行う。また、スピーカ部72に「今日は要注意日だよ」
等と出力を行わせる。
If it is the event occurrence date (S138; Ye)
s) It is determined whether a preset time, for example, the user's work time has come (S140). When the set time comes (S140; Yes), a process (robot operation) corresponding to the biorhythm on the day of the event occurrence is selected. For example, at the time of the event E1, the display unit 21
The display of "Niko nikoniko" as shown in FIG. 19 (A) and FIG.
As shown in FIG. 9 (F), a character display (scroll display) of "I'm getting better gradually" is performed. Also,
The loudspeaker unit 72 outputs “Please do your best” or the like.
At the time of the event E2, the display unit 21 displays FIG.
As shown in the figure, a "heart-eye" display and a character display of "tone is best" are performed. In addition, the speaker unit 72 is caused to output “Do not be too tight” or the like. At the time of the event E3, the display section 21 displays “JITTO” as shown in FIG. 19D and character display of “Please be careful about your physical condition for a while”. In addition, the speaker unit 72 is caused to output such as “do not get tired”. At the time of the event E4, the display section 21 displays "rounded eyes" as shown in FIG. 19 (E) and character display of "watch out for an accident today". In addition, "Today is a day to watch out for"
And output.

【0161】図20は、時間によってロボットの動作が
変化するように動作を制御する例を示すフローチャート
である。この動作モードに入ると、制御部(CPU)6
0は、まず、ユーザが近くに存在するかどうかを既述の
フラグの設定(例えば、S126)によって判別する
(S152)。存在しないときは(S152;No)、
時々、一人遊びをさせる。一人遊びは、例えば、表示器
71に一人ゲームを表示して遊びの状態を表現する。そ
こで、乱数を発生して(S154)、一人遊びをする数
が出力されたかどうかを判断する(S156)。出力さ
れないときは終了する(S156;No)。出力された
ときは、姿勢制御データ、音声制御データ、表示制御デ
ータから一人遊びデータを抽出して動作制御プログラム
に設定する(S158)。
FIG. 20 is a flowchart showing an example of controlling the operation so that the operation of the robot changes with time. When the operation mode is entered, the control unit (CPU) 6
In the case of “0”, first, it is determined whether or not the user exists nearby by setting the above-described flag (for example, S126) (S152). If it does not exist (S152; No),
Occasionally let them play alone. In the single play, for example, a single game is displayed on the display 71 to express the state of the play. Therefore, a random number is generated (S154), and it is determined whether or not the number of playing alone is output (S156). If not, the process is terminated (S156; No). When the data is output, single play data is extracted from the posture control data, the voice control data, and the display control data, and is set in the operation control program (S158).

【0162】ユーザが存在すると(S152;Ye
s)、制御部60は、現在の時間を内部の時計から読み
取る(S160)。この時間が起きる時間かどうかどう
かを判断する(S162)。
If the user exists (S152; Ye)
s) The control unit 60 reads the current time from an internal clock (S160). It is determined whether or not this time occurs (S162).

【0163】起きる時間であると(S164;Ye
s)、制御部60は、姿勢制御データ、音声制御デー
タ、表示制御データからロボットが起きる(目覚める)
データを抽出して動作制御プログラムに設定する(S1
64)。それにより、ロボットは「お早う」、「おきた
よ」等の目覚めの動作を行う。起きる時間ではないと
(S164;No)、次に、ユーザを見送る時間かどう
かを判別する(S166)。
If it is time to wake up (S164; Ye
s), the control unit 60 wakes up (wakes up) the robot from the posture control data, the voice control data, and the display control data.
Data is extracted and set in the operation control program (S1
64). Thereby, the robot performs an awakening operation such as “Oh early” or “Okitayo”. If it is not the time to wake up (S164; No), then it is determined whether it is time to forego the user (S166).

【0164】見送る時間であると(S166;Ye
s)、制御部60は、姿勢制御データ、音声制御デー
タ、表示制御データから見送りのデータを抽出して動作
制御プログラムに設定する(S168)。ロボットは、
「でかける時間だよ」、「行ってらっしゃい」等の見送
り動作を行う。見送りの時間ではないと(S166;N
o)、次に、予め設定されたユーザの帰宅時間かどうか
を判別する(S170)。
If it is time to forego (S166; Ye)
s), the control unit 60 extracts the off-going data from the posture control data, the voice control data, and the display control data and sets the extracted data in the operation control program (S168). The robot is
Perform a send-off operation such as "It's time to go out" or "Welcome." It is not time to send off (S166; N
o) Next, it is determined whether or not it is a preset home return time of the user (S170).

【0165】帰宅時間であると(S170;Yes)、
制御部60は、姿勢制御データ、音声制御データ、表示
制御データから帰宅歓迎動作のデータを抽出して動作制
御プログラムに設定する(S172)。ロボットは「お
帰りなさい」、「まってたよ」等の帰宅歓迎動作を行
う。帰宅時間ではないと(S170;No)、次に、予
め設定されたユーザの寝る時間時間かどうかを判別する
(S174)。
When it is time to return home (S170; Yes),
The control unit 60 extracts the data of the welcome home operation from the posture control data, the voice control data, and the display control data, and sets the data in the operation control program (S172). The robot performs a welcome operation such as “Go home” or “Stay away”. If it is not the return time (S170; No), it is next determined whether or not it is the preset user's sleeping time (S174).

【0166】寝る時間であると(S174;Yes)、
制御部60は、姿勢制御データ、音声制御データ、表示
制御データから寝る動作のデータを抽出して動作制御プ
ログラムに設定する(S176)。ロボットは「おやす
みなさい」、「またあしたね」等のお休み動作を行う。
その後節電モード(スリープモード)になる。寝る時間
ではないと(S174;No)、次に、予め設定された
ユーザのアラーム設定時間かどうかを判別する(S17
8)。
When it is time to sleep (S174; Yes),
The control unit 60 extracts the data of the sleeping motion from the posture control data, the voice control data, and the display control data, and sets the data in the motion control program (S176). The robot performs a rest operation such as "Good night" and "Tomorrow again".
After that, it goes into the power saving mode (sleep mode). If it is not the time to sleep (S174; No), then it is determined whether or not it is a preset user alarm setting time (S17).
8).

【0167】アラーム設定時間であると(S178;Y
es)、制御部60は、姿勢制御データ、音声制御デー
タ、表示制御データからアラーム動作のデータを抽出し
て動作制御プログラムに設定する(S180)。ロボッ
トは「時間ですよ」、「起きて」、「○字○分でーす」
等の時間を告げる動作を行う。設定時間ではないと(S
178;No)、本ルーチンを終了する。
If it is the alarm set time (S178; Y
es), the control unit 60 extracts the alarm operation data from the attitude control data, the voice control data, and the display control data and sets the data in the operation control program (S180). The robot is "Time is up", "Wake up", "It's just a minute."
And so on. It is not the set time (S
178; No), this routine ends.

【0168】図21に示すように、制御部60は、制御
プログラムに設定された表示制御データによって表示部
21の表示制御を行う(S202)。制御プログラムに
設定された姿勢制御データによってモータ205、20
6を制御してロボットの姿態の制御を行う(S20
4)。更に、制御プログラムに設定された音声制御デー
タによって発音機構(シンセサイザ、音声データ再生)
によりスピーカ72から音声を出力させる(S20
6)。
As shown in FIG. 21, the control unit 60 controls the display of the display unit 21 according to the display control data set in the control program (S202). The motors 205 and 20 are controlled by the attitude control data set in the control program.
6 to control the posture of the robot (S20).
4). In addition, the sound generation mechanism (synthesizer, sound data reproduction) by the sound control data set in the control program
Causes the speaker 72 to output sound (S20).
6).

【0169】図22は、制御プログラムに「喜び」の動
作データが設定された時のロボットの動作例を示してい
る。
FIG. 22 shows an example of the operation of the robot when the operation data of “joy” is set in the control program.

【0170】図23は、制御プログラムに「楽しい」の
動作データが設定された時のロボットの動作例を示して
いる。
FIG. 23 shows an example of the operation of the robot when the operation data of "fun" is set in the control program.

【0171】図24は、制御プログラムに「哀しい」の
動作データが設定された時のロボットの動作例を示して
いる。
FIG. 24 shows an operation example of the robot when the operation data of "sad" is set in the control program.

【0172】図25は、制御プログラムに「大好き」の
動作データが設定された時のロボットの動作例を示して
いる。
FIG. 25 shows an example of the operation of the robot when the operation data of “I love” is set in the control program.

【0173】前述したように、本発明の電子玩具は、P
HS、携帯電話、一般回線等に接続可能であり、ロボッ
トが取得した画像をユーザに送って家の中の様子を見る
ことが可能である。
As described above, the electronic toy of the present invention has a P
The robot can be connected to an HS, a mobile phone, a general line, or the like, and can send an image obtained by the robot to a user to see the inside of the house.

【0174】電池電圧検出センサ56によって、電池の
残りが少なくなると、制御部60は、「電池が勿体ない
からもう寝るね」等の言葉音声による表現を行う。
When the remaining battery power is reduced by the battery voltage detection sensor 56, the control unit 60 performs an expression using words such as "I'm going to sleep because there is no battery".

【0175】このようにして、実施例に示す電子玩具と
してのロボットは、体全体で感情を表現し、ユーザとあ
たかもコミュニケーションを図るような動作をも行える
ので、いわゆる癒しの要素を玩具にもたらすことを可能
とする。また、多くの会話も可能となる。
As described above, the robot as the electronic toy shown in the embodiment can express an emotion in the whole body and perform an operation as if communicating with the user, so that a so-called healing element is brought to the toy. Is possible. Many conversations are also possible.

【0176】図26及び図27は、電子玩具としての他
のロボットの例を示している。両図において図1と対応
する部分には同一符号を付し、かかる部分の説明は省略
する。
FIGS. 26 and 27 show examples of another robot as an electronic toy. In both figures, parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and description of such parts is omitted.

【0177】この例のロボットも、図1に示すロボット
と同様の構成、機能を備えているが、頭部10の前面
(顔)のほぼ全体を表示器71としている。表示器71
は、例えば、LCD表示器を用いることができるが、こ
れに限定されない。また、○×スイッチ54を頭部の上
面に配置している。
The robot of this example also has the same configuration and functions as the robot shown in FIG. 1, but almost the entire front surface (face) of the head 10 is used as the display 71. Display 71
For example, an LCD display can be used, but is not limited thereto. The × switch 54 is disposed on the upper surface of the head.

【0178】既述、図19に示も示したが、図28及び
図29に示すように、表示器71ににはロボットの各種
の表情(感情)が表現される。ロボットは、この表情を
後述の各モードに対応して決定することができる。図2
8(a)は「喜び」、同(b)は「めまい」、同(c)
は「怒り」、同(d)は「でれでれ」状態の顔を表して
いる。また、図29(a)は「悲しみ」、同(b)は
「スリープ」状態を表している。「スリープ」状態は省
エネルギ状態であり、パソコンのそれと類似している。
この他、制御部60には、顔の表情を動かす顔表示アニ
メーションが約300枚記憶されており、例えば、
「喜」、「怒」、「哀」、「楽」の各モードに対して3
つの基本顔パターンが用意され、更に、音、動きが各モ
ードに対応して組み合わされる。
As shown in FIG. 19, various expressions (feelings) of the robot are displayed on the display 71 as shown in FIGS. 28 and 29. The robot can determine this expression corresponding to each mode described later. FIG.
8 (a) is “joy”, (b) is “vertigo”, (c)
Indicates a face in an "anger" state, and (d) indicates a face in a "delete" state. FIG. 29A shows a state of “sadness” and FIG. 29B shows a state of “sleep”. The “sleep” state is an energy-saving state, similar to that of a personal computer.
In addition, the control unit 60 stores about 300 face display animations for moving the facial expression.
3 for each of the following modes: "happy", "angry", "sad", and "easy"
Three basic face patterns are prepared, and sound and motion are combined in accordance with each mode.

【0179】図30は、図1あるいは図26に示すロボ
ットがロボット自身のバイオリズム持つようにした例を
説明する図である。前述したROM62のユーザバイオ
リズムデータをロボットのバイオリズム関数プログラム
に置き換えることが出来る。また、例えば、正弦波状に
変化する関数を制御部に内蔵し、これを感情を表す関数
とすることも可能である。独自のロボットのバイオリズ
ムは、電池収納部から絶縁紙が抜き取られて電源が供給
されたときに乱数を発生し、その結果に基づいて図30
の正弦波中に複数の点で示したようなランダムな開始位
置(初期値)が選択され、ロボット毎にバイオリズムが
異なるようになされる。なお、乱数としては、モータを
動かし、機構の動作によって図示しないスイッチが踏み
込まれるときに、スイッチ作動のばらつきを乱数として
利用して初期を設定することとしても良い。
FIG. 30 is a view for explaining an example in which the robot shown in FIG. 1 or 26 has its own biorhythm. The above-described user biorhythm data in the ROM 62 can be replaced with a robot biorhythm function program. Further, for example, a function that changes in a sinusoidal manner may be incorporated in the control unit, and this may be used as a function representing emotion. The biorhythm of the unique robot generates a random number when the insulating paper is pulled out of the battery housing and power is supplied, and based on the result, FIG.
, A random start position (initial value) as shown by a plurality of points is selected, and the biorhythm is made different for each robot. In addition, as the random number, when a motor is moved and a switch (not shown) is depressed by the operation of the mechanism, an initial value may be set by using a variation in switch operation as a random number.

【0180】バイオリズムを作り出す関数の振幅値は、
制御パラメータの1つとしての感情パラメータとなって
いる(図18参照)。感情パラメータの値によって、4
つの動作モードが設定されている。振幅の中心を含む第
1の範囲は「普通モード」であり、その上の所定範囲に
ロボットが楽しい気分でいる「楽モード」、更にその上
の所定範囲がロボットが喜びに満ちている「喜モード」
が定義されている。また、「普通モード」の下方の所定
範囲にロボットが哀しい気分である「哀モード」、更
に、その下の所定範囲にはロボットが怒っている「怒モ
ード」が定義される。ロボットは周期的にこれ等のモー
ドを繰り返すが、「喜モード」及び「怒モード」に存在
する時間は相対的に短い時間である。
The amplitude value of the function that creates the biorhythm is
The emotion parameter is one of the control parameters (see FIG. 18). Depending on the value of the emotion parameter, 4
Operation modes are set. The first range including the center of the amplitude is the “normal mode”, the “easy mode” in which the robot feels fun in a predetermined range above, and the “easy mode” in which the robot is full of joy in the predetermined range above it. mode"
Is defined. In a predetermined range below the "normal mode", a "sorrow mode" in which the robot feels sad is defined, and in a predetermined range below the "sad mode", a "anger mode" in which the robot is angry is defined. The robot repeats these modes periodically, but the time in the “happy mode” and the “anger mode” is relatively short.

【0181】なお、特定のスイッチ操作をすることによ
って店頭デモンストレーション展示用に周期の短いバイ
オリズムに設定することが出来る。例えば、1周期を5
分とすることが出来る。それにより、ロボットの感情変
化に伴う表情変化や仕草を観客に見せて短時間でこのロ
ボットの性能・特徴を知らせることを可能とする。
By operating a specific switch, it is possible to set a short-period biorhythm for an in-store demonstration display. For example, one cycle is 5
Minutes. As a result, it is possible to show a change in facial expression and a gesture accompanying a change in the emotion of the robot to the audience and to inform the performance and characteristics of the robot in a short time.

【0182】図28及び図29の表情を使用するロボッ
トの制御例について説明する。
A control example of a robot using the expressions shown in FIGS. 28 and 29 will be described.

【0183】図29(a)は、例えば、ロボットがいた
ずらに対して「やめてよ!」という場合の表情である。
このような仕草をタイムリに行うため、高いレベルの音
声が継続的に与えられるときにこのような表情を表示器
に表示すれば面白い。
FIG. 29 (a) shows an expression in the case where, for example, the robot has said "stop!"
In order to perform such a gesture in a timely manner, it is interesting to display such an expression on a display when a high-level sound is continuously given.

【0184】そこで、このような動作を行うモードで
は、音声検出手段としてのマイク52の出力をノイズを
除去するローパスフィルタを介して制御部60によって
監視し、所定レベルを超える音声信号が所定時間、例え
ば、10秒を超えて継続するかを判断する。継続した場
合には、「うるさい」ので制御部は、記憶手段(62、
63)からロボットの図29(a)に示す表情を選択し
てこれを表示器に表示する。また、上述した感情パラメ
ータの値によって表情の選択動作が行われるので感情パ
ラメータ値を「不快」のレベルに変えることとしても、
同様の結果を得ることが可能である。
Therefore, in the mode in which such an operation is performed, the output of the microphone 52 as the voice detection means is monitored by the control unit 60 via a low-pass filter for removing noise, and a voice signal exceeding a predetermined level is output for a predetermined time. For example, it is determined whether to continue for more than 10 seconds. If the continuation is continued, the control unit is "noisy" and the storage unit (62,
From 63), the expression of the robot shown in FIG. 29 (a) is selected and displayed on the display. Also, since the facial expression selecting operation is performed based on the value of the emotion parameter described above, the emotion parameter value may be changed to the level of “discomfort”.
Similar results can be obtained.

【0185】図29(b)の表情は、「眠る(スリー
プ)」状態を表している。ロボットを布で覆ったり、周
囲が暗くなったときに、このような眠る表情をロボット
がすれば面白い。
The expression in FIG. 29B represents a “sleep” state. It is interesting if the robot gives such a sleeping expression when the robot is covered with cloth or the surroundings become dark.

【0186】そこで、このような動作を行うモードで
は、光検出手段としての光センサ(例えば、CCDやフ
ォトダイオード、フォトトランジスタ等)53によって
周囲の光量を検出する。この光量を制御部60によって
監視し、暗い状態がが所定時間、例えば、10秒を超え
て継続するかを判断する。継続した場合には、「回りが
闇」であるので制御部は、記憶手段(62、63)から
ロボットの図29(b)に示すような「眠り」の表情を
選択してこれを表示器71に表示する。また、布等で覆
われたときにこれをいやがる仕草をすれば面白いので、
更に腕30等の機械部品を所定時間動かすようにするこ
とも出来る。
Therefore, in the mode for performing such an operation, the amount of light in the surroundings is detected by an optical sensor (for example, a CCD, a photodiode, a phototransistor, etc.) 53 as a light detecting means. The light amount is monitored by the control unit 60, and it is determined whether the dark state continues for a predetermined time, for example, more than 10 seconds. If the continuation is continued, the surroundings are "dark", so the control unit selects the expression of "sleep" of the robot from the storage means (62, 63) as shown in FIG. 71 is displayed. Also, it would be interesting to do a gesture that dislikes this when covered with cloth, etc.
Further, mechanical parts such as the arm 30 can be moved for a predetermined time.

【0187】頭部のスイッチ54が連続的にあるいは断
続的(連打)に所定時間(あるいは所定回数)操作され
ているとき、ユーザがロボットの頭を叩いている、ある
いはなでていることが考えられる。このような操作に対
してもロボットが反応すれば面白い。
When the head switch 54 is operated continuously or intermittently (continuously) for a predetermined time (or a predetermined number of times), it is considered that the user is hitting or stroking the head of the robot. Can be It would be interesting if the robot responded to such operations.

【0188】そこで、スイッチ54やタッチセンサ51
の出力を制御部60が監視し、所定時間、例えば、10
秒間操作されているかどうかを判別する。操作されてい
ると、そのときのロボットの感情に応じて表情、言葉、
音声等の表示を行う。例えは背、感情パラメータが「不
快」の状態であるとは、図29(a)に示すような「痛
がる」あるいは「怒り」等の不快な表情を表示する。感
情パラメータが「喜び」の状態であるときは図28
(d)に示すような「でれでれ」の表情を表示する。
Therefore, the switch 54 and the touch sensor 51
Is monitored by the control unit 60 for a predetermined time, for example, 10
It is determined whether the operation has been performed for seconds. When operated, facial expressions, words,
Display of voice etc. For example, when the back and emotion parameters are in the state of “unpleasant”, an unpleasant expression such as “sore” or “angry” as shown in FIG. 29A is displayed. FIG. 28 when the emotion parameter is in the state of “joy”
An expression of "Delede" as shown in (d) is displayed.

【0189】図31は、上述したバイオリズムが反映す
るロボットの「独り言モード」の例を説明するフローチ
ャートである。
FIG. 31 is a flow chart for explaining an example of the robot's "single mode" reflected by the biorhythm described above.

【0190】制御部(CPU)60は、独り言開始条
件、例えば、既述ステップS156のように、「ユーザ
不在」かつ「所定の乱数発生」に該当するとき等の条件
に該当すると、独り言モードを実行する(S270;Y
es)。まず、制御パラメータの一種である、バイオリ
ズムの振幅を示す感情パラメータを読み取る(S27
2)。この値から、既述5つのモードの内いずれに該当
するかを判断する(S274)。各モードの閾値と比較
してモード判定を行い、結果を出力する(S276〜S
284)。判断した各モードに対応する表情の表示と、
必要により、更に、動作や音声を伴ったロボット制御を
行う(S286)。
The control unit (CPU) 60 changes the solitary mode to the solitary speech start condition, for example, when the condition such as “user absent” and “predetermined random number generation” is met, as described in step S156. Execute (S270; Y
es). First, an emotion parameter indicating the amplitude of biorhythm, which is one type of control parameter, is read (S27).
2). From this value, it is determined which of the five modes described above corresponds (S274). The mode is determined by comparing with the threshold value of each mode, and the result is output (S276 to S276).
284). Display of facial expressions corresponding to each determined mode,
If necessary, the robot control with operation and voice is further performed (S286).

【0191】例えば、「怒モード」と判断した場合、図
32に示すように、8文字表示可能な表示器71には、
「おこったぞー」、「ロボットなんて」、「やめてやる
〜!」が順次に表示される。この表示が所定時間繰り返
される。なお、併せてロボットの怒りのポーズ(図示せ
ず)を行うことができる。
For example, if it is determined that the mode is “anger mode”, as shown in FIG.
"I'm sorry", "What a robot", and "I'll stop!" Are displayed in order. This display is repeated for a predetermined time. In addition, a pose of anger (not shown) of the robot can be performed.

【0192】同様に、他の動作モードと判断された場合
には、当該動作モードに対応した表情が選択され、必要
により、該当動作も行われる。図33及び図34は、普
通モードにおける言葉の表示例を示している。前者の例
では、予め記憶しているあるいはユーザによって入力さ
れた単語「IT」を使用して文を作っている。「やっぱ
さ」、「じだいは」、「ITだよね」と順次画面に表示
する。後者の例では、五七五調で文を構成している。
Similarly, when it is determined that the operation mode is another operation mode, an expression corresponding to the operation mode is selected, and the corresponding operation is performed if necessary. FIG. 33 and FIG. 34 show display examples of words in the normal mode. In the former example, a sentence is created using the word “IT” stored in advance or entered by the user. “Yappassa”, “daidaiha” and “IT” are sequentially displayed on the screen. In the latter case, the sentence is composed of 575 keys.

【0193】ロボットは、感情パラメータの値が喜モー
ドあるいは怒モードの範囲に存在するとき、これ等に対
応する喜びあるいは怒りの「一発芸」動作を行うように
することが可能である。例えば、BGMを流しながら、
「きぶんがいいぞ〜!では、○○のまねいきます!」、
腕回転、「??」目表示、等を行うようにする。
When the value of the emotion parameter is in the range of the joy mode or the anger mode, the robot can perform a “one-shot” operation of the joy or anger corresponding thereto. For example, while playing BGM,
"Kibun is good! Then, I'll mimic OO!"
Arm rotation, "??" eye display, etc. are performed.

【0194】次に、ロボットがユーザに質問等をするこ
とによって擬似的にコミュニケーションを図る文字コミ
ュニケーションモードについて説明する。
Next, a description will be given of a character communication mode in which the robot asks the user a question or the like to perform pseudo communication.

【0195】図35は、このモードを説明するフローチ
ャートである。例えば、音、動き、スイッチ操作、光等
によって、ユーザが側に存在する等の一定の条件が満た
されると(S240;Yes)、文字コミュニケーショ
ンモードを開始する。文字コミュニケーションモード
は、ロボットが表示器に文字を表示ししてユーザとのコ
ミュニケーションを図るものである。制御部60は、図
38及び図39に示されるように、予め記憶されている
質問データから質問を選択する(S242)。各質問
は、図38に示されるような、回答次第では、ロボット
の感情が変化するものと、図39に示すような回答がロ
ボットの感情に影響しない質問とが予め判別可能になさ
れている。制御部60は選択した質問を表示器の画面に
表示する(S244)。○×ボタンが操作されると(S
245)、感情に影響する質問文であるかどうかを判断
する(S246)。影響しない質問であると(S24
6;No)、必要により、回答記憶処理を行う(S25
6)。この処理は、例えば、「くるま」、「すき?」等
の質問をすることによってユーザが「○」を押したと
き、これを記憶してこのユーザは「くるますき」と記憶
しておき、後述のモードなどで使用するものである。
FIG. 35 is a flowchart for explaining this mode. For example, when certain conditions such as the presence of the user on the side are satisfied by sound, motion, switch operation, light, and the like (S240; Yes), the character communication mode is started. In the character communication mode, the robot displays characters on the display to communicate with the user. The control unit 60 selects a question from the question data stored in advance, as shown in FIGS. 38 and 39 (S242). For each question, as shown in FIG. 38, depending on the answer, a question that changes the emotion of the robot and a question that does not affect the emotion of the robot as shown in FIG. 39 can be determined in advance. The control unit 60 displays the selected question on the screen of the display (S244). When the ○ × button is operated (S
245), it is determined whether the sentence is a question sentence affecting the emotion (S246). If the question does not affect (S24
6; No), and if necessary, a response storage process is performed (S25).
6). In this process, for example, when the user presses “○” by asking a question such as “car” or “like”, this is memorized and the user memorizes “car” It is used in a mode described below.

【0196】感情に影響する質問がなされた場合に(S
246Yes)、例えば、図36に示すように、「ぼく
と」、「たろうちゃんは」、「なかよしだね?」の質問
対して、「○」と答えた場合には(S248;Ye
s)、「○」対応処理を行う。この例の場合、ロボット
は喜びの動作、例えば、図25に示す「だいすき」のポ
ーズと「だいすき」の表示とを行い、感情パラメータを
プラス方向に上昇させる(S250)。これに対し、
「×」と答えた場合には(S248;No)、「×」対
応処理を行う。この例の場合、ロボットは悲しみの動
作、例えば、図24に示す「かなしい」のポーズと「だ
いきらい」の表示とを行い、感情パラメータをマイナス
方向に大幅にダウンさせる(S252)。これは、図4
0に示すように、バイオリズムを悲しみの状態に移行さ
せる。それにより、ロボットの表情は哀しい表情が表れ
るようにモードが移行する。
When a question affecting the emotion is made (S
246)), for example, as shown in FIG. 36, when the question of "I", "Taro-chan", "Is it good" is answered as "O"(S248; Yes)
s), “O” corresponding processing is performed. In the case of this example, the robot performs a joyful operation, for example, a pose of “daisuki” and a display of “daisuki” shown in FIG. 25, and increases the emotion parameter in the plus direction (S250). In contrast,
When answering "x"(S248; No), "x" corresponding processing is performed. In the case of this example, the robot performs a sadness operation, for example, a pose of “Nice” and a display of “Daikiri” shown in FIG. 24, and significantly lowers the emotion parameter in the negative direction (S252). This is shown in FIG.
As shown at 0, the biorhythm is shifted to a state of sadness. As a result, the mode of the robot is shifted so that the sad expression appears.

【0197】次に、好感度計算を行う。好感度はロボッ
トのユーザに対する気持ちに相当するパラメータであ
る。上記質問において、ロボットが喜ぶ回答をするとプ
ラスn点が加算される。また、上記質問において、ロボ
ットが悲しむ回答をするとマイナスm点が加算される。
各質問によってn,mの値は異なる。これ等の積算値に
よって好感度は決定される(S254)。
Next, positivity calculation is performed. Positiveness is a parameter corresponding to the feeling of the robot for the user. In the above question, plus n points are added when the robot makes a happy answer. In the above question, if the robot gives a sad answer, minus m points are added.
The values of n and m are different for each question. The favorable sensitivity is determined by these integrated values (S254).

【0198】次に、ロボット同士の模擬会話(通信)に
ついて説明する。図41乃至図45を参照して説明す
る。
Next, a simulation conversation (communication) between the robots will be described. This will be described with reference to FIGS.

【0199】図41は、ロボット同士を通信ケーブル7
41で接続してデータ交換を行う例を示している。ロボ
ットの背面に設けられた図示しないコネクタを介して図
43に示すように制御部の通信インタフェース74同士
を接続する。
FIG. 41 shows a communication cable 7 between robots.
An example is shown in which data exchange is performed by connection at 41. As shown in FIG. 43, the communication interfaces 74 of the control unit are connected to each other via a connector (not shown) provided on the back of the robot.

【0200】図42は、PHSや携帯電話機742をロ
ボットの通信インタフェース74に接続し、図44に示
すように、移動体通信網を介して他の場所のPHSや携
帯電話機742と接続されたロボットとデータ交換を行
う例を示している。なお、図42に示すように、ロボッ
トの背中にPHSや携帯電話のカードモジュールを内蔵
することが出来る。本発明の実施例で述べる通信インタ
フェース74とPHSや携帯電話機742、743等の
接続例では、ロボットに電話通信機能自体を内蔵する場
合を含む。
FIG. 42 shows a PHS or mobile phone 742 connected to a robot communication interface 74, and a robot connected to a PHS or mobile phone 742 at another location via a mobile communication network as shown in FIG. 2 shows an example of performing data exchange. As shown in FIG. 42, a card module of a PHS or a mobile phone can be built in the back of the robot. The connection example of the communication interface 74 and the PHS or the mobile phones 742 and 743 described in the embodiment of the present invention includes a case where the robot has a built-in telephone communication function itself.

【0201】図45は、ロボットの通信インタフェース
74を通信網としてのインターネット745に接続され
たパソコン743に接続し、同様に、インターネット7
45に接続された他のロボットとデータ交換を行う例を
示している。なお、図45の記載においては、インター
ネット接続サービスを提供するプロバイダ等を省略して
いる。
FIG. 45 shows that the communication interface 74 of the robot is connected to a personal computer 743 connected to the Internet 745 as a communication network.
45 shows an example of exchanging data with another robot connected to the robot 45. Note that in the description of FIG. 45, a provider or the like that provides an Internet connection service is omitted.

【0202】図46(及び後述の図49、図50)に示
す構成では、ロボットのデータをサーバ装置と交信する
ことによって得ることを可能にしたシステムを示してい
る。このために、ロボットの通信インタフェース74が
PHSや携帯電話743、インターネット745や電話
通信網などの通信手段を介して当該ロボット用のサーバ
装置750に接続される。インターネット745などの
通信網を介してサーバ装置750からデータ、例えば、
後述のユーザ特性あるいは属性に対応する言葉、時事用
語、等の言葉やロボットの仕草の制御データ等が提供さ
れる。
The configuration shown in FIG. 46 (and FIGS. 49 and 50 to be described later) shows a system in which robot data can be obtained by communicating with a server device. For this purpose, the communication interface 74 of the robot is connected to a server device 750 for the robot via communication means such as a PHS, a mobile phone 743, the Internet 745, and a telephone communication network. Data from the server device 750 via a communication network such as the Internet 745, for example,
Words such as words and current affairs words corresponding to user characteristics or attributes to be described later, control data of robot behavior, and the like are provided.

【0203】図47は、ロボットAおよびB同士を通信
ケーブル741で接続した場合のデータ交換例を説明し
ている。まず、ロボット同士をケーブルで接続する。次
に、各ロボットの、例えば、○×スイッチ54を同時操
作することによってモード選択状態に入り、「つうし
ん」モードを選択する。両方のロボットが通信モードに
なると、両ロボット間で通信パラメータが交換され、交
信条件などが設定され、交信が開始される。
FIG. 47 illustrates an example of data exchange when the robots A and B are connected to each other by the communication cable 741. First, the robots are connected by a cable. Next, by simultaneously operating, for example, the × switch 54 of each robot, the robot enters a mode selection state, and selects the “tsushin” mode. When both robots enter the communication mode, communication parameters are exchanged between the two robots, communication conditions and the like are set, and communication is started.

【0204】ロボットAは、記憶しているロボットAの
ユーザ名、記憶単語、等を送信する。ユーザ名は、例え
ば、ユーザが表示器に文字を表示させて該当文字を逐次
選択することによってユーザ名を入力したものを記憶し
ている。記憶単語は、例えば、既述したロボットの質問
に対する答えを記憶する(S256)ことによって得ら
れる。ユーザの好きなものや嫌いなもの、年齢、男・
女、性格等各種の単語が含まれる。ロボットAからデー
タがロボットBに送られ、これをロボットBが確認する
と、データの受領を示すACK信号を送信する。データ
の受領が失敗した場合には、NACK信号を送信する。
NACK信号をロボットAが受けた場合には、ロボット
Aはデータを再送信する。ロボットAがACK信号を受
信すると、データ送信の成功を判別し、待機状態とな
り、ロボットBからの信号を待つ。
The robot A transmits the stored user name of the robot A, the stored word, and the like. As the user name, for example, a user's input of the user name by displaying characters on the display and sequentially selecting the characters is stored. The stored word is obtained, for example, by storing an answer to the robot question described above (S256). What the user likes and dislikes, age, man,
Various words such as woman and personality are included. The data is transmitted from the robot A to the robot B. When the data is confirmed by the robot B, an ACK signal indicating reception of the data is transmitted. If the data reception fails, a NACK signal is transmitted.
When the robot A receives the NACK signal, the robot A retransmits the data. When the robot A receives the ACK signal, it determines the success of data transmission, enters a standby state, and waits for a signal from the robot B.

【0205】ロボットBは、ACK信号の送信に続い
て、ロボットBが保持しているロボットBのユーザ名、
記憶言葉等のデータをロボットAに送信する。ロボット
Aが受信を確認すると、データの受領を示すACK信号
を送信する。もし、データの受領が失敗した場合には、
ロボットAはNACK信号を送信し、これを受信したロ
ボットBはデータを再送信する。
After transmitting the ACK signal, the robot B transmits the user name of the robot B held by the robot B,
Data such as stored words is transmitted to the robot A. When the robot A confirms reception, it transmits an ACK signal indicating reception of data. If data reception fails,
Robot A transmits a NACK signal, and Robot B, upon receiving this signal, retransmits the data.

【0206】このようなデータ交換手順によって、ロボ
ットAからロボットBに、例えば、「△△」(ユーザ
名)、「□□□□」(単語1)、「××××」(単語
2)、等が送られる。ロボットBからロボットAに、例
えば、「○○」(ユーザ名)、「□□□□」(単語
1)、等が送られる。
According to such a data exchange procedure, for example, “△△” (user name), “□□□□” (word 1), “xxxxxx” (word 2) , Etc. are sent. For example, “OO” (user name), “□□□□” (word 1), and the like are sent from the robot B to the robot A.

【0207】これ等の単語が予め記憶された複数の定型
文の中から選択されたものに当てはめられ、音声及び文
字の画面表示の少なくともいずれかによって出力され
る。発音や表示の出力タイミング、定型文の選択は、例
えば、当初の通信パラメータの交換によって設定可能で
ある。
These words are applied to those selected from a plurality of pre-stored fixed phrases, and are output by at least one of voice and character screen display. The output timing of pronunciation and display, and selection of a fixed phrase can be set, for example, by exchanging initial communication parameters.

【0208】例えば、図47に示すように、ロボットA
が、「やあ!○○ちゃんにやさしくしてもらっている
?」と発音すると、これに続いてロボットBは「まぁね
ー、たまにこわいよ。□□□□みたいなかおするもん」
と発音し、ロボットAは「□□□□?うちの△△ちゃん
はそういえば×××っぽいかおしてるかも」と発音し、
ロボットBは「××××!!じゃがんばってね、ロボも
つらいよね。バイバイ」と発音し、ロボットAは「つら
いよね、じゃあねバイバイ!」と発音する。ロボットの
ユーザがこのような発音を側で聞くと、あたかも会話を
しているかのような印象を受けることになる。
For example, as shown in FIG.
However, when he pronounces, "Hello! Have you asked XX-chan kindly?", Robot B follows, "Oh, I'm scared occasionally.
Robot A pronounces “□□□□? My house ’s Speaking of xx ×
Robot B pronounces "XXXXX !! Good luck, Robo is hard. Bye-bye", and robot A pronounces "Tough, then bye-bye!" When the user of the robot hears such a pronunciation on the side, the user will have an impression as if they are having a conversation.

【0209】なお、接続ケーブル741に変えてリモコ
ンや携帯端末等に使用される赤外線通信インタフェース
を使用することとしても良い。
[0209] Instead of the connection cable 741, an infrared communication interface used for a remote controller, a portable terminal or the like may be used.

【0210】図48は、PHS・携帯電話機を使用して
ロボット同士がデータ交換を行う場合の手順を説明する
交信図である。
FIG. 48 is a communication diagram for explaining a procedure when data exchange is performed between robots using a PHS / mobile phone.

【0211】この場合、ロボットAとロボットBとは互
いに離れた場所にいるので、発音あるいは言葉表示は独
り言のようになる。
[0211] In this case, since the robot A and the robot B are located far apart from each other, the pronunciation or the word display is like a solitary language.

【0212】まず、ロボットA及びBの各ユーザは、各
自のロボットにPHSや携帯電話機を接続し、相手の電
話機に電話をかける。電話機同士に通信回線が設定され
ると、通信パラメータの交換が行われ、例えば、相互の
データ通信速度を両電話機のうち遅い方に設定する。例
えば、PHS(通信速度64kビット/秒)と携帯電話
(9600ビット/秒)の場合には、9600ビット/
秒でデータ通信を行う。通信パラメータが設定される
と、一方のロボットAからロボットBにデータが送信さ
れる。例えば、言葉「たろう」(ユーザ名)、「ひる
ね」(すきなもの)、「MD」、「パチンコ」(すきな
もの)、「サザエさん」(すきなもの)、「ポチ」(す
きなもの)、「サンダーバード」(すきなもの)等が送
信される。ロボットBは、受信データに異常がないとA
CK信号を送信する。異常がある場合には、NACK信
号を送信する。ロボットAはロボットBから受信を示す
ACK信号を受信すると、待機状態となる。もし、ロボ
ットAがNACK信号を受信した場合には、データを再
送信する。
First, each user of the robots A and B connects a PHS or a portable telephone to each robot and makes a call to the telephone of the other party. When a communication line is set between the telephones, communication parameters are exchanged. For example, the mutual data communication speed is set to the lower one of the two telephones. For example, in the case of PHS (communication speed 64 kbit / sec) and mobile phone (9600 bit / sec), 9600 bit / sec
Data communication is performed in seconds. When the communication parameters are set, data is transmitted from one robot A to the robot B. For example, the words "Taro" (user name), "Hirune" (like), "MD", "pachinko" (like), "Sazae-san" (like), "pochi" (like) ), "Thunderbird" (like). If there is no abnormality in the received data, the robot B
Transmit the CK signal. If there is an abnormality, a NACK signal is transmitted. When the robot A receives an ACK signal indicating reception from the robot B, the robot A enters a standby state. If the robot A receives the NACK signal, it retransmits the data.

【0213】ロボットBは、ACK信号の送出に続い
て、記憶しているデータをロボットAに送信する。例え
ば、「はなこ」(ユーザ名)、「チョコレート」(すき
なもの)、「エフワンレーサ」(すきなもの)、「こう
ちゃきのこ」(すきなもの)、「ぴこ」(すきなも
の)、等を送信する。
[0213] The robot B transmits the stored data to the robot A following the transmission of the ACK signal. For example, "Hanako" (user name), "Chocolate" (likes), "F-One Racer" (likes), "Kochakinoko" (likes), "Piko" (likes), etc. Send

【0214】ロボットA及びBは、それぞれ予め記憶さ
れている定型文を選択し、受信したデータを定型文の空
欄に当てはめて文を完成し、発音及び文字表示のうち少
なくともいずれかを行って交信結果を出力する。当該空
欄には、挿入されるべき単語の属性、例えば、ユーザ
名、すきなもの、きらいなもの、ねんれい、気候、等を
予め決めておくのが良い。
Each of the robots A and B selects a pre-stored fixed phrase, applies the received data to a blank of the fixed phrase to complete the sentence, and performs communication by performing at least one of pronunciation and character display. Output the result. In the blank, attributes of words to be inserted, for example, a user name, a favorite thing, a bad thing, a caretaker, a climate, and the like are preferably determined in advance.

【0215】例えば、ロボットAは、「よっしゃ。”チ
ョコレート”がすきな”はなこ”ちゃんからデータをも
らったよ」、「ねえねえ、”エフワンレーサ”っておい
しい?」、「”花子”ちゃんがおしえてくれた”こうち
ゃきのこ”ってなんだろう」、「はなこのパンツってか
っこいい?」、「もしかして”はなこ”ちゃんって”ぴ
こ”マニアかもよ〜」等と発声する。
For example, robot A has received data from "Hanako" who likes "chocolate", "I like" chocolate ",""Hey,is" Fone Racer "delicious?", "" Hanako "tells me He utters "What's the" Kokomushroom "that was made?", "Is the Hanako pants cool?", "Maybe the Hanako" is "Poko" mania. "

【0216】例えば、ロボットBは、「ふむふむ、”ひ
るね”がすきな”たろう”ちゃんからデータをもらった
です」、「”MD”ってナウなヤングにバカウケ?」、
「”さざえさん”ってほんとうにかしこいの?」、「こ
としの”ポチ”はできがいいって”たろう”ちゃんがい
っていたよ」、「あったらこわい”サンダーバード”ラ
ーメン」等と発声する。
For example, robot B has received data from "Taro", who likes "Humune," Hirune "", "Is" MD "a now-young young baukake?"
"Sazae-san, is it really smart?"

【0217】このようにして、ロボット同士が互いに保
持しているデータを交換して擬似的な会話状態を形成す
るので、遠隔地のユーザ同士も楽しむことが可能とな
る。
In this way, since the robots exchange data held by each other to form a pseudo-conversation state, users at remote locations can also enjoy.

【0218】図49及び図50は、図46に示されるよ
うなサーバ装置750を用いてロボットの保持データを
更新するようにした例を示すものである。
FIGS. 49 and 50 show an example in which the data held by the robot is updated using the server device 750 as shown in FIG.

【0219】ロボットが時節に応じた言葉を話せば面白
い。また、ロボットが年齢、性別、趣味、等のユーザの
個別特性に対応した言葉を話せば面白い。しかし、電子
玩具でこのような機能まで実現することはコスト的に難
しい。
It is interesting if the robot speaks words according to the time. Also, it is interesting if the robot speaks words corresponding to the user's individual characteristics such as age, gender, hobbies, and the like. However, it is difficult to realize such a function with an electronic toy in terms of cost.

【0220】そこで、図50に示すように、サーバ装置
によって所要の単語などのデータや、当該単語を話すと
きのロボットの動作を制御するデータ(制御プログラ
ム)をサーバ装置から適宜に提供することで、安価にこ
のような機能を提供しようとするものである。制御プロ
グラムは、このプログラムによって一連の動作を制御す
るものであっても良いし、ロボット内に予め記憶してい
る「喜」、「怒」、「哀」、「楽」等の複数の動作の制
御プログラムのうちのいずれかの動作を指定するもので
あっても良い。
Therefore, as shown in FIG. 50, data such as a required word and data (control program) for controlling the operation of the robot when speaking the word are appropriately provided from the server device by the server device. It is intended to provide such a function at low cost. The control program may control a series of operations by this program, or may execute a plurality of operations such as “happy”, “angry”, “sad”, and “easy” stored in the robot in advance. Any one of the operations of the control program may be designated.

【0221】このような場合のデータ交換手順について
図49を参照して説明する。まず、図49に示すよう
に、ロボットの通信インタフェース74と、PHS、携
帯電話あるいはパソコン等743とを接続し、通信網、
例えば、インターネット745を介してサーバ装置75
0に接続し、データ通信を行う回線を設定する。ロボッ
トAから通信速度、電子玩具の仕様、ID、パスワード
などの通信を確立するなどのために必要な通信パラメー
タをサーバ装置750に送信する。サーバ装置750
は、接続を許可するかどうかの認証を行って、ロボット
Aにアクセスを許可する。ロボットは、更新データの送
信要求を行う。この際、指示ネタ、ユーザ適応データ等
を指定することが可能である。サーバ装置750は、求
められた、例えば、指示ネタの言葉を所要数だけ送信す
る。図示の例では、「かみのくに」、「れっしゃじ
こ」、「おしょうがつ」、「クリスマス」…等が送信さ
れる。また、これ等の単語に適した新たな定型文を送る
ことが可能である。また、必要により、これ等言葉を用
いた定型文を発音する際の、ロボット動作を制御する制
御プログラムデータ1、プログラムデータ2、プログラ
ムデータ3、…を併せて提供することが可能である。同
様に、ユーザ対応の言葉を、予め複数のユーザ特性に対
応して用意された言葉集から選択して送信することが可
能である。例えば、ユーザ特性が会社員の場合、「てん
かんしゃさい」、「クリアノート」、「モンスター」等
が送信される。この場合にも、特定の言葉についてロボ
ットの動作を定義することが可能である。このような場
合には、言葉データに合わせて、制御プログラムデータ
(41、42)も送信される。
The data exchange procedure in such a case will be described with reference to FIG. First, as shown in FIG. 49, the communication interface 74 of the robot is connected to a PHS, a mobile phone, a personal computer, or the like 743, and a communication network,
For example, the server device 75 via the Internet 745
0 and set a line for data communication. The communication parameters necessary for establishing communication such as the communication speed, the specification of the electronic toy, the ID, and the password from the robot A are transmitted to the server device 750. Server device 750
Authenticates whether connection is permitted and permits the robot A to access. The robot requests update data transmission. At this time, it is possible to specify an instruction material, user adaptation data, and the like. The server device 750 transmits the required number of words of the instruction material, for example, in a required number. In the illustrated example, “Kaminokuni”, “Resujiko”, “Oshogatsu”, “Christmas”, etc. are transmitted. Also, it is possible to send a new fixed sentence suitable for these words. If necessary, it is possible to provide control program data 1, program data 2, program data 3,... For controlling the robot operation when pronouncing a fixed phrase using these words. Similarly, words corresponding to the user can be selected from a collection of words prepared in advance corresponding to a plurality of user characteristics and transmitted. For example, when the user characteristic is a company employee, “epilepsy”, “clear note”, “monster”, and the like are transmitted. Also in this case, it is possible to define the operation of the robot for a specific word. In such a case, the control program data (41, 42) is also transmitted along with the word data.

【0222】ロボットAがデータを受信すると、これを
メモリ63に保存する。ACK信号をサーバに送信し、
回線を開放して更新を終了する。データの受信に失敗し
た場合には、NACK信号をサーバに送信し、データの
再送信を求める。サーバ装置はロボットAからACK信
号を受信すると、あるいは回線が開放されると、ロボッ
トAとの交信を終了する。
When robot A receives the data, it stores it in memory 63. Send an ACK signal to the server,
Release the line and end the update. If the data reception fails, a NACK signal is transmitted to the server to request retransmission of the data. Upon receiving the ACK signal from the robot A or when the line is released, the server device ends the communication with the robot A.

【0223】ロボットAは、取得した言葉を定型文に当
てはめて発音及び文字表示(文章表示)のうち少なくと
もいずれかを行う。なお、ロボットはテキストデータを
音声に変換する機能を持つが、単語や定型文の音声デー
タをサーバ装置から受け取り、これをエンコードして発
音することとしても良い。
The robot A performs at least one of pronunciation and character display (sentence display) by applying the acquired words to the fixed phrases. Although the robot has a function of converting text data into voice, the robot may receive voice data of words and fixed phrases from the server device, encode the voice data, and generate sound.

【0224】次に、「アクションメール」について説明
する。アクションメールは、ロボットによる電子メール
の内容表示、あるいは読み上げと共に、対応する所定の
アクション、例えば、手足の動作、表情等を行うもので
ある。
Next, “action mail” will be described. The action mail is for performing a corresponding predetermined action, for example, limb operation, facial expression, etc., in addition to displaying or reading out the content of the electronic mail by the robot.

【0225】図51及び図52は、アクションメールを
行う場合の構成例を示している。メールの発信者は、イ
ンターネットでダウンロード可能に提供されるアクショ
ンメールソフトをパソコン743aに予め組み込む。パ
ソコン743aは電子メール可能なインタフェースネッ
ト745等の通信網に接続された環境にある。発信者は
キーボート装置などの入力装置を操作して電子メールの
メッセージを作成する。パソコンには、上記ソフトウェ
アには、テキスト入力、メッセージ編集、制御動作入力
等を行うメッセージ・動作編集プログラム、メッセージ
を音声データに変換するデータ/音声変換プログラム、
音声データを添付ファイルとして送信可能なデータファ
イル添付機能電子メールプログラムが含まれる。
FIGS. 51 and 52 show an example of the configuration when an action mail is performed. The sender of the mail incorporates action mail software provided to be downloadable on the Internet in the personal computer 743a in advance. The personal computer 743a is in an environment connected to a communication network such as an interface net 745 capable of sending e-mail. The sender operates an input device such as a keyboard device to create an e-mail message. In the personal computer, the software includes a message / action editing program for performing text input, message editing, control operation input, etc., a data / voice conversion program for converting a message into voice data,
Includes a data file attachment function e-mail program that can send voice data as an attachment file.

【0226】発信者は、制御情報をメッセージ・動作編
集プログラムを利用して電子メールを作成する。電子メ
ールは、例えば、図52に示すように、発信者の名前
(例えば、4文字)、メッセージ(例えば、44文
字)、ロボットの動作を指定する。これ等は、テキスト
データで組み立てることが可能である。次に、データ/
音声変換プログラムによって文字コードを音声信号、例
えば、FM変調信号に変換する。名前、メッセージ、ロ
ボットの動作情報は、例えば、図52に示す3秒程度の
無音期間によって区別可能とする。また、図示しないヘ
ッダ、フッタ等を適宜に加えることができる。これ等F
M音声を音声データ、例えば、WAV、MP3、ram
等の音声データ形式に変換する。電子メールプログラム
は、この音声データファイルをメールに添付してロボッ
トを使用している通信相手に送信する。
The sender creates an electronic mail using the control information and the message / action editing program. For example, as shown in FIG. 52, the e-mail specifies the name of the sender (for example, 4 characters), the message (for example, 44 characters), and the operation of the robot. These can be assembled with text data. Next, the data /
The character code is converted into a voice signal, for example, an FM modulation signal by a voice conversion program. The name, the message, and the operation information of the robot can be distinguished by, for example, a silent period of about 3 seconds shown in FIG. Further, a header, a footer, and the like (not shown) can be appropriately added. These F
M audio is converted to audio data, for example, WAV, MP3, ram
And so on. The e-mail program attaches the voice data file to an e-mail and sends it to a communication partner using the robot.

【0227】電子メールは、インターネット745を介
して相手のメールサーバ装置に送信される。なお、図で
は、簡略化しているが、インターネット745には、通
信回線、メールサーバを含む各種サーバ装置や、接続サ
ービスプロバイダ等が含まれる。
The e-mail is transmitted to the other mail server via the Internet 745. Note that although simplified in the figure, the Internet 745 includes various server devices including a communication line and a mail server, a connection service provider, and the like.

【0228】受信者は、予めインターネットで入手可能
になされているアクションメールの受信機能を持つ通信
ソフトを自己のパソコンに組み込んでいる。受信機能に
は、音声ファイルの解凍(デコード)が含まれる。受信
者は自己のパソコン743bにロボットを接続する。パ
ソコン743bで図示しないメールサーバ装置にアクセ
スし、自己宛のメールをダウンロードする。ロボットを
利用するメールであるとき、当該通信ソフトによって添
付音声ファイルを再生し、音声信号を復調する。この音
声信号を通信インタフェース74を介してロボットの制
御部60に供給する。制御部60は、FM信号を復調し
てデジタルデータ化する。データから送信者の名前、メ
ッセージ、動作の制御情報を判別する。前述したよう
に、データのブランク区間によって区別可能である。制
御部60は、テキストデータを画像データ化して表示部
71に表示させる。この際、まず、発信者の名前を表示
し、続いてスクロール表示によって長いメッセージを小
さい表示器画面に表示することが出来る。テキストデー
タを読み上げるようにしても良い。これを所定回数、繰
り返す。勿論、大型の表示器を使用すれば、メッセージ
全体を表示することも可能である。また、制御部60
は、動作の制御情報に基づいてモータ205、206等
を制御し、ロボットにメッセージに対応した動作を行わ
せる。アクション動作の制御は、予め、ロボットのRO
Mに記憶されている制御コード、あるいは一連の制御コ
ードからなる制御プログラムを発信者が指定することに
よって、行っても良い。また、発信者が個別の動作に対
応した制御コードを組み立てるようにしてロボットの一
連の動きを好みにプログラムすることとしても良い。
The recipient incorporates in his / her personal computer communication software having an action mail receiving function previously available on the Internet. The receiving function includes decompression (decoding) of an audio file. The receiver connects the robot to his or her personal computer 743b. The personal computer 743b accesses a mail server device (not shown) to download a mail addressed to itself. When the mail uses a robot, the attached audio file is reproduced by the communication software, and the audio signal is demodulated. This audio signal is supplied to the control unit 60 of the robot via the communication interface 74. The control unit 60 demodulates the FM signal and converts it into digital data. The sender's name, message, and operation control information are determined from the data. As described above, the data can be distinguished by the blank section of the data. The control unit 60 converts the text data into image data and causes the display unit 71 to display the data. In this case, first, the name of the caller is displayed, and then a long message can be displayed on the small display screen by scroll display. Text data may be read aloud. This is repeated a predetermined number of times. Of course, if a large-sized display is used, the entire message can be displayed. The control unit 60
Controls the motors 205 and 206 based on the operation control information, and causes the robot to perform an operation corresponding to the message. The action operation is controlled in advance by the RO
The control may be performed by designating a control program stored in M or a control program including a series of control codes by the sender. Alternatively, the sender may assemble control codes corresponding to individual operations to program a series of movements of the robot as desired.

【0229】アクションメールの受信に対応するメッセ
ージ表示と、アクション動作とは、同時に行うことが出
来る。また、アクションを先に行って、その後、メッセ
ージを表示することが出来る。また、メッセージを表示
した後、アクション動作を行うことが出来る。これ等を
繰り返したり、組み合わせたりすることも可能である。
更に、送信者が音声でメッセージを作り、添付ファイル
として送信し、これをロボットで音声メッセージとして
スピーカで再生するようにしても良い。
The message display corresponding to the reception of the action mail and the action operation can be performed at the same time. Also, the action can be performed first, and then the message can be displayed. After displaying the message, an action operation can be performed. These can be repeated or combined.
Further, the sender may compose a message by voice, transmit the message as an attached file, and reproduce the message as a voice message by a robot through a speaker.

【0230】なお、ロボットがPHS・携帯電話等の電
話機能を内蔵している場合には、制御部60が通信機能
を介してアクションメールのソフトウェアをダウロード
し、メール受信機能を持つことが出来る。この場合に
は、ロボットの制御部60が電子メールを受信し、パソ
コン742bで行った音声ファイルの変換をも行うこと
が出来、パソコンが不要となる。また、図44乃至図4
6に示す構成でも、アクションメールを行うことが可能
である。
If the robot has a built-in telephone function such as a PHS / mobile phone, the control unit 60 can download the action mail software via the communication function and have a mail reception function. In this case, the control unit 60 of the robot can receive the e-mail and convert the voice file performed by the personal computer 742b, thereby eliminating the need for a personal computer. FIGS. 44 to 4
6, the action mail can be sent.

【0231】サーバ装置がアクションメールの発信者と
なるようにしても良い。例えば、ユーザの特性や属性に
合わせて、一言メッセージ、今日の運勢、買い物情報、
天気予報、時事問題、等をアクション付きで話す。例え
ば、前日に雪が降った場合、サーバ装置は、「きのうの
ユキはすごかったね〜。さむくてしょうがないよ。」
(メッセージ)、「ガクーン」(動き+顔表示)を送信
する。
[0231] The server device may be the sender of the action mail. For example, according to the characteristics and attributes of the user, a word message, today's fortune, shopping information,
Talk weather forecast, current affairs, etc. with action. For example, if snow falls the day before, the server device says, "Yuki yesterday was amazing.
(Message), “Gakuon” (movement + face display) is transmitted.

【0232】図53乃至図56は、メッセージと共に行
われる顔表示を伴った動き(アクション動作)の例を示
している。図53は、両腕を斜め上方に上げ、顔にハー
トを表示して「喜び」を表現している。図54は、手を
頭の近くに置き、顔につり目を表示して「怒り」を表現
している。図55は、手を下に下げ、顔に涙目を表示し
て「哀しみ」を表現している。図56は、両腕を前方に
出し、顔にニコニコマークを表示して「楽しい」を表現
している。
FIGS. 53 to 56 show examples of a movement accompanied with a face display (action operation) performed together with a message. In FIG. 53, both arms are raised obliquely upward and a heart is displayed on the face to express “joy”. In FIG. 54, "angry" is expressed by placing a hand near the head and displaying a crossed eye on the face. FIG. 55 shows "sorrow" by lowering the hand and displaying tears on the face. In FIG. 56, both arms are put forward and a smiley mark is displayed on the face to express "fun".

【0233】ロボットの上半身の動きの機構の構成例に
ついては、図5乃至図8に一例を挙げたが、次に、ロボ
ットの下半身の動きの機構の構成例について説明する。
FIGS. 5 to 8 show an example of the structure of the mechanism for moving the upper body of the robot. Next, an example of the structure of the mechanism for moving the lower body of the robot will be described.

【0234】図57及び図58は、音楽などの音の「大
きさ」、「速さ」、「リズム」等によって下半身の動作
が変化するように構成したロボットの例を示す斜視図で
ある。
FIGS. 57 and 58 are perspective views showing an example of a robot configured so that the motion of the lower body changes according to the "loudness", "speed", "rhythm", etc. of a sound such as music.

【0235】この例では、ロボットが音楽に合わせて左
右に足を開閉してあたかもダンスを踊るような仕草をす
るものである。この動作の内、図57は、ロボットが略
足を揃えて直立している第1の状態を示している。図5
8は、このロボットが左右に足を開いている第2の状態
を示している。ロボットは、第1の状態から第2の状態
に連続的に移行し、また、第2の状態から第1の状態に
連続的に移行する。足を左右に開く際には、図58に示
すように、後述の機構によって足の膝を曲げるようにな
されており、人の動きに似るように工夫されている。
In this example, the robot opens and closes its legs to the left and right according to the music, and performs a gesture as if dancing. Among these operations, FIG. 57 shows a first state in which the robot stands upright with its legs almost aligned. FIG.
8 shows a second state in which the robot has its legs open left and right. The robot continuously transitions from the first state to the second state, and continuously transitions from the second state to the first state. When the foot is opened right and left, as shown in FIG. 58, the knee of the foot is bent by a mechanism described later, and is devised so as to resemble the movement of a person.

【0236】図59及び図60は、足の開脚機構300
の駆動部分を示す斜視図であり、図59は足が閉じた状
態を、図60は足が開いた状態を示している。ロボット
の左足の下部にモータ301が内蔵され、ギア機構30
2によって駆動力が増大される。駆動力は、駆動軸30
3を介して腰部フレーム304の股関節部分305を通
り、腰部フレーム内部の左足カム機構306を回転駆動
する。この機構のカム307にはリンク308の一端が
球軸受け309を介して回動可能に連結される。リンク
308の他端は右足軸310上端の球軸受け311に回
動可能に取り付けられる。右足軸310は、その下端に
床面を滑動するべくローラ部312が取り付けられ、右
足軸310を腰部フレーム304に取り付ける股関節部
313を中心として左右に揺動する。この結果、カム機
構306、リンク308、股関節305、313等によ
って右足軸303と左足軸310とは、胴体の中心部を
上下方向に延在する(仮想の)中心軸(線)を基準とし
て左右対称に移動することができる。
FIGS. 59 and 60 show a leg opening mechanism 300.
59 is a perspective view showing the driving part of FIG. 59, FIG. 59 shows a state in which the foot is closed, and FIG. 60 shows a state in which the foot is open. The motor 301 is built in the lower part of the left leg of the robot, and the gear mechanism 30
2, the driving force is increased. The driving force is the driving shaft 30
3 through the hip joint portion 305 of the waist frame 304 to rotate the left foot cam mechanism 306 inside the waist frame. One end of a link 308 is rotatably connected to a cam 307 of this mechanism via a ball bearing 309. The other end of the link 308 is rotatably attached to a ball bearing 311 at the upper end of the right foot shaft 310. A roller portion 312 is attached to the lower end of the right foot shaft 310 to slide on the floor surface, and swings right and left around a hip joint portion 313 for mounting the right foot shaft 310 to the waist frame 304. As a result, the right foot axis 303 and the left foot axis 310 are moved by the cam mechanism 306, the link 308, the hip joints 305, 313, etc., with respect to the (virtual) center axis (line) extending vertically in the center of the body. Can move symmetrically.

【0237】図61は、右足320の構成例を示す斜視
図である。右足軸310の上部には、股関節部313が
取り付けられている。この股関節部313の上部は図示
しないピンによって腰部フレーム304に対して右足を
左右方向に回動可能に取り付けられる。股関節部313
の下部は足の膝上部321の上端の凹部にロボットの前
後方向に回動可能にピン322によって取り付けられ
る。膝上部321の下端部の凹部は膝下部前カバー32
3の突起部323aとピン324によって前後方向に回
動可能に取り付けられる。膝下部前カバー323の下端
部中央323bは、逆V字状に開口している。右足軸3
10の下端部のローラ部312は、ロボットの前後方向
に延在する接地部325の中央の貫通口325aに位置
して図示しない地面や床面(あるいはロボットの載置
面)と接するようになされ、該貫通口325aの両側に
それぞれ配置された略逆V型の一対の突起部325cに
ピン326によって回動可能に取り付けられる。膝下部
前カバー323には、膝下部後カバー327が右足軸3
10を間に挟んで嵌合する。膝下部後カバー327の上
面部には、右足軸310が位置するU字状の開口327
aが設けられている。また、膝下部後カバー327の膝
下部前カバーの逆V字状開口323bと対向する位置
に、長穴327bが設けられている。これ等の逆V字状
開口323bと長穴327bとには、ローラ部312を
接地部325に回動可能に連結するピン326が位置す
る。これ等、膝下部のU字状の開口327a、逆V字状
開口323b及び長穴327bは、膝上部と膝下部との
連結部分である膝部を曲げたときに右足軸310及び連
結ピン326がカバー323、327に干渉しない(当
たらない)ようにしている。
FIG. 61 is a perspective view showing a configuration example of the right foot 320. A hip joint 313 is attached to an upper part of the right foot shaft 310. The upper part of the hip joint 313 is attached to the waist frame 304 by a pin (not shown) so that the right foot can rotate in the left-right direction. Hip joint 313
Is attached to a recess at the upper end of the upper knee 321 of the foot by a pin 322 so as to be rotatable in the front-rear direction of the robot. The recess at the lower end of the upper knee 321 is the lower front cover 32 of the knee.
3 and a pin 324 so as to be rotatable in the front-rear direction. The lower end center 323b of the lower knee front cover 323 is opened in an inverted V-shape. Right foot axis 3
The roller 312 at the lower end of the roller 10 is located at the central through-hole 325a of the grounding portion 325 extending in the front-rear direction of the robot, and is in contact with the ground or floor (not shown) (or the mounting surface of the robot). A pair of substantially inverted V-shaped protrusions 325c arranged on both sides of the through hole 325a are rotatably attached by pins 326. The lower-knee rear cover 327 includes a right-foot axle 3 on the lower-knee front cover 323.
10 is fitted therebetween. A U-shaped opening 327 in which the right foot axis 310 is located is provided on the upper surface of the lower cover 327.
a is provided. An elongated hole 327b is provided at a position of the lower back knee cover 327 facing the inverted V-shaped opening 323b of the lower front cover of the knee. A pin 326 for rotatably connecting the roller portion 312 to the ground portion 325 is located in the inverted V-shaped opening 323b and the elongated hole 327b. The U-shaped opening 327a, the inverted V-shaped opening 323b and the elongated hole 327b at the lower part of the knee form the right foot shaft 310 and the connecting pin 326 when the knee, which is the connecting part between the upper part and the lower part of the knee, is bent. Does not interfere (do not hit) the covers 323 and 327.

【0238】膝下部後カバー327の内側底部には、突
起部327c(図57、図58参照)が形成されてい
る。この突起部327cは、接地部325に形成された
傾斜面325bと接する。モータ301の回転によって
図60に示すように右足軸310がロボットの右側方に
開くと、右足首は、図62(a)に示す状態から、接地
部325は床面を滑り、図62(b)に示すように、相
対的に膝下部327をローラ部・接地部の連結ピン32
6を中心にして時計方向に回転させる。それにより、膝
下部の突起部327cが接地部325の傾斜面325b
の上部に当たるようになり、膝下部327を上に押し上
げる。このとき、股関節313の位置は変わらないの
で、膝上部321の下部と膝下部323の上部(膝関
節)が前方に押し出され、足の膝が曲がるようになる。
A projection 327c (see FIGS. 57 and 58) is formed on the inner bottom of the lower knee rear cover 327. The protrusion 327c contacts an inclined surface 325b formed on the grounding portion 325. When the right foot axis 310 is opened to the right side of the robot by the rotation of the motor 301 as shown in FIG. 60, the right ankle is moved from the state shown in FIG. ), The lower part 327 of the knee is relatively connected to the connecting pin 32 of the roller / ground contact portion.
Rotate clockwise around 6. As a result, the projection 327c below the knee is inclined to the inclined surface 325b of the ground contact portion 325.
And pushes the lower part of the knee 327 upward. At this time, since the position of the hip joint 313 does not change, the lower part of the upper knee 321 and the upper part of the lower knee 323 (knee joint) are pushed forward, and the knee of the leg is bent.

【0239】図63は、モータ301を内蔵する左足3
30の外観を示している。左足軸303の上端部には、
偏心カム307が取り付けられ、このカム307にはリ
ンク308と係合する球状の係合部材309がネジ(図
64参照)によって取り付けられている。モータ301
は膝下部331に内蔵され、膝下部331と接地部33
2とは回動可能にピンによって連結されている。左足の
接地部332の底部には、滑りを防止するためにゴム等
の摩擦部材(図示せず)が貼り付けられている。左足部
330には、右足部320のような膝曲げ機構は設けら
れていないが、左足にも、右足と同様に膝曲げ機構を設
けることとしても良い。
FIG. 63 shows a left foot 3 with a built-in motor 301.
FIG. At the upper end of the left foot shaft 303,
An eccentric cam 307 is attached, and a spherical engaging member 309 that engages with the link 308 is attached to the cam 307 by a screw (see FIG. 64). Motor 301
Is built into the lower knee 331, and the lower knee 331 and the ground contact portion 33
2 is rotatably connected by a pin. A friction member (not shown) such as rubber is attached to the bottom of the ground contact portion 332 of the left foot to prevent slippage. The left leg 330 is not provided with a knee bending mechanism like the right leg 320, but the left leg may be provided with a knee bending mechanism similarly to the right leg.

【0240】上述した下半身機構300では、機構部分
が胴体下部のみを占有するだけであり、ロボットの胴体
内部の大半を空にすることが可能となる。胴体内部を電
気回路や上半身の機構に利用することが出来るので具合
がよい。また、足の膝下部に比較的に重いモータが配置
されるので、ロボットを安定させることが容易となる。
また、上述した機構では、右足の膝は曲がるが、左足の
膝を固定とし、底部に摩擦部材を設けることによって、
ロボットの姿勢の不安定、ロボットの移動、回転などを
防止している。
In the lower body mechanism 300 described above, the mechanism part occupies only the lower part of the body, and it is possible to empty most of the inside of the body of the robot. Since the inside of the fuselage can be used for an electric circuit or a mechanism of the upper body, the condition is good. In addition, since a relatively heavy motor is arranged below the knee of the foot, it is easy to stabilize the robot.
In the mechanism described above, the knee of the right foot bends, but the knee of the left foot is fixed, and a friction member is provided at the bottom,
Prevents robot posture instability, robot movement, rotation, etc.

【0241】図64は、左足軸のカム307の例を示し
ている。同図に示すように、カム307の係合部材30
9の取り付け位置を変えることによって左右の足の開き
加減を調整することが可能である。リンク308との係
合部材309(及び311)を球状とすることによって
開脚したときでもリンクと係合部材(あるいはカム)と
の間に無理な力が加わらない。調整は、カムに複数のネ
ジ穴を予め設けておいて係合部材を適当なネジ穴に取り
付けたり、カムを交換することで行える。
FIG. 64 shows an example of the cam 307 of the left foot axis. As shown in FIG.
It is possible to adjust the opening and closing of the left and right feet by changing the mounting position of 9. By forming the engaging member 309 (and 311) with the link 308 into a spherical shape, no excessive force is applied between the link and the engaging member (or cam) even when the leg is opened. The adjustment can be performed by providing a plurality of screw holes in the cam in advance, attaching the engaging member to an appropriate screw hole, or replacing the cam.

【0242】図65は、音楽や音とロボットの動きとを
同期(対応)させる例を説明するブロック図である。
FIG. 65 is a block diagram for explaining an example of synchronizing (corresponding to) music and sound with the movement of the robot.

【0243】この例では、制御部60のROM62に換
えて、あるいはROM62に加えて音楽情報、制御デー
タを記録した、一辺が約2cmの四角形のチップカード
(小型ICカード)621が使用されている。それによ
り、曲の交換を容易にしている。勿論ROM62に音楽
情報、制御データを記録しても良い。使用者がチップカ
ード621をロボットに差し込み、図示しないスイッチ
を操作して動作を指令すると、制御部60は、チップカ
ード621から音声データ(情報)を読み込み、制御部
60の音声再生処理機能601によって音声信号に変換
して適当なレベルでスピーカ72に供給する。スピーカ
72から所定のリズムの曲が流れる。また、制御部60
は、チップカード621から制御データを読み込み、制
御部60のリズム制御機能602によってモータ301
を制御する。モータ301はPWM制御、供給電圧のレ
ベル制御などによって、モータ301の回転の速さ、正
逆回転、歩幅等を制御することができる。予め制御デー
タに曲のリズムを表すデータを記録しておくことによっ
て、曲の演奏と合致した足の動きとすることが可能とな
り、あたかも、ロボットが曲に合わせて踊っているよう
に見せることが出来る。
In this example, a square chip card (small IC card) 621 having a side of about 2 cm and recording music information and control data is used instead of or in addition to the ROM 62 of the control unit 60. . This facilitates song exchange. Of course, music information and control data may be recorded in the ROM 62. When the user inserts the chip card 621 into the robot and operates a switch (not shown) to instruct an operation, the control unit 60 reads voice data (information) from the chip card 621 and the voice reproduction processing function 601 of the control unit 60 causes the voice data (information) to be read. The signal is converted to an audio signal and supplied to the speaker 72 at an appropriate level. A song having a predetermined rhythm flows from the speaker 72. The control unit 60
Reads the control data from the chip card 621 and controls the motor 301 by the rhythm control function 602 of the control unit 60.
Control. The motor 301 can control the rotation speed, forward / reverse rotation, step length, and the like of the motor 301 by PWM control, supply voltage level control, and the like. By recording data representing the rhythm of the song in the control data in advance, it is possible to make the foot movements match the performance of the song, making it appear as if the robot is dancing to the song I can do it.

【0244】図66は、音楽や音に対応してロボットが
動くようにする例を説明するブロック図である。チップ
カード621には、少なくとも音声データが予め記録さ
れている。使用者がチップカード621をロボットに差
し込み、スイッチを操作して動作を指令すると、制御部
60は、チップカード621から音声データを読み込
み、制御部60の音声再生処理機能601によって音声
信号に変換して適当なレベルでスピーカ72に供給す
る。スピーカ72から所定のリズムの曲が流れる。ま
た、制御部60は、そのサンプリング機能603によっ
て音声信号をサンプリングし、リズム抽出機能604に
よって音声信号から曲のリズム(音の強弱の周期)を抽
出する。この曲のリズムに対応する回転をモータ制御機
能605に設定する。モータ制御機能605はPWM制
御、供給電圧のレベル制御などを行って、モータ301
の回転の速さ、正逆回転、歩幅等を設定する。このよう
な制御を行う場合には、予め制御データに曲のリズムを
表すデータを記録しなくとも、曲の演奏と合致したロボ
ットの足の動きとすることが可能となり、あたかも、ロ
ボットが曲に合わせて踊っているように見せることが出
来る。
FIG. 66 is a block diagram for explaining an example in which the robot moves in response to music or sound. At least audio data is recorded in the chip card 621 in advance. When the user inserts the chip card 621 into the robot and operates a switch to instruct an operation, the control unit 60 reads audio data from the chip card 621 and converts it into an audio signal by the audio reproduction processing function 601 of the control unit 60. To the speaker 72 at an appropriate level. A song having a predetermined rhythm flows from the speaker 72. The control section 60 samples the audio signal by the sampling function 603 and extracts the rhythm of the music (the period of the sound intensity) from the audio signal by the rhythm extraction function 604. The rotation corresponding to the rhythm of the music is set in the motor control function 605. The motor control function 605 performs PWM control, supply voltage level control, etc.
Set rotation speed, forward / reverse rotation, stride length, etc. When such control is performed, it is possible to make the robot's foot movements coincide with the performance of the song without previously recording data representing the rhythm of the song in the control data. You can make it look like you're dancing together.

【0245】なお、マイク52の収集する音に合わせて
ロボットの足を動かすことも可能である。例えば、マイ
ク52の近くで手を叩いたり、声を掛けたり、歌をうた
ったりすると、これをサンプリング機能603によって
サンプリングし、リズム抽出機能604によって音声信
号からリズムを抽出する。この曲のリズムに対応する回
転をモータ制御機能605に設定する。従って、このよ
うな場合にも、ロボットは対応した動きをすることとな
り、面白い。
Note that it is also possible to move the robot's feet in accordance with the sound collected by the microphone 52. For example, when the user claps, calls, or sings in the vicinity of the microphone 52, this is sampled by the sampling function 603, and the rhythm is extracted from the audio signal by the rhythm extraction function 604. The rotation corresponding to the rhythm of the music is set in the motor control function 605. Therefore, even in such a case, the robot moves correspondingly, which is interesting.

【0246】次に、ロボットの下半身に2足歩行する機
構を設ける例について説明する。
Next, an example in which a bipedal walking mechanism is provided in the lower body of the robot will be described.

【0247】図67乃至図75は、2足歩行の状態を説
明する図面である。図67は、左足が後方、右足が前方
に位置して状態を示す斜視図である。図68は、右足と
左足が略揃った状態を示す斜視図である。図69は、左
足が前方、右足が後方に位置している状態を示す斜視図
である。図70は、左足の脚機構を示す側面図である。
脚機構の動作についてはその各部を説明した後、詳述す
る。図71は、腰部フレーム401を示している。腰部
フレーム401には、長手ロッド410の上がりすぎを
止めるストッパ401a、カムプーリの駆動軸の穴40
1b、膝上部402を回動可能に取り付ける連結軸40
1d、短手ロッド411の長穴411bに係合する案内
ピン401c、が設けられている。
FIGS. 67 to 75 are diagrams for explaining the state of biped walking. FIG. 67 is a perspective view showing a state where the left foot is located at the rear and the right foot is located at the front. FIG. 68 is a perspective view showing a state where the right foot and the left foot are substantially aligned. FIG. 69 is a perspective view showing a state where the left foot is located forward and the right foot is located backward. FIG. 70 is a side view showing the leg mechanism of the left foot.
The operation of the leg mechanism will be described in detail after describing each part. FIG. 71 shows the waist frame 401. The waist frame 401 has a stopper 401a for stopping the elongate rod 410 from rising too much, and a hole 40 for the drive shaft of the cam pulley.
1b, connecting shaft 40 for rotatably mounting upper knee 402
1d, a guide pin 401c that engages with the elongated hole 411b of the short rod 411 is provided.

【0248】図72は、腰部フレーム401に回動可能
に連結される膝上部402を示している。膝上部402
の上部には腰部フレーム401の連結軸401dに連結
する連結部402aが設けられている。膝上部402の
下部には、膝下部403との連結を行う連結部402b
が設けられている。
FIG. 72 shows an upper knee portion 402 rotatably connected to a waist frame 401. Upper knee 402
Is provided with a connecting portion 402a for connecting to a connecting shaft 401d of the waist frame 401. A connecting portion 402b for connecting to the lower knee portion 403 is provided below the upper knee portion 402.
Is provided.

【0249】図73は、膝下部403を示している。膝
下部403の上部には、膝上部402の連結部402b
と連結する連結部403a及び短手ロッド411との連
結部403bが設けられている。膝下部403の下部に
は接地部404の連結部404aと回動可能に連結する
連結部403cが設けられる。
FIG. 73 shows the lower knee portion 403. A connecting portion 402b of the upper knee 402 is provided above the lower knee 403.
And a connecting portion 403b for connecting with the short rod 411 are provided. A connection portion 403c that is rotatably connected to a connection portion 404a of the ground contact portion 404 is provided below the lower part of the knee 403.

【0250】図74は、接地部404を示している。接
地部404の上部には、膝下部403の連結部403c
と連結する連結部404a及び長手ロッド410との連
結部404bが設けられている。
FIG. 74 shows the grounding section 404. A connecting portion 403c of the lower knee portion 403 is provided above the ground contact portion 404.
And a connecting portion 404b for connecting to the longitudinal rod 410 are provided.

【0251】図75は、カムプーリ420、長手ロッド
410、短手ロッド411、を示している。カムプーリ
420は図示しないモータによって回転駆動される軸に
結合されている。カムプーリ420の外側方には、プー
リの駆動軸(図示せず)から偏心した位置に駆動ピン4
20aが設けられている。カムプーリ420の内側方に
は、プーリの駆動軸(図示せず)から偏心した位置に筒
状のカム420bが設けられている。「く」の字状のロ
ッドの上部には長穴410aが設けられており、この長
穴410aはピン420aに挿入され、回動可能に係合
する。長穴410aは、ロボットの足のつま先が下がる
のを少なくしている。「く」の字状のロッドの下部には
接地部404の連結部404bと連結するための連結部
410bが設けられている。短手のロッド411の上部
にはカム420bと係合する環状の係合部411aが設
けられている。短手のロッド411の中央部にはフレー
ム401cのガイドピンと係合する長穴411bが設け
られている。短手のロッド411の下部には膝下部40
3の連結部403bと連結する連結部411cが設けら
れている。
FIG. 75 shows a cam pulley 420, a long rod 410, and a short rod 411. The cam pulley 420 is connected to a shaft that is driven to rotate by a motor (not shown). On the outer side of the cam pulley 420, the drive pin 4 is located at a position eccentric from the drive shaft (not shown) of the pulley.
20a is provided. Inside the cam pulley 420, a cylindrical cam 420b is provided at a position eccentric from a drive shaft (not shown) of the pulley. An elongated hole 410a is provided on the upper part of the "U" -shaped rod, and the elongated hole 410a is inserted into the pin 420a and rotatably engages. The elongated hole 410a reduces the toes of the robot's feet from lowering. A connecting portion 410b for connecting to the connecting portion 404b of the grounding portion 404 is provided below the rod in the shape of the "<". An annular engaging portion 411a that engages with the cam 420b is provided on the upper portion of the short rod 411. An elongated hole 411b that engages with a guide pin of the frame 401c is provided at the center of the short rod 411. Below the short rod 411 is the lower knee 40
A connecting portion 411c that connects to the third connecting portion 403b is provided.

【0252】上記構成によって、図70に示すように、
腰部フレーム401と膝上部402が連結部401d及
び402aを介して回動可能に連結され、膝上部402
と膝下部403が連結部402b及び403aを介して
回動可能に連結される。更に、膝下部403が接地部4
04と連結部403c及び404aを介して回動可能に
連結される。短手ロッドはカム420bと膝下部403
を連結部403b、411cを介して連結する。カムプ
ーリ420が回転駆動されると、偏心カム420bは短
手ロッド411によって膝下部403の振り、膝下部4
03の持ち上げを行う。これに伴って、膝上部402も
揺動する。長手ロッド410は駆動ピン(カム)420
aと接地部404を連結部410b、404bを介して
連結する。カムプーリ420が回転駆動されると、42
0aは長手ロッド410によって接地部404の持ち上
げを行う。足を移動する際に足のつま先の上げ下げを設
定する。
With the above configuration, as shown in FIG.
The waist frame 401 and the upper knee portion 402 are rotatably connected via connecting portions 401d and 402a.
And the knee lower part 403 are rotatably connected via connecting parts 402b and 403a. Furthermore, the lower part 403 of the knee is
04 and rotatably connected via connecting portions 403c and 404a. Short rod is cam 420b and lower knee 403
Are connected via connecting portions 403b and 411c. When the cam pulley 420 is driven to rotate, the eccentric cam 420b swings the lower part of the knee 403 by the short rod 411, and
03 is lifted. Accompanying this, the upper knee 402 also swings. The longitudinal rod 410 is a driving pin (cam) 420
a and the grounding portion 404 are connected via connecting portions 410b and 404b. When the cam pulley 420 is driven to rotate, 42
0a lifts the ground contact portion 404 by the longitudinal rod 410. Set your toes up and down as you move your feet.

【0253】この機構は、図67乃至図69に示すよう
に、着地している右足でバランスを保ちながら、左足の
つま先を上げ、かかとを着地した状態で左足を後方から
前方に移動して足を進める。左足全体が着地すると、同
様に、右足を前方に移動することを繰り返して歩行す
る。
As shown in FIGS. 67 to 69, this mechanism raises the toe of the left foot while maintaining the balance with the right foot while landing, and moves the left foot from the rear to the front while the heel is landing. Advance. When the entire left foot lands, the user similarly walks by repeatedly moving the right foot forward.

【0254】図76及び図77は、駆動軸の回転に伴
う、左足の動きを示している。この例では、接地部が床
に触れていない、足をつり下げた状態での動きを示して
いる。
FIGS. 76 and 77 show the movement of the left foot as the drive shaft rotates. In this example, the movement in a state where the ground contact portion does not touch the floor and the foot is suspended is shown.

【0255】図76(1)〜同図(4)及び図77
(5)〜(8)の各図は、カムの駆動軸が45度ずつ回
転したときの各足の動きを示している。図(1)は、カ
ム軸の回転角度が0度(基準位置)の状態を示してい
る。この状態では、カム420aによってガイドピン4
01cを支点として短手ロッド411が前方に振り出さ
れ、足が前に出ている。図(3)はカム軸が90度回転
している状態を示している。この状態では、カム420
aによって短手ロッド411は揺動の略中心位置にあ
り、足が揃っている。図(5)はカム軸が180度回転
しいる状態を示している。この状態では、カム420a
によってガイドピン401cを支点として短手ロッド4
11が後方に振り出され、足が後にある。図(7)はカ
ム軸が270度回転した状態を示している。この状態で
は、足が揃う状態に相当する。ただし、(3)の場合と
は異なり、長手ロッド411の上端はストッパに接して
いないので、接地部404の連結部を404aを中心と
する回動の自由度は大きい。図76(1)乃至図77
(5)に示されるように、長手ロッド410の上端がが
ストッパ401aに当たって長手ロッド410の上昇が
阻止され、足(接地部)の先端の下がりすぎを防止して
いる。また、接地部404が着地しているときのロボッ
トのフレームの重量を接地部404の後側に伝えて姿勢
の安定を図る。
FIG. 76 (1) to FIG. 76 (4) and FIG.
(5) to (8) show the movement of each foot when the drive shaft of the cam rotates by 45 degrees. FIG. 1A shows a state where the rotation angle of the camshaft is 0 degree (reference position). In this state, the guide pin 4 is moved by the cam 420a.
The short rod 411 is swung forward with 01c as a fulcrum, and the foot is extended forward. FIG. 3C shows a state where the camshaft is rotated 90 degrees. In this state, the cam 420
As a result, the short rod 411 is at the approximate center position of the swing, and the legs are aligned. FIG. 5 shows a state where the camshaft is rotated by 180 degrees. In this state, the cam 420a
With the guide pin 401c as a fulcrum, the short rod 4
11 is swung backwards, with the feet behind. FIG. 7 shows a state where the camshaft is rotated by 270 degrees. This state corresponds to a state where the feet are aligned. However, unlike the case of (3), since the upper end of the longitudinal rod 411 does not contact the stopper, the connecting portion of the grounding portion 404 has a large degree of freedom of rotation about the 404a. FIG. 76 (1) to FIG. 77
As shown in (5), the upper end of the longitudinal rod 410 hits the stopper 401a to prevent the longitudinal rod 410 from rising, thereby preventing the tip of the foot (ground portion) from falling too far. Further, the weight of the robot frame when the ground contact portion 404 lands is transmitted to the rear side of the ground contact portion 404 to stabilize the posture.

【0256】このような一連の動作によって、図78
(a)及び同(b)に示すように、つま先を上げ、かか
とを地面に着けた状態で足を前に進め、足が前に出る
と、足裏全体を着地する。後述するように、足裏のつま
先側には、ロボット全体の向きを変える機構が組み込ま
れている。また、足裏のかかと側には地面を滑動するよ
うにローラが組み込まれている。ローラは、例えば、金
属のローラを用いることによって錘を兼用させることが
出来、ロボット全体の姿勢の安定を図ることが可能であ
る。これ等の機構に上述したロボットの足運びの態様は
好都合である。
With such a series of operations, FIG.
As shown in (a) and (b), the toes are raised, the feet are advanced with the heels on the ground, and when the feet come forward, the entire foot sole lands. As will be described later, a mechanism for changing the direction of the entire robot is incorporated on the toe side of the sole. In addition, a roller is incorporated on the heel side of the sole so as to slide on the ground. As the roller, for example, a metal roller can be used as a weight, and the posture of the entire robot can be stabilized. The above-described embodiment of the robot's stepping on these mechanisms is advantageous.

【0257】なお、カム軸を逆回転することによってロ
ボットは後進する。
The robot moves backward by reversely rotating the cam shaft.

【0258】図79及び図80は、他の脚機構の構成例
(左足の脚機構)を示している。同図において、図70
と対応する部分には、同一符号を付している。
FIGS. 79 and 80 show examples of the structure of another leg mechanism (left leg mechanism). In FIG.
The same reference numerals are given to portions corresponding to.

【0259】この例では、長手ロッド410に一体的に
取り付けられた押さえプレート410cが設けられてい
る。カムでこの押さえプレートを押すことによって設定
したタイミングで接地部404の連結部(後部軸)40
4bを押すことによってロボットの傾き(姿勢)や足の
つま先(あいるは踵)の上げ下げを設定する。また、ロ
ボットの足(接地部)のつま先がより上方に上がるよう
に、カムや穴の形状を調整している。更に、この例で
は、接地部404の前端側(つま先側)に地面を押す、
あるいは削るような付勢力をバネによって積極的に与
え、それにより、つま先の駆動力を増加させて、ロボッ
トの前進力(あるいは後進力)を増している。
In this example, a holding plate 410c integrally provided with the longitudinal rod 410 is provided. The connecting portion (rear shaft) 40 of the ground contact portion 404 is set at a timing set by pressing the holding plate with the cam.
By pressing 4b, the inclination (posture) of the robot and the raising and lowering of the toes (or heels) of the feet are set. In addition, the shape of the cams and holes is adjusted so that the toes of the feet (ground contact portions) of the robot rise further upward. Further, in this example, the ground is pushed toward the front end side (toe side) of the ground contact portion 404.
Alternatively, a biasing force such as shaving is positively applied by a spring, thereby increasing the driving force of the toes, thereby increasing the forward force (or backward force) of the robot.

【0260】図79に示す左足の脚機構において、腰部
フレーム401と膝上部402が連結部401d及び4
02aを介して回動可能に連結され、膝上部402と膝
下部403が連結部402b及び403aを介して回動
可能に連結される。更に、膝下部403が接地部404
と連結部403c及び404aを介して回動可能に連結
される。接地部404の一部、例えば、連結部404b
と膝下部403のケースの一部との間に付勢手段として
のスプリングSPが取り付けられ、接地部404の後方
(足の踵)を常に持ち上げるような力を加える。このス
プリングSPは、偏心カム420bと押さえプレート4
10cとを常時接触させる方向に作用する。なお、スプ
リングSPは接地部404の踵を上方に持ち上げるよう
な作用をすればれば良く、その取付位置は適宜に選択可
能である。
In the left leg mechanism shown in FIG. 79, the waist frame 401 and the upper part of the knee 402 are connected to the connecting portions 401d and 4d.
The upper knee portion 402 and the lower knee portion 403 are rotatably connected via connecting portions 402b and 403a. Furthermore, the lower part 403 of the knee is
And are rotatably connected via connecting portions 403c and 404a. A part of the ground part 404, for example, the connecting part 404b
A spring SP as a biasing means is attached between the lower part of the knee 403 and a part of the case, and applies a force to constantly lift the rear part (heel of the foot) of the ground contact part 404. The spring SP has an eccentric cam 420b and a holding plate 4
10c acts in a direction in which it is always in contact. Note that the spring SP only needs to act to lift the heel of the ground contact portion 404 upward, and its mounting position can be appropriately selected.

【0261】短手ロッド411は偏心カム420bと膝
下部403を連結部403b、411cを介して連結す
る。カムプーリ420が回転駆動されると、偏心カム4
20bは短手ロッド411によって膝下部403の前後
方向の振り、膝下部(脚)403の持ち上げを行う。こ
れに伴って、膝上部402も膝を曲げて動かすように揺
動する。長手ロッド410はガイドピン420cによっ
て案内され、偏心カム420bと接地部404の連結部
404b、410bとを連結する。この例では、ガイド
ピン420cはカム420の回転軸と同心位置となって
いる。カムプーリ420が回転駆動されると、ピン42
0cをガイドとして押さえプレート410cが偏心カム
420bによって押し下げられ、長手ロッド410によ
って接地部404の結合部(後部軸)404bを押し下
げる。それにより、ロボットの歩行時の姿勢(傾き)、
あるいは足を移動する際の足のつま先の上げ下げを設定
する。
The short rod 411 connects the eccentric cam 420b and the lower part of the knee 403 via connecting portions 403b and 411c. When the cam pulley 420 is driven to rotate, the eccentric cam 4
20b swings the lower part of the knee 403 in the front-rear direction by the short rod 411 and lifts the lower part of the knee (leg) 403. Along with this, the upper knee 402 also swings so as to bend and move the knee. The longitudinal rod 410 is guided by the guide pin 420c, and connects the eccentric cam 420b and the connecting parts 404b, 410b of the ground part 404. In this example, the guide pin 420c is concentric with the rotation axis of the cam 420. When the cam pulley 420 is driven to rotate, the pin 42
The pressing plate 410c is pushed down by the eccentric cam 420b with the guide 0c as a guide, and the connecting portion (rear shaft) 404b of the ground contact portion 404 is pushed down by the longitudinal rod 410. As a result, the posture (tilt) of the robot when walking,
Or, set up and down of the toe of the foot when moving the foot.

【0262】このような機構では、踏み足を前に出すタ
イミングで踏み足のつま先を持ち上げ、踏み足を後に下
げるタイミングで踏み足のつま先を下ろすようにするこ
とが可能となる。それにより、ロボットが倒れずに歩行
することのできるロボットの走破性能を向上することが
可能となる。
In such a mechanism, it is possible to raise the toe of the stepping foot at the timing of raising the stepping foot, and to lower the toe of the stepping foot at the timing of lowering the stepping foot. As a result, it is possible to improve the running performance of the robot that can walk without falling down.

【0263】図80は、上述した他の機構例の、カムプ
ーリ420、長手ロッド410、短手ロッド411、ス
プリングSPを示している。カムプーリ420は図示し
ないモータによって回転駆動される駆動軸(図示せず)
に結合されている。カムプーリ420の外側方には、プ
ーリの駆動軸と同心の位置にガイドピン420cが設け
られている。カムプーリ420には、プーリの駆動軸か
ら偏心した位置に筒状のカム420bが設けられてい
る。略「く」の字状の長手ロッド410の上部には長穴
410aが設けられており、この長穴410aはピン4
20cに挿入され、回動可能に係合する。長穴410a
は、ガイドピン420cが移動可能に係合する。長穴4
10aの下部には、押さえプレート410cが形成され
ている。押さえプレート410cの上面は偏心カム42
0bに接してカム420bの動きに応じて長手ロッドを
上下動させる。「く」の字状のロッド410の下部には
接地部404の連結部404bと連結するための連結部
410bが設けられている。短手のロッド411の上部
には偏心カム420bと回動可能に係合する環状の係合
部411aが設けられている。短手のロッド411の中
央部にはフレーム401のガイドピンと係合する長穴4
11bが設けられている。短手のロッド411の下部に
は膝下部403の連結部403bと連結する連結部41
1cが設けられている。
FIG. 80 shows a cam pulley 420, a long rod 410, a short rod 411, and a spring SP of another example of the mechanism described above. The cam pulley 420 is driven by a motor (not shown).
Is bound to Outside the cam pulley 420, a guide pin 420c is provided at a position concentric with the drive shaft of the pulley. The cam pulley 420 is provided with a cylindrical cam 420b at a position eccentric from the drive shaft of the pulley. An elongated hole 410a is provided on the upper portion of the substantially rod-shaped elongated rod 410, and the elongated hole 410a is
20c and is rotatably engaged. Long hole 410a
The guide pin 420c is movably engaged. Slot 4
A holding plate 410c is formed below 10a. The upper surface of the holding plate 410c is the eccentric cam 42.
The longitudinal rod is moved up and down according to the movement of the cam 420b in contact with 0b. A connecting portion 410b for connecting to the connecting portion 404b of the grounding portion 404 is provided below the rod 410 in the shape of a "<". An annular engaging portion 411a that rotatably engages with the eccentric cam 420b is provided on an upper portion of the short rod 411. In the center of the short rod 411, a long hole 4 that engages with the guide pin of the frame 401
11b is provided. The connecting portion 41 connected to the connecting portion 403b of the lower knee portion 403 is provided below the short rod 411.
1c is provided.

【0264】なお、上述した他の実施例においても、膝
上部402、膝下部403、接地部404は第1の実施
例と同様に構成されている。
In the other embodiments described above, the upper knee portion 402, the lower knee portion 403, and the ground contact portion 404 are configured in the same manner as in the first embodiment.

【0265】図81及び図82は、このロボットの向き
を変える機構を示している。図81は接地部の側面図で
あり、つま先側に駆動ローラ404cを、かかと側に滑
動ローラ404dを配置している。図82(a)は、左
右の脚の接地部404をロボットの前方から見た図であ
り、図82(b)は、左右の脚の接地部404を底部か
ら見た図である。
FIG. 81 and FIG. 82 show a mechanism for changing the direction of the robot. FIG. 81 is a side view of the grounding portion, in which a driving roller 404c is arranged on the toe side and a sliding roller 404d is arranged on the heel side. FIG. 82 (a) is a diagram of the grounding portions 404 of the left and right legs viewed from the front of the robot, and FIG. 82 (b) is a diagram of the grounding portions 404 of the left and right legs viewed from the bottom.

【0266】図82(b)に示すように、接地部404
内の前方には、モータ404e、このモータの回転量力
を増大するギア機構404f、ギア機構404fによっ
て回転する駆動ローラ404cが配置されている。駆動
ローラ404cは複数設けることが出来、この例では、
2つの駆動ローラ404c、404cを設け、両者間を
更に駆動ベルト404gによって連結している。駆動ロ
ーラ404c及び駆動ベルト404gによる駆動方向
は、ロボットの前後方向に対して斜めになるように設定
される。モータやギア機構もこれに対応して斜めに配置
されているが、これ等は適宜に配置することが可能であ
る。駆動ローラ404cの数を増やすと、接地面が増
え、ロボットの安定性が増す。また、ターンの速度を上
げることが出来る。
As shown in FIG. 82 (b), the grounding portion 404
A motor 404e, a gear mechanism 404f for increasing the amount of rotation of the motor, and a drive roller 404c rotated by the gear mechanism 404f are disposed in the front of the inside. A plurality of drive rollers 404c can be provided. In this example,
Two drive rollers 404c, 404c are provided, and both are further connected by a drive belt 404g. The driving direction of the driving roller 404c and the driving belt 404g is set to be oblique with respect to the front-rear direction of the robot. The motor and the gear mechanism are also obliquely arranged corresponding to this, but these can be arranged as appropriate. Increasing the number of drive rollers 404c increases the contact surface and increases the stability of the robot. You can also increase the speed of the turn.

【0267】好ましくは、図82(b)に示すように、
両足が揃っている状態では、左右の駆動ローラ404c
及び駆動ベルト404gによる駆動方向は略同一の円周
上に位置する「ハ」の字状である。接地部404内の前
方には、自由回転する滑動ローラ404dが位置されて
いる。このローラを比較的に重い材料、例えば、金属で
構成することによってロボットのバランスを調整する錘
としても兼ねることが出来る。もちろん、バランスを保
つ錘に相当するものを別途接地部404に設けることが
できる。
Preferably, as shown in FIG.
When both feet are aligned, the left and right drive rollers 404c
The drive direction by the drive belt 404g is a “C” shape that is located on substantially the same circumference. A sliding roller 404d that rotates freely is located in front of the ground contact portion 404. By making this roller a relatively heavy material, for example, metal, it can also serve as a weight for adjusting the balance of the robot. Of course, an equivalent to the weight for maintaining the balance can be separately provided in the ground portion 404.

【0268】図83は、他のロボットの向きを変える機
構の例を示している。同図において、図82(b)と対
応する部分には同一符号を付し、かかる部分の説明は省
略する。この例では、ロボットの左足側のみを示してお
り、図示しない右足側は図示の左足側の例と左右対称に
構成される。図82に示された駆動ローラ404c及び
駆動ベルト404gを駆動ゴムローラ404hによって
構成している。駆動ゴムローラ404hは、例えば、プ
ラスチックのプーリの外周を摩擦の大きいゴムで覆って
構成される。両足が揃っている状態では、左右のゴム駆
動ローラ404hによる駆動方向は略同一の円周上に位
置する「ハ」の字状である。接地部404内の後方に
は、自由回転する滑動ローラ404dが設けられてい
る。このように構成しても、前述した図81及び図82
の場合と同様に動作する。
FIG. 83 shows an example of a mechanism for changing the direction of another robot. In the figure, the same reference numerals are given to the portions corresponding to FIG. 82 (b), and the description of such portions is omitted. In this example, only the left foot side of the robot is shown, and the right foot side (not shown) is configured symmetrically to the left foot side shown. The drive roller 404c and the drive belt 404g shown in FIG. 82 are constituted by a drive rubber roller 404h. The driving rubber roller 404h is configured by, for example, covering the outer periphery of a plastic pulley with rubber having a large friction. In a state where both feet are aligned, the driving directions by the left and right rubber driving rollers 404h are shaped like “C” which are located on substantially the same circumference. A sliding roller 404d that rotates freely is provided behind the ground contact portion 404. Even with such a configuration, the above-described FIGS.
Works as in

【0269】このような、ロボットの足の裏に駆動ロー
ラあるいは駆動ベルトを設けることによって、2足歩行
を行いながら、2足歩行の機構では技術的な困難な方向
転換(ターン)を行うことが可能となる。勿論、歩行停
止状態でもターンが出来る。また、駆動ローラあるいは
駆動ベルトをロボットの前後方向に対して斜め方向に配
置する構成とすることにより、ターンのために駆動ロー
ラを進行方向に対して直角方向に駆動する場合よりも、
ロボットの姿勢が安定でより短時間でロボットの移動方
向の変更を行うことが可能となる。
By providing a drive roller or a drive belt on the sole of the robot, it is possible to perform a technically difficult direction change (turn) with a bipedal walking mechanism while performing bipedal walking. It becomes possible. Of course, a turn can be made even when the walking is stopped. Further, by arranging the driving roller or the driving belt obliquely with respect to the front-back direction of the robot, the driving roller is driven in a direction perpendicular to the traveling direction for turning.
The posture of the robot is stable, and the moving direction of the robot can be changed in a shorter time.

【0270】また、上述した脚の2足歩行機構では、か
かとが常に接地した状態で歩行する。駆動ローラあるい
は駆動ベルトをつま先側に設けることはこの歩行構造と
適合する。すなわち、仮に、かかと側に駆動ローラを設
けた場合には、つま先を上げたときでも、ターンが可能
となり、ロボットの姿勢が不安定となる。また、擬人化
したロボットの動きとしては不自然に動きとなる。この
点、駆動ベルト等をつま先側に設けた場合には、足裏全
体が着地している足でターンするので姿勢は安定であ
り、動きが自然に見える。特に、歩行しながらのターン
の安定性が良い。
In the bipedal walking mechanism of the above-described leg, the gait walks with the heel always in contact with the ground. Providing a drive roller or drive belt on the toe side is compatible with this walking structure. That is, if a driving roller is provided on the heel side, the turn is possible even when the toe is raised, and the posture of the robot becomes unstable. Also, the motion of the anthropomorphic robot is unnatural. In this regard, in the case where the drive belt or the like is provided on the toe side, the posture is stable and the movement looks natural because the entire sole of the foot turns with the landing foot. In particular, the stability of the turn while walking is good.

【0271】制御部60は、光センサ53等によってロ
ボットの前方に障害物があることを検出すると、上述し
た方向転換機構を作動させることによって、ロボットの
向きを変え、障害物を回避することが可能となる。な
お、障害物を検知するセンサの位置は接地部の先端に設
けても良い。この場合のセンサはスイッチ、超音波セン
サ、等であっても良い。
When the control unit 60 detects the presence of an obstacle in front of the robot by the optical sensor 53 or the like, the control unit 60 changes the direction of the robot and avoids the obstacle by operating the above-described direction changing mechanism. It becomes possible. Note that the position of the sensor that detects an obstacle may be provided at the tip of the grounding unit. The sensor in this case may be a switch, an ultrasonic sensor, or the like.

【0272】以上説明したように、本発明の実施例にお
いては、予め、ユーザがいることを判別してから動作を
するようにしているので、電池の消耗を減らすことが可
能となる。
As described above, in the embodiment of the present invention, the operation is performed after the presence of the user is determined in advance, so that the consumption of the battery can be reduced.

【0273】なお、電子玩具は電池駆動に限定されるも
のではなく、AC電源やAC電源アダプタを介した電源
供給であっても良い。
Note that the electronic toy is not limited to the battery drive, but may be an AC power supply or a power supply via an AC power adapter.

【0274】また、実施例のロボットは、自身の行動を
決めるプログラムがなされており、時間に従って色々な
動作を自ら起こす。そのときに、反応があるかないか、
例えば、音が聞こえるか、スイッチを触られるか等で、
次の行動を決定する。見る人がいないときは、あまり無
駄に動きはしないが、定期的(一定時間間隔)にユーザ
がそばにいるかを確認する。そばに誰かいれば、更に大
きなアクションを起こすことで、ユーザにとってはあた
かもいつでも勝手に動いているように見える。
Further, the robot of the embodiment is provided with a program for determining its own action, and makes various actions according to time. At that time, there is no reaction,
For example, if you can hear the sound or touch the switch,
Determine your next action. When there is no viewer, the user does not move too much, but periodically (at regular time intervals) it is checked whether the user is nearby. By taking even greater action if someone is nearby, it appears to the user that it is always moving on its own.

【0275】また、実施例のロボットは、ユーザの体調
や機嫌を推測するために、ユーザのバイオリズムを把握
し、ユーザの具合が悪いと推測されるときには、励ます
など人間味を持った受け答えを行うように行動する(プ
ログラムされている)。
In addition, the robot of the embodiment grasps the user's biorhythm in order to guess the physical condition and mood of the user, and gives an answer with a human touch, such as encouragement, when it is presumed that the user is in bad condition. Act on (programmed).

【0276】また、ときどき一人遊びをするので、これ
をユーザが見つけたときは興味津々となって面白い。
[0276] Also, since the player sometimes plays alone, when the user finds this, it is curious and interesting.

【0277】実施例のロボットは、自己の感情パラメー
タを持ち、現在の感情に対応した言葉を発声し、あるい
は表示するので、あたかも感情を持っているかのように
見えて面白い。
The robot of the embodiment has its own emotion parameter and utters or displays a word corresponding to the current emotion, so that it looks as if it has an emotion and is interesting.

【0278】また、実施例のロボットは、側で大きい声
を出し続ける、布を被せる、連打する等の、いたずらに
も反応するので面白い。
Also, the robot of the embodiment is interesting because it also responds to mischief, such as keeping a loud voice on the side, putting on a cloth, and hitting repeatedly.

【0279】実施例のロボットは、文字によるコミュニ
ケーションを行う。例えば、ユーザに対して質問や独り
言を言うので面白い。
[0279] The robot of the embodiment performs communication using characters. For example, it is interesting to ask questions or talk to the user.

【0280】また、質問に対する回答によってロボット
の感情が影響を受け、機嫌が良くなったり、悪くなった
りするので擬人的であり、この感情を表示器による表示
や動作によって表現するので面白い。
Further, the emotion of the robot is affected by the answer to the question, and the mood is improved or worsened.

【0281】また、ロボット同士を接続するとデータ交
換を行って会話が成立するような定型文が形成され、こ
れを音声や表示器に出力するのでロボット同士が会話を
しているように見えるので面白い。
Also, when the robots are connected to each other, a fixed phrase is formed that exchanges data and establishes a conversation, and this is output to a voice or a display, so that the robots seem to have a conversation, which is interesting. .

【0282】また、実施例で示した機械機構は最小限の
機構で、腕の2自由度、首の1自由度、顔(目)の表情
などが得られ、これによってロボットの情緒のある動作
表現も可能となっている。
Further, the mechanical mechanism shown in the embodiment can obtain two degrees of freedom of the arm, one degree of freedom of the neck, the expression of the face (eyes), etc. with the minimum mechanism, and thereby the emotional operation of the robot. Expression is also possible.

【0283】また、本発明の電子玩具や電子ロボット
は、いわゆるペットロボット、セラピー商品(例えば、
癒し系ロボット)、看者や老人の様子をモニタする機能
を備える家庭用ロボット等にも適用できて、大人にも老
人にも楽しめるものであり、幼児用玩具に限定されるも
のではない。勿論、愛玩具、遊戯具などにも適用可能で
ある。
Also, the electronic toys and electronic robots of the present invention are so-called pet robots, therapeutic products (for example,
The present invention can be applied to a healing robot), a home robot having a function of monitoring a state of an observer or an elderly person, etc., and can be enjoyed by both adults and elderly people, and is not limited to toys for infants. Of course, the present invention can be applied to pets and play equipment.

【0284】また、実施例の電子玩具である歩行ロボッ
トは、両足を交互に繰り出して前進あるいは後退する際
に、接地部(足)の先端(爪先)あるいは後端(踵)を
より大きい角度に持ち上げて移動することが可能であ
り、また、爪先への駆動力(あるいは摩擦力)が増加し
ている。このため、相対的に足場の悪い場所の走破性能
が向上し、ロボットの転倒が減少する。
The walking robot, which is the electronic toy of the embodiment, moves the tip (toe) or the rear end (heel) of the ground contact portion (foot) to a larger angle when the legs are alternately advanced and retreated. It is possible to lift and move, and the driving force (or frictional force) on the toe is increasing. For this reason, the running performance in a place where the scaffold is relatively poor is improved, and the fall of the robot is reduced.

【0285】また、上述した各実施例を組み合わせるこ
とが出来る。例えば、図5に示すロボットの上半身の機
構と、図59や図70に示す下半身の機構とを適宜に組
み合わせることが可能である。また、このように構成さ
れたロボットに実施例で述べた各種の制御態様、例え
ば、図11乃至図56のものを組み合わせることが可能
である。
Further, the respective embodiments described above can be combined. For example, the mechanism of the upper body of the robot shown in FIG. 5 and the mechanism of the lower body shown in FIGS. 59 and 70 can be appropriately combined. In addition, various control modes described in the embodiments, for example, those shown in FIGS. 11 to 56 can be combined with the robot configured as described above.

【0286】[0286]

【発明の効果】以上説明したように、本発明の電子玩具
は、ユーザが近くにいると自動的に起動するので電子玩
具側からユーザにコミュニケーションを働きかけること
が可能となる。また、無駄な電源の消費を抑制すること
が可能となる。
As described above, the electronic toy of the present invention is automatically activated when the user is nearby, so that the user can communicate with the user from the electronic toy side. In addition, it is possible to suppress unnecessary power consumption.

【0287】また、ロボットが文字によってユーザとコ
ミュニケーションを行っているかのように振る舞うので
面白い。更に、自己の感情によって出力する言葉や動作
を選ぶので擬人的で面白さが増す。
[0287] In addition, the robot behaves as if communicating with the user using characters, which is interesting. Furthermore, since words and actions to be output are selected according to one's own emotions, it is more personal and interesting.

【0288】また、歩行性能の良い電子玩具(ロボット
玩具)が得られる。
In addition, an electronic toy (robot toy) having good walking performance can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、電子玩具(家庭用ロボット)としての
ロボットを説明する正面図である。
FIG. 1 is a front view illustrating a robot as an electronic toy (home robot).

【図2】図2は、電子玩具としてのロボットを説明する
背面図である。
FIG. 2 is a rear view illustrating a robot as an electronic toy.

【図3】図3は、電子玩具としてのロボットを説明する
上面図である。
FIG. 3 is a top view illustrating a robot as an electronic toy.

【図4】図4は、電子玩具としてのロボットを説明する
側面図である。
FIG. 4 is a side view illustrating a robot as an electronic toy.

【図5】図5は、ロボットの腕、肩、首等の回動を可能
とする機構を説明する説明図である。
FIG. 5 is an explanatory diagram illustrating a mechanism that enables a robot to rotate its arm, shoulder, neck, and the like.

【図6】図6は、上記機構を説明する斜視図である。FIG. 6 is a perspective view illustrating the above mechanism.

【図7】図7は、ロボットの首部分の回動及び肩部分の
回動を可能とする機構を示す説明図である。
FIG. 7 is an explanatory view showing a mechanism that enables rotation of a neck portion and rotation of a shoulder portion of the robot.

【図8】図8は、ロボットの腕部分の回動を可能とする
機構を示す説明図である。
FIG. 8 is an explanatory diagram illustrating a mechanism that enables the arm portion of the robot to rotate.

【図9】図9は、制御系の構成を説明するためのブロッ
ク図である。
FIG. 9 is a block diagram for explaining a configuration of a control system.

【図10】図10は、制御部60の概略構成を説明する
ブロック図である。
FIG. 10 is a block diagram illustrating a schematic configuration of a control unit 60.

【図11】図11は、バイオリズムを計算するための
「生年月日」をロボットに入力する例を説明するフロー
チャートである。
FIG. 11 is a flowchart illustrating an example of inputting a “birth date” for calculating a biorhythm to a robot.

【図12】図12は、周囲の音声を収集してユーザなど
の存在を判別可能とする例を説明するフローチャートで
ある。
FIG. 12 is a flowchart illustrating an example in which surrounding sounds are collected and the presence of a user or the like can be determined.

【図13】図13は、ユーザの声(命令等)を音声認識
し、これに対応したロボット動作を行う例を説明するフ
ローチャートである。
FIG. 13 is a flowchart illustrating an example of performing voice recognition of a user's voice (command or the like) and performing a robot operation corresponding to the voice recognition.

【図14】図14は、被写体の動きを検出巣例を説明す
るフローチャートである。
FIG. 14 is a flowchart illustrating an example of detecting a movement of a subject;

【図15】図15は、スイッチ操作、被写体の動き、音
声の存在に基づいてユーザの存在を判別する例を説明す
るフローチャートである。
FIG. 15 is a flowchart illustrating an example of determining the presence of a user based on a switch operation, the movement of a subject, and the presence of a voice.

【図16】図16は、スイッチ操作、周囲の明るさ、音
声の存在に基づいてユーザの存在を判別する例を説明す
るフローチャートである。
FIG. 16 is a flowchart illustrating an example of determining the presence of a user based on a switch operation, ambient brightness, and the presence of voice.

【図17】図17は、バイオリズムを考慮した制御動作
例を説明するフローチャートである。
FIG. 17 is a flowchart illustrating an example of a control operation considering biorhythm.

【図18】図18は、バイオリズムを説明する説明図で
ある。
FIG. 18 is an explanatory diagram illustrating biorhythm.

【図19】図19は、顔の目の表情及び表示に表示され
る文字(記号)スクロールの例を説明する説明図であ
る。
FIG. 19 is an explanatory diagram illustrating an example of facial expressions of eyes and scrolling of characters (symbols) displayed on the display.

【図20】図20は、時間経過に伴うロボットの動作制
御例を説明するフローチャートである。
FIG. 20 is a flowchart illustrating an example of operation control of the robot with time.

【図21】図21は、制御部(CPU)による制御プロ
グラムの実行を説明するフローチャートである。
FIG. 21 is a flowchart illustrating execution of a control program by a control unit (CPU).

【図22】図22は、ロボットの「喜び」を表す姿態の
例を説明する説明図である。
FIG. 22 is an explanatory diagram illustrating an example of a posture representing “joy” of the robot.

【図23】図23は、ロボットの「楽しい」気分を表す
姿態の例を説明する説明図である。
FIG. 23 is an explanatory diagram illustrating an example of a posture representing a “fun” mood of the robot.

【図24】図24は、ロボットの「哀しい」気分を表す
姿態の例を説明する説明図である。
FIG. 24 is an explanatory diagram illustrating an example of a posture representing a “sad” mood of the robot.

【図25】図25は、ロボットの「大好き」気分を表す
姿態の例を説明する説明図である。
FIG. 25 is an explanatory diagram illustrating an example of a posture representing a “loved” mood of the robot.

【図26】図26は、電子玩具としての他のロボットの
例を説明する正面図である。
FIG. 26 is a front view illustrating an example of another robot as an electronic toy.

【図27】図27は、電子玩具としての他のロボットの
例を説明する側面図である。
FIG. 27 is a side view illustrating an example of another robot as an electronic toy.

【図28】図28(a)〜同(d)は、ロボットの喜怒
哀楽に対応した種々の表情の例を説明する説明図であ
る。
FIGS. 28A to 28D are explanatory diagrams illustrating examples of various facial expressions corresponding to the emotions and joys of a robot.

【図29】図29(a)及び同(b)は、ロボットの喜
怒哀楽に対応した種々の表情の例を説明する説明図であ
る。
FIGS. 29A and 29B are explanatory diagrams illustrating examples of various facial expressions corresponding to the emotions of a robot.

【図30】他のバイオリズムの他の例(ロボットのバイ
オリズム)を示す説明図である。
FIG. 30 is an explanatory diagram showing another example of another biorhythm (biorhythm of a robot).

【図31】図31は、ロボットの表示画面への言葉の表
示例が現在の感情に影響する動作を説明するフローチャ
ートである。
FIG. 31 is a flowchart illustrating an operation in which a display example of words on a display screen of a robot affects a current emotion.

【図32】図32は、ロボットの表示画面への言葉の表
示例(バイオリズムの怒りのモード)を説明する説明図
である。
FIG. 32 is an explanatory diagram illustrating an example of displaying words on a display screen of a robot (an angry mode of biorhythm).

【図33】図33は、ロボットの表示画面への言葉の表
示例(普通の感情モード)を説明する説明図である。
FIG. 33 is an explanatory diagram illustrating a display example (ordinary emotion mode) of words on the display screen of the robot.

【図34】図34は、ロボットの表示画面への言葉の表
示例(五・七・五調)を説明する説明図である。
FIG. 34 is an explanatory diagram illustrating a display example (5/7/5 key) of words on a display screen of a robot.

【図35】図35は、ロボットがする質問に対する回答
によってロボットの感情が変化する例を説明するフロー
チャートである。
FIG. 35 is a flowchart illustrating an example in which the emotion of the robot changes according to the answer to the question asked by the robot.

【図36】図36は、回答がバイオリズムに影響する質
問の例を示す説明図である。
FIG. 36 is an explanatory diagram illustrating an example of a question whose answer affects biorhythm.

【図37】図37は、回答がバイオリズムに影響しない
質問の例を示す説明図である。
FIG. 37 is an explanatory diagram showing an example of a question whose answer does not affect biorhythm.

【図38】図38は、ロボットのバイオリズム(感情)
に影響を与える質問の例を説明する説明図である。
FIG. 38 is a diagram showing the biorhythm (emotion) of a robot.
FIG. 6 is an explanatory diagram for explaining an example of a question that affects a question.

【図39】図39は、ロボットのバイオリズム(感情)
に影響を与えない質問の例を説明する説明図である。
FIG. 39 is a diagram showing the biorhythm (emotion) of a robot.
FIG. 6 is an explanatory diagram for explaining an example of a question that does not affect a question.

【図40】図40は、質問の結果に対する回答によって
感情(バイオリズム)が悪化した例を説明する説明図で
ある。
FIG. 40 is an explanatory diagram illustrating an example in which an emotion (biorhythm) is deteriorated by an answer to a result of a question.

【図41】図41は、2台のロボットをケーブルで接続
してデータ交換を行い、両者間で会話をするようにした
例を説明する説明図である。
FIG. 41 is an explanatory diagram illustrating an example in which two robots are connected by a cable to perform data exchange and have a conversation between the two robots.

【図42】図42は、ロボットにPHSや携帯電話を接
続して他のロボットやサーバ装置と交信してデータを入
手し、会話や動作を行うようにした例を示す説明図であ
る。
FIG. 42 is an explanatory diagram showing an example in which a PHS or a mobile phone is connected to a robot to communicate with another robot or a server device to obtain data, and to have a conversation or an operation.

【図43】図43は、ロボットの通信インタフェース同
士をケーブルで接続して交信を行う例を説明するブロッ
ク図である。
FIG. 43 is a block diagram illustrating an example in which communication is performed by connecting communication interfaces of robots with cables.

【図44】図44は、PHSや携帯電話などの通信網に
接続可能な端末装置を用いて、交信を行う例を説明する
ブロック図である。
FIG. 44 is a block diagram illustrating an example in which communication is performed using a terminal device connectable to a communication network such as a PHS or a mobile phone.

【図45】図45は、インターネットを利用してロボッ
ト同士の交信を行うようにした例を説明するブロック図
である。
FIG. 45 is a block diagram illustrating an example in which robots communicate with each other using the Internet.

【図46】図46は、サーバ装置からロボットにデータ
をダウンロードするようにした例を説明する説明図であ
る。
FIG. 46 is an explanatory diagram illustrating an example in which data is downloaded from a server device to a robot.

【図47】図47は、接続ケーブルでデータ交換を行う
場合の手順例を説明する交信図である。
FIG. 47 is a communication diagram illustrating an example of a procedure when data exchange is performed using a connection cable;

【図48】図48は、携帯電話やPHSを使用してデー
タ交換を行う場合の手順例を説明する交信図である。
FIG. 48 is a communication diagram illustrating an example of a procedure when data is exchanged using a mobile phone or a PHS.

【図49】図49は、サーバ装置からデータを取得する
場合の手順例を説明する交信図である。
FIG. 49 is a communication diagram illustrating an example of a procedure when acquiring data from a server device.

【図50】図50は、サーバ装置が提供する、「時事ネ
タ」の例、ユーザ適応データの例を説明する説明図であ
る。
FIG. 50 is an explanatory diagram illustrating an example of a current topic story and an example of user adaptation data provided by the server device.

【図51】図51は、アクションメールの動作を説明す
るブロック図である。
FIG. 51 is a block diagram illustrating an operation of an action mail.

【図52】図52は、アクションメールの内容(フォー
マット)を説明する説明図である。
FIG. 52 is an explanatory diagram illustrating the content (format) of an action mail.

【図53】図53は、アクションメールを受信したロボ
ットが「喜」の動作を行う例を説明図である。
FIG. 53 is an explanatory diagram of an example in which a robot that has received an action mail performs an operation of “happy”;

【図54】図54は、アクションメールを受信したロボ
ットが「怒」の動作を行う例を説明図である。
FIG. 54 is an explanatory diagram of an example in which the robot that has received the action mail performs an “anger” operation.

【図55】図55は、アクションメールを受信したロボ
ットが「哀」の動作を行う例を説明図である。
FIG. 55 is an explanatory diagram illustrating an example in which the robot that has received the action mail performs an operation of “sorrow”.

【図56】図56は、アクションメールを受信したロボ
ットが「楽」の動作を行う例を説明図である。
FIG. 56 is an explanatory diagram of an example in which a robot that has received an action mail performs an “easy” operation;

【図57】図57は、ダンスロボットの第1の状態(閉
脚)を説明する斜視図である。
FIG. 57 is a perspective view for explaining a first state (closed legs) of the dance robot.

【図58】図58は、ダンスロボットの第2の状態(開
脚)を説明する斜視図である。
FIG. 58 is a perspective view illustrating a second state (spreading legs) of the dance robot.

【図59】図59は、脚の開閉機構(閉脚状態)を説明
する斜視図である。
FIG. 59 is a perspective view for explaining a leg opening / closing mechanism (in a closed state).

【図60】図60は、脚の開閉機構(開脚状態)を説明
する斜視図である。
FIG. 60 is a perspective view for explaining a leg opening / closing mechanism (leg opening state).

【図61】図61は、右足の構成例を説明する斜視図で
ある。
FIG. 61 is a perspective view illustrating a configuration example of a right foot.

【図62】図62は、右足の膝曲がり動作を説明する説
明図である。
FIG. 62 is an explanatory diagram for explaining a knee bending operation of the right foot.

【図63】図63は、左足の構成を説明する斜視図であ
る。
FIG. 63 is a perspective view illustrating the configuration of the left foot.

【図64】図64は、カムによる左右の足の同期の調整
を説明する説明図である。
FIG. 64 is an explanatory diagram illustrating adjustment of synchronization of right and left feet by a cam.

【図65】図65は、ダンスロボットの制御系を説明す
るブロック図である。
FIG. 65 is a block diagram illustrating a control system of the dance robot.

【図66】図66は、ダンスロボットの他の制御系を説
明するブロック図である。
FIG. 66 is a block diagram illustrating another control system of the dance robot.

【図67】図67は、2足歩行ロボットを説明する斜視
図である。
FIG. 67 is a perspective view illustrating a bipedal walking robot.

【図68】図68は、2足歩行ロボットを説明する斜視
図である。
FIG. 68 is a perspective view illustrating a bipedal walking robot.

【図69】図69は、2足歩行ロボットを説明する斜視
図である。
FIG. 69 is a perspective view illustrating a bipedal walking robot.

【図70】図70は、2足歩行機構を説明する説明図で
ある。
FIG. 70 is an explanatory diagram illustrating a biped walking mechanism.

【図71】図71は、腰部フレームを説明する説明図で
ある。
FIG. 71 is an explanatory diagram illustrating a waist frame.

【図72】図72は、膝上部説明する説明図である。FIG. 72 is an explanatory diagram illustrating an upper part of a knee.

【図73】図73は、膝下部を説明する説明図である。FIG. 73 is an explanatory diagram for explaining a lower part of a knee;

【図74】図74は、接地部を説明する説明図である。FIG. 74 is an explanatory diagram illustrating a grounding unit.

【図75】図75は、カムプーリ、長手ロッド、短手ロ
ッドを説明する説明図である。
FIG. 75 is an explanatory diagram illustrating a cam pulley, a long rod, and a short rod.

【図76】図76(1)乃至同図(4)は、カム軸の回
転に対応した歩行機構の動作を説明する説明図である。
76 (1) to 76 (4) are explanatory diagrams for explaining the operation of the walking mechanism corresponding to the rotation of the cam shaft.

【図77】図77(5)乃至同図(8)は、カム軸の回
転に対応した歩行機構の動作を説明する説明図である。
FIG. 77 (5) to FIG. 77 (8) are explanatory views illustrating the operation of the walking mechanism corresponding to the rotation of the cam shaft.

【図78】図78は、ロボットの足の動きを説明する説
明図である。
FIG. 78 is an explanatory diagram for explaining the movement of the feet of the robot.

【図79】図79は、他の2足歩行機構を説明する説明
図である。
FIG. 79 is an explanatory diagram illustrating another biped walking mechanism.

【図80】図80は、他の2足歩行機構の例の、カムプ
ーリ、長手ロッド、短手ロッド、スプリングを説明する
説明図である。
FIG. 80 is an explanatory diagram illustrating a cam pulley, a long rod, a short rod, and a spring of another example of a biped walking mechanism.

【図81】図81は、ロボットの方向転換機構を説明す
る説明図である。
FIG. 81 is an explanatory diagram illustrating a direction change mechanism of the robot.

【図82】図82は、ロボットの方向転換機構を説明す
る説明図である。
FIG. 82 is an explanatory diagram illustrating a direction change mechanism of the robot.

【図83】図83は、他のロボットの方向転換機構を説
明する説明図である。
FIG. 83 is an explanatory diagram illustrating a direction change mechanism of another robot.

【符号の説明】[Explanation of symbols]

1 ロボット 51 タッチセンサ 52 マイク 53 光センサ(CCDカメラ) 54 スイッチ 56 電池電圧検出センサ 60 制御部 63 メモリ 71 ウインドウ表示部 1 Robot 51 Touch Sensor 52 Microphone 53 Optical Sensor (CCD Camera) 54 Switch 56 Battery Voltage Detection Sensor 60 Control Unit 63 Memory 71 Window Display Unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) A63H 31/08 A63H 31/08 A B25J 5/00 B25J 5/00 F G10L 13/00 G10L 3/00 551H 15/00 R 15/22 571T 15/24 571Q (72)発明者 五十嵐 薫 東京都葛飾区白鳥1−11−25 有限会社サ イエンスプロダクト内 (72)発明者 佐治 良太郎 東京都渋谷区代官山町4−1−1103 株式 会社ランドマック内 (72)発明者 早川 徹哉 東京都台東区柳橋1−4−4 株式会社セ ガトイズ内 Fターム(参考) 2C150 CA01 CA02 CA04 DA04 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 EB01 EC03 EC15 EC25 EC29 ED42 ED47 ED52 EF02 EF03 EF07 EF13 EF16 EF23 EF28 EF29 EF33 EF36 3C007 AS36 BS27 CS08 CX07 CY02 HS09 HS27 HT02 HT11 HT23 HT24 HT33 HT37 JS03 JS07 KS20 KS27 KS31 KS32 KS38 KT01 KT15 KV11 KV18 MS02 MS14 MT14 WB03 WB16 WB25 WB27 WC06 WC12 WC13 WC15 WC23 WC24 WC25 5D015 KK02 LL06 5D045 AB11 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat ゛ (Reference) A63H 31/08 A63H 31/08 A B25J 5/00 B25J 5/00 F G10L 13/00 G10L 3/00 551H 15/00 R 15/22 571T 15/24 571Q (72) Inventor Kaoru Igarashi 1-11-25 Shiratori, Katsushika-ku, Tokyo Within Science Products Co., Ltd. (72) Ryotaro Saji 4-, Daikanyamacho, Shibuya-ku, Tokyo 1-11103 Inside Landmac Co., Ltd. (72) Inventor Tetsuya Hayakawa 1-4-4 Yanagibashi, Taito-ku, Tokyo F-term (reference) 2C150 CA01 CA02 CA04 DA04 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 EB01 EC03 EC15 EC25 EC29 ED42 ED47 ED52 EF02 EF03 EF07 EF13 EF16 EF23 EF28 EF29 EF33 EF36 3C007 AS36 BS27 CS08 CX07 CY02 HS09 HS27 HT02 HT11 HT23 HT2 4 HT33 HT37 JS03 JS07 KS20 KS27 KS31 KS32 KS38 KT01 KT15 KV11 KV18 MS02 MS14 MT14 WB03 WB16 WB25 WB27 WC06 WC12 WC13 WC15 WC23 WC24 WC25 5D015 KK02 LL06 5D045 AB11

Claims (87)

【特許請求の範囲】[Claims] 【請求項1】外部からの情報に反応するように制御され
る電子玩具であって、 玩具の機械的な動きを構成する動作機構と、 外部からの情報を取得する入力手段と、 周囲に対象体が存在するかどうかを判別する判別手段
と、 該判別結果に基づいて、前記外部からの情報に対応して
前記動作機構を制御するための制御パラメータを複数の
制御パラメータの中から選択し、前記動作機構の動作を
制御する制御手段と、 を備える電子玩具。
1. An electronic toy controlled to respond to external information, comprising: an operation mechanism for configuring a mechanical movement of the toy; an input means for acquiring external information; Determining means for determining whether or not a body is present, based on the determination result, selecting a control parameter for controlling the operating mechanism from a plurality of control parameters in accordance with the information from the outside, An electronic toy comprising: a control unit configured to control an operation of the operation mechanism.
【請求項2】更に、外部に情報を表示する情報表示手段
を備え、 前記制御手段は、前記外部からの情報に対応して前記情
報表示手段を制御するための制御パラメータを複数の制
御パラメータの中から選択し、前記情報表示手段の動作
を制御して情報表示を行う、 請求項1記載の電子玩具。
2. An information display means for displaying information to the outside, wherein the control means changes a control parameter for controlling the information display means in response to the information from the outside by a plurality of control parameters. The electronic toy according to claim 1, wherein the electronic toy is selected from among them, and controls the operation of the information display means to display information.
【請求項3】更に、外部に音声を出力する音声発生手段
を備え、 前記制御手段は、前記外部からの情報に対応して前記音
声発生手段を制御するための制御パラメータを複数の制
御パラメータの中から選択し、前記音声発生手段の動作
を制御して音声出力を行う、 請求項1又は2記載の電子玩具。
3. A sound generating means for outputting a sound to the outside, wherein the control means controls a control parameter for controlling the sound generating means in accordance with the information from the outside by a plurality of control parameters. The electronic toy according to claim 1, wherein the electronic toy is selected from among them, and controls the operation of the voice generating unit to output a voice.
【請求項4】更に、 特定人の生活リズムを計算する手段と、 該生活リズムにおけるイベント発生を検出するイベント
検出手段と、を備え、 前記制御手段は、該イベントに対応して前記動作機構、
前記情報表示手段及び前記音声発生手段の少なくともい
ずれかの制御パラメータを選択する、 請求項1乃至3のいずれかに記載の電子玩具。
4. An apparatus according to claim 1, further comprising: means for calculating a life rhythm of the specific person; and event detection means for detecting occurrence of an event in the life rhythm.
The electronic toy according to any one of claims 1 to 3, wherein a control parameter of at least one of the information display unit and the sound generation unit is selected.
【請求項5】更に、 現在の時間を検出する時計手段と、 予め時間軸上において計画されたイベントの発生を検出
する検出手段と、を備え、 前記制御手段は、該イベントに対応して前記動作機構、
前記情報表示手段及び前記音声発生手段の少なくともい
ずれかの制御パラメータを選択する、 請求項1乃至3のいずれかに記載の電子玩具。
5. The apparatus further comprises: clock means for detecting a current time; and detection means for detecting the occurrence of an event planned on a time axis in advance, wherein the control means responds to the event by Operating mechanism,
The electronic toy according to any one of claims 1 to 3, wherein a control parameter of at least one of the information display unit and the sound generation unit is selected.
【請求項6】前記判別手段は、周囲の音声及び/又は動
きを検出する、 請求項1乃至5のいずれかに記載の電子玩具。
6. The electronic toy according to claim 1, wherein said determining means detects surrounding sounds and / or movements.
【請求項7】前記判別手段は、周囲の音声及び/又は明
るさ検出する、 請求項1乃至5のいずれかに記載の電子玩具。
7. The electronic toy according to claim 1, wherein said determining means detects surrounding voice and / or brightness.
【請求項8】前記判別手段は、周囲の音声を収集するマ
イク及び/又は周囲を撮影するカメラを備える、 請求項1乃至5のいずれかに記載の電子玩具。
8. The electronic toy according to claim 1, wherein said discriminating means includes a microphone for collecting surrounding sounds and / or a camera for photographing surroundings.
【請求項9】前記動作機構は、人型ロボットの構造を有
し、人の「喜」、「怒」、「哀」、「楽」の少なくとも
いずれかを表現するように動作が制御される、 請求項1乃至8のいずれかに記載の電子玩具。
9. The operation mechanism has a structure of a humanoid robot, and the operation is controlled so as to express at least one of “joy”, “anger”, “sad”, and “easy” of a person. An electronic toy according to any one of claims 1 to 8.
【請求項10】前記制御手段は、周囲に人が存在しない
と判断されたときに、予め定められた一人遊び動作をす
る制御パラメータを選択する、 請求項1乃至3のいずれかに記載の電子玩具。
10. The electronic device according to claim 1, wherein said control means selects a control parameter for performing a predetermined single-player action when it is determined that no one is present around the user. toy.
【請求項11】電子玩具は人型をしており、 前記情報表示手段は顔に相当する部分に設けられ、 顔の表情や文字等の記号を表示する、 請求項2乃至10のいずれかに記載の電子玩具。11. The electronic toy has a human shape, and the information display means is provided in a portion corresponding to a face, and displays a facial expression, a symbol such as a character, or the like. Electronic toys as described. 【請求項12】更に、人の声を録音する記憶手段を備え
た、 請求項1乃至11のいずれかに記載の電子玩具。
12. The electronic toy according to claim 1, further comprising storage means for recording a human voice.
【請求項13】前記入力手段は、タッチセンサ、マイ
ク、光センサ、カメラ、○×スイッチ、状態センサ、の
少なくともいずれかを含む、 請求項1乃至12のいずれかに記載の電子玩具。
13. The electronic toy according to claim 1, wherein said input means includes at least one of a touch sensor, a microphone, an optical sensor, a camera, a switch, and a state sensor.
【請求項14】更に、 電池の出力を検出する手段を備え、 前記制御手段は、更に、前記電池の出力が低下したとき
に外部に情報を表示する情報表示手段又は外部に音声を
出力する音声発生手段によって警告を発生する、 請求項1記載の電子玩具。
14. The apparatus according to claim 1, further comprising means for detecting the output of the battery, wherein said control means further comprises: an information display means for displaying information to the outside when the output of the battery is reduced; The electronic toy according to claim 1, wherein a warning is generated by the generation unit.
【請求項15】外部からの情報に反応するように制御さ
れる電子玩具であって、 人間型の構造体と、 外部からの情報に対応して前記該構造体の動作を制御す
る制御手段と、 前記構造体に設けられて外部の状況を撮影する小型カメ
ラと、 撮影した画像を外部に伝送する通信手段と、 を備える電子玩具。
15. An electronic toy controlled to respond to external information, comprising: a human-shaped structure; and control means for controlling the operation of the structure in response to external information. An electronic toy comprising: a small camera provided on the structure to capture an external situation; and communication means for transmitting the captured image to the outside.
【請求項16】人型の玩具の胴部に配置される基本フレ
ームと、 前記基本フレームの両側にそれぞれ設けられ、前記基本
フレームに回動可能に取り付けられる第1及び第2のサ
ブフレームと、 前記第1及び第2のサブフレームにそれぞれ設けられる
第1及び第2の回転軸と、 第1のモータによって駆動される第3の回転軸に設けら
れたカム機構と、 前記カム機構と前記第1及び第2のサブフレーム相互間
を連結して両サブフレームを揺動するリンクと、 第2のモータによって駆動されるギア機構と、 前記基本フレーム、前記第1及び第2のサブフレーム間
に渡って配置されて、前記ギア機構の出力を前記第1及
び第2の回転軸に伝達する伝達機構と、 を備える玩具。
16. A basic frame disposed on a body of a humanoid toy; first and second sub-frames provided on both sides of the basic frame and rotatably attached to the basic frame; First and second rotating shafts respectively provided on the first and second sub-frames; a cam mechanism provided on a third rotating shaft driven by a first motor; A link connecting the first and second sub-frames to swing the two sub-frames; a gear mechanism driven by a second motor; A transmission mechanism disposed across the transmission mechanism to transmit an output of the gear mechanism to the first and second rotation shafts.
【請求項17】前記伝達機構は複数の歯車からなる歯車
列によって構成され、両端の各歯車は前記第1及び第2
のサブフレーム内にそれぞれ配置されると共に、前記第
1及び第2の回転軸と傘歯車を介してそれぞれ噛合す
る、 請求項16記載の玩具。
17. The transmission mechanism is constituted by a gear train composed of a plurality of gears, and each gear at both ends is provided with the first and second gears.
17. The toy according to claim 16, wherein the toy is arranged in each of the sub-frames and meshes with the first and second rotating shafts via bevel gears.
【請求項18】人型あるいは動物型の電子玩具であっ
て、 頭部の顔面相当部に文字、記号が表示できる表示部を有
し、身体に設けられた複数の入力スイッチよりなる入力
部を操作して入力される情報が前記顔面相当部に設けら
れた表示部で目視により確認できるように構成されてな
る電子玩具。
18. A human-shaped or animal-type electronic toy having a display portion capable of displaying characters and symbols on a portion corresponding to the face of the head, and comprising an input portion comprising a plurality of input switches provided on the body. An electronic toy which is configured so that information input by operation can be visually confirmed on a display unit provided on the face-corresponding part.
【請求項19】頭部と胴体部を有する人型あるいは動物
型の電子玩具であって、 頭部の顔面相当部に文字、記号が表示できる表示部を有
し、胴体部には複数の入力スイッチよりなる入力部が設
けられており、前記入力部における操作結果が前記顔面
相当部に設けられた表示部で目視により確認できるよう
に構成されてなる電子玩具。
19. A human-shaped or animal-type electronic toy having a head and a body, a display corresponding to a face corresponding to the face of the head for displaying characters and symbols, and a plurality of inputs on the body. An electronic toy provided with an input unit including a switch so that an operation result of the input unit can be visually confirmed on a display unit provided on the face-equivalent part.
【請求項20】人型あるいは動物型の電子ロボットであ
って、 頭部の顔面相当部に文字、記号が表示できる表示部を有
し、操作者が前記ロボットの身体に設けられた複数の入
力スイッチよりなる入力部を操作して入力する情報が前
記顔面相当部に設けられた表示部で目視により確認でき
るように構成されてなる電子ロボット。
20. A human-type or animal-type electronic robot, comprising a display unit capable of displaying characters and symbols on a portion corresponding to the face of a head, and a plurality of input devices provided on the body of the robot by an operator. An electronic robot configured so that information to be input by operating an input unit including a switch can be visually confirmed on a display unit provided in the face equivalent unit.
【請求項21】人型あるいは動物型電子ロボットであっ
て、 頭部の顔面相当部に文字、記号が表示できる表示部を有
し、操作者が前記ロボットの身体に設けられた複数の入
力スイッチよりなる入力部を操作して入力する情報が前
記顔面相当部に設けられた表示部に表示され、前記ロボ
ットの表情を形成することを特徴とする電子ロボット。
21. A human-type or animal-type electronic robot, comprising: a display unit capable of displaying characters and symbols on a part corresponding to a face of a head; and a plurality of input switches provided on the body of the robot by an operator. An electronic robot, wherein information input by operating an input unit is displayed on a display unit provided in the face-corresponding part to form a facial expression of the robot.
【請求項22】前記制御パラメータには感情パラメータ
が含まれ、 この感情パラメータは、特定人のバイオリズムあるいは
ロボットのバイオリズムとして表されることを特徴とす
る請求項1乃至14のいずれかに記載の電子玩具。
22. The electronic device according to claim 1, wherein the control parameter includes an emotion parameter, and the emotion parameter is represented as a biorhythm of a specific person or a biorhythm of a robot. toy.
【請求項23】前記感情パラメータはイベントの発生に
よって影響を受けることを特徴とする請求項22記載の
電子玩具。
23. The electronic toy according to claim 22, wherein said emotion parameter is affected by occurrence of an event.
【請求項24】このイベントには、電子玩具がユーザに
対してなした質問に対する回答が含まれることを特徴と
する請求項23記載の電子玩具。
24. The electronic toy according to claim 23, wherein the event includes an answer to a question asked by the electronic toy to the user.
【請求項25】前記質問には、予め質問に対する予想回
答に対して感情パラメータの変化が定義されていること
を特徴とする請求項24記載の電子玩具。
25. The electronic toy according to claim 24, wherein a change in an emotion parameter with respect to an expected answer to the question is defined in the question in advance.
【請求項26】制御部は、前記感情パラメータに基づい
て外部に表示すべき情報の選択及び/又は外部に出力す
べき音声の選択を行うことを特徴とする請求項22乃至
25のいずれかに記載の電子玩具。
26. The control unit according to claim 22, wherein the control unit selects information to be displayed outside and / or voice to be output to the outside based on the emotion parameter. Electronic toys as described.
【請求項27】前記制御手段は、更に、前記質問対する
回答を記憶し、この回答に係るデータを使用して定型文
を形成することを特徴とする請求項24記載の電子玩
具。
27. The electronic toy according to claim 24, wherein said control means further stores an answer to said question and forms a fixed phrase using data on the answer.
【請求項28】人型あるいは動物型の電子玩具であっ
て、 頭部の顔面相当部又は胴体相当部に文字、記号が表示可
能な表示部と、 身体に設けられた入力操作を行う入力手段と、 複数の言葉を記憶する記憶手段と、 前記言葉を選択して前記表示部に表示させると共に、自
己の感情を表す感情パラメータ値を出力する関数を有す
る制御手段と、を備え、 前記制御手段は前記感情パラメータに基づいて前記言葉
を選択し、これを前記表示部に表示させる、 ことを特徴とする電子玩具。
28. An electronic toy of a human or animal type, a display portion capable of displaying characters and symbols on a portion corresponding to the face or the body of the head, and input means provided on the body for performing an input operation. Storage means for storing a plurality of words; and control means having a function of selecting the words and displaying the selected words on the display unit, and outputting an emotion parameter value representing their own emotions. An electronic toy, wherein the word is selected based on the emotion parameter and is displayed on the display unit.
【請求項29】人型あるいは動物型の電子玩具であっ
て、 音声データを音声として出力する発声手段と、 身体に設けられた入力操作を行う入力手段と、 複数の音声データを記憶する記憶手段と、 前記音声データを選択して前記発声部に与えると共に、
自己の感情を表す感情パラメータ値を出力する関数を有
する制御手段と、を備え、 前記制御手段は前記感情パラメータに基づいて前記音声
データを選択し、これを前記発声手段に発声させる、 ことを特徴とする電子玩具。
29. An electronic toy of a human type or an animal type, comprising: voice generating means for outputting voice data as voice; input means provided on a body for performing input operation; and storage means for storing a plurality of voice data. And selecting and giving the voice data to the utterance unit;
Control means having a function for outputting an emotion parameter value representing its own emotion, wherein the control means selects the voice data based on the emotion parameter and causes the voice means to utter the voice data. Electronic toys.
【請求項30】人型あるいは動物型の電子玩具であっ
て、 頭部の顔面相当部又は胴体相当部に文字、記号が表示可
能な表示部と、 音声データを音声として出力する発声手段と、 身体に設けられた入力操作を行う入力手段と、 複数の言葉と複数の音声データとを記憶する記憶手段
と、 前記言葉を選択して前記表示部に表示させると共に、自
己の感情を表す感情パラメータ値を出力する関数を有す
る制御手段と、を備え、 前記制御手段は前記感情パラメータに基づいて前記言葉
及び前記音声データの選択を行い、これ等を前記表示部
及び前記発声手段に供給する、 ことを特徴とする電子玩具。
30. A human- or animal-type electronic toy, a display portion capable of displaying characters and symbols on a portion corresponding to a face or a body of a head, and a vocalization means for outputting voice data as voice; Input means for performing an input operation provided on the body; storage means for storing a plurality of words and a plurality of voice data; and an emotion parameter representing one's own emotion while selecting and displaying the words on the display unit Control means having a function of outputting a value, wherein the control means selects the words and the voice data based on the emotion parameter, and supplies these to the display unit and the voice generating means. Electronic toys characterized by the following.
【請求項31】前記感情パラメータは最大値と最小値間
で経時的に変化することを特徴とする、請求項28乃至
30のいずれかに記載の電子玩具。
31. The electronic toy according to claim 28, wherein said emotion parameter changes with time between a maximum value and a minimum value.
【請求項32】前記制御手段は、前記文字又は音声によ
って質問を行い、 これに対する入力操作に応じて前記感情パラメータの値
を変化させる、ことを特徴とする請求項28乃至31の
いずれかに記載の電子玩具。
32. The apparatus according to claim 28, wherein said control means asks a question by said character or voice, and changes a value of said emotion parameter in accordance with an input operation to said question. Electronic toys.
【請求項33】前記質問には、予め複数が記憶されてお
り、各質問に対する予想回答に対して前記感情パラメー
タの変化が定義されていることを特徴とする請求項32
記載の電子玩具。
33. A method according to claim 32, wherein a plurality of questions are stored in advance, and a change in said emotion parameter is defined for an expected answer to each question.
Electronic toys as described.
【請求項34】前記質問には、予め複数が記憶されてお
り、各質問に対する予想回答に対して電子玩具とユーザ
との親密度が定義されていることを特徴とする請求項3
2記載の電子玩具。
34. A plurality of questions are stored in advance, and intimacy between an electronic toy and a user is defined for an expected answer to each question.
2. The electronic toy according to 2.
【請求項35】前記制御手段は、更に、前記質問に対す
る回答を記憶し、この回答に係るデータを使用して定型
文を形成することを特徴とする請求項32又は33記載
の電子玩具。
35. The electronic toy according to claim 32, wherein said control means further stores an answer to said question and forms a fixed phrase using data relating to said answer.
【請求項36】前記制御部は、各質問によって得られた
親密度を蓄積し、これが所定値を超えると前記表示部及
び/又は前記発声手段に特定の感情を表現するデータを
供給する、ことを特徴とする請求項32乃至35のいず
れかに記載の電子玩具。
36. The control section accumulates intimacy obtained by each question, and supplies a data expressing a specific emotion to the display section and / or the voicing means when the intimacy degree exceeds a predetermined value. The electronic toy according to any one of claims 32 to 35, characterized in that:
【請求項37】前記質問には、前記感情パラメータに影
響する質問と、影響しない質問とがある、ことを特徴と
する請求項32乃至35のいずれかに記載の電子玩具。
37. The electronic toy according to claim 32, wherein the question includes a question affecting the emotion parameter and a question not affecting the emotion parameter.
【請求項38】予め、前記感情パラメータの最大値と最
小値間に複数のゾーンが定義され、前記言葉や音声デー
タが各ゾーンに振り分けられており、 前記制御手段は、現在の感情パラメータ値がいずれのゾ
ーンに属するかによって該当するゾーンの言葉や音声デ
ータを選択する、ことを特徴とする請求項31記載の電
子玩具。
38. A plurality of zones are defined in advance between a maximum value and a minimum value of the emotion parameter, and the words and voice data are distributed to each zone. 32. The electronic toy according to claim 31, wherein words and voice data of a corresponding zone are selected depending on which zone the zone belongs to.
【請求項39】前記制御手段は、特定のゾーンで、更
に、人型あるいは動物型を構成する部分の機械的な動き
を伴う特別の動作を行う制御を選択する、ことを特徴と
する請求項38記載の電子玩具。
39. The control device according to claim 39, wherein said control means selects a control for performing a special operation involving a mechanical movement of a part constituting a humanoid or animal type in a specific zone. 38. The electronic toy according to 38.
【請求項40】前記制御手段は、更に、前記感情パラメ
ータをその最大値と最小値間に短周期で変化させる展示
モードを備える、ことを特徴とする作動させる28乃至
39のいずれかに記載の電子玩具。
40. The operation according to claim 28, wherein said control means further comprises an exhibition mode for changing said emotion parameter between its maximum value and its minimum value in a short cycle. Electronic toys.
【請求項41】更に、電子玩具をネットワークに接続す
る接続手段を備え、 前記ネットワークに接続されたサーバ装置から前記言
葉、音声データを前記記憶手段にダウンロードする、こ
とを特徴とする請求項28乃至40のいずれかに記載の
電子玩具。
41. The apparatus according to claim 28, further comprising connection means for connecting said electronic toy to a network, wherein said words and voice data are downloaded from said server device connected to said network to said storage means. 40. The electronic toy according to any one of 40.
【請求項42】前記ダウンロードされる言葉、音声デー
タは時事用語である、請求項41記載の電子玩具。
42. The electronic toy according to claim 41, wherein said downloaded words and voice data are current affairs terms.
【請求項43】前記ダウンロードされる言葉、音声デー
タはユーザの特性に対応した用語である、請求項41記
載の電子玩具。
43. The electronic toy according to claim 41, wherein said downloaded words and voice data are terms corresponding to the characteristics of the user.
【請求項44】更に、電子玩具同士を接続する接続手段
を備え、 接続された相手の電子玩具からそれが記憶しいる言葉、
音声データを前記記憶手段に受け取る、ことを特徴とす
る請求項28乃至40のいずれかに記載の電子玩具。
44. Further, there is provided a connecting means for connecting the electronic toys with each other, wherein the words stored in the connected electronic toys are
41. The electronic toy according to claim 28, wherein voice data is received by said storage means.
【請求項45】前記接続手段は、通信ケーブル、PH
S、携帯電話、パソコンの少なくともいずれかを含む、
ことを特徴とする請求項41又は44記載の電子玩具。
45. The connecting means, comprising: a communication cable, PH
S, including at least one of a mobile phone and a personal computer,
The electronic toy according to claim 41 or claim 44.
【請求項46】電子玩具同士で文字データ交換を行い、
交換したデータを定型文に組み込んで模擬会話を行う、
ことを特徴とする請求項44又は45に記載の電子玩
具。
46. Character data exchange between electronic toys,
Embed the exchanged data in a fixed phrase and conduct a mock conversation,
The electronic toy according to claim 44 or 45, wherein:
【請求項47】人型あるいは動物型の電子玩具であっ
て、 周囲の音声を検出するする音声検出手段と、 頭部の顔面相当部又は胴体相当部に文字、記号が表示可
能な表示部と、 複数の表情を記憶する記憶手段と、 自己の感情を表す感情パラメータ値を出力する関数を有
し、前記感情パラメータに基づいて前記表情を選択し、
これを前記表示部に表示させる制御手段と、を備え、 前記制御手段は、前記音声が所定レベル以上であって所
定時間以上継続するとき、前記感情パラメータを不快の
状態に設定する、 ことを特徴とする電子玩具。
47. A human-shaped or animal-type electronic toy, comprising: voice detection means for detecting surrounding voice; and a display portion capable of displaying characters and symbols on a portion corresponding to a face or a body of a head. A storage means for storing a plurality of facial expressions, and a function for outputting an emotion parameter value representing the emotion of the user, selecting the facial expression based on the emotion parameters,
Control means for displaying this on the display unit, wherein the control means sets the emotion parameter to an unpleasant state when the sound is at a predetermined level or more and continues for a predetermined time or more. Electronic toys.
【請求項48】人型あるいは動物型の電子玩具であっ
て、 頭部の顔面相当部又は胴体相当部に文字、記号が表示可
能な表示部と、 複数の表情を記憶する記憶手段と、 身体に設けられた入力操作を行う入力手段と、 自己の感情を表す感情パラメータ値を出力する関数を有
し、前記感情パラメータに基づいて前記表情を選択し、
これを前記表示部に表示させる制御手段と、を備え、 前記制御手段は、前記入力手段が連続的に所定時間又は
所定回数操作されたときに、前記感情パラメータに対応
した表情の選択を行う、 ことを特徴とする電子玩具。
48. A human- or animal-type electronic toy, comprising: a display unit capable of displaying characters and symbols on a part corresponding to a face or a body of a head; a storage unit for storing a plurality of facial expressions; Input means for performing an input operation provided in, has a function of outputting an emotion parameter value representing its own emotion, selecting the facial expression based on the emotion parameter,
Control means for displaying this on the display unit, wherein the control means selects an expression corresponding to the emotion parameter when the input means is continuously operated for a predetermined time or a predetermined number of times. An electronic toy characterized in that:
【請求項49】前記不快の状態では、怒りの表情が前記
表示部に表示される、ことを特徴とする請求項47に記
載の電子玩具。
49. The electronic toy according to claim 47, wherein in the uncomfortable state, an expression of anger is displayed on the display section.
【請求項50】前記連続的な操作に対応して選択される
表情が、叩かれて痛がる表情又はなでられて喜ぶ表情で
ある、請求項48に記載の電子玩具。
50. The electronic toy according to claim 48, wherein the facial expression selected in response to the continuous operation is a facial expression that is beaten and painful or a facial expression that is pleasantly stroked.
【請求項51】人型あるいは動物型の電子玩具であっ
て、 頭部の顔面相当部又は胴体相当部に文字、記号が表示可
能な表示部と、 複数の表情を記憶する記憶手段と、 周囲の明るさを検出する光センサと、 自己の感情に対応する表情を選択し、これを前記表示部
に表示させる制御手段と、を備え、 前記制御手段は、前記光センサが所定時間以上暗い状態
を検出したときに、目を閉じる表情を選択する、 ことを特徴とする電子玩具。
51. An electronic toy of a human or animal type, a display portion capable of displaying characters and symbols on a portion corresponding to a face or a body of a head, storage means for storing a plurality of facial expressions, An optical sensor for detecting the brightness of the image, and control means for selecting an expression corresponding to the user's own emotion and displaying the selected expression on the display unit. An electronic toy characterized by selecting a facial expression that closes the eyes when detecting.
【請求項52】前記制御手段は、更に、人型あるいは動
物型を構成する機械的部分を動作させるて、いやがる感
情を表現する、 ことを特徴とする請求項51記載の電子玩具。
52. The electronic toy according to claim 51, wherein said control means further operates a mechanical part constituting a humanoid or animal type to express an unpleasant emotion.
【請求項53】前記感情を表す感情パラメータ値を出力
する関数の初期値は、ランダムに設定される、ことを特
徴とする請求項28乃至50のいずれかに記載の電子玩
具。
53. The electronic toy according to claim 28, wherein an initial value of a function for outputting an emotion parameter value representing the emotion is set at random.
【請求項54】人型あるいは動物型の電子玩具であっ
て、 頭部の顔面相当部又は胴体相当部に文字、記号が表示可
能な表示部と、 人型あるいは動物型を構成し、可動に構成される機械的
部分と、 電子メールに添付されたファイルからメッセージと制御
情報を判別し、前記メッセージを前記表示部に表示する
と共に、前記制御情報に対応して前記機械的部分を動作
させる制御部と、 を備える電子玩具。
54. A human-shaped or animal-type electronic toy, comprising: a display portion capable of displaying characters and symbols on a portion corresponding to a face or a body corresponding to a head; A control unit that determines a message and control information from a file attached to an electronic mail, displays the message on the display unit, and operates the mechanical unit according to the control information. And an electronic toy comprising:
【請求項55】前記添付されるファイルは音声ファイル
である、ことを特徴とする請求項54記載の電子玩具。
55. An electronic toy according to claim 54, wherein said attached file is an audio file.
【請求項56】前記音声ファイルはコンピュータによっ
て音声信号に再生され、前記音声信号が前記制御部に供
給される、ことを特徴とする請求項55記載の電子玩
具。
56. The electronic toy according to claim 55, wherein said audio file is reproduced into an audio signal by a computer, and said audio signal is supplied to said control unit.
【請求項57】前記制御情報は、予め前記制御部が記憶
している動作を指定するものである、ことを特徴とする
請求項54乃至56のいずれかに記載の電子玩具。
57. The electronic toy according to claim 54, wherein said control information designates an operation stored in said control unit in advance.
【請求項58】前記制御情報は、前記制御部に前記機械
的部分の一連の制御手順を指定するものである、ことを
特徴とする請求項54乃至56のいずれかに記載の電子
玩具。
58. The electronic toy according to claim 54, wherein said control information designates a series of control procedures of said mechanical part to said control unit.
【請求項59】前記制御情報が添付されていない場合、
前記制御部は前記機械的部分の適当な動きを選択するこ
とを特徴とする請求項54乃至56のいずれかに記載の
電子玩具。
59. When the control information is not attached,
57. The electronic toy according to any one of claims 54 to 56, wherein the control unit selects an appropriate movement of the mechanical part.
【請求項60】前記制御情報は、ロボットの喜怒哀楽等
の感情を表現するものである、ことを特徴とする請求項
54乃至59のいずれかに記載の電子玩具。
60. The electronic toy according to claim 54, wherein said control information expresses emotions such as emotions of a robot.
【請求項61】入力される、受信者の電子玩具に表示す
べきメッセージと前記電子玩具にさせるべき動作とを音
声信号に変換する過程と、 前記音声信号を音声ファイルに変換し、これを電子メー
ルの添付ファイルとする過程と、 当該音声ファイル付き電子メールを発信者端末装置から
受信者端末装置に送信する過程と、 受信者端末装置で前記電子メールを受信し、前記音声フ
ァイルを再生して音声信号を得る過程と、 前記再生された音声信号を受信者端末装置から前記電子
玩具に転送する過程と、 前記電子玩具に前記メッセージの表示と前記動作とを行
わせる過程と、 を含む、電子メールの交換方法。
61. A process of converting a message to be displayed on an electronic toy of a receiver and an operation to be performed by the electronic toy into an audio signal, converting the audio signal into an audio file, and converting the Attaching the email to the attached file; transmitting the email with the audio file from the sender terminal device to the receiver terminal device; receiving the email at the receiver terminal device and playing back the audio file. Obtaining an audio signal; transferring the reproduced audio signal from a receiver terminal device to the electronic toy; and causing the electronic toy to display the message and perform the operation. How to exchange mail.
【請求項62】人型あるいは動物型の電子玩具であっ
て、 人型あるいは動物型の一対の可動の脚を構成する脚部構
造体と、 出力すべき音声に対応して前記脚の動きを制御する制御
部と、 を備える電子玩具。
62. A human-shaped or animal-shaped electronic toy, comprising: a leg-shaped structure forming a pair of movable legs of a human-shaped or animal-shaped; and a movement of said leg corresponding to a sound to be output. An electronic toy comprising: a control unit for controlling;
【請求項63】前記制御部は、前記音声の大小やリズム
に対応して前記脚の動きの速さを設定する、ことを特徴
とする請求項62記載の電子玩具。
63. The electronic toy according to claim 62, wherein said control unit sets the speed of movement of said leg in accordance with the magnitude or rhythm of said voice.
【請求項64】前記一対の脚の動きは、前記脚を左右方
向に開閉する動作である、ことを特徴とする請求項62
又は63記載の電子玩具。
64. The movement of the pair of legs is an operation of opening and closing the legs in the left-right direction.
Or the electronic toy according to 63.
【請求項65】前記脚の一方の足底には滑り防止手段が
施され、前記脚の他方の足底には滑り手段が施される、
ことを特徴とする請求項62乃至64のいずれかに記載
の電子玩具。
65. A slip prevention means is provided on one sole of the leg, and a slip means is provided on the other sole of the leg.
The electronic toy according to any one of claims 62 to 64, wherein:
【請求項66】前記脚部構造体は、 少なくとも一方向に回動可能な一対の股関節部が左右に
設けられた腰部フレームと、 前記一対の股関節部にそれぞれ連結される一対の脚部
と、 各脚部に一端が取り付けられて他端が当該脚部の股関節
部を超えて前記腰部フレームの内部に延在する一対の駆
動軸と、 各駆動軸の他端部を相互に連結するリンク部材と、 少なくとも一方の前記駆動軸の前記他端部と前記リンク
部材との間に介在して、前記駆動軸の各一端部側を広狭
に変化させるカム機構と、 前記脚部の一方に内蔵されて前記一方の前記駆動軸を回
転駆動するモータと、 を含むことを特徴とする請求項62乃至65のいずれか
に記載の電子玩具。
66. The leg structure, comprising: a waist frame provided with a pair of hip joints rotatable in at least one direction on the left and right; a pair of legs respectively connected to the pair of hip joints; A pair of drive shafts each having one end attached to each leg and the other end extending beyond the hip joint of the leg and into the waist frame, and a link member interconnecting the other end of each drive shaft A cam mechanism interposed between the other end portion of at least one of the drive shafts and the link member to change one end side of the drive shaft to wide and narrow; and built into one of the leg portions. The electronic toy according to any one of claims 62 to 65, further comprising: a motor that rotationally drives the one drive shaft.
【請求項67】前記駆動軸の他端部と前記リンク部材相
互間又は前記カムと前記リンク部材相互間は球状の係合
部材を介して連結される、ことを特徴とする請求項66
記載の電子玩具。
67. The driving device according to claim 66, wherein the other end of the drive shaft and the link members or the cam and the link members are connected via a spherical engaging member.
Electronic toys as described.
【請求項68】前記一対の駆動軸のうちの他方の駆動軸
の一端部に設けられて地面あるいは床面を滑るようにな
された滑り手段と、を含むことを特徴とする請求項66
又は67に記載の電子玩具。
68. A sliding means provided at one end of the other drive shaft of said pair of drive shafts for sliding on the ground or floor.
Or the electronic toy according to 67.
【請求項69】前記脚部の他方は、前記股関節部に前後
方向に回動可能に連結される膝上部と、この膝上部と前
後方向に回動可能に連結される膝下部と、前記一対の駆
動軸のうちの他方の駆動軸の一端部と左右方向に回動可
能に連結される接地部と、を含み、 前記膝下部の下面には突起が形成され、前記接地部の上
面には前記突起部が接触する傾斜面が形成されて、前記
脚部の開閉動作に伴って前記突起部が押し上げられ、前
記膝上部と前記膝下部との連結部が曲がるように構成さ
れる、ことを特徴とする請求項66乃至68のいずれか
に記載の電子玩具。
69. The other of the leg portions, an upper knee portion rotatably connected to the hip joint portion in the front-rear direction, a lower knee portion rotatably connected to the upper knee portion in the front-rear direction, and the pair of knees. One end of the other drive shaft of the drive shaft and a grounding portion rotatably connected to the left and right directions, a projection is formed on the lower surface of the lower part of the knee, the upper surface of the grounding portion An inclined surface with which the protrusion contacts is formed, and the protrusion is pushed up with the opening and closing operation of the leg, so that a connecting portion between the knee upper part and the knee lower part is bent, The electronic toy according to any one of claims 66 to 68.
【請求項70】前記滑り手段がローラである請求項6
5、68及び69のいずれかに記載の電子玩具。
70. The sliding means according to claim 6, wherein said sliding means is a roller.
The electronic toy according to any one of 5, 68 and 69.
【請求項71】前記カム機構への前記係合部材の取り付
け位置によって脚の開閉加減を調整可能としたことを特
徴とする請求項67記載の電子玩具。
71. The electronic toy according to claim 67, wherein the opening and closing of the legs can be adjusted according to the mounting position of said engaging member to said cam mechanism.
【請求項72】両足を前後に動作させて2足歩行を行う
歩行機構を備える電子玩具であって、 片足の動作機構が、 腰部フレームと、 前記腰部フレームに回動可能に連結される膝上部と、 前記膝上部に回動可能に連結される膝下部と、 前記膝下部に回動可能に連結される接地部と、 前記腰部フレームに設けられて回転駆動されるカムプー
リと、 前記カムプーリに設けられる第1のカムと、 前記カムプーリに設けられる第2のカムと、 前記第1のカムによって前記接地部を上下方向に揺動す
る長手部材と、 前記第2のカムによって前記膝下部を前後方向に揺動す
る短手部材と、 を含む電子玩具。
72. An electronic toy having a walking mechanism for bipedally walking by moving both feet back and forth, wherein the one-legged movement mechanism comprises: a waist frame; and a knee upper rotatably connected to the waist frame. A lower part of the knee rotatably connected to the upper part of the knee; a ground contact part rotatably connected to the lower part of the knee; a cam pulley provided on the waist frame and driven to rotate; and provided on the cam pulley. A first cam, a second cam provided on the cam pulley, a longitudinal member for vertically swinging the ground contact portion by the first cam, and a longitudinal direction of the lower part of the knee by the second cam. An electronic toy comprising:
【請求項73】両足を前後に動作させて2足歩行を行う
歩行機構を備える電子玩具であって、 片足の動作機構が、 腰部フレームと、 前記腰部フレームに回動可能に連結される膝上部と、 前記膝上部に回動可能に連結される膝下部と、 前記膝下部に回動可能に連結される接地部と、 前記腰部フレームに設けられて回転駆動されるカムと、 前記カムによって前記接地部を上下方向に揺動する長手
部材と、 前記カムによって前記膝下部を前後方向に揺動する短手
部材と、 を含む電子玩具。
73. An electronic toy comprising a walking mechanism for bipedally walking by moving both feet back and forth, comprising: a waist frame; and a knee upper pivotally connected to the waist frame. A lower part of the knee rotatably connected to the upper part of the knee; a ground contact part rotatably connected to the lower part of the knee; a cam provided on the waist frame and driven to rotate; An electronic toy comprising: a longitudinal member that swings a ground contact portion in a vertical direction; and a short member that swings the lower part of the knee in a front-rear direction by the cam.
【請求項74】前記長手部材は、ガイド部材が係合する
案内穴と前記カムに接する押し下げプレートとを備え
る、請求項73記載の電子玩具。
74. The electronic toy according to claim 73, wherein said elongated member includes a guide hole with which a guide member is engaged and a push-down plate in contact with said cam.
【請求項75】前記接地部の先端を押し下げる方向に付
勢する付勢手段を更に備える、請求項72又は74に記
載の電子玩具。
75. The electronic toy according to claim 72, further comprising an urging means for urging the tip of the ground contact portion in a direction of pushing down.
【請求項76】前記電子玩具の大きさが約30cmであ
る、ことを特徴とする請求項72乃至75のいずれかに
記載の電子玩具。
76. The electronic toy according to claim 72, wherein the size of the electronic toy is about 30 cm.
【請求項77】前記接地部に、当該2足歩行機構の進行
方向に対して斜め方向に駆動する斜め方向駆動手段を設
けた、ことを特徴とする請求項72乃至76のいずれか
に記載の電子玩具。
77. An apparatus according to claim 72, wherein said ground contact portion is provided with a diagonal driving means for driving in a diagonal direction with respect to a traveling direction of said bipedal walking mechanism. Electronic toys.
【請求項78】前記斜め方向駆動手段は、回転駆動され
る駆動ローラ又は駆動ベルトを含んで構成される、こと
を特徴とする請求項77記載の電子玩具。
78. The electronic toy according to claim 77, wherein said oblique driving means includes a driving roller or a driving belt which is driven to rotate.
【請求項79】前記駆動ローラ又は駆動ベルトは複数設
けられる、ことを特徴とする請求項78記載の電子玩
具。
79. An electronic toy according to claim 78, wherein a plurality of said drive rollers or drive belts are provided.
【請求項80】前記斜め方向駆動手段は、両足の各接地
部にそれぞれ設けられ、各斜め方向駆動手段の各駆動方
向が略同一の曲率の円周上に存在するようになされる、
ことを特徴とする請求項77乃至79のいずれかに記載
の電子玩具。
80. The diagonal driving means is provided at each of the grounding portions of both feet, and each driving direction of each diagonal driving means is present on a circumference having substantially the same curvature.
The electronic toy according to any one of claims 77 to 79, characterized in that:
【請求項81】前記接地部のつま先側に前記斜め方向駆
動手段を設け、前記接地部のかかと側に滑りローラを設
けた、ことを特徴とする請求項77乃至79のいずれか
に記載の電子玩具。
81. The electronic device according to claim 77, wherein said oblique direction driving means is provided on a toe side of said grounding portion, and a sliding roller is provided on a heel side of said grounding portion. toy.
【請求項82】両足を前後に動作させて2足歩行を行う
歩行機構を備える電子玩具であって、 前記足の底部に、当該2足歩行機構の進行方向に対して
斜め方向に駆動する斜め方向駆動手段を設けた、ことを
特徴とする電子玩具。
82. An electronic toy equipped with a walking mechanism for performing bipedal walking by moving both feet back and forth, comprising: a diagonal drive which is driven obliquely with respect to the traveling direction of the bipedal walking mechanism on the bottom of the foot An electronic toy comprising a direction driving means.
【請求項83】前記斜め方向駆動手段は、回転駆動され
る駆動ローラ又は駆動ベルトを含んで構成される、こと
を特徴とする請求項82記載の電子玩具。
83. The electronic toy according to claim 82, wherein said oblique driving means includes a driving roller or a driving belt driven to rotate.
【請求項84】前記駆動ローラ又は駆動ベルトは複数設
けられる、ことを特徴とする請求項83記載の電子玩
具。
84. The electronic toy according to claim 83, wherein a plurality of said driving rollers or driving belts are provided.
【請求項85】前記斜め方向駆動手段は、両足の各接地
部にそれぞれ設けられ、各斜め方向駆動手段の各駆動方
向が略同一の曲率の円周上に存在するようになされる、
ことを特徴とする請求項82乃至84のいずれかに記載
の電子玩具。
85. The diagonal driving means is provided at each of the grounding portions of both feet, and each driving direction of each diagonal driving means is present on a circumference having substantially the same curvature.
The electronic toy according to any one of claims 82 to 84, characterized in that:
【請求項86】前記足のつま先側に前記斜め方向駆動手
段を設け、前記接地部のかかと側に滑りローラを設け
た、ことを特徴とする請求項82乃至85のいずれかに
記載の電子玩具。
86. The electronic toy according to claim 82, wherein said oblique drive means is provided on the toe side of said foot, and a sliding roller is provided on the heel side of said ground contact portion. .
【請求項87】前記足のつま先側を足底方向に押し下げ
る付勢手段を備える、請求項82乃至86のいずれかに
記載の電子玩具。
87. The electronic toy according to claim 82, further comprising an urging means for pushing down the toe side of the foot in a sole direction.
JP2001170342A 2000-11-07 2001-06-05 Electronic toy Pending JP2002307354A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001170342A JP2002307354A (en) 2000-11-07 2001-06-05 Electronic toy
US09/985,909 US20020081937A1 (en) 2000-11-07 2001-11-06 Electronic toy

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2000339744 2000-11-07
JP2000-339744 2000-11-07
JP2001009555 2001-01-17
JP2001-9555 2001-01-17
JP2001-79425 2001-02-12
JP2001079425 2001-02-12
JP2001170342A JP2002307354A (en) 2000-11-07 2001-06-05 Electronic toy

Publications (2)

Publication Number Publication Date
JP2002307354A true JP2002307354A (en) 2002-10-23
JP2002307354A5 JP2002307354A5 (en) 2008-07-10

Family

ID=27481758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001170342A Pending JP2002307354A (en) 2000-11-07 2001-06-05 Electronic toy

Country Status (2)

Country Link
US (1) US20020081937A1 (en)
JP (1) JP2002307354A (en)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318862A (en) * 2003-03-28 2004-11-11 Sony Corp Information providing device and method, and information providing system
JP2005003747A (en) * 2003-06-09 2005-01-06 Cai Media Kyodo Kaihatsu:Kk Interactive robot and dialogue system
JP2005279896A (en) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International Robot
JP2005342862A (en) * 2004-06-04 2005-12-15 Nec Corp Robot
JP2006205336A (en) * 2005-01-31 2006-08-10 Victor Co Of Japan Ltd Communication device
JP2008023604A (en) * 2006-07-18 2008-02-07 Advanced Telecommunication Research Institute International Android control system
JP2008090013A (en) * 2006-10-02 2008-04-17 Sony Corp Robot device, music output method, and music output program
JP2008200843A (en) * 2007-01-22 2008-09-04 Zmp:Kk Sound reproducing robot
JP2013536090A (en) * 2010-07-02 2013-09-19 アルデバラン ロボティクス Humanoid game execution robot and method and system for using the robot
JP2014028284A (en) * 2008-07-18 2014-02-13 Hydrae Ltd Interactive toy
KR101399601B1 (en) * 2011-10-27 2014-05-27 허헌 Emotion expresion robot using user data
JP2014166213A (en) * 2013-02-28 2014-09-11 Toshiba Tec Corp Notification apparatus, notification processing program, and assist robot
JP2016052710A (en) * 2014-09-04 2016-04-14 富士ソフト株式会社 robot
WO2016060127A1 (en) * 2014-10-14 2016-04-21 株式会社リラク Body condition prediction system and body condition prediction program
JP2016101441A (en) * 2014-11-28 2016-06-02 マッスル株式会社 Partner robot and remote control system thereof
WO2016104193A1 (en) * 2014-12-26 2016-06-30 シャープ株式会社 Response determination device, speech interaction system, method for controlling response determination device, and speech interaction device
JP2016133557A (en) * 2015-01-16 2016-07-25 国立大学法人大阪大学 Agent dialog system, and program
WO2017175559A1 (en) * 2016-04-08 2017-10-12 Groove X株式会社 Autonomous robot exhibiting shyness
CN108214510A (en) * 2018-01-17 2018-06-29 深圳市共进电子股份有限公司 Children accompany robot
JP2018117821A (en) * 2017-01-25 2018-08-02 群馬電機株式会社 Stuffed animal for welfare nursing
EP3392004A1 (en) 2017-04-19 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
EP3392003A1 (en) 2017-04-19 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
EP3392005A1 (en) 2017-04-19 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
JP2019008510A (en) * 2017-06-23 2019-01-17 カシオ計算機株式会社 Robot, robot control method and program
WO2019087484A1 (en) * 2017-10-30 2019-05-09 ソニー株式会社 Information processing device, information processing method, and program
JP2019107461A (en) * 2016-07-11 2019-07-04 Groove X株式会社 Autonomous behavior robot whose active mass is controlled
US10350760B2 (en) 2016-06-23 2019-07-16 Casio Computer Co., Ltd. Robot, robot control system, robot control method, and non-transitory computer-readable recording medium
JP2019124855A (en) * 2018-01-18 2019-07-25 株式会社ユピテル Apparatus and program and the like
KR20190115517A (en) * 2018-03-16 2019-10-14 숙명여자대학교산학협력단 Character display device based the artificial intelligent and the display method thereof
JP2020010771A (en) * 2018-07-13 2020-01-23 本田技研工業株式会社 Communication device and method of operating communication device
US10713006B2 (en) 2016-07-19 2020-07-14 Gatebox Inc. Image display apparatus, topic selection method, topic selection program, image display method, and image display program
JP2021037090A (en) * 2019-09-03 2021-03-11 株式会社タカラトミー Action robot toy
US11099807B2 (en) 2019-02-14 2021-08-24 Sharp Kabushiki Kaisha Electronic apparatus, control device, control method, and recording medium
JP7102575B1 (en) 2021-04-14 2022-07-19 株式会社バンダイ Directing output toys
JP2022142110A (en) * 2021-03-16 2022-09-30 カシオ計算機株式会社 Equipment control device, equipment control method, and program
EP4201609A1 (en) 2021-12-21 2023-06-28 Casio Computer Co., Ltd. Robot

Families Citing this family (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7429843B2 (en) 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
KR100624403B1 (en) * 2001-10-06 2006-09-15 삼성전자주식회사 Human nervous-system-based emotion synthesizing device and method for the same
KR100980793B1 (en) * 2001-11-28 2010-09-10 에볼루션 로보틱스, 인크. Sensor and actuator abstraction and aggregation in a hardware abstraction layer for a robot
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
US7118443B2 (en) * 2002-09-27 2006-10-10 Mattel, Inc. Animated multi-persona toy
US20060277249A1 (en) * 2002-12-16 2006-12-07 Koninklijke Philips Electronics N.V. Robotic web browser
US7120257B2 (en) * 2003-01-17 2006-10-10 Mattel, Inc. Audible sound detection control circuits for toys and other amusement devices
JP2004237392A (en) * 2003-02-05 2004-08-26 Sony Corp Robotic device and expression method of robotic device
US7177597B2 (en) 2003-12-22 2007-02-13 Nokia Corporation System and method for assigning contact information to an external device for communication purposes using a mobile device
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
CN1989514A (en) * 2004-05-19 2007-06-27 日本电气株式会社 User taste estimation device, user profile estimation device, and robot
TWM258789U (en) * 2004-06-09 2005-03-11 Ming-Hsiang Yeh Interactive toy
US20060009879A1 (en) 2004-06-24 2006-01-12 Lynch James K Programming and diagnostic tool for a mobile robot
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
FR2872714B1 (en) * 2004-07-08 2006-10-06 Corolle TOY SENSITIVE TO HUMAN TOUCH
US8000837B2 (en) 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
US20090005167A1 (en) * 2004-11-29 2009-01-01 Juha Arrasvuori Mobile Gaming with External Devices in Single and Multiplayer Games
AU2006214016B2 (en) 2005-02-18 2011-11-10 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
US20060286895A1 (en) * 2005-06-17 2006-12-21 Paul Thomson Talking doll
US20070072511A1 (en) * 2005-09-26 2007-03-29 M-Systems Flash Disk Pioneers Ltd. USB desktop toy
US8583282B2 (en) * 2005-09-30 2013-11-12 Irobot Corporation Companion robot for personal interaction
EP2533120B1 (en) 2005-12-02 2019-01-16 iRobot Corporation Robot system
EP2267568B1 (en) 2005-12-02 2014-09-24 iRobot Corporation Autonomous coverage robot navigation system
ATE534941T1 (en) * 2005-12-02 2011-12-15 Irobot Corp COVER ROBOT MOBILITY
US8584305B2 (en) 2005-12-02 2013-11-19 Irobot Corporation Modular robot
EP2816434A3 (en) 2005-12-02 2015-01-28 iRobot Corporation Autonomous coverage robot
US20070166004A1 (en) * 2006-01-10 2007-07-19 Io.Tek Co., Ltd Robot system using menu selection card having printed menu codes and pictorial symbols
US8087117B2 (en) 2006-05-19 2012-01-03 Irobot Corporation Cleaning robot roller processing
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
US20080162648A1 (en) * 2006-12-29 2008-07-03 Wang Kai Benson Leung Device and method of expressing information contained in a communication message sent through a network
TW200829319A (en) * 2007-01-05 2008-07-16 Allgates Semiconductor Inc Control system of interactive toy set with online instant messaging
GB0702461D0 (en) * 2007-02-08 2007-03-21 Genie Toys Plc Toy in the form of a doll
KR101168481B1 (en) 2007-05-09 2012-07-26 아이로보트 코퍼레이션 Autonomous coverage robot
US20080287033A1 (en) * 2007-05-17 2008-11-20 Wendy Steinberg Personalizable Doll
US20080293324A1 (en) * 2007-05-22 2008-11-27 Winway Corporation Ltd. Toy doll system
US8071933B2 (en) * 2007-06-18 2011-12-06 Gotohti.Com Inc Photochromic optically keyed dispenser
US20090091470A1 (en) * 2007-08-29 2009-04-09 Industrial Technology Research Institute Information communication and interaction device and method for the same
US20090058673A1 (en) * 2007-08-29 2009-03-05 Industrial Technology Research Institute Information communication and interaction device and method for the same
FR2921008B1 (en) * 2007-09-19 2010-03-12 Aldebaran Robotics IMPROVING A ROBOT THAT CAN REMOVE ITS LEGS FROM THE VERTICAL
KR100894569B1 (en) 2007-11-20 2009-04-24 전인자 Humanized doll with adaptive function
CN101596368A (en) * 2008-06-04 2009-12-09 鸿富锦精密工业(深圳)有限公司 Interactive toy system and method thereof
KR101496909B1 (en) 2009-01-22 2015-02-27 삼성전자 주식회사 Robot
KR101496910B1 (en) * 2009-01-22 2015-02-27 삼성전자 주식회사 Robot
US20110028067A1 (en) * 2009-07-30 2011-02-03 Forks Jason W Article for upholding personal affinity
TWI413938B (en) * 2009-12-02 2013-11-01 Phison Electronics Corp Emotion engine, emotion engine system and electronic device control method
US8515092B2 (en) * 2009-12-18 2013-08-20 Mattel, Inc. Interactive toy for audio output
US8800107B2 (en) 2010-02-16 2014-08-12 Irobot Corporation Vacuum brush
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
USD681742S1 (en) 2011-07-21 2013-05-07 Mattel, Inc. Toy vehicle
USD685862S1 (en) 2011-07-21 2013-07-09 Mattel, Inc. Toy vehicle housing
JP2013544382A (en) * 2010-09-03 2013-12-12 アルデバラン ロボティクス Mobile robot
US20140220855A1 (en) * 2010-10-19 2014-08-07 I-Star Entertainment Llc Illumination display and communication device and method
US11471020B2 (en) 2011-04-29 2022-10-18 Irobot Corporation Robotic vacuum cleaning system
CN106889947B (en) 2011-04-29 2020-03-10 艾罗伯特公司 Autonomous mobile robot for cleaning a cleaning surface
US20130122777A1 (en) * 2011-08-04 2013-05-16 Chris Scheppegrell Communications and monitoring using a toy
JP4972218B1 (en) * 2011-08-12 2012-07-11 株式会社バンダイ Action body toy
US9656392B2 (en) * 2011-09-20 2017-05-23 Disney Enterprises, Inc. System for controlling robotic characters to enhance photographic results
TW201325681A (en) * 2011-12-26 2013-07-01 Sap Link Technology Corp Interactive electronic toy
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9569976B2 (en) * 2012-10-02 2017-02-14 Gavriel Yaacov Krauss Methods circuits, devices and systems for personality interpretation and expression
US20140162230A1 (en) * 2012-12-12 2014-06-12 Aram Akopian Exercise demonstration devices and systems
US20140303982A1 (en) * 2013-04-09 2014-10-09 Yally Inc. Phonetic conversation method and device using wired and wiress communication
CN104815445B (en) * 2014-01-22 2017-12-12 广东奥飞动漫文化股份有限公司 A kind of induction control system of electric toy car
US9364950B2 (en) * 2014-03-13 2016-06-14 Brain Corporation Trainable modular robotic methods
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
EP2933067B1 (en) * 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
US20150375115A1 (en) * 2014-06-30 2015-12-31 Microsoft Corporation Interacting with a story through physical pieces
US9696757B2 (en) 2014-10-08 2017-07-04 Microsoft Corporation Transfer of attributes between generations of characters
US10369477B2 (en) 2014-10-08 2019-08-06 Microsoft Technology Licensing, Llc Management of resources within a virtual world
US20160136534A1 (en) * 2014-11-13 2016-05-19 Robert A. EARL-OCRAN Programmable Interactive Toy
US9426946B2 (en) 2014-12-02 2016-08-30 Brain Corporation Computerized learning landscaping apparatus and methods
EP3064258B1 (en) * 2015-03-06 2019-05-01 Nxp B.V. Toy, method for controlling a toy, and computer program product
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
JP6693111B2 (en) * 2015-12-14 2020-05-13 カシオ計算機株式会社 Interactive device, robot, interactive method and program
EP3471924A4 (en) * 2016-06-15 2020-07-29 iRobot Corporation Systems and methods to control an autonomous mobile robot
CN205796543U (en) * 2016-07-05 2016-12-14 福建蓝帽子互动娱乐科技股份有限公司 Interactive device based on light intensity identification
US10775880B2 (en) * 2016-11-30 2020-09-15 Universal City Studios Llc Animated character head systems and methods
US10512384B2 (en) 2016-12-15 2019-12-24 Irobot Corporation Cleaning roller for cleaning robots
US11103800B1 (en) * 2017-02-17 2021-08-31 Hasbro, Inc. Toy robot with programmable and movable appendages
US11380332B2 (en) * 2017-02-24 2022-07-05 Sony Mobile Communications Inc. Information processing apparatus, information processing method, and computer program
US9919231B1 (en) * 2017-07-10 2018-03-20 Peter Chin Cuboid or spherical head figurine
US10595624B2 (en) 2017-07-25 2020-03-24 Irobot Corporation Cleaning roller for cleaning robots
JP6936081B2 (en) * 2017-08-30 2021-09-15 パナソニック株式会社 robot
CN107919448A (en) * 2017-10-26 2018-04-17 优必选教育(深圳)有限公司 A kind of battery compartment and robot
US11267121B2 (en) * 2018-02-13 2022-03-08 Casio Computer Co., Ltd. Conversation output system, conversation output method, and non-transitory recording medium
WO2018127863A2 (en) * 2018-03-15 2018-07-12 Ingeniería Aplicada, S.A. System for monitoring power consumption
US11633863B2 (en) * 2018-04-06 2023-04-25 Digital Dream Labs, Llc Condition-based robot audio techniques
KR102228866B1 (en) * 2018-10-18 2021-03-17 엘지전자 주식회사 Robot and method for controlling thereof
KR20200060074A (en) * 2018-11-22 2020-05-29 엘지전자 주식회사 Robot and method for controlling thereof
USD916927S1 (en) * 2018-12-20 2021-04-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD916928S1 (en) * 2018-12-20 2021-04-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD916925S1 (en) * 2018-12-20 2021-04-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD916926S1 (en) * 2018-12-20 2021-04-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
US11109727B2 (en) 2019-02-28 2021-09-07 Irobot Corporation Cleaning rollers for cleaning robots
CN109732612A (en) * 2019-03-12 2019-05-10 苏州工业职业技术学院 Intelligent interactive toy robot control system based on STM32 microcontroller
US11511410B2 (en) * 2019-06-17 2022-11-29 Lg Electronics Inc. Artificial intelligence (AI) robot and control method thereof
CN112717433B (en) * 2020-11-16 2022-08-19 北京六十六号互动科技有限公司 Toy control device
KR102295836B1 (en) * 2020-11-20 2021-08-31 오로라월드 주식회사 Apparatus And System for Growth Type Smart Toy

Cited By (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318862A (en) * 2003-03-28 2004-11-11 Sony Corp Information providing device and method, and information providing system
JP2005003747A (en) * 2003-06-09 2005-01-06 Cai Media Kyodo Kaihatsu:Kk Interactive robot and dialogue system
JP2005279896A (en) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International Robot
JP2005342862A (en) * 2004-06-04 2005-12-15 Nec Corp Robot
JP4582449B2 (en) * 2005-01-31 2010-11-17 日本ビクター株式会社 Communication device
JP2006205336A (en) * 2005-01-31 2006-08-10 Victor Co Of Japan Ltd Communication device
JP2008023604A (en) * 2006-07-18 2008-02-07 Advanced Telecommunication Research Institute International Android control system
JP2008090013A (en) * 2006-10-02 2008-04-17 Sony Corp Robot device, music output method, and music output program
JP2008200843A (en) * 2007-01-22 2008-09-04 Zmp:Kk Sound reproducing robot
JP2014028284A (en) * 2008-07-18 2014-02-13 Hydrae Ltd Interactive toy
KR20140040062A (en) * 2010-07-02 2014-04-02 알데바란 로보틱스 Humanoid game-playing robot, method and system for using said robot
JP2013536090A (en) * 2010-07-02 2013-09-19 アルデバラン ロボティクス Humanoid game execution robot and method and system for using the robot
US9950421B2 (en) 2010-07-02 2018-04-24 Softbank Robotics Europe Humanoid game-playing robot, method and system for using said robot
KR101869111B1 (en) * 2010-07-02 2018-06-19 소프트뱅크 로보틱스 유럽 Humanoid game-playing robot, method and system for using said robot
KR101399601B1 (en) * 2011-10-27 2014-05-27 허헌 Emotion expresion robot using user data
JP2014166213A (en) * 2013-02-28 2014-09-11 Toshiba Tec Corp Notification apparatus, notification processing program, and assist robot
JP2016052710A (en) * 2014-09-04 2016-04-14 富士ソフト株式会社 robot
WO2016060127A1 (en) * 2014-10-14 2016-04-21 株式会社リラク Body condition prediction system and body condition prediction program
JP2016101441A (en) * 2014-11-28 2016-06-02 マッスル株式会社 Partner robot and remote control system thereof
JPWO2016104193A1 (en) * 2014-12-26 2017-05-25 シャープ株式会社 Correspondence determining device, voice dialogue system, control method of correspondence determining device, and voice dialogue device
WO2016104193A1 (en) * 2014-12-26 2016-06-30 シャープ株式会社 Response determination device, speech interaction system, method for controlling response determination device, and speech interaction device
JP2016133557A (en) * 2015-01-16 2016-07-25 国立大学法人大阪大学 Agent dialog system, and program
US11192257B2 (en) 2016-04-08 2021-12-07 Groove X, Inc. Autonomously acting robot exhibiting shyness
JPWO2017175559A1 (en) * 2016-04-08 2018-04-12 Groove X株式会社 An autonomous behavioral robot
WO2017175559A1 (en) * 2016-04-08 2017-10-12 Groove X株式会社 Autonomous robot exhibiting shyness
GB2563786A (en) * 2016-04-08 2018-12-26 Groove X Inc Autonomous robot exhibiting shyness
GB2563786B (en) * 2016-04-08 2021-08-04 Groove X Inc Autonomously acting robot exhibiting shyness
US10350760B2 (en) 2016-06-23 2019-07-16 Casio Computer Co., Ltd. Robot, robot control system, robot control method, and non-transitory computer-readable recording medium
US11809192B2 (en) 2016-07-11 2023-11-07 Groove X, Inc. Autonomously acting robot whose activity amount is controlled
JP7231924B2 (en) 2016-07-11 2023-03-02 Groove X株式会社 Autonomous action robot whose activity level is controlled
US11579617B2 (en) 2016-07-11 2023-02-14 Groove X, Inc. Autonomously acting robot whose activity amount is controlled
JP2019107461A (en) * 2016-07-11 2019-07-04 Groove X株式会社 Autonomous behavior robot whose active mass is controlled
US10713006B2 (en) 2016-07-19 2020-07-14 Gatebox Inc. Image display apparatus, topic selection method, topic selection program, image display method, and image display program
JP2018117821A (en) * 2017-01-25 2018-08-02 群馬電機株式会社 Stuffed animal for welfare nursing
JP2018176384A (en) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 Interaction device, interaction method, interaction program, and robot
EP3392004A1 (en) 2017-04-19 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
EP3392003A1 (en) 2017-04-19 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
EP3392005A1 (en) 2017-04-19 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
US10719758B2 (en) 2017-04-19 2020-07-21 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
US10803376B2 (en) 2017-04-19 2020-10-13 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
US11007647B2 (en) 2017-04-19 2021-05-18 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
US11000952B2 (en) 2017-06-23 2021-05-11 Casio Computer Co., Ltd. More endearing robot, method of controlling the same, and non-transitory recording medium
JP2019008510A (en) * 2017-06-23 2019-01-17 カシオ計算機株式会社 Robot, robot control method and program
JPWO2019087484A1 (en) * 2017-10-30 2020-11-26 ソニー株式会社 Information processing equipment, information processing methods, and programs
JP7173031B2 (en) 2017-10-30 2022-11-16 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2019087484A1 (en) * 2017-10-30 2019-05-09 ソニー株式会社 Information processing device, information processing method, and program
US11709476B2 (en) 2017-10-30 2023-07-25 Sony Corporation Information processing apparatus, information processing method and program
CN108214510A (en) * 2018-01-17 2018-06-29 深圳市共进电子股份有限公司 Children accompany robot
JP2019124855A (en) * 2018-01-18 2019-07-25 株式会社ユピテル Apparatus and program and the like
JP7130201B2 (en) 2018-01-18 2022-09-05 株式会社ユピテル Equipment and programs, etc.
KR102063389B1 (en) * 2018-03-16 2020-02-11 숙명여자대학교산학협력단 Character display device based the artificial intelligent and the display method thereof
KR20190115517A (en) * 2018-03-16 2019-10-14 숙명여자대학교산학협력단 Character display device based the artificial intelligent and the display method thereof
JP2020010771A (en) * 2018-07-13 2020-01-23 本田技研工業株式会社 Communication device and method of operating communication device
US11520549B2 (en) 2018-07-13 2022-12-06 Honda Motor Co., Ltd. Facially responsive communication apparatus
US11099807B2 (en) 2019-02-14 2021-08-24 Sharp Kabushiki Kaisha Electronic apparatus, control device, control method, and recording medium
JP2021037090A (en) * 2019-09-03 2021-03-11 株式会社タカラトミー Action robot toy
JP2022142110A (en) * 2021-03-16 2022-09-30 カシオ計算機株式会社 Equipment control device, equipment control method, and program
JP7287411B2 (en) 2021-03-16 2023-06-06 カシオ計算機株式会社 Equipment control device, equipment control method and program
JP2022163631A (en) * 2021-04-14 2022-10-26 株式会社バンダイ Performance output toy
WO2022220202A1 (en) * 2021-04-14 2022-10-20 株式会社バンダイ Performance output toy
TWI803233B (en) * 2021-04-14 2023-05-21 日商萬代股份有限公司 gig output toy
JP7102575B1 (en) 2021-04-14 2022-07-19 株式会社バンダイ Directing output toys
EP4201609A1 (en) 2021-12-21 2023-06-28 Casio Computer Co., Ltd. Robot

Also Published As

Publication number Publication date
US20020081937A1 (en) 2002-06-27

Similar Documents

Publication Publication Date Title
JP2002307354A (en) Electronic toy
TWI658377B (en) Robot assisted interaction system and method thereof
JP2002532169A (en) Interactive toys
Goulding et al. Changing lives through redecision therapy
Trevarthen et al. Secondary intersubjectivity
US7491108B2 (en) Interactive play device and method
US20190206393A1 (en) System and method for dialogue management
JP2003205483A (en) Robot system and control method for robot device
US20190205390A1 (en) System and Method for Learning Preferences in Dialogue Personalization
JP7363764B2 (en) Information processing device, information processing method, and program
JP2002351305A (en) Robot for language training
JP2003071763A (en) Leg type mobile robot
JP2012220783A (en) Robot device for care recipient
US6547631B1 (en) Prayer doll
JP2002205291A (en) Leg type robot and movement control method for leg type robot, as well as recording medium
JPH11179061A (en) Stuffed doll provided with eye of lcd
JP2001179665A (en) Intelligent robot
JP2003305677A (en) Robot device, robot control method, recording medium and program
JP4733215B1 (en) Side-holding sensation device and game machine
JP6637000B2 (en) Robot for deceased possession
WO2023037608A1 (en) Autonomous mobile body, information processing method, and program
WO2023037609A1 (en) Autonomous mobile body, information processing method, and program
CN204485307U (en) A kind of doll that there is Bluetooth technology call and dance
US6537127B1 (en) Kissing doll
JP4236301B2 (en) Play facilities

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110426