JP2001179666A - Pet type robot and recording medium readable by computer with program recorded - Google Patents

Pet type robot and recording medium readable by computer with program recorded

Info

Publication number
JP2001179666A
JP2001179666A JP37260199A JP37260199A JP2001179666A JP 2001179666 A JP2001179666 A JP 2001179666A JP 37260199 A JP37260199 A JP 37260199A JP 37260199 A JP37260199 A JP 37260199A JP 2001179666 A JP2001179666 A JP 2001179666A
Authority
JP
Japan
Prior art keywords
interest
action
pet
type robot
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP37260199A
Other languages
Japanese (ja)
Inventor
Yukiharu Tamiya
幸春 田宮
Eiji Konishi
英二 小西
Yasuo Tsuritani
保雄 釣谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP37260199A priority Critical patent/JP2001179666A/en
Publication of JP2001179666A publication Critical patent/JP2001179666A/en
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a curious pet type robot and recording medium readable by computer with program recorded so as to realize its movement. SOLUTION: This robot comprises an input means 1 adapted to detect data relating to an object and an output means 3 adapted to move according to the data obtained by the input means 1. The robot, has CPU 21 that calculates degree of interest on the basis of the data obtained by the input means 1 for deciding to make it an interest object or not by the result compared of the degree of interest calculated newly with that calculated previously to decide movement from curiosity about the object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】 本発明は、好奇心旺盛なペ
ット型ロボット、記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a curious pet-type robot and a storage medium.

【0002】[0002]

【従来の技術】 感情に関するデータを含んだ内部状態
パラメータに基づいて、各種の行動を起こす電子ペット
型ロボットが提案されている(特開平11−12601
7号公報参照)。
2. Description of the Related Art An electronic pet type robot that performs various actions based on internal state parameters including data on emotions has been proposed (Japanese Patent Laid-Open No. 11-12601).
No. 7).

【0003】[0003]

【発明が解決しようとする課題】 しかしながら、従来
のペット型ロボットは、実際のペットや幼児が行なうよ
うな好奇心行動をとることができなかった。
However, conventional pet-type robots have not been able to take curiosity behaviors as do actual pets and infants.

【0004】 本発明は、このような技術的背景に基づ
いてなされたものである。すなわち、その目的は、好奇
心旺盛なペット型ロボット、かかる動作を実現するプロ
グラムが記録されたコンピュータ読み取り可能な記録媒
体を提供することにある。
The present invention has been made based on such a technical background. That is, an object of the present invention is to provide a curious pet-type robot and a computer-readable recording medium on which a program for realizing such an operation is recorded.

【0005】[0005]

【課題を解決するための手段】 上記目的を達成するた
めに、第1の発明は、対象に関連するデータを検出する
入力手段と、当該入力手段から得られるデータに基づい
た行動をする出力手段とを具備するペット型ロボットに
おいて、前記入力手段から得られるデータに基づいて対
象に対する興味度を算出する興味度算出手段と、当該興
味度算出手段で新たに算出した興味度とその前に算出し
た興味度とを比較した結果で興味対象とするかを決定す
る対象設定手段と、当該対象設定手段で設定した対象に
対する好奇心行動を決定する行動決定手段とを有するこ
とを特徴とする。
Means for Solving the Problems In order to achieve the above object, a first aspect of the present invention provides an input unit for detecting data related to an object, and an output unit for performing an action based on data obtained from the input unit. In a pet-type robot comprising: an interest degree calculating means for calculating an interest degree for an object based on data obtained from the input means; an interest degree newly calculated by the interest degree calculating means; It is characterized by having target setting means for determining whether or not to be an object of interest based on the result of comparison with the degree of interest, and action determining means for determining curiosity behavior with respect to the target set by the target setting means.

【0006】 第2の発明は、第1の発明に係るペット
型ロボットにおいて、前記入力手段から得られるデータ
が反射行動要因であるか否かを判断する反射行動誘発手
段と、当該反射行動誘発手段の判断で反射行動を選択
し、その選択された反射行動を実行する反射行動実行手
段とを具備することを特徴とする。
According to a second aspect, in the pet type robot according to the first aspect, a reflex action inducing means for determining whether data obtained from the input means is a reflex action factor, and the reflex action inducing means And a reflex action executing means for executing the selected reflex action by selecting the reflex action based on the judgment of (1).

【0007】 第3の発明は、第2の発明に係るペット
型ロボットにおいて、前記出力手段に興味行動に優先し
て反射行動を実行するように制御する優先行動手段を具
備することを特徴とする。
According to a third aspect, in the pet-type robot according to the second aspect, the output means includes a priority action means for controlling the execution of the reflex action prior to the interest action. .

【0008】 第4の発明は、第1の発明に係るペット
型ロボット、第2の発明に係るペット型ロボット又は第
3の発明に係るペット型ロボットにおいて、前記興味度
算出手段は時間経過により興味度を減少するように算出
することを特徴とする。
A fourth invention is the pet-type robot according to the first invention, the pet-type robot according to the second invention, or the pet-type robot according to the third invention, wherein the interest degree calculating means becomes more interested in time. The calculation is performed so as to reduce the degree.

【0009】 第5の発明は、第1の発明に係るペット
型ロボットから第4の発明に係るペット型ロボットにお
いて、前記行動決定手段は興味度及び興味対象までの距
離に基づいて好奇心行動を決定することを特徴とする。
According to a fifth aspect, in the pet-type robot according to the first to fourth aspects, the action determining means performs a curious action based on the degree of interest and the distance to the object of interest. It is characterized in that it is determined.

【0010】 第6の発明は、対象に関連するデータを
検出する入力機能と、当該入力機能で得られるデータに
基づいて行動する行動機能が記録されたコンピュータ読
み取り可能な記録媒体であって、前記入力機能から得ら
れるデータに基づいて対象に対する興味度を算出する興
味度算出機能と、当該興味度算出機能で新たに算出した
興味度とその前に算出した興味度とを比較した結果で興
味対象とするを決定する対象設定機能と、当該対象設定
機能で設定した対象に対する好奇心行動を決定する行動
決定機能とをコンピュータに実現させるためのプログラ
ムを記録したコンピュータ読み取り可能な記録媒体。
A sixth invention is a computer-readable recording medium in which an input function for detecting data related to an object and an action function for acting based on data obtained by the input function are recorded, Interest level calculation function that calculates the degree of interest for the target based on the data obtained from the input function, and the interest level calculated by the interest level calculation function and the interest level calculated before that. A computer-readable recording medium in which a program for causing a computer to perform a target setting function for determining a target setting function and an action determining function for determining curiosity behavior with respect to a target set by the target setting function is stored.

【0011】[0011]

【発明の実施の形態】 以下、本実施の形態におけるペ
ット型ロボットを説明する。
Hereinafter, a pet-type robot according to the present embodiment will be described.

【0012】 本実施の形態におけるペット型ロボット
は、動いている対象に興味を示し、その対象に近づいた
り、手足で触ったりする好奇心行動をとったり、自己の
体をたたかれたり、突然音が鳴った際におびえたりする
反射行動をとることができるロボットである。
The pet-type robot according to the present embodiment shows an interest in a moving object, takes a curiosity action such as approaching the object, touching with a limb, hitting its own body, or suddenly making a sound. It is a robot that can take reflex actions that scare you when it sounds.

【0013】 図1は本実施の形態におけるペット型ロ
ボットのハードウエア構成例を示すブロック図である。
FIG. 1 is a block diagram illustrating an example of a hardware configuration of a pet robot according to the present embodiment.

【0014】 ペット型ロボットは、対象に関連するデ
ータを検出する入力手段1と、入力手段1からのデータ
に基づき対象を認識し、行動を決定する認識・判断部2
と、認識・判断部2で決定された行動を実行する出力手
段3とからなる。
The pet-type robot has an input unit 1 for detecting data related to the target, and a recognition / judgment unit 2 for recognizing the target based on the data from the input unit 1 and determining an action.
And output means 3 for executing the action determined by the recognition / judgment unit 2.

【0015】 入力手段1は、前述したように対象に関
連するデータを検出するものであり、測距センサ11
と、カメラ12と、マイク13と、タッチセンサ14
と、A/D変換器15〜16とからなる。
The input means 1 detects data related to the object as described above, and the distance measuring sensor 11
, Camera 12, microphone 13, touch sensor 14
And A / D converters 15 and 16.

【0016】 測距センサ11は、対象からの距離を測
定する距離センサであり、例えば小型高性能測距センサ
(GP2D02:シャープ製)のように、赤外発光ダイ
オードから投光する発光部と、発光部の駆動を制御する
LED駆動回路と、レンズ部と、各受光素子の出力電圧
を異ならせた受光部から発光し、対象から反射する光を
集光するレンズ部と、レンズ部で集光された反射光を受
光する受光部と受光部からの出力信号を処理することに
より対象までの距離に相当する8ビットのシリアルデー
タを出力する信号処理部とを具備する。かかる測距デー
タは、いずれの好奇心行動を行なうか決定するために用
いる。
The distance measuring sensor 11 is a distance sensor that measures a distance from an object, and includes, for example, a light emitting unit that emits light from an infrared light emitting diode like a small high-performance distance measuring sensor (GP2D02: manufactured by Sharp), An LED drive circuit that controls the driving of the light emitting unit, a lens unit, a lens unit that emits light from a light receiving unit having a different output voltage from each light receiving element, and collects light reflected from an object, and a lens unit. A light receiving unit for receiving the reflected light, and a signal processing unit for processing output signals from the light receiving unit to output 8-bit serial data corresponding to the distance to the target. Such ranging data is used to determine which curiosity behavior to perform.

【0017】 カメラ12は、例えば、レッド(以下、
単にRと略称する)、グリーン(以下、単にGと略称す
る。)、ブルー(以下、単にBと略称する。)の3原色
信号をフレーム単位で読み取る入力手段である。カメラ
12からの信号はフレーム(視野に相当する)内で動く
物体の位置を認識するためにオプティカルフローや特定
色領域のトラッキングを行なうために用いる。
The camera 12 is, for example, red (hereinafter, red)
This is input means for reading out three primary color signals of frame (hereinafter simply referred to as R), green (hereinafter simply referred to as G), and blue (hereinafter simply referred to as B). A signal from the camera 12 is used for optical flow or tracking of a specific color area in order to recognize the position of a moving object in a frame (corresponding to a visual field).

【0018】 マイク13は、音声信号を得るための入
力手段であり、図では一つしか示していないが、実際は
マイクは二つ具備しており、これらで音源からの音を集
音する。これらの音声信号は例えば音源の方向を特定す
るために用いる。
The microphone 13 is an input unit for obtaining an audio signal, and although only one is shown in the figure, actually two microphones are provided, and these microphones collect sound from a sound source. These audio signals are used, for example, to specify the direction of a sound source.

【0019】 タッチスイッチ14は、例えば、感圧セ
ンサであり、ペット型ロボットの胴体や手足に複数埋設
してある。かかるタッチスイッチ14からの信号は、叩
かれたり、触られたりした部位を検知するために用い
る。これにより、例えば反射行動を誘発することにな
る。
The touch switch 14 is, for example, a pressure-sensitive sensor, and is buried in the body or limbs of the pet-type robot. The signal from the touch switch 14 is used to detect a portion that has been hit or touched. Thereby, for example, reflex behavior is induced.

【0020】 認識・判断部2は、前述したように入力
手段1からの情報に基づき、認識処理及び行動決定処理
を行なうものである。認識処理は、オプティカルフロー
及びトラッキングからなる視覚処理と音源の方向を認識
する聴覚処理と接触された部位を特定する触覚処理とを
含む。行動決定処理は反射行動を優先し、反射行動を行
なわない場合に動くものに興味を示して各種の好奇心行
動をとることになる。
The recognition / judgment unit 2 performs recognition processing and action determination processing based on information from the input unit 1 as described above. The recognition processing includes visual processing including optical flow and tracking, auditory processing for recognizing the direction of a sound source, and tactile processing for specifying a contacted part. The action determination process gives priority to the reflex action, takes interest in what moves when the reflex action is not performed, and takes various curiosity actions.

【0021】 認識・判断部2は、CPU21と割り込
み制御を行なう周辺制御部と、ランダムアクセスメモリ
からなるメインメモリ23と、認識システムや行動決定
プログラム等の管理を行なうオペレーティングシステム
等のプログラムが格納されたROM22、インターフェ
イス(以下、I/Fと略称する。)24,25とを備え
てなる。CPU21は、ROM22に記憶されているオ
ペレーティングシステムを実行することにより、ペット
型ロボットの全体を制御するものである。なお、ここで
いうメインメモリはその上でプログラムを実行できるも
のをいう。
The recognition / judgment unit 2 stores a peripheral control unit that performs interrupt control with the CPU 21, a main memory 23 that is a random access memory, and programs such as an operating system that manages a recognition system and an action determination program. ROM 22 and interfaces (hereinafter abbreviated as I / F) 24 and 25. The CPU 21 controls the entire pet-type robot by executing an operating system stored in the ROM 22. Here, the main memory means a memory on which a program can be executed.

【0022】 I/F24は、入力手段1とシリアル通
信でデータを入出力するためのインターフェイスであ
る。I/F25は、出力手段3とシリアル通信でデータ
を通信するインターフェースである。
The I / F 24 is an interface for inputting / outputting data by serial communication with the input unit 1. The I / F 25 is an interface for communicating data with the output unit 3 by serial communication.

【0023】 出力手段3は、認識・判断部2で決定さ
れた行動を行なうものであり、例えばびっくりした声等
の泣声を発生するD/A変換器33,スピーカ31と、
各種動作を生成する各関節を駆動する駆動機構32とこ
れを駆動するモータ34とからなる。出力手段3は、前
述の構成を具備することから、反射行動として身を縮め
る動作、音や物など反射要因から遠ざかる方向に身を引
く動作、音や物など反射要因の方向に視線を向けたり、
びっくりした声を発生する事ができ、好奇心行動として
対象を目で追い、近づき、触ってみるなどの行動をする
ことができる。
The output unit 3 performs the action determined by the recognition / judgment unit 2. For example, the output unit 3 generates a cry such as a surprised voice, a D / A converter 33, and a speaker 31.
It comprises a drive mechanism 32 for driving each joint for generating various operations, and a motor 34 for driving the same. Since the output means 3 is provided with the above-described configuration, the action of shrinking the body as a reflex action, the action of pulling away from a reflection factor such as a sound or an object, or directing a gaze in the direction of a reflection factor such as a sound or an object ,
It can generate a surprised voice, and can perform actions such as chasing, approaching, and touching the subject as a curious action.

【0024】 以上が本実施の形態におけるペット型ロ
ボットのハードウエア構成である。
The hardware configuration of the pet robot according to the present embodiment has been described above.

【0025】 次に本実施の形態におけるペット型ロボ
ットの認識、行動決定の処理を概説する。
Next, the outline of the process of recognizing and determining the behavior of the pet-type robot in the present embodiment will be described.

【0026】 図2は興味度Iの設定から好奇心行動の
実行を示すフローチャートである。図2に示すフローチ
ャートで示されるプログラムはROM22に格納されて
おり、CPU21が実行する。
FIG. 2 is a flowchart showing the execution of the curiosity behavior from the setting of the degree of interest I. The program shown in the flowchart shown in FIG. 2 is stored in the ROM 22, and is executed by the CPU 21.

【0027】 CPU21は、図2に示すプログラムが
起動されると、興味対象のリセット要因が発生したか判
断する(ステップ1)。ここで、リセット要因とは、現
在の興味対象から新たな対象に変更するきっかけとなる
要因であり、例えば、タッチスイッチ14からの感圧信
号、マイク13から音声信号、カメラ12から画像デー
タがある。感圧信号は叩かれたり、触られた状態を検知
するための信号である。音声信号は、音源(対象)の方
向を特定するために用いられる。
When the program shown in FIG. 2 is started, the CPU 21 determines whether or not a reset factor of interest has occurred (step 1). Here, the reset factor is a factor that triggers a change from the current target to a new target, and includes, for example, a pressure-sensitive signal from the touch switch 14, an audio signal from the microphone 13, and image data from the camera 12. . The pressure-sensitive signal is a signal for detecting a hit or touched state. The audio signal is used to specify the direction of the sound source (target).

【0028】 CPU21は、ステップ1でリセット要
因である感圧信号又は音声信号が発生したと判断すれ
ば、モータ34及び駆動機構32で首などの関節を動か
して視線を変更する(ステップ2)。これにより、カメ
ラ12から取り込まれるフレームの内容が変更される。
If the CPU 21 determines in step 1 that a pressure-sensitive signal or an audio signal, which is a reset factor, has been generated, the motor 34 and the drive mechanism 32 move a joint such as a neck to change the line of sight (step 2). As a result, the content of the frame captured from the camera 12 is changed.

【0029】 CPU21は、注意喚起ルーチンを起動
する(ステップ3)。この注意喚起ルーチンは、カメラ
12からの信号をもとに新たな興味対象を設定するルー
チンである。具体的には、CPU21はカメラ12から
取り込まれたフレーム内で移動ベクトルを検出し、最大
値を示すオプティカルフロー(以下、移動ベクトルとも
いう。)に対応する格子状の画像を特定する。これが興
味対象の候補となる。次に興味対象の候補における最大
面積となる色データを特定し、その色データを格納す
る。かかる処理を一定時間繰り返すことにより、興味対
象の候補における最大頻度の色データが特定色として設
定される。
The CPU 21 starts an alerting routine (step 3). This alerting routine is a routine for setting a new object of interest based on a signal from the camera 12. Specifically, the CPU 21 detects a movement vector in a frame captured from the camera 12, and specifies a lattice-like image corresponding to an optical flow (hereinafter, also referred to as a movement vector) indicating a maximum value. This is a candidate of interest. Next, the color data having the maximum area in the candidate of interest is specified, and the color data is stored. By repeating this process for a certain period of time, the color data having the highest frequency in the candidate of interest is set as the specific color.

【0030】 CPU21は、興味対象の候補における
移動ベクトルを所定の式に代入して興味度Iの値を算出
する(ステップ4)。従って、CPU21は興味度算出
機能を実現することになる。
The CPU 21 calculates the value of the degree of interest I by substituting the movement vector of the candidate of interest into a predetermined equation (step 4). Therefore, the CPU 21 implements the interest calculation function.

【0031】 CPU21は、ステップ4で求めた興味
対象の候補に対する興味度I>現在の興味対象に対する
興味度Iであるか判断する(ステップ5)。これは、本
実施の形態のペット型ロボットが興味度Iの大きな対象
に対して好奇心行動をとるようにするためである。
The CPU 21 determines whether or not the degree of interest I for the candidate of interest obtained in step 4> the degree of interest I for the current object of interest (step 5). This is because the pet-type robot of the present embodiment takes a curiosity behavior with respect to a target having a high degree of interest I.

【0032】 CPU21は、ステップ5で興味対象の
候補に対する興味度I>現在の興味対象に対する興味度
Iであると判断すれば、興味対象の候補にリセットする
(ステップ6)。つまり、CPU21は、ステップ4で
特定した興味対象の候補を興味対象として設定する。こ
のようにしてCPU21は対象設定機能を実現する。
If the CPU 21 determines in step 5 that the degree of interest I for the candidate of interest> the degree of interest I for the current target of interest, the CPU 21 resets the candidate to the candidate of interest (step 6). That is, the CPU 21 sets the interest target candidate identified in step 4 as an interest target. Thus, the CPU 21 implements the target setting function.

【0033】 CPU21は、ステップ5で興味対象の
候補に対する興味度I<現在の興味対象に対する興味度
Iであると判断すれば、興味対象をリセットしない(ス
テップ7)。
If the CPU 21 determines in step 5 that the interest level I for the interest target candidate <the interest level I for the current interest target, the CPU 21 does not reset the interest target (step 7).

【0034】 前述したステップ1〜ステップ7が興味
対象のリセット処理に相当する。また、本実施の形態の
ペット型ロボットは、興味度Iを決定する要因を「動き
の大きさ」から「動きの不規則さ」、「色」等に変更す
ることで、好奇心の対象を変更することができる。
Steps 1 to 7 described above correspond to the reset process of the object of interest. In addition, the pet-type robot of the present embodiment changes the factor that determines the degree of interest I from “the magnitude of the movement” to “irregularity of the movement”, “color”, etc. Can be changed.

【0035】 CPU21は、ステップ1で興味対象の
リセット要因が発生しないと判断したり、ステップ1〜
ステップ7からなる興味対象のリセット処理を終えた後
に追従ルーチンを起動する(ステップ8)。
The CPU 21 determines in step 1 that no resetting factor of interest is generated,
After finishing the reset process of the object of interest consisting of step 7, the following routine is started (step 8).

【0036】 ここで、追従ルーチンは、注意喚起ルー
チンで設定した特定色に相当する色データを用いてトラ
ッキング処理によりフレーム内の興味対象に対応する位
置データを取得し、その位置データに基づいて興味対象
をフレームの中心に取り込むように、モータ34及び駆
動機構32で各関節を動かし、この処理に並行して測距
センサ11から興味対象までの測距データを取得する処
理である。
Here, the follow-up routine acquires position data corresponding to an object of interest in the frame by tracking processing using color data corresponding to the specific color set in the alerting routine, and acquires interest based on the position data. Each joint is moved by the motor 34 and the drive mechanism 32 so as to capture the target at the center of the frame, and in parallel with this processing, distance measurement data from the distance measurement sensor 11 to the object of interest is acquired.

【0037】 CPU21は、ステップ8で取得した測
距データ及び興味度Iの値から、好奇心行動を決定する
(ステップ9)。
The CPU 21 determines a curiosity behavior from the distance measurement data acquired in step 8 and the value of the degree of interest I (step 9).

【0038】 CPU21は、ステップ9で決定した行
動に対応するようにモータ34及び駆動機構32を駆動
することにより、好奇心行動を行なう(ステップ1
0)。
The CPU 21 performs a curious action by driving the motor 34 and the driving mechanism 32 so as to correspond to the action determined in step 9 (step 1).
0).

【0039】 前述のステップ8からステップ10は、
視覚処理による興味対象の追跡処理及び好奇心行動の決
定、好奇心行動の実行処理である。本実施の形態におけ
るペット型ロボットは、興味度I及び興味対象までの距
離Dに対応する各種の好奇心行動をとることができる。
以上のようにCPU21は行動決定機能を実現している。
Steps 8 to 10 described above include:
This is tracking processing of an object of interest by visual processing, determination of curiosity behavior, and execution processing of curiosity behavior. The pet robot according to the present embodiment can take various curiosity behaviors corresponding to the degree of interest I and the distance D to the object of interest.
As described above, the CPU 21 implements the action determination function.

【0040】 図3は反射行動ルーチンを示すフローチ
ャートである。
FIG. 3 is a flowchart showing a reflex action routine.

【0041】 反射行動ルーチンは、図2に示したルー
チンに対する割り込みルーチンである。CPU21は、
反射行動要因の検出により、図2に示したルーチンの処
理を中断して優先的に反射行動ルーチンを実行する。従
って、CPU21は、優先行動手段に相当する。
The reflex action routine is an interrupt routine for the routine shown in FIG. The CPU 21
By detecting the reflex action factor, the processing of the routine shown in FIG. 2 is interrupted and the reflex action routine is executed with priority. Therefore, the CPU 21 corresponds to priority action means.

【0042】 CPU21は、測距センサ11からの測
距データにより所定値よりも高速度の物体が近づくこと
を検知したり、マイク13からの音声信号から所定値を
越える音を検出したり、タッチスイッチ14からの感圧
信号により所定値よりも強く叩かれたことを検知した
り、測距センサ11及びカメラ13から所定の距離より
も近くで物体が動いたことを検出すれば、本ルーチンを
起動する。このようにCPU21は反射行動誘発機能を
実現している。
The CPU 21 detects that an object having a speed higher than a predetermined value approaches from the distance measurement data from the distance measurement sensor 11, detects a sound exceeding a predetermined value from an audio signal from the microphone 13, If it is detected from the pressure-sensitive signal from the switch 14 that the object has been hit more than a predetermined value, or if it is detected that the object has moved closer than a predetermined distance from the distance measuring sensor 11 and the camera 13, this routine is executed. to start. Thus, the CPU 21 realizes the reflex action induction function.

【0043】 CPU21は、前述のようにして検出し
た反射行動要因に対応する反射行動を決定する(ステッ
プ21)。
The CPU 21 determines a reflex behavior corresponding to the reflex behavior factor detected as described above (step 21).

【0044】 CPU21は、ステップ21で決定した
反射行動を実行する(ステップ22)。例えば、ペット
型ロボットは、身を縮めたり、反射行動要因である音源
や物体から遠ざかる方向に身を引いたり、びっくりした
声を発生したり、反射要因である音源や物体の方向に視
線を向ける。このようにCPU21は反射行動実行手段
に相当する。
The CPU 21 executes the reflex action determined in step 21 (step 22). For example, a pet-type robot shrinks, pulls away from a sound source or object that is a reflex action factor, generates a surprised voice, or turns its gaze on the direction of a sound source or object that is a reflex factor. . As described above, the CPU 21 corresponds to a reflex action execution unit.

【0045】 図3に示した反射行動ルーチンは、図2
に示したルーチンに対する割り込み処理として実現して
あることから、本実施の形態のペット型ロボットは、反
射行動を第一に優先して実行し、反射行動要因の検出が
なされない場合に動く物に好奇心行動をとるようにする
ことができた。
The reflex action routine shown in FIG.
The pet-type robot according to the present embodiment executes the reflex action first and executes the reflex action first when the reflex action factor is not detected. I was able to take curiosity.

【0046】 次に本実施の形態における視覚認識処理
の一部を構成するオプティカルフローを説明する。かか
る処理は図2で説明した注意喚起ルーチンで採用する技
術である。
Next, an optical flow constituting a part of the visual recognition processing according to the present embodiment will be described. This processing is a technique used in the alerting routine described with reference to FIG.

【0047】 オプティカルフローは、カメラ12から
読み込まれるフレーム上の各領域の動きを検出する技術
であり、フレーム上で動いているもの移動ベクトル(速
度と方向とからなる。)を検出する技術である。かかる
処理は、例えば、人物の腕の動きに対応する方向と速度
に対応した移動ベクトルを得るものである。
The optical flow is a technique for detecting the movement of each area on a frame read from the camera 12, and is a technique for detecting a movement vector (composed of a speed and a direction) of a moving object on the frame. . This processing is for obtaining, for example, a movement vector corresponding to the direction and speed corresponding to the motion of the arm of the person.

【0048】 オプティカルフローは、図4に示すよう
にフレームを格子状に分割し、各格子が前フレームから
次フレームでいづれに動いたかをトラッキングする工程
及び前フレーム上の格子状の画像と次フレーム上の格子
状の画像とから移動ベクトルを算出する工程とからな
る。
The optical flow is a process of dividing a frame into a grid as shown in FIG. 4 and tracking whether each grid has moved from the previous frame to the next frame, and a grid-like image on the previous frame and the next frame. Calculating a movement vector from the upper grid image.

【0049】 先ず、トラッキング処理を図4及び図5
を参照して説明する。図4は探索すべき画像を抽出して
前フレームと次フレームを重ねて表示した模式図であ
る。図5はトラッキングを示す概念図である。
First, the tracking processing is described with reference to FIGS.
This will be described with reference to FIG. FIG. 4 is a schematic diagram in which an image to be searched is extracted and a previous frame and a next frame are displayed in a superimposed manner. FIG. 5 is a conceptual diagram showing tracking.

【0050】 図4において画像Aは前フレームで記
憶した格子状の画像であり、画像Aは次のフレームで
画像Aが移動した状態の画像である。トラッキング
は、前フレームで記憶した格子状の画像Aとすれば、
次のフレームで画像Aと一番似ている画像Aを探す
処理である。
In FIG. 4, an image A 1 is a lattice-like image stored in the previous frame, and an image A 2 is an image in a state where the image A 1 has moved in the next frame. Tracking, if the lattice-like image A 1 stored in the previous frame,
It is a process for searching an image A 2 resembling most the image A 1 in the next frame.

【0051】 画像が似ているか否かを評価するために
式(1)に示す評価関数G(x,y)を用いる。
An evaluation function G (x, y) shown in Expression (1) is used to evaluate whether or not images are similar.

【数1】 (Equation 1)

【0052】 評価関数GはAと探索領域B内でA
と同じ大きさの格子状領域について各度ドットの輝度値
の誤差の二乗和を求めるものである。図5に示すように
探索領域B内で記憶した画像Aをx方向又はy方向に
1ドットづつ動かし、次フレーム上の画像と記憶した画
像との間で評価関数Gを求める。その評価関数Gの最も
小さい画像を探す。これがトラッキングの具体的な処理
である。かかる処理を全フレーム若しくはフレームの特
定領域について行なう。
[0052] the evaluation function G is A 1 in the search area B to A 1
This is to calculate the sum of squares of the error of the luminance value of each dot for the grid-like area of the same size as that of. Image A 1 stored within the search area B as shown in FIG. 5 moves one dot at a time in the x or y direction, obtaining the evaluation function G with the image stored as the image of the next frame. An image with the smallest evaluation function G is searched for. This is a specific tracking process. Such processing is performed for all frames or a specific area of the frame.

【0053】 探索領域B内にAと完全に一致する格
子状の画像が存在すれば、評価関数Gは零となる。しか
し、例えば、人体の掌を例にとれば、握った状態から徐
々に開いてかつ、徐々に移動する場合を想定すると、次
のフレーム内で完全に同一の画像Aが存在しないこと
になる。そこで、探索領域B内で評価関数Gが最小とな
るx,yを次のフレーム内の移動位置とする。ここで、
(x、y)は、画像Aの重心の座標である。これらの
重心の座標データから移動ベクトルを算出する。かかる
移動ベクトルから探索すべき画像Aの位置を追跡でき
る。かかる処理がオプティカルフロー処理である。かか
るオプティカルフローを前フレームにわたってリアルタ
イムに計算するための専用チップを用いてもよい。
If there is a grid-like image that completely matches A 1 in the search area B, the evaluation function G becomes zero. However, for example, taking the human palm example, and gradually open the gripping state, assuming that gradually moves, will not completely exist same image A 1 in the next frame . Therefore, x and y at which the evaluation function G is minimized in the search area B are set as the movement positions in the next frame. here,
(X, y) is the centroid of the coordinates of the image A 1. A movement vector is calculated from the coordinate data of the center of gravity. Track the position of the image A 1 to be searched from such motion vectors. Such a process is an optical flow process. A dedicated chip for calculating such an optical flow in real time over the previous frame may be used.

【0054】 本実施の形態では、注意喚起による視覚
認識処理でオプティカルフローを用いて、動く物体(探
索画像)の位置を認識し、これと同時に探索画像の色を
抽出する処理も行なっている。これは、オプティカルフ
ローでは常に動いている物体しか探索できないので、好
奇心行動を誘発する視覚認識処理として静止した物体
(探索画像)の位置を認識するために特定色を用いたト
ラッキングを可能とするためである。
In the present embodiment, the position of a moving object (search image) is recognized using the optical flow in the visual recognition process by alerting, and at the same time, the process of extracting the color of the search image is also performed. This enables tracking using a specific color to recognize the position of a stationary object (search image) as a visual recognition process that induces curious behavior because optical flow can always search only a moving object. That's why.

【0055】 次に特定色を用いたトラッキング処理を
説明する。この処理は図2で説明した追従ルーチンで採
用する技術である。特定色を用いたトラッキング処理
は、追跡すべき物体の色が特定されている場合に、フレ
ーム上で特定色領域を切り出して、その領域の重心を追
跡する処理である。フレーム内に似たよう色領域が存在
すると、混乱するので、前フレームまでの追跡結果から
移動方向を予測し、正しい色領域を選択するようにして
いる。
Next, a tracking process using a specific color will be described. This process is a technique employed in the following routine described with reference to FIG. The tracking process using a specific color is a process of cutting out a specific color region on a frame and tracking the center of gravity of the region when the color of an object to be tracked is specified. If there is a similar color area in the frame, it will be confused. Therefore, the moving direction is predicted from the tracking result up to the previous frame, and the correct color area is selected.

【0056】 全フレームを走査して追跡すべき特定色
領域が存在するかを判定し、二値化する。具体的には、
特定色が存在すれば、“1”を設定し、特定色が存在し
なければ、“0”を設定する。
The entire frame is scanned to determine whether there is a specific color area to be tracked, and binarized. In particular,
If a specific color exists, “1” is set. If no specific color exists, “0” is set.

【0057】 かかる判定処理は以下の式(2)に従っ
てなされる。
This determination processing is performed according to the following equation (2).

【数2】 (Equation 2)

【0058】 次に、特定色が含まれると判定された領
域の重心座標(X,Y )は以下の式(3)で求ま
る。
Next, the area determined to include the specific color will be described.
Area center of gravity coordinates (XG, Y G) Is obtained by the following equation (3).
You.

【数3】 (Equation 3)

【0059】 以上が本実施の形態で用いる特定色を用
いたトラッキング処理である。
The above is the tracking processing using the specific color used in the present embodiment.

【0060】 次に好奇心行動を決定するために用いる
興味度Iを図6を参照して説明する。図6は興味を算出
する際に用いる減衰関数を示したグラフである。
Next, the degree of interest I used to determine curiosity behavior will be described with reference to FIG. FIG. 6 is a graph showing an attenuation function used for calculating interest.

【0061】 興味度Iは興味の高さを表したものであ
る。本実施の形態では、以下の式(4)によって算出す
る。興味度I=Fmax×D(t) 式(4)
The degree of interest I indicates the degree of interest. In the present embodiment, it is calculated by the following equation (4). Interest level I = Fmax × D (t) Equation (4)

【0062】 ここで、Fmaxは注意喚起ルーチンの
実行の際に算出される移動ベクトルの最大値であり、D
(t)は、図6に示すように追従を開始した直後をt=
0とする減衰関数である。興味度Iは、前述の式から分
かるように対象の動きが大きいほど、又はリセット要因
が発生した直後ほど、興味度Iが大きくなる。どんなに
大きな動きをする対象であっても、時間の経過とともに
飽きるようにしてある。
Here, F max is the maximum value of the movement vector calculated at the time of executing the alert routine, and D max
(T) indicates that immediately after the start of tracking as shown in FIG.
This is an attenuation function that is set to 0. As can be seen from the above equation, the degree of interest I increases as the movement of the object increases or immediately after the reset factor occurs. No matter how big the movement, the subject gets tired over time.

【0063】 なお、本実施の形態では、興味度Iは対
象の動きの大きさから算出したが、これに限定されるも
のでなく、対象の動きの不規則さや好みの色を数値化し
たものから算出しても良い。更に、これらを組み合わせ
て算出しても良い。
In the present embodiment, the degree of interest I is calculated from the magnitude of the movement of the target, but is not limited to this. May be calculated. Furthermore, these may be calculated in combination.

【0064】 図7は好奇心行動の決定アルゴリズムを
示した模式図である。
FIG. 7 is a schematic diagram showing an algorithm for determining curiosity behavior.

【0065】 図7は、対象までの距離Dと興味度Iと
に基づいて4種類の行動「視線を向けるが、直ぐに他に
視線を移す」、「顔を向けて凝視する」、「近づいて行
く」、「手足を伸ばして触れる」から行動を選択するこ
とを示している。又、本実施の形態のペット型ロボット
は、時間経過と共に「手を伸ばして触れる。」から「顔を
向けて凝視する。」に行動を変化する。更に、本実施の
形態のペット型ロボットは、時間経過と共に「近づいて
行く」から「顔を向けて凝視する。」に行動を変化する。
これは興味度Iが式(2)から分かるように時間経過と
共に減衰するからである。
FIG. 7 shows four types of actions based on the distance D to the target and the degree of interest I, “turn gaze, but immediately shift gaze to another,” “turn gaze at face,” and “approach. It indicates that the action is selected from "go" and "stretch and touch". In addition, the pet-type robot according to the present embodiment changes its behavior from "reaching and touching." Further, the behavior of the pet-type robot according to the present embodiment changes from "approaching" to "gazing at the face" with the passage of time.
This is because the degree of interest I attenuates with time, as can be seen from equation (2).

【0066】 本実施の形態のペット型ロボットが視線
を向けるが、直ぐに他に視線を移す行動をとる状態は、
対象が遠くにあり、しかも、対象の動きが少ない状態で
ある。かかる状態から新たな好奇心行動に変化すること
はない。これは、興味度Iが時間経過と共に減衰し、図
7に示す模式図ではペット型ロボットが対象との距離を
縮める行動をとることがないからである。
The state in which the pet-type robot according to the present embodiment turns his / her gaze, but immediately takes an action to shift the gaze to another
The target is far away, and the movement of the target is small. There is no change from this state to a new curiosity behavior. This is because the degree of interest I attenuates with time, and the pet-type robot does not take an action of reducing the distance to the target in the schematic diagram shown in FIG.

【0067】 上述した内容のコンピュータプログラム
を、例えば記録媒体に記録し、これを配付する場合も本
発明の技術的範囲に含まれる。当該記録媒体は、磁気テ
ープ、フレキシブルディスク、CD−ROM又はDVD
等の光ディスク、MO等の光磁気ディスクなども含まれ
る。
The case where the computer program having the above-described contents is recorded on, for example, a recording medium and distributed is also included in the technical scope of the present invention. The recording medium is a magnetic tape, flexible disk, CD-ROM or DVD
, And a magneto-optical disk such as an MO.

【0068】 以上のように本実施の形態におけるペッ
ト型ロボットは、好奇心旺盛なロボットとして実現する
ことができた。
As described above, the pet robot according to the present embodiment can be realized as a curious robot.

【0069】[0069]

【発明の効果】 本発明は、好奇心旺盛なペット型ロボ
ット、かかる動作を実現するプログラムが記録されたコ
ンピュータ読み取り可能な記録媒体を提供することがで
きた。
The present invention was able to provide a pet-type robot with an inquisitive curiosity and a computer-readable recording medium on which a program for realizing such an operation is recorded.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本実施の形態におけるペット型ロボットのハ
ードウエア構成例を示すブロック図である。
FIG. 1 is a block diagram illustrating a hardware configuration example of a pet robot according to the present embodiment.

【図2】 興味度Iの設定から好奇心行動の実行を示す
フローチャートである。
FIG. 2 is a flowchart showing execution of curiosity behavior from setting of degree of interest I;

【図3】 反射行動ルーチンを示すフローチャートであ
る。
FIG. 3 is a flowchart showing a reflex action routine.

【図4】 探索すべき画像を抽出して前フレームと次フ
レームを重ねて表示した模式図である。
FIG. 4 is a schematic diagram in which an image to be searched is extracted and a previous frame and a next frame are superimposed and displayed.

【図5】 トラッキングを示す概念図である。FIG. 5 is a conceptual diagram illustrating tracking.

【図6】 興味を算出する際に用いる減衰関数を示した
グラフである。
FIG. 6 is a graph showing a damping function used for calculating interest.

【図7】 好奇心行動の決定アルゴリズムを示した模式
図である。
FIG. 7 is a schematic diagram showing a curious behavior determination algorithm.

【符号の説明】[Explanation of symbols]

1 入力手段 2 認識・判断部 3 出力手段 11 測距センサ 12 カメラ 13 マイク 14 タッチスイッチ 21 CPU 22 ROM 23 RAM 31 スピーカ 32 駆動機構 34 モータ REFERENCE SIGNS LIST 1 input means 2 recognition / judgment unit 3 output means 11 distance measuring sensor 12 camera 13 microphone 14 touch switch 21 CPU 22 ROM 23 RAM 31 speaker 32 drive mechanism 34 motor

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 17/00 G06F 15/20 Z Fターム(参考) 2C150 BA06 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF16 EF23 EF29 EF33 3F059 AA00 BA00 BB06 DA01 DB05 DB09 DC00 DC01 DC08 DD11 FC00 3F060 AA00 BA10 5B049 AA02 BB07 DD00 DD03 EE00 EE07 EE12 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 17/00 G06F 15/20 Z F-term (Reference) 2C150 BA06 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF16 EF23 EF29 EF33 3F059 AA00 BA00 BB06 DA01 DB05 DB09 DC00 DC01 DC08 DD11 FC00 3F060 AA00 BA10 5B049 AA02 BB07 DD00 DD03 EE00 EE07 EE12

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 対象に関連するデータを検出する入力手
段と、当該入力手段から得られるデータに基づいた行動
をする出力手段とを具備するペット型ロボットにおい
て、前記入力手段から得られるデータに基づいて対象に
対する興味度を算出する興味度算出手段と、当該興味度
算出手段で新たに算出した興味度とその前に算出した興
味度とを比較した結果で興味対象とするかを決定する対
象設定手段と、当該対象設定手段で設定した対象に対す
る好奇心行動を決定する行動決定手段とを有することを
特徴とするペット型ロボット。
1. A pet-type robot comprising: input means for detecting data related to an object; and output means for performing an action based on data obtained from the input means, based on data obtained from the input means. Means for calculating an interest level for an object, and an object setting for determining whether or not the interest level newly calculated by the interest level calculation means and the interest level calculated before the interest level are set as an interest level. And a behavior determining means for determining curiosity behavior with respect to the target set by the target setting means.
【請求項2】 前記入力手段から得られるデータが反射
行動要因であるか否かを判断する反射行動誘発手段と、
当該反射行動誘発手段の判断で反射行動を選択し、その
選択された反射行動を実行する反射行動実行手段とを具
備することを特徴とする請求項1に記載のペット型ロボ
ット。
2. A reflex action inducing means for judging whether data obtained from the input means is a reflex action factor,
2. The pet-type robot according to claim 1, further comprising: a reflex action executing means for selecting a reflex action based on the judgment of the reflex action inducing means, and executing the selected reflex action.
【請求項3】 前記出力手段に興味行動に優先して反射
行動を実行するように制御する優先行動手段を具備する
ことを特徴とする請求項2に記載のペット型ロボット。
3. The pet-type robot according to claim 2, wherein the output means includes priority action means for controlling the reflex action prior to the interest action.
【請求項4】 前記興味度算出手段は時間経過により興
味度を減少するように算出することを特徴とする請求項
1〜請求項3に記載のいづれか1のペット型ロボット。
4. The pet-type robot according to claim 1, wherein said interest degree calculating means calculates the degree of interest so as to decrease with time.
【請求項5】 前記行動決定手段は興味度及び興味対象
までの距離に基づいて好奇心行動を決定することを特徴
とする請求項1〜請求項4に記載のいずれか1のペット
型ロボット。
5. The pet-type robot according to claim 1, wherein the action determining means determines a curiosity action based on the degree of interest and a distance to the object of interest.
【請求項6】 対象に関連するデータを検出する入力機
能と、当該入力機能で得られるデータに基づいて行動す
る行動機能が記録されたコンピュータ読み取り可能な記
録媒体であって、前記入力機能から得られるデータに基
づいて対象に対する興味度を算出する興味度算出機能
と、当該興味度算出機能で新たに算出した興味度とその
前に算出した興味度とを比較した結果で興味対象とする
を決定する対象設定機能と、当該対象設定機能で設定し
た対象に対する好奇心行動を決定する行動決定機能とを
コンピュータに実現させるためのプログラムを記録した
コンピュータ読み取り可能な記録媒体。
6. A computer-readable recording medium in which an input function for detecting data related to an object and an action function for acting based on data obtained by the input function are recorded, the computer-readable recording medium being provided with the input function. Interest level calculation function that calculates the degree of interest for the target based on the data obtained, and the interest level newly calculated by the interest level calculation function and the interest level calculated before that are determined as the interest level. A computer-readable recording medium that stores a program for causing a computer to execute a target setting function to perform and a behavior determination function that determines curiosity behavior with respect to the target set by the target setting function.
JP37260199A 1999-12-28 1999-12-28 Pet type robot and recording medium readable by computer with program recorded Pending JP2001179666A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37260199A JP2001179666A (en) 1999-12-28 1999-12-28 Pet type robot and recording medium readable by computer with program recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37260199A JP2001179666A (en) 1999-12-28 1999-12-28 Pet type robot and recording medium readable by computer with program recorded

Publications (1)

Publication Number Publication Date
JP2001179666A true JP2001179666A (en) 2001-07-03

Family

ID=18500729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37260199A Pending JP2001179666A (en) 1999-12-28 1999-12-28 Pet type robot and recording medium readable by computer with program recorded

Country Status (1)

Country Link
JP (1) JP2001179666A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003050559A (en) * 2001-08-07 2003-02-21 Honda Motor Co Ltd Autonomously movable robot
WO2003078113A1 (en) * 2002-03-15 2003-09-25 Sony Corporation Robot behavior control system, behavior control method, and robot device
JP2005279896A (en) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International Robot
JP2008018529A (en) * 2007-08-30 2008-01-31 Advanced Telecommunication Research Institute International Communication robot
JP2009136967A (en) * 2007-12-06 2009-06-25 Honda Motor Co Ltd Communication robot
JP2011245618A (en) * 2010-05-28 2011-12-08 Compal Communications Inc Automatic machine and method for controlling the same
US8287372B2 (en) 2006-09-28 2012-10-16 Mattel, Inc. Interactive toy and display system
CN103354775A (en) * 2010-12-17 2013-10-16 奥尔德巴伦机器人股份公司 Humanoid robot provided with a manager for the physical and virtual resources thereof, and methods for use and programming
JP2014030865A (en) * 2012-08-01 2014-02-20 Fujitsu Ltd Sight line control device, sight line control method, sight line control program, and terminal equipment
WO2020045658A1 (en) * 2018-08-30 2020-03-05 Groove X株式会社 Robot and voice generation program

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4642287B2 (en) * 2001-08-07 2011-03-02 本田技研工業株式会社 Autonomous mobile robot
JP2003050559A (en) * 2001-08-07 2003-02-21 Honda Motor Co Ltd Autonomously movable robot
WO2003078113A1 (en) * 2002-03-15 2003-09-25 Sony Corporation Robot behavior control system, behavior control method, and robot device
US7813835B2 (en) 2002-03-15 2010-10-12 Sony Corporation Robot behavior control system, behavior control method, and robot device
JP2005279896A (en) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International Robot
US8287372B2 (en) 2006-09-28 2012-10-16 Mattel, Inc. Interactive toy and display system
JP2008018529A (en) * 2007-08-30 2008-01-31 Advanced Telecommunication Research Institute International Communication robot
JP4565196B2 (en) * 2007-08-30 2010-10-20 株式会社国際電気通信基礎技術研究所 Communication robot
JP2009136967A (en) * 2007-12-06 2009-06-25 Honda Motor Co Ltd Communication robot
JP4560078B2 (en) * 2007-12-06 2010-10-13 本田技研工業株式会社 Communication robot
US8010231B2 (en) 2007-12-06 2011-08-30 Honda Motor Co., Ltd. Communication robot
JP2011245618A (en) * 2010-05-28 2011-12-08 Compal Communications Inc Automatic machine and method for controlling the same
TWI416289B (en) * 2010-05-28 2013-11-21 Compal Communications Inc Automatic machine and method for controlling the same
US8666549B2 (en) 2010-05-28 2014-03-04 Compal Communications, Inc. Automatic machine and method for controlling the same
CN103354775A (en) * 2010-12-17 2013-10-16 奥尔德巴伦机器人股份公司 Humanoid robot provided with a manager for the physical and virtual resources thereof, and methods for use and programming
CN103354775B (en) * 2010-12-17 2016-08-31 奥尔德巴伦机器人股份公司 It is provided with for its physics and the humanoid robot of the manager of virtual resource and using method
JP2014030865A (en) * 2012-08-01 2014-02-20 Fujitsu Ltd Sight line control device, sight line control method, sight line control program, and terminal equipment
WO2020045658A1 (en) * 2018-08-30 2020-03-05 Groove X株式会社 Robot and voice generation program
CN112601592A (en) * 2018-08-30 2021-04-02 Groove X 株式会社 Robot and sound generation program
JPWO2020045658A1 (en) * 2018-08-30 2021-09-24 Groove X株式会社 Robot and voice generation program
JP7420385B2 (en) 2018-08-30 2024-01-23 Groove X株式会社 Robot and voice generation program

Similar Documents

Publication Publication Date Title
EP3781896B1 (en) System for locating and identifying an object in unconstrained environments
JP6079832B2 (en) Human computer interaction system, hand-to-hand pointing point positioning method, and finger gesture determination method
KR101688355B1 (en) Interaction of multiple perceptual sensing inputs
JP5911796B2 (en) User intention inference apparatus and method using multimodal information
JP6747446B2 (en) Information processing apparatus, information processing method, and program
JP2002036158A (en) Electronic appliance having autonomous function
JPH08211979A (en) Hand shake input device and method
US20210034212A1 (en) Interactive control method and apparatus, storage medium, and electronic device
JP2004246578A (en) Interface method and device using self-image display, and program
JP2001179666A (en) Pet type robot and recording medium readable by computer with program recorded
JP2016224686A (en) Information processing apparatus, control method thereof, program, and storage medium
CN109725727A (en) There are the gestural control method and device of screen equipment
US20200269421A1 (en) Information processing device, information processing method, and program
WO2019171685A1 (en) Information processing device, information processing method, and recording medium
KR101396488B1 (en) Apparatus for signal input and method thereof
WO2020110547A1 (en) Information processing device, information processing method, and program
KR101652705B1 (en) Apparatus for predicting intention of user using multi modal information and method thereof
JP2001300148A (en) Action response system and program recording medium therefor
JP2003205179A (en) Pet type robot
US11216179B2 (en) Information processing apparatus and information processing method
CN109725722A (en) There are the gestural control method and device of screen equipment
JP2021009552A (en) Information processing apparatus, information processing method, and program
US20230290092A1 (en) Information processing device, information processing method, and program
US20240231600A1 (en) Interaction with a projected virtual character using touch panel
JPWO2020166351A1 (en) Information processing equipment, information processing methods, and recording media