JP2001353679A - Robot for use as pet - Google Patents

Robot for use as pet

Info

Publication number
JP2001353679A
JP2001353679A JP2000176641A JP2000176641A JP2001353679A JP 2001353679 A JP2001353679 A JP 2001353679A JP 2000176641 A JP2000176641 A JP 2000176641A JP 2000176641 A JP2000176641 A JP 2000176641A JP 2001353679 A JP2001353679 A JP 2001353679A
Authority
JP
Japan
Prior art keywords
user
robot
sensor
information
behavior pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000176641A
Other languages
Japanese (ja)
Inventor
Seiichi Idota
誠一 井戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2000176641A priority Critical patent/JP2001353679A/en
Publication of JP2001353679A publication Critical patent/JP2001353679A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a robot for use as a pet that grows well enough for the robot user to have a stronger affection. SOLUTION: The user is verified by an iris verification system 4 and a behavioral pattern for the user is loaded from a user behavioral pattern memory 6; the robot behaves in accordance with the behavioral pattern and obtains information from sensors 2 and 3 so that a learning/growing system 5 varies the behavioral pattern for the user. The behavioral pattern for each user is saved in the memory 6.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はペット用ロボットに
関する。
The present invention relates to a pet robot.

【0002】[0002]

【従来の技術】近年、犬、猫等を真似たペット用ロボッ
トが開発されてきている。ペット用ロボットは、身体に
配置したセンサ、例えば、タッチセンサを介して使用者
からタッチの強弱により使用者の意図を情報として得
て、また、カメラを介して外界の情報、例えば、外界の
色や形の情報を取得し、センサから得た情報を基に行動
パターンを学習/成長させる。
2. Description of the Related Art In recent years, pet robots that imitate dogs, cats, and the like have been developed. The pet robot obtains information of the user's intention as information from the user via a sensor arranged on the body, for example, a touch sensor depending on the strength of the touch from the user, and information on the external world via a camera, for example, the color of the external world. It acquires information on shapes and shapes and learns / grows behavior patterns based on information obtained from sensors.

【0003】[0003]

【発明が解決しようとする課題】従来のペット用ロボッ
トにあっては、たとえロボットの所有者であっても、使
用者を認証していないので、ロボットは使用者が誰であ
っても同一の行動パターンを示し、特にロボットの所有
者にとって成長性が乏しいという感が否めないという問
題点があった。
In a conventional pet robot, even if it is the owner of the robot, the user is not authenticated. There is a problem in that the behavior pattern is shown, and especially the owner of the robot cannot feel that the growth is poor.

【0004】本発明は成長性が豊かでロボットの使用者
がより強い愛着を持てるペット用ロボットを提供するこ
とを目的としている。
[0004] It is an object of the present invention to provide a pet robot that has a high growth potential and allows a user of the robot to have a stronger attachment.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に本発明のペット用ロボットにおいては、使用者の認証
を行う個人認証手段を設け、個人認証手段により使用者
を認証し、認証した使用者に対する前回までの情報に基
づいて行動パターンをとり、センサから新たに得た情報
に基づいてその使用者に対する行動パターンを変化させ
るようにしたものである。
In order to achieve the above object, a pet robot according to the present invention is provided with personal authentication means for authenticating the user, and the user is authenticated by the personal authentication means and the authenticated user is used. An action pattern is obtained based on information on the user up to the previous time, and the action pattern for the user is changed based on information newly obtained from the sensor.

【0006】[0006]

【発明の実施の形態】本発明の実施の形態について図面
を参照しながら説明する。尚、各図面に共通な要素には
同一符号を付す。
Embodiments of the present invention will be described with reference to the drawings. Elements common to the drawings are denoted by the same reference numerals.

【0007】第1の実施の形態 図1は第1の実施の形態によるペット用ロボットのブロ
ック図、図7はアイリス認証システムの配置を示す一例
図である。ペット用ロボット1(以後ロボット1と記す
る)はセンサ2、センサ3、アイリス認証システム4、
学習/成長システム5、使用者別行動パターンメモリ
6、メインシステム7を備え、メインシステム7はロボ
ット1全体を制御する。
[0007] First Embodiment FIG. 1 a block diagram of a pet robot according to the first embodiment, FIG. 7 is an example view showing the arrangement of the iris authentication system. The pet robot 1 (hereinafter referred to as the robot 1) has a sensor 2, a sensor 3, an iris authentication system 4,
The system includes a learning / growth system 5, a user-specific behavior pattern memory 6, and a main system 7. The main system 7 controls the entire robot 1.

【0008】センサ2は使用者8からの情報を受け取
り、メインシステム7に出力する。例えば、センサ2に
タッチセンサを使用することで、使用者8はタッチの強
弱によりメインシステム7に情報を与える。
[0008] The sensor 2 receives information from the user 8 and outputs it to the main system 7. For example, by using a touch sensor as the sensor 2, the user 8 gives information to the main system 7 according to the strength of the touch.

【0009】メインシステム7は、センサ2の出力が閾
値を越えた場合には、ロボットとって悪意のある情報
(例えば、なぐる)として認識し、センサ2の出力が閾
値以下の場合には、ロボットとって好感がもてる情報
(例えば、なでる)として認識する。
When the output of the sensor 2 exceeds the threshold value, the main system 7 recognizes the information as malicious information (for example, rounding) for the robot. It is recognized as information that has a favorable impression (for example, stroking).

【0010】センサ3はロボット1の外界の情報を取得
し、メインシステム7に出力する。例えば、センサ3に
カメラを使用することで、メインシステム7は外界の色
や形の情報を取得できる。
The sensor 3 acquires information on the outside world of the robot 1 and outputs the information to the main system 7. For example, by using a camera for the sensor 3, the main system 7 can acquire information on the color and shape of the outside world.

【0011】アイリス認証システム4は、図7に示すよ
うに、ロボット1の目、鼻先等に設けられたカメラの撮
影口9aにより得た使用者8の目の画像からアイリスの
特徴部を抽出し、登録データと照合して個人認証を行
い、メインシステム7に出力する。
As shown in FIG. 7, the iris authentication system 4 extracts a characteristic part of the iris from an image of the eyes of the user 8 obtained through a photographing port 9a of a camera provided at the eyes, nose, etc. of the robot 1. Then, personal authentication is performed by comparing the registered data with the registered data, and output to the main system 7.

【0012】学習/成長システムはメインシステム5を
介し、センサ2及びセンサ3、アイリス認証システム4
から得られた情報を基にロボットの行動パターンを変化
させる。
The learning / growth system is connected to the sensor 2 and the sensor 3 and the iris authentication system 4 via the main system 5.
Changes the behavior pattern of the robot based on the information obtained from.

【0013】使用者別行動パターンメモリ6はメインシ
ステム7から行動パターンのデータを入力し、使用者別
に記憶する。
The user-specific behavior pattern memory 6 inputs behavior pattern data from the main system 7 and stores the data for each user.

【0014】図2はアイリス認証システムのブロック図
である。ビデオキャプチャ部はメインシステム7を介
し、センサ3を通じて使用者8の目の画像を取得し、デ
ジタル化して画像処理部に出力する。画像処理部はビデ
オキャプチャ部から入力した画像からアイリスを切り出
す。
FIG. 2 is a block diagram of the iris authentication system. The video capture unit obtains an image of the eyes of the user 8 through the sensor 3 via the main system 7, digitizes the image, and outputs the digitized image to the image processing unit. The image processing unit cuts out an iris from the image input from the video capture unit.

【0015】アイリス特徴抽出部は画像処理部が切り出
したアイリスの画像からアイリスの特徴を抽出し、アイ
リスマッチング部に出力する。アイリスマッチング部
は、データベースに格納してあるアイリスの登録データ
と照合して使用者8が認証済みか否(新使用者)かを結
果出力部を介してメインシステム7に出力する。
The iris feature extraction unit extracts iris features from the iris image cut out by the image processing unit and outputs the iris features to the iris matching unit. The iris matching unit compares the registered iris data stored in the database with the registered iris data and outputs whether the user 8 has been authenticated (new user) to the main system 7 via the result output unit.

【0016】図3は図1に示したペット用ロボットの動
作フローチャートであり、メインシステム7の動作であ
る。ステップS1でアイリス認証システム4を通じて使
用者8の認証を行い、認証済みの使用者8か否かをチェ
ックして認証済みの使用者8ならばステップS2に分岐
し、否ならばステップS7に分岐する。
FIG. 3 is an operation flowchart of the pet robot shown in FIG. In step S1, the user 8 is authenticated through the iris authentication system 4. It is checked whether or not the user 8 has been authenticated. If the user 8 has been authenticated, the process branches to step S2. If not, the process branches to step S7. I do.

【0017】ステップS2で使用者別行動パターンメモ
リ6を参照して使用者8の行動パターンをロードし、ス
テップS3でその行動パターンに対応した行動をとる。
In step S2, an action pattern of the user 8 is loaded with reference to the user-specific action pattern memory 6, and an action corresponding to the action pattern is taken in step S3.

【0018】ステップS4で、センサ2、センサ3を通
じて情報を取得し、ステップS5で学習/成長システム
5により行動パターンを変化させ、ステップS6でその
変化した行動パターンを使用者別行動パターンメモリ6
にセーブする。
In step S4, information is acquired through the sensors 2 and 3, and in step S5, the behavior pattern is changed by the learning / growth system 5. In step S6, the changed behavior pattern is stored in the user-specific behavior pattern memory 6.
To save.

【0019】ステップS7に分岐した場合には、その使
用者8を始めて認証したので、新使用者行動パターンを
作成してステップS3に移る。
If the flow branches to step S7, since the user 8 is authenticated for the first time, a new user behavior pattern is created, and the flow proceeds to step S3.

【0020】第1の実施の形態によれば、アイリス認証
システムを設けたことにより、ロボットは使用者別の行
動パターンをとることができる。例えば、ロボットが犬
を真似たものであり、ある使用者Aがロボットとって好
感がもてる情報(例えば、なでる)を与え、その行動パ
ターンが好意的な行動パターンになったとする。この行
動パターンは使用者Aのアイリス情報とともに使用者別
行動パターンメモリに格納される。次にロボットが使用
者を使用者Aと認証した場合には、好意的な行動パター
ン(例しっぽを振る)を示す。
According to the first embodiment, the provision of the iris authentication system enables the robot to take a behavior pattern for each user. For example, it is assumed that a robot imitates a dog, a user A gives information (for example, a stroke) that gives a favorable impression to the robot, and the behavior pattern becomes a favorable behavior pattern. This behavior pattern is stored in the user-specific behavior pattern memory together with the iris information of the user A. Next, when the robot authenticates the user as the user A, a favorable behavior pattern (eg, waving a tail) is shown.

【0021】一方、ある使用者Bがロボットとって悪意
のある情報(例えば、なぐる)を与え、その行動パター
ンが悪意のある行動パターンになったとする。この行動
パターンは使用者Bのアイリス情報とともに使用者別行
動パターンメモリに格納される。次にロボットが使用者
を使用者Bと認証した場合には、悪意的な行動パターン
(例:吠える)を示す。このように、アイリス認証シス
テムを設けることで、ロボットは使用者別の行動パター
ンを示すことができる。
On the other hand, it is assumed that a certain user B gives malicious information (for example, rounding) to the robot, and the behavior pattern becomes a malicious behavior pattern. This behavior pattern is stored in the user-specific behavior pattern memory together with the iris information of the user B. Next, when the robot authenticates the user as the user B, a malicious behavior pattern (eg, barking) is shown. As described above, by providing the iris authentication system, the robot can show a behavior pattern for each user.

【0022】尚、行動パターンは、使用者別に全く異な
っても良いし、1部の行動パターンのみ異なってもよ
い。たとえば、使用者別に全く異なる場合には、使用者
ごとに成長度合い(例:よちよち歩き〜しっかりした歩
き)等もことなる。1部の行動パターンが異なる場合に
は、使用者ごとに成長度合いは同一であるが、その振る
舞い等(例:しっぽを振る、吠える)が異なる。
The behavior pattern may be completely different for each user, or only a part of the behavior pattern may be different. For example, if it is completely different for each user, the degree of growth (for example, toddling to firm walking) also differs for each user. When the behavior pattern of one copy is different, the degree of growth is the same for each user, but the behavior (eg, wagging the tail, barking) is different.

【0023】また、使用者は顔をロボットの顔に向ける
機会が多いが、アイリスを撮影するカメラの撮影口をロ
ボットの目、鼻先等に設けたことにより、ロボットは使
用者に無理な姿勢を強いることなく、自然な形で使用者
のアイリスを撮影できる。
Also, the user often faces the robot's face with his / her face, but by providing the camera with a camera opening for photographing the iris at the robot's eyes, nose, etc., the robot can take an unreasonable posture to the user. The user's iris can be photographed in a natural form without forcing.

【0024】第2の実施の形態 図4は第2の実施の形態によるペット用ロボットのブロ
ック図であり、第1の実施の形態によるペット用ロボッ
トと異なるところは、近接/方位センサ15、広角カメ
ラ16、使用者確認システム17を追加した点である。
Second Embodiment FIG. 4 is a block diagram of a pet robot according to a second embodiment . The difference from the pet robot according to the first embodiment is that the proximity / azimuth sensor 15 and the wide-angle sensor are different. The point is that a camera 16 and a user confirmation system 17 are added.

【0025】近接/方位センサ15は、図5に示すよう
に、近接センサ15a〜15dを90°ごとに配置した
もので、どの近接センサが反応しているかにより使用者
がロボットに近づいてきたこと及びその方向を検出する
ことができる。
As shown in FIG. 5, the proximity / azimuth sensor 15 has proximity sensors 15a to 15d arranged at 90 ° intervals. The proximity of the user to the robot depends on which proximity sensor is responding. And its direction can be detected.

【0026】広角カメラ16は広い画角の画像を取得す
るものでセンサ3がカメラであるならば、広角カメラと
共用してもよい。
The wide-angle camera 16 acquires an image with a wide angle of view. If the sensor 3 is a camera, it may be shared with a wide-angle camera.

【0027】使用者確認システム17は広角カメラ16
で取得した画像から使用者が映っているか否かを判定す
る。その判定の1例としてパターンマッチングがある。
センサ2は使用者8からの情報を受け取り、メインシス
テム7に出力する。例えば、センサ2にタッチセンサを
使用することで、使用者8はタッチの強弱によりメイン
システム7に情報を与える。
The user confirmation system 17 is a wide-angle camera 16
It is determined whether or not the user is reflected from the image acquired in step (1). One example of such determination is pattern matching.
The sensor 2 receives information from the user 8 and outputs the information to the main system 7. For example, by using a touch sensor as the sensor 2, the user 8 gives information to the main system 7 according to the strength of the touch.

【0028】センサ3はロボット1の外界の情報を取得
し、メインシステム7に出力する。例えば、センサ3に
カメラを使用することで、メインシステム7は外界の色
や形の情報を取得できる。
The sensor 3 acquires information on the outside world of the robot 1 and outputs the information to the main system 7. For example, by using a camera for the sensor 3, the main system 7 can acquire information on the color and shape of the outside world.

【0029】アイリス認証システム4は使用者8の目の
画像からアイリスの特徴部を抽出し、登録データと照合
して個人認証を行い、メインシステム7に出力する。
The iris authentication system 4 extracts the feature of the iris from the image of the eyes of the user 8, performs personal authentication by comparing it with registered data, and outputs it to the main system 7.

【0030】学習/成長システムはメインシステム5を
介し、センサ2及びセンサ3、アイリス認証システム4
から得られた情報を基にロボットの行動パターンを変化
させる。
The learning / growing system is connected to the sensor 2 and the sensor 3 and the iris authentication system 4
Changes the behavior pattern of the robot based on the information obtained from.

【0031】使用者別行動パターンメモリ6はメインシ
ステム7から行動パターンのデータを入力し、使用者別
に記憶する。
The user-specific behavior pattern memory 6 inputs behavior pattern data from the main system 7 and stores the data for each user.

【0032】近接/方位センサ15は、使用者8がロボ
ット20に近づいてきたこと及びその方向を把握してメ
インシステム7に出力する。広角カメラ16は広い画角
の画像を取得してメインシステム7に出力する。使用者
確認システム17は広角カメラ16で取得した画像から
使用者8が映っているか否かを判定する。
The proximity / azimuth sensor 15 grasps that the user 8 has approached the robot 20 and its direction, and outputs it to the main system 7. The wide-angle camera 16 acquires an image with a wide angle of view and outputs the image to the main system 7. The user confirmation system 17 determines from the image acquired by the wide-angle camera 16 whether the user 8 is shown.

【0033】図6は図4に示したペット用ロボットの動
作フローチャートであり、メインシステム7の動作であ
る。ステップS10で近接/方位センサ15を通じて使
用者8の近接をチェックしており、反応がある場合には
ステップS11に分岐する。
FIG. 6 is an operation flowchart of the pet robot shown in FIG. In step S10, the proximity of the user 8 is checked through the proximity / azimuth sensor 15, and if there is a response, the flow branches to step S11.

【0034】ステップS11で広角カメラ16を近接/
方位センサ15から取得した方向へ向ける。ステップS
12で使用者確認システム17を通じて使用者8がいる
か否かをチェックし、使用者8がいる場合にはステップ
S13に分岐し、否の場合にはステップS10に分岐す
る。
In step S11, the wide-angle camera 16 is moved
Point in the direction acquired from the direction sensor 15. Step S
In step 12, it is checked whether or not the user 8 exists through the user confirmation system 17. If the user 8 exists, the process branches to step S13. If not, the process branches to step S10.

【0035】ステップS13でアイリス認証システム4
を通じて使用者8の認証を行い、認証済みの使用者8か
否かをチェックして認証済みの使用者8ならばステップ
S14に分岐し、否ならばステップS19に分岐する。
この時アイリス認証に使用する画像は広角カメラ16に
て取得した画像から目を抽出しても良いし、広角カメラ
16の画像から目位置を計算し、別カメラにて目画像を
取得しても良い。
In step S13, the iris authentication system 4
The authentication of the user 8 is performed through, and whether or not the user 8 has been authenticated is checked. If the user 8 has been authenticated, the process branches to step S14;
At this time, the image used for the iris authentication may be obtained by extracting the eyes from the image obtained by the wide-angle camera 16 or by calculating the eye position from the image of the wide-angle camera 16 and obtaining the eye image by another camera. good.

【0036】ステップS14で使用者別行動パターンメ
モリ6を参照して使用者8の行動パターンをロードし、
ステップS15でその行動パターンに対応した行動をと
る。
In step S14, the behavior pattern of the user 8 is loaded with reference to the behavior pattern memory 6 for each user,
In step S15, an action corresponding to the action pattern is taken.

【0037】ステップS16で、センサ2、センサ3を
通じて情報を取得し、ステップS17で学習/成長シス
テム5により行動パターンを変化させ、ステップS18
でその変化した行動パターンを使用者別行動パターンメ
モリ6にセーブする。
In step S16, information is acquired through the sensors 2 and 3, and in step S17, the behavior pattern is changed by the learning / growth system 5, and in step S18.
Then, the changed behavior pattern is saved in the user-specific behavior pattern memory 6.

【0038】ステップS19に分岐した場合には、その
使用者8を始めて認証したので、新使用者行動パターン
を作成してステップS15に移る。
When the flow branches to step S19, since the user 8 is authenticated for the first time, a new user behavior pattern is created, and the flow proceeds to step S15.

【0039】第2の実施の形態によれば、近接/方位セ
ンサ、広角カメラ、使用者確認システムをあらたに設け
たことにより、ロボットは自ら積極的に使用者の目の画
像を取得するように動ける。これにより、使用者は認証
してもらうためにロボットの目、鼻先等に設けられたカ
メラの撮影口を覗き込む等の特別な動作をする必要がな
くなり、より生きたペットに近くなって愛着性が期待で
きるという効果がある。
According to the second embodiment, the proximity / azimuth sensor, the wide-angle camera, and the user confirmation system are newly provided, so that the robot can actively acquire the image of the eyes of the user. I can move. This eliminates the need for the user to perform special operations such as looking into the camera opening provided at the robot's eyes, nose, etc. in order to be authenticated. There is an effect that can be expected.

【0040】[0040]

【発明の効果】本発明は、以上説明したように構成され
ているので以下に記載される効果を奏する。
The present invention is configured as described above and has the following effects.

【0041】使用者の認証を行う個人認証手段を設け、
個人認証手段により使用者を認証し、認証した使用者に
対する前回までの情報に基づいて行動パターンをとり、
センサから新たに得た情報に基づいてその使用者に対す
る行動パターンを変化させるようにしたことにより、成
長性が豊かでロボットの使用者がより強い愛着を持てる
ペット用ロボットを提供することができる。
A personal authentication means for authenticating a user is provided,
Authenticating the user by personal authentication means, taking action patterns based on the previous information for the authenticated user,
By changing the behavior pattern for the user based on the information newly obtained from the sensor, it is possible to provide a pet robot that has a high growth potential and allows the user of the robot to have a stronger attachment.

【0042】個人認証システムにアイリス認証装置を使
用したことにより、認証精度が他の認証装置より高く、
使用者に特別なアクションをさせることなしに、ロボッ
ト側から積極的にアイリス取得を行い、使用者の認証が
可能となる。
By using the iris authentication device for the personal authentication system, the authentication accuracy is higher than other authentication devices,
The iris can be actively acquired from the robot side without requiring the user to take any special action, and the user can be authenticated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施の形態によるペット用ロボットのブ
ロック図である。
FIG. 1 is a block diagram of a pet robot according to a first embodiment.

【図2】アイリス認証システムのブロック図である。FIG. 2 is a block diagram of an iris authentication system.

【図3】図1に示したペット用ロボットの動作フローチ
ャートである。
FIG. 3 is an operation flowchart of the pet robot shown in FIG. 1;

【図4】第2の実施の形態によるペット用ロボットのブ
ロック図である。
FIG. 4 is a block diagram of a pet robot according to a second embodiment.

【図5】近接/方位センサの模式図である。FIG. 5 is a schematic diagram of a proximity / azimuth sensor.

【図6】図4に示したペット用ロボットの動作フローチ
ャートである。
6 is an operation flowchart of the pet robot shown in FIG. 4;

【図7】アイリス認証システムの配置を示す一例図であ
る。
FIG. 7 is an example showing an arrangement of an iris authentication system.

【符号の説明】[Explanation of symbols]

1,20 ロボット 4 アイリス認証システム 15 近接/方位センサ 1,20 Robot 4 Iris authentication system 15 Proximity / direction sensor

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 3F059 AA00 BA02 BB06 BC07 CA05 CA06 DA02 DA05 DA08 DB02 DB08 DB09 DC01 DC08 DD01 DD06 FA01 FA03 FA05 FA08 FA10 FB01 FC02 FC06 FC07 FC13 FC14 FC15 3F060 AA00 CA14 CA26 GA05 GA13 GD12 GD14 GD15 HA02 HA32 HA35  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 3F059 AA00 BA02 BB06 BC07 CA05 CA06 DA02 DA05 DA08 DB02 DB08 DB09 DC01 DC08 DD01 DD06 FA01 FA03 FA05 FA08 FA10 FB01 FC02 FC06 FC07 FC13 FC14 FC15 3F060 AA00 CA14 CA26 GA05 GA13 GD15 GD14 HA02 HA32 HA35

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 身体に配置したセンサから情報を得て行
動パターンを学習/成長させるペット用ロボットにおい
て、 使用者の認証を行う個人認証手段を設け、 前記個人認証手段により使用者を認証し、認証した使用
者に対する前回までの情報に基づいて行動パターンをと
り、前記センサから新たに得た情報に基づいてその使用
者に対する行動パターンを変化させることを特徴とした
ペット用ロボット。
1. A pet robot for learning / growing a behavior pattern by obtaining information from a sensor arranged on a body, comprising: a personal authentication unit for authenticating a user; A pet robot which takes an action pattern based on information up to the last time for an authenticated user and changes the action pattern for the user based on information newly obtained from the sensor.
【請求項2】 前記個人認証手段は、アイリス認証装置
である請求項1記載のペット用ロボット。
2. The pet robot according to claim 1, wherein said personal authentication means is an iris authentication device.
【請求項3】 前記アイリス認証装置は、カメラの撮影
口を前記ロボットの目に設けた請求項2記載のペット用
ロボット。
3. The pet robot according to claim 2, wherein the iris authentication device has an imaging port of a camera provided in an eye of the robot.
【請求項4】 前記アイリス認証装置は、カメラの撮影
口を前記ロボットの鼻先に設けた請求項2記載のペット
用ロボット。
4. The pet robot according to claim 2, wherein the iris authentication device has a photographing opening of a camera provided at a tip of the nose of the robot.
【請求項5】 さらに、使用者が近くにいること及びそ
の方向を検知する近接/方位センサを設けた請求項1記
載のペット用ロボット。
5. The pet robot according to claim 1, further comprising a proximity / azimuth sensor for detecting that the user is near and the direction of the user.
JP2000176641A 2000-06-13 2000-06-13 Robot for use as pet Pending JP2001353679A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000176641A JP2001353679A (en) 2000-06-13 2000-06-13 Robot for use as pet

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000176641A JP2001353679A (en) 2000-06-13 2000-06-13 Robot for use as pet

Publications (1)

Publication Number Publication Date
JP2001353679A true JP2001353679A (en) 2001-12-25

Family

ID=18678345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000176641A Pending JP2001353679A (en) 2000-06-13 2000-06-13 Robot for use as pet

Country Status (1)

Country Link
JP (1) JP2001353679A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003145478A (en) * 2001-11-20 2003-05-20 Omron Corp Visual sensor arrangement structure, and animal-type robot with the structure
KR100919095B1 (en) * 2008-01-18 2009-09-28 주식회사 케이티 Method of executing robot behavior based on user behavior and its robot

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59174774U (en) * 1983-05-06 1984-11-21 三菱電機株式会社 Imaging robot
JPS6284393A (en) * 1985-10-08 1987-04-17 学校法人 金井学園 Ticket vending robot
JPH07325620A (en) * 1994-06-02 1995-12-12 Hitachi Ltd Intelligent robot device and intelligent robot system
JPH10171547A (en) * 1996-12-10 1998-06-26 Oki Electric Ind Co Ltd Continuous transaction control system for automated equipment
JPH11126017A (en) * 1997-08-22 1999-05-11 Sony Corp Storage medium, robot, information processing device and electronic pet system
JPH11143849A (en) * 1997-11-11 1999-05-28 Omron Corp Action generation device, action generation method and action generation program recording medium
WO1999067067A1 (en) * 1998-06-23 1999-12-29 Sony Corporation Robot and information processing system
JP2000053281A (en) * 1998-08-07 2000-02-22 Fuji Iron Works Co Ltd Double slitter
JP2000099781A (en) * 1998-09-24 2000-04-07 Honda Motor Co Ltd Authentication system for automatic fare collection system
JP2000317866A (en) * 1999-05-10 2000-11-21 Sony Corp Robot device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59174774U (en) * 1983-05-06 1984-11-21 三菱電機株式会社 Imaging robot
JPS6284393A (en) * 1985-10-08 1987-04-17 学校法人 金井学園 Ticket vending robot
JPH07325620A (en) * 1994-06-02 1995-12-12 Hitachi Ltd Intelligent robot device and intelligent robot system
JPH10171547A (en) * 1996-12-10 1998-06-26 Oki Electric Ind Co Ltd Continuous transaction control system for automated equipment
JPH11126017A (en) * 1997-08-22 1999-05-11 Sony Corp Storage medium, robot, information processing device and electronic pet system
JPH11143849A (en) * 1997-11-11 1999-05-28 Omron Corp Action generation device, action generation method and action generation program recording medium
WO1999067067A1 (en) * 1998-06-23 1999-12-29 Sony Corporation Robot and information processing system
JP2000053281A (en) * 1998-08-07 2000-02-22 Fuji Iron Works Co Ltd Double slitter
JP2000099781A (en) * 1998-09-24 2000-04-07 Honda Motor Co Ltd Authentication system for automatic fare collection system
JP2000317866A (en) * 1999-05-10 2000-11-21 Sony Corp Robot device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003145478A (en) * 2001-11-20 2003-05-20 Omron Corp Visual sensor arrangement structure, and animal-type robot with the structure
KR100919095B1 (en) * 2008-01-18 2009-09-28 주식회사 케이티 Method of executing robot behavior based on user behavior and its robot

Similar Documents

Publication Publication Date Title
US10769423B2 (en) Method, system and terminal for identity authentication, and computer readable storage medium
JP4898026B2 (en) Face / Gaze Recognition Device Using Stereo Camera
US20020089412A1 (en) Control system with user authentication
CN112232117A (en) Face recognition method, face recognition device and storage medium
JP2004213087A (en) Device and method for personal identification
JP2006293644A (en) Information processing device and information processing method
US11854311B2 (en) Comparison of biometric identifiers in memory
TWI700607B (en) Unlocking system and method
JP2008117333A (en) Information processor, information processing method, individual identification device, dictionary data generating and updating method in individual identification device and dictionary data generating and updating program
US20180173863A1 (en) Biometric authentication of a user
US20100177939A1 (en) Masquerade detection system, masquerade detection method and masquerade detection program
JP6900664B2 (en) Image processing equipment, image processing method and image processing program
CN112330846A (en) Vehicle control method and device, storage medium, electronic equipment and vehicle
EP1840796A2 (en) Restoring and collating system and method for 3-dimensional face data
WO2018161893A1 (en) User identification method and device
CN110069968A (en) Face recognition and face recognition method
JP7010385B2 (en) Iris recognition device, iris recognition method, iris recognition program and recording medium
WO2007018545A3 (en) Protometric authentication system
US20020089413A1 (en) Authentication of a person by hand recognition
JP2011221699A (en) Operation instruction recognition device and robot
JP2001353679A (en) Robot for use as pet
WO2021026281A1 (en) Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms
CN109670520B (en) Target posture recognition method and device and electronic equipment
CN115906036A (en) Machine learning-assisted intent determination using access control information
CN112183155B (en) Method and device for establishing action posture library, generating action posture and identifying action posture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060825

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060923

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080318

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080708