JP7014168B2 - Virtual organism control systems, virtual organism control methods, and programs - Google Patents
Virtual organism control systems, virtual organism control methods, and programs Download PDFInfo
- Publication number
- JP7014168B2 JP7014168B2 JP2018538030A JP2018538030A JP7014168B2 JP 7014168 B2 JP7014168 B2 JP 7014168B2 JP 2018538030 A JP2018538030 A JP 2018538030A JP 2018538030 A JP2018538030 A JP 2018538030A JP 7014168 B2 JP7014168 B2 JP 7014168B2
- Authority
- JP
- Japan
- Prior art keywords
- characteristic data
- user
- interaction characteristic
- virtual
- pet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 42
- 230000003993 interaction Effects 0.000 claims description 348
- 238000004891 communication Methods 0.000 claims description 87
- 230000004044 response Effects 0.000 claims description 13
- 238000009395 breeding Methods 0.000 claims description 9
- 230000001488 breeding effect Effects 0.000 claims description 9
- 230000006399 behavior Effects 0.000 description 141
- 230000002093 peripheral effect Effects 0.000 description 83
- 230000033001 locomotion Effects 0.000 description 59
- 230000010365 information processing Effects 0.000 description 56
- 238000007726 management method Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 34
- 238000012545 processing Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 25
- 210000003128 head Anatomy 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 230000000694 effects Effects 0.000 description 11
- 241001465754 Metazoa Species 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 10
- 241000282472 Canis lupus familiaris Species 0.000 description 8
- 241000282326 Felis catus Species 0.000 description 7
- 238000013500 data storage Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 6
- 210000005069 ears Anatomy 0.000 description 5
- 230000000704 physical effect Effects 0.000 description 5
- 241000283973 Oryctolagus cuniculus Species 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 241001481760 Erethizon dorsatum Species 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- HMUNWXXNJPVALC-UHFFFAOYSA-N 1-[4-[2-(2,3-dihydro-1H-inden-2-ylamino)pyrimidin-5-yl]piperazin-1-yl]-2-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)ethanone Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)N1CCN(CC1)C(CN1CC2=C(CC1)NN=N2)=O HMUNWXXNJPVALC-UHFFFAOYSA-N 0.000 description 1
- 240000007711 Peperomia pellucida Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000029142 excretion Effects 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000004744 fore-foot Anatomy 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Tourism & Hospitality (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- Economics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Toys (AREA)
- Manipulator (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本開示は、仮想生物制御システム、仮想生物制御方法、および記録媒体に関する。 The present disclosure relates to a virtual organism control system, a virtual organism control method, and a recording medium.
近年、人型や動物型のロボットにより人間とコミュニケーションを図り、様々なサービスを提供する技術が提案されている。 In recent years, technologies for communicating with humans using human-shaped or animal-shaped robots and providing various services have been proposed.
例えば下記特許文献1では、ロボットに「ぬくもり」(温度)を与え、使用者がロボットの「体温」を感じ取ることができ、その結果、動物に接触している感覚に近いロボットについて記載されている。また、下記特許文献2では、実在に飼育しているペットを海外旅行等に連れていくことができない場合に、実在のペットの特徴をロボットに記憶し、ロボットを実在のペットのように振る舞わせることができるロボットサービスシステムについて記載されている。ペットの特徴とは、色、形、声、臭い、皮膚または体毛の感触、動作の特徴等の特徴であって、さらに動作の特徴としては、移動活動、排泄活動、捕食活動、睡眠活動の特徴が含まれている。
For example,
また、下記特許文献3では、人が動物と一緒にいるときの健康度(心身状態)を測定するシステムについて記載されている。また、下記特許文献4では、電子ペットに蓄積された飼い主のプライベート情報の漏洩を防ぐ電子ペットシステムについて記載されている。
Further,
上述した特許文献2では、猫や犬などの実在のペットの振る舞いをセンサで認識し、そのデータをシステムに保存し、ハードウェアによるロボットにそのデータをロードし、ロボット上にてペットの振る舞い(動作の特徴)を再現させることが可能であるが、再現される振る舞いは、ペットの一方向的な動き(移動活動、睡眠活動等)であった。
In
しかしながら、飼い主との触れ合いによるペット特有の動作(すなわち、インタラクション特性)までは再現することは出来ていなかった。 However, it was not possible to reproduce the pet-specific movements (that is, interaction characteristics) due to contact with the owner.
そこで、本開示では、ユーザの振る舞いに対する実在または仮想の生物のインタラクション特性を再現することが可能な仮想生物制御システム、仮想生物制御方法、および記録媒体を提案する。 Therefore, the present disclosure proposes a virtual organism control system, a virtual organism control method, and a recording medium capable of reproducing the interaction characteristics of a real or virtual organism with respect to the behavior of a user.
本開示によれば、ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積する蓄積部と、仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信する通信部と、前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御する制御部と、を備える、仮想生物制御システムを提案する。 According to the present disclosure, a request for requesting the interaction characteristic data is received from a storage unit that stores interaction characteristic data indicating the interaction characteristics of the object with respect to the user and a virtual biological device for each user ID and object ID. At the same time, the communication unit that returns the interaction characteristic data and the virtual organism ID included in the request in response to the request for the interaction characteristic data received from the virtual organism device via the communication unit are specified. A virtual organism including a control unit that searches for the interaction characteristic data from the storage unit based on the user ID and controls the searched interaction characteristic data to be returned via the communication unit. Propose a control system.
本開示によれば、仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、前記インタラクション特性データを蓄積する蓄積部と、前記ユーザの振る舞いをセンシングするセンサ部と、前記ユーザの振る舞いに対して反応するリアクション部と、前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、を備える、仮想生物制御システムを提案する。 According to the present disclosure, a communication unit that sends a request for interaction characteristic data indicating the characteristics of an interaction with a user of a virtual organism and receives the interaction characteristic data returned from the server in response to the request, and the interaction. The sensor unit that stores the characteristic data, the sensor unit that senses the behavior of the user, the reaction unit that reacts to the behavior of the user, and the interaction characteristic data received by the communication unit. We propose a virtual biological control system including a control unit that controls the reaction unit so as to react to the behavior of the user sensed by the unit.
本開示によれば、プロセッサが、ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積部に蓄積することと、通信部を介して、仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信することと、前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御することと、を含む、仮想生物制御方法を提案する。 According to the present disclosure, the processor stores the interaction characteristic data indicating the interaction characteristics of the object with the user in the storage unit in units of the user ID and the object ID, and from the virtual biological device via the communication unit. In response to a request for requesting the interaction characteristic data, returning the interaction characteristic data, and requesting the interaction characteristic data received from the virtual biological device via the communication unit, the request is made. Based on the virtual organism ID included in the above and the specified user ID, the interaction characteristic data is searched from the storage unit, and the searched interaction characteristic data is controlled to be returned via the communication unit. We propose virtual biological control methods, including what to do.
本開示によれば、コンピュータを、仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、前記インタラクション特性データを蓄積する蓄積部と、前記ユーザの振る舞いをセンシングするセンサ部と、前記ユーザの振る舞いに対して反応するリアクション部と、前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、として機能させるためのプログラムが記憶された、記憶媒体を提案する。 According to the present disclosure, a computer is provided with a communication unit that sends a request for interaction characteristic data indicating the characteristics of interaction with a user of a virtual organism, and receives the interaction characteristic data returned from the server in response to the request. , The storage unit that stores the interaction characteristic data, the sensor unit that senses the behavior of the user, the reaction unit that reacts to the behavior of the user, and the interaction characteristic data received by the communication unit. We propose a storage medium in which a program for functioning as a control unit that controls the reaction unit so as to react to the behavior of the user sensed by the sensor unit is stored.
以上説明したように本開示によれば、ユーザの振る舞いに対する実在または仮想の生物のインタラクション特性を再現することが可能となる。 As described above, according to the present disclosure, it is possible to reproduce the interaction characteristics of a real or virtual organism with respect to the behavior of the user.
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。 It should be noted that the above effects are not necessarily limited, and either along with or in place of the above effects, any of the effects shown herein, or any other effect that can be ascertained from this specification. May be played.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.構成
2-1.全体構成
2-2.ペットロボット1の構成
2-3.サーバ3の構成
3.実施例
3-1.第1の実施例(ペットロボットの例)
3-2.第2の実施例(タイニーペットロボットの例)
3-3.第3の実施例(実在のペットの例)
3-4.第4の実施例(ペット周辺デバイスの例)
3-5.第5の実施例(アタッチメントデバイスの例)
4.まとめIn addition, the explanation shall be given in the following order.
1. 1. Outline of information processing system according to one embodiment of the
3-2. Second Example (Example of Tiny Pet Robot)
3-3. Third Example (Example of a real pet)
3-4. Fourth Example (Example of Pet Peripheral Device)
3-5. Fifth Example (Example of Attachment Device)
4. summary
<<1.本開示の一実施形態による情報処理システムの概要>>
本開示の一実施形態による情報処理システム(仮想生物制御システム)は、ユーザの振る舞いに対する実在または仮想の生物のインタラクション特性を再現することを可能とする。図1は、本実施形態による情報処理システムの概要を説明する図である。<< 1. Outline of information processing system according to one embodiment of the present disclosure >>
The information processing system (virtual organism control system) according to the embodiment of the present disclosure makes it possible to reproduce the interaction characteristics of a real or virtual organism with respect to the behavior of the user. FIG. 1 is a diagram illustrating an outline of an information processing system according to the present embodiment.
本開示による情報処理システムでは、図1に示すように、例えば自宅で飼っている実在のペット4(実在の生物の一例)とユーザとの触れ合い(インタラクション)を、監視カメラ80、ペット4に装着されたセンサデバイス84、およびユーザに装着されたセンサデバイス82等により検出し、当該インタラクションの特性を示すインタラクション特性データを取得する。センサデバイス82、84は、例えば加速度センサを有する動きセンサデバイスであって、ユーザの手首、腕、ペット4の足首、首等に装着される。また、センサデバイス82、84は、さらに生体センサ、圧力センサ、またはマイクロホン等を有していてもよい。そして、本開示による情報処理システムでは、ペット4から取得したインタラクション特性データを、ペットロボット1A、1B、または1C(仮想生物デバイスの一例)にロードすることで、ペット4のインタラクション特性をペットロボット1で再現することが可能となる。本明細書において、インタラクション特性は、ユーザの振る舞い(ペットに対する接し方)に対応するペットの反応パターンのデータを含む。また、ペットロボット1(情報処理装置)は、外観形状が犬、猫、ウサギ等の動物に模して形成された、エンターテインメント性を有するロボットである。ペットロボット1は、目や脚等を自律的に動作させて動物のような仕草を表出することが可能なエージェントの一例である。
In the information processing system according to the present disclosure, as shown in FIG. 1, for example, an interaction between a real pet 4 (an example of a real creature) kept at home and a user is attached to the
これにより、例えばユーザがペットの首の後ろを特定の撫で方で撫でると、ペットが体を丸めて目を閉じ、前足を伸ばして尻尾を下げ、気持ちよさそうにするという、ペット固体特有の反応パターンをペットロボット1で再現し、より本物のペット4に近付けることができる。例えばロボット猫カフェ等のショップに用意されているペットロボットに、所定のインタラクション特性データを読み込ませることで、物理的には初めて出会うペットロボット1に対しても、これまでの蓄積されたペットとの触れ合い履歴に基づいて楽しむことができる。
This is a reaction pattern peculiar to pet individuals, for example, when the user strokes the back of the pet's neck with a specific stroke, the pet curls up, closes its eyes, stretches its front legs and lowers its tail, making it feel good. Can be reproduced by the
また、本開示による情報処理システムは、実在の生物のインタラクション特性をペットロボット1で再現することに限定されず、例えば学習型のペットロボットのインタラクション特性を蓄積しておき、当該ペットロボットが故障してしまった場合等に、他のペットロボットにインタラクション特性データを読み込ませて、故障したペットロボットと積み重ねたインタラクション特性を再現することが可能となる。
Further, the information processing system according to the present disclosure is not limited to reproducing the interaction characteristics of a real organism with the
また、仮想生物は、図1に示すようなハードウェアのペットロボット1に限定されず、スマートフォン、タブレット端末、またはゲーム機等の情報処理端末上で動作するソフトウェアによるバーチャルペット(タイニーペットロボットとも称す)であってもよい。
Further, the virtual creature is not limited to the
以上説明したように、本開示による情報処理システムは、実在または仮想の生物(オブジェクト)のユーザに対するインタラクション(ユーザの振る舞いに対する反応パターン)の特性を示すインタラクション特性データを、仮想生物デバイス(ロボットまたは仮想生物育成アプリケーションが実装されるデバイス)にロードし、再現することを可能とする。 As described above, the information processing system according to the present disclosure collects interaction characteristic data indicating the characteristics of the interaction (reaction pattern with respect to the behavior of the user) of a real or virtual organism (object) with the user of the virtual organism device (robot or virtual). It can be loaded and reproduced on a device on which a biological breeding application is implemented.
<<2.構成>>
<2-1.全体構成>
続いて、本開示の一実施形態による情報処理システムの全体構成について図1を参照して説明する。図2は、本実施形態による情報処理システムの全体構成の一例を示す図である。図2に示すように、本実施形態による情報処理システムは、実在のペット4のインタラクション特性データをペット4や監視カメラ80から取得する情報処理端末8や、ペットロボット1(1A~1C)、若しくはペット育成アプリケーションを実装するユーザ端末5と、サーバ3を含む。情報処理端末8、ペットロボット1、およびユーザ端末5は、ネットワーク2を介してサーバ3と接続し、データの送受信が可能である。<< 2. Configuration >>
<2-1. Overall configuration>
Subsequently, the overall configuration of the information processing system according to the embodiment of the present disclosure will be described with reference to FIG. FIG. 2 is a diagram showing an example of the overall configuration of the information processing system according to the present embodiment. As shown in FIG. 2, in the information processing system according to the present embodiment, the
情報処理端末8やペットロボット1で取得されたインタラクション特性データは、ネットワーク2を介してサーバ3に送信され、サーバ3により保存および管理される。情報処理端末8は、例えばスマートフォン、タブレット端末、携帯電話、PC、またはゲーム機等であってもよい。
The interaction characteristic data acquired by the
これにより、例えば実在のペット4のインタラクション特性をペットロボット1やユーザ端末5のアプリケーション上で動作するタイニーペットロボット50で再現したり、ペットロボット1のインタラクション特性を他のペットロボット1やタイニーペットロボット50で再現したりすることができる。
As a result, for example, the interaction characteristics of the
なお図2に示す例では、サーバ3によりインタラクション特性データの保存、管理を行う場合について説明したが、本開示はこれに限定されず、例えばインタラクション特性データをペットロボット1やユーザ端末5から飼い主カード(不図示)に直接保存してもよい。ユーザは、飼い主カードを他のペットロボット1やユーザ端末5のリーダーにかざしインタラクション特性データを直接読み込ませることが可能である。
In the example shown in FIG. 2, the case where the interaction characteristic data is stored and managed by the
<2-2.ペットロボット1の構成>
次に、本実施形態によるペットロボット1の構成について図3を参照して説明する。図3は、本実施形態によるペットロボット1の構成の一例を示すブロック図である。図3に示すように、ペットロボット1は、制御部10、通信部11、位置情報取得部14、カメラ15、音声入力部16、生体センサ17、駆動部18、圧力センサ19、記憶部20、音声出力部22、加速度センサ23、および角速度センサ24を有する。<2-2. Configuration of
Next, the configuration of the
制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従ってペットロボット1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
The
また、本実施形態による制御部10は、通信部11、位置情報取得部14、カメラ15、音声入力部16、生体センサ17、圧力センサ19、加速度センサ23、または角速度センサ24等から得た各種情報に応じて自動的に動作する自律制御を行い得る。
Further, the
通信部11は、他の装置との間でデータの送受信を行うための通信モジュールである。例えば通信部11は、ネットワーク2を介して各種サーバと接続し、データの送受信を行ったり、Bluetooth(登録商標)やWi-Fi(登録商標)により周辺デバイスと直接接続し、データの送受信を行ったりする。
The
位置情報取得部14は、外部からの取得信号に基づいてペットロボット1の現在位置を検知する機能を有する。具体的には、例えば位置情報取得部14は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信してペットロボット1が存在している位置を検知し、検知した位置情報を制御部10に出力する。かかる位置情報は、ペットロボット1の位置ログとして記憶部20に蓄積されてもよい。また、位置情報取得部14は、GPSの他、例えばWi-Fi、Bluetooth、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
The position
カメラ15は、撮像レンズ、絞り、ズームレンズ、およびフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal
Oxide Semiconductor)センサアレイにより実現されてもよい。The
It may be realized by an Oxide Semiconductor) sensor array.
音声入力部16は、ユーザの音声や周囲の環境音を収音し、音声信号を制御部10に出力する。音声入力部16は、マイクロホンと、そのマイクロホンで得られた音声信号を増幅処理するマイクアンプ部と、音声信号にデジタル変換するA/D変換器により実現され、音声信号を制御部10に出力する。
The
生体センサ17は、ペットロボット1に触れたユーザの生体情報を検出する。ユーザの生体情報とは、例えば体温、発汗量、脈拍、指紋、掌紋、血圧、脳波等である。
The
駆動部18は、ペットロボット1の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど軸毎に設けられた複数の駆動ユニットで構成される。各駆動ユニットは、所定軸回りの回転動作を行なうモーターと、モーターの回転位置を検出するエンコーダーと、エンコーダーの出力に基づいてモーターの回転位置や回転速度を適応的に制御するドライバーの組み合わせで構成される。
The
圧力センサ19は、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出する。なおペットロボット1は、圧力センサ19の代わりに、あるいは追加して、タッチセンサを有していてもよい。
The
記憶部20は、制御部10が各種処理を実行するためのプログラム等を記憶する。また、記憶部20は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含むストレージ装置により構成される。
The
表示部21は、操作画面やメニュー画面等の各種画面を表示する。表示部21は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイなどの表示装置であってもよい。 The display unit 21 displays various screens such as an operation screen and a menu screen. The display unit 21 may be, for example, a display device such as a liquid crystal display (LCD) or an organic EL (Electroluminescence) display.
音声出力部22は、スピーカと、そのスピーカに対するアンプ回路により実現される。また、音声出力部22は、鳴き声等の音声を出力する。
The
加速度センサ23および角速度センサ24は、ペットロボット1の向きや動きの加速度を検出する。
The
以上、本実施形態によるペットロボット1の構成について具体的に説明した。なお本実施形態によるペットロボット1の構成は図2に示す例に限定されず、例えば地磁気センサ、超音波センサ、近接センサ、照度センサ、温度センサ、または気圧センサ等の他のセンサを有していてもよい。また、ペットロボット1は、前方に位置する物体までの距離を測定するための距離センサとして上述したカメラ15を用いてもよいし、別途、赤外線等の方式を用いた距離センサを備えてもよい。
The configuration of the
また、ペットロボット1は、例えば図2に示すように、胴体部ユニット200と、胴体部ユニット200の前後左右にそれぞれ連結された脚部ユニット201と、胴体部ユニット200の前端部および後端部にそれぞれ連結された頭部ユニット202と、尻尾部ユニット203から構成されていてもよい。胴体部ユニット200には、CPU(Central Processing Unit)、DRAM(Dynamic Random
Access Memory)、フラッシュROM(Read 0nly Memory)、PC(Personal Computer)カードインターフェース回路および信号処理回路が内部バスを介して相互に接続されることにより形成された制御部10と、ペットロボット1の動力源としてのバッテリとが収納されている。また、胴体部ユニット200には、通信部11、位置情報取得部14、生体センサ17、記憶部20、加速度センサ23、および角速度センサ24なども収納されている。Further, as shown in FIG. 2, for example, the
Access Memory), flash ROM (Read 0nly Memory), PC (Personal Computer) card interface circuit and signal processing circuit are connected to each other via an internal bus to form a
また、頭部ユニット202には、外部の状況を撮像するためのカメラ15と、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するための圧力センサ19と、外部音を集音するための音声入力部16と、鳴き声等の音声を出力するための音声出力部22と、前方に位置する物体までの距離を測定するための距離センサ(図示せず)となどがそれぞれ所定位置に配置されている。カメラ15は、ペットロボット1の「目」に相当する位置に設けられてもよい。また、カメラ15を頭部ユニット202の額部分に配置し、「目」に相当する位置にはLED(Light Emitting Diode)(図示せず)を配置してもよい。また、頭部ユニット202の「耳」に相当する位置に音声入力部16を配置し、頭部ユニット202の「口」に相当する位置に音声出力部22を配置してもよい。なお、物理的な働きかけにより受けた圧力を検出するための圧力センサ19は、頭部ユニット202に限定されず、胴体部ユニット200、脚部ユニット201、および尻尾部ユニット203など、複数設けられていてもよい。
Further, the head unit 202 includes a
さらに、各脚部ユニット201の関節部分や各脚部ユニット201および胴体部ユニット200の各連結部分、並びに頭部ユニット202および胴体部ユニット200の連結部分などにはそれぞれ自由度数分のアクチュエータおよびポテンショメータが配設されている。例えば、アクチュエータはサーボモータを構成として有している。サーボモータの駆動により、脚部ユニット201が制御されて、目標の姿勢あるいは動作に遷移する。
Further, actuators and potentiometers for the number of degrees of freedom are attached to the joint portion of each
以上説明したペットロボット1の具体的な構成例については、例えば特開2002-157596号公報を参照する。特開2002-157596号公報は、その全ての内容について、本参照により本明細書に組み込まれる(The entire contents of JP 2002-157596 are hereby incorporated by
reference.)。For a specific configuration example of the
reference.).
また、図3を参照して説明したペットロボット1の構成は、ペットロボット1がタイニーペットロボットの場合にも応用可能である。具体的には、タイニーペットロボットを表示する表示端末(図2に示すユーザ端末5)が、上記制御部10、通信部11、位置情報取得部14、カメラ15、音声入力部16、生体センサ17、圧力センサ19、記憶部20、および音声出力部22に相当する構成と、表示部とを有する。表示部は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイなどの表示装置であって、タッチパネルディスプレイであってもよい。タイニーペットロボットは表示部に表示され、ユーザとインタラクションを行い得る。
Further, the configuration of the
(機能構成)
続いて、制御部10および記憶部20の機能構成について図4を参照して説明する。図4は、本開示の一実施形態による制御部10および記憶部20の機能構成例を示すブロック図である。図には、ペットロボット1の制御部10の機能として、ユーザ振る舞い判定部101と、ペット動作制御部102とが、示されている。また、ペットロボット1の記憶部20の機能として、センサデータ一時記憶部210と、インタラクション特性データ記憶部212とが、示されている。以下、それぞれの構成要素についてさらに説明する。(Functional configuration)
Subsequently, the functional configurations of the
ユーザ振る舞い判定部101は、カメラ15、音声入力部16、生体センサ17、圧力センサ19、若しくはユーザが手首等に装着しているセンサデバイス(例えば加速度センサやマイクロホンが搭載されたウェアラブルデバイス)等から得た各種情報(センサデータ)に基づいて、ペットロボット1に対するユーザの振る舞いを判定する。ユーザの振る舞いとは、例えば「頭を強めになでる」、「背中をなでる」、「喉元を指でなでる」、「声掛けをする」、「強く抱きしめる」等の、ユーザのペットに対する接し方(ペットとの距離、ペットに近付いた時の行動パターン、またはペットへの声掛けを含む)を示す。カメラ15、音声入力部16、生体センサ17、および圧力センサ19等から得られる各種情報(センサデータ)は、センサデータ一時記憶部210に記憶される。
The user
ペット動作制御部102は、ユーザ振る舞い判定部101による判定結果に応じて、インタラクション特性データ記憶部212に記憶されているインタラクション特性データから、当該ユーザの振る舞いに対応するペットの反応パターンを抽出し、ペットロボット1の動作を制御する。ペットの反応パターンには、ペットの鳴き声も含まれ、ペット動作制御部102は、ペットロボット1の駆動部18による「動作」の制御に限らず、音声出力部22からの鳴き声の出力制御も行い得る。インタラクション特性データ記憶部212に記憶されているインタラクション特性データの一例については、図5を参照して後述する。
The pet
センサデータ一時記憶部210は、カメラ15、音声入力部16、生体センサ17、および圧力センサ19等から得た各種情報(センサデータ)を一次的に記憶する。また、センサデータ一時記憶部210に記憶されたセンサデータは、上述したユーザの振る舞いに対応する抽出されたペットの反応パターンと共に、制御部10により通信部11からサーバ3へ送信される。なおセンサデータに代えて、若しくは加えて、ユーザ振る舞い判定部101による判定結果がサーバ3に送信されてもよい。
The sensor data
インタラクション特性データ記憶部212は、読み込んだインタラクション特性データを記憶する。ここで、図5に、インタラクション特性データの一例を示す。
The interaction characteristic
図5に示すように、インタラクション特性データは、多数のユーザの振る舞いと、各振る舞いに設定されているペットの愛情度と、ペットの反応パターンとを含むデータ構成となっている。例えばペットロボット1に読み込まれるインタラクション特性の初期状態として、図5に示すように、インタラクション特性は、各ユーザの振る舞いに対して、ペットの反応パターンが複数定義され、各振る舞いに対して「愛情度」(変数)が設定されている。各振る舞いに設定されている愛情度は、例えばユーザのペットに対する振る舞いの頻度(または時間など)に応じて更新される。例えばユーザがよく行う振る舞いは、ユーザによるペットへの特別な振る舞い(愛情を示す振る舞い)であると判断され、当該振る舞いの愛情度が加算される。ここで、ペットの反応パターンにも、それぞれ「必要な愛情度」が定義されている。図6に、ペットの反応パターンを実行する際に必要な愛情度の一例を示す。かかる反応パターンの愛情度のデータも、インタラクション特性データに含まれる。図6に示すように、本実施形態では、ペットの反応パターン毎に必要な愛情度(の閾値)が設定されている。ペット動作制御部102は、ユーザの振る舞いに対して複数定義されている反応パターンのうち、現在のユーザの振る舞いの愛情度を超えない愛情度の反応パターンをランダムに選択し、ペットロボット1を制御する。例えば、「頭を強めになでる」というユーザの振る舞いが検出された場合、「頭を強めになでる」の愛情度は現在「5」であるため、対応する反応パターンのうち、「首を軽くうなだれる」の必要な愛情度は「6」であるため足りない。ペット動作制御部102は、条件を満たす反応パターン「ニャーと鳴く:愛情度『2』」および「体をまるめる:愛情度『5』」のうち、実行する反応パターンをランダムに選択する。
As shown in FIG. 5, the interaction characteristic data has a data structure including the behaviors of a large number of users, the affection level of the pet set for each behavior, and the reaction pattern of the pet. For example, as an initial state of the interaction characteristic read into the
なお、図5および図6に示すような、初期状態のユーザの振る舞い項目、愛情度、反応パターン群、反応パターンの実行に必要な愛情度(閾値)は、予め一般的な犬や猫等から検出し、設定したものであってもよい。また、想定し得るほぼ全ての振る舞いと反応パターンが初期状態のインタラクション特性データとして登録されているようにしてもよい。 The behavior items, affection level, reaction pattern group, and affection level (threshold value) required for executing the reaction pattern of the user in the initial state as shown in FIGS. 5 and 6 are determined in advance from general dogs, cats, and the like. It may be detected and set. Further, almost all possible behaviors and reaction patterns may be registered as interaction characteristic data in the initial state.
また、本実施形態によるインタラクション特性データは図5に示すようなデータ構成に限定されず、時間方向も考慮したユーザの振る舞い(愛情表現)の癖を表すようなデータがさらに含まれていてもよい。例えば、「ペットの頭を撫でる」といった振る舞いにおいて、その撫で方の強弱のタイミング等を表すデータが含まれる。 Further, the interaction characteristic data according to the present embodiment is not limited to the data structure as shown in FIG. 5, and may further include data that expresses the habit of the user's behavior (expression of affection) in consideration of the time direction. .. For example, in a behavior such as "stroking the head of a pet", data indicating the timing of the strength of the stroking is included.
以上、本実施形態による制御部10および記憶部20の機能構成について具体的に説明した。本実施形態によるペットロボット1は、インタラクション特性データを読み込んで、ユーザの振る舞いに対して所定のペットのインタラクション特性を再現することができる。また、ペットロボット1は、ユーザの振る舞い(センサデータ)と、実行した反応パターンをインタラクション特性としてサーバ3に送信し、サーバ3においてユーザの振る舞いの頻度等からユーザの嗜好が学習され、インタラクション特性データが更新され得る。
The functional configurations of the
<2-2.サーバ3の構成>
次に、本実施形態によるサーバ3の構成について図7を参照して説明する。図7は、本実施形態によるサーバ3の構成の一例を示すブロック図である。図7に示すように、サーバ3は、制御部30、通信部31、および記憶部32を有する。<2-2.
Next, the configuration of the
通信部31は、他の装置との間でデータの送受信を行うための通信モジュールである。例えば通信部31は、ネットワーク2を介して情報処理端末8、ペットロボット1、およびユーザ端末5と接続し、データの送受信を行う。また、通信部31は、ペットロボット1やユーザ端末5等の仮想生物デバイスから、インタラクション特性データを要求するリクエストを受信すると共に、要求されたインタラクション特性データを返信する。
The
制御部30は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ3内の動作全般を制御する。制御部30は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部30は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
The
また、本実施形態による制御部30は、ログイン処理部301、インタラクション特性検索部302、およびインタラクション特性学習部303として機能する。
Further, the
ログイン処理部301は、ユーザのログイン処理を行う。例えば、ログイン処理部301は、ペットロボット1等から送信されたログインアカウント(ユーザIDおよびパスワードを含む)に基づいて、ユーザ管理テーブル321(図8に示す)を参照して認証処理を行う。
The
インタラクション特性検索部302は、ペットロボット1等からのインタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれるペットID(個体ID(オブジェクトID)若しくは種別ID(仮想生物ID)の少なくともいずれかを含む)と、ログイン処理により特定されたユーザIDとに基づき、対応するインタラクション特性データをインタラクション特性データDB325(図8参照)から検索する。
The interaction
インタラクション特性学習部303は、ペットロボット1等から送信されたユーザの振る舞い(センサデータ若しくは振る舞い判定結果)とペットの反応パターンに基づいて、インタラクション特性データDB325に蓄積された、対応するインタラクション特性データを更新する。例えば、インタラクション特性学習部303は、「背中をなでる」というユーザの振る舞いの頻度が所定値より高い場合、ユーザのお気に入りの振る舞いであると判断し、インタラクション特性データの該当するユーザの振る舞い「背中をなでる」に対応する愛情度を加算する。また、例えば、インタラクション特性学習部303は、ユーザの発話で同じ音声パターンの頻度が高い場合、ペットの名前など特別な意味も持つフレーズであると判断し、新たに、「音声パターン『○○○○』を発生する」といったユーザの振る舞い項目を生成し、当該振る舞いに対応する愛情度を加算する。
The interaction
記憶部32は、制御部30が各種処理を実行するためのプログラム等を記憶する。また、記憶部32は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含むストレージ装置により構成される。さらに、本実施形態による記憶部32の機能構成について図8を参照して説明する。
The
図8は、本実施形態によるサーバ3の記憶部32の機能構成例を示すブロック図である。図には、記憶部32の機能として、ユーザ管理テーブル321と、インタラクション特性管理テーブル322と、監視カメラ管理テーブル323と、ペット周辺デバイス管理テーブル324と、インタラクション特性データDB325と、ペット周辺デバイス表現テーブル326と、ユーザの振る舞いデータ一時記憶部327とが、示されている。
FIG. 8 is a block diagram showing a functional configuration example of the
ユーザ管理テーブル321は、ユーザIDやログインアカウント、ユーザに装着されたセンサデバイスID等、ユーザに関する情報を記憶する。インタラクション特性管理テーブル322は、ペットIDおよびユーザID単位で、インタラクションの特性を示すインタラクションデータのIDを記憶する。ペットIDは、個体ID(オブジェクトID)、若しくは種別(犬、猫、ウサギ等の種類)を示す種別ID(仮想生物ID)を含む。 The user management table 321 stores information about the user, such as a user ID, a login account, and a sensor device ID attached to the user. The interaction characteristic management table 322 stores the ID of the interaction data indicating the characteristic of the interaction in units of the pet ID and the user ID. The pet ID includes an individual ID (object ID) or a type ID (virtual organism ID) indicating a type (type of dog, cat, rabbit, etc.).
監視カメラ管理テーブル323は、ペットやユーザの様子を撮影する監視カメラのIDと、紐付くユーザIDを記憶する。ペット周辺デバイス管理テーブル324は、ペット周辺デバイスのデバイスIDと、ペット周辺デバイス表現データおよびユーザIDを記憶する。ペット周辺デバイスとは、ペットにつながれるリードや首輪等、ペット周辺のデバイスであって、振動したり音を発生する機能を有する(図24参照)。ペット周辺デバイスは、インタラクション特性データに基づいて、ユーザの振る舞いに対して所定の動きや音を発することで、ペット本体が居ない場合でもペットの反応パターンを想起させることが可能となる。 The surveillance camera management table 323 stores the ID of the surveillance camera that captures the state of the pet or the user and the user ID associated with the surveillance camera. The pet peripheral device management table 324 stores the device ID of the pet peripheral device, the pet peripheral device representation data, and the user ID. The pet peripheral device is a device around the pet such as a lead or a collar connected to the pet, and has a function of vibrating or generating a sound (see FIG. 24). The pet peripheral device emits a predetermined movement or sound with respect to the behavior of the user based on the interaction characteristic data, so that the reaction pattern of the pet can be recalled even when the pet body is not present.
インタラクション特性データDB325は、ユーザIDおよびペットID(オブジェクトIDの一例)単位で、当該ペット(オブジェクトの一例)のユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積する。ペット周辺デバイス表現テーブル326は、ペットの反応パターンに対応するペット周辺デバイスの表現データを蓄積する。ユーザの振る舞いデータ一時記憶部327は、受信したユーザの振る舞いデータを一時的に記憶する。
The interaction
なお、各テーブル等の具体的なデータ例については、後述する各実施例において図面を用いて説明する。 Specific data examples of each table and the like will be described with reference to the drawings in each embodiment described later.
図9は、サーバ3のユーザ管理について説明する図である。図示されたように、サーバ3は、ユーザID毎に、ユーザに装着される一つの動きセンサデバイスと、一つまたは複数のペットIDと、各ペットIDに対応するペットに装着される動きセンサデバイスと、各ペットIDに対応する飼い主カードと、各ペットIDに対応するインタラクション特性データと、各ペットIDに対応する周辺デバイスと、ペット周辺でユーザとペットの動きを検出する一つまたは複数のカメラと、一つのログインアカウント(ユーザ名とパスワード等)とを管理することが可能である。
FIG. 9 is a diagram illustrating user management of the
以上、本開示の一実施形態によるペットロボット1およびサーバ3の具体的な構成について説明した。続いて、本開示の一実施形態による情報処理システムの各実施例について説明する。
The specific configuration of the
<<3.実施例>>
<3-1.第1の実施例>
まず、第1の実施例として、ペットロボット1と振れ合う場合について図10~図14を参照して説明する。例えば多数のペットロボットと振れ合うことができるペットロボットカフェにおいて、好きなペットロボット1に、ユーザIDおよびペットIDと紐付けられた特定のインタラクション特性データ(例えば実在のペットや、自宅に居るペットロボットから検出、蓄積したインタラクション特性のデータ)を読み込ませることで、当該ペットロボット1で特定のペットのインタラクション特性を再現することが可能となる。<< 3. Example >>
<3-1. First Example>
First, as a first embodiment, a case of shaking with the
図10は、第1の実施例の概要について説明する図である。図10に示すように、例えばペットロボット1Aのカードリーダ70に、ユーザの飼い主カード71をかざすと、ログインアカウント(ユーザ名とパスワード)がペットロボット1Aに読み取られてサーバ3においてログイン処理が行われる。そして、飼い主カード71のペットIDに基づいて、対応するインタラクション特性がサーバ3からペットロボット1Aにロードされ、ペットロボット1Aでインタラクション特性が再現される。
FIG. 10 is a diagram illustrating an outline of the first embodiment. As shown in FIG. 10, for example, when the
図11は、第1の実施例によるログイン時の動作処理を示すシーケンス図である。図11に示すように、まず、ペットロボット1Aは、接続されたカードリーダ70により、飼い主カードの情報を読み取る(ステップS103)。なおカードリーダ70は、ペットロボット1Aの頭部や胴体等に設けられていてもよい。
FIG. 11 is a sequence diagram showing an operation process at the time of login according to the first embodiment. As shown in FIG. 11, first, the
次に、ペットロボット1Aは、飼い主カードに記録されているログインアカウント(ユーザ名とパスワード)をサーバ3に送信する(ステップS106)。
Next, the
次いで、サーバ3のログイン処理部301は、ログインアカウントに基づいて、ユーザ管理テーブル321を参照してログイン処理を行う(ステップS109)。ここで、図12の上段に、ユーザ管理テーブル321のデータ例を示す。図12上段に示すように、ユーザ管理テーブルは、ユーザID、ユーザ名、パスワード、ログインアカウント、およびユーザに装着される動きセンサデバイスのデバイスIDを対応付けて管理している。
Next, the
次に、サーバ3によりログインが認証されると、ペットロボット1Aは、飼い主カードに記録されているペットIDをサーバ3に送信し、インタラクション特性データを要求するリクエストを行う(ステップS112)。
Next, when the login is authenticated by the
次いで、ペットロボット1Aからリクエストを受信すると、サーバ3は、初回ログインの場合は(ステップS115/Yes)、インタラクション特性検索部302により、ペットロボットの初期状態のインタラクション特性データを検索する(ステップS118)。インタラクション特性データDB325には、予め初期状態のインタラクション特性データが格納されている。初期状態のインタラクション特性データは、例えば一般的な犬や猫が示すインタラクション特性データである。インタラクション特性検索部302は、リクエストに含まれるペットID(具体的には種別ID)に基づき、同種別の動物の一般的なインタラクション特性データを検索してもよい。また、同種別の動物の一般的なインタラクション特性データが無い場合は、近い種別の動物等、他の種別の動物の一般的なインタラクション特性データを検索する。
Next, when the request is received from the
一方、初回ログインではない場合(ステップS115/No)、インタラクション特性検索部302は、インタラクション特性管理テーブル322を参照し、リクエストに含まれるペットID(具体的には個体ID)に対応するインタラクション特性データをインタラクション特性データDB325から検索する(ステップS118)。ここで、図12の下段に、インタラクション特性管理テーブル322のデータ例を示す。図12下段に示すように、インタラクション特性管理テーブル322は、ペットID、ペットに装着されるセンサデバイスID、紐付くユーザID、インタラクション特性データ、および飼い主カードを対応付けて管理している。インタラクション特性検索部302は、ペットロボット1Aから送信されたペットIDと、ログイン処理により認証されたユーザIDとに基づいて、インタラクション特性データを特定する。そして、当該インタラクション特性データの中身を、インタラクション特性データDB325から抽出する。
On the other hand, when it is not the first login (step S115 / No), the interaction
続いて、サーバ3は、ペットロボット1Aにインタラクション特性データを送信する(ステップS124)。
Subsequently, the
そして、ペットロボット1Aは、サーバ3から受信したインタラクション特性データを読み込む(ステップS127)。具体的には、ペットロボット1Aは、受信したインタラクション特性データをインタラクション特性データ記憶部212に記憶する。
Then, the
次に、特定のインタラクション特性データが読み込まれたペットロボット1Aの動作処理について図13を参照して説明する。図13は、本実施例によるペットロボット1Aの動作処理を示すフローチャートである。
Next, the operation processing of the
図13に示すように、まず、ペットロボット1Aは、カメラ15によりユーザの動きを検出した場合(ステップS130/Yes)、検出したユーザの動きをセンサデータ一時記憶部210に一時的に記憶する(ステップS133)。
As shown in FIG. 13, first, when the
次に、ペットロボット1Aは、圧力センサ19によりユーザの触れ合い(「撫でる」や「抱きしめる」といった物理的な働きかけ)動きを検出した場合(ステップS136/Yes)、検出したユーザの触れ合いをセンサデータ一時記憶部210に一時的に記憶する(ステップS139)。
Next, when the
次いで、ペットロボット1Aは、音声入力部16(マイクロホン)によりユーザの声を検出した場合(ステップS142/Yes)、検出したユーザの音声データをセンサデータ一時記憶部210に一時的に記憶する(ステップS145)。
Next, when the
次に、ペットロボット1Aは、ユーザに装着された動きセンサデバイスにより、ユーザの動きが検出された場合(ステップS148/Yes)、検出されたユーザの動きデータをセンサデータ一時記憶部210に一時的に記憶する(ステップS151)。ペットロボット1Aは、ユーザが手首等に装着している動きセンサデバイスとWi-Fi(登録商標)やBluetooth(登録商標)等により接続し、検出された動きデータを受信することが可能である。
Next, when the movement of the user is detected by the motion sensor device attached to the user (step S148 / Yes), the
続いて、ペットロボット1Aは、ユーザ振る舞い判定部101により、一時記憶した各データから「ユーザの振る舞い」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS154)。例えば、ユーザ振る舞い判定部101は、図5を参照して説明したように、「頭を強めになでる」、「背中をなでる」、「喉元を指でなでる」、「声を出す」、または「強く抱きしめる」等のユーザの振る舞いに該当するか否かを判断する。該当するユーザの振る舞いが判定されるまで、上述したS130~S151が繰り返される。
Subsequently, the
次に、該当するユーザの振る舞いがある場合(ステップS154/Yes)、制御部10は、当該ユーザの振る舞いに対応する愛情度を取得する(ステップS157)。例えば、図5に示したインタラクション特性データのうち、該当するユーザの振る舞いが「頭を強めになでる」である場合、対応する愛情度「5」を取得する。
Next, when there is a behavior of the corresponding user (step S154 / Yes), the
次いで、当該ユーザの振る舞いに対応するペットの反応パターン群を取得する(ステップS160)。例えば、図5に示したインタラクション特性データのうち、該当するユーザの振る舞いが「頭を強めになでる」である場合、制御部10は、対応するペットの反応パターンとして、「首を軽くうなだれる」、「ニャーと鳴く」、「仰向けになる」、「体をまるめる」、および「ユーザの足元にすり寄る」といったペットの反応パターンを取得する。
Next, a pet reaction pattern group corresponding to the behavior of the user is acquired (step S160). For example, in the interaction characteristic data shown in FIG. 5, when the behavior of the corresponding user is "stroking the head strongly", the
次に、制御部10は、取得した反応パターン群のうち、反応パターンの実行に必要な愛情度が「ユーザの振る舞いに対応する愛情度」を超えないものを抽出する(ステップS163)。
Next, the
次いで、抽出した反応パターンからランダムに一つの反応パターンを選択し(ステップS166)、ペット動作制御部102は、選択した反応パターンに従って、ペットロボット1Aを動作させる(ステップS169)。
Next, one reaction pattern is randomly selected from the extracted reaction patterns (step S166), and the pet
続いて、ペットロボット1Aの制御部10は、ユーザの振る舞いデータ(一時記憶したセンサデータ、振る舞い判定結果、若しくは振る舞いを示すIDの少なくともいずれか)と、ペットロボット1Aを動作させた反応パターン(反応データ)をサーバ3に送信する(ステップS172)。これにより、サーバ3側で、インタラクション特性の更新(学習)が行われ得る。サーバ側での更新処理については、図14を参照して後述する。
Subsequently, the
そして、ペットロボット1Aは、サーバ3により更新されたインタラクション特性データを受信すると、インタラクション特性データ記憶部212に記憶していたインタラクション特性データ(上記ステップS127で読み込んだインタラクション特性データ)を、更新されたインタラクション特性データに置き換える(ステップS175)。
Then, when the
図14は、本実施例のサーバ3によるインタラクション特性データの更新処理を示すフローチャートである。図14に示すように、まず、サーバ3のインタラクション特性学習部303は、ペットロボット1Aから送信された、ユーザの振る舞いデータおよび反応パターンを、ユーザの振る舞いデータ一時記憶部327に一時的に記憶する(ステップS180)。
FIG. 14 is a flowchart showing an update process of interaction characteristic data by the
次に、インタラクション特性学習部303は、ユーザの振る舞いデータ一時記憶部327に蓄積されたユーザの振る舞いデータと反応パターンを参照し、その頻度を取得する(ステップS183)。
Next, the interaction
次に、インタラクション特性学習部303は、頻度が(所定値より)高いユーザの音声があるか否かを判断する(ステップS186)。例えば、ユーザの発話で同じ音声パターンの頻度が高い場合、ペットの名前など特別な意味も持つフレーズであることが予想される。
Next, the interaction
次いで、頻度が高いユーザの音声がある場合(ステップS186/Yes)、インタラクション特性学習部303は、当該音声に対するインタラクション特性を新規登録(当該音声を発生することをユーザの振る舞い項目としてインタラクション特性データに追加)し(ステップS189)、新規登録したインタラクション特性の「愛情度」を加算する(ステップS192)。なお声による呼び掛けのインタラクション特性は、図5に示す「声を出す」の「愛情度」および「ペットの反応パターン」が引き継がれる。
Next, when there is a voice of a user with a high frequency (step S186 / Yes), the interaction
一方、頻度が(所定値より)高いユーザの動作がある場合(ステップS198/Yes)、インタラクション特性学習部303は、当該動作は「ユーザのお気に入りの振る舞い」であると判断し、対応するインタラクション特性の「愛情度」を加算する(ステップS201)。例えば図5に示す例の場合、「頭を強くなでる」という振る舞いが所定値以上行われた場合、インタラクション特性学習部303は、「頭を強くなでる」というユーザの振る舞いの愛情度「5」に「1」加算する。
On the other hand, when there is an action of a user whose frequency is higher (than a predetermined value) (step S198 / Yes), the interaction
そして、サーバ3の制御部10は、更新されたインタラクション特性データをペットロボット1Aに送信する(ステップS195)。
Then, the
以上説明したように、第1の実施例では、ペットロボット1Aにインタラクション特性データを読み込ませ、ユーザの振る舞いに対するインタラクションを再現できると共に、サーバ側においてインタラクション特性データの更新が行われ得る。また、本実施例は、ユーザの振る舞いに対応する愛情度を設定し、愛情度がユーザの振る舞いの頻度に応じて加算されていくようにする。そして、ユーザの振る舞いの愛情度に応じて、当該振る舞いに対応付けられた複数の反応パターンから一の反応パターンを選択してペットロボット1を動作させる。これにより、ユーザとペットロボットとのコミュニケーションが蓄積されていくと、初期状態から徐々にユーザの振る舞いに対するペットロボット1の反応パターンが変化し(愛情度が上がると選択される反応パターンが変化)、特定の振る舞いに対して特定の反応パターンが表出されるようになる。
As described above, in the first embodiment, the
<3-2.第2の実施例>
次に、第2の実施例として、ペット育成アプリケーション等、アプリケーション上で動作するタイニーペットロボット(バーチャルペットとも称される)と触れ合う場合について図15~図18を参照して説明する。図15は、第2の実施例の概要について説明する図である。図15に示すように、タブレット端末等のユーザ端末5でログイン画面52が表示され、ユーザアカウントでログインすると、ペット選択画面53が表示される。ペット選択画面53に表示される複数のペットは、ユーザIDに紐付くペットIDに基づくものである。図15に示す例では、実在生物、仮想生物問わず、ユーザが飼っている4匹のペットが選択肢として表示される。このうち、例えばペットCを選択すると、ペットCのインタラクション特性データがユーザ端末5に読み込まれ、タイニーペットロボット54で再現される。<3-2. Second Example>
Next, as a second embodiment, a case of coming into contact with a tiny pet robot (also referred to as a virtual pet) operating on the application such as a pet breeding application will be described with reference to FIGS. 15 to 18. FIG. 15 is a diagram illustrating an outline of the second embodiment. As shown in FIG. 15, the
ユーザ端末5の構成は、図3に示すペットロボット1の構成のうち、リアルのペットロボット特有の構成である駆動部18を除く構成により実現され得る。
The configuration of the
図16は、第2の実施例によるログイン時の動作処理を示すシーケンス図である。図11に示すように、まず、ユーザ端末5は、ペット育成アプリケーションを起動し(ステップS213)、図5に示すようなログイン画面52を表示し、ログインアカウント(ユーザ名およびパスワード)の入力を受け付ける(ステップS216)。
FIG. 16 is a sequence diagram showing an operation process at the time of login according to the second embodiment. As shown in FIG. 11, first, the
次いで、サーバ3のログイン処理部301は、ユーザ端末5から送信されたログインアカウントに基づいて、ユーザ管理テーブル321を参照してログイン処理を行う(ステップS219)。
Next, the
次に、サーバ3によりログインが認証されると、初回ログインではない場合(ステップS222/No)、インタラクション特性検索部302は、インタラクション特性管理テーブル322を参照し、ユーザIDに紐付けられたペットIDのインタラクション特性データが複数あるか否かを判断する(ステップS225)。
Next, when the login is authenticated by the
インタラクション特性データが複数ある場合(すなわち複数のペットIDが紐付けられている場合)(ステップS225/Yes)、サーバ3の制御部30は、インタラクション特性データのリストをユーザ端末5へ送信する(ステップS228)。
When there are a plurality of interaction characteristic data (that is, when a plurality of pet IDs are associated with each other) (step S225 / Yes), the
次いで、ユーザ端末5は、受信したインタラクション特性データのリストを表示する(ステップS231)。具体的には、ユーザ端末5は、図15に示すように、各インタラクション特性データに対応するペットの名前等を選択肢として表示するペット選択画面53を表示してもよい。
Next, the
次に、ペット(インタラクション特性データ)がユーザにより選択されると(ステップS234/Yes)、ユーザ端末5は、選択されたインタラクション特性データの送信要求(選択されたペットのペットIDを含む)をサーバ3に送信する(ステップS237)。
Next, when the pet (interaction characteristic data) is selected by the user (step S234 / Yes), the
続いて、サーバ3は、リクエストに含まれるペットID(具体的には固体ID)と、ログイン処理により特定されたユーザIDに基づいて、要求されたインタラクション特性データをインタラクション特性データDB325から検索し、ユーザ端末5に送信する(ステップS240)。
Subsequently, the
一方、初回ログインの場合(ステップS222/Yes)、サーバ3のインタラクション特性検索部302は、タイニーペットロボットの初期状態のインタラクション特性データを検索する(ステップS243)。初期状態のインタラクション特性データは、例えば予め設定された、一般的な犬や猫が示すインタラクション特性データである。この際、サーバ3は、ペットの種別(犬、猫、ウサギ等)をユーザに選択させ、リクエストに含まれる種別IDと同じ種別の動物のインタラクション特性データ(初期状態)を検索するようにしてもよい。
On the other hand, in the case of the first login (step S222 / Yes), the interaction
次いで、サーバ3は、検索したインタラクション特性データをユーザ端末5に送信する(ステップS246)。なお、上記ステップS225で、ユーザIDに紐付けられたインタラクション特性データが複数ではない場合(ステップS225/No)、紐付けられた一のインタラクション特性データをインタラクション特性データDB325から検索し、ユーザ端末5に送信する(ステップS246)。
Next, the
そして、ユーザ端末5は、サーバ3から受信したインタラクション特性データを読み込む(ステップS249)。具体的には、ユーザ端末5は、受信したインタラクション特性データを記憶部に記憶する。
Then, the
次に、特定のインタラクション特性データが読み込まれたユーザ端末5の動作処理について図17を参照して説明する。図17は、本実施例によるユーザ端末5のタイニーペットロボットの動作制御処理を示すフローチャートである。
Next, the operation processing of the
図17に示すように、まず、ユーザ端末5は、端末自身のカメラによりユーザの動きを検出した場合(ステップS250/Yes)、検出したユーザの動きを記憶部に一時的に記憶する(ステップS253)。
As shown in FIG. 17, first, when the
次に、ユーザ端末5は、端末自身の各種センサ(タッチセンサ、圧力センサ、加速度センサ、ジャイロセンサ、コンパスなど)によりユーザの触れ合い(「撫でる」等の物理的な働きかけ)動きを検出した場合(ステップS256/Yes)、検出したユーザの触れ合いを記憶部に一時的に記憶する(ステップS259)。
Next, when the
次いで、ユーザ端末5は、端末自身のマイクロホンによりユーザの声を検出した場合(ステップS262/Yes)、検出したユーザの音声データを記憶部に一時的に記憶する(ステップS265)。
Next, when the
続いて、ユーザ端末5は、一時記憶した各データに基づいて「ユーザの振る舞い」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS268)。上述したS250~S265は繰り返され、継続的にユーザ振る舞い判定が行われ得る。
Subsequently, the
次に、該当するユーザの振る舞いがある場合(ステップS268/Yes)、ユーザ端末5は、当該ユーザの振る舞いに対応する愛情度を取得する(ステップS271)。
Next, when there is the behavior of the corresponding user (step S268 / Yes), the
次いで、ユーザ端末5は、当該ユーザの振る舞いに対応するペットの反応パターン群を取得し(ステップS274)、取得した反応パターン群のうち、反応パターンの実行に必要な愛情度が「ユーザの振る舞いに対応する愛情度」を超えないものを抽出する(ステップS277)。
Next, the
次に、ユーザ端末5は、抽出した反応パターンからランダムに一つの反応パターンを選択する(ステップS280)。
Next, the
以上説明したステップS268~S280の処理は、第1の実施例において図13を参照して説明したステップS154~S166と同様である。 The process of steps S268 to S280 described above is the same as steps S154 to S166 described with reference to FIG. 13 in the first embodiment.
次いで、ユーザ端末5は、選択した反応パターンに従って、タイニーペットロボットを動作させる(ステップS283)。
Next, the
続いて、ユーザ端末5は、ユーザの振る舞いデータ(一時記憶したセンサデータ、若しくは振る舞い判定結果の少なくともいずれか)と、タイニーペットロボットを動作させた反応パターンをサーバ3に送信する(ステップS286)。これにより、サーバ3側で、インタラクション特性の更新(学習)が行われ得る。サーバ側での更新処理については、図18を参照して後述する。
Subsequently, the
そして、ユーザ端末5は、サーバ3により更新されたインタラクション特性データを受信すると、記憶部に記憶していたインタラクション特性データ(上記ステップS249で読み込んだインタラクション特性データ)を、更新されたインタラクション特性データに置き換える(ステップS289)。
Then, when the
図18は、本実施例のサーバ3によるインタラクション特性データの更新処理を示すフローチャートである。図18に示すように、まず、サーバ3のインタラクション特性学習部303は、ユーザ端末5から送信された、ユーザの振る舞いデータおよび反応パターンを、ユーザの振る舞いデータ一時記憶部327に一時的に記憶する(ステップS290)。
FIG. 18 is a flowchart showing an update process of interaction characteristic data by the
次いで、ステップS293~S302、ステップS308~S312において、第1の実施例の図14に示すステップS183~S192、ステップS198~S201と同様に、頻度の高いユーザ音声や動作に応じて、対応するインタラクション特性の愛情度を加算する。 Then, in steps S293 to S302 and steps S308 to S312, as in steps S183 to S192 and steps S198 to S201 shown in FIG. 14 of the first embodiment, corresponding interactions are made according to frequent user voices and actions. Add the affection of the trait.
そして、サーバ3の制御部10は、更新されたインタラクション特性データをユーザ端末5に送信する(ステップS305)。
Then, the
以上説明したように、第2の実施例では、ユーザ端末5にインタラクション特性データを読み込ませ、ユーザ端末5のアプリケーション上で動作するタイニーペットロボットにおいて、ユーザの振る舞いに対するインタラクションを再現できると共に、サーバ側においてインタラクション特性データの更新が行われ得る。また、本実施例でも、第1の実施例と同様に、ユーザの振る舞いに対応する愛情度を設定し、ユーザとタイニーペットロボットとのコミュニケーションの蓄積に応じて更新し、初期状態から徐々にユーザの振る舞いに対するタイニーペットロボットの反応パターンが変化し(愛情度が上がると選択される反応パターンが変化)、特定の振る舞いに対して特定の反応パターンが表出されるようになる。
As described above, in the second embodiment, the interaction characteristic data is read into the
<3-3.第3の実施例>
次に、第3の実施例として、実在のペットのインタラクション特性を収集する場合について、図19~図23を参照して説明する。図19は、第3の実施例の概要について説明する図である。<3-3. Third Example>
Next, as a third embodiment, the case of collecting the interaction characteristics of a real pet will be described with reference to FIGS. 19 to 23. FIG. 19 is a diagram illustrating an outline of the third embodiment.
図19に示すように、本実施例では、例えば実在のペットに装着される動きセンサデバイス84、ペット周辺でユーザとペットの様子を撮像する監視カメラ80、およびユーザの手首や腕等に装着される動きセンサデバイス82を用いて、実在のペットのインタラクション特性データを収集する。監視カメラ80、動きセンサデバイス82、84により取得されたセンサデータは、Bluetooth通信等の無線通信により情報処理端末8に送信され、情報処理端末8により、ネットワーク2を介してサーバ3へ送信され、サーバ3において、ユーザIDおよびペットIDと紐付けて、インタラクション特性データとして登録、管理される。サーバ3に登録された実在のペットのインタラクション特性データは、第1の実施例や第2の実施例のように、ペットロボット1やユーザ端末5にロードされ、ペットロボット1やタイニーペットロボットにより再現され得る。
As shown in FIG. 19, in this embodiment, for example, a
図20は、第3の実施例によるログイン時の動作処理を示すシーケンス図である。図20に示すように、まず、情報処理端末8は、ログイン画面を表示し、ログインアカウント(ユーザ名およびパスワード)の入力を受け付ける(ステップS313)。
FIG. 20 is a sequence diagram showing an operation process at the time of login according to the third embodiment. As shown in FIG. 20, first, the
次いで、サーバ3のログイン処理部301は、情報処理端末8から送信されたログインアカウントに基づいて、ユーザ管理テーブル321を参照してログイン処理を行う(ステップS316)。
Next, the
次に、サーバ3によりログインが認証されると、情報処理端末8は、ユーザに装着する動きセンサデバイス82のデバイスIDの入力画面を表示し、ユーザによる入力を受け付ける(ステップS319)。
Next, when the login is authenticated by the
次いで、サーバ3のログイン処理部301は、情報処理端末8から送信されたデバイスIDを、ユーザアカウントに紐付けてユーザ管理テーブル321に登録する(図12上段参照)(ステップS322)。
Next, the
次に、情報処理端末8は、ペットに装着する動きセンサデバイス84のデバイスIDの入力画面を表示し、ユーザによる入力を受け付ける(ステップS325)。
Next, the
次いで、サーバ3のログイン処理部301は、情報処理端末8から送信されたデバイスIDを、ユーザアカウント(ユーザID)に紐付けてインタラクション特性管理テーブル322に登録する(図12下段参照)(ステップS328)。
Next, the
次に、情報処理端末8は、ペット周辺でユーザとペットの動きを検出する監視カメラ80のデバイスIDの入力画面を表示し、ユーザによる入力を受け付ける(ステップS331)。
Next, the
次いで、サーバ3のログイン処理部301は、情報処理端末8から送信されたデバイスIDを、ユーザアカウント(ユーザID)に紐付けて監視カメラ管理テーブル323に登録する(ステップS334)。ここで、図21の上段に、監視カメラ管理テーブル323のデータ例を示す。図21上段に示すように、監視カメラ管理テーブル323には、ペット周辺にてユーザとペットの動きを検出するための監視カメラのデバイスIDが、ユーザIDに紐付けて登録されている。
Next, the
続いて、実在のペットからインタラクション特性データを収集する際の情報処理端末8の動作処理について図22を参照して説明する。図22は、第3の実施例による情報処理端末8の動作処理を示すフローチャートである。
Subsequently, the operation processing of the
図22に示すように、まず、情報処理端末8は、ペット周辺の監視カメラ80により撮像された撮像画像に基づいて、ユーザの動きを検出した場合(ステップS340/Yes)、検出したユーザの動きを記憶部に一時的に記憶する(ステップS342)。
As shown in FIG. 22, first, when the
次に、情報処理端末8は、ペット周辺の監視カメラ80のマイクロホンによりユーザの音声またはペットの鳴き声を検出した場合(ステップS344/Yes)、検出したユーザのユーザ音声またはペットの鳴き声を記憶部に一時的に記憶する(ステップS346)。
Next, when the
次いで、情報処理端末8は、ユーザに装着された動きセンサデバイス82によりユーザの動きを検出した場合(ステップS348/Yes)、検出したユーザの動きデータを記憶部に一時的に記憶する(ステップS350)。
Next, when the
次に、情報処理端末8は、ペットに装着された動きセンサデバイス84によりペットの動きを検出した場合(ステップS3352/Yes)、検出したペットの動きデータを記憶部に一時的に記憶する(ステップS354)。
Next, when the
続いて、情報処理端末8は、一時記憶した各データに基づいて「ユーザの振る舞い」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS356)。ここで、情報処理端末8には、初期状態のインタラクション特性データがサーバ3から送信され記憶部に記憶されている。初期状態のインタラクション特性データは、例えば一般的な犬や猫等から検出して設定したものであって、想定し得るほぼ全ての振る舞い(ユーザの動き)と反応パターン(ペットの動き)が登録されている。該当する振る舞いがあるまで、上述したS340~S356が繰り返される。
Subsequently, the
次に、該当するユーザの振る舞いがある場合(ステップS356/Yes)、情報処理端末8は、当該ユーザの振る舞いに対応する愛情度を取得する(ステップS358)。
Next, when there is the behavior of the corresponding user (step S356 / Yes), the
次いで、情報処理端末8は、当該ユーザの振る舞いに対応するペットの反応パターン群を取得する(ステップS360)。
Next, the
次に、情報処理端末8は、一時記憶した各データに基づいて「ペットの反応パターン」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS262)。
Next, the
続いて、情報処理端末8は、ユーザの振る舞いデータ(一時記憶したセンサデータ、若しくは振る舞い判定結果、若しくは振る舞いの内容を示す細分化されたID等)と、ペットの反応パターンをサーバ3に送信する(ステップS366)。これにより、サーバ3側で、インタラクション特性の更新(学習)が行われ得る。サーバ側での更新処理については、図23を参照して後述する。
Subsequently, the
そして、情報処理端末8は、サーバ3により更新されたインタラクション特性データを受信すると、記憶部に記憶していたインタラクション特性データを、更新されたインタラクション特性データに置き換える(ステップS366)。
Then, when the
図23は、本実施例のサーバ3によるインタラクション特性データの更新処理を示すフローチャートである。図23に示すように、まず、サーバ3のインタラクション特性学習部303は、情報処理端末8から送信された、ユーザの振る舞いデータおよび反応パターンを、ユーザの振る舞いデータ一時記憶部327に一時的に記憶する(ステップS370)。
FIG. 23 is a flowchart showing the update processing of the interaction characteristic data by the
次いで、ステップS372~S378、ステップS380~S382において、第1の実施例の図14に示すステップS183~S192、ステップS198~S201と同様に、頻度の高いユーザ音声や動作に応じて、対応するインタラクション特性の愛情度を加算する。なお、声による呼び掛けのインタラクション特性は、「声を出す」という振る舞い(図5参照)に対応する「愛情度」および「ペットの反応パターン」が引き継がれる。 Then, in steps S372 to S378 and steps S380 to S382, as in steps S183 to S192 and steps S198 to S201 shown in FIG. 14 of the first embodiment, corresponding interactions are made according to frequent user voices and actions. Add the affection of the trait. As for the interaction characteristics of the call by voice, the "love degree" and the "pet reaction pattern" corresponding to the behavior of "speaking out" (see FIG. 5) are inherited.
そして、サーバ3の制御部10は、更新されたインタラクション特性データを情報処理端末8に送信する(ステップS384)。
Then, the
以上説明したように、第3の実施例では、実在のペットのインタラクション特性データも収集することが可能であり、収集したインタラクション特性データをペットロボット1やタイニーペットロボットにロードして再現することができる。
As described above, in the third embodiment, it is possible to collect the interaction characteristic data of the actual pet, and the collected interaction characteristic data can be loaded into the
<3-4.第4の実施例>
次に、第4の実施例として、ペット周辺デバイスを、インタラクション特性データに基づいてユーザの振る舞いに応じて動作させる場合について、図24~図28を参照して説明する。<3-4. Fourth Example>
Next, as a fourth embodiment, a case where the pet peripheral device is operated according to the behavior of the user based on the interaction characteristic data will be described with reference to FIGS. 24 to 28.
図24は、第4の実施例の概要について説明する図である。図24に示すように、音を鳴らしたり振動したりすることが可能な首輪(ペット周辺デバイス6A)や、リードのついた首輪(ペット周辺デバイス6B)は、ペット本体が居ない場合でも、インタラクション特性データに応じて振動したり音を発することで、ユーザの振る舞いに対するペットの反応を想起させることが可能となる。なおペット周辺デバイス6は図24に示す例に限定されず、例えばペット飼育用の籠、小屋、ボール等のペットの遊び道具、ペットの洋服等も想定される。
FIG. 24 is a diagram illustrating an outline of the fourth embodiment. As shown in FIG. 24, a collar capable of making a sound or vibrating (pet
このようなペット周辺デバイス6のデバイスIDのサーバ3への登録処理は、第3の実施例による図20に示す処理と同様であって、例えば情報処理端末8においてペット周辺デバイス6のIDがユーザにより入力されると、当該デバイスIDがサーバ3へ送信され、ペット周辺デバイス管理テーブル324に登録される。具体的には、図21の下段に示すように、ペット周辺デバイス6のデバイスIDは、ペット周辺デバイス表現データおよびペットIDと紐付けられて登録される。
The process of registering the device ID of the pet
図25は、本実施例によるペット周辺デバイス6へのデータ読み込み動作処理を示すシーケンス図である。図25に示すように、まず、ペット周辺デバイス6は、デバイスID(仮想生物アクセサリID)をサーバ3に送信し、インタラクション特性データの要求を行う(ステップS403)。
FIG. 25 is a sequence diagram showing a data reading operation process to the pet
次に、サーバ3は、ペット周辺デバイス管理テーブル324(図21)を参照して、ペット周辺デバイス6から送信されたデバイスIDに対応するペットIDを取得する(ステップS406)。
Next, the
次いで、サーバ3は、インタラクション特性管理テーブル322を参照して、当該ペットIDに対応するインタラクション特性データを取得する(ステップS409)。
Next, the
次に、サーバ3は、ペット周辺デバイス6にインタラクション特性データを送信する(ステップS412)。
Next, the
次いで、ペット周辺デバイス6は、サーバ3から受信したインタラクション特性データを読み込む(ステップS415)。具体的には、ペット周辺デバイス6の記憶部にインタラクション特性データを記憶する。
Next, the pet
続いて、ペット周辺デバイス6は、ペット周辺デバイス6のデバイスIDをサーバ3に送信し、ペット周辺デバイス表現データの要求を行う(ステップS418)。
Subsequently, the pet
次に、サーバ3は、ペット周辺デバイス管理テーブル324を参照して、送信されたデバイスIDに対応するペット周辺デバイス表現データを取得する(ステップS421)。
Next, the
次いで、サーバ3は、ペット周辺デバイス6に、ペット周辺デバイス表現データを送信する(ステップS424)。
Next, the
そして、ペット周辺デバイス6は、サーバ3から受信したペット周辺デバイス表現データを読み込む(ステップS427)。具体的には、ペット周辺デバイス6の記憶部にペット周辺デバイス表現データを記憶する。ペット周辺デバイス表現データの一例については、図28を参照して後述する。
Then, the pet
続いて、読み込んだデータに基づく、ユーザの振る舞いに応じたペット周辺デバイス6の動作制御について、図26および図27を参照して説明する。図26および図27は、本実施例によるペット周辺デバイス6の動作処理を示すフローチャートである。
Subsequently, the operation control of the pet
図26に示すように、まず、ペット周辺デバイス6は、ペット周辺デバイス6のマイクによりユーザの声を検出した場合(ステップS430/Yes)、検出したユーザの音声データを記憶部に一時的に記憶する(ステップS433)。
As shown in FIG. 26, first, when the pet
次に、ペット周辺デバイス6は、ペット周辺デバイス6のセンサ(タッチセンサ、圧力センサ、加速度センサ、ジャイロセンサ、コンパス等)によりユーザの動きを検出した場合(ステップS436/Yes)、検出したユーザの動きデータを記憶部に一時的に記憶する(ステップS439)。
Next, when the pet
次いで、ペット周辺デバイス6は、ユーザに装着された動きセンサデバイスによりユーザの動きを検出した場合(ステップS442/Yes)、検出したユーザの動きデータを記憶部に一時的に記憶する(ステップS445)。
Next, when the pet
続いて、ペット周辺デバイス6は、一時記憶した各データに基づいて「ユーザの振る舞い」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS448)。上述したS430~S448は繰り返され、継続的にユーザ振る舞い判定が行われ得る。
Subsequently, the pet
次に、該当するユーザの振る舞いがある場合(ステップS448/Yes)、ペット周辺デバイス6は、当該ユーザの振る舞いに対応する愛情度を取得する(ステップS451)。
Next, when there is the behavior of the corresponding user (step S448 / Yes), the pet
次いで、ペット周辺デバイス6は、当該ユーザの振る舞いに対応するペットの反応パターン群を取得し(ステップS454)、取得した反応パターン群のうち、反応パターンの実行に必要な愛情度が「ユーザの振る舞いに対応する愛情度」を超えないものを抽出する(ステップS457)。
Next, the pet
次に、ペット周辺デバイス6は、抽出した反応パターンからランダムに一つの反応パターンを選択する(ステップS460)。
Next, the pet
次いで、ペット周辺デバイス6は、ペット周辺デバイス表現データを参照し、選択した反応パターンに対応する表現データを取得する(ステップS463)。ここで、図28に、本実施例によるペット周辺デバイス表現データの一例を示す。図示されているように、ペット周辺デバイス表現データは、ペット周辺デバイス毎に、ペットの反応パターンに対応するペット周辺デバイス6による表現データ(動作内容)を有する。例えばペット周辺デバイス6A(鈴のついた首輪)において、「首を軽くうなだれる」という反応パターンが選択された場合、ペット周辺デバイス6は、対応するペット周辺デバイス6の表現データである「鈴が静かに1秒間鳴る」を取得する。
Next, the pet
次に、図27に示すように、ペット周辺デバイス6は、取得したペット周辺デバイスの表現データが、音データの再生を必要とするものであるか否かを判断する(ステップS466)。
Next, as shown in FIG. 27, the pet
次いで、音データの再生を必要とするものである場合(ステップS466/Yes)、ペット周辺デバイス6が音データ再生機構を有しているか否かを判断する(ステップS469)。
Next, when it is necessary to reproduce the sound data (step S466 / Yes), it is determined whether or not the pet
次に、音データ再生機構を有している場合(ステップS469/Yes)、ペット周辺デバイス6は、取得したペット周辺デバイスの表現データに従って音データを再生するよう制御する(ステップS472)。
Next, when the pet
一方、音データ再生機構を有していない場合(ステップS469/No)、ペット周辺デバイス6は、音データを再生するという表現は実行することができない。
On the other hand, when the pet
次いで、取得したペット周辺デバイスの表現データが、デバイスの振動、回転、または駆動を必要とするものである場合(ステップS475/Yes)、ペット周辺デバイス6は、自身に振動、回転、または駆動する機構があるか否かを判断する(ステップS478)。
Then, if the acquired representation data of the pet peripheral device requires vibration, rotation, or drive of the device (step S475 / Yes), the pet
次に、該当する機構がある場合(ステップS478/Yes)、ペット周辺デバイス6は、取得したペット周辺デバイスの表現データに従って、ペット周辺デバイス6の振動、回転、または駆動を実行する(ステップS481)。
Next, if there is a corresponding mechanism (step S478 / Yes), the pet
一方、該当する機構を有していない場合(ステップS478/No)、ペット周辺デバイス6は、振動、回転、または駆動といった表現は実行することができない。
On the other hand, if the pet
以上説明したように、第4の実施例では、ペット周辺デバイス6に特定のペットのインタラクション特性データをロードし、ユーザの振る舞いに対して、インタラクション特性を間接的に再現し、ペット本体が居なくても、特定のペットの反応を表現することができる。
As described above, in the fourth embodiment, the interaction characteristic data of a specific pet is loaded into the pet
<3-5.第5の実施例>
次に、第5の実施例として、アタッチメントデバイスをペットロボット1に装着して駆動能力を拡張する場合について図29~図32を参照して説明する。<3-5. Fifth Example>
Next, as a fifth embodiment, a case where the attachment device is attached to the
本実施形態による情報処理システムでは、図29に示すように、例えば実在のペット4A、4Bから取得したインタラクション特性データを、猫型のペットロボット1A、犬型のペットロボット1C、アリクイ型のペットロボット1E、または鳥型のペットロボット1F等、様々なタイプの異なるペットロボット1に読み込ませてインタラクション特性を再現することができる。
In the information processing system according to the present embodiment, as shown in FIG. 29, for example, interaction characteristic data acquired from
しかし、その動物ならではの特徴的な部位におけるインタラクション特性を再現することは、他の種別のペットロボットでは困難な場合がある。例えば、ヤマアラシの背中に密生する針状の体毛の動きや、ウサギの長い耳による動きを、他の種別のペットロボットでよりリアルに再現することは難しい。したがって、上述した実施例では、例えばペットロボット1からインタラクション特性データを新規で要求するリクエストがあった際、ペットロボット1の種別に応じた生物の一般的な初期用のインタラクション特性データを検索し、返信することが想定される。
However, it may be difficult for other types of pet robots to reproduce the interaction characteristics in the characteristic parts of the animal. For example, it is difficult for other types of pet robots to more realistically reproduce the movement of needle-shaped hair that grows densely on the back of porcupines and the movement of rabbits with long ears. Therefore, in the above-described embodiment, for example, when there is a new request for interaction characteristic data from the
これに対し本実施例では、身体的に特徴のある動物のインタラクション特性をよりリアルに再現するためのアタッチメントデバイス7を用いる。
On the other hand, in this embodiment, an
図30は、本実施例によるアタッチメントデバイス7の一例を示す図である。図30に示すように、例えばヤマアラシのアタッチメントデバイス7Aや、ウサギの耳のアタッチメントデバイス7Bを猫型のペットロボット1Aに装着することで、ペットロボット1Aの駆動能力を拡張し、他の種別の生物のインタラクション特性をより忠実に再現することが可能となる。
FIG. 30 is a diagram showing an example of the
図31は、駆動能力の拡張について具体的に説明する図である。図31の上段に示すように、インタラクション特性データでは、あるペットの反応パターン「片方の耳を折り曲げる」を実行するために必要なデバイス(ペットロボット)の駆動能力「駆動できる関節を持った長い耳」が規定されている。一方、各ペットロボット1には、ハードウェアの能力に従って固有の駆動能力が定義されている。例えば図31の下段に示すように、ペットロボット1Aの駆動能力として、前足の駆動能力、尻尾の駆動能力、首の駆動能力等が定義されている。ペットロボット1Aが「駆動できる関節を持った長い耳」といった必要な駆動能力を有していない場合、当該反応パターンは再現できないが、図31の下段に示すように、駆動できる関節を持つ長い耳のアタッチメントデバイス7Bを装着することで駆動能力が拡張され、当該反応パターンを再現することが可能となる。
FIG. 31 is a diagram specifically illustrating the expansion of the drive capacity. As shown in the upper part of FIG. 31, in the interaction characteristic data, the driving ability of the device (pet robot) required to execute the reaction pattern "bend one ear" of a pet "long ears with driveable joints". Is stipulated. On the other hand, each
図32は、本実施例によるペットロボット1の動作処理を示すフローチャートである。図32に示すように、まず、ペットロボット1は、ユーザの振る舞いに応じて、インタラクション特性データを参照してペットの反応パターンを取得する(ステップS503)。
FIG. 32 is a flowchart showing the operation processing of the
次に、ペットロボット1は、ペットの反応パターンの実行に必要なデバイスの駆動能力をサーバ3から取得する(ステップS506)。
Next, the
次いで、ペットロボット1は、自身が有する駆動能力を取得し(ステップS509)、ペットロボット1の駆動能力に、ペットの反応パターンに必要な駆動能力が含まれているか否かを判断する(ステップS512)。
Next, the
次に、含まれている場合(ステップS512/Yes)、ペットロボット1は、ペットの反応パターンに従って、ペットロボット1を動作させる(ステップS515)。
Next, when included (step S512 / Yes), the
一方、含まれていない場合(ステップS512/No)、ペットロボット1は、アタッチメントデバイス7が装着されているか否かを判断する(ステップS518)。
On the other hand, if it is not included (step S512 / No), the
アタッチメントデバイス7が装着されている場合(ステップS518/Yes)、ペットロボット1は、アタッチメントデバイス7が有する駆動能力を取得する(ステップS521)。
When the
次いで、ペットロボット1は、アタッチメントデバイス7の駆動能力に、ペットの反応パターンの実行に必要な駆動能力が含まれているか否かを判断する(ステップS524)。
Next, the
そして、含まれている場合(ステップS524/Yes)、ペットロボット1は、ペットの反応パターンに従ってアタッチメントデバイス7を動作させる(ステップS527)。
Then, when included (step S524 / Yes), the
一方、アタッチメントデバイス7が装着されていない場合(ステップS518/No)や、装着されていても反応パターンを実行するために必要な駆動能力が含まれていない場合(ステップS524/No)、ペットロボット1は、当該反応パターンを実行することができないため、ステップS503に戻り、次のユーザの振る舞いを待つ。
On the other hand, when the
以上説明したように、第5の実施例では、身体的な特徴を有するペットの反応パターンを実現するためのアタッチメントデバイス7をペットロボット1に装着し、ペットロボット1の駆動能力を拡張して、インタラクション特性をより確実に再現することを可能とする。なおペットロボット1は、新規にインタラクション特性データをサーバ3に要求する際、ペットロボット1の種別ID(仮想生物ID)と、装着されているアタッチメントデバイス7のID(アタッチメントデバイスID:機能拡張のフラグの一例)と、ユーザIDを含めて送信してもよい。この場合、サーバ3は、種別IDに対応する生物の種類とは異なる、アタッチメントデバイスIDに対応する種類の生物の初期状態用の一般的なインタラクション特性データを検索し、返信するようにしてもよい。
As described above, in the fifth embodiment, the
<<5.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、ユーザの振る舞いに対する実在または仮想の生物のインタラクション特性を再現することを可能とする。<< 5. Summary >>
As described above, the information processing system according to the embodiment of the present disclosure makes it possible to reproduce the interaction characteristics of a real or virtual organism with respect to the behavior of the user.
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, the present technology is not limited to such examples. It is clear that anyone with ordinary knowledge in the art of the present disclosure may come up with various modifications or amendments within the scope of the technical ideas set forth in the claims. Is, of course, understood to belong to the technical scope of the present disclosure.
例えば、上述した情報処理システムのペットロボット1、サーバ3、ユーザ端末5、または情報処理端末8に内蔵されるCPU、ROM、およびRAM等のハードウェアに、ペットロボット1、サーバ3、ユーザ端末5、または情報処理端末8の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
For example, the hardware such as the CPU, ROM, and RAM built in the above-mentioned information processing
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 In addition, the effects described herein are merely explanatory or exemplary and are not limited. That is, the technique according to the present disclosure may exert other effects apparent to those skilled in the art from the description of the present specification, in addition to or in place of the above effects.
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積する蓄積部と、
仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信する通信部と、
前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御する制御部と、
を備える、仮想生物制御システム。
(2)
前記制御部は、前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる前記オブジェクトIDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御する、前記(1)に記載の仮想生物制御システム。
(3)
前記制御部は、
前記通信部を介して、前記仮想生物デバイスにより検出されたユーザの振る舞いと、それに対して当該仮想生物を動作させた前記インタラクション特性データの反応データとを取得すると、
前記蓄積部に蓄積される前記インタラクション特性データを、取得した前記ユーザの振る舞いと前記反応データに応じて更新するように制御する、前記(1)に記載の仮想生物制御システム。
(4)
前記制御部は、前記ユーザの振る舞いの頻度に応じて、当該振る舞いに対応する愛情度を更新する、前記(3)に記載の仮想生物制御システム。
(5)
前記制御部は、
前記通信部を介して、仮想生物育成アプリケーションが実装される前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
当該リクエストに含まれる仮想生物IDに対応する前記インタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(1)に記載の仮想生物制御システム。
(6)
前記制御部は、
前記通信部を介して、仮想生物育成アプリケーションが実装される前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
当該リクエストに含まれるオブジェクトIDに対応する前記インタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(1)に記載の仮想生物制御システム。
(7)
前記制御部は、
前記通信部を介して、前記ユーザの振る舞いと、それに対する実在する生物の反応を表す反応データを取得し、
前記蓄積部に、前記ユーザIDと、前記実在する生物のIDを示すオブジェクトIDとを関連付けて、前記ユーザの振る舞いと前記反応データに応じて、前記インタラクション特性データを更新する、前記(1)に記載の仮想生物制御システム。
(8)
前記制御部は、
前記通信部を介して、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
当該リクエストに含まれる仮想生物IDに応じて、前記実在する生物のIDを示すオブジェクトIDを特定し、
当該オブジェクトIDに応じて、前記蓄積部から、前記インタラクション特性データを検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(7)に記載の仮想生物制御システム。
(9)
前記制御部は、
前記通信部を介して、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
当該リクエストに含まれる仮想生物IDの生物の種類とは異なる種類の、前記実在する生物のインタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(7)に記載の仮想生物制御システム。
(10)
前記制御部は、
前記通信部を介して受信される、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストの中に、機能拡張のフラグが含まれる際、当該リクエストに含まれる仮想生物IDの生物の種類とは異なる、機能拡張のフラグに対応する種類の生物の前記インタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(1)に記載の仮想生物制御システム。
(11)
前記制御部は、
前記通信部を介して、外部デバイスから、仮想生物アクセサリIDを含む前記インタラクション特性データを要求するリクエストを受信すると、
当該仮想生物アクセサリIDに紐付けられたオブジェクトIDを特定し、当該オブジェクトIDに応じて、前記蓄積部から前記インタラクション特性データを検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記外部デバイスに返信する、前記(1)に記載の仮想生物制御システム。
(12)
仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、
前記インタラクション特性データを蓄積する蓄積部と、
前記ユーザの振る舞いをセンシングするセンサ部と、
前記ユーザの振る舞いに対して反応するリアクション部と、
前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、
を備える、仮想生物制御システム。
(13)
前記仮想生物制御システムは、カードリーダをさらに備え、
前記制御部は、
前記通信部を介して、
前記カードリーダを介して入力されたオブジェクトIDと、ユーザIDを特定するための情報を前記サーバに送信し、
前記ユーザIDと前記オブジェクトIDに応じた前記インタラクション特性データを前記サーバより受信する、前記(12)記載の仮想生物制御システム。
(14)
前記仮想生物制御システムを拡張する機能拡張モジュールを取り付け可能であり、
前記通信部は、
前記機能拡張モジュールが取り付けられている際、前記通信部を介して、ユーザID、仮想生物ID、機能拡張のフラグを含む、前記インタラクション特性データを要求するリクエストを送信し、
前記仮想生物IDの生物の種類とは異なる種類の前記インタラクション特性データを前記サーバから受信し、
前記制御部は、前記インタラクション特性データに応じて、前記ユーザの振る舞いに対して、前記機能拡張モジュールおよび前記リアクション部を制御する、前記(12)に記載の仮想生物制御システム。
(15)
前記制御部は、前記ユーザの振る舞いに対応する愛情度を取得し、前記インタラクション特性データで定義されている前記ユーザの振る舞いに対する1以上の反応パターンのうち、前記愛情度に応じて、一の反応パターンを選択し、前記リアクション部を制御する、前記(12)または(13)に記載の仮想生物制御システム。
(16)
プロセッサが、
ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積部に蓄積することと、
通信部を介して、仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信することと、
前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御することと、
を含む、仮想生物制御方法。
(17)
コンピュータを、
仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、
前記インタラクション特性データを蓄積する蓄積部と、
前記ユーザの振る舞いをセンシングするセンサ部と、
前記ユーザの振る舞いに対して反応するリアクション部と、
前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、
として機能させるためのプログラムが記憶された、記憶媒体。The present technology can also have the following configurations.
(1)
A storage unit that stores interaction characteristic data indicating the interaction characteristics of the object with respect to the user in units of user ID and object ID.
A communication unit that receives a request for the interaction characteristic data from the virtual biological device and returns the interaction characteristic data.
In response to a request for the interaction characteristic data received from the virtual organism device via the communication unit, the interaction characteristic data is generated based on the virtual organism ID included in the request and the specified user ID. A control unit that searches from the storage unit and controls the searched interaction characteristic data to be returned via the communication unit.
A virtual biological control system.
(2)
The control unit responds to a request for requesting the interaction characteristic data received from the virtual biological device via the communication unit, based on the object ID included in the request and the specified user ID. The virtual biological control system according to (1) above, wherein the interaction characteristic data is searched from the storage unit, and the searched interaction characteristic data is controlled to be returned via the communication unit.
(3)
The control unit
When the behavior of the user detected by the virtual creature device and the reaction data of the interaction characteristic data in which the virtual creature is operated are acquired via the communication unit, the behavior data of the user is obtained.
The virtual organism control system according to (1) above, which controls the interaction characteristic data accumulated in the storage unit so as to be updated according to the acquired behavior of the user and the reaction data.
(4)
The virtual biological control system according to (3) above, wherein the control unit updates the degree of affection corresponding to the behavior according to the frequency of the behavior of the user.
(5)
The control unit
Upon receiving a request for the interaction characteristic data from the virtual organism device on which the virtual organism breeding application is implemented via the communication unit,
The interaction characteristic data corresponding to the virtual organism ID included in the request is searched from the storage unit, and the data is searched.
The virtual biological control system according to (1), wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
(6)
The control unit
Upon receiving a request for the interaction characteristic data from the virtual organism device on which the virtual organism breeding application is implemented via the communication unit,
The interaction characteristic data corresponding to the object ID included in the request is searched from the storage unit.
The virtual biological control system according to (1), wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
(7)
The control unit
Through the communication unit, reaction data representing the behavior of the user and the reaction of an existing organism to the behavior is acquired.
In the above (1), the user ID and the object ID indicating the ID of the existing organism are associated with the storage unit, and the interaction characteristic data is updated according to the behavior of the user and the reaction data. Described virtual biological control system.
(8)
The control unit
Upon receiving a request for the interaction characteristic data from the virtual biological device via the communication unit,
According to the virtual creature ID included in the request, the object ID indicating the ID of the real creature is specified, and the object ID is specified.
The interaction characteristic data is searched from the storage unit according to the object ID, and the interaction characteristic data is searched for.
The virtual biological control system according to (7), wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
(9)
The control unit
Upon receiving a request for the interaction characteristic data from the virtual biological device via the communication unit,
The interaction characteristic data of the existing organism, which is different from the type of the organism of the virtual organism ID included in the request, is searched from the storage unit.
The virtual biological control system according to (7), wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
(10)
The control unit
When the function expansion flag is included in the request for the interaction characteristic data from the virtual organism device received via the communication unit, the type of organism of the virtual organism ID included in the request is used. Searches the storage for the interaction characteristic data of different organisms of the type corresponding to the enhancement flag.
The virtual biological control system according to (1), wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
(11)
The control unit
Upon receiving a request from an external device for the interaction characteristic data including the virtual biological accessory ID via the communication unit,
The object ID associated with the virtual biological accessory ID is specified, and the interaction characteristic data is searched from the storage unit according to the object ID.
The virtual biological control system according to (1), wherein the searched interaction characteristic data is returned to the external device via the communication unit.
(12)
A communication unit that sends a request for interaction characteristic data indicating the interaction characteristics to the user of the virtual organism and receives the interaction characteristic data returned from the server in response to the request.
The storage unit that stores the interaction characteristic data and
The sensor unit that senses the behavior of the user and
A reaction unit that reacts to the behavior of the user,
A control unit that controls the reaction unit so as to react to the behavior of the user sensed by the sensor unit according to the interaction characteristic data received by the communication unit.
A virtual biological control system.
(13)
The virtual biological control system further comprises a card reader.
The control unit
Through the communication unit,
The object ID input via the card reader and the information for identifying the user ID are transmitted to the server.
The virtual organism control system according to (12), wherein the interaction characteristic data corresponding to the user ID and the object ID is received from the server.
(14)
A function expansion module that expands the virtual biological control system can be attached.
The communication unit
When the function expansion module is attached, a request for requesting the interaction characteristic data including a user ID, a virtual organism ID, and a function expansion flag is transmitted via the communication unit.
The interaction characteristic data of a type different from the type of organism of the virtual organism ID is received from the server, and the interaction characteristic data is received from the server.
The virtual organism control system according to (12), wherein the control unit controls the function expansion module and the reaction unit with respect to the behavior of the user according to the interaction characteristic data.
(15)
The control unit acquires the affection level corresponding to the behavior of the user, and one reaction according to the affection level among one or more reaction patterns to the behavior of the user defined in the interaction characteristic data. The virtual organism control system according to (12) or (13) above, wherein a pattern is selected and the reaction unit is controlled.
(16)
The processor,
By accumulating interaction characteristic data indicating the characteristics of interaction with the user of the object in the storage unit for each user ID and object ID,
Receiving a request for the interaction characteristic data from the virtual biological device via the communication unit, and returning the interaction characteristic data.
In response to a request for the interaction characteristic data received from the virtual organism device via the communication unit, the interaction characteristic data is generated based on the virtual organism ID included in the request and the specified user ID. By searching from the storage unit and controlling the searched interaction characteristic data to be returned via the communication unit,
Virtual organism control methods, including.
(17)
Computer,
A communication unit that sends a request for interaction characteristic data indicating the interaction characteristics to the user of the virtual organism and receives the interaction characteristic data returned from the server in response to the request.
The storage unit that stores the interaction characteristic data and
The sensor unit that senses the behavior of the user and
A reaction unit that reacts to the behavior of the user,
A control unit that controls the reaction unit so as to react to the behavior of the user sensed by the sensor unit according to the interaction characteristic data received by the communication unit.
A storage medium in which a program for functioning as a device is stored.
1 ペットロボット
2 ネットワーク
3 サーバ
4 ペット
5 ユーザ端末
6 ペット周辺デバイス
7 アタッチメントデバイス
8 情報処理端末
10 制御部
11 通信部
14 位置情報取得部
15 カメラ
16 音声入力部
17 生体センサ
18 駆動部
19 圧力センサ
20 記憶部
21 表示部
22 音声出力部
23 加速度センサ
24 角速度センサ
30 制御部
31 通信部
32 記憶部
50 タイニーペットロボット
70 カードリーダ
80 監視カメラ
101 判定部
102 ペット動作制御部
210 センサデータ一時記憶部
212 インタラクション特性データ記憶部
301 ログイン処理部
302 インタラクション特性検索部
303 インタラクション特性学習部
321 ユーザ管理テーブル
322 インタラクション特性管理テーブル
323 監視カメラ管理テーブル
324 ペット周辺デバイス管理テーブル
325 インタラクション特性データDB
326 ペット周辺デバイス表現テーブル
327 ユーザの振る舞いデータ一時記憶部 1
326 Pet peripheral device representation table 327 User behavior data Temporary storage
Claims (15)
仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信する通信部と、
前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、前記リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信し、
前記通信部を介して、前記ユーザの振る舞いと、それに対する実在する生物の反応を表す反応データを取得し、
前記蓄積部に、前記ユーザIDと、前記実在する生物のIDを示すオブジェクトIDとを関連付けて、前記ユーザの振る舞いと前記反応データに応じて、前記インタラクション特性データを更新し、
前記リクエストを受信すると、前記リクエストに含まれる前記仮想生物IDの生物の種類とは異なる種類の、前記実在する生物のインタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索された前記インタラクション特性データを、前記仮想生物デバイスに返信するように制御する制御部と、
を備える、仮想生物制御システム。 A storage unit that stores interaction characteristic data indicating the interaction characteristics of the object with respect to the user in units of user ID and object ID.
A communication unit that receives a request for the interaction characteristic data from the virtual biological device and returns the interaction characteristic data.
In response to a request for the interaction characteristic data received from the virtual organism device via the communication unit, the interaction characteristic data is generated based on the virtual organism ID included in the request and the specified user ID. Search from the storage unit, and return the searched interaction characteristic data via the communication unit.
Through the communication unit, reaction data representing the behavior of the user and the reaction of an existing organism to the behavior is acquired.
The user ID and the object ID indicating the ID of the existing organism are associated with the storage unit, and the interaction characteristic data is updated according to the behavior of the user and the reaction data.
Upon receiving the request, the interaction characteristic data of the existing organism, which is different from the type of the organism of the virtual organism ID included in the request, is searched from the storage unit.
A control unit that controls the searched interaction characteristic data to be returned to the virtual biological device via the communication unit .
A virtual biological control system.
前記通信部を介して、前記仮想生物デバイスにより検出されたユーザの振る舞いと、それに対して当該仮想生物を動作させた前記インタラクション特性データの反応データとを取得すると、
前記蓄積部に蓄積される前記インタラクション特性データを、取得した前記ユーザの振る舞いと前記反応データに応じて更新するように制御する、請求項1に記載の仮想生物制御システム。 The control unit
When the behavior of the user detected by the virtual creature device and the reaction data of the interaction characteristic data in which the virtual creature is operated are acquired via the communication unit, the behavior data of the user is obtained.
The virtual organism control system according to claim 1, wherein the interaction characteristic data accumulated in the storage unit is controlled to be updated according to the acquired behavior of the user and the reaction data.
前記通信部を介して、仮想生物育成アプリケーションが実装される前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
当該リクエストに含まれる仮想生物IDに対応する前記インタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項1に記載の仮想生物制御システム。 The control unit
Upon receiving a request for the interaction characteristic data from the virtual organism device on which the virtual organism breeding application is implemented via the communication unit,
The interaction characteristic data corresponding to the virtual organism ID included in the request is searched from the storage unit, and the data is searched.
The virtual biological control system according to claim 1, wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
前記通信部を介して、仮想生物育成アプリケーションが実装される前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
当該リクエストに含まれるオブジェクトIDに対応する前記インタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項1に記載の仮想生物制御システム。 The control unit
Upon receiving a request for the interaction characteristic data from the virtual organism device on which the virtual organism breeding application is implemented via the communication unit,
The interaction characteristic data corresponding to the object ID included in the request is searched from the storage unit.
The virtual biological control system according to claim 1, wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
前記リクエストを受信すると、
前記リクエストに含まれる仮想生物IDに応じて、前記実在する生物のIDを示すオブジェクトIDを特定し、
当該オブジェクトIDに応じて、前記蓄積部から、前記インタラクション特性データを検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項1に記載の仮想生物制御システム。 The control unit
Upon receiving the request ,
According to the virtual creature ID included in the request, the object ID indicating the ID of the real creature is specified, and the object ID is specified.
The interaction characteristic data is searched from the storage unit according to the object ID, and the interaction characteristic data is searched for.
The virtual biological control system according to claim 1 , wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
前記通信部を介して受信される、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストの中に、機能拡張のフラグが含まれる際、当該リクエストに含まれる仮想生物IDの生物の種類とは異なる、機能拡張のフラグに対応する種類の生物の前記インタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項1に記載の仮想生物制御システム。 The control unit
When the function expansion flag is included in the request for the interaction characteristic data from the virtual organism device received via the communication unit, the type of organism of the virtual organism ID included in the request is used. Searches the storage for the interaction characteristic data of different organisms of the type corresponding to the enhancement flag.
The virtual biological control system according to claim 1, wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
前記通信部を介して、外部デバイスから、仮想生物アクセサリIDを含む前記インタラクション特性データを要求するリクエストを受信すると、
当該仮想生物アクセサリIDに紐付けられたオブジェクトIDを特定し、当該オブジェクトIDに応じて、前記蓄積部から前記インタラクション特性データを検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記外部デバイスに返信する、請求項1に記載の仮想生物制御システム。 The control unit
Upon receiving a request from an external device for the interaction characteristic data including the virtual biological accessory ID via the communication unit,
The object ID associated with the virtual biological accessory ID is specified, and the interaction characteristic data is searched from the storage unit according to the object ID.
The virtual biological control system according to claim 1, wherein the searched interaction characteristic data is returned to the external device via the communication unit.
前記インタラクション特性データを蓄積する蓄積部と、
前記ユーザの振る舞いをセンシングするセンサ部と、
前記ユーザの振る舞いに対して反応するリアクション部と、
前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、
を備える、仮想生物制御システム。 It is different from the type of organism of the virtual creature ID, which requests interaction characteristic data indicating the characteristics of the interaction with the user of the virtual creature, sends a request including the virtual creature ID, and is returned from the server in response to the request. A communication unit that receives interaction characteristic data of different types of living organisms ,
The storage unit that stores the interaction characteristic data and
The sensor unit that senses the behavior of the user and
A reaction unit that reacts to the behavior of the user,
A control unit that controls the reaction unit so as to react to the behavior of the user sensed by the sensor unit according to the interaction characteristic data received by the communication unit.
A virtual biological control system.
前記制御部は、
前記通信部を介して、
前記カードリーダを介して入力されたオブジェクトIDと、ユーザIDを特定するための情報を前記サーバに送信し、
前記ユーザIDと前記オブジェクトIDに応じた前記インタラクション特性データを前記サーバより受信する、請求項10に記載の仮想生物制御システム。 The virtual biological control system further comprises a card reader.
The control unit
Through the communication unit,
The object ID input via the card reader and the information for identifying the user ID are transmitted to the server.
The virtual biological control system according to claim 10 , wherein the interaction characteristic data corresponding to the user ID and the object ID is received from the server.
前記通信部は、
前記機能拡張モジュールが取り付けられている際、前記通信部を介して、ユーザID、仮想生物ID、機能拡張のフラグを含む、前記インタラクション特性データを要求するリクエストを送信し、
前記仮想生物IDの生物の種類とは異なる種類の前記インタラクション特性データを前記サーバから受信し、
前記制御部は、前記インタラクション特性データに応じて、前記ユーザの振る舞いに対して、前記機能拡張モジュールおよび前記リアクション部を制御する、請求項10に記載の仮想生物制御システム。 A function expansion module that expands the virtual biological control system can be attached.
The communication unit
When the function expansion module is attached, a request for requesting the interaction characteristic data including a user ID, a virtual organism ID, and a function expansion flag is transmitted via the communication unit.
The interaction characteristic data of a type different from the type of organism of the virtual organism ID is received from the server, and the interaction characteristic data is received from the server.
The virtual biological control system according to claim 10 , wherein the control unit controls the function expansion module and the reaction unit with respect to the behavior of the user according to the interaction characteristic data.
ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積部に蓄積することと、
通信部を介して、仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信することと、
前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、前記リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信し、
前記通信部を介して、前記ユーザの振る舞いと、それに対する実在する生物の反応を表す反応データを取得し、
前記蓄積部に、前記ユーザIDと、前記実在する生物のIDを示すオブジェクトIDとを関連付けて、前記ユーザの振る舞いと前記反応データに応じて、前記インタラクション特性データを更新し、
前記リクエストを受信すると、前記リクエストに含まれる前記仮想生物IDの生物の種類とは異なる種類の、前記実在する生物のインタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索された前記インタラクション特性データを、前記仮想生物デバイスに返信するように制御することと、
を含む、仮想生物制御方法。 The processor,
By accumulating interaction characteristic data indicating the characteristics of interaction with the user of the object in the storage unit for each user ID and object ID,
Receiving a request for the interaction characteristic data from the virtual biological device via the communication unit and returning the interaction characteristic data.
In response to a request for the interaction characteristic data received from the virtual organism device via the communication unit, the interaction characteristic data is generated based on the virtual organism ID included in the request and the specified user ID. Search from the storage unit, and return the searched interaction characteristic data via the communication unit.
Through the communication unit, reaction data representing the behavior of the user and the reaction of an existing organism to the behavior is acquired.
The user ID and the object ID indicating the ID of the existing organism are associated with the storage unit, and the interaction characteristic data is updated according to the behavior of the user and the reaction data.
Upon receiving the request, the interaction characteristic data of the existing organism, which is different from the type of the organism of the virtual organism ID included in the request, is searched from the storage unit.
Controlling the searched interaction characteristic data to be returned to the virtual biological device via the communication unit .
Virtual organism control methods, including.
仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求し、仮想生物IDを含むリクエストを送信すると共に、そのリクエストに対してサーバより返信される、前記仮想生物IDの生物の種類とは異なる種類の実在する生物のインタラクション特性データを受信する通信部と、
前記インタラクション特性データを蓄積する蓄積部と、
前記ユーザの振る舞いをセンシングするセンサ部と、
前記ユーザの振る舞いに対して反応するリアクション部と、
前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、
として機能させるためのプログラム。 Computer,
It is different from the type of organism of the virtual creature ID, which requests interaction characteristic data indicating the characteristics of the interaction with the user of the virtual creature, sends a request including the virtual creature ID, and is returned from the server in response to the request. A communication unit that receives interaction characteristic data of different types of living organisms ,
The storage unit that stores the interaction characteristic data and
The sensor unit that senses the behavior of the user and
A reaction unit that reacts to the behavior of the user,
A control unit that controls the reaction unit so as to react to the behavior of the user sensed by the sensor unit according to the interaction characteristic data received by the communication unit.
A program to function as.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016173795 | 2016-09-06 | ||
JP2016173795 | 2016-09-06 | ||
PCT/JP2017/020890 WO2018047426A1 (en) | 2016-09-06 | 2017-06-05 | Virtual biocontrol system, virtual biocontrol method, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018047426A1 JPWO2018047426A1 (en) | 2019-06-24 |
JP7014168B2 true JP7014168B2 (en) | 2022-02-01 |
Family
ID=61562636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018538030A Active JP7014168B2 (en) | 2016-09-06 | 2017-06-05 | Virtual organism control systems, virtual organism control methods, and programs |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7014168B2 (en) |
WO (1) | WO2018047426A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150064153A1 (en) | 2013-03-15 | 2015-03-05 | The Trustees Of Princeton University | High efficiency microfluidic purification of stem cells to improve transplants |
JP2022051982A (en) | 2019-02-15 | 2022-04-04 | ソニーグループ株式会社 | Information processor and information processing method |
WO2023037608A1 (en) * | 2021-09-10 | 2023-03-16 | ソニーグループ株式会社 | Autonomous mobile body, information processing method, and program |
WO2023037609A1 (en) * | 2021-09-10 | 2023-03-16 | ソニーグループ株式会社 | Autonomous mobile body, information processing method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000066239A1 (en) | 1999-04-30 | 2000-11-09 | Sony Corporation | Electronic pet system, network system, robot, and storage medium |
JP2001191275A (en) | 1999-10-29 | 2001-07-17 | Sony Corp | Robot system, exterior, and robot device |
JP2003039362A (en) | 2001-07-27 | 2003-02-13 | Matsushita Electric Ind Co Ltd | Pet type robot |
-
2017
- 2017-06-05 JP JP2018538030A patent/JP7014168B2/en active Active
- 2017-06-05 WO PCT/JP2017/020890 patent/WO2018047426A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000066239A1 (en) | 1999-04-30 | 2000-11-09 | Sony Corporation | Electronic pet system, network system, robot, and storage medium |
JP2001191275A (en) | 1999-10-29 | 2001-07-17 | Sony Corp | Robot system, exterior, and robot device |
JP2003039362A (en) | 2001-07-27 | 2003-02-13 | Matsushita Electric Ind Co Ltd | Pet type robot |
Non-Patent Citations (1)
Title |
---|
梶浦 文夫,動物の動きを計測・解析する入門教育の試み,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2008年10月10日,第108巻 第247号,p.29~32 |
Also Published As
Publication number | Publication date |
---|---|
WO2018047426A1 (en) | 2018-03-15 |
JPWO2018047426A1 (en) | 2019-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7014168B2 (en) | Virtual organism control systems, virtual organism control methods, and programs | |
JP7400923B2 (en) | Information processing device and information processing method | |
US8538750B2 (en) | Speech communication system and method, and robot apparatus | |
US7076331B1 (en) | Robot, method of robot control, and program recording medium | |
US20230266767A1 (en) | Information processing apparatus, information processing method, and program | |
US20180376069A1 (en) | Erroneous operation-preventable robot, robot control method, and recording medium | |
CN113164822B (en) | Robot for wearing clothes | |
US20230016899A1 (en) | Robot, robot control method, and recording medium | |
JP7375770B2 (en) | Information processing device, information processing method, and program | |
WO2019123744A1 (en) | Information processing device, information processing method, and program | |
JPWO2019087495A1 (en) | Information processing equipment, information processing methods, and programs | |
JP2004298975A (en) | Robot device and obstacle searching method | |
US11986959B2 (en) | Information processing device, action decision method and program | |
US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
JP7238796B2 (en) | ANIMAL-TYPE AUTONOMOUS MOBILE BODY, OPERATION METHOD OF ANIMAL-TYPE AUTONOMOUS MOBILE BODY, AND PROGRAM | |
JP2007125629A (en) | Robot device and motion control method | |
JP7480706B2 (en) | Information processing device, information processing method, and program | |
WO2020153038A1 (en) | Information processing device and information processing method | |
US20230367312A1 (en) | Information processing apparatus, information processing method, and program | |
JP3501123B2 (en) | Robot apparatus and behavior control method for robot apparatus | |
JP2003001573A (en) | Robot device and its control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200529 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220103 |