JP7014168B2 - Virtual organism control systems, virtual organism control methods, and programs - Google Patents

Virtual organism control systems, virtual organism control methods, and programs Download PDF

Info

Publication number
JP7014168B2
JP7014168B2 JP2018538030A JP2018538030A JP7014168B2 JP 7014168 B2 JP7014168 B2 JP 7014168B2 JP 2018538030 A JP2018538030 A JP 2018538030A JP 2018538030 A JP2018538030 A JP 2018538030A JP 7014168 B2 JP7014168 B2 JP 7014168B2
Authority
JP
Japan
Prior art keywords
characteristic data
user
interaction characteristic
virtual
pet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018538030A
Other languages
Japanese (ja)
Other versions
JPWO2018047426A1 (en
Inventor
圭吾 井原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018047426A1 publication Critical patent/JPWO2018047426A1/en
Application granted granted Critical
Publication of JP7014168B2 publication Critical patent/JP7014168B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本開示は、仮想生物制御システム、仮想生物制御方法、および記録媒体に関する。 The present disclosure relates to a virtual organism control system, a virtual organism control method, and a recording medium.

近年、人型や動物型のロボットにより人間とコミュニケーションを図り、様々なサービスを提供する技術が提案されている。 In recent years, technologies for communicating with humans using human-shaped or animal-shaped robots and providing various services have been proposed.

例えば下記特許文献1では、ロボットに「ぬくもり」(温度)を与え、使用者がロボットの「体温」を感じ取ることができ、その結果、動物に接触している感覚に近いロボットについて記載されている。また、下記特許文献2では、実在に飼育しているペットを海外旅行等に連れていくことができない場合に、実在のペットの特徴をロボットに記憶し、ロボットを実在のペットのように振る舞わせることができるロボットサービスシステムについて記載されている。ペットの特徴とは、色、形、声、臭い、皮膚または体毛の感触、動作の特徴等の特徴であって、さらに動作の特徴としては、移動活動、排泄活動、捕食活動、睡眠活動の特徴が含まれている。 For example, Patent Document 1 below describes a robot that gives "warmth" (temperature) to the robot so that the user can sense the "body temperature" of the robot, and as a result, the robot feels like being in contact with an animal. .. Further, in Patent Document 2 below, when a pet that is actually bred cannot be taken to an overseas trip, etc., the characteristics of the actual pet are memorized in the robot, and the robot behaves like a real pet. Describes the robot service system that can be. Pet characteristics include color, shape, voice, odor, skin or hair feel, and movement characteristics, and movement characteristics include movement activity, excretion activity, predation activity, and sleep activity. It is included.

また、下記特許文献3では、人が動物と一緒にいるときの健康度(心身状態)を測定するシステムについて記載されている。また、下記特許文献4では、電子ペットに蓄積された飼い主のプライベート情報の漏洩を防ぐ電子ペットシステムについて記載されている。 Further, Patent Document 3 below describes a system for measuring the degree of health (mental and physical condition) when a person is with an animal. Further, Patent Document 4 below describes an electronic pet system that prevents leakage of the owner's private information stored in the electronic pet.

特開2009-160730号公報Japanese Unexamined Patent Publication No. 2009-160730 特開2005-099934号公報Japanese Unexamined Patent Publication No. 2005-09934 特開2003-319921号公報Japanese Patent Application Laid-Open No. 2003-319921 特開2003-071143号公報Japanese Patent Application Laid-Open No. 2003-071143

上述した特許文献2では、猫や犬などの実在のペットの振る舞いをセンサで認識し、そのデータをシステムに保存し、ハードウェアによるロボットにそのデータをロードし、ロボット上にてペットの振る舞い(動作の特徴)を再現させることが可能であるが、再現される振る舞いは、ペットの一方向的な動き(移動活動、睡眠活動等)であった。 In Patent Document 2 described above, the behavior of a real pet such as a cat or a dog is recognized by a sensor, the data is stored in the system, the data is loaded into a robot by hardware, and the behavior of the pet on the robot ( It is possible to reproduce (characteristics of movement), but the behavior reproduced was one-way movement (movement activity, sleep activity, etc.) of the pet.

しかしながら、飼い主との触れ合いによるペット特有の動作(すなわち、インタラクション特性)までは再現することは出来ていなかった。 However, it was not possible to reproduce the pet-specific movements (that is, interaction characteristics) due to contact with the owner.

そこで、本開示では、ユーザの振る舞いに対する実在または仮想の生物のインタラクション特性を再現することが可能な仮想生物制御システム、仮想生物制御方法、および記録媒体を提案する。 Therefore, the present disclosure proposes a virtual organism control system, a virtual organism control method, and a recording medium capable of reproducing the interaction characteristics of a real or virtual organism with respect to the behavior of a user.

本開示によれば、ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積する蓄積部と、仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信する通信部と、前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御する制御部と、を備える、仮想生物制御システムを提案する。 According to the present disclosure, a request for requesting the interaction characteristic data is received from a storage unit that stores interaction characteristic data indicating the interaction characteristics of the object with respect to the user and a virtual biological device for each user ID and object ID. At the same time, the communication unit that returns the interaction characteristic data and the virtual organism ID included in the request in response to the request for the interaction characteristic data received from the virtual organism device via the communication unit are specified. A virtual organism including a control unit that searches for the interaction characteristic data from the storage unit based on the user ID and controls the searched interaction characteristic data to be returned via the communication unit. Propose a control system.

本開示によれば、仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、前記インタラクション特性データを蓄積する蓄積部と、前記ユーザの振る舞いをセンシングするセンサ部と、前記ユーザの振る舞いに対して反応するリアクション部と、前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、を備える、仮想生物制御システムを提案する。 According to the present disclosure, a communication unit that sends a request for interaction characteristic data indicating the characteristics of an interaction with a user of a virtual organism and receives the interaction characteristic data returned from the server in response to the request, and the interaction. The sensor unit that stores the characteristic data, the sensor unit that senses the behavior of the user, the reaction unit that reacts to the behavior of the user, and the interaction characteristic data received by the communication unit. We propose a virtual biological control system including a control unit that controls the reaction unit so as to react to the behavior of the user sensed by the unit.

本開示によれば、プロセッサが、ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積部に蓄積することと、通信部を介して、仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信することと、前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御することと、を含む、仮想生物制御方法を提案する。 According to the present disclosure, the processor stores the interaction characteristic data indicating the interaction characteristics of the object with the user in the storage unit in units of the user ID and the object ID, and from the virtual biological device via the communication unit. In response to a request for requesting the interaction characteristic data, returning the interaction characteristic data, and requesting the interaction characteristic data received from the virtual biological device via the communication unit, the request is made. Based on the virtual organism ID included in the above and the specified user ID, the interaction characteristic data is searched from the storage unit, and the searched interaction characteristic data is controlled to be returned via the communication unit. We propose virtual biological control methods, including what to do.

本開示によれば、コンピュータを、仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、前記インタラクション特性データを蓄積する蓄積部と、前記ユーザの振る舞いをセンシングするセンサ部と、前記ユーザの振る舞いに対して反応するリアクション部と、前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、として機能させるためのプログラムが記憶された、記憶媒体を提案する。 According to the present disclosure, a computer is provided with a communication unit that sends a request for interaction characteristic data indicating the characteristics of interaction with a user of a virtual organism, and receives the interaction characteristic data returned from the server in response to the request. , The storage unit that stores the interaction characteristic data, the sensor unit that senses the behavior of the user, the reaction unit that reacts to the behavior of the user, and the interaction characteristic data received by the communication unit. We propose a storage medium in which a program for functioning as a control unit that controls the reaction unit so as to react to the behavior of the user sensed by the sensor unit is stored.

以上説明したように本開示によれば、ユーザの振る舞いに対する実在または仮想の生物のインタラクション特性を再現することが可能となる。 As described above, according to the present disclosure, it is possible to reproduce the interaction characteristics of a real or virtual organism with respect to the behavior of the user.

なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。 It should be noted that the above effects are not necessarily limited, and either along with or in place of the above effects, any of the effects shown herein, or any other effect that can be ascertained from this specification. May be played.

本開示の一実施形態による情報処理システムの概要を説明する図である。It is a figure explaining the outline of the information processing system by one Embodiment of this disclosure. 本開示の一実施形態による情報処理システムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the information processing system by one Embodiment of this disclosure. 本開示の一実施形態によるペットロボットの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the pet robot by one Embodiment of this disclosure. 本開示の一実施形態による制御部および記憶部の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the control part and the storage part by one Embodiment of this disclosure. 本開示の一実施形態によるインタラクション特性データの一例を示す図である。It is a figure which shows an example of the interaction characteristic data by one Embodiment of this disclosure. 本開示の一実施形態によるペットの反応パターン実行に必要なペットの愛情度の一例を示す図である。It is a figure which shows an example of the affection degree of a pet necessary to execute the reaction pattern of a pet by one Embodiment of this disclosure. 本開示の一実施形態によるサーバの構成の一例を示すブロック図である。It is a block diagram which shows an example of the configuration of the server by one Embodiment of this disclosure. 本開示の一実施形態によるサーバの記憶部の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the storage part of the server by one Embodiment of this disclosure. 本開示の一実施形態によるサーバのユーザ管理について説明する図である。It is a figure explaining the user management of the server by one Embodiment of this disclosure. 第1の実施例の概要について説明する図である。It is a figure explaining the outline of the 1st Example. 第1の実施例によるログイン時の動作処理を示すシーケンス図である。It is a sequence diagram which shows the operation process at the time of login by 1st Embodiment. 第1の実施例によるユーザ管理テーブルおよびインタラクション特性管理テーブル322のデータ例を示す図である。It is a figure which shows the data example of the user management table and interaction characteristic management table 322 by 1st Embodiment. 第1の実施例によるペットロボットの動作処理を示すフローチャートである。It is a flowchart which shows the motion processing of the pet robot by 1st Embodiment. 第1の実施例のサーバによるインタラクション特性データの更新処理を示すフローチャートである。It is a flowchart which shows the update process of the interaction characteristic data by the server of 1st Example. 第2の実施例の概要について説明する図である。It is a figure explaining the outline of the 2nd Example. 第2の実施例によるログイン時の動作処理を示すシーケンス図である。It is a sequence diagram which shows the operation process at the time of login by 2nd Embodiment. 第2の実施例によるユーザ端末のタイニーペットロボットの動作制御処理を示すフローチャートである。It is a flowchart which shows the motion control process of the tiny pet robot of a user terminal by 2nd Embodiment. 第2の実施例のサーバによるインタラクション特性データの更新処理を示すフローチャートである。It is a flowchart which shows the update process of the interaction characteristic data by the server of 2nd Example. 第3の実施例の概要について説明する図である。It is a figure explaining the outline of the 3rd Example. 第3の実施例によるログイン時の動作処理を示すシーケンス図である。It is a sequence diagram which shows the operation process at the time of login according to 3rd Embodiment. 監視カメラ管理テーブルとペット周辺デバイス管理テーブルのデータ例を示す図である。It is a figure which shows the data example of the surveillance camera management table and the pet peripheral device management table. 第3の実施例による情報処理端末の動作処理を示すフローチャートである。It is a flowchart which shows the operation process of the information processing terminal by 3rd Embodiment. 第3の実施例のサーバによるインタラクション特性データの更新処理を示すフローチャートである。It is a flowchart which shows the update process of the interaction characteristic data by the server of 3rd Example. 第4の実施例の概要について説明する図である。It is a figure explaining the outline of the 4th Example. 第4の実施例によるペット周辺デバイスへのデータ読み込み動作処理を示すシーケンス図である。It is a sequence diagram which shows the data reading operation process to the pet peripheral device by 4th Embodiment. 第4の実施例によるペット周辺デバイスの動作処理を示すフローチャートである。It is a flowchart which shows the operation process of the pet peripheral device by 4th Embodiment. 第4の実施例によるペット周辺デバイスの動作処理を示すフローチャートである。It is a flowchart which shows the operation process of the pet peripheral device by 4th Embodiment. 第4の実施例によるペット周辺デバイス表現データの一例を示す図である。It is a figure which shows an example of the pet peripheral device representation data by 4th Example. タイプの異なるペットロボットでの利用について説明する図である。It is a figure explaining the use in the pet robot of different types. 第5の実施例 によるアタッチメントデバイスの一例を示す図である。It is a figure which shows an example of the attachment device by 5th Embodiment. 第5の実施例による駆動能力の拡張について具体的に説明する図である。It is a figure which explains concretely about the expansion of the driving capacity by 5th Embodiment. 第5の実施例によるペットロボットの動作処理を示すフローチャートである。It is a flowchart which shows the motion processing of the pet robot according to 5th Embodiment.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.構成
2-1.全体構成
2-2.ペットロボット1の構成
2-3.サーバ3の構成
3.実施例
3-1.第1の実施例(ペットロボットの例)
3-2.第2の実施例(タイニーペットロボットの例)
3-3.第3の実施例(実在のペットの例)
3-4.第4の実施例(ペット周辺デバイスの例)
3-5.第5の実施例(アタッチメントデバイスの例)
4.まとめ
In addition, the explanation shall be given in the following order.
1. 1. Outline of information processing system according to one embodiment of the present disclosure 2. Configuration 2-1. Overall configuration 2-2. Configuration of pet robot 1 2-3. Configuration of server 3 3. Example 3-1. First Example (Example of Pet Robot)
3-2. Second Example (Example of Tiny Pet Robot)
3-3. Third Example (Example of a real pet)
3-4. Fourth Example (Example of Pet Peripheral Device)
3-5. Fifth Example (Example of Attachment Device)
4. summary

<<1.本開示の一実施形態による情報処理システムの概要>>
本開示の一実施形態による情報処理システム(仮想生物制御システム)は、ユーザの振る舞いに対する実在または仮想の生物のインタラクション特性を再現することを可能とする。図1は、本実施形態による情報処理システムの概要を説明する図である。
<< 1. Outline of information processing system according to one embodiment of the present disclosure >>
The information processing system (virtual organism control system) according to the embodiment of the present disclosure makes it possible to reproduce the interaction characteristics of a real or virtual organism with respect to the behavior of the user. FIG. 1 is a diagram illustrating an outline of an information processing system according to the present embodiment.

本開示による情報処理システムでは、図1に示すように、例えば自宅で飼っている実在のペット4(実在の生物の一例)とユーザとの触れ合い(インタラクション)を、監視カメラ80、ペット4に装着されたセンサデバイス84、およびユーザに装着されたセンサデバイス82等により検出し、当該インタラクションの特性を示すインタラクション特性データを取得する。センサデバイス82、84は、例えば加速度センサを有する動きセンサデバイスであって、ユーザの手首、腕、ペット4の足首、首等に装着される。また、センサデバイス82、84は、さらに生体センサ、圧力センサ、またはマイクロホン等を有していてもよい。そして、本開示による情報処理システムでは、ペット4から取得したインタラクション特性データを、ペットロボット1A、1B、または1C(仮想生物デバイスの一例)にロードすることで、ペット4のインタラクション特性をペットロボット1で再現することが可能となる。本明細書において、インタラクション特性は、ユーザの振る舞い(ペットに対する接し方)に対応するペットの反応パターンのデータを含む。また、ペットロボット1(情報処理装置)は、外観形状が犬、猫、ウサギ等の動物に模して形成された、エンターテインメント性を有するロボットである。ペットロボット1は、目や脚等を自律的に動作させて動物のような仕草を表出することが可能なエージェントの一例である。 In the information processing system according to the present disclosure, as shown in FIG. 1, for example, an interaction between a real pet 4 (an example of a real creature) kept at home and a user is attached to the surveillance camera 80 and the pet 4. It is detected by the sensor device 84, the sensor device 82 attached to the user, and the like, and the interaction characteristic data indicating the characteristic of the interaction is acquired. The sensor devices 82 and 84 are motion sensor devices having, for example, an acceleration sensor, and are attached to a user's wrist, arm, ankle, neck, etc. of the pet 4. Further, the sensor devices 82 and 84 may further include a biological sensor, a pressure sensor, a microphone, or the like. Then, in the information processing system according to the present disclosure, the interaction characteristic data of the pet 4 is loaded into the pet robot 1A, 1B, or 1C (an example of a virtual biological device) by loading the interaction characteristic data of the pet 4 into the pet robot 1. It is possible to reproduce with. In the present specification, the interaction characteristic includes data of the reaction pattern of the pet corresponding to the behavior of the user (how to treat the pet). Further, the pet robot 1 (information processing device) is a robot having entertainment properties, which is formed by imitating an animal such as a dog, a cat, or a rabbit in its external shape. The pet robot 1 is an example of an agent capable of autonomously moving its eyes, legs, and the like to express animal-like gestures.

これにより、例えばユーザがペットの首の後ろを特定の撫で方で撫でると、ペットが体を丸めて目を閉じ、前足を伸ばして尻尾を下げ、気持ちよさそうにするという、ペット固体特有の反応パターンをペットロボット1で再現し、より本物のペット4に近付けることができる。例えばロボット猫カフェ等のショップに用意されているペットロボットに、所定のインタラクション特性データを読み込ませることで、物理的には初めて出会うペットロボット1に対しても、これまでの蓄積されたペットとの触れ合い履歴に基づいて楽しむことができる。 This is a reaction pattern peculiar to pet individuals, for example, when the user strokes the back of the pet's neck with a specific stroke, the pet curls up, closes its eyes, stretches its front legs and lowers its tail, making it feel good. Can be reproduced by the pet robot 1 to bring it closer to the real pet 4. For example, by having a pet robot prepared in a shop such as a robot cat cafe read predetermined interaction characteristic data, even the pet robot 1 that is physically encountered for the first time can be regarded as a pet accumulated so far. You can enjoy it based on the contact history.

また、本開示による情報処理システムは、実在の生物のインタラクション特性をペットロボット1で再現することに限定されず、例えば学習型のペットロボットのインタラクション特性を蓄積しておき、当該ペットロボットが故障してしまった場合等に、他のペットロボットにインタラクション特性データを読み込ませて、故障したペットロボットと積み重ねたインタラクション特性を再現することが可能となる。 Further, the information processing system according to the present disclosure is not limited to reproducing the interaction characteristics of a real organism with the pet robot 1, for example, the interaction characteristics of a learning type pet robot are accumulated, and the pet robot breaks down. In such a case, it is possible to have another pet robot read the interaction characteristic data and reproduce the interaction characteristics accumulated with the failed pet robot.

また、仮想生物は、図1に示すようなハードウェアのペットロボット1に限定されず、スマートフォン、タブレット端末、またはゲーム機等の情報処理端末上で動作するソフトウェアによるバーチャルペット(タイニーペットロボットとも称す)であってもよい。 Further, the virtual creature is not limited to the hardware pet robot 1 as shown in FIG. 1, and is a virtual pet (also referred to as a tiny pet robot) by software that operates on an information processing terminal such as a smartphone, a tablet terminal, or a game machine. ) May be.

以上説明したように、本開示による情報処理システムは、実在または仮想の生物(オブジェクト)のユーザに対するインタラクション(ユーザの振る舞いに対する反応パターン)の特性を示すインタラクション特性データを、仮想生物デバイス(ロボットまたは仮想生物育成アプリケーションが実装されるデバイス)にロードし、再現することを可能とする。 As described above, the information processing system according to the present disclosure collects interaction characteristic data indicating the characteristics of the interaction (reaction pattern with respect to the behavior of the user) of a real or virtual organism (object) with the user of the virtual organism device (robot or virtual). It can be loaded and reproduced on a device on which a biological breeding application is implemented.

<<2.構成>>
<2-1.全体構成>
続いて、本開示の一実施形態による情報処理システムの全体構成について図1を参照して説明する。図2は、本実施形態による情報処理システムの全体構成の一例を示す図である。図2に示すように、本実施形態による情報処理システムは、実在のペット4のインタラクション特性データをペット4や監視カメラ80から取得する情報処理端末8や、ペットロボット1(1A~1C)、若しくはペット育成アプリケーションを実装するユーザ端末5と、サーバ3を含む。情報処理端末8、ペットロボット1、およびユーザ端末5は、ネットワーク2を介してサーバ3と接続し、データの送受信が可能である。
<< 2. Configuration >>
<2-1. Overall configuration>
Subsequently, the overall configuration of the information processing system according to the embodiment of the present disclosure will be described with reference to FIG. FIG. 2 is a diagram showing an example of the overall configuration of the information processing system according to the present embodiment. As shown in FIG. 2, in the information processing system according to the present embodiment, the information processing terminal 8 that acquires the interaction characteristic data of the actual pet 4 from the pet 4 or the surveillance camera 80, the pet robot 1 (1A to 1C), or the pet robot 1 (1A to 1C), or It includes a user terminal 5 that implements a pet breeding application and a server 3. The information processing terminal 8, the pet robot 1, and the user terminal 5 are connected to the server 3 via the network 2 and can transmit and receive data.

情報処理端末8やペットロボット1で取得されたインタラクション特性データは、ネットワーク2を介してサーバ3に送信され、サーバ3により保存および管理される。情報処理端末8は、例えばスマートフォン、タブレット端末、携帯電話、PC、またはゲーム機等であってもよい。 The interaction characteristic data acquired by the information processing terminal 8 and the pet robot 1 is transmitted to the server 3 via the network 2, and is stored and managed by the server 3. The information processing terminal 8 may be, for example, a smartphone, a tablet terminal, a mobile phone, a PC, a game machine, or the like.

これにより、例えば実在のペット4のインタラクション特性をペットロボット1やユーザ端末5のアプリケーション上で動作するタイニーペットロボット50で再現したり、ペットロボット1のインタラクション特性を他のペットロボット1やタイニーペットロボット50で再現したりすることができる。 As a result, for example, the interaction characteristics of the actual pet 4 can be reproduced by the tiny pet robot 50 operating on the application of the pet robot 1 or the user terminal 5, and the interaction characteristics of the pet robot 1 can be reproduced by another pet robot 1 or the tiny pet robot. It can be reproduced at 50.

なお図2に示す例では、サーバ3によりインタラクション特性データの保存、管理を行う場合について説明したが、本開示はこれに限定されず、例えばインタラクション特性データをペットロボット1やユーザ端末5から飼い主カード(不図示)に直接保存してもよい。ユーザは、飼い主カードを他のペットロボット1やユーザ端末5のリーダーにかざしインタラクション特性データを直接読み込ませることが可能である。 In the example shown in FIG. 2, the case where the interaction characteristic data is stored and managed by the server 3 has been described, but the present disclosure is not limited to this, and for example, the interaction characteristic data is transferred from the pet robot 1 or the user terminal 5 to the owner card. It may be stored directly in (not shown). The user can hold the owner card over the reader of another pet robot 1 or the user terminal 5 to directly read the interaction characteristic data.

<2-2.ペットロボット1の構成>
次に、本実施形態によるペットロボット1の構成について図3を参照して説明する。図3は、本実施形態によるペットロボット1の構成の一例を示すブロック図である。図3に示すように、ペットロボット1は、制御部10、通信部11、位置情報取得部14、カメラ15、音声入力部16、生体センサ17、駆動部18、圧力センサ19、記憶部20、音声出力部22、加速度センサ23、および角速度センサ24を有する。
<2-2. Configuration of pet robot 1>
Next, the configuration of the pet robot 1 according to the present embodiment will be described with reference to FIG. FIG. 3 is a block diagram showing an example of the configuration of the pet robot 1 according to the present embodiment. As shown in FIG. 3, the pet robot 1 includes a control unit 10, a communication unit 11, a position information acquisition unit 14, a camera 15, a voice input unit 16, a biological sensor 17, a drive unit 18, a pressure sensor 19, and a storage unit 20. It has an audio output unit 22, an acceleration sensor 23, and an angular velocity sensor 24.

制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従ってペットロボット1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。 The control unit 10 functions as an arithmetic processing unit and a control device, and controls the overall operation in the pet robot 1 according to various programs. The control unit 10 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor. Further, the control unit 10 may include a ROM (Read Only Memory) for storing programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) for temporarily storing parameters and the like that change as appropriate.

また、本実施形態による制御部10は、通信部11、位置情報取得部14、カメラ15、音声入力部16、生体センサ17、圧力センサ19、加速度センサ23、または角速度センサ24等から得た各種情報に応じて自動的に動作する自律制御を行い得る。 Further, the control unit 10 according to the present embodiment is various obtained from the communication unit 11, the position information acquisition unit 14, the camera 15, the voice input unit 16, the biological sensor 17, the pressure sensor 19, the acceleration sensor 23, the angular velocity sensor 24, and the like. Autonomous control that operates automatically according to information can be performed.

通信部11は、他の装置との間でデータの送受信を行うための通信モジュールである。例えば通信部11は、ネットワーク2を介して各種サーバと接続し、データの送受信を行ったり、Bluetooth(登録商標)やWi-Fi(登録商標)により周辺デバイスと直接接続し、データの送受信を行ったりする。 The communication unit 11 is a communication module for transmitting and receiving data to and from other devices. For example, the communication unit 11 connects to various servers via the network 2 to send and receive data, and directly connects to peripheral devices via Bluetooth (registered trademark) and Wi-Fi (registered trademark) to send and receive data. Or something.

位置情報取得部14は、外部からの取得信号に基づいてペットロボット1の現在位置を検知する機能を有する。具体的には、例えば位置情報取得部14は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信してペットロボット1が存在している位置を検知し、検知した位置情報を制御部10に出力する。かかる位置情報は、ペットロボット1の位置ログとして記憶部20に蓄積されてもよい。また、位置情報取得部14は、GPSの他、例えばWi-Fi、Bluetooth、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。 The position information acquisition unit 14 has a function of detecting the current position of the pet robot 1 based on an acquisition signal from the outside. Specifically, for example, the position information acquisition unit 14 is realized by a GPS (Global Positioning System) positioning unit, receives radio waves from GPS satellites, detects the position where the pet robot 1 exists, and detects the position. Information is output to the control unit 10. Such position information may be stored in the storage unit 20 as a position log of the pet robot 1. Further, the position information acquisition unit 14 may detect the position by, for example, Wi-Fi, Bluetooth, transmission / reception with a mobile phone / PHS / smartphone, or short-range communication, in addition to GPS.

カメラ15は、撮像レンズ、絞り、ズームレンズ、およびフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal
Oxide Semiconductor)センサアレイにより実現されてもよい。
The camera 15 photoelectrically converts the image pickup light obtained by the lens system including the image pickup lens, the diaphragm, the zoom lens, the focus lens, the drive system that causes the lens system to perform the focus operation and the zoom operation, and the lens system. It has a solid-state image sensor array or the like that generates an image pickup signal. The solid-state image sensor array is, for example, a CCD (Charge Coupled Device) sensor array or a CMOS (Complementary Metal).
It may be realized by an Oxide Semiconductor) sensor array.

音声入力部16は、ユーザの音声や周囲の環境音を収音し、音声信号を制御部10に出力する。音声入力部16は、マイクロホンと、そのマイクロホンで得られた音声信号を増幅処理するマイクアンプ部と、音声信号にデジタル変換するA/D変換器により実現され、音声信号を制御部10に出力する。 The voice input unit 16 collects the user's voice and surrounding environmental sounds, and outputs the voice signal to the control unit 10. The audio input unit 16 is realized by a microphone, a microphone amplifier unit that amplifies the audio signal obtained by the microphone, and an A / D converter that digitally converts the audio signal into an audio signal, and outputs the audio signal to the control unit 10. ..

生体センサ17は、ペットロボット1に触れたユーザの生体情報を検出する。ユーザの生体情報とは、例えば体温、発汗量、脈拍、指紋、掌紋、血圧、脳波等である。 The biosensor 17 detects the biometric information of the user who touches the pet robot 1. The user's biological information is, for example, body temperature, sweating amount, pulse, fingerprint, palm print, blood pressure, brain wave and the like.

駆動部18は、ペットロボット1の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど軸毎に設けられた複数の駆動ユニットで構成される。各駆動ユニットは、所定軸回りの回転動作を行なうモーターと、モーターの回転位置を検出するエンコーダーと、エンコーダーの出力に基づいてモーターの回転位置や回転速度を適応的に制御するドライバーの組み合わせで構成される。 The drive unit 18 is a functional module for realizing the degree of freedom in each joint of the pet robot 1, and is composed of a plurality of drive units provided for each axis such as roll, pitch, and yaw in each joint. Each drive unit consists of a combination of a motor that rotates around a predetermined axis, an encoder that detects the rotation position of the motor, and a driver that adaptively controls the rotation position and rotation speed of the motor based on the output of the encoder. Will be done.

圧力センサ19は、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出する。なおペットロボット1は、圧力センサ19の代わりに、あるいは追加して、タッチセンサを有していてもよい。 The pressure sensor 19 detects the pressure received by a physical action such as "stroking" or "tapping" from the user. The pet robot 1 may have a touch sensor in place of or in addition to the pressure sensor 19.

記憶部20は、制御部10が各種処理を実行するためのプログラム等を記憶する。また、記憶部20は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含むストレージ装置により構成される。 The storage unit 20 stores a program or the like for the control unit 10 to execute various processes. Further, the storage unit 20 includes a storage device including a storage medium, a recording device for recording data on the storage medium, a reading device for reading data from the storage medium, a deletion device for deleting data recorded on the storage medium, and the like. ..

表示部21は、操作画面やメニュー画面等の各種画面を表示する。表示部21は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイなどの表示装置であってもよい。 The display unit 21 displays various screens such as an operation screen and a menu screen. The display unit 21 may be, for example, a display device such as a liquid crystal display (LCD) or an organic EL (Electroluminescence) display.

音声出力部22は、スピーカと、そのスピーカに対するアンプ回路により実現される。また、音声出力部22は、鳴き声等の音声を出力する。 The audio output unit 22 is realized by a speaker and an amplifier circuit for the speaker. In addition, the voice output unit 22 outputs voice such as a bark.

加速度センサ23および角速度センサ24は、ペットロボット1の向きや動きの加速度を検出する。 The acceleration sensor 23 and the angular velocity sensor 24 detect the acceleration of the direction and movement of the pet robot 1.

以上、本実施形態によるペットロボット1の構成について具体的に説明した。なお本実施形態によるペットロボット1の構成は図2に示す例に限定されず、例えば地磁気センサ、超音波センサ、近接センサ、照度センサ、温度センサ、または気圧センサ等の他のセンサを有していてもよい。また、ペットロボット1は、前方に位置する物体までの距離を測定するための距離センサとして上述したカメラ15を用いてもよいし、別途、赤外線等の方式を用いた距離センサを備えてもよい。 The configuration of the pet robot 1 according to the present embodiment has been specifically described above. The configuration of the pet robot 1 according to the present embodiment is not limited to the example shown in FIG. 2, and has other sensors such as a geomagnetic sensor, an ultrasonic sensor, a proximity sensor, an illuminance sensor, a temperature sensor, and a pressure sensor. You may. Further, the pet robot 1 may use the above-mentioned camera 15 as a distance sensor for measuring the distance to an object located in front, or may separately include a distance sensor using a method such as infrared rays. ..

また、ペットロボット1は、例えば図2に示すように、胴体部ユニット200と、胴体部ユニット200の前後左右にそれぞれ連結された脚部ユニット201と、胴体部ユニット200の前端部および後端部にそれぞれ連結された頭部ユニット202と、尻尾部ユニット203から構成されていてもよい。胴体部ユニット200には、CPU(Central Processing Unit)、DRAM(Dynamic Random
Access Memory)、フラッシュROM(Read 0nly Memory)、PC(Personal Computer)カードインターフェース回路および信号処理回路が内部バスを介して相互に接続されることにより形成された制御部10と、ペットロボット1の動力源としてのバッテリとが収納されている。また、胴体部ユニット200には、通信部11、位置情報取得部14、生体センサ17、記憶部20、加速度センサ23、および角速度センサ24なども収納されている。
Further, as shown in FIG. 2, for example, the pet robot 1 includes a body unit 200, leg units 201 connected to the front, rear, left and right sides of the body unit 200, and front and rear ends of the body unit 200. It may be composed of a head unit 202 and a tail unit 203, respectively, which are connected to each other. The body unit 200 includes a CPU (Central Processing Unit) and a DRAM (Dynamic Random).
Access Memory), flash ROM (Read 0nly Memory), PC (Personal Computer) card interface circuit and signal processing circuit are connected to each other via an internal bus to form a control unit 10, and the power of the pet robot 1. It contains a battery as a source. Further, the body unit 200 also houses a communication unit 11, a position information acquisition unit 14, a biological sensor 17, a storage unit 20, an acceleration sensor 23, an angular velocity sensor 24, and the like.

また、頭部ユニット202には、外部の状況を撮像するためのカメラ15と、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するための圧力センサ19と、外部音を集音するための音声入力部16と、鳴き声等の音声を出力するための音声出力部22と、前方に位置する物体までの距離を測定するための距離センサ(図示せず)となどがそれぞれ所定位置に配置されている。カメラ15は、ペットロボット1の「目」に相当する位置に設けられてもよい。また、カメラ15を頭部ユニット202の額部分に配置し、「目」に相当する位置にはLED(Light Emitting Diode)(図示せず)を配置してもよい。また、頭部ユニット202の「耳」に相当する位置に音声入力部16を配置し、頭部ユニット202の「口」に相当する位置に音声出力部22を配置してもよい。なお、物理的な働きかけにより受けた圧力を検出するための圧力センサ19は、頭部ユニット202に限定されず、胴体部ユニット200、脚部ユニット201、および尻尾部ユニット203など、複数設けられていてもよい。 Further, the head unit 202 includes a camera 15 for capturing an external situation, a pressure sensor 19 for detecting the pressure received by a physical action such as "stroking" or "tapping" from the user. An audio input unit 16 for collecting external sounds, an audio output unit 22 for outputting sounds such as barks, and a distance sensor (not shown) for measuring the distance to an object located in front of the object. Etc. are arranged at predetermined positions. The camera 15 may be provided at a position corresponding to the "eyes" of the pet robot 1. Further, the camera 15 may be arranged on the forehead portion of the head unit 202, and an LED (Light Emitting Diode) (not shown) may be arranged at a position corresponding to the “eyes”. Further, the voice input unit 16 may be arranged at a position corresponding to the “ears” of the head unit 202, and the voice output unit 22 may be arranged at a position corresponding to the “mouth” of the head unit 202. The pressure sensor 19 for detecting the pressure received by the physical action is not limited to the head unit 202, and a plurality of pressure sensors 19 such as the body unit 200, the leg unit 201, and the tail unit 203 are provided. You may.

さらに、各脚部ユニット201の関節部分や各脚部ユニット201および胴体部ユニット200の各連結部分、並びに頭部ユニット202および胴体部ユニット200の連結部分などにはそれぞれ自由度数分のアクチュエータおよびポテンショメータが配設されている。例えば、アクチュエータはサーボモータを構成として有している。サーボモータの駆動により、脚部ユニット201が制御されて、目標の姿勢あるいは動作に遷移する。 Further, actuators and potentiometers for the number of degrees of freedom are attached to the joint portion of each leg unit 201, the connecting portion of each leg unit 201 and the body unit 200, and the connecting portion of the head unit 202 and the body unit 200, respectively. Are arranged. For example, the actuator has a servomotor as a configuration. By driving the servomotor, the leg unit 201 is controlled to transition to the target posture or operation.

以上説明したペットロボット1の具体的な構成例については、例えば特開2002-157596号公報を参照する。特開2002-157596号公報は、その全ての内容について、本参照により本明細書に組み込まれる(The entire contents of JP 2002-157596 are hereby incorporated by
reference.)。
For a specific configuration example of the pet robot 1 described above, refer to, for example, Japanese Patent Application Laid-Open No. 2002-157596. JP 2002-157596 are hereby incorporated by JP 2002-157596 are hereby incorporated by JP 2002-157596 are hereby incorporated by JP 2002-157596 are hereby incorporated by
reference.).

また、図3を参照して説明したペットロボット1の構成は、ペットロボット1がタイニーペットロボットの場合にも応用可能である。具体的には、タイニーペットロボットを表示する表示端末(図2に示すユーザ端末5)が、上記制御部10、通信部11、位置情報取得部14、カメラ15、音声入力部16、生体センサ17、圧力センサ19、記憶部20、および音声出力部22に相当する構成と、表示部とを有する。表示部は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイなどの表示装置であって、タッチパネルディスプレイであってもよい。タイニーペットロボットは表示部に表示され、ユーザとインタラクションを行い得る。 Further, the configuration of the pet robot 1 described with reference to FIG. 3 can be applied even when the pet robot 1 is a tiny pet robot. Specifically, the display terminal (user terminal 5 shown in FIG. 2) that displays the tiny pet robot is the control unit 10, the communication unit 11, the position information acquisition unit 14, the camera 15, the voice input unit 16, and the biosensor 17. , A configuration corresponding to a pressure sensor 19, a storage unit 20, and an audio output unit 22, and a display unit. The display unit is, for example, a display device such as a liquid crystal display (LCD) or an organic EL (Electroluminescence) display, and may be a touch panel display. The tiny pet robot is displayed on the display unit and can interact with the user.

(機能構成)
続いて、制御部10および記憶部20の機能構成について図4を参照して説明する。図4は、本開示の一実施形態による制御部10および記憶部20の機能構成例を示すブロック図である。図には、ペットロボット1の制御部10の機能として、ユーザ振る舞い判定部101と、ペット動作制御部102とが、示されている。また、ペットロボット1の記憶部20の機能として、センサデータ一時記憶部210と、インタラクション特性データ記憶部212とが、示されている。以下、それぞれの構成要素についてさらに説明する。
(Functional configuration)
Subsequently, the functional configurations of the control unit 10 and the storage unit 20 will be described with reference to FIG. FIG. 4 is a block diagram showing a functional configuration example of the control unit 10 and the storage unit 20 according to the embodiment of the present disclosure. In the figure, a user behavior determination unit 101 and a pet motion control unit 102 are shown as functions of the control unit 10 of the pet robot 1. Further, as a function of the storage unit 20 of the pet robot 1, a sensor data temporary storage unit 210 and an interaction characteristic data storage unit 212 are shown. Hereinafter, each component will be further described.

ユーザ振る舞い判定部101は、カメラ15、音声入力部16、生体センサ17、圧力センサ19、若しくはユーザが手首等に装着しているセンサデバイス(例えば加速度センサやマイクロホンが搭載されたウェアラブルデバイス)等から得た各種情報(センサデータ)に基づいて、ペットロボット1に対するユーザの振る舞いを判定する。ユーザの振る舞いとは、例えば「頭を強めになでる」、「背中をなでる」、「喉元を指でなでる」、「声掛けをする」、「強く抱きしめる」等の、ユーザのペットに対する接し方(ペットとの距離、ペットに近付いた時の行動パターン、またはペットへの声掛けを含む)を示す。カメラ15、音声入力部16、生体センサ17、および圧力センサ19等から得られる各種情報(センサデータ)は、センサデータ一時記憶部210に記憶される。 The user behavior determination unit 101 is from a camera 15, a voice input unit 16, a biological sensor 17, a pressure sensor 19, or a sensor device (for example, a wearable device equipped with an acceleration sensor or a microphone) worn by the user on the wrist or the like. Based on the various information (sensor data) obtained, the behavior of the user with respect to the pet robot 1 is determined. The user's behavior is how to treat the user's pet, such as "stretching the head", "stroking the back", "stroking the throat with a finger", "speaking", "strongly hugging", etc. Indicates the distance to the pet, the behavior pattern when approaching the pet, or the voice to the pet). Various information (sensor data) obtained from the camera 15, the voice input unit 16, the biological sensor 17, the pressure sensor 19, and the like are stored in the sensor data temporary storage unit 210.

ペット動作制御部102は、ユーザ振る舞い判定部101による判定結果に応じて、インタラクション特性データ記憶部212に記憶されているインタラクション特性データから、当該ユーザの振る舞いに対応するペットの反応パターンを抽出し、ペットロボット1の動作を制御する。ペットの反応パターンには、ペットの鳴き声も含まれ、ペット動作制御部102は、ペットロボット1の駆動部18による「動作」の制御に限らず、音声出力部22からの鳴き声の出力制御も行い得る。インタラクション特性データ記憶部212に記憶されているインタラクション特性データの一例については、図5を参照して後述する。 The pet motion control unit 102 extracts the reaction pattern of the pet corresponding to the behavior of the user from the interaction characteristic data stored in the interaction characteristic data storage unit 212 according to the determination result by the user behavior determination unit 101. Controls the operation of the pet robot 1. The reaction pattern of the pet includes the bark of the pet, and the pet motion control unit 102 not only controls the "movement" by the drive unit 18 of the pet robot 1, but also controls the output of the bark from the voice output unit 22. obtain. An example of the interaction characteristic data stored in the interaction characteristic data storage unit 212 will be described later with reference to FIG.

センサデータ一時記憶部210は、カメラ15、音声入力部16、生体センサ17、および圧力センサ19等から得た各種情報(センサデータ)を一次的に記憶する。また、センサデータ一時記憶部210に記憶されたセンサデータは、上述したユーザの振る舞いに対応する抽出されたペットの反応パターンと共に、制御部10により通信部11からサーバ3へ送信される。なおセンサデータに代えて、若しくは加えて、ユーザ振る舞い判定部101による判定結果がサーバ3に送信されてもよい。 The sensor data temporary storage unit 210 temporarily stores various information (sensor data) obtained from the camera 15, the voice input unit 16, the biological sensor 17, the pressure sensor 19, and the like. Further, the sensor data stored in the sensor data temporary storage unit 210 is transmitted from the communication unit 11 to the server 3 by the control unit 10 together with the reaction pattern of the extracted pet corresponding to the behavior of the user described above. In addition to or in addition to the sensor data, the determination result by the user behavior determination unit 101 may be transmitted to the server 3.

インタラクション特性データ記憶部212は、読み込んだインタラクション特性データを記憶する。ここで、図5に、インタラクション特性データの一例を示す。 The interaction characteristic data storage unit 212 stores the read interaction characteristic data. Here, FIG. 5 shows an example of interaction characteristic data.

図5に示すように、インタラクション特性データは、多数のユーザの振る舞いと、各振る舞いに設定されているペットの愛情度と、ペットの反応パターンとを含むデータ構成となっている。例えばペットロボット1に読み込まれるインタラクション特性の初期状態として、図5に示すように、インタラクション特性は、各ユーザの振る舞いに対して、ペットの反応パターンが複数定義され、各振る舞いに対して「愛情度」(変数)が設定されている。各振る舞いに設定されている愛情度は、例えばユーザのペットに対する振る舞いの頻度(または時間など)に応じて更新される。例えばユーザがよく行う振る舞いは、ユーザによるペットへの特別な振る舞い(愛情を示す振る舞い)であると判断され、当該振る舞いの愛情度が加算される。ここで、ペットの反応パターンにも、それぞれ「必要な愛情度」が定義されている。図6に、ペットの反応パターンを実行する際に必要な愛情度の一例を示す。かかる反応パターンの愛情度のデータも、インタラクション特性データに含まれる。図6に示すように、本実施形態では、ペットの反応パターン毎に必要な愛情度(の閾値)が設定されている。ペット動作制御部102は、ユーザの振る舞いに対して複数定義されている反応パターンのうち、現在のユーザの振る舞いの愛情度を超えない愛情度の反応パターンをランダムに選択し、ペットロボット1を制御する。例えば、「頭を強めになでる」というユーザの振る舞いが検出された場合、「頭を強めになでる」の愛情度は現在「5」であるため、対応する反応パターンのうち、「首を軽くうなだれる」の必要な愛情度は「6」であるため足りない。ペット動作制御部102は、条件を満たす反応パターン「ニャーと鳴く:愛情度『2』」および「体をまるめる:愛情度『5』」のうち、実行する反応パターンをランダムに選択する。 As shown in FIG. 5, the interaction characteristic data has a data structure including the behaviors of a large number of users, the affection level of the pet set for each behavior, and the reaction pattern of the pet. For example, as an initial state of the interaction characteristic read into the pet robot 1, as shown in FIG. 5, in the interaction characteristic, a plurality of pet reaction patterns are defined for each user's behavior, and the "love degree" for each behavior is defined. "(Variable) is set. The affection level set for each behavior is updated according to, for example, the frequency (or time, etc.) of the behavior of the user with respect to the pet. For example, a behavior that a user often performs is determined to be a special behavior (behavior showing affection) for a pet by the user, and the degree of affection for the behavior is added. Here, the "necessary degree of affection" is also defined for each pet's reaction pattern. FIG. 6 shows an example of the degree of affection required when performing a pet reaction pattern. Data on the degree of affection of such a reaction pattern is also included in the interaction characteristic data. As shown in FIG. 6, in the present embodiment, the required affection level (threshold value) is set for each reaction pattern of the pet. The pet motion control unit 102 randomly selects a reaction pattern having a degree of affection that does not exceed the degree of affection of the current user's behavior from among a plurality of reaction patterns defined for the behavior of the user, and controls the pet robot 1. do. For example, if the user's behavior of "stroking his head" is detected, the affection level of "stroking his head" is currently "5", so among the corresponding reaction patterns, "stroking the neck lightly" The required affection level is "6", which is not enough. The pet motion control unit 102 randomly selects a reaction pattern to be executed from the reaction patterns “meowing: affectionate degree“ 2 ”” and “rounding the body: affection degree“ 5 ”” that satisfy the conditions.

なお、図5および図6に示すような、初期状態のユーザの振る舞い項目、愛情度、反応パターン群、反応パターンの実行に必要な愛情度(閾値)は、予め一般的な犬や猫等から検出し、設定したものであってもよい。また、想定し得るほぼ全ての振る舞いと反応パターンが初期状態のインタラクション特性データとして登録されているようにしてもよい。 The behavior items, affection level, reaction pattern group, and affection level (threshold value) required for executing the reaction pattern of the user in the initial state as shown in FIGS. 5 and 6 are determined in advance from general dogs, cats, and the like. It may be detected and set. Further, almost all possible behaviors and reaction patterns may be registered as interaction characteristic data in the initial state.

また、本実施形態によるインタラクション特性データは図5に示すようなデータ構成に限定されず、時間方向も考慮したユーザの振る舞い(愛情表現)の癖を表すようなデータがさらに含まれていてもよい。例えば、「ペットの頭を撫でる」といった振る舞いにおいて、その撫で方の強弱のタイミング等を表すデータが含まれる。 Further, the interaction characteristic data according to the present embodiment is not limited to the data structure as shown in FIG. 5, and may further include data that expresses the habit of the user's behavior (expression of affection) in consideration of the time direction. .. For example, in a behavior such as "stroking the head of a pet", data indicating the timing of the strength of the stroking is included.

以上、本実施形態による制御部10および記憶部20の機能構成について具体的に説明した。本実施形態によるペットロボット1は、インタラクション特性データを読み込んで、ユーザの振る舞いに対して所定のペットのインタラクション特性を再現することができる。また、ペットロボット1は、ユーザの振る舞い(センサデータ)と、実行した反応パターンをインタラクション特性としてサーバ3に送信し、サーバ3においてユーザの振る舞いの頻度等からユーザの嗜好が学習され、インタラクション特性データが更新され得る。 The functional configurations of the control unit 10 and the storage unit 20 according to the present embodiment have been specifically described above. The pet robot 1 according to the present embodiment can read the interaction characteristic data and reproduce the interaction characteristic of a predetermined pet with respect to the behavior of the user. Further, the pet robot 1 transmits the user's behavior (sensor data) and the executed reaction pattern to the server 3 as an interaction characteristic, and the user's preference is learned from the frequency of the user's behavior on the server 3 and the interaction characteristic data. Can be updated.

<2-2.サーバ3の構成>
次に、本実施形態によるサーバ3の構成について図7を参照して説明する。図7は、本実施形態によるサーバ3の構成の一例を示すブロック図である。図7に示すように、サーバ3は、制御部30、通信部31、および記憶部32を有する。
<2-2. Server 3 configuration>
Next, the configuration of the server 3 according to the present embodiment will be described with reference to FIG. 7. FIG. 7 is a block diagram showing an example of the configuration of the server 3 according to the present embodiment. As shown in FIG. 7, the server 3 has a control unit 30, a communication unit 31, and a storage unit 32.

通信部31は、他の装置との間でデータの送受信を行うための通信モジュールである。例えば通信部31は、ネットワーク2を介して情報処理端末8、ペットロボット1、およびユーザ端末5と接続し、データの送受信を行う。また、通信部31は、ペットロボット1やユーザ端末5等の仮想生物デバイスから、インタラクション特性データを要求するリクエストを受信すると共に、要求されたインタラクション特性データを返信する。 The communication unit 31 is a communication module for transmitting / receiving data to / from other devices. For example, the communication unit 31 connects to the information processing terminal 8, the pet robot 1, and the user terminal 5 via the network 2 to transmit and receive data. In addition, the communication unit 31 receives a request for interaction characteristic data from a virtual biological device such as a pet robot 1 or a user terminal 5, and returns the requested interaction characteristic data.

制御部30は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ3内の動作全般を制御する。制御部30は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部30は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。 The control unit 30 functions as an arithmetic processing unit and a control device, and controls the overall operation in the server 3 according to various programs. The control unit 30 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor. Further, the control unit 30 may include a ROM (Read Only Memory) for storing programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) for temporarily storing parameters and the like that change as appropriate.

また、本実施形態による制御部30は、ログイン処理部301、インタラクション特性検索部302、およびインタラクション特性学習部303として機能する。 Further, the control unit 30 according to the present embodiment functions as a login processing unit 301, an interaction characteristic search unit 302, and an interaction characteristic learning unit 303.

ログイン処理部301は、ユーザのログイン処理を行う。例えば、ログイン処理部301は、ペットロボット1等から送信されたログインアカウント(ユーザIDおよびパスワードを含む)に基づいて、ユーザ管理テーブル321(図8に示す)を参照して認証処理を行う。 The login processing unit 301 performs a user login process. For example, the login processing unit 301 performs authentication processing with reference to the user management table 321 (shown in FIG. 8) based on the login account (including the user ID and password) transmitted from the pet robot 1 or the like.

インタラクション特性検索部302は、ペットロボット1等からのインタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれるペットID(個体ID(オブジェクトID)若しくは種別ID(仮想生物ID)の少なくともいずれかを含む)と、ログイン処理により特定されたユーザIDとに基づき、対応するインタラクション特性データをインタラクション特性データDB325(図8参照)から検索する。 The interaction characteristic search unit 302 responds to a request for interaction characteristic data from a pet robot 1 or the like, and receives at least one of a pet ID (individual ID (object ID) or type ID (virtual organism ID)) included in the request. The corresponding interaction characteristic data is searched from the interaction characteristic data DB 325 (see FIG. 8) based on the user ID specified by the login process.

インタラクション特性学習部303は、ペットロボット1等から送信されたユーザの振る舞い(センサデータ若しくは振る舞い判定結果)とペットの反応パターンに基づいて、インタラクション特性データDB325に蓄積された、対応するインタラクション特性データを更新する。例えば、インタラクション特性学習部303は、「背中をなでる」というユーザの振る舞いの頻度が所定値より高い場合、ユーザのお気に入りの振る舞いであると判断し、インタラクション特性データの該当するユーザの振る舞い「背中をなでる」に対応する愛情度を加算する。また、例えば、インタラクション特性学習部303は、ユーザの発話で同じ音声パターンの頻度が高い場合、ペットの名前など特別な意味も持つフレーズであると判断し、新たに、「音声パターン『○○○○』を発生する」といったユーザの振る舞い項目を生成し、当該振る舞いに対応する愛情度を加算する。 The interaction characteristic learning unit 303 collects the corresponding interaction characteristic data accumulated in the interaction characteristic data DB 325 based on the user's behavior (sensor data or behavior determination result) transmitted from the pet robot 1 or the like and the pet's reaction pattern. Update. For example, if the frequency of the user's behavior of "stroking the back" is higher than a predetermined value, the interaction characteristic learning unit 303 determines that the behavior is the user's favorite behavior, and determines that the user's behavior "back is stroked" in the interaction characteristic data. Add the affection level corresponding to "Stroking". Further, for example, the interaction characteristic learning unit 303 determines that the phrase has a special meaning such as the name of a pet when the frequency of the same voice pattern is high in the user's utterance, and newly "voice pattern" ○○○ ". Generate a user behavior item such as "○" is generated, and add the affection level corresponding to the behavior.

記憶部32は、制御部30が各種処理を実行するためのプログラム等を記憶する。また、記憶部32は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含むストレージ装置により構成される。さらに、本実施形態による記憶部32の機能構成について図8を参照して説明する。 The storage unit 32 stores a program or the like for the control unit 30 to execute various processes. Further, the storage unit 32 includes a storage device including a storage medium, a recording device for recording data on the storage medium, a reading device for reading data from the storage medium, a deletion device for deleting data recorded on the storage medium, and the like. .. Further, the functional configuration of the storage unit 32 according to the present embodiment will be described with reference to FIG.

図8は、本実施形態によるサーバ3の記憶部32の機能構成例を示すブロック図である。図には、記憶部32の機能として、ユーザ管理テーブル321と、インタラクション特性管理テーブル322と、監視カメラ管理テーブル323と、ペット周辺デバイス管理テーブル324と、インタラクション特性データDB325と、ペット周辺デバイス表現テーブル326と、ユーザの振る舞いデータ一時記憶部327とが、示されている。 FIG. 8 is a block diagram showing a functional configuration example of the storage unit 32 of the server 3 according to the present embodiment. In the figure, as the functions of the storage unit 32, the user management table 321 and the interaction characteristic management table 322, the surveillance camera management table 323, the pet peripheral device management table 324, the interaction characteristic data DB 325, and the pet peripheral device representation table are shown. 326 and the user behavior data temporary storage unit 327 are shown.

ユーザ管理テーブル321は、ユーザIDやログインアカウント、ユーザに装着されたセンサデバイスID等、ユーザに関する情報を記憶する。インタラクション特性管理テーブル322は、ペットIDおよびユーザID単位で、インタラクションの特性を示すインタラクションデータのIDを記憶する。ペットIDは、個体ID(オブジェクトID)、若しくは種別(犬、猫、ウサギ等の種類)を示す種別ID(仮想生物ID)を含む。 The user management table 321 stores information about the user, such as a user ID, a login account, and a sensor device ID attached to the user. The interaction characteristic management table 322 stores the ID of the interaction data indicating the characteristic of the interaction in units of the pet ID and the user ID. The pet ID includes an individual ID (object ID) or a type ID (virtual organism ID) indicating a type (type of dog, cat, rabbit, etc.).

監視カメラ管理テーブル323は、ペットやユーザの様子を撮影する監視カメラのIDと、紐付くユーザIDを記憶する。ペット周辺デバイス管理テーブル324は、ペット周辺デバイスのデバイスIDと、ペット周辺デバイス表現データおよびユーザIDを記憶する。ペット周辺デバイスとは、ペットにつながれるリードや首輪等、ペット周辺のデバイスであって、振動したり音を発生する機能を有する(図24参照)。ペット周辺デバイスは、インタラクション特性データに基づいて、ユーザの振る舞いに対して所定の動きや音を発することで、ペット本体が居ない場合でもペットの反応パターンを想起させることが可能となる。 The surveillance camera management table 323 stores the ID of the surveillance camera that captures the state of the pet or the user and the user ID associated with the surveillance camera. The pet peripheral device management table 324 stores the device ID of the pet peripheral device, the pet peripheral device representation data, and the user ID. The pet peripheral device is a device around the pet such as a lead or a collar connected to the pet, and has a function of vibrating or generating a sound (see FIG. 24). The pet peripheral device emits a predetermined movement or sound with respect to the behavior of the user based on the interaction characteristic data, so that the reaction pattern of the pet can be recalled even when the pet body is not present.

インタラクション特性データDB325は、ユーザIDおよびペットID(オブジェクトIDの一例)単位で、当該ペット(オブジェクトの一例)のユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積する。ペット周辺デバイス表現テーブル326は、ペットの反応パターンに対応するペット周辺デバイスの表現データを蓄積する。ユーザの振る舞いデータ一時記憶部327は、受信したユーザの振る舞いデータを一時的に記憶する。 The interaction characteristic data DB 325 accumulates interaction characteristic data indicating the characteristics of interaction with the user of the pet (an example of an object) in units of a user ID and a pet ID (an example of an object ID). The pet peripheral device expression table 326 stores expression data of the pet peripheral device corresponding to the reaction pattern of the pet. The user behavior data temporary storage unit 327 temporarily stores the received user behavior data.

なお、各テーブル等の具体的なデータ例については、後述する各実施例において図面を用いて説明する。 Specific data examples of each table and the like will be described with reference to the drawings in each embodiment described later.

図9は、サーバ3のユーザ管理について説明する図である。図示されたように、サーバ3は、ユーザID毎に、ユーザに装着される一つの動きセンサデバイスと、一つまたは複数のペットIDと、各ペットIDに対応するペットに装着される動きセンサデバイスと、各ペットIDに対応する飼い主カードと、各ペットIDに対応するインタラクション特性データと、各ペットIDに対応する周辺デバイスと、ペット周辺でユーザとペットの動きを検出する一つまたは複数のカメラと、一つのログインアカウント(ユーザ名とパスワード等)とを管理することが可能である。 FIG. 9 is a diagram illustrating user management of the server 3. As shown, the server 3 has one motion sensor device attached to the user, one or more pet IDs, and a motion sensor device attached to the pet corresponding to each pet ID for each user ID. And the owner card corresponding to each pet ID, the interaction characteristic data corresponding to each pet ID, the peripheral device corresponding to each pet ID, and one or more cameras that detect the movement of the user and the pet around the pet. And one login account (user name and password, etc.) can be managed.

以上、本開示の一実施形態によるペットロボット1およびサーバ3の具体的な構成について説明した。続いて、本開示の一実施形態による情報処理システムの各実施例について説明する。 The specific configuration of the pet robot 1 and the server 3 according to the embodiment of the present disclosure has been described above. Subsequently, each embodiment of the information processing system according to the embodiment of the present disclosure will be described.

<<3.実施例>>
<3-1.第1の実施例>
まず、第1の実施例として、ペットロボット1と振れ合う場合について図10~図14を参照して説明する。例えば多数のペットロボットと振れ合うことができるペットロボットカフェにおいて、好きなペットロボット1に、ユーザIDおよびペットIDと紐付けられた特定のインタラクション特性データ(例えば実在のペットや、自宅に居るペットロボットから検出、蓄積したインタラクション特性のデータ)を読み込ませることで、当該ペットロボット1で特定のペットのインタラクション特性を再現することが可能となる。
<< 3. Example >>
<3-1. First Example>
First, as a first embodiment, a case of shaking with the pet robot 1 will be described with reference to FIGS. 10 to 14. For example, in a pet robot cafe that can interact with a large number of pet robots, a user ID and specific interaction characteristic data associated with the pet ID (for example, a real pet or a pet robot at home) are associated with a favorite pet robot 1. By reading the interaction characteristic data detected and accumulated from the pet robot 1, it is possible to reproduce the interaction characteristic of a specific pet with the pet robot 1.

図10は、第1の実施例の概要について説明する図である。図10に示すように、例えばペットロボット1Aのカードリーダ70に、ユーザの飼い主カード71をかざすと、ログインアカウント(ユーザ名とパスワード)がペットロボット1Aに読み取られてサーバ3においてログイン処理が行われる。そして、飼い主カード71のペットIDに基づいて、対応するインタラクション特性がサーバ3からペットロボット1Aにロードされ、ペットロボット1Aでインタラクション特性が再現される。 FIG. 10 is a diagram illustrating an outline of the first embodiment. As shown in FIG. 10, for example, when the owner card 71 of the user is held over the card reader 70 of the pet robot 1A, the login account (user name and password) is read by the pet robot 1A and the login process is performed on the server 3. .. Then, based on the pet ID of the owner card 71, the corresponding interaction characteristic is loaded from the server 3 into the pet robot 1A, and the interaction characteristic is reproduced by the pet robot 1A.

図11は、第1の実施例によるログイン時の動作処理を示すシーケンス図である。図11に示すように、まず、ペットロボット1Aは、接続されたカードリーダ70により、飼い主カードの情報を読み取る(ステップS103)。なおカードリーダ70は、ペットロボット1Aの頭部や胴体等に設けられていてもよい。 FIG. 11 is a sequence diagram showing an operation process at the time of login according to the first embodiment. As shown in FIG. 11, first, the pet robot 1A reads the information of the owner card by the connected card reader 70 (step S103). The card reader 70 may be provided on the head, body, or the like of the pet robot 1A.

次に、ペットロボット1Aは、飼い主カードに記録されているログインアカウント(ユーザ名とパスワード)をサーバ3に送信する(ステップS106)。 Next, the pet robot 1A transmits the login account (user name and password) recorded on the owner card to the server 3 (step S106).

次いで、サーバ3のログイン処理部301は、ログインアカウントに基づいて、ユーザ管理テーブル321を参照してログイン処理を行う(ステップS109)。ここで、図12の上段に、ユーザ管理テーブル321のデータ例を示す。図12上段に示すように、ユーザ管理テーブルは、ユーザID、ユーザ名、パスワード、ログインアカウント、およびユーザに装着される動きセンサデバイスのデバイスIDを対応付けて管理している。 Next, the login processing unit 301 of the server 3 refers to the user management table 321 based on the login account and performs login processing (step S109). Here, an example of data in the user management table 321 is shown in the upper part of FIG. 12. As shown in the upper part of FIG. 12, the user management table manages the user ID, the user name, the password, the login account, and the device ID of the motion sensor device attached to the user in association with each other.

次に、サーバ3によりログインが認証されると、ペットロボット1Aは、飼い主カードに記録されているペットIDをサーバ3に送信し、インタラクション特性データを要求するリクエストを行う(ステップS112)。 Next, when the login is authenticated by the server 3, the pet robot 1A transmits the pet ID recorded on the owner card to the server 3 and makes a request for requesting the interaction characteristic data (step S112).

次いで、ペットロボット1Aからリクエストを受信すると、サーバ3は、初回ログインの場合は(ステップS115/Yes)、インタラクション特性検索部302により、ペットロボットの初期状態のインタラクション特性データを検索する(ステップS118)。インタラクション特性データDB325には、予め初期状態のインタラクション特性データが格納されている。初期状態のインタラクション特性データは、例えば一般的な犬や猫が示すインタラクション特性データである。インタラクション特性検索部302は、リクエストに含まれるペットID(具体的には種別ID)に基づき、同種別の動物の一般的なインタラクション特性データを検索してもよい。また、同種別の動物の一般的なインタラクション特性データが無い場合は、近い種別の動物等、他の種別の動物の一般的なインタラクション特性データを検索する。 Next, when the request is received from the pet robot 1A, the server 3 searches for the interaction characteristic data in the initial state of the pet robot by the interaction characteristic search unit 302 in the case of the first login (step S115 / Yes) (step S118). .. The interaction characteristic data DB 325 stores the interaction characteristic data in the initial state in advance. The interaction characteristic data in the initial state is, for example, the interaction characteristic data shown by a general dog or cat. The interaction characteristic search unit 302 may search for general interaction characteristic data of animals of the same type based on the pet ID (specifically, the type ID) included in the request. If there is no general interaction characteristic data for animals of the same type, search for general interaction characteristic data for animals of other types, such as animals of similar types.

一方、初回ログインではない場合(ステップS115/No)、インタラクション特性検索部302は、インタラクション特性管理テーブル322を参照し、リクエストに含まれるペットID(具体的には個体ID)に対応するインタラクション特性データをインタラクション特性データDB325から検索する(ステップS118)。ここで、図12の下段に、インタラクション特性管理テーブル322のデータ例を示す。図12下段に示すように、インタラクション特性管理テーブル322は、ペットID、ペットに装着されるセンサデバイスID、紐付くユーザID、インタラクション特性データ、および飼い主カードを対応付けて管理している。インタラクション特性検索部302は、ペットロボット1Aから送信されたペットIDと、ログイン処理により認証されたユーザIDとに基づいて、インタラクション特性データを特定する。そして、当該インタラクション特性データの中身を、インタラクション特性データDB325から抽出する。 On the other hand, when it is not the first login (step S115 / No), the interaction characteristic search unit 302 refers to the interaction characteristic management table 322 and the interaction characteristic data corresponding to the pet ID (specifically, the individual ID) included in the request. Is searched from the interaction characteristic data DB 325 (step S118). Here, a data example of the interaction characteristic management table 322 is shown in the lower part of FIG. As shown in the lower part of FIG. 12, the interaction characteristic management table 322 manages the pet ID, the sensor device ID attached to the pet, the associated user ID, the interaction characteristic data, and the owner card in association with each other. The interaction characteristic search unit 302 identifies the interaction characteristic data based on the pet ID transmitted from the pet robot 1A and the user ID authenticated by the login process. Then, the contents of the interaction characteristic data are extracted from the interaction characteristic data DB 325.

続いて、サーバ3は、ペットロボット1Aにインタラクション特性データを送信する(ステップS124)。 Subsequently, the server 3 transmits the interaction characteristic data to the pet robot 1A (step S124).

そして、ペットロボット1Aは、サーバ3から受信したインタラクション特性データを読み込む(ステップS127)。具体的には、ペットロボット1Aは、受信したインタラクション特性データをインタラクション特性データ記憶部212に記憶する。 Then, the pet robot 1A reads the interaction characteristic data received from the server 3 (step S127). Specifically, the pet robot 1A stores the received interaction characteristic data in the interaction characteristic data storage unit 212.

次に、特定のインタラクション特性データが読み込まれたペットロボット1Aの動作処理について図13を参照して説明する。図13は、本実施例によるペットロボット1Aの動作処理を示すフローチャートである。 Next, the operation processing of the pet robot 1A into which the specific interaction characteristic data is read will be described with reference to FIG. 13. FIG. 13 is a flowchart showing the operation processing of the pet robot 1A according to the present embodiment.

図13に示すように、まず、ペットロボット1Aは、カメラ15によりユーザの動きを検出した場合(ステップS130/Yes)、検出したユーザの動きをセンサデータ一時記憶部210に一時的に記憶する(ステップS133)。 As shown in FIG. 13, first, when the pet robot 1A detects the movement of the user by the camera 15 (step S130 / Yes), the pet robot 1A temporarily stores the detected movement of the user in the sensor data temporary storage unit 210 (step S130 / Yes). Step S133).

次に、ペットロボット1Aは、圧力センサ19によりユーザの触れ合い(「撫でる」や「抱きしめる」といった物理的な働きかけ)動きを検出した場合(ステップS136/Yes)、検出したユーザの触れ合いをセンサデータ一時記憶部210に一時的に記憶する(ステップS139)。 Next, when the pet robot 1A detects the user's touch (physical action such as "stroking" or "hugging") by the pressure sensor 19 (step S136 / Yes), the detected user's touch is temporarily detected as sensor data. It is temporarily stored in the storage unit 210 (step S139).

次いで、ペットロボット1Aは、音声入力部16(マイクロホン)によりユーザの声を検出した場合(ステップS142/Yes)、検出したユーザの音声データをセンサデータ一時記憶部210に一時的に記憶する(ステップS145)。 Next, when the pet robot 1A detects the user's voice by the voice input unit 16 (microphone) (step S142 / Yes), the detected user's voice data is temporarily stored in the sensor data temporary storage unit 210 (step). S145).

次に、ペットロボット1Aは、ユーザに装着された動きセンサデバイスにより、ユーザの動きが検出された場合(ステップS148/Yes)、検出されたユーザの動きデータをセンサデータ一時記憶部210に一時的に記憶する(ステップS151)。ペットロボット1Aは、ユーザが手首等に装着している動きセンサデバイスとWi-Fi(登録商標)やBluetooth(登録商標)等により接続し、検出された動きデータを受信することが可能である。 Next, when the movement of the user is detected by the motion sensor device attached to the user (step S148 / Yes), the pet robot 1A temporarily stores the detected motion data of the user in the sensor data temporary storage unit 210. (Step S151). The pet robot 1A can be connected to a motion sensor device worn by the user on the wrist or the like by Wi-Fi (registered trademark), Bluetooth (registered trademark), or the like, and can receive the detected motion data.

続いて、ペットロボット1Aは、ユーザ振る舞い判定部101により、一時記憶した各データから「ユーザの振る舞い」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS154)。例えば、ユーザ振る舞い判定部101は、図5を参照して説明したように、「頭を強めになでる」、「背中をなでる」、「喉元を指でなでる」、「声を出す」、または「強く抱きしめる」等のユーザの振る舞いに該当するか否かを判断する。該当するユーザの振る舞いが判定されるまで、上述したS130~S151が繰り返される。 Subsequently, the pet robot 1A determines "user behavior" from each temporarily stored data by the user behavior determination unit 101, and determines whether or not there is any corresponding interaction characteristic data read (step S154). ). For example, the user behavior determination unit 101 may "stroking the head strongly", "stroking the back", "stroking the throat with a finger", "speaking out", or "speaking", as described with reference to FIG. Judge whether or not it corresponds to the user's behavior such as "Hugging strongly". The above-mentioned S130 to S151 are repeated until the behavior of the corresponding user is determined.

次に、該当するユーザの振る舞いがある場合(ステップS154/Yes)、制御部10は、当該ユーザの振る舞いに対応する愛情度を取得する(ステップS157)。例えば、図5に示したインタラクション特性データのうち、該当するユーザの振る舞いが「頭を強めになでる」である場合、対応する愛情度「5」を取得する。 Next, when there is a behavior of the corresponding user (step S154 / Yes), the control unit 10 acquires the degree of affection corresponding to the behavior of the user (step S157). For example, in the interaction characteristic data shown in FIG. 5, when the behavior of the corresponding user is "stroking with a strong head", the corresponding affection level "5" is acquired.

次いで、当該ユーザの振る舞いに対応するペットの反応パターン群を取得する(ステップS160)。例えば、図5に示したインタラクション特性データのうち、該当するユーザの振る舞いが「頭を強めになでる」である場合、制御部10は、対応するペットの反応パターンとして、「首を軽くうなだれる」、「ニャーと鳴く」、「仰向けになる」、「体をまるめる」、および「ユーザの足元にすり寄る」といったペットの反応パターンを取得する。 Next, a pet reaction pattern group corresponding to the behavior of the user is acquired (step S160). For example, in the interaction characteristic data shown in FIG. 5, when the behavior of the corresponding user is "stroking the head strongly", the control unit 10 "snaps the neck lightly" as the reaction pattern of the corresponding pet. Get pet reaction patterns such as "meow", "lie on your back", "roll your body", and "sliding at your feet".

次に、制御部10は、取得した反応パターン群のうち、反応パターンの実行に必要な愛情度が「ユーザの振る舞いに対応する愛情度」を超えないものを抽出する(ステップS163)。 Next, the control unit 10 extracts the acquired reaction pattern group whose affection level required for executing the reaction pattern does not exceed the “love level corresponding to the behavior of the user” (step S163).

次いで、抽出した反応パターンからランダムに一つの反応パターンを選択し(ステップS166)、ペット動作制御部102は、選択した反応パターンに従って、ペットロボット1Aを動作させる(ステップS169)。 Next, one reaction pattern is randomly selected from the extracted reaction patterns (step S166), and the pet motion control unit 102 operates the pet robot 1A according to the selected reaction pattern (step S169).

続いて、ペットロボット1Aの制御部10は、ユーザの振る舞いデータ(一時記憶したセンサデータ、振る舞い判定結果、若しくは振る舞いを示すIDの少なくともいずれか)と、ペットロボット1Aを動作させた反応パターン(反応データ)をサーバ3に送信する(ステップS172)。これにより、サーバ3側で、インタラクション特性の更新(学習)が行われ得る。サーバ側での更新処理については、図14を参照して後述する。 Subsequently, the control unit 10 of the pet robot 1A has the behavior data of the user (at least one of the temporarily stored sensor data, the behavior determination result, or the ID indicating the behavior) and the reaction pattern (reaction) in which the pet robot 1A is operated. Data) is transmitted to the server 3 (step S172). As a result, the interaction characteristics can be updated (learned) on the server 3 side. The update process on the server side will be described later with reference to FIG.

そして、ペットロボット1Aは、サーバ3により更新されたインタラクション特性データを受信すると、インタラクション特性データ記憶部212に記憶していたインタラクション特性データ(上記ステップS127で読み込んだインタラクション特性データ)を、更新されたインタラクション特性データに置き換える(ステップS175)。 Then, when the pet robot 1A receives the interaction characteristic data updated by the server 3, the interaction characteristic data (interaction characteristic data read in step S127) stored in the interaction characteristic data storage unit 212 is updated. It is replaced with the interaction characteristic data (step S175).

図14は、本実施例のサーバ3によるインタラクション特性データの更新処理を示すフローチャートである。図14に示すように、まず、サーバ3のインタラクション特性学習部303は、ペットロボット1Aから送信された、ユーザの振る舞いデータおよび反応パターンを、ユーザの振る舞いデータ一時記憶部327に一時的に記憶する(ステップS180)。 FIG. 14 is a flowchart showing an update process of interaction characteristic data by the server 3 of this embodiment. As shown in FIG. 14, first, the interaction characteristic learning unit 303 of the server 3 temporarily stores the user behavior data and the reaction pattern transmitted from the pet robot 1A in the user behavior data temporary storage unit 327. (Step S180).

次に、インタラクション特性学習部303は、ユーザの振る舞いデータ一時記憶部327に蓄積されたユーザの振る舞いデータと反応パターンを参照し、その頻度を取得する(ステップS183)。 Next, the interaction characteristic learning unit 303 refers to the user behavior data and the reaction pattern stored in the user behavior data temporary storage unit 327, and acquires the frequency thereof (step S183).

次に、インタラクション特性学習部303は、頻度が(所定値より)高いユーザの音声があるか否かを判断する(ステップS186)。例えば、ユーザの発話で同じ音声パターンの頻度が高い場合、ペットの名前など特別な意味も持つフレーズであることが予想される。 Next, the interaction characteristic learning unit 303 determines whether or not there is a user's voice having a higher frequency (than a predetermined value) (step S186). For example, if the frequency of the same voice pattern is high in the user's utterance, it is expected that the phrase has a special meaning such as the name of a pet.

次いで、頻度が高いユーザの音声がある場合(ステップS186/Yes)、インタラクション特性学習部303は、当該音声に対するインタラクション特性を新規登録(当該音声を発生することをユーザの振る舞い項目としてインタラクション特性データに追加)し(ステップS189)、新規登録したインタラクション特性の「愛情度」を加算する(ステップS192)。なお声による呼び掛けのインタラクション特性は、図5に示す「声を出す」の「愛情度」および「ペットの反応パターン」が引き継がれる。 Next, when there is a voice of a user with a high frequency (step S186 / Yes), the interaction characteristic learning unit 303 newly registers the interaction characteristic with respect to the voice (generating the voice as a user behavior item in the interaction characteristic data). (Addition) (step S189), and the "love degree" of the newly registered interaction characteristic is added (step S192). It should be noted that the interaction characteristics of the call by voice are inherited from the "loving degree" and "pet reaction pattern" of "speaking" shown in FIG.

一方、頻度が(所定値より)高いユーザの動作がある場合(ステップS198/Yes)、インタラクション特性学習部303は、当該動作は「ユーザのお気に入りの振る舞い」であると判断し、対応するインタラクション特性の「愛情度」を加算する(ステップS201)。例えば図5に示す例の場合、「頭を強くなでる」という振る舞いが所定値以上行われた場合、インタラクション特性学習部303は、「頭を強くなでる」というユーザの振る舞いの愛情度「5」に「1」加算する。 On the other hand, when there is an action of a user whose frequency is higher (than a predetermined value) (step S198 / Yes), the interaction characteristic learning unit 303 determines that the action is "the user's favorite behavior" and corresponds to the interaction characteristic. "Affection level" is added (step S201). For example, in the case of the example shown in FIG. 5, when the behavior of "stroking the head strongly" is performed by a predetermined value or more, the interaction characteristic learning unit 303 sets the affection level "5" of the user behavior of "stroking the head strongly". Add "1".

そして、サーバ3の制御部10は、更新されたインタラクション特性データをペットロボット1Aに送信する(ステップS195)。 Then, the control unit 10 of the server 3 transmits the updated interaction characteristic data to the pet robot 1A (step S195).

以上説明したように、第1の実施例では、ペットロボット1Aにインタラクション特性データを読み込ませ、ユーザの振る舞いに対するインタラクションを再現できると共に、サーバ側においてインタラクション特性データの更新が行われ得る。また、本実施例は、ユーザの振る舞いに対応する愛情度を設定し、愛情度がユーザの振る舞いの頻度に応じて加算されていくようにする。そして、ユーザの振る舞いの愛情度に応じて、当該振る舞いに対応付けられた複数の反応パターンから一の反応パターンを選択してペットロボット1を動作させる。これにより、ユーザとペットロボットとのコミュニケーションが蓄積されていくと、初期状態から徐々にユーザの振る舞いに対するペットロボット1の反応パターンが変化し(愛情度が上がると選択される反応パターンが変化)、特定の振る舞いに対して特定の反応パターンが表出されるようになる。 As described above, in the first embodiment, the pet robot 1A can read the interaction characteristic data, the interaction with the user's behavior can be reproduced, and the interaction characteristic data can be updated on the server side. Further, in this embodiment, the affection degree corresponding to the user's behavior is set, and the affection degree is added according to the frequency of the user's behavior. Then, one reaction pattern is selected from a plurality of reaction patterns associated with the behavior according to the degree of affection of the behavior of the user, and the pet robot 1 is operated. As a result, as the communication between the user and the pet robot accumulates, the reaction pattern of the pet robot 1 to the user's behavior gradually changes from the initial state (the selected reaction pattern changes as the degree of affection increases). A specific reaction pattern will be expressed for a specific behavior.

<3-2.第2の実施例>
次に、第2の実施例として、ペット育成アプリケーション等、アプリケーション上で動作するタイニーペットロボット(バーチャルペットとも称される)と触れ合う場合について図15~図18を参照して説明する。図15は、第2の実施例の概要について説明する図である。図15に示すように、タブレット端末等のユーザ端末5でログイン画面52が表示され、ユーザアカウントでログインすると、ペット選択画面53が表示される。ペット選択画面53に表示される複数のペットは、ユーザIDに紐付くペットIDに基づくものである。図15に示す例では、実在生物、仮想生物問わず、ユーザが飼っている4匹のペットが選択肢として表示される。このうち、例えばペットCを選択すると、ペットCのインタラクション特性データがユーザ端末5に読み込まれ、タイニーペットロボット54で再現される。
<3-2. Second Example>
Next, as a second embodiment, a case of coming into contact with a tiny pet robot (also referred to as a virtual pet) operating on the application such as a pet breeding application will be described with reference to FIGS. 15 to 18. FIG. 15 is a diagram illustrating an outline of the second embodiment. As shown in FIG. 15, the login screen 52 is displayed on the user terminal 5 such as a tablet terminal, and when logging in with the user account, the pet selection screen 53 is displayed. The plurality of pets displayed on the pet selection screen 53 are based on the pet ID associated with the user ID. In the example shown in FIG. 15, four pets owned by the user are displayed as options regardless of whether they are real creatures or virtual creatures. Of these, for example, when pet C is selected, the interaction characteristic data of pet C is read into the user terminal 5 and reproduced by the tiny pet robot 54.

ユーザ端末5の構成は、図3に示すペットロボット1の構成のうち、リアルのペットロボット特有の構成である駆動部18を除く構成により実現され得る。 The configuration of the user terminal 5 can be realized by a configuration other than the drive unit 18, which is a configuration peculiar to a real pet robot, among the configurations of the pet robot 1 shown in FIG.

図16は、第2の実施例によるログイン時の動作処理を示すシーケンス図である。図11に示すように、まず、ユーザ端末5は、ペット育成アプリケーションを起動し(ステップS213)、図5に示すようなログイン画面52を表示し、ログインアカウント(ユーザ名およびパスワード)の入力を受け付ける(ステップS216)。 FIG. 16 is a sequence diagram showing an operation process at the time of login according to the second embodiment. As shown in FIG. 11, first, the user terminal 5 starts the pet breeding application (step S213), displays the login screen 52 as shown in FIG. 5, and accepts the input of the login account (user name and password). (Step S216).

次いで、サーバ3のログイン処理部301は、ユーザ端末5から送信されたログインアカウントに基づいて、ユーザ管理テーブル321を参照してログイン処理を行う(ステップS219)。 Next, the login processing unit 301 of the server 3 performs a login process with reference to the user management table 321 based on the login account transmitted from the user terminal 5 (step S219).

次に、サーバ3によりログインが認証されると、初回ログインではない場合(ステップS222/No)、インタラクション特性検索部302は、インタラクション特性管理テーブル322を参照し、ユーザIDに紐付けられたペットIDのインタラクション特性データが複数あるか否かを判断する(ステップS225)。 Next, when the login is authenticated by the server 3, if it is not the first login (step S222 / No), the interaction characteristic search unit 302 refers to the interaction characteristic management table 322 and the pet ID associated with the user ID. It is determined whether or not there are a plurality of interaction characteristic data of (step S225).

インタラクション特性データが複数ある場合(すなわち複数のペットIDが紐付けられている場合)(ステップS225/Yes)、サーバ3の制御部30は、インタラクション特性データのリストをユーザ端末5へ送信する(ステップS228)。 When there are a plurality of interaction characteristic data (that is, when a plurality of pet IDs are associated with each other) (step S225 / Yes), the control unit 30 of the server 3 transmits a list of interaction characteristic data to the user terminal 5 (step). S228).

次いで、ユーザ端末5は、受信したインタラクション特性データのリストを表示する(ステップS231)。具体的には、ユーザ端末5は、図15に示すように、各インタラクション特性データに対応するペットの名前等を選択肢として表示するペット選択画面53を表示してもよい。 Next, the user terminal 5 displays a list of received interaction characteristic data (step S231). Specifically, as shown in FIG. 15, the user terminal 5 may display a pet selection screen 53 that displays a pet name or the like corresponding to each interaction characteristic data as an option.

次に、ペット(インタラクション特性データ)がユーザにより選択されると(ステップS234/Yes)、ユーザ端末5は、選択されたインタラクション特性データの送信要求(選択されたペットのペットIDを含む)をサーバ3に送信する(ステップS237)。 Next, when the pet (interaction characteristic data) is selected by the user (step S234 / Yes), the user terminal 5 sends a transmission request (including the pet ID of the selected pet) of the selected interaction characteristic data to the server. It is transmitted to 3 (step S237).

続いて、サーバ3は、リクエストに含まれるペットID(具体的には固体ID)と、ログイン処理により特定されたユーザIDに基づいて、要求されたインタラクション特性データをインタラクション特性データDB325から検索し、ユーザ端末5に送信する(ステップS240)。 Subsequently, the server 3 searches the interaction characteristic data DB 325 for the requested interaction characteristic data based on the pet ID (specifically, the individual ID) included in the request and the user ID specified by the login process. It is transmitted to the user terminal 5 (step S240).

一方、初回ログインの場合(ステップS222/Yes)、サーバ3のインタラクション特性検索部302は、タイニーペットロボットの初期状態のインタラクション特性データを検索する(ステップS243)。初期状態のインタラクション特性データは、例えば予め設定された、一般的な犬や猫が示すインタラクション特性データである。この際、サーバ3は、ペットの種別(犬、猫、ウサギ等)をユーザに選択させ、リクエストに含まれる種別IDと同じ種別の動物のインタラクション特性データ(初期状態)を検索するようにしてもよい。 On the other hand, in the case of the first login (step S222 / Yes), the interaction characteristic search unit 302 of the server 3 searches for the interaction characteristic data in the initial state of the tiny pet robot (step S243). The interaction characteristic data in the initial state is, for example, preset interaction characteristic data shown by a general dog or cat. At this time, the server 3 may allow the user to select the pet type (dog, cat, rabbit, etc.) and search for the interaction characteristic data (initial state) of the animal of the same type as the type ID included in the request. good.

次いで、サーバ3は、検索したインタラクション特性データをユーザ端末5に送信する(ステップS246)。なお、上記ステップS225で、ユーザIDに紐付けられたインタラクション特性データが複数ではない場合(ステップS225/No)、紐付けられた一のインタラクション特性データをインタラクション特性データDB325から検索し、ユーザ端末5に送信する(ステップS246)。 Next, the server 3 transmits the searched interaction characteristic data to the user terminal 5 (step S246). If the number of interaction characteristic data associated with the user ID is not plural in step S225 (step S225 / No), one associated interaction characteristic data is searched from the interaction characteristic data DB 325, and the user terminal 5 is used. (Step S246).

そして、ユーザ端末5は、サーバ3から受信したインタラクション特性データを読み込む(ステップS249)。具体的には、ユーザ端末5は、受信したインタラクション特性データを記憶部に記憶する。 Then, the user terminal 5 reads the interaction characteristic data received from the server 3 (step S249). Specifically, the user terminal 5 stores the received interaction characteristic data in the storage unit.

次に、特定のインタラクション特性データが読み込まれたユーザ端末5の動作処理について図17を参照して説明する。図17は、本実施例によるユーザ端末5のタイニーペットロボットの動作制御処理を示すフローチャートである。 Next, the operation processing of the user terminal 5 in which the specific interaction characteristic data is read will be described with reference to FIG. FIG. 17 is a flowchart showing an operation control process of the tiny pet robot of the user terminal 5 according to the present embodiment.

図17に示すように、まず、ユーザ端末5は、端末自身のカメラによりユーザの動きを検出した場合(ステップS250/Yes)、検出したユーザの動きを記憶部に一時的に記憶する(ステップS253)。 As shown in FIG. 17, first, when the user terminal 5 detects the user's movement by the camera of the terminal itself (step S250 / Yes), the user terminal 5 temporarily stores the detected user's movement in the storage unit (step S253). ).

次に、ユーザ端末5は、端末自身の各種センサ(タッチセンサ、圧力センサ、加速度センサ、ジャイロセンサ、コンパスなど)によりユーザの触れ合い(「撫でる」等の物理的な働きかけ)動きを検出した場合(ステップS256/Yes)、検出したユーザの触れ合いを記憶部に一時的に記憶する(ステップS259)。 Next, when the user terminal 5 detects the user's contact (physical action such as "stroking") movement by various sensors (touch sensor, pressure sensor, acceleration sensor, gyro sensor, compass, etc.) of the terminal itself ( Step S256 / Yes), the detected user contact is temporarily stored in the storage unit (step S259).

次いで、ユーザ端末5は、端末自身のマイクロホンによりユーザの声を検出した場合(ステップS262/Yes)、検出したユーザの音声データを記憶部に一時的に記憶する(ステップS265)。 Next, when the user terminal 5 detects the user's voice with the microphone of the terminal itself (step S262 / Yes), the user terminal 5 temporarily stores the detected voice data of the user in the storage unit (step S265).

続いて、ユーザ端末5は、一時記憶した各データに基づいて「ユーザの振る舞い」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS268)。上述したS250~S265は繰り返され、継続的にユーザ振る舞い判定が行われ得る。 Subsequently, the user terminal 5 determines "user behavior" based on each temporarily stored data, and determines whether or not there is any corresponding interaction characteristic data read (step S268). The above-mentioned S250 to S265 are repeated, and the user behavior determination can be continuously performed.

次に、該当するユーザの振る舞いがある場合(ステップS268/Yes)、ユーザ端末5は、当該ユーザの振る舞いに対応する愛情度を取得する(ステップS271)。 Next, when there is the behavior of the corresponding user (step S268 / Yes), the user terminal 5 acquires the affection level corresponding to the behavior of the user (step S271).

次いで、ユーザ端末5は、当該ユーザの振る舞いに対応するペットの反応パターン群を取得し(ステップS274)、取得した反応パターン群のうち、反応パターンの実行に必要な愛情度が「ユーザの振る舞いに対応する愛情度」を超えないものを抽出する(ステップS277)。 Next, the user terminal 5 acquires a pet reaction pattern group corresponding to the user's behavior (step S274), and among the acquired reaction pattern group, the affection level required for executing the reaction pattern is "to the user's behavior". Extract those that do not exceed the "corresponding degree of affection" (step S277).

次に、ユーザ端末5は、抽出した反応パターンからランダムに一つの反応パターンを選択する(ステップS280)。 Next, the user terminal 5 randomly selects one reaction pattern from the extracted reaction patterns (step S280).

以上説明したステップS268~S280の処理は、第1の実施例において図13を参照して説明したステップS154~S166と同様である。 The process of steps S268 to S280 described above is the same as steps S154 to S166 described with reference to FIG. 13 in the first embodiment.

次いで、ユーザ端末5は、選択した反応パターンに従って、タイニーペットロボットを動作させる(ステップS283)。 Next, the user terminal 5 operates the tiny pet robot according to the selected reaction pattern (step S283).

続いて、ユーザ端末5は、ユーザの振る舞いデータ(一時記憶したセンサデータ、若しくは振る舞い判定結果の少なくともいずれか)と、タイニーペットロボットを動作させた反応パターンをサーバ3に送信する(ステップS286)。これにより、サーバ3側で、インタラクション特性の更新(学習)が行われ得る。サーバ側での更新処理については、図18を参照して後述する。 Subsequently, the user terminal 5 transmits the user behavior data (temporarily stored sensor data or at least one of the behavior determination results) and the reaction pattern in which the tiny pet robot is operated to the server 3 (step S286). As a result, the interaction characteristics can be updated (learned) on the server 3 side. The update process on the server side will be described later with reference to FIG.

そして、ユーザ端末5は、サーバ3により更新されたインタラクション特性データを受信すると、記憶部に記憶していたインタラクション特性データ(上記ステップS249で読み込んだインタラクション特性データ)を、更新されたインタラクション特性データに置き換える(ステップS289)。 Then, when the user terminal 5 receives the interaction characteristic data updated by the server 3, the interaction characteristic data stored in the storage unit (the interaction characteristic data read in step S249 above) is converted into the updated interaction characteristic data. Replace (step S289).

図18は、本実施例のサーバ3によるインタラクション特性データの更新処理を示すフローチャートである。図18に示すように、まず、サーバ3のインタラクション特性学習部303は、ユーザ端末5から送信された、ユーザの振る舞いデータおよび反応パターンを、ユーザの振る舞いデータ一時記憶部327に一時的に記憶する(ステップS290)。 FIG. 18 is a flowchart showing an update process of interaction characteristic data by the server 3 of this embodiment. As shown in FIG. 18, first, the interaction characteristic learning unit 303 of the server 3 temporarily stores the user behavior data and the reaction pattern transmitted from the user terminal 5 in the user behavior data temporary storage unit 327. (Step S290).

次いで、ステップS293~S302、ステップS308~S312において、第1の実施例の図14に示すステップS183~S192、ステップS198~S201と同様に、頻度の高いユーザ音声や動作に応じて、対応するインタラクション特性の愛情度を加算する。 Then, in steps S293 to S302 and steps S308 to S312, as in steps S183 to S192 and steps S198 to S201 shown in FIG. 14 of the first embodiment, corresponding interactions are made according to frequent user voices and actions. Add the affection of the trait.

そして、サーバ3の制御部10は、更新されたインタラクション特性データをユーザ端末5に送信する(ステップS305)。 Then, the control unit 10 of the server 3 transmits the updated interaction characteristic data to the user terminal 5 (step S305).

以上説明したように、第2の実施例では、ユーザ端末5にインタラクション特性データを読み込ませ、ユーザ端末5のアプリケーション上で動作するタイニーペットロボットにおいて、ユーザの振る舞いに対するインタラクションを再現できると共に、サーバ側においてインタラクション特性データの更新が行われ得る。また、本実施例でも、第1の実施例と同様に、ユーザの振る舞いに対応する愛情度を設定し、ユーザとタイニーペットロボットとのコミュニケーションの蓄積に応じて更新し、初期状態から徐々にユーザの振る舞いに対するタイニーペットロボットの反応パターンが変化し(愛情度が上がると選択される反応パターンが変化)、特定の振る舞いに対して特定の反応パターンが表出されるようになる。 As described above, in the second embodiment, the interaction characteristic data is read into the user terminal 5, and the tiny pet robot operating on the application of the user terminal 5 can reproduce the interaction with the user's behavior and the server side. The interaction characteristic data can be updated in. Further, in this embodiment as well, as in the first embodiment, the affection level corresponding to the behavior of the user is set, updated according to the accumulation of communication between the user and the tiny pet robot, and the user is gradually updated from the initial state. The reaction pattern of the Tiny Pet Robot to the behavior of the tiny pet robot changes (the reaction pattern selected changes as the affection level increases), and a specific reaction pattern is expressed for a specific behavior.

<3-3.第3の実施例>
次に、第3の実施例として、実在のペットのインタラクション特性を収集する場合について、図19~図23を参照して説明する。図19は、第3の実施例の概要について説明する図である。
<3-3. Third Example>
Next, as a third embodiment, the case of collecting the interaction characteristics of a real pet will be described with reference to FIGS. 19 to 23. FIG. 19 is a diagram illustrating an outline of the third embodiment.

図19に示すように、本実施例では、例えば実在のペットに装着される動きセンサデバイス84、ペット周辺でユーザとペットの様子を撮像する監視カメラ80、およびユーザの手首や腕等に装着される動きセンサデバイス82を用いて、実在のペットのインタラクション特性データを収集する。監視カメラ80、動きセンサデバイス82、84により取得されたセンサデータは、Bluetooth通信等の無線通信により情報処理端末8に送信され、情報処理端末8により、ネットワーク2を介してサーバ3へ送信され、サーバ3において、ユーザIDおよびペットIDと紐付けて、インタラクション特性データとして登録、管理される。サーバ3に登録された実在のペットのインタラクション特性データは、第1の実施例や第2の実施例のように、ペットロボット1やユーザ端末5にロードされ、ペットロボット1やタイニーペットロボットにより再現され得る。 As shown in FIG. 19, in this embodiment, for example, a motion sensor device 84 attached to an actual pet, a surveillance camera 80 that captures the state of the user and the pet around the pet, and a wrist or arm of the user. The motion sensor device 82 is used to collect interaction characteristic data of a real pet. The sensor data acquired by the surveillance camera 80 and the motion sensor devices 82 and 84 is transmitted to the information processing terminal 8 by wireless communication such as Bluetooth communication, and is transmitted by the information processing terminal 8 to the server 3 via the network 2. In the server 3, it is registered and managed as interaction characteristic data in association with the user ID and the pet ID. The interaction characteristic data of the actual pet registered in the server 3 is loaded into the pet robot 1 and the user terminal 5 and reproduced by the pet robot 1 and the tiny pet robot as in the first embodiment and the second embodiment. Can be done.

図20は、第3の実施例によるログイン時の動作処理を示すシーケンス図である。図20に示すように、まず、情報処理端末8は、ログイン画面を表示し、ログインアカウント(ユーザ名およびパスワード)の入力を受け付ける(ステップS313)。 FIG. 20 is a sequence diagram showing an operation process at the time of login according to the third embodiment. As shown in FIG. 20, first, the information processing terminal 8 displays a login screen and accepts input of a login account (user name and password) (step S313).

次いで、サーバ3のログイン処理部301は、情報処理端末8から送信されたログインアカウントに基づいて、ユーザ管理テーブル321を参照してログイン処理を行う(ステップS316)。 Next, the login processing unit 301 of the server 3 performs a login process with reference to the user management table 321 based on the login account transmitted from the information processing terminal 8 (step S316).

次に、サーバ3によりログインが認証されると、情報処理端末8は、ユーザに装着する動きセンサデバイス82のデバイスIDの入力画面を表示し、ユーザによる入力を受け付ける(ステップS319)。 Next, when the login is authenticated by the server 3, the information processing terminal 8 displays the input screen of the device ID of the motion sensor device 82 attached to the user, and accepts the input by the user (step S319).

次いで、サーバ3のログイン処理部301は、情報処理端末8から送信されたデバイスIDを、ユーザアカウントに紐付けてユーザ管理テーブル321に登録する(図12上段参照)(ステップS322)。 Next, the login processing unit 301 of the server 3 associates the device ID transmitted from the information processing terminal 8 with the user account and registers it in the user management table 321 (see the upper part of FIG. 12) (step S322).

次に、情報処理端末8は、ペットに装着する動きセンサデバイス84のデバイスIDの入力画面を表示し、ユーザによる入力を受け付ける(ステップS325)。 Next, the information processing terminal 8 displays an input screen for the device ID of the motion sensor device 84 to be attached to the pet, and accepts the input by the user (step S325).

次いで、サーバ3のログイン処理部301は、情報処理端末8から送信されたデバイスIDを、ユーザアカウント(ユーザID)に紐付けてインタラクション特性管理テーブル322に登録する(図12下段参照)(ステップS328)。 Next, the login processing unit 301 of the server 3 associates the device ID transmitted from the information processing terminal 8 with the user account (user ID) and registers it in the interaction characteristic management table 322 (see the lower part of FIG. 12) (step S328). ).

次に、情報処理端末8は、ペット周辺でユーザとペットの動きを検出する監視カメラ80のデバイスIDの入力画面を表示し、ユーザによる入力を受け付ける(ステップS331)。 Next, the information processing terminal 8 displays an input screen for the device ID of the surveillance camera 80 that detects the movement of the user and the pet around the pet, and accepts the input by the user (step S331).

次いで、サーバ3のログイン処理部301は、情報処理端末8から送信されたデバイスIDを、ユーザアカウント(ユーザID)に紐付けて監視カメラ管理テーブル323に登録する(ステップS334)。ここで、図21の上段に、監視カメラ管理テーブル323のデータ例を示す。図21上段に示すように、監視カメラ管理テーブル323には、ペット周辺にてユーザとペットの動きを検出するための監視カメラのデバイスIDが、ユーザIDに紐付けて登録されている。 Next, the login processing unit 301 of the server 3 associates the device ID transmitted from the information processing terminal 8 with the user account (user ID) and registers it in the surveillance camera management table 323 (step S334). Here, an example of data of the surveillance camera management table 323 is shown in the upper part of FIG. 21. As shown in the upper part of FIG. 21, the device ID of the surveillance camera for detecting the movement of the user and the pet around the pet is registered in the surveillance camera management table 323 in association with the user ID.

続いて、実在のペットからインタラクション特性データを収集する際の情報処理端末8の動作処理について図22を参照して説明する。図22は、第3の実施例による情報処理端末8の動作処理を示すフローチャートである。 Subsequently, the operation processing of the information processing terminal 8 when collecting the interaction characteristic data from the actual pet will be described with reference to FIG. 22. FIG. 22 is a flowchart showing the operation processing of the information processing terminal 8 according to the third embodiment.

図22に示すように、まず、情報処理端末8は、ペット周辺の監視カメラ80により撮像された撮像画像に基づいて、ユーザの動きを検出した場合(ステップS340/Yes)、検出したユーザの動きを記憶部に一時的に記憶する(ステップS342)。 As shown in FIG. 22, first, when the information processing terminal 8 detects the movement of the user based on the captured image captured by the surveillance camera 80 around the pet (step S340 / Yes), the detected movement of the user Is temporarily stored in the storage unit (step S342).

次に、情報処理端末8は、ペット周辺の監視カメラ80のマイクロホンによりユーザの音声またはペットの鳴き声を検出した場合(ステップS344/Yes)、検出したユーザのユーザ音声またはペットの鳴き声を記憶部に一時的に記憶する(ステップS346)。 Next, when the information processing terminal 8 detects the user's voice or the pet's bark by the microphone of the surveillance camera 80 around the pet (step S344 / Yes), the detected user's voice or the pet's bark is stored in the storage unit. Temporarily store (step S346).

次いで、情報処理端末8は、ユーザに装着された動きセンサデバイス82によりユーザの動きを検出した場合(ステップS348/Yes)、検出したユーザの動きデータを記憶部に一時的に記憶する(ステップS350)。 Next, when the information processing terminal 8 detects the user's movement by the motion sensor device 82 attached to the user (step S348 / Yes), the information processing terminal 8 temporarily stores the detected user's movement data in the storage unit (step S350). ).

次に、情報処理端末8は、ペットに装着された動きセンサデバイス84によりペットの動きを検出した場合(ステップS3352/Yes)、検出したペットの動きデータを記憶部に一時的に記憶する(ステップS354)。 Next, when the information processing terminal 8 detects the movement of the pet by the movement sensor device 84 attached to the pet (step S3352 / Yes), the detected pet movement data is temporarily stored in the storage unit (step). S354).

続いて、情報処理端末8は、一時記憶した各データに基づいて「ユーザの振る舞い」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS356)。ここで、情報処理端末8には、初期状態のインタラクション特性データがサーバ3から送信され記憶部に記憶されている。初期状態のインタラクション特性データは、例えば一般的な犬や猫等から検出して設定したものであって、想定し得るほぼ全ての振る舞い(ユーザの動き)と反応パターン(ペットの動き)が登録されている。該当する振る舞いがあるまで、上述したS340~S356が繰り返される。 Subsequently, the information processing terminal 8 determines "user behavior" based on the temporarily stored data, and determines whether or not there is any corresponding interaction characteristic data read (step S356). Here, in the information processing terminal 8, the interaction characteristic data in the initial state is transmitted from the server 3 and stored in the storage unit. The interaction characteristic data in the initial state is, for example, detected and set from a general dog or cat, and almost all possible behaviors (user movements) and reaction patterns (pet movements) are registered. ing. The above-mentioned S340 to S356 are repeated until there is a corresponding behavior.

次に、該当するユーザの振る舞いがある場合(ステップS356/Yes)、情報処理端末8は、当該ユーザの振る舞いに対応する愛情度を取得する(ステップS358)。 Next, when there is the behavior of the corresponding user (step S356 / Yes), the information processing terminal 8 acquires the affection level corresponding to the behavior of the user (step S358).

次いで、情報処理端末8は、当該ユーザの振る舞いに対応するペットの反応パターン群を取得する(ステップS360)。 Next, the information processing terminal 8 acquires a pet reaction pattern group corresponding to the behavior of the user (step S360).

次に、情報処理端末8は、一時記憶した各データに基づいて「ペットの反応パターン」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS262)。 Next, the information processing terminal 8 determines the "pet reaction pattern" based on the temporarily stored data, and determines whether or not there is any corresponding interaction characteristic data read (step S262).

続いて、情報処理端末8は、ユーザの振る舞いデータ(一時記憶したセンサデータ、若しくは振る舞い判定結果、若しくは振る舞いの内容を示す細分化されたID等)と、ペットの反応パターンをサーバ3に送信する(ステップS366)。これにより、サーバ3側で、インタラクション特性の更新(学習)が行われ得る。サーバ側での更新処理については、図23を参照して後述する。 Subsequently, the information processing terminal 8 transmits the user's behavior data (temporarily stored sensor data, behavior determination result, subdivided ID indicating the content of the behavior, etc.) and the pet's reaction pattern to the server 3. (Step S366). As a result, the interaction characteristics can be updated (learned) on the server 3 side. The update process on the server side will be described later with reference to FIG. 23.

そして、情報処理端末8は、サーバ3により更新されたインタラクション特性データを受信すると、記憶部に記憶していたインタラクション特性データを、更新されたインタラクション特性データに置き換える(ステップS366)。 Then, when the information processing terminal 8 receives the interaction characteristic data updated by the server 3, the information processing terminal 8 replaces the interaction characteristic data stored in the storage unit with the updated interaction characteristic data (step S366).

図23は、本実施例のサーバ3によるインタラクション特性データの更新処理を示すフローチャートである。図23に示すように、まず、サーバ3のインタラクション特性学習部303は、情報処理端末8から送信された、ユーザの振る舞いデータおよび反応パターンを、ユーザの振る舞いデータ一時記憶部327に一時的に記憶する(ステップS370)。 FIG. 23 is a flowchart showing the update processing of the interaction characteristic data by the server 3 of this embodiment. As shown in FIG. 23, first, the interaction characteristic learning unit 303 of the server 3 temporarily stores the user behavior data and the reaction pattern transmitted from the information processing terminal 8 in the user behavior data temporary storage unit 327. (Step S370).

次いで、ステップS372~S378、ステップS380~S382において、第1の実施例の図14に示すステップS183~S192、ステップS198~S201と同様に、頻度の高いユーザ音声や動作に応じて、対応するインタラクション特性の愛情度を加算する。なお、声による呼び掛けのインタラクション特性は、「声を出す」という振る舞い(図5参照)に対応する「愛情度」および「ペットの反応パターン」が引き継がれる。 Then, in steps S372 to S378 and steps S380 to S382, as in steps S183 to S192 and steps S198 to S201 shown in FIG. 14 of the first embodiment, corresponding interactions are made according to frequent user voices and actions. Add the affection of the trait. As for the interaction characteristics of the call by voice, the "love degree" and the "pet reaction pattern" corresponding to the behavior of "speaking out" (see FIG. 5) are inherited.

そして、サーバ3の制御部10は、更新されたインタラクション特性データを情報処理端末8に送信する(ステップS384)。 Then, the control unit 10 of the server 3 transmits the updated interaction characteristic data to the information processing terminal 8 (step S384).

以上説明したように、第3の実施例では、実在のペットのインタラクション特性データも収集することが可能であり、収集したインタラクション特性データをペットロボット1やタイニーペットロボットにロードして再現することができる。 As described above, in the third embodiment, it is possible to collect the interaction characteristic data of the actual pet, and the collected interaction characteristic data can be loaded into the pet robot 1 or the tiny pet robot and reproduced. can.

<3-4.第4の実施例>
次に、第4の実施例として、ペット周辺デバイスを、インタラクション特性データに基づいてユーザの振る舞いに応じて動作させる場合について、図24~図28を参照して説明する。
<3-4. Fourth Example>
Next, as a fourth embodiment, a case where the pet peripheral device is operated according to the behavior of the user based on the interaction characteristic data will be described with reference to FIGS. 24 to 28.

図24は、第4の実施例の概要について説明する図である。図24に示すように、音を鳴らしたり振動したりすることが可能な首輪(ペット周辺デバイス6A)や、リードのついた首輪(ペット周辺デバイス6B)は、ペット本体が居ない場合でも、インタラクション特性データに応じて振動したり音を発することで、ユーザの振る舞いに対するペットの反応を想起させることが可能となる。なおペット周辺デバイス6は図24に示す例に限定されず、例えばペット飼育用の籠、小屋、ボール等のペットの遊び道具、ペットの洋服等も想定される。 FIG. 24 is a diagram illustrating an outline of the fourth embodiment. As shown in FIG. 24, a collar capable of making a sound or vibrating (pet peripheral device 6A) and a collar with a lead (pet peripheral device 6B) can interact with each other even when the pet body is not present. By vibrating or making a sound according to the characteristic data, it is possible to recall the reaction of the pet to the behavior of the user. The pet peripheral device 6 is not limited to the example shown in FIG. 24, and for example, a pet breeding basket, a hut, a pet play tool such as a ball, a pet's clothes, and the like are assumed.

このようなペット周辺デバイス6のデバイスIDのサーバ3への登録処理は、第3の実施例による図20に示す処理と同様であって、例えば情報処理端末8においてペット周辺デバイス6のIDがユーザにより入力されると、当該デバイスIDがサーバ3へ送信され、ペット周辺デバイス管理テーブル324に登録される。具体的には、図21の下段に示すように、ペット周辺デバイス6のデバイスIDは、ペット周辺デバイス表現データおよびペットIDと紐付けられて登録される。 The process of registering the device ID of the pet peripheral device 6 in the server 3 is the same as the process shown in FIG. 20 according to the third embodiment. For example, in the information processing terminal 8, the ID of the pet peripheral device 6 is the user. When input by, the device ID is transmitted to the server 3 and registered in the pet peripheral device management table 324. Specifically, as shown in the lower part of FIG. 21, the device ID of the pet peripheral device 6 is registered in association with the pet peripheral device expression data and the pet ID.

図25は、本実施例によるペット周辺デバイス6へのデータ読み込み動作処理を示すシーケンス図である。図25に示すように、まず、ペット周辺デバイス6は、デバイスID(仮想生物アクセサリID)をサーバ3に送信し、インタラクション特性データの要求を行う(ステップS403)。 FIG. 25 is a sequence diagram showing a data reading operation process to the pet peripheral device 6 according to the present embodiment. As shown in FIG. 25, first, the pet peripheral device 6 transmits the device ID (virtual organism accessory ID) to the server 3 and requests the interaction characteristic data (step S403).

次に、サーバ3は、ペット周辺デバイス管理テーブル324(図21)を参照して、ペット周辺デバイス6から送信されたデバイスIDに対応するペットIDを取得する(ステップS406)。 Next, the server 3 refers to the pet peripheral device management table 324 (FIG. 21) and acquires the pet ID corresponding to the device ID transmitted from the pet peripheral device 6 (step S406).

次いで、サーバ3は、インタラクション特性管理テーブル322を参照して、当該ペットIDに対応するインタラクション特性データを取得する(ステップS409)。 Next, the server 3 refers to the interaction characteristic management table 322 and acquires the interaction characteristic data corresponding to the pet ID (step S409).

次に、サーバ3は、ペット周辺デバイス6にインタラクション特性データを送信する(ステップS412)。 Next, the server 3 transmits the interaction characteristic data to the pet peripheral device 6 (step S412).

次いで、ペット周辺デバイス6は、サーバ3から受信したインタラクション特性データを読み込む(ステップS415)。具体的には、ペット周辺デバイス6の記憶部にインタラクション特性データを記憶する。 Next, the pet peripheral device 6 reads the interaction characteristic data received from the server 3 (step S415). Specifically, the interaction characteristic data is stored in the storage unit of the pet peripheral device 6.

続いて、ペット周辺デバイス6は、ペット周辺デバイス6のデバイスIDをサーバ3に送信し、ペット周辺デバイス表現データの要求を行う(ステップS418)。 Subsequently, the pet peripheral device 6 transmits the device ID of the pet peripheral device 6 to the server 3 and requests the pet peripheral device expression data (step S418).

次に、サーバ3は、ペット周辺デバイス管理テーブル324を参照して、送信されたデバイスIDに対応するペット周辺デバイス表現データを取得する(ステップS421)。 Next, the server 3 refers to the pet peripheral device management table 324 and acquires the pet peripheral device representation data corresponding to the transmitted device ID (step S421).

次いで、サーバ3は、ペット周辺デバイス6に、ペット周辺デバイス表現データを送信する(ステップS424)。 Next, the server 3 transmits the pet peripheral device representation data to the pet peripheral device 6 (step S424).

そして、ペット周辺デバイス6は、サーバ3から受信したペット周辺デバイス表現データを読み込む(ステップS427)。具体的には、ペット周辺デバイス6の記憶部にペット周辺デバイス表現データを記憶する。ペット周辺デバイス表現データの一例については、図28を参照して後述する。 Then, the pet peripheral device 6 reads the pet peripheral device expression data received from the server 3 (step S427). Specifically, the pet peripheral device expression data is stored in the storage unit of the pet peripheral device 6. An example of pet peripheral device representation data will be described later with reference to FIG. 28.

続いて、読み込んだデータに基づく、ユーザの振る舞いに応じたペット周辺デバイス6の動作制御について、図26および図27を参照して説明する。図26および図27は、本実施例によるペット周辺デバイス6の動作処理を示すフローチャートである。 Subsequently, the operation control of the pet peripheral device 6 according to the behavior of the user based on the read data will be described with reference to FIGS. 26 and 27. 26 and 27 are flowcharts showing the operation processing of the pet peripheral device 6 according to this embodiment.

図26に示すように、まず、ペット周辺デバイス6は、ペット周辺デバイス6のマイクによりユーザの声を検出した場合(ステップS430/Yes)、検出したユーザの音声データを記憶部に一時的に記憶する(ステップS433)。 As shown in FIG. 26, first, when the pet peripheral device 6 detects the user's voice by the microphone of the pet peripheral device 6 (step S430 / Yes), the pet peripheral device 6 temporarily stores the detected voice data of the user in the storage unit. (Step S433).

次に、ペット周辺デバイス6は、ペット周辺デバイス6のセンサ(タッチセンサ、圧力センサ、加速度センサ、ジャイロセンサ、コンパス等)によりユーザの動きを検出した場合(ステップS436/Yes)、検出したユーザの動きデータを記憶部に一時的に記憶する(ステップS439)。 Next, when the pet peripheral device 6 detects the user's movement by the sensor of the pet peripheral device 6 (touch sensor, pressure sensor, acceleration sensor, gyro sensor, compass, etc.) (step S436 / Yes), the detected user The motion data is temporarily stored in the storage unit (step S439).

次いで、ペット周辺デバイス6は、ユーザに装着された動きセンサデバイスによりユーザの動きを検出した場合(ステップS442/Yes)、検出したユーザの動きデータを記憶部に一時的に記憶する(ステップS445)。 Next, when the pet peripheral device 6 detects the user's movement by the motion sensor device attached to the user (step S442 / Yes), the detected user's movement data is temporarily stored in the storage unit (step S445). ..

続いて、ペット周辺デバイス6は、一時記憶した各データに基づいて「ユーザの振る舞い」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS448)。上述したS430~S448は繰り返され、継続的にユーザ振る舞い判定が行われ得る。 Subsequently, the pet peripheral device 6 determines "user behavior" based on the temporarily stored data, and determines whether or not there is any corresponding interaction characteristic data read (step S448). The above-mentioned S430 to S448 are repeated, and the user behavior determination can be continuously performed.

次に、該当するユーザの振る舞いがある場合(ステップS448/Yes)、ペット周辺デバイス6は、当該ユーザの振る舞いに対応する愛情度を取得する(ステップS451)。 Next, when there is the behavior of the corresponding user (step S448 / Yes), the pet peripheral device 6 acquires the affection level corresponding to the behavior of the user (step S451).

次いで、ペット周辺デバイス6は、当該ユーザの振る舞いに対応するペットの反応パターン群を取得し(ステップS454)、取得した反応パターン群のうち、反応パターンの実行に必要な愛情度が「ユーザの振る舞いに対応する愛情度」を超えないものを抽出する(ステップS457)。 Next, the pet peripheral device 6 acquires a pet reaction pattern group corresponding to the behavior of the user (step S454), and among the acquired reaction pattern group, the affection level required for executing the reaction pattern is "user behavior". The ones that do not exceed the "degree of affection corresponding to" are extracted (step S457).

次に、ペット周辺デバイス6は、抽出した反応パターンからランダムに一つの反応パターンを選択する(ステップS460)。 Next, the pet peripheral device 6 randomly selects one reaction pattern from the extracted reaction patterns (step S460).

次いで、ペット周辺デバイス6は、ペット周辺デバイス表現データを参照し、選択した反応パターンに対応する表現データを取得する(ステップS463)。ここで、図28に、本実施例によるペット周辺デバイス表現データの一例を示す。図示されているように、ペット周辺デバイス表現データは、ペット周辺デバイス毎に、ペットの反応パターンに対応するペット周辺デバイス6による表現データ(動作内容)を有する。例えばペット周辺デバイス6A(鈴のついた首輪)において、「首を軽くうなだれる」という反応パターンが選択された場合、ペット周辺デバイス6は、対応するペット周辺デバイス6の表現データである「鈴が静かに1秒間鳴る」を取得する。 Next, the pet peripheral device 6 refers to the pet peripheral device expression data and acquires the expression data corresponding to the selected reaction pattern (step S463). Here, FIG. 28 shows an example of pet peripheral device representation data according to this embodiment. As shown in the figure, the pet peripheral device expression data has expression data (operation content) by the pet peripheral device 6 corresponding to the reaction pattern of the pet for each pet peripheral device. For example, in the pet peripheral device 6A (collar with a bell), when the reaction pattern of "lightly drooping the neck" is selected, the pet peripheral device 6 is the expression data of the corresponding pet peripheral device 6, "the bell is quiet". Sounds for 1 second. "

次に、図27に示すように、ペット周辺デバイス6は、取得したペット周辺デバイスの表現データが、音データの再生を必要とするものであるか否かを判断する(ステップS466)。 Next, as shown in FIG. 27, the pet peripheral device 6 determines whether or not the acquired expression data of the pet peripheral device requires reproduction of the sound data (step S466).

次いで、音データの再生を必要とするものである場合(ステップS466/Yes)、ペット周辺デバイス6が音データ再生機構を有しているか否かを判断する(ステップS469)。 Next, when it is necessary to reproduce the sound data (step S466 / Yes), it is determined whether or not the pet peripheral device 6 has the sound data reproduction mechanism (step S469).

次に、音データ再生機構を有している場合(ステップS469/Yes)、ペット周辺デバイス6は、取得したペット周辺デバイスの表現データに従って音データを再生するよう制御する(ステップS472)。 Next, when the pet peripheral device 6 has a sound data reproduction mechanism (step S469 / Yes), the pet peripheral device 6 controls to reproduce the sound data according to the acquired expression data of the pet peripheral device (step S472).

一方、音データ再生機構を有していない場合(ステップS469/No)、ペット周辺デバイス6は、音データを再生するという表現は実行することができない。 On the other hand, when the pet peripheral device 6 does not have the sound data reproduction mechanism (step S469 / No), the expression of reproducing the sound data cannot be executed.

次いで、取得したペット周辺デバイスの表現データが、デバイスの振動、回転、または駆動を必要とするものである場合(ステップS475/Yes)、ペット周辺デバイス6は、自身に振動、回転、または駆動する機構があるか否かを判断する(ステップS478)。 Then, if the acquired representation data of the pet peripheral device requires vibration, rotation, or drive of the device (step S475 / Yes), the pet peripheral device 6 vibrates, rotates, or drives itself. It is determined whether or not there is a mechanism (step S478).

次に、該当する機構がある場合(ステップS478/Yes)、ペット周辺デバイス6は、取得したペット周辺デバイスの表現データに従って、ペット周辺デバイス6の振動、回転、または駆動を実行する(ステップS481)。 Next, if there is a corresponding mechanism (step S478 / Yes), the pet peripheral device 6 vibrates, rotates, or drives the pet peripheral device 6 according to the acquired representation data of the pet peripheral device (step S481). ..

一方、該当する機構を有していない場合(ステップS478/No)、ペット周辺デバイス6は、振動、回転、または駆動といった表現は実行することができない。 On the other hand, if the pet peripheral device 6 does not have the corresponding mechanism (step S478 / No), the expression such as vibration, rotation, or drive cannot be executed.

以上説明したように、第4の実施例では、ペット周辺デバイス6に特定のペットのインタラクション特性データをロードし、ユーザの振る舞いに対して、インタラクション特性を間接的に再現し、ペット本体が居なくても、特定のペットの反応を表現することができる。 As described above, in the fourth embodiment, the interaction characteristic data of a specific pet is loaded into the pet peripheral device 6, the interaction characteristic is indirectly reproduced with respect to the behavior of the user, and the pet body is absent. However, it is possible to express the reaction of a specific pet.

<3-5.第5の実施例>
次に、第5の実施例として、アタッチメントデバイスをペットロボット1に装着して駆動能力を拡張する場合について図29~図32を参照して説明する。
<3-5. Fifth Example>
Next, as a fifth embodiment, a case where the attachment device is attached to the pet robot 1 to expand the driving ability will be described with reference to FIGS. 29 to 32.

本実施形態による情報処理システムでは、図29に示すように、例えば実在のペット4A、4Bから取得したインタラクション特性データを、猫型のペットロボット1A、犬型のペットロボット1C、アリクイ型のペットロボット1E、または鳥型のペットロボット1F等、様々なタイプの異なるペットロボット1に読み込ませてインタラクション特性を再現することができる。 In the information processing system according to the present embodiment, as shown in FIG. 29, for example, interaction characteristic data acquired from actual pets 4A and 4B are used as a cat-shaped pet robot 1A, a dog-shaped pet robot 1C, and an ariqui-shaped pet robot. It is possible to reproduce the interaction characteristics by loading it into various types of different pet robots 1 such as 1E or a bird-shaped pet robot 1F.

しかし、その動物ならではの特徴的な部位におけるインタラクション特性を再現することは、他の種別のペットロボットでは困難な場合がある。例えば、ヤマアラシの背中に密生する針状の体毛の動きや、ウサギの長い耳による動きを、他の種別のペットロボットでよりリアルに再現することは難しい。したがって、上述した実施例では、例えばペットロボット1からインタラクション特性データを新規で要求するリクエストがあった際、ペットロボット1の種別に応じた生物の一般的な初期用のインタラクション特性データを検索し、返信することが想定される。 However, it may be difficult for other types of pet robots to reproduce the interaction characteristics in the characteristic parts of the animal. For example, it is difficult for other types of pet robots to more realistically reproduce the movement of needle-shaped hair that grows densely on the back of porcupines and the movement of rabbits with long ears. Therefore, in the above-described embodiment, for example, when there is a new request for interaction characteristic data from the pet robot 1, the interaction characteristic data for general initial use of the organism according to the type of the pet robot 1 is searched for. It is expected to reply.

これに対し本実施例では、身体的に特徴のある動物のインタラクション特性をよりリアルに再現するためのアタッチメントデバイス7を用いる。 On the other hand, in this embodiment, an attachment device 7 for more realistically reproducing the interaction characteristics of a physically characteristic animal is used.

図30は、本実施例によるアタッチメントデバイス7の一例を示す図である。図30に示すように、例えばヤマアラシのアタッチメントデバイス7Aや、ウサギの耳のアタッチメントデバイス7Bを猫型のペットロボット1Aに装着することで、ペットロボット1Aの駆動能力を拡張し、他の種別の生物のインタラクション特性をより忠実に再現することが可能となる。 FIG. 30 is a diagram showing an example of the attachment device 7 according to the present embodiment. As shown in FIG. 30, for example, by attaching a porcupine attachment device 7A or a rabbit ear attachment device 7B to a cat-shaped pet robot 1A, the driving ability of the pet robot 1A can be expanded and other types of organisms can be used. It is possible to more faithfully reproduce the interaction characteristics of.

図31は、駆動能力の拡張について具体的に説明する図である。図31の上段に示すように、インタラクション特性データでは、あるペットの反応パターン「片方の耳を折り曲げる」を実行するために必要なデバイス(ペットロボット)の駆動能力「駆動できる関節を持った長い耳」が規定されている。一方、各ペットロボット1には、ハードウェアの能力に従って固有の駆動能力が定義されている。例えば図31の下段に示すように、ペットロボット1Aの駆動能力として、前足の駆動能力、尻尾の駆動能力、首の駆動能力等が定義されている。ペットロボット1Aが「駆動できる関節を持った長い耳」といった必要な駆動能力を有していない場合、当該反応パターンは再現できないが、図31の下段に示すように、駆動できる関節を持つ長い耳のアタッチメントデバイス7Bを装着することで駆動能力が拡張され、当該反応パターンを再現することが可能となる。 FIG. 31 is a diagram specifically illustrating the expansion of the drive capacity. As shown in the upper part of FIG. 31, in the interaction characteristic data, the driving ability of the device (pet robot) required to execute the reaction pattern "bend one ear" of a pet "long ears with driveable joints". Is stipulated. On the other hand, each pet robot 1 has its own driving ability defined according to the ability of the hardware. For example, as shown in the lower part of FIG. 31, as the driving ability of the pet robot 1A, the driving ability of the forefoot, the driving ability of the tail, the driving ability of the neck, and the like are defined. If the pet robot 1A does not have the necessary driving ability such as "long ears with driveable joints", the reaction pattern cannot be reproduced, but as shown in the lower part of FIG. 31, long ears with driveable joints. By attaching the attachment device 7B of the above, the driving ability is expanded and the reaction pattern can be reproduced.

図32は、本実施例によるペットロボット1の動作処理を示すフローチャートである。図32に示すように、まず、ペットロボット1は、ユーザの振る舞いに応じて、インタラクション特性データを参照してペットの反応パターンを取得する(ステップS503)。 FIG. 32 is a flowchart showing the operation processing of the pet robot 1 according to the present embodiment. As shown in FIG. 32, first, the pet robot 1 acquires the reaction pattern of the pet by referring to the interaction characteristic data according to the behavior of the user (step S503).

次に、ペットロボット1は、ペットの反応パターンの実行に必要なデバイスの駆動能力をサーバ3から取得する(ステップS506)。 Next, the pet robot 1 acquires the drive capability of the device required for executing the reaction pattern of the pet from the server 3 (step S506).

次いで、ペットロボット1は、自身が有する駆動能力を取得し(ステップS509)、ペットロボット1の駆動能力に、ペットの反応パターンに必要な駆動能力が含まれているか否かを判断する(ステップS512)。 Next, the pet robot 1 acquires the driving ability of the pet robot 1 (step S509), and determines whether or not the driving ability of the pet robot 1 includes the driving ability required for the reaction pattern of the pet (step S512). ).

次に、含まれている場合(ステップS512/Yes)、ペットロボット1は、ペットの反応パターンに従って、ペットロボット1を動作させる(ステップS515)。 Next, when included (step S512 / Yes), the pet robot 1 operates the pet robot 1 according to the reaction pattern of the pet (step S515).

一方、含まれていない場合(ステップS512/No)、ペットロボット1は、アタッチメントデバイス7が装着されているか否かを判断する(ステップS518)。 On the other hand, if it is not included (step S512 / No), the pet robot 1 determines whether or not the attachment device 7 is attached (step S518).

アタッチメントデバイス7が装着されている場合(ステップS518/Yes)、ペットロボット1は、アタッチメントデバイス7が有する駆動能力を取得する(ステップS521)。 When the attachment device 7 is attached (step S518 / Yes), the pet robot 1 acquires the driving ability of the attachment device 7 (step S521).

次いで、ペットロボット1は、アタッチメントデバイス7の駆動能力に、ペットの反応パターンの実行に必要な駆動能力が含まれているか否かを判断する(ステップS524)。 Next, the pet robot 1 determines whether or not the drive capability of the attachment device 7 includes the drive capability required to execute the reaction pattern of the pet (step S524).

そして、含まれている場合(ステップS524/Yes)、ペットロボット1は、ペットの反応パターンに従ってアタッチメントデバイス7を動作させる(ステップS527)。 Then, when included (step S524 / Yes), the pet robot 1 operates the attachment device 7 according to the reaction pattern of the pet (step S527).

一方、アタッチメントデバイス7が装着されていない場合(ステップS518/No)や、装着されていても反応パターンを実行するために必要な駆動能力が含まれていない場合(ステップS524/No)、ペットロボット1は、当該反応パターンを実行することができないため、ステップS503に戻り、次のユーザの振る舞いを待つ。 On the other hand, when the attachment device 7 is not attached (step S518 / No), or when the attachment device 7 is attached but the drive capability required to execute the reaction pattern is not included (step S524 / No), the pet robot Since 1 cannot execute the reaction pattern, the process returns to step S503 and waits for the behavior of the next user.

以上説明したように、第5の実施例では、身体的な特徴を有するペットの反応パターンを実現するためのアタッチメントデバイス7をペットロボット1に装着し、ペットロボット1の駆動能力を拡張して、インタラクション特性をより確実に再現することを可能とする。なおペットロボット1は、新規にインタラクション特性データをサーバ3に要求する際、ペットロボット1の種別ID(仮想生物ID)と、装着されているアタッチメントデバイス7のID(アタッチメントデバイスID:機能拡張のフラグの一例)と、ユーザIDを含めて送信してもよい。この場合、サーバ3は、種別IDに対応する生物の種類とは異なる、アタッチメントデバイスIDに対応する種類の生物の初期状態用の一般的なインタラクション特性データを検索し、返信するようにしてもよい。 As described above, in the fifth embodiment, the attachment device 7 for realizing the reaction pattern of the pet having physical characteristics is attached to the pet robot 1, and the driving ability of the pet robot 1 is expanded. It makes it possible to reproduce the interaction characteristics more reliably. When the pet robot 1 newly requests the interaction characteristic data from the server 3, the pet robot 1 type ID (virtual organism ID) and the attached attachment device 7 ID (attachment device ID: function expansion flag) are used. (Example)) and the user ID may be included in the transmission. In this case, the server 3 may search for and return general interaction characteristic data for the initial state of the type of organism corresponding to the attachment device ID, which is different from the type of organism corresponding to the type ID. ..

<<5.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、ユーザの振る舞いに対する実在または仮想の生物のインタラクション特性を再現することを可能とする。
<< 5. Summary >>
As described above, the information processing system according to the embodiment of the present disclosure makes it possible to reproduce the interaction characteristics of a real or virtual organism with respect to the behavior of the user.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, the present technology is not limited to such examples. It is clear that anyone with ordinary knowledge in the art of the present disclosure may come up with various modifications or amendments within the scope of the technical ideas set forth in the claims. Is, of course, understood to belong to the technical scope of the present disclosure.

例えば、上述した情報処理システムのペットロボット1、サーバ3、ユーザ端末5、または情報処理端末8に内蔵されるCPU、ROM、およびRAM等のハードウェアに、ペットロボット1、サーバ3、ユーザ端末5、または情報処理端末8の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。 For example, the hardware such as the CPU, ROM, and RAM built in the above-mentioned information processing system pet robot 1, server 3, user terminal 5, or information processing terminal 8, and the pet robot 1, server 3, and user terminal 5 , Or a computer program for exerting the function of the information processing terminal 8 can also be created. Also provided is a computer-readable storage medium that stores the computer program.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 In addition, the effects described herein are merely explanatory or exemplary and are not limited. That is, the technique according to the present disclosure may exert other effects apparent to those skilled in the art from the description of the present specification, in addition to or in place of the above effects.

なお、本技術は以下のような構成も取ることができる。
(1)
ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積する蓄積部と、
仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信する通信部と、
前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御する制御部と、
を備える、仮想生物制御システム。
(2)
前記制御部は、前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる前記オブジェクトIDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御する、前記(1)に記載の仮想生物制御システム。
(3)
前記制御部は、
前記通信部を介して、前記仮想生物デバイスにより検出されたユーザの振る舞いと、それに対して当該仮想生物を動作させた前記インタラクション特性データの反応データとを取得すると、
前記蓄積部に蓄積される前記インタラクション特性データを、取得した前記ユーザの振る舞いと前記反応データに応じて更新するように制御する、前記(1)に記載の仮想生物制御システム。
(4)
前記制御部は、前記ユーザの振る舞いの頻度に応じて、当該振る舞いに対応する愛情度を更新する、前記(3)に記載の仮想生物制御システム。
(5)
前記制御部は、
前記通信部を介して、仮想生物育成アプリケーションが実装される前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
当該リクエストに含まれる仮想生物IDに対応する前記インタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(1)に記載の仮想生物制御システム。
(6)
前記制御部は、
前記通信部を介して、仮想生物育成アプリケーションが実装される前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
当該リクエストに含まれるオブジェクトIDに対応する前記インタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(1)に記載の仮想生物制御システム。
(7)
前記制御部は、
前記通信部を介して、前記ユーザの振る舞いと、それに対する実在する生物の反応を表す反応データを取得し、
前記蓄積部に、前記ユーザIDと、前記実在する生物のIDを示すオブジェクトIDとを関連付けて、前記ユーザの振る舞いと前記反応データに応じて、前記インタラクション特性データを更新する、前記(1)に記載の仮想生物制御システム。
(8)
前記制御部は、
前記通信部を介して、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
当該リクエストに含まれる仮想生物IDに応じて、前記実在する生物のIDを示すオブジェクトIDを特定し、
当該オブジェクトIDに応じて、前記蓄積部から、前記インタラクション特性データを検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(7)に記載の仮想生物制御システム。
(9)
前記制御部は、
前記通信部を介して、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
当該リクエストに含まれる仮想生物IDの生物の種類とは異なる種類の、前記実在する生物のインタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(7)に記載の仮想生物制御システム。
(10)
前記制御部は、
前記通信部を介して受信される、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストの中に、機能拡張のフラグが含まれる際、当該リクエストに含まれる仮想生物IDの生物の種類とは異なる、機能拡張のフラグに対応する種類の生物の前記インタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(1)に記載の仮想生物制御システム。
(11)
前記制御部は、
前記通信部を介して、外部デバイスから、仮想生物アクセサリIDを含む前記インタラクション特性データを要求するリクエストを受信すると、
当該仮想生物アクセサリIDに紐付けられたオブジェクトIDを特定し、当該オブジェクトIDに応じて、前記蓄積部から前記インタラクション特性データを検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記外部デバイスに返信する、前記(1)に記載の仮想生物制御システム。
(12)
仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、
前記インタラクション特性データを蓄積する蓄積部と、
前記ユーザの振る舞いをセンシングするセンサ部と、
前記ユーザの振る舞いに対して反応するリアクション部と、
前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、
を備える、仮想生物制御システム。
(13)
前記仮想生物制御システムは、カードリーダをさらに備え、
前記制御部は、
前記通信部を介して、
前記カードリーダを介して入力されたオブジェクトIDと、ユーザIDを特定するための情報を前記サーバに送信し、
前記ユーザIDと前記オブジェクトIDに応じた前記インタラクション特性データを前記サーバより受信する、前記(12)記載の仮想生物制御システム。
(14)
前記仮想生物制御システムを拡張する機能拡張モジュールを取り付け可能であり、
前記通信部は、
前記機能拡張モジュールが取り付けられている際、前記通信部を介して、ユーザID、仮想生物ID、機能拡張のフラグを含む、前記インタラクション特性データを要求するリクエストを送信し、
前記仮想生物IDの生物の種類とは異なる種類の前記インタラクション特性データを前記サーバから受信し、
前記制御部は、前記インタラクション特性データに応じて、前記ユーザの振る舞いに対して、前記機能拡張モジュールおよび前記リアクション部を制御する、前記(12)に記載の仮想生物制御システム。
(15)
前記制御部は、前記ユーザの振る舞いに対応する愛情度を取得し、前記インタラクション特性データで定義されている前記ユーザの振る舞いに対する1以上の反応パターンのうち、前記愛情度に応じて、一の反応パターンを選択し、前記リアクション部を制御する、前記(12)または(13)に記載の仮想生物制御システム。
(16)
プロセッサが、
ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積部に蓄積することと、
通信部を介して、仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信することと、
前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御することと、
を含む、仮想生物制御方法。
(17)
コンピュータを、
仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、
前記インタラクション特性データを蓄積する蓄積部と、
前記ユーザの振る舞いをセンシングするセンサ部と、
前記ユーザの振る舞いに対して反応するリアクション部と、
前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、
として機能させるためのプログラムが記憶された、記憶媒体。
The present technology can also have the following configurations.
(1)
A storage unit that stores interaction characteristic data indicating the interaction characteristics of the object with respect to the user in units of user ID and object ID.
A communication unit that receives a request for the interaction characteristic data from the virtual biological device and returns the interaction characteristic data.
In response to a request for the interaction characteristic data received from the virtual organism device via the communication unit, the interaction characteristic data is generated based on the virtual organism ID included in the request and the specified user ID. A control unit that searches from the storage unit and controls the searched interaction characteristic data to be returned via the communication unit.
A virtual biological control system.
(2)
The control unit responds to a request for requesting the interaction characteristic data received from the virtual biological device via the communication unit, based on the object ID included in the request and the specified user ID. The virtual biological control system according to (1) above, wherein the interaction characteristic data is searched from the storage unit, and the searched interaction characteristic data is controlled to be returned via the communication unit.
(3)
The control unit
When the behavior of the user detected by the virtual creature device and the reaction data of the interaction characteristic data in which the virtual creature is operated are acquired via the communication unit, the behavior data of the user is obtained.
The virtual organism control system according to (1) above, which controls the interaction characteristic data accumulated in the storage unit so as to be updated according to the acquired behavior of the user and the reaction data.
(4)
The virtual biological control system according to (3) above, wherein the control unit updates the degree of affection corresponding to the behavior according to the frequency of the behavior of the user.
(5)
The control unit
Upon receiving a request for the interaction characteristic data from the virtual organism device on which the virtual organism breeding application is implemented via the communication unit,
The interaction characteristic data corresponding to the virtual organism ID included in the request is searched from the storage unit, and the data is searched.
The virtual biological control system according to (1), wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
(6)
The control unit
Upon receiving a request for the interaction characteristic data from the virtual organism device on which the virtual organism breeding application is implemented via the communication unit,
The interaction characteristic data corresponding to the object ID included in the request is searched from the storage unit.
The virtual biological control system according to (1), wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
(7)
The control unit
Through the communication unit, reaction data representing the behavior of the user and the reaction of an existing organism to the behavior is acquired.
In the above (1), the user ID and the object ID indicating the ID of the existing organism are associated with the storage unit, and the interaction characteristic data is updated according to the behavior of the user and the reaction data. Described virtual biological control system.
(8)
The control unit
Upon receiving a request for the interaction characteristic data from the virtual biological device via the communication unit,
According to the virtual creature ID included in the request, the object ID indicating the ID of the real creature is specified, and the object ID is specified.
The interaction characteristic data is searched from the storage unit according to the object ID, and the interaction characteristic data is searched for.
The virtual biological control system according to (7), wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
(9)
The control unit
Upon receiving a request for the interaction characteristic data from the virtual biological device via the communication unit,
The interaction characteristic data of the existing organism, which is different from the type of the organism of the virtual organism ID included in the request, is searched from the storage unit.
The virtual biological control system according to (7), wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
(10)
The control unit
When the function expansion flag is included in the request for the interaction characteristic data from the virtual organism device received via the communication unit, the type of organism of the virtual organism ID included in the request is used. Searches the storage for the interaction characteristic data of different organisms of the type corresponding to the enhancement flag.
The virtual biological control system according to (1), wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
(11)
The control unit
Upon receiving a request from an external device for the interaction characteristic data including the virtual biological accessory ID via the communication unit,
The object ID associated with the virtual biological accessory ID is specified, and the interaction characteristic data is searched from the storage unit according to the object ID.
The virtual biological control system according to (1), wherein the searched interaction characteristic data is returned to the external device via the communication unit.
(12)
A communication unit that sends a request for interaction characteristic data indicating the interaction characteristics to the user of the virtual organism and receives the interaction characteristic data returned from the server in response to the request.
The storage unit that stores the interaction characteristic data and
The sensor unit that senses the behavior of the user and
A reaction unit that reacts to the behavior of the user,
A control unit that controls the reaction unit so as to react to the behavior of the user sensed by the sensor unit according to the interaction characteristic data received by the communication unit.
A virtual biological control system.
(13)
The virtual biological control system further comprises a card reader.
The control unit
Through the communication unit,
The object ID input via the card reader and the information for identifying the user ID are transmitted to the server.
The virtual organism control system according to (12), wherein the interaction characteristic data corresponding to the user ID and the object ID is received from the server.
(14)
A function expansion module that expands the virtual biological control system can be attached.
The communication unit
When the function expansion module is attached, a request for requesting the interaction characteristic data including a user ID, a virtual organism ID, and a function expansion flag is transmitted via the communication unit.
The interaction characteristic data of a type different from the type of organism of the virtual organism ID is received from the server, and the interaction characteristic data is received from the server.
The virtual organism control system according to (12), wherein the control unit controls the function expansion module and the reaction unit with respect to the behavior of the user according to the interaction characteristic data.
(15)
The control unit acquires the affection level corresponding to the behavior of the user, and one reaction according to the affection level among one or more reaction patterns to the behavior of the user defined in the interaction characteristic data. The virtual organism control system according to (12) or (13) above, wherein a pattern is selected and the reaction unit is controlled.
(16)
The processor,
By accumulating interaction characteristic data indicating the characteristics of interaction with the user of the object in the storage unit for each user ID and object ID,
Receiving a request for the interaction characteristic data from the virtual biological device via the communication unit, and returning the interaction characteristic data.
In response to a request for the interaction characteristic data received from the virtual organism device via the communication unit, the interaction characteristic data is generated based on the virtual organism ID included in the request and the specified user ID. By searching from the storage unit and controlling the searched interaction characteristic data to be returned via the communication unit,
Virtual organism control methods, including.
(17)
Computer,
A communication unit that sends a request for interaction characteristic data indicating the interaction characteristics to the user of the virtual organism and receives the interaction characteristic data returned from the server in response to the request.
The storage unit that stores the interaction characteristic data and
The sensor unit that senses the behavior of the user and
A reaction unit that reacts to the behavior of the user,
A control unit that controls the reaction unit so as to react to the behavior of the user sensed by the sensor unit according to the interaction characteristic data received by the communication unit.
A storage medium in which a program for functioning as a device is stored.

1 ペットロボット
2 ネットワーク
3 サーバ
4 ペット
5 ユーザ端末
6 ペット周辺デバイス
7 アタッチメントデバイス
8 情報処理端末
10 制御部
11 通信部
14 位置情報取得部
15 カメラ
16 音声入力部
17 生体センサ
18 駆動部
19 圧力センサ
20 記憶部
21 表示部
22 音声出力部
23 加速度センサ
24 角速度センサ
30 制御部
31 通信部
32 記憶部
50 タイニーペットロボット
70 カードリーダ
80 監視カメラ
101 判定部
102 ペット動作制御部
210 センサデータ一時記憶部
212 インタラクション特性データ記憶部
301 ログイン処理部
302 インタラクション特性検索部
303 インタラクション特性学習部
321 ユーザ管理テーブル
322 インタラクション特性管理テーブル
323 監視カメラ管理テーブル
324 ペット周辺デバイス管理テーブル
325 インタラクション特性データDB
326 ペット周辺デバイス表現テーブル
327 ユーザの振る舞いデータ一時記憶部
1 Pet robot 2 Network 3 Server 4 Pet 5 User terminal 6 Pet peripheral device 7 Attachment device 8 Information processing terminal 10 Control unit 11 Communication unit 14 Position information acquisition unit 15 Camera 16 Voice input unit 17 Biosensor 18 Drive unit 19 Pressure sensor 20 Storage unit 21 Display unit 22 Audio output unit 23 Acceleration sensor 24 Angle speed sensor 30 Control unit 31 Communication unit 32 Storage unit 50 Tiny pet robot 70 Card reader 80 Surveillance camera 101 Judgment unit 102 Pet motion control unit 210 Sensor data temporary storage unit 212 Interaction Characteristic data storage unit 301 Login processing unit 302 Interaction characteristic search unit 303 Interaction characteristic learning unit 321 User management table 322 Interaction characteristic management table 323 Surveillance camera management table 324 Pet peripheral device management table 325 Interaction characteristic data DB
326 Pet peripheral device representation table 327 User behavior data Temporary storage

Claims (15)

ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積する蓄積部と、
仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信する通信部と、
前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、前記リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信し、
前記通信部を介して、前記ユーザの振る舞いと、それに対する実在する生物の反応を表す反応データを取得し、
前記蓄積部に、前記ユーザIDと、前記実在する生物のIDを示すオブジェクトIDとを関連付けて、前記ユーザの振る舞いと前記反応データに応じて、前記インタラクション特性データを更新し、
前記リクエストを受信すると、前記リクエストに含まれる前記仮想生物IDの生物の種類とは異なる種類の、前記実在する生物のインタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索された前記インタラクション特性データを、前記仮想生物デバイスに返信するように制御する制御部と、
を備える、仮想生物制御システム。
A storage unit that stores interaction characteristic data indicating the interaction characteristics of the object with respect to the user in units of user ID and object ID.
A communication unit that receives a request for the interaction characteristic data from the virtual biological device and returns the interaction characteristic data.
In response to a request for the interaction characteristic data received from the virtual organism device via the communication unit, the interaction characteristic data is generated based on the virtual organism ID included in the request and the specified user ID. Search from the storage unit, and return the searched interaction characteristic data via the communication unit.
Through the communication unit, reaction data representing the behavior of the user and the reaction of an existing organism to the behavior is acquired.
The user ID and the object ID indicating the ID of the existing organism are associated with the storage unit, and the interaction characteristic data is updated according to the behavior of the user and the reaction data.
Upon receiving the request, the interaction characteristic data of the existing organism, which is different from the type of the organism of the virtual organism ID included in the request, is searched from the storage unit.
A control unit that controls the searched interaction characteristic data to be returned to the virtual biological device via the communication unit .
A virtual biological control system.
前記制御部は、前記リクエストに応じて、前記リクエストに含まれる前記オブジェクトIDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御する、請求項1に記載の仮想生物制御システム。 In response to the request , the control unit searches for the interaction characteristic data from the storage unit based on the object ID included in the request and the specified user ID, and the searched interaction. The virtual biological control system according to claim 1, wherein the characteristic data is controlled to be returned via the communication unit. 前記制御部は、
前記通信部を介して、前記仮想生物デバイスにより検出されたユーザの振る舞いと、それに対して当該仮想生物を動作させた前記インタラクション特性データの反応データとを取得すると、
前記蓄積部に蓄積される前記インタラクション特性データを、取得した前記ユーザの振る舞いと前記反応データに応じて更新するように制御する、請求項1に記載の仮想生物制御システム。
The control unit
When the behavior of the user detected by the virtual creature device and the reaction data of the interaction characteristic data in which the virtual creature is operated are acquired via the communication unit, the behavior data of the user is obtained.
The virtual organism control system according to claim 1, wherein the interaction characteristic data accumulated in the storage unit is controlled to be updated according to the acquired behavior of the user and the reaction data.
前記制御部は、前記ユーザの振る舞いの頻度に応じて、当該振る舞いに対応する愛情度を更新する、請求項3に記載の仮想生物制御システム。 The virtual biological control system according to claim 3, wherein the control unit updates the degree of affection corresponding to the behavior according to the frequency of the behavior of the user. 前記制御部は、
前記通信部を介して、仮想生物育成アプリケーションが実装される前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
当該リクエストに含まれる仮想生物IDに対応する前記インタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項1に記載の仮想生物制御システム。
The control unit
Upon receiving a request for the interaction characteristic data from the virtual organism device on which the virtual organism breeding application is implemented via the communication unit,
The interaction characteristic data corresponding to the virtual organism ID included in the request is searched from the storage unit, and the data is searched.
The virtual biological control system according to claim 1, wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
前記制御部は、
前記通信部を介して、仮想生物育成アプリケーションが実装される前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
当該リクエストに含まれるオブジェクトIDに対応する前記インタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項1に記載の仮想生物制御システム。
The control unit
Upon receiving a request for the interaction characteristic data from the virtual organism device on which the virtual organism breeding application is implemented via the communication unit,
The interaction characteristic data corresponding to the object ID included in the request is searched from the storage unit.
The virtual biological control system according to claim 1, wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
前記制御部は、
記リクエストを受信すると、
前記リクエストに含まれる仮想生物IDに応じて、前記実在する生物のIDを示すオブジェクトIDを特定し、
当該オブジェクトIDに応じて、前記蓄積部から、前記インタラクション特性データを検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項に記載の仮想生物制御システム。
The control unit
Upon receiving the request ,
According to the virtual creature ID included in the request, the object ID indicating the ID of the real creature is specified, and the object ID is specified.
The interaction characteristic data is searched from the storage unit according to the object ID, and the interaction characteristic data is searched for.
The virtual biological control system according to claim 1 , wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
前記制御部は、
前記通信部を介して受信される、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストの中に、機能拡張のフラグが含まれる際、当該リクエストに含まれる仮想生物IDの生物の種類とは異なる、機能拡張のフラグに対応する種類の生物の前記インタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項1に記載の仮想生物制御システム。
The control unit
When the function expansion flag is included in the request for the interaction characteristic data from the virtual organism device received via the communication unit, the type of organism of the virtual organism ID included in the request is used. Searches the storage for the interaction characteristic data of different organisms of the type corresponding to the enhancement flag.
The virtual biological control system according to claim 1, wherein the searched interaction characteristic data is returned to the virtual biological device via the communication unit.
前記制御部は、
前記通信部を介して、外部デバイスから、仮想生物アクセサリIDを含む前記インタラクション特性データを要求するリクエストを受信すると、
当該仮想生物アクセサリIDに紐付けられたオブジェクトIDを特定し、当該オブジェクトIDに応じて、前記蓄積部から前記インタラクション特性データを検索し、
前記通信部を介して、前記検索されたインタラクション特性データを、前記外部デバイスに返信する、請求項1に記載の仮想生物制御システム。
The control unit
Upon receiving a request from an external device for the interaction characteristic data including the virtual biological accessory ID via the communication unit,
The object ID associated with the virtual biological accessory ID is specified, and the interaction characteristic data is searched from the storage unit according to the object ID.
The virtual biological control system according to claim 1, wherein the searched interaction characteristic data is returned to the external device via the communication unit.
仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求し、仮想生物IDを含むリクエストを送信すると共に、そのリクエストに対してサーバより返信される、前記仮想生物IDの生物の種類とは異なる種類の実在する生物のインタラクション特性データを受信する通信部と、
前記インタラクション特性データを蓄積する蓄積部と、
前記ユーザの振る舞いをセンシングするセンサ部と、
前記ユーザの振る舞いに対して反応するリアクション部と、
前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、
を備える、仮想生物制御システム。
It is different from the type of organism of the virtual creature ID, which requests interaction characteristic data indicating the characteristics of the interaction with the user of the virtual creature, sends a request including the virtual creature ID, and is returned from the server in response to the request. A communication unit that receives interaction characteristic data of different types of living organisms ,
The storage unit that stores the interaction characteristic data and
The sensor unit that senses the behavior of the user and
A reaction unit that reacts to the behavior of the user,
A control unit that controls the reaction unit so as to react to the behavior of the user sensed by the sensor unit according to the interaction characteristic data received by the communication unit.
A virtual biological control system.
前記仮想生物制御システムは、カードリーダをさらに備え、
前記制御部は、
前記通信部を介して、
前記カードリーダを介して入力されたオブジェクトIDと、ユーザIDを特定するための情報を前記サーバに送信し、
前記ユーザIDと前記オブジェクトIDに応じた前記インタラクション特性データを前記サーバより受信する、請求項10に記載の仮想生物制御システム。
The virtual biological control system further comprises a card reader.
The control unit
Through the communication unit,
The object ID input via the card reader and the information for identifying the user ID are transmitted to the server.
The virtual biological control system according to claim 10 , wherein the interaction characteristic data corresponding to the user ID and the object ID is received from the server.
前記仮想生物制御システムを拡張する機能拡張モジュールを取り付け可能であり、
前記通信部は、
前記機能拡張モジュールが取り付けられている際、前記通信部を介して、ユーザID、仮想生物ID、機能拡張のフラグを含む、前記インタラクション特性データを要求するリクエストを送信し、
前記仮想生物IDの生物の種類とは異なる種類の前記インタラクション特性データを前記サーバから受信し、
前記制御部は、前記インタラクション特性データに応じて、前記ユーザの振る舞いに対して、前記機能拡張モジュールおよび前記リアクション部を制御する、請求項10に記載の仮想生物制御システム。
A function expansion module that expands the virtual biological control system can be attached.
The communication unit
When the function expansion module is attached, a request for requesting the interaction characteristic data including a user ID, a virtual organism ID, and a function expansion flag is transmitted via the communication unit.
The interaction characteristic data of a type different from the type of organism of the virtual organism ID is received from the server, and the interaction characteristic data is received from the server.
The virtual biological control system according to claim 10 , wherein the control unit controls the function expansion module and the reaction unit with respect to the behavior of the user according to the interaction characteristic data.
前記制御部は、前記ユーザの振る舞いに対応する愛情度を取得し、前記インタラクション特性データで定義されている前記ユーザの振る舞いに対する1以上の反応パターンのうち、前記愛情度に応じて、一の反応パターンを選択し、前記リアクション部を制御する、請求項10または11に記載の仮想生物制御システム。 The control unit acquires the affection level corresponding to the behavior of the user, and one reaction according to the affection level among one or more reaction patterns to the behavior of the user defined in the interaction characteristic data. The virtual organism control system according to claim 10 or 11 , wherein a pattern is selected and the reaction unit is controlled. プロセッサが、
ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積部に蓄積することと、
通信部を介して、仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信することと、
前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、前記リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信し、
前記通信部を介して、前記ユーザの振る舞いと、それに対する実在する生物の反応を表す反応データを取得し、
前記蓄積部に、前記ユーザIDと、前記実在する生物のIDを示すオブジェクトIDとを関連付けて、前記ユーザの振る舞いと前記反応データに応じて、前記インタラクション特性データを更新し、
前記リクエストを受信すると、前記リクエストに含まれる前記仮想生物IDの生物の種類とは異なる種類の、前記実在する生物のインタラクション特性データを前記蓄積部から検索し、
前記通信部を介して、前記検索された前記インタラクション特性データを、前記仮想生物デバイスに返信するように制御することと、
を含む、仮想生物制御方法。
The processor,
By accumulating interaction characteristic data indicating the characteristics of interaction with the user of the object in the storage unit for each user ID and object ID,
Receiving a request for the interaction characteristic data from the virtual biological device via the communication unit and returning the interaction characteristic data.
In response to a request for the interaction characteristic data received from the virtual organism device via the communication unit, the interaction characteristic data is generated based on the virtual organism ID included in the request and the specified user ID. Search from the storage unit, and return the searched interaction characteristic data via the communication unit.
Through the communication unit, reaction data representing the behavior of the user and the reaction of an existing organism to the behavior is acquired.
The user ID and the object ID indicating the ID of the existing organism are associated with the storage unit, and the interaction characteristic data is updated according to the behavior of the user and the reaction data.
Upon receiving the request, the interaction characteristic data of the existing organism, which is different from the type of the organism of the virtual organism ID included in the request, is searched from the storage unit.
Controlling the searched interaction characteristic data to be returned to the virtual biological device via the communication unit .
Virtual organism control methods, including.
コンピュータを、
仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求し、仮想生物IDを含むリクエストを送信すると共に、そのリクエストに対してサーバより返信される、前記仮想生物IDの生物の種類とは異なる種類の実在する生物のインタラクション特性データを受信する通信部と、
前記インタラクション特性データを蓄積する蓄積部と、
前記ユーザの振る舞いをセンシングするセンサ部と、
前記ユーザの振る舞いに対して反応するリアクション部と、
前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、
として機能させるためのプログラム。
Computer,
It is different from the type of organism of the virtual creature ID, which requests interaction characteristic data indicating the characteristics of the interaction with the user of the virtual creature, sends a request including the virtual creature ID, and is returned from the server in response to the request. A communication unit that receives interaction characteristic data of different types of living organisms ,
The storage unit that stores the interaction characteristic data and
The sensor unit that senses the behavior of the user and
A reaction unit that reacts to the behavior of the user,
A control unit that controls the reaction unit so as to react to the behavior of the user sensed by the sensor unit according to the interaction characteristic data received by the communication unit.
A program to function as.
JP2018538030A 2016-09-06 2017-06-05 Virtual organism control systems, virtual organism control methods, and programs Active JP7014168B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016173795 2016-09-06
JP2016173795 2016-09-06
PCT/JP2017/020890 WO2018047426A1 (en) 2016-09-06 2017-06-05 Virtual biocontrol system, virtual biocontrol method, and recording medium

Publications (2)

Publication Number Publication Date
JPWO2018047426A1 JPWO2018047426A1 (en) 2019-06-24
JP7014168B2 true JP7014168B2 (en) 2022-02-01

Family

ID=61562636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018538030A Active JP7014168B2 (en) 2016-09-06 2017-06-05 Virtual organism control systems, virtual organism control methods, and programs

Country Status (2)

Country Link
JP (1) JP7014168B2 (en)
WO (1) WO2018047426A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150064153A1 (en) 2013-03-15 2015-03-05 The Trustees Of Princeton University High efficiency microfluidic purification of stem cells to improve transplants
JP2022051982A (en) 2019-02-15 2022-04-04 ソニーグループ株式会社 Information processor and information processing method
WO2023037608A1 (en) * 2021-09-10 2023-03-16 ソニーグループ株式会社 Autonomous mobile body, information processing method, and program
WO2023037609A1 (en) * 2021-09-10 2023-03-16 ソニーグループ株式会社 Autonomous mobile body, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000066239A1 (en) 1999-04-30 2000-11-09 Sony Corporation Electronic pet system, network system, robot, and storage medium
JP2001191275A (en) 1999-10-29 2001-07-17 Sony Corp Robot system, exterior, and robot device
JP2003039362A (en) 2001-07-27 2003-02-13 Matsushita Electric Ind Co Ltd Pet type robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000066239A1 (en) 1999-04-30 2000-11-09 Sony Corporation Electronic pet system, network system, robot, and storage medium
JP2001191275A (en) 1999-10-29 2001-07-17 Sony Corp Robot system, exterior, and robot device
JP2003039362A (en) 2001-07-27 2003-02-13 Matsushita Electric Ind Co Ltd Pet type robot

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
梶浦 文夫,動物の動きを計測・解析する入門教育の試み,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2008年10月10日,第108巻 第247号,p.29~32

Also Published As

Publication number Publication date
WO2018047426A1 (en) 2018-03-15
JPWO2018047426A1 (en) 2019-06-24

Similar Documents

Publication Publication Date Title
JP7014168B2 (en) Virtual organism control systems, virtual organism control methods, and programs
JP7400923B2 (en) Information processing device and information processing method
US8538750B2 (en) Speech communication system and method, and robot apparatus
US7076331B1 (en) Robot, method of robot control, and program recording medium
US20230266767A1 (en) Information processing apparatus, information processing method, and program
US20180376069A1 (en) Erroneous operation-preventable robot, robot control method, and recording medium
CN113164822B (en) Robot for wearing clothes
US20230016899A1 (en) Robot, robot control method, and recording medium
JP7375770B2 (en) Information processing device, information processing method, and program
WO2019123744A1 (en) Information processing device, information processing method, and program
JPWO2019087495A1 (en) Information processing equipment, information processing methods, and programs
JP2004298975A (en) Robot device and obstacle searching method
US11986959B2 (en) Information processing device, action decision method and program
US11938625B2 (en) Information processing apparatus, information processing method, and program
JP7238796B2 (en) ANIMAL-TYPE AUTONOMOUS MOBILE BODY, OPERATION METHOD OF ANIMAL-TYPE AUTONOMOUS MOBILE BODY, AND PROGRAM
JP2007125629A (en) Robot device and motion control method
JP7480706B2 (en) Information processing device, information processing method, and program
WO2020153038A1 (en) Information processing device and information processing method
US20230367312A1 (en) Information processing apparatus, information processing method, and program
JP3501123B2 (en) Robot apparatus and behavior control method for robot apparatus
JP2003001573A (en) Robot device and its control method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200529

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220103