WO2018047426A1 - Virtual biocontrol system, virtual biocontrol method, and recording medium - Google Patents

Virtual biocontrol system, virtual biocontrol method, and recording medium Download PDF

Info

Publication number
WO2018047426A1
WO2018047426A1 PCT/JP2017/020890 JP2017020890W WO2018047426A1 WO 2018047426 A1 WO2018047426 A1 WO 2018047426A1 JP 2017020890 W JP2017020890 W JP 2017020890W WO 2018047426 A1 WO2018047426 A1 WO 2018047426A1
Authority
WO
WIPO (PCT)
Prior art keywords
characteristic data
user
interaction characteristic
pet
virtual
Prior art date
Application number
PCT/JP2017/020890
Other languages
French (fr)
Japanese (ja)
Inventor
井原 圭吾
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018538030A priority Critical patent/JP7014168B2/en
Publication of WO2018047426A1 publication Critical patent/WO2018047426A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

[Problem] To provide a virtual biocontrol system, a virtual biocontrol method, and a recording medium with which it is possible to reproduce the interaction characteristic of an actual or a virtual organism to a user's behavior. [Solution] A virtual biocontrol system provided with an accumulation unit for accumulating interaction characteristic data that indicates the characteristic of interaction of an object to a user in units of a user ID and an object ID, a communication unit for receiving a request that requests interaction characteristic data from a virtual biological device and returning interaction characteristic data, and a control unit for exercising control so that the accumulation unit is searched for interaction characteristic data on the basis of a virtual organism ID included in the request and the specified user ID in accordance with the request that requests the interaction characteristic data received via the communication unit from the virtual biological device and the searched interaction characteristic data is returned via the communication unit.

Description

仮想生物制御システム、仮想生物制御方法、および記録媒体Virtual biological control system, virtual biological control method, and recording medium
 本開示は、仮想生物制御システム、仮想生物制御方法、および記録媒体に関する。 The present disclosure relates to a virtual biological control system, a virtual biological control method, and a recording medium.
 近年、人型や動物型のロボットにより人間とコミュニケーションを図り、様々なサービスを提供する技術が提案されている。 In recent years, technologies have been proposed to provide various services by communicating with humans using humanoid and animal robots.
 例えば下記特許文献1では、ロボットに「ぬくもり」(温度)を与え、使用者がロボットの「体温」を感じ取ることができ、その結果、動物に接触している感覚に近いロボットについて記載されている。また、下記特許文献2では、実在に飼育しているペットを海外旅行等に連れていくことができない場合に、実在のペットの特徴をロボットに記憶し、ロボットを実在のペットのように振る舞わせることができるロボットサービスシステムについて記載されている。ペットの特徴とは、色、形、声、臭い、皮膚または体毛の感触、動作の特徴等の特徴であって、さらに動作の特徴としては、移動活動、排泄活動、捕食活動、睡眠活動の特徴が含まれている。 For example, Patent Document 1 below describes a robot that gives a “warmth” (temperature) to the robot and allows the user to feel the “body temperature” of the robot, and as a result, is close to the sense of touching an animal. . Further, in Patent Document 2 below, when a pet kept in real life cannot be taken on a trip abroad, the characteristics of the real pet are stored in the robot, and the robot behaves like a real pet. A robot service system that can be described. The characteristics of pets are the characteristics of color, shape, voice, odor, skin or hair feel, movement characteristics, etc., and the movement characteristics are characteristics of movement activity, excretion activity, predation activity, sleep activity, etc. It is included.
 また、下記特許文献3では、人が動物と一緒にいるときの健康度(心身状態)を測定するシステムについて記載されている。また、下記特許文献4では、電子ペットに蓄積された飼い主のプライベート情報の漏洩を防ぐ電子ペットシステムについて記載されている。 Also, Patent Document 3 below describes a system for measuring the health level (mental state) when a person is with an animal. Patent Document 4 below describes an electronic pet system that prevents leakage of owner private information accumulated in the electronic pet.
特開2009-160730号公報JP 2009-160730 A 特開2005-099934号公報JP 2005-099934 A 特開2003-319921号公報JP 2003-319921 A 特開2003-071143号公報JP 2003-071143 A
 上述した特許文献2では、猫や犬などの実在のペットの振る舞いをセンサで認識し、そのデータをシステムに保存し、ハードウェアによるロボットにそのデータをロードし、ロボット上にてペットの振る舞い(動作の特徴)を再現させることが可能であるが、再現される振る舞いは、ペットの一方向的な動き(移動活動、睡眠活動等)であった。 In Patent Document 2 described above, the behavior of a real pet such as a cat or dog is recognized by a sensor, the data is stored in the system, the data is loaded into a robot by hardware, and the behavior of the pet on the robot ( (Features of motion) can be reproduced, but the behavior to be reproduced is a unidirectional movement of the pet (movement activity, sleep activity, etc.).
 しかしながら、飼い主との触れ合いによるペット特有の動作(すなわち、インタラクション特性)までは再現することは出来ていなかった。 However, pet-specific actions (ie, interaction characteristics) due to contact with the owner could not be reproduced.
 そこで、本開示では、ユーザの振る舞いに対する実在または仮想の生物のインタラクション特性を再現することが可能な仮想生物制御システム、仮想生物制御方法、および記録媒体を提案する。 Therefore, the present disclosure proposes a virtual organism control system, a virtual organism control method, and a recording medium that can reproduce the interaction characteristics of a real or virtual organism with respect to user behavior.
 本開示によれば、ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積する蓄積部と、仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信する通信部と、前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御する制御部と、を備える、仮想生物制御システムを提案する。 According to the present disclosure, a request for requesting the interaction characteristic data is received from the storage unit that accumulates the interaction characteristic data indicating the characteristic of the interaction with the user of the object in units of the user ID and the object ID, and the virtual biological device. In addition, in response to a request for requesting the interaction property data received from the virtual organism device via the communication unit, the communication unit that returns the interaction property data, the virtual organism ID included in the request is identified. A control unit that searches the storage unit for the interaction characteristic data based on the user ID and controls the retrieved interaction characteristic data to be returned via the communication unit. Control system Suggest.
 本開示によれば、仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、前記インタラクション特性データを蓄積する蓄積部と、前記ユーザの振る舞いをセンシングするセンサ部と、前記ユーザの振る舞いに対して反応するリアクション部と、前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、を備える、仮想生物制御システムを提案する。 According to the present disclosure, the communication unit that transmits the request for the interaction characteristic data indicating the characteristic of the interaction with the user of the virtual creature, and receives the interaction characteristic data returned from the server in response to the request, and the interaction A storage unit that stores characteristic data; a sensor unit that senses the user's behavior; a reaction unit that reacts to the user's behavior; and the sensor according to the interaction characteristic data received by the communication unit A virtual biological control system comprising: a control unit that controls the reaction unit to react to a user behavior sensed by the unit.
 本開示によれば、プロセッサが、ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積部に蓄積することと、通信部を介して、仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信することと、前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御することと、を含む、仮想生物制御方法を提案する。 According to the present disclosure, the processor stores, in the storage unit, the interaction characteristic data indicating the characteristic of the interaction of the object with the user in units of the user ID and the object ID, and from the virtual biological device via the communication unit, In response to receiving a request for requesting the interaction characteristic data, returning the interaction characteristic data, and requesting the interaction characteristic data received from the virtual biological device via the communication unit, the request Control is performed so as to retrieve the interaction characteristic data from the storage unit based on the virtual creature ID included in the user ID and the identified user ID, and to return the retrieved interaction characteristic data via the communication unit. To do Includes, we propose a virtual biocontrol methods.
 本開示によれば、コンピュータを、仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、前記インタラクション特性データを蓄積する蓄積部と、前記ユーザの振る舞いをセンシングするセンサ部と、前記ユーザの振る舞いに対して反応するリアクション部と、前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、として機能させるためのプログラムが記憶された、記憶媒体を提案する。 According to the present disclosure, the computer transmits a request for requesting the interaction characteristic data indicating the characteristics of the interaction with the user of the virtual creature, and receives the communication characteristic data returned from the server in response to the request; A storage unit that stores the interaction characteristic data, a sensor unit that senses the user's behavior, a reaction unit that reacts to the user's behavior, and the interaction characteristic data received by the communication unit The present invention proposes a storage medium storing a program for functioning as a control unit that controls the reaction unit so as to react to a user's behavior sensed by the sensor unit.
 以上説明したように本開示によれば、ユーザの振る舞いに対する実在または仮想の生物のインタラクション特性を再現することが可能となる。 As described above, according to the present disclosure, it is possible to reproduce the interaction characteristics of real or virtual creatures with respect to user behavior.
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。 Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.
本開示の一実施形態による情報処理システムの概要を説明する図である。It is a figure explaining the outline of the information processing system by one embodiment of this indication. 本開示の一実施形態による情報処理システムの全体構成の一例を示す図である。1 is a diagram illustrating an example of an overall configuration of an information processing system according to an embodiment of the present disclosure. 本開示の一実施形態によるペットロボットの構成の一例を示すブロック図である。It is a block diagram showing an example of composition of a pet robot by one embodiment of this indication. 本開示の一実施形態による制御部および記憶部の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of a control part and a storage part by one embodiment of this indication. 本開示の一実施形態によるインタラクション特性データの一例を示す図である。FIG. 4 is a diagram illustrating an example of interaction characteristic data according to an embodiment of the present disclosure. 本開示の一実施形態によるペットの反応パターン実行に必要なペットの愛情度の一例を示す図である。It is a figure which shows an example of the pet love degree required for pet reaction pattern execution by one Embodiment of this indication. 本開示の一実施形態によるサーバの構成の一例を示すブロック図である。It is a block diagram showing an example of composition of a server by one embodiment of this indication. 本開示の一実施形態によるサーバの記憶部の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of a storage part of a server by one embodiment of this indication. 本開示の一実施形態によるサーバのユーザ管理について説明する図である。It is a figure explaining user management of a server by one embodiment of this indication. 第1の実施例の概要について説明する図である。It is a figure explaining the outline | summary of a 1st Example. 第1の実施例によるログイン時の動作処理を示すシーケンス図である。It is a sequence diagram which shows the operation processing at the time of login by a 1st Example. 第1の実施例によるユーザ管理テーブルおよびインタラクション特性管理テーブル322のデータ例を示す図である。It is a figure which shows the example of data of the user management table by the 1st Example, and the interaction characteristic management table 322. 第1の実施例によるペットロボットの動作処理を示すフローチャートである。It is a flowchart which shows the operation | movement process of the pet robot by a 1st Example. 第1の実施例のサーバによるインタラクション特性データの更新処理を示すフローチャートである。It is a flowchart which shows the update process of the interaction characteristic data by the server of a 1st Example. 第2の実施例の概要について説明する図である。It is a figure explaining the outline | summary of a 2nd Example. 第2の実施例によるログイン時の動作処理を示すシーケンス図である。It is a sequence diagram which shows the operation | movement process at the time of login by 2nd Example. 第2の実施例によるユーザ端末のタイニーペットロボットの動作制御処理を示すフローチャートである。It is a flowchart which shows the operation control process of the tiny pet robot of the user terminal by 2nd Example. 第2の実施例のサーバによるインタラクション特性データの更新処理を示すフローチャートである。It is a flowchart which shows the update process of the interaction characteristic data by the server of a 2nd Example. 第3の実施例の概要について説明する図である。It is a figure explaining the outline | summary of a 3rd Example. 第3の実施例によるログイン時の動作処理を示すシーケンス図である。It is a sequence diagram which shows the operation | movement process at the time of login by 3rd Example. 監視カメラ管理テーブルとペット周辺デバイス管理テーブルのデータ例を示す図である。It is a figure which shows the example of data of a surveillance camera management table and a pet peripheral device management table. 第3の実施例による情報処理端末の動作処理を示すフローチャートである。It is a flowchart which shows the operation | movement process of the information processing terminal by a 3rd Example. 第3の実施例のサーバによるインタラクション特性データの更新処理を示すフローチャートである。It is a flowchart which shows the update process of the interaction characteristic data by the server of a 3rd Example. 第4の実施例の概要について説明する図である。It is a figure explaining the outline | summary of a 4th Example. 第4の実施例によるペット周辺デバイスへのデータ読み込み動作処理を示すシーケンス図である。It is a sequence diagram which shows the data reading operation | movement process to the pet peripheral device by a 4th Example. 第4の実施例によるペット周辺デバイスの動作処理を示すフローチャートである。It is a flowchart which shows the operation | movement process of the pet peripheral device by a 4th Example. 第4の実施例によるペット周辺デバイスの動作処理を示すフローチャートである。It is a flowchart which shows the operation | movement process of the pet peripheral device by a 4th Example. 第4の実施例によるペット周辺デバイス表現データの一例を示す図である。It is a figure which shows an example of the pet periphery device expression data by a 4th Example. タイプの異なるペットロボットでの利用について説明する図である。It is a figure explaining utilization with the pet robot from which a type differs. 第5の実施例  によるアタッチメントデバイスの一例を示す図である。It is a figure which shows an example of the attachment device by 5th Example IV. 第5の実施例による駆動能力の拡張について具体的に説明する図である。It is a figure which demonstrates concretely the expansion of the drive capability by the 5th Example. 第5の実施例によるペットロボットの動作処理を示すフローチャートである。It is a flowchart which shows the operation | movement process of the pet robot by a 5th Example.
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.構成
  2-1.全体構成
  2-2.ペットロボット1の構成
  2-3.サーバ3の構成
 3.実施例
  3-1.第1の実施例(ペットロボットの例)
  3-2.第2の実施例(タイニーペットロボットの例)
  3-3.第3の実施例(実在のペットの例)
  3-4.第4の実施例(ペット周辺デバイスの例)
  3-5.第5の実施例(アタッチメントデバイスの例)
 4.まとめ
The description will be made in the following order.
1. 1. Overview of information processing system according to an embodiment of the present disclosure Configuration 2-1. Overall configuration 2-2. Configuration of pet robot 1 2-3. 2. Configuration of server 3 Example 3-1. First embodiment (example of a pet robot)
3-2. Second Example (Example of Tiny Pet Robot)
3-3. Third embodiment (example of a real pet)
3-4. Fourth Example (Example of Pet Peripheral Device)
3-5. Fifth embodiment (example of attachment device)
4). Summary
 <<1.本開示の一実施形態による情報処理システムの概要>>
 本開示の一実施形態による情報処理システム(仮想生物制御システム)は、ユーザの振る舞いに対する実在または仮想の生物のインタラクション特性を再現することを可能とする。図1は、本実施形態による情報処理システムの概要を説明する図である。
<< 1. Overview of Information Processing System According to One Embodiment of Present Disclosure >>
An information processing system (virtual organism control system) according to an embodiment of the present disclosure makes it possible to reproduce an interaction characteristic of a real or virtual organism with respect to a user's behavior. FIG. 1 is a diagram for explaining the outline of the information processing system according to this embodiment.
 本開示による情報処理システムでは、図1に示すように、例えば自宅で飼っている実在のペット4(実在の生物の一例)とユーザとの触れ合い(インタラクション)を、監視カメラ80、ペット4に装着されたセンサデバイス84、およびユーザに装着されたセンサデバイス82等により検出し、当該インタラクションの特性を示すインタラクション特性データを取得する。センサデバイス82、84は、例えば加速度センサを有する動きセンサデバイスであって、ユーザの手首、腕、ペット4の足首、首等に装着される。また、センサデバイス82、84は、さらに生体センサ、圧力センサ、またはマイクロホン等を有していてもよい。そして、本開示による情報処理システムでは、ペット4から取得したインタラクション特性データを、ペットロボット1A、1B、または1C(仮想生物デバイスの一例)にロードすることで、ペット4のインタラクション特性をペットロボット1で再現することが可能となる。本明細書において、インタラクション特性は、ユーザの振る舞い(ペットに対する接し方)に対応するペットの反応パターンのデータを含む。また、ペットロボット1(情報処理装置)は、外観形状が犬、猫、ウサギ等の動物に模して形成された、エンターテインメント性を有するロボットである。ペットロボット1は、目や脚等を自律的に動作させて動物のような仕草を表出することが可能なエージェントの一例である。 In the information processing system according to the present disclosure, as shown in FIG. 1, for example, an actual pet 4 kept at home (an example of a real creature) and a user's touch (interaction) are attached to the surveillance camera 80 and the pet 4. Detected by the sensor device 84, the sensor device 82 attached to the user, and the like, and interaction characteristic data indicating the characteristic of the interaction is acquired. The sensor devices 82 and 84 are motion sensor devices having, for example, an acceleration sensor, and are attached to a user's wrist, arm, ankle, neck, etc. of the pet 4. The sensor devices 82 and 84 may further include a biological sensor, a pressure sensor, a microphone, or the like. In the information processing system according to the present disclosure, the interaction characteristics data acquired from the pet 4 is loaded onto the pet robots 1A, 1B, or 1C (an example of a virtual biological device), so that the interaction characteristics of the pet 4 are changed to the pet robot 1. It becomes possible to reproduce with. In the present specification, the interaction characteristic includes data of a pet reaction pattern corresponding to the user's behavior (how to touch the pet). The pet robot 1 (information processing apparatus) is an entertainment robot whose appearance is modeled on animals such as dogs, cats, and rabbits. The pet robot 1 is an example of an agent capable of expressing a gesture like an animal by autonomously operating eyes, legs and the like.
 これにより、例えばユーザがペットの首の後ろを特定の撫で方で撫でると、ペットが体を丸めて目を閉じ、前足を伸ばして尻尾を下げ、気持ちよさそうにするという、ペット固体特有の反応パターンをペットロボット1で再現し、より本物のペット4に近付けることができる。例えばロボット猫カフェ等のショップに用意されているペットロボットに、所定のインタラクション特性データを読み込ませることで、物理的には初めて出会うペットロボット1に対しても、これまでの蓄積されたペットとの触れ合い履歴に基づいて楽しむことができる。 Thus, for example, when the user strokes the back of the pet's neck with a specific stroke, the pet rolls its body, closes its eyes, stretches its front legs and lowers its tail, making it feel comfortable Can be reproduced by the pet robot 1 and closer to the real pet 4. For example, by letting a pet robot prepared in a shop such as a robot cat cafe read predetermined interaction characteristic data, the pet robot 1 that is physically encountered for the first time can be compared with the pets accumulated so far. You can enjoy based on your contact history.
 また、本開示による情報処理システムは、実在の生物のインタラクション特性をペットロボット1で再現することに限定されず、例えば学習型のペットロボットのインタラクション特性を蓄積しておき、当該ペットロボットが故障してしまった場合等に、他のペットロボットにインタラクション特性データを読み込ませて、故障したペットロボットと積み重ねたインタラクション特性を再現することが可能となる。 In addition, the information processing system according to the present disclosure is not limited to reproducing the interaction characteristics of an actual living thing with the pet robot 1. For example, the interaction characteristics of a learning type pet robot are accumulated and the pet robot fails. In such a case, it is possible to cause another pet robot to read the interaction characteristic data and reproduce the interaction characteristic stacked with the failed pet robot.
 また、仮想生物は、図1に示すようなハードウェアのペットロボット1に限定されず、スマートフォン、タブレット端末、またはゲーム機等の情報処理端末上で動作するソフトウェアによるバーチャルペット(タイニーペットロボットとも称す)であってもよい。 Further, the virtual creature is not limited to the hardware pet robot 1 as shown in FIG. 1, but is a virtual pet (also referred to as a tiny pet robot) by software operating on an information processing terminal such as a smartphone, a tablet terminal, or a game machine. ).
 以上説明したように、本開示による情報処理システムは、実在または仮想の生物(オブジェクト)のユーザに対するインタラクション(ユーザの振る舞いに対する反応パターン)の特性を示すインタラクション特性データを、仮想生物デバイス(ロボットまたは仮想生物育成アプリケーションが実装されるデバイス)にロードし、再現することを可能とする。 As described above, the information processing system according to the present disclosure provides the interaction characteristic data indicating the characteristic of the interaction (reaction pattern with respect to the behavior of the user) of the real or virtual creature (object) to the user. It is possible to load and reproduce on a device on which a biological breeding application is mounted.
 <<2.構成>>
  <2-1.全体構成>
 続いて、本開示の一実施形態による情報処理システムの全体構成について図1を参照して説明する。図2は、本実施形態による情報処理システムの全体構成の一例を示す図である。図2に示すように、本実施形態による情報処理システムは、実在のペット4のインタラクション特性データをペット4や監視カメラ80から取得する情報処理端末8や、ペットロボット1(1A~1C)、若しくはペット育成アプリケーションを実装するユーザ端末5と、サーバ3を含む。情報処理端末8、ペットロボット1、およびユーザ端末5は、ネットワーク2を介してサーバ3と接続し、データの送受信が可能である。
<< 2. Configuration >>
<2-1. Overall configuration>
Next, the overall configuration of the information processing system according to an embodiment of the present disclosure will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of the overall configuration of the information processing system according to the present embodiment. As shown in FIG. 2, the information processing system according to the present embodiment includes the information processing terminal 8 that acquires the interaction characteristic data of the actual pet 4 from the pet 4 and the monitoring camera 80, the pet robot 1 (1A to 1C), or A user terminal 5 that implements a pet breeding application and a server 3 are included. The information processing terminal 8, the pet robot 1, and the user terminal 5 are connected to the server 3 via the network 2 and can transmit and receive data.
 情報処理端末8やペットロボット1で取得されたインタラクション特性データは、ネットワーク2を介してサーバ3に送信され、サーバ3により保存および管理される。情報処理端末8は、例えばスマートフォン、タブレット端末、携帯電話、PC、またはゲーム機等であってもよい。 The interaction characteristic data acquired by the information processing terminal 8 or the pet robot 1 is transmitted to the server 3 via the network 2 and is stored and managed by the server 3. The information processing terminal 8 may be, for example, a smartphone, a tablet terminal, a mobile phone, a PC, or a game machine.
 これにより、例えば実在のペット4のインタラクション特性をペットロボット1やユーザ端末5のアプリケーション上で動作するタイニーペットロボット50で再現したり、ペットロボット1のインタラクション特性を他のペットロボット1やタイニーペットロボット50で再現したりすることができる。 Thereby, for example, the interaction characteristic of the actual pet 4 is reproduced by the tiny pet robot 50 operating on the application of the pet robot 1 or the user terminal 5, or the interaction characteristic of the pet robot 1 is reproduced by another pet robot 1 or tiny pet robot. 50 can be reproduced.
 なお図2に示す例では、サーバ3によりインタラクション特性データの保存、管理を行う場合について説明したが、本開示はこれに限定されず、例えばインタラクション特性データをペットロボット1やユーザ端末5から飼い主カード(不図示)に直接保存してもよい。ユーザは、飼い主カードを他のペットロボット1やユーザ端末5のリーダーにかざしインタラクション特性データを直接読み込ませることが可能である。 In the example illustrated in FIG. 2, the case where the server 3 stores and manages the interaction characteristic data has been described. However, the present disclosure is not limited thereto. For example, the interaction characteristic data is transferred from the pet robot 1 or the user terminal 5 to the owner card. You may store directly in (not shown). The user can directly read the interaction characteristic data by holding the owner card over the reader of another pet robot 1 or the user terminal 5.
  <2-2.ペットロボット1の構成>
 次に、本実施形態によるペットロボット1の構成について図3を参照して説明する。図3は、本実施形態によるペットロボット1の構成の一例を示すブロック図である。図3に示すように、ペットロボット1は、制御部10、通信部11、位置情報取得部14、カメラ15、音声入力部16、生体センサ17、駆動部18、圧力センサ19、記憶部20、音声出力部22、加速度センサ23、および角速度センサ24を有する。
<2-2. Configuration of Pet Robot 1>
Next, the configuration of the pet robot 1 according to the present embodiment will be described with reference to FIG. FIG. 3 is a block diagram illustrating an example of the configuration of the pet robot 1 according to the present embodiment. As shown in FIG. 3, the pet robot 1 includes a control unit 10, a communication unit 11, a position information acquisition unit 14, a camera 15, a voice input unit 16, a biological sensor 17, a drive unit 18, a pressure sensor 19, a storage unit 20, An audio output unit 22, an acceleration sensor 23, and an angular velocity sensor 24 are included.
 制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従ってペットロボット1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。 The control unit 10 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the pet robot 1 according to various programs. The control unit 10 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor, for example. The control unit 10 may include a ROM (Read Only Memory) that stores programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.
 また、本実施形態による制御部10は、通信部11、位置情報取得部14、カメラ15、音声入力部16、生体センサ17、圧力センサ19、加速度センサ23、または角速度センサ24等から得た各種情報に応じて自動的に動作する自律制御を行い得る。 In addition, the control unit 10 according to the present embodiment includes various types of information obtained from the communication unit 11, the position information acquisition unit 14, the camera 15, the voice input unit 16, the biological sensor 17, the pressure sensor 19, the acceleration sensor 23, the angular velocity sensor 24, and the like. Autonomous control that operates automatically according to information can be performed.
 通信部11は、他の装置との間でデータの送受信を行うための通信モジュールである。例えば通信部11は、ネットワーク2を介して各種サーバと接続し、データの送受信を行ったり、Bluetooth(登録商標)やWi-Fi(登録商標)により周辺デバイスと直接接続し、データの送受信を行ったりする。 The communication unit 11 is a communication module for transmitting and receiving data to and from other devices. For example, the communication unit 11 connects to various servers via the network 2 to transmit / receive data, or directly connects to peripheral devices via Bluetooth (registered trademark) or Wi-Fi (registered trademark) to transmit / receive data. Or
 位置情報取得部14は、外部からの取得信号に基づいてペットロボット1の現在位置を検知する機能を有する。具体的には、例えば位置情報取得部14は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信してペットロボット1が存在している位置を検知し、検知した位置情報を制御部10に出力する。かかる位置情報は、ペットロボット1の位置ログとして記憶部20に蓄積されてもよい。また、位置情報取得部14は、GPSの他、例えばWi-Fi、Bluetooth、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。 The position information acquisition unit 14 has a function of detecting the current position of the pet robot 1 based on an external acquisition signal. Specifically, for example, the position information acquisition unit 14 is realized by a GPS (Global Positioning System) positioning unit, receives a radio wave from a GPS satellite, detects a position where the pet robot 1 exists, and detects the detected position. Information is output to the control unit 10. Such position information may be accumulated in the storage unit 20 as a position log of the pet robot 1. In addition to the GPS, the position information acquisition unit 14 may detect the position by, for example, transmission / reception with Wi-Fi, Bluetooth, mobile phone / PHS / smartphone, or near field communication.
 カメラ15は、撮像レンズ、絞り、ズームレンズ、およびフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal
Oxide Semiconductor)センサアレイにより実現されてもよい。
The camera 15 photoelectrically converts imaging light obtained by a lens system including an imaging lens, a diaphragm, a zoom lens, and a focus lens, a drive system that performs a focus operation and a zoom operation on the lens system, and the lens system. A solid-state image pickup device array for generating an image pickup signal. The solid-state imaging device array is, for example, a CCD (Charge Coupled Device) sensor array or a CMOS (Complementary Metal).
Oxide Semiconductor) sensor array.
 音声入力部16は、ユーザの音声や周囲の環境音を収音し、音声信号を制御部10に出力する。音声入力部16は、マイクロホンと、そのマイクロホンで得られた音声信号を増幅処理するマイクアンプ部と、音声信号にデジタル変換するA/D変換器により実現され、音声信号を制御部10に出力する。 The voice input unit 16 collects the user's voice and surrounding environmental sounds and outputs a voice signal to the control unit 10. The audio input unit 16 is realized by a microphone, a microphone amplifier unit that amplifies an audio signal obtained by the microphone, and an A / D converter that converts the audio signal into a digital signal, and outputs the audio signal to the control unit 10. .
 生体センサ17は、ペットロボット1に触れたユーザの生体情報を検出する。ユーザの生体情報とは、例えば体温、発汗量、脈拍、指紋、掌紋、血圧、脳波等である。 The biosensor 17 detects biometric information of the user who has touched the pet robot 1. The user's biological information is, for example, body temperature, sweating volume, pulse, fingerprint, palm print, blood pressure, brain wave, and the like.
 駆動部18は、ペットロボット1の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど軸毎に設けられた複数の駆動ユニットで構成される。各駆動ユニットは、所定軸回りの回転動作を行なうモーターと、モーターの回転位置を検出するエンコーダーと、エンコーダーの出力に基づいてモーターの回転位置や回転速度を適応的に制御するドライバーの組み合わせで構成される。 The drive unit 18 is a functional module for realizing the degree of freedom in each joint of the pet robot 1, and is composed of a plurality of drive units provided for each axis such as roll, pitch, and yaw in each joint. Each drive unit is composed of a combination of a motor that rotates around a predetermined axis, an encoder that detects the rotational position of the motor, and a driver that adaptively controls the rotational position and rotational speed of the motor based on the output of the encoder. Is done.
 圧力センサ19は、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出する。なおペットロボット1は、圧力センサ19の代わりに、あるいは追加して、タッチセンサを有していてもよい。 The pressure sensor 19 detects the pressure received by a physical action such as “boil” or “slap” from the user. The pet robot 1 may have a touch sensor instead of or in addition to the pressure sensor 19.
 記憶部20は、制御部10が各種処理を実行するためのプログラム等を記憶する。また、記憶部20は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含むストレージ装置により構成される。 The storage unit 20 stores a program for the control unit 10 to execute various processes. The storage unit 20 includes a storage device including a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, and a deletion device that deletes data recorded on the storage medium. .
 表示部21は、操作画面やメニュー画面等の各種画面を表示する。表示部21は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイなどの表示装置であってもよい。 The display unit 21 displays various screens such as an operation screen and a menu screen. The display unit 21 may be, for example, a display device such as a liquid crystal display (LCD) or an organic EL (Electroluminescence) display.
 音声出力部22は、スピーカと、そのスピーカに対するアンプ回路により実現される。また、音声出力部22は、鳴き声等の音声を出力する。 The audio output unit 22 is realized by a speaker and an amplifier circuit for the speaker. The audio output unit 22 outputs sound such as a cry.
 加速度センサ23および角速度センサ24は、ペットロボット1の向きや動きの加速度を検出する。 The acceleration sensor 23 and the angular velocity sensor 24 detect the direction and movement acceleration of the pet robot 1.
 以上、本実施形態によるペットロボット1の構成について具体的に説明した。なお本実施形態によるペットロボット1の構成は図2に示す例に限定されず、例えば地磁気センサ、超音波センサ、近接センサ、照度センサ、温度センサ、または気圧センサ等の他のセンサを有していてもよい。また、ペットロボット1は、前方に位置する物体までの距離を測定するための距離センサとして上述したカメラ15を用いてもよいし、別途、赤外線等の方式を用いた距離センサを備えてもよい。 The configuration of the pet robot 1 according to this embodiment has been specifically described above. The configuration of the pet robot 1 according to the present embodiment is not limited to the example illustrated in FIG. 2, and includes other sensors such as a geomagnetic sensor, an ultrasonic sensor, a proximity sensor, an illuminance sensor, a temperature sensor, or an atmospheric pressure sensor. May be. Further, the pet robot 1 may use the above-described camera 15 as a distance sensor for measuring the distance to an object positioned in front, or may be provided with a distance sensor using a method such as infrared rays. .
 また、ペットロボット1は、例えば図2に示すように、胴体部ユニット200と、胴体部ユニット200の前後左右にそれぞれ連結された脚部ユニット201と、胴体部ユニット200の前端部および後端部にそれぞれ連結された頭部ユニット202と、尻尾部ユニット203から構成されていてもよい。胴体部ユニット200には、CPU(Central Processing Unit)、DRAM(Dynamic Random
Access Memory)、フラッシュROM(Read 0nly Memory)、PC(Personal Computer)カードインターフェース回路および信号処理回路が内部バスを介して相互に接続されることにより形成された制御部10と、ペットロボット1の動力源としてのバッテリとが収納されている。また、胴体部ユニット200には、通信部11、位置情報取得部14、生体センサ17、記憶部20、加速度センサ23、および角速度センサ24なども収納されている。
Further, for example, as shown in FIG. 2, the pet robot 1 includes a trunk unit 200, leg units 201 connected to the front, rear, left and right of the trunk unit 200, and a front end portion and a rear end portion of the trunk unit 200. The head unit 202 and the tail unit 203 may be connected to each other. The body unit 200 includes a CPU (Central Processing Unit), a DRAM (Dynamic Random).
The control unit 10 formed by connecting an access memory (ROM), a flash ROM (Read 0nly Memory), a PC (Personal Computer) card interface circuit and a signal processing circuit to each other via an internal bus, and the power of the pet robot 1 A battery as a source is accommodated. The body unit 200 also houses a communication unit 11, a position information acquisition unit 14, a biological sensor 17, a storage unit 20, an acceleration sensor 23, an angular velocity sensor 24, and the like.
 また、頭部ユニット202には、外部の状況を撮像するためのカメラ15と、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するための圧力センサ19と、外部音を集音するための音声入力部16と、鳴き声等の音声を出力するための音声出力部22と、前方に位置する物体までの距離を測定するための距離センサ(図示せず)となどがそれぞれ所定位置に配置されている。カメラ15は、ペットロボット1の「目」に相当する位置に設けられてもよい。また、カメラ15を頭部ユニット202の額部分に配置し、「目」に相当する位置にはLED(Light Emitting Diode)(図示せず)を配置してもよい。また、頭部ユニット202の「耳」に相当する位置に音声入力部16を配置し、頭部ユニット202の「口」に相当する位置に音声出力部22を配置してもよい。なお、物理的な働きかけにより受けた圧力を検出するための圧力センサ19は、頭部ユニット202に限定されず、胴体部ユニット200、脚部ユニット201、および尻尾部ユニット203など、複数設けられていてもよい。 Further, the head unit 202 includes a camera 15 for imaging an external situation, a pressure sensor 19 for detecting pressure received by a physical action such as “blow” or “slap” from a user, An audio input unit 16 for collecting external sounds, an audio output unit 22 for outputting sounds such as squealing, and a distance sensor (not shown) for measuring the distance to an object located in front Are arranged at predetermined positions. The camera 15 may be provided at a position corresponding to the “eyes” of the pet robot 1. Further, the camera 15 may be arranged on the forehead portion of the head unit 202, and an LED (Light Emitting Diode) (not shown) may be arranged at a position corresponding to the “eye”. Further, the voice input unit 16 may be arranged at a position corresponding to the “ear” of the head unit 202, and the voice output unit 22 may be arranged at a position corresponding to the “mouth” of the head unit 202. The pressure sensor 19 for detecting the pressure received by the physical action is not limited to the head unit 202, and a plurality of pressure sensors 19 such as the body unit 200, the leg unit 201, and the tail unit 203 are provided. May be.
 さらに、各脚部ユニット201の関節部分や各脚部ユニット201および胴体部ユニット200の各連結部分、並びに頭部ユニット202および胴体部ユニット200の連結部分などにはそれぞれ自由度数分のアクチュエータおよびポテンショメータが配設されている。例えば、アクチュエータはサーボモータを構成として有している。サーボモータの駆動により、脚部ユニット201が制御されて、目標の姿勢あるいは動作に遷移する。 Further, the joints of the leg units 201, the connecting parts of the leg units 201 and the body unit 200, the connecting parts of the head unit 202 and the body unit 200, and the like have actuators and potentiometers corresponding to several degrees of freedom, respectively. Is arranged. For example, the actuator has a servo motor as a configuration. The leg unit 201 is controlled by the drive of the servo motor, and transitions to a target posture or motion.
 以上説明したペットロボット1の具体的な構成例については、例えば特開2002-157596号公報を参照する。特開2002-157596号公報は、その全ての内容について、本参照により本明細書に組み込まれる(The entire contents of JP 2002-157596 are hereby incorporated by
reference.)。
For a specific configuration example of the pet robot 1 described above, refer to, for example, Japanese Patent Application Laid-Open No. 2002-157596. The entire contents of JP 2002-157596 are hereby incorporated by Japanese Patent Application Laid-Open No. 2002-157596.
reference.).
 また、図3を参照して説明したペットロボット1の構成は、ペットロボット1がタイニーペットロボットの場合にも応用可能である。具体的には、タイニーペットロボットを表示する表示端末(図2に示すユーザ端末5)が、上記制御部10、通信部11、位置情報取得部14、カメラ15、音声入力部16、生体センサ17、圧力センサ19、記憶部20、および音声出力部22に相当する構成と、表示部とを有する。表示部は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイなどの表示装置であって、タッチパネルディスプレイであってもよい。タイニーペットロボットは表示部に表示され、ユーザとインタラクションを行い得る。 The configuration of the pet robot 1 described with reference to FIG. 3 can also be applied when the pet robot 1 is a tiny pet robot. Specifically, the display terminal (user terminal 5 shown in FIG. 2) that displays the tiny pet robot is the control unit 10, the communication unit 11, the position information acquisition unit 14, the camera 15, the voice input unit 16, and the biological sensor 17. , A configuration corresponding to the pressure sensor 19, the storage unit 20, and the audio output unit 22, and a display unit. The display unit is a display device such as a liquid crystal display (LCD) or an organic EL (Electroluminescence) display, and may be a touch panel display. The tiny pet robot is displayed on the display unit and can interact with the user.
 (機能構成)
 続いて、制御部10および記憶部20の機能構成について図4を参照して説明する。図4は、本開示の一実施形態による制御部10および記憶部20の機能構成例を示すブロック図である。図には、ペットロボット1の制御部10の機能として、ユーザ振る舞い判定部101と、ペット動作制御部102とが、示されている。また、ペットロボット1の記憶部20の機能として、センサデータ一時記憶部210と、インタラクション特性データ記憶部212とが、示されている。以下、それぞれの構成要素についてさらに説明する。
(Functional configuration)
Next, functional configurations of the control unit 10 and the storage unit 20 will be described with reference to FIG. FIG. 4 is a block diagram illustrating a functional configuration example of the control unit 10 and the storage unit 20 according to an embodiment of the present disclosure. In the figure, a user behavior determination unit 101 and a pet motion control unit 102 are shown as functions of the control unit 10 of the pet robot 1. Further, as functions of the storage unit 20 of the pet robot 1, a sensor data temporary storage unit 210 and an interaction characteristic data storage unit 212 are shown. Hereinafter, each component will be further described.
 ユーザ振る舞い判定部101は、カメラ15、音声入力部16、生体センサ17、圧力センサ19、若しくはユーザが手首等に装着しているセンサデバイス(例えば加速度センサやマイクロホンが搭載されたウェアラブルデバイス)等から得た各種情報(センサデータ)に基づいて、ペットロボット1に対するユーザの振る舞いを判定する。ユーザの振る舞いとは、例えば「頭を強めになでる」、「背中をなでる」、「喉元を指でなでる」、「声掛けをする」、「強く抱きしめる」等の、ユーザのペットに対する接し方(ペットとの距離、ペットに近付いた時の行動パターン、またはペットへの声掛けを含む)を示す。カメラ15、音声入力部16、生体センサ17、および圧力センサ19等から得られる各種情報(センサデータ)は、センサデータ一時記憶部210に記憶される。 The user behavior determination unit 101 is from the camera 15, the voice input unit 16, the biological sensor 17, the pressure sensor 19, or a sensor device (for example, a wearable device on which an acceleration sensor or a microphone is mounted) mounted on the wrist or the like by the user. Based on the various information (sensor data) obtained, the user's behavior with respect to the pet robot 1 is determined. User behavior includes, for example, “how to strok the head strongly”, “stroking the back”, “stroking the throat with a finger”, “speaking”, “holding strongly”, etc. (Including distance to pet, behavior pattern when approaching pet, or voice to pet). Various information (sensor data) obtained from the camera 15, the voice input unit 16, the biological sensor 17, the pressure sensor 19, and the like is stored in the sensor data temporary storage unit 210.
 ペット動作制御部102は、ユーザ振る舞い判定部101による判定結果に応じて、インタラクション特性データ記憶部212に記憶されているインタラクション特性データから、当該ユーザの振る舞いに対応するペットの反応パターンを抽出し、ペットロボット1の動作を制御する。ペットの反応パターンには、ペットの鳴き声も含まれ、ペット動作制御部102は、ペットロボット1の駆動部18による「動作」の制御に限らず、音声出力部22からの鳴き声の出力制御も行い得る。インタラクション特性データ記憶部212に記憶されているインタラクション特性データの一例については、図5を参照して後述する。 The pet motion control unit 102 extracts a pet reaction pattern corresponding to the user behavior from the interaction characteristic data stored in the interaction characteristic data storage unit 212 according to the determination result by the user behavior determination unit 101. The operation of the pet robot 1 is controlled. The pet reaction pattern includes a pet cry, and the pet motion control unit 102 performs not only the “motion” control by the drive unit 18 of the pet robot 1 but also the output control of the scream from the voice output unit 22. obtain. An example of the interaction characteristic data stored in the interaction characteristic data storage unit 212 will be described later with reference to FIG.
 センサデータ一時記憶部210は、カメラ15、音声入力部16、生体センサ17、および圧力センサ19等から得た各種情報(センサデータ)を一次的に記憶する。また、センサデータ一時記憶部210に記憶されたセンサデータは、上述したユーザの振る舞いに対応する抽出されたペットの反応パターンと共に、制御部10により通信部11からサーバ3へ送信される。なおセンサデータに代えて、若しくは加えて、ユーザ振る舞い判定部101による判定結果がサーバ3に送信されてもよい。 The sensor data temporary storage unit 210 temporarily stores various information (sensor data) obtained from the camera 15, the voice input unit 16, the biological sensor 17, the pressure sensor 19, and the like. Also, the sensor data stored in the sensor data temporary storage unit 210 is transmitted from the communication unit 11 to the server 3 by the control unit 10 together with the extracted pet reaction pattern corresponding to the user behavior described above. The determination result by the user behavior determination unit 101 may be transmitted to the server 3 instead of or in addition to the sensor data.
 インタラクション特性データ記憶部212は、読み込んだインタラクション特性データを記憶する。ここで、図5に、インタラクション特性データの一例を示す。 The interaction characteristic data storage unit 212 stores the read interaction characteristic data. Here, FIG. 5 shows an example of the interaction characteristic data.
 図5に示すように、インタラクション特性データは、多数のユーザの振る舞いと、各振る舞いに設定されているペットの愛情度と、ペットの反応パターンとを含むデータ構成となっている。例えばペットロボット1に読み込まれるインタラクション特性の初期状態として、図5に示すように、インタラクション特性は、各ユーザの振る舞いに対して、ペットの反応パターンが複数定義され、各振る舞いに対して「愛情度」(変数)が設定されている。各振る舞いに設定されている愛情度は、例えばユーザのペットに対する振る舞いの頻度(または時間など)に応じて更新される。例えばユーザがよく行う振る舞いは、ユーザによるペットへの特別な振る舞い(愛情を示す振る舞い)であると判断され、当該振る舞いの愛情度が加算される。ここで、ペットの反応パターンにも、それぞれ「必要な愛情度」が定義されている。図6に、ペットの反応パターンを実行する際に必要な愛情度の一例を示す。かかる反応パターンの愛情度のデータも、インタラクション特性データに含まれる。図6に示すように、本実施形態では、ペットの反応パターン毎に必要な愛情度(の閾値)が設定されている。ペット動作制御部102は、ユーザの振る舞いに対して複数定義されている反応パターンのうち、現在のユーザの振る舞いの愛情度を超えない愛情度の反応パターンをランダムに選択し、ペットロボット1を制御する。例えば、「頭を強めになでる」というユーザの振る舞いが検出された場合、「頭を強めになでる」の愛情度は現在「5」であるため、対応する反応パターンのうち、「首を軽くうなだれる」の必要な愛情度は「6」であるため足りない。ペット動作制御部102は、条件を満たす反応パターン「ニャーと鳴く:愛情度『2』」および「体をまるめる:愛情度『5』」のうち、実行する反応パターンをランダムに選択する。 As shown in FIG. 5, the interaction characteristic data has a data structure including the behaviors of a large number of users, the degree of pet love set for each behavior, and the pet reaction pattern. For example, as an initial state of the interaction characteristic read into the pet robot 1, as shown in FIG. 5, the interaction characteristic defines a plurality of pet reaction patterns for each user's behavior. "(Variable) is set. The degree of love set for each behavior is updated in accordance with, for example, the frequency (or time) of the behavior of the user with respect to the pet. For example, the behavior often performed by the user is determined to be a special behavior (behavior indicating behavior) to the pet by the user, and the degree of affection of the behavior is added. Here, the “necessary degree of affection” is also defined for each pet reaction pattern. FIG. 6 shows an example of the degree of affection necessary for executing the pet reaction pattern. The data of the love degree of the reaction pattern is also included in the interaction characteristic data. As shown in FIG. 6, in this embodiment, a necessary degree of love (threshold value) is set for each pet reaction pattern. The pet motion control unit 102 randomly selects a reaction pattern having a degree of affection not exceeding the affection level of the current user's behavior from a plurality of reaction patterns defined for the user's behavior, and controls the pet robot 1. To do. For example, if a user's behavior of “stroking your head strongly” is detected, the affection of “stroking your head strongly” is currently “5”, so among the corresponding reaction patterns, “neck your head lightly” The necessary degree of love is “6”, which is not enough. The pet motion control unit 102 randomly selects a reaction pattern to be executed from among the reaction patterns “meowing: affection degree“ 2 ”” and “round the body: affection degree“ 5 ”” that satisfy the condition.
 なお、図5および図6に示すような、初期状態のユーザの振る舞い項目、愛情度、反応パターン群、反応パターンの実行に必要な愛情度(閾値)は、予め一般的な犬や猫等から検出し、設定したものであってもよい。また、想定し得るほぼ全ての振る舞いと反応パターンが初期状態のインタラクション特性データとして登録されているようにしてもよい。 As shown in FIG. 5 and FIG. 6, the user's behavior items in the initial state, the degree of affection, the reaction pattern group, and the degree of affection (threshold value) necessary for executing the reaction pattern are determined in advance from general dogs and cats. It may be detected and set. Further, almost all the behaviors and reaction patterns that can be assumed may be registered as the interaction characteristic data in the initial state.
 また、本実施形態によるインタラクション特性データは図5に示すようなデータ構成に限定されず、時間方向も考慮したユーザの振る舞い(愛情表現)の癖を表すようなデータがさらに含まれていてもよい。例えば、「ペットの頭を撫でる」といった振る舞いにおいて、その撫で方の強弱のタイミング等を表すデータが含まれる。 Further, the interaction characteristic data according to the present embodiment is not limited to the data configuration as shown in FIG. 5, and may further include data that represents a habit of user behavior (loving expression) considering the time direction. . For example, in the behavior such as “stroke the pet's head”, data indicating the timing of the stroking of the stroking is included.
 以上、本実施形態による制御部10および記憶部20の機能構成について具体的に説明した。本実施形態によるペットロボット1は、インタラクション特性データを読み込んで、ユーザの振る舞いに対して所定のペットのインタラクション特性を再現することができる。また、ペットロボット1は、ユーザの振る舞い(センサデータ)と、実行した反応パターンをインタラクション特性としてサーバ3に送信し、サーバ3においてユーザの振る舞いの頻度等からユーザの嗜好が学習され、インタラクション特性データが更新され得る。 The functional configurations of the control unit 10 and the storage unit 20 according to the present embodiment have been specifically described above. The pet robot 1 according to the present embodiment can read the interaction characteristic data and reproduce the predetermined pet interaction characteristic with respect to the behavior of the user. In addition, the pet robot 1 transmits the user behavior (sensor data) and the executed reaction pattern to the server 3 as an interaction characteristic, and the server 3 learns the user's preference from the frequency of the user behavior and the like, and the interaction characteristic data Can be updated.
  <2-2.サーバ3の構成>
 次に、本実施形態によるサーバ3の構成について図7を参照して説明する。図7は、本実施形態によるサーバ3の構成の一例を示すブロック図である。図7に示すように、サーバ3は、制御部30、通信部31、および記憶部32を有する。
<2-2. Configuration of server 3>
Next, the configuration of the server 3 according to the present embodiment will be described with reference to FIG. FIG. 7 is a block diagram illustrating an example of the configuration of the server 3 according to the present embodiment. As illustrated in FIG. 7, the server 3 includes a control unit 30, a communication unit 31, and a storage unit 32.
 通信部31は、他の装置との間でデータの送受信を行うための通信モジュールである。例えば通信部31は、ネットワーク2を介して情報処理端末8、ペットロボット1、およびユーザ端末5と接続し、データの送受信を行う。また、通信部31は、ペットロボット1やユーザ端末5等の仮想生物デバイスから、インタラクション特性データを要求するリクエストを受信すると共に、要求されたインタラクション特性データを返信する。 The communication unit 31 is a communication module for transmitting and receiving data to and from other devices. For example, the communication unit 31 is connected to the information processing terminal 8, the pet robot 1, and the user terminal 5 via the network 2 and transmits and receives data. The communication unit 31 receives a request for requesting interaction characteristic data from a virtual biological device such as the pet robot 1 or the user terminal 5, and returns the requested interaction characteristic data.
 制御部30は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ3内の動作全般を制御する。制御部30は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部30は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。 The control unit 30 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the server 3 according to various programs. The control unit 30 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor, for example. The control unit 30 may include a ROM (Read Only Memory) that stores programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.
 また、本実施形態による制御部30は、ログイン処理部301、インタラクション特性検索部302、およびインタラクション特性学習部303として機能する。 Also, the control unit 30 according to the present embodiment functions as a login processing unit 301, an interaction characteristic search unit 302, and an interaction characteristic learning unit 303.
 ログイン処理部301は、ユーザのログイン処理を行う。例えば、ログイン処理部301は、ペットロボット1等から送信されたログインアカウント(ユーザIDおよびパスワードを含む)に基づいて、ユーザ管理テーブル321(図8に示す)を参照して認証処理を行う。 The login processing unit 301 performs user login processing. For example, the login processing unit 301 performs authentication processing with reference to a user management table 321 (shown in FIG. 8) based on a login account (including a user ID and a password) transmitted from the pet robot 1 or the like.
 インタラクション特性検索部302は、ペットロボット1等からのインタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれるペットID(個体ID(オブジェクトID)若しくは種別ID(仮想生物ID)の少なくともいずれかを含む)と、ログイン処理により特定されたユーザIDとに基づき、対応するインタラクション特性データをインタラクション特性データDB325(図8参照)から検索する。 In response to a request for requesting interaction characteristic data from the pet robot 1 or the like, the interaction characteristic search unit 302 is at least one of a pet ID (individual ID (object ID) or type ID (virtual creature ID)) included in the request. And the corresponding interaction characteristic data is searched from the interaction characteristic data DB 325 (see FIG. 8) based on the user ID specified by the login process.
 インタラクション特性学習部303は、ペットロボット1等から送信されたユーザの振る舞い(センサデータ若しくは振る舞い判定結果)とペットの反応パターンに基づいて、インタラクション特性データDB325に蓄積された、対応するインタラクション特性データを更新する。例えば、インタラクション特性学習部303は、「背中をなでる」というユーザの振る舞いの頻度が所定値より高い場合、ユーザのお気に入りの振る舞いであると判断し、インタラクション特性データの該当するユーザの振る舞い「背中をなでる」に対応する愛情度を加算する。また、例えば、インタラクション特性学習部303は、ユーザの発話で同じ音声パターンの頻度が高い場合、ペットの名前など特別な意味も持つフレーズであると判断し、新たに、「音声パターン『○○○○』を発生する」といったユーザの振る舞い項目を生成し、当該振る舞いに対応する愛情度を加算する。 The interaction characteristic learning unit 303 stores the corresponding interaction characteristic data stored in the interaction characteristic data DB 325 based on the user behavior (sensor data or behavior determination result) transmitted from the pet robot 1 or the like and the pet reaction pattern. Update. For example, if the frequency of the user's behavior of “stroking the back” is higher than a predetermined value, the interaction characteristic learning unit 303 determines that the user's favorite behavior is the user's favorite behavior, and the user behavior “ Add the degree of affection corresponding to “stroking”. Further, for example, when the frequency of the same voice pattern is high in the user's utterance, the interaction characteristic learning unit 303 determines that the phrase has a special meaning such as a pet name, and newly adds a “voice pattern“ XXX ”. A user's behavior item such as “Occurrence of“ O ”” is generated, and the degree of affection corresponding to the behavior is added.
 記憶部32は、制御部30が各種処理を実行するためのプログラム等を記憶する。また、記憶部32は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含むストレージ装置により構成される。さらに、本実施形態による記憶部32の機能構成について図8を参照して説明する。 The storage unit 32 stores a program or the like for the control unit 30 to execute various processes. The storage unit 32 includes a storage device including a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, and a deletion device that deletes data recorded on the storage medium. . Furthermore, the functional configuration of the storage unit 32 according to the present embodiment will be described with reference to FIG.
 図8は、本実施形態によるサーバ3の記憶部32の機能構成例を示すブロック図である。図には、記憶部32の機能として、ユーザ管理テーブル321と、インタラクション特性管理テーブル322と、監視カメラ管理テーブル323と、ペット周辺デバイス管理テーブル324と、インタラクション特性データDB325と、ペット周辺デバイス表現テーブル326と、ユーザの振る舞いデータ一時記憶部327とが、示されている。 FIG. 8 is a block diagram illustrating a functional configuration example of the storage unit 32 of the server 3 according to the present embodiment. In the figure, as functions of the storage unit 32, a user management table 321, an interaction characteristic management table 322, a surveillance camera management table 323, a pet peripheral device management table 324, an interaction characteristic data DB 325, and a pet peripheral device expression table are shown. 326 and a user behavior data temporary storage unit 327 are shown.
 ユーザ管理テーブル321は、ユーザIDやログインアカウント、ユーザに装着されたセンサデバイスID等、ユーザに関する情報を記憶する。インタラクション特性管理テーブル322は、ペットIDおよびユーザID単位で、インタラクションの特性を示すインタラクションデータのIDを記憶する。ペットIDは、個体ID(オブジェクトID)、若しくは種別(犬、猫、ウサギ等の種類)を示す種別ID(仮想生物ID)を含む。 The user management table 321 stores information about the user such as a user ID, a login account, and a sensor device ID attached to the user. The interaction characteristic management table 322 stores the ID of interaction data indicating the characteristic of interaction for each pet ID and user ID. The pet ID includes an individual ID (object ID) or a type ID (virtual creature ID) indicating a type (type of dog, cat, rabbit, etc.).
 監視カメラ管理テーブル323は、ペットやユーザの様子を撮影する監視カメラのIDと、紐付くユーザIDを記憶する。ペット周辺デバイス管理テーブル324は、ペット周辺デバイスのデバイスIDと、ペット周辺デバイス表現データおよびユーザIDを記憶する。ペット周辺デバイスとは、ペットにつながれるリードや首輪等、ペット周辺のデバイスであって、振動したり音を発生する機能を有する(図24参照)。ペット周辺デバイスは、インタラクション特性データに基づいて、ユーザの振る舞いに対して所定の動きや音を発することで、ペット本体が居ない場合でもペットの反応パターンを想起させることが可能となる。 The surveillance camera management table 323 stores an ID of a surveillance camera that captures the state of a pet or a user and a user ID associated with the surveillance camera. The pet peripheral device management table 324 stores device IDs of pet peripheral devices, pet peripheral device expression data, and user IDs. The pet peripheral device is a device around the pet, such as a lead or a collar connected to the pet, and has a function of vibrating or generating a sound (see FIG. 24). The pet peripheral device emits a predetermined movement or sound in response to the user's behavior based on the interaction characteristic data, so that the pet reaction pattern can be recalled even when the pet body is not present.
 インタラクション特性データDB325は、ユーザIDおよびペットID(オブジェクトIDの一例)単位で、当該ペット(オブジェクトの一例)のユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積する。ペット周辺デバイス表現テーブル326は、ペットの反応パターンに対応するペット周辺デバイスの表現データを蓄積する。ユーザの振る舞いデータ一時記憶部327は、受信したユーザの振る舞いデータを一時的に記憶する。 The interaction characteristic data DB 325 accumulates interaction characteristic data indicating the characteristic of interaction with the user of the pet (an example of an object) in units of a user ID and a pet ID (an example of an object ID). The pet peripheral device expression table 326 stores expression data of the pet peripheral device corresponding to the pet reaction pattern. The user behavior data temporary storage unit 327 temporarily stores the received user behavior data.
 なお、各テーブル等の具体的なデータ例については、後述する各実施例において図面を用いて説明する。 In addition, specific data examples such as each table will be described with reference to the drawings in each embodiment described later.
 図9は、サーバ3のユーザ管理について説明する図である。図示されたように、サーバ3は、ユーザID毎に、ユーザに装着される一つの動きセンサデバイスと、一つまたは複数のペットIDと、各ペットIDに対応するペットに装着される動きセンサデバイスと、各ペットIDに対応する飼い主カードと、各ペットIDに対応するインタラクション特性データと、各ペットIDに対応する周辺デバイスと、ペット周辺でユーザとペットの動きを検出する一つまたは複数のカメラと、一つのログインアカウント(ユーザ名とパスワード等)とを管理することが可能である。 FIG. 9 is a diagram for explaining user management of the server 3. As illustrated, the server 3 includes, for each user ID, one motion sensor device worn by the user, one or a plurality of pet IDs, and a motion sensor device worn by a pet corresponding to each pet ID. An owner card corresponding to each pet ID, interaction characteristic data corresponding to each pet ID, a peripheral device corresponding to each pet ID, and one or a plurality of cameras for detecting the movement of the user and the pet around the pet And one login account (user name, password, etc.) can be managed.
 以上、本開示の一実施形態によるペットロボット1およびサーバ3の具体的な構成について説明した。続いて、本開示の一実施形態による情報処理システムの各実施例について説明する。 The specific configurations of the pet robot 1 and the server 3 according to an embodiment of the present disclosure have been described above. Subsequently, each example of the information processing system according to an embodiment of the present disclosure will be described.
 <<3.実施例>>
 <3-1.第1の実施例>
 まず、第1の実施例として、ペットロボット1と振れ合う場合について図10~図14を参照して説明する。例えば多数のペットロボットと振れ合うことができるペットロボットカフェにおいて、好きなペットロボット1に、ユーザIDおよびペットIDと紐付けられた特定のインタラクション特性データ(例えば実在のペットや、自宅に居るペットロボットから検出、蓄積したインタラクション特性のデータ)を読み込ませることで、当該ペットロボット1で特定のペットのインタラクション特性を再現することが可能となる。
<< 3. Example >>
<3-1. First Example>
First, as a first embodiment, the case of swinging with the pet robot 1 will be described with reference to FIGS. For example, in a pet robot cafe that can interact with a large number of pet robots, specific interaction characteristic data associated with a user ID and a pet ID (for example, a real pet or a pet robot at home) The interaction characteristics of a specific pet can be reproduced by the pet robot 1 by reading the interaction characteristic data detected and accumulated from (1).
 図10は、第1の実施例の概要について説明する図である。図10に示すように、例えばペットロボット1Aのカードリーダ70に、ユーザの飼い主カード71をかざすと、ログインアカウント(ユーザ名とパスワード)がペットロボット1Aに読み取られてサーバ3においてログイン処理が行われる。そして、飼い主カード71のペットIDに基づいて、対応するインタラクション特性がサーバ3からペットロボット1Aにロードされ、ペットロボット1Aでインタラクション特性が再現される。 FIG. 10 is a diagram for explaining the outline of the first embodiment. As shown in FIG. 10, for example, when the user's owner card 71 is held over the card reader 70 of the pet robot 1 </ b> A, the login account (user name and password) is read by the pet robot 1 </ b> A and login processing is performed in the server 3. . Then, based on the pet ID of the owner card 71, the corresponding interaction characteristic is loaded from the server 3 to the pet robot 1A, and the interaction characteristic is reproduced by the pet robot 1A.
 図11は、第1の実施例によるログイン時の動作処理を示すシーケンス図である。図11に示すように、まず、ペットロボット1Aは、接続されたカードリーダ70により、飼い主カードの情報を読み取る(ステップS103)。なおカードリーダ70は、ペットロボット1Aの頭部や胴体等に設けられていてもよい。 FIG. 11 is a sequence diagram showing an operation process at the time of login according to the first embodiment. As shown in FIG. 11, first, the pet robot 1 </ b> A reads the owner card information by the connected card reader 70 (step S <b> 103). The card reader 70 may be provided on the head or the trunk of the pet robot 1A.
 次に、ペットロボット1Aは、飼い主カードに記録されているログインアカウント(ユーザ名とパスワード)をサーバ3に送信する(ステップS106)。 Next, the pet robot 1A transmits the login account (user name and password) recorded on the owner card to the server 3 (step S106).
 次いで、サーバ3のログイン処理部301は、ログインアカウントに基づいて、ユーザ管理テーブル321を参照してログイン処理を行う(ステップS109)。ここで、図12の上段に、ユーザ管理テーブル321のデータ例を示す。図12上段に示すように、ユーザ管理テーブルは、ユーザID、ユーザ名、パスワード、ログインアカウント、およびユーザに装着される動きセンサデバイスのデバイスIDを対応付けて管理している。 Next, the login processing unit 301 of the server 3 performs login processing with reference to the user management table 321 based on the login account (step S109). Here, an example of data of the user management table 321 is shown in the upper part of FIG. As shown in the upper part of FIG. 12, the user management table manages the user ID, the user name, the password, the login account, and the device ID of the motion sensor device attached to the user in association with each other.
 次に、サーバ3によりログインが認証されると、ペットロボット1Aは、飼い主カードに記録されているペットIDをサーバ3に送信し、インタラクション特性データを要求するリクエストを行う(ステップS112)。 Next, when the login is authenticated by the server 3, the pet robot 1A transmits the pet ID recorded on the owner card to the server 3 and makes a request for requesting the interaction characteristic data (step S112).
 次いで、ペットロボット1Aからリクエストを受信すると、サーバ3は、初回ログインの場合は(ステップS115/Yes)、インタラクション特性検索部302により、ペットロボットの初期状態のインタラクション特性データを検索する(ステップS118)。インタラクション特性データDB325には、予め初期状態のインタラクション特性データが格納されている。初期状態のインタラクション特性データは、例えば一般的な犬や猫が示すインタラクション特性データである。インタラクション特性検索部302は、リクエストに含まれるペットID(具体的には種別ID)に基づき、同種別の動物の一般的なインタラクション特性データを検索してもよい。また、同種別の動物の一般的なインタラクション特性データが無い場合は、近い種別の動物等、他の種別の動物の一般的なインタラクション特性データを検索する。 Next, when receiving the request from the pet robot 1A, the server 3 searches the interaction characteristic search unit 302 for the interaction characteristic data in the initial state of the pet robot in the case of the first login (step S115 / Yes) (step S118). . The interaction characteristic data DB 325 stores interaction characteristic data in an initial state in advance. The initial state interaction characteristic data is, for example, interaction characteristic data indicated by a general dog or cat. The interaction characteristic search unit 302 may search for general interaction characteristic data of animals of the same type based on the pet ID (specifically, the type ID) included in the request. If there is no general interaction characteristic data of the same type of animal, general interaction characteristic data of another type of animal such as a similar type of animal is searched.
 一方、初回ログインではない場合(ステップS115/No)、インタラクション特性検索部302は、インタラクション特性管理テーブル322を参照し、リクエストに含まれるペットID(具体的には個体ID)に対応するインタラクション特性データをインタラクション特性データDB325から検索する(ステップS118)。ここで、図12の下段に、インタラクション特性管理テーブル322のデータ例を示す。図12下段に示すように、インタラクション特性管理テーブル322は、ペットID、ペットに装着されるセンサデバイスID、紐付くユーザID、インタラクション特性データ、および飼い主カードを対応付けて管理している。インタラクション特性検索部302は、ペットロボット1Aから送信されたペットIDと、ログイン処理により認証されたユーザIDとに基づいて、インタラクション特性データを特定する。そして、当該インタラクション特性データの中身を、インタラクション特性データDB325から抽出する。 On the other hand, when it is not the first login (step S115 / No), the interaction characteristic search unit 302 refers to the interaction characteristic management table 322, and interaction characteristic data corresponding to the pet ID (specifically, individual ID) included in the request. Is retrieved from the interaction characteristic data DB 325 (step S118). Here, an example of data of the interaction characteristic management table 322 is shown in the lower part of FIG. As shown in the lower part of FIG. 12, the interaction characteristic management table 322 manages the pet ID, the sensor device ID attached to the pet, the user ID associated with the pet, the interaction characteristic data, and the owner card in association with each other. The interaction characteristic search unit 302 specifies interaction characteristic data based on the pet ID transmitted from the pet robot 1A and the user ID authenticated by the login process. Then, the contents of the interaction characteristic data are extracted from the interaction characteristic data DB 325.
 続いて、サーバ3は、ペットロボット1Aにインタラクション特性データを送信する(ステップS124)。 Subsequently, the server 3 transmits the interaction characteristic data to the pet robot 1A (step S124).
 そして、ペットロボット1Aは、サーバ3から受信したインタラクション特性データを読み込む(ステップS127)。具体的には、ペットロボット1Aは、受信したインタラクション特性データをインタラクション特性データ記憶部212に記憶する。 Then, the pet robot 1A reads the interaction characteristic data received from the server 3 (step S127). Specifically, the pet robot 1A stores the received interaction characteristic data in the interaction characteristic data storage unit 212.
 次に、特定のインタラクション特性データが読み込まれたペットロボット1Aの動作処理について図13を参照して説明する。図13は、本実施例によるペットロボット1Aの動作処理を示すフローチャートである。 Next, an operation process of the pet robot 1A in which specific interaction characteristic data has been read will be described with reference to FIG. FIG. 13 is a flowchart showing an operation process of the pet robot 1A according to the present embodiment.
 図13に示すように、まず、ペットロボット1Aは、カメラ15によりユーザの動きを検出した場合(ステップS130/Yes)、検出したユーザの動きをセンサデータ一時記憶部210に一時的に記憶する(ステップS133)。 As illustrated in FIG. 13, first, when the pet robot 1 </ b> A detects a user movement by the camera 15 (step S <b> 130 / Yes), the pet robot 1 </ b> A temporarily stores the detected user movement in the sensor data temporary storage unit 210 ( Step S133).
 次に、ペットロボット1Aは、圧力センサ19によりユーザの触れ合い(「撫でる」や「抱きしめる」といった物理的な働きかけ)動きを検出した場合(ステップS136/Yes)、検出したユーザの触れ合いをセンサデータ一時記憶部210に一時的に記憶する(ステップS139)。 Next, when the pet robot 1 </ b> A detects a user's touch (physical action such as “blow” or “hold”) by the pressure sensor 19 (step S <b> 136 / Yes), the detected touch of the user is temporarily detected by the sensor data. The information is temporarily stored in the storage unit 210 (step S139).
 次いで、ペットロボット1Aは、音声入力部16(マイクロホン)によりユーザの声を検出した場合(ステップS142/Yes)、検出したユーザの音声データをセンサデータ一時記憶部210に一時的に記憶する(ステップS145)。 Next, when the voice of the user is detected by the voice input unit 16 (microphone) (Step S142 / Yes), the pet robot 1A temporarily stores the detected voice data of the user in the sensor data temporary storage unit 210 (Step S142). S145).
 次に、ペットロボット1Aは、ユーザに装着された動きセンサデバイスにより、ユーザの動きが検出された場合(ステップS148/Yes)、検出されたユーザの動きデータをセンサデータ一時記憶部210に一時的に記憶する(ステップS151)。ペットロボット1Aは、ユーザが手首等に装着している動きセンサデバイスとWi-Fi(登録商標)やBluetooth(登録商標)等により接続し、検出された動きデータを受信することが可能である。 Next, when the movement of the user is detected by the movement sensor device attached to the user (step S148 / Yes), the pet robot 1A temporarily stores the detected movement data of the user in the sensor data temporary storage unit 210. (Step S151). The pet robot 1A is connected to a motion sensor device worn by a user on a wrist or the like by Wi-Fi (registered trademark), Bluetooth (registered trademark), or the like, and can receive detected motion data.
 続いて、ペットロボット1Aは、ユーザ振る舞い判定部101により、一時記憶した各データから「ユーザの振る舞い」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS154)。例えば、ユーザ振る舞い判定部101は、図5を参照して説明したように、「頭を強めになでる」、「背中をなでる」、「喉元を指でなでる」、「声を出す」、または「強く抱きしめる」等のユーザの振る舞いに該当するか否かを判断する。該当するユーザの振る舞いが判定されるまで、上述したS130~S151が繰り返される。 Subsequently, in the pet robot 1A, the user behavior determination unit 101 determines “user behavior” from each temporarily stored data, and determines whether or not the read interaction characteristic data is applicable (step S154). ). For example, as described with reference to FIG. 5, the user behavior determination unit 101 “spats the head strongly”, “spats the back”, “spats the throat with a finger”, “speaks”, or “ It is determined whether or not the user's behavior such as “embracing strongly” is met. The above-described S130 to S151 are repeated until the behavior of the corresponding user is determined.
 次に、該当するユーザの振る舞いがある場合(ステップS154/Yes)、制御部10は、当該ユーザの振る舞いに対応する愛情度を取得する(ステップS157)。例えば、図5に示したインタラクション特性データのうち、該当するユーザの振る舞いが「頭を強めになでる」である場合、対応する愛情度「5」を取得する。 Next, when there is a corresponding user behavior (step S154 / Yes), the control unit 10 acquires a degree of affection corresponding to the user behavior (step S157). For example, in the case of the interaction characteristic data shown in FIG. 5, if the behavior of the corresponding user is “stroke his head stronger”, the corresponding degree of affection “5” is acquired.
 次いで、当該ユーザの振る舞いに対応するペットの反応パターン群を取得する(ステップS160)。例えば、図5に示したインタラクション特性データのうち、該当するユーザの振る舞いが「頭を強めになでる」である場合、制御部10は、対応するペットの反応パターンとして、「首を軽くうなだれる」、「ニャーと鳴く」、「仰向けになる」、「体をまるめる」、および「ユーザの足元にすり寄る」といったペットの反応パターンを取得する。 Next, a pet reaction pattern group corresponding to the user's behavior is acquired (step S160). For example, in the case of the interaction characteristic data shown in FIG. 5, when the behavior of the corresponding user is “stretching the head strongly”, the control unit 10 may “bounce the neck lightly” as a corresponding pet reaction pattern, Acquire pet reaction patterns such as “Meowing”, “Sleeping on the back”, “Surrounding the body”, and “Sleeping to the user's feet”.
 次に、制御部10は、取得した反応パターン群のうち、反応パターンの実行に必要な愛情度が「ユーザの振る舞いに対応する愛情度」を超えないものを抽出する(ステップS163)。 Next, the control unit 10 extracts, from the acquired reaction pattern group, those whose affection degree necessary for executing the reaction pattern does not exceed “the affection degree corresponding to the user's behavior” (step S163).
 次いで、抽出した反応パターンからランダムに一つの反応パターンを選択し(ステップS166)、ペット動作制御部102は、選択した反応パターンに従って、ペットロボット1Aを動作させる(ステップS169)。 Next, one reaction pattern is randomly selected from the extracted reaction patterns (step S166), and the pet motion control unit 102 operates the pet robot 1A according to the selected reaction pattern (step S169).
 続いて、ペットロボット1Aの制御部10は、ユーザの振る舞いデータ(一時記憶したセンサデータ、振る舞い判定結果、若しくは振る舞いを示すIDの少なくともいずれか)と、ペットロボット1Aを動作させた反応パターン(反応データ)をサーバ3に送信する(ステップS172)。これにより、サーバ3側で、インタラクション特性の更新(学習)が行われ得る。サーバ側での更新処理については、図14を参照して後述する。 Subsequently, the control unit 10 of the pet robot 1A performs user behavior data (at least one of temporarily stored sensor data, a behavior determination result, or an ID indicating behavior) and a reaction pattern (reaction) that causes the pet robot 1A to operate. Data) is transmitted to the server 3 (step S172). As a result, the interaction characteristics can be updated (learned) on the server 3 side. The update process on the server side will be described later with reference to FIG.
 そして、ペットロボット1Aは、サーバ3により更新されたインタラクション特性データを受信すると、インタラクション特性データ記憶部212に記憶していたインタラクション特性データ(上記ステップS127で読み込んだインタラクション特性データ)を、更新されたインタラクション特性データに置き換える(ステップS175)。 When the pet robot 1A receives the interaction characteristic data updated by the server 3, the pet robot 1A has updated the interaction characteristic data stored in the interaction characteristic data storage unit 212 (the interaction characteristic data read in step S127). Replacement with interaction characteristic data (step S175).
 図14は、本実施例のサーバ3によるインタラクション特性データの更新処理を示すフローチャートである。図14に示すように、まず、サーバ3のインタラクション特性学習部303は、ペットロボット1Aから送信された、ユーザの振る舞いデータおよび反応パターンを、ユーザの振る舞いデータ一時記憶部327に一時的に記憶する(ステップS180)。 FIG. 14 is a flowchart showing the update processing of the interaction characteristic data by the server 3 of this embodiment. As shown in FIG. 14, first, the interaction characteristic learning unit 303 of the server 3 temporarily stores the user behavior data and the reaction pattern transmitted from the pet robot 1 </ b> A in the user behavior data temporary storage unit 327. (Step S180).
 次に、インタラクション特性学習部303は、ユーザの振る舞いデータ一時記憶部327に蓄積されたユーザの振る舞いデータと反応パターンを参照し、その頻度を取得する(ステップS183)。 Next, the interaction characteristic learning unit 303 refers to the user behavior data and the reaction pattern stored in the user behavior data temporary storage unit 327, and acquires the frequency (step S183).
 次に、インタラクション特性学習部303は、頻度が(所定値より)高いユーザの音声があるか否かを判断する(ステップS186)。例えば、ユーザの発話で同じ音声パターンの頻度が高い場合、ペットの名前など特別な意味も持つフレーズであることが予想される。 Next, the interaction characteristic learning unit 303 determines whether there is a user's voice having a high frequency (greater than a predetermined value) (step S186). For example, when the frequency of the same voice pattern is high in the user's utterance, it is expected that the phrase has a special meaning such as a pet name.
 次いで、頻度が高いユーザの音声がある場合(ステップS186/Yes)、インタラクション特性学習部303は、当該音声に対するインタラクション特性を新規登録(当該音声を発生することをユーザの振る舞い項目としてインタラクション特性データに追加)し(ステップS189)、新規登録したインタラクション特性の「愛情度」を加算する(ステップS192)。なお声による呼び掛けのインタラクション特性は、図5に示す「声を出す」の「愛情度」および「ペットの反応パターン」が引き継がれる。 Next, when there is a user's voice with a high frequency (step S186 / Yes), the interaction characteristic learning unit 303 newly registers the interaction characteristic for the voice (the generation of the voice is set as the user behavior item in the interaction characteristic data). (Addition) ”(step S189), and the“ affection degree ”of the newly registered interaction characteristic is added (step S192). Note that the “interaction” of “calling out” and “pet reaction pattern” shown in FIG.
 一方、頻度が(所定値より)高いユーザの動作がある場合(ステップS198/Yes)、インタラクション特性学習部303は、当該動作は「ユーザのお気に入りの振る舞い」であると判断し、対応するインタラクション特性の「愛情度」を加算する(ステップS201)。例えば図5に示す例の場合、「頭を強くなでる」という振る舞いが所定値以上行われた場合、インタラクション特性学習部303は、「頭を強くなでる」というユーザの振る舞いの愛情度「5」に「1」加算する。 On the other hand, when there is a user action with a high frequency (greater than a predetermined value) (step S198 / Yes), the interaction characteristic learning unit 303 determines that the action is “the user's favorite behavior”, and the corresponding interaction characteristic. Are added (step S201). For example, in the case of the example shown in FIG. 5, when the behavior of “stroking the head strongly” is performed more than a predetermined value, the interaction characteristic learning unit 303 sets the affection degree “5” of the user's behavior of “stroking the head strongly”. Add "1".
 そして、サーバ3の制御部10は、更新されたインタラクション特性データをペットロボット1Aに送信する(ステップS195)。 Then, the control unit 10 of the server 3 transmits the updated interaction characteristic data to the pet robot 1A (step S195).
 以上説明したように、第1の実施例では、ペットロボット1Aにインタラクション特性データを読み込ませ、ユーザの振る舞いに対するインタラクションを再現できると共に、サーバ側においてインタラクション特性データの更新が行われ得る。また、本実施例は、ユーザの振る舞いに対応する愛情度を設定し、愛情度がユーザの振る舞いの頻度に応じて加算されていくようにする。そして、ユーザの振る舞いの愛情度に応じて、当該振る舞いに対応付けられた複数の反応パターンから一の反応パターンを選択してペットロボット1を動作させる。これにより、ユーザとペットロボットとのコミュニケーションが蓄積されていくと、初期状態から徐々にユーザの振る舞いに対するペットロボット1の反応パターンが変化し(愛情度が上がると選択される反応パターンが変化)、特定の振る舞いに対して特定の反応パターンが表出されるようになる。 As described above, in the first embodiment, the interaction characteristic data can be read by the pet robot 1A, the interaction with the user's behavior can be reproduced, and the interaction characteristic data can be updated on the server side. Further, in this embodiment, the degree of affection corresponding to the user's behavior is set, and the degree of affection is added according to the frequency of the user's behavior. Then, in accordance with the degree of affection of the user's behavior, the pet robot 1 is operated by selecting one reaction pattern from a plurality of reaction patterns associated with the behavior. Thereby, when the communication between the user and the pet robot is accumulated, the reaction pattern of the pet robot 1 with respect to the behavior of the user gradually changes from the initial state (the reaction pattern selected when the degree of love increases) A specific reaction pattern is expressed for a specific behavior.
 <3-2.第2の実施例>
 次に、第2の実施例として、ペット育成アプリケーション等、アプリケーション上で動作するタイニーペットロボット(バーチャルペットとも称される)と触れ合う場合について図15~図18を参照して説明する。図15は、第2の実施例の概要について説明する図である。図15に示すように、タブレット端末等のユーザ端末5でログイン画面52が表示され、ユーザアカウントでログインすると、ペット選択画面53が表示される。ペット選択画面53に表示される複数のペットは、ユーザIDに紐付くペットIDに基づくものである。図15に示す例では、実在生物、仮想生物問わず、ユーザが飼っている4匹のペットが選択肢として表示される。このうち、例えばペットCを選択すると、ペットCのインタラクション特性データがユーザ端末5に読み込まれ、タイニーペットロボット54で再現される。
<3-2. Second Embodiment>
Next, as a second embodiment, a case where a tiny pet robot (also referred to as a virtual pet) operating on an application such as a pet breeding application is touched will be described with reference to FIGS. FIG. 15 is a diagram for explaining the outline of the second embodiment. As shown in FIG. 15, a login screen 52 is displayed on a user terminal 5 such as a tablet terminal, and a pet selection screen 53 is displayed when logging in with a user account. The plurality of pets displayed on the pet selection screen 53 is based on the pet ID associated with the user ID. In the example illustrated in FIG. 15, four pets kept by the user are displayed as options regardless of whether they are real or virtual. Among these, for example, when the pet C is selected, the interaction characteristic data of the pet C is read into the user terminal 5 and reproduced by the tiny pet robot 54.
 ユーザ端末5の構成は、図3に示すペットロボット1の構成のうち、リアルのペットロボット特有の構成である駆動部18を除く構成により実現され得る。 The configuration of the user terminal 5 can be realized by a configuration excluding the drive unit 18 which is a configuration unique to a real pet robot among the configurations of the pet robot 1 shown in FIG.
 図16は、第2の実施例によるログイン時の動作処理を示すシーケンス図である。図11に示すように、まず、ユーザ端末5は、ペット育成アプリケーションを起動し(ステップS213)、図5に示すようなログイン画面52を表示し、ログインアカウント(ユーザ名およびパスワード)の入力を受け付ける(ステップS216)。 FIG. 16 is a sequence diagram showing an operation process at the time of login according to the second embodiment. As shown in FIG. 11, first, the user terminal 5 starts a pet breeding application (step S213), displays a login screen 52 as shown in FIG. 5, and accepts input of a login account (user name and password). (Step S216).
 次いで、サーバ3のログイン処理部301は、ユーザ端末5から送信されたログインアカウントに基づいて、ユーザ管理テーブル321を参照してログイン処理を行う(ステップS219)。 Next, the login processing unit 301 of the server 3 performs login processing with reference to the user management table 321 based on the login account transmitted from the user terminal 5 (step S219).
 次に、サーバ3によりログインが認証されると、初回ログインではない場合(ステップS222/No)、インタラクション特性検索部302は、インタラクション特性管理テーブル322を参照し、ユーザIDに紐付けられたペットIDのインタラクション特性データが複数あるか否かを判断する(ステップS225)。 Next, when the login is authenticated by the server 3, if it is not the first login (step S222 / No), the interaction characteristic search unit 302 refers to the interaction characteristic management table 322, and the pet ID associated with the user ID. It is determined whether or not there is a plurality of interaction characteristic data (step S225).
 インタラクション特性データが複数ある場合(すなわち複数のペットIDが紐付けられている場合)(ステップS225/Yes)、サーバ3の制御部30は、インタラクション特性データのリストをユーザ端末5へ送信する(ステップS228)。 When there are a plurality of pieces of interaction characteristic data (that is, when a plurality of pet IDs are linked) (step S225 / Yes), the control unit 30 of the server 3 transmits a list of interaction characteristic data to the user terminal 5 (step S225). S228).
 次いで、ユーザ端末5は、受信したインタラクション特性データのリストを表示する(ステップS231)。具体的には、ユーザ端末5は、図15に示すように、各インタラクション特性データに対応するペットの名前等を選択肢として表示するペット選択画面53を表示してもよい。 Next, the user terminal 5 displays a list of received interaction characteristic data (step S231). Specifically, as shown in FIG. 15, the user terminal 5 may display a pet selection screen 53 that displays a pet name or the like corresponding to each interaction characteristic data as an option.
 次に、ペット(インタラクション特性データ)がユーザにより選択されると(ステップS234/Yes)、ユーザ端末5は、選択されたインタラクション特性データの送信要求(選択されたペットのペットIDを含む)をサーバ3に送信する(ステップS237)。 Next, when a pet (interaction characteristic data) is selected by the user (step S234 / Yes), the user terminal 5 sends a request for transmission of the selected interaction characteristic data (including the pet ID of the selected pet) to the server. 3 (step S237).
 続いて、サーバ3は、リクエストに含まれるペットID(具体的には固体ID)と、ログイン処理により特定されたユーザIDに基づいて、要求されたインタラクション特性データをインタラクション特性データDB325から検索し、ユーザ端末5に送信する(ステップS240)。 Subsequently, the server 3 retrieves the requested interaction characteristic data from the interaction characteristic data DB 325 based on the pet ID (specifically, the solid ID) included in the request and the user ID specified by the login process, It transmits to the user terminal 5 (step S240).
 一方、初回ログインの場合(ステップS222/Yes)、サーバ3のインタラクション特性検索部302は、タイニーペットロボットの初期状態のインタラクション特性データを検索する(ステップS243)。初期状態のインタラクション特性データは、例えば予め設定された、一般的な犬や猫が示すインタラクション特性データである。この際、サーバ3は、ペットの種別(犬、猫、ウサギ等)をユーザに選択させ、リクエストに含まれる種別IDと同じ種別の動物のインタラクション特性データ(初期状態)を検索するようにしてもよい。 On the other hand, in the case of the first login (step S222 / Yes), the interaction characteristic search unit 302 of the server 3 searches for the interaction characteristic data of the initial state of the tiny pet robot (step S243). The interaction characteristic data in the initial state is, for example, interaction characteristic data set in advance by a general dog or cat. At this time, the server 3 may allow the user to select a pet type (dog, cat, rabbit, etc.) and search for interaction characteristic data (initial state) of an animal of the same type as the type ID included in the request. Good.
 次いで、サーバ3は、検索したインタラクション特性データをユーザ端末5に送信する(ステップS246)。なお、上記ステップS225で、ユーザIDに紐付けられたインタラクション特性データが複数ではない場合(ステップS225/No)、紐付けられた一のインタラクション特性データをインタラクション特性データDB325から検索し、ユーザ端末5に送信する(ステップS246)。 Next, the server 3 transmits the retrieved interaction characteristic data to the user terminal 5 (step S246). If there is not a plurality of pieces of interaction characteristic data associated with the user ID in step S225 (step S225 / No), one interaction characteristic data associated with the user ID is retrieved from the interaction characteristic data DB 325, and the user terminal 5 (Step S246).
 そして、ユーザ端末5は、サーバ3から受信したインタラクション特性データを読み込む(ステップS249)。具体的には、ユーザ端末5は、受信したインタラクション特性データを記憶部に記憶する。 Then, the user terminal 5 reads the interaction characteristic data received from the server 3 (step S249). Specifically, the user terminal 5 stores the received interaction characteristic data in the storage unit.
 次に、特定のインタラクション特性データが読み込まれたユーザ端末5の動作処理について図17を参照して説明する。図17は、本実施例によるユーザ端末5のタイニーペットロボットの動作制御処理を示すフローチャートである。 Next, an operation process of the user terminal 5 in which specific interaction characteristic data has been read will be described with reference to FIG. FIG. 17 is a flowchart showing the operation control process of the tiny pet robot of the user terminal 5 according to the present embodiment.
 図17に示すように、まず、ユーザ端末5は、端末自身のカメラによりユーザの動きを検出した場合(ステップS250/Yes)、検出したユーザの動きを記憶部に一時的に記憶する(ステップS253)。 As illustrated in FIG. 17, first, when the user terminal 5 detects the user's movement with the camera of the terminal itself (step S250 / Yes), the user terminal 5 temporarily stores the detected user movement in the storage unit (step S253). ).
 次に、ユーザ端末5は、端末自身の各種センサ(タッチセンサ、圧力センサ、加速度センサ、ジャイロセンサ、コンパスなど)によりユーザの触れ合い(「撫でる」等の物理的な働きかけ)動きを検出した場合(ステップS256/Yes)、検出したユーザの触れ合いを記憶部に一時的に記憶する(ステップS259)。 Next, when the user terminal 5 detects a user's touch (physical action such as “blowing”) movement by various sensors (touch sensor, pressure sensor, acceleration sensor, gyro sensor, compass, etc.) of the terminal itself ( In step S256 / Yes, the detected user touch is temporarily stored in the storage unit (step S259).
 次いで、ユーザ端末5は、端末自身のマイクロホンによりユーザの声を検出した場合(ステップS262/Yes)、検出したユーザの音声データを記憶部に一時的に記憶する(ステップS265)。 Next, when the user terminal 5 detects the voice of the user with the microphone of the terminal itself (step S262 / Yes), the user terminal 5 temporarily stores the detected user voice data in the storage unit (step S265).
 続いて、ユーザ端末5は、一時記憶した各データに基づいて「ユーザの振る舞い」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS268)。上述したS250~S265は繰り返され、継続的にユーザ振る舞い判定が行われ得る。 Subsequently, the user terminal 5 determines “user behavior” based on the temporarily stored data, and determines whether there is any data corresponding to the read interaction characteristic data (step S268). The above-described S250 to S265 are repeated, and the user behavior determination can be continuously performed.
 次に、該当するユーザの振る舞いがある場合(ステップS268/Yes)、ユーザ端末5は、当該ユーザの振る舞いに対応する愛情度を取得する(ステップS271)。 Next, when there is a corresponding user behavior (step S268 / Yes), the user terminal 5 acquires a love degree corresponding to the user behavior (step S271).
 次いで、ユーザ端末5は、当該ユーザの振る舞いに対応するペットの反応パターン群を取得し(ステップS274)、取得した反応パターン群のうち、反応パターンの実行に必要な愛情度が「ユーザの振る舞いに対応する愛情度」を超えないものを抽出する(ステップS277)。 Next, the user terminal 5 acquires a pet reaction pattern group corresponding to the user's behavior (step S274). Among the acquired reaction pattern group, the degree of affection necessary for the execution of the reaction pattern is “the user's behavior. Those that do not exceed the “corresponding degree of affection” are extracted (step S277).
 次に、ユーザ端末5は、抽出した反応パターンからランダムに一つの反応パターンを選択する(ステップS280)。 Next, the user terminal 5 randomly selects one reaction pattern from the extracted reaction patterns (step S280).
 以上説明したステップS268~S280の処理は、第1の実施例において図13を参照して説明したステップS154~S166と同様である。 The processes of steps S268 to S280 described above are the same as steps S154 to S166 described with reference to FIG. 13 in the first embodiment.
 次いで、ユーザ端末5は、選択した反応パターンに従って、タイニーペットロボットを動作させる(ステップS283)。 Next, the user terminal 5 operates the tiny pet robot according to the selected reaction pattern (step S283).
 続いて、ユーザ端末5は、ユーザの振る舞いデータ(一時記憶したセンサデータ、若しくは振る舞い判定結果の少なくともいずれか)と、タイニーペットロボットを動作させた反応パターンをサーバ3に送信する(ステップS286)。これにより、サーバ3側で、インタラクション特性の更新(学習)が行われ得る。サーバ側での更新処理については、図18を参照して後述する。 Subsequently, the user terminal 5 transmits the user behavior data (at least one of the temporarily stored sensor data and the behavior determination result) and the reaction pattern in which the tiny pet robot is operated to the server 3 (step S286). As a result, the interaction characteristics can be updated (learned) on the server 3 side. The update process on the server side will be described later with reference to FIG.
 そして、ユーザ端末5は、サーバ3により更新されたインタラクション特性データを受信すると、記憶部に記憶していたインタラクション特性データ(上記ステップS249で読み込んだインタラクション特性データ)を、更新されたインタラクション特性データに置き換える(ステップS289)。 When the user terminal 5 receives the interaction characteristic data updated by the server 3, the user terminal 5 converts the interaction characteristic data stored in the storage unit (the interaction characteristic data read in step S 249) into the updated interaction characteristic data. Replace (step S289).
 図18は、本実施例のサーバ3によるインタラクション特性データの更新処理を示すフローチャートである。図18に示すように、まず、サーバ3のインタラクション特性学習部303は、ユーザ端末5から送信された、ユーザの振る舞いデータおよび反応パターンを、ユーザの振る舞いデータ一時記憶部327に一時的に記憶する(ステップS290)。 FIG. 18 is a flowchart showing the update processing of the interaction characteristic data by the server 3 of this embodiment. As illustrated in FIG. 18, first, the interaction characteristic learning unit 303 of the server 3 temporarily stores the user behavior data and the reaction pattern transmitted from the user terminal 5 in the user behavior data temporary storage unit 327. (Step S290).
 次いで、ステップS293~S302、ステップS308~S312において、第1の実施例の図14に示すステップS183~S192、ステップS198~S201と同様に、頻度の高いユーザ音声や動作に応じて、対応するインタラクション特性の愛情度を加算する。 Next, in Steps S293 to S302 and Steps S308 to S312, as in Steps S183 to S192 and Steps S198 to S201 shown in FIG. 14 of the first embodiment, the corresponding interaction is performed according to the frequent user voice and operation. Add the affection level of the characteristic.
 そして、サーバ3の制御部10は、更新されたインタラクション特性データをユーザ端末5に送信する(ステップS305)。 And the control part 10 of the server 3 transmits the updated interaction characteristic data to the user terminal 5 (step S305).
 以上説明したように、第2の実施例では、ユーザ端末5にインタラクション特性データを読み込ませ、ユーザ端末5のアプリケーション上で動作するタイニーペットロボットにおいて、ユーザの振る舞いに対するインタラクションを再現できると共に、サーバ側においてインタラクション特性データの更新が行われ得る。また、本実施例でも、第1の実施例と同様に、ユーザの振る舞いに対応する愛情度を設定し、ユーザとタイニーペットロボットとのコミュニケーションの蓄積に応じて更新し、初期状態から徐々にユーザの振る舞いに対するタイニーペットロボットの反応パターンが変化し(愛情度が上がると選択される反応パターンが変化)、特定の振る舞いに対して特定の反応パターンが表出されるようになる。 As described above, in the second embodiment, the interaction characteristic data can be read by the user terminal 5 and the interaction with the user's behavior can be reproduced in the tiny pet robot that operates on the application of the user terminal 5. The interaction characteristic data can be updated at. Also in this embodiment, as in the first embodiment, the degree of affection corresponding to the user's behavior is set, updated according to the accumulation of communication between the user and the tiny pet robot, and gradually from the initial state to the user The reaction pattern of the tiny pet robot with respect to the behavior of (1) changes (the reaction pattern selected as the degree of affection increases), and a specific reaction pattern is expressed with respect to the specific behavior.
 <3-3.第3の実施例>
 次に、第3の実施例として、実在のペットのインタラクション特性を収集する場合について、図19~図23を参照して説明する。図19は、第3の実施例の概要について説明する図である。
<3-3. Third Example>
Next, as a third embodiment, a case where the interaction characteristics of an actual pet are collected will be described with reference to FIGS. 19 to 23. FIG. FIG. 19 is a diagram for explaining the outline of the third embodiment.
 図19に示すように、本実施例では、例えば実在のペットに装着される動きセンサデバイス84、ペット周辺でユーザとペットの様子を撮像する監視カメラ80、およびユーザの手首や腕等に装着される動きセンサデバイス82を用いて、実在のペットのインタラクション特性データを収集する。監視カメラ80、動きセンサデバイス82、84により取得されたセンサデータは、Bluetooth通信等の無線通信により情報処理端末8に送信され、情報処理端末8により、ネットワーク2を介してサーバ3へ送信され、サーバ3において、ユーザIDおよびペットIDと紐付けて、インタラクション特性データとして登録、管理される。サーバ3に登録された実在のペットのインタラクション特性データは、第1の実施例や第2の実施例のように、ペットロボット1やユーザ端末5にロードされ、ペットロボット1やタイニーペットロボットにより再現され得る。 As shown in FIG. 19, in this embodiment, for example, the motion sensor device 84 that is attached to an actual pet, the monitoring camera 80 that captures the state of the user and the pet around the pet, and the wrist or arm of the user are attached. The motion sensor device 82 is used to collect real-life pet interaction characteristic data. Sensor data acquired by the monitoring camera 80 and the motion sensor devices 82 and 84 is transmitted to the information processing terminal 8 by wireless communication such as Bluetooth communication, and is transmitted to the server 3 via the network 2 by the information processing terminal 8. In the server 3, it is registered and managed as interaction characteristic data in association with the user ID and the pet ID. The actual pet interaction characteristic data registered in the server 3 is loaded into the pet robot 1 or the user terminal 5 and reproduced by the pet robot 1 or the tiny pet robot as in the first embodiment or the second embodiment. Can be done.
 図20は、第3の実施例によるログイン時の動作処理を示すシーケンス図である。図20に示すように、まず、情報処理端末8は、ログイン画面を表示し、ログインアカウント(ユーザ名およびパスワード)の入力を受け付ける(ステップS313)。 FIG. 20 is a sequence diagram showing an operation process at the time of login according to the third embodiment. As shown in FIG. 20, first, the information processing terminal 8 displays a login screen and accepts an input of a login account (user name and password) (step S313).
 次いで、サーバ3のログイン処理部301は、情報処理端末8から送信されたログインアカウントに基づいて、ユーザ管理テーブル321を参照してログイン処理を行う(ステップS316)。 Next, the login processing unit 301 of the server 3 performs login processing with reference to the user management table 321 based on the login account transmitted from the information processing terminal 8 (step S316).
 次に、サーバ3によりログインが認証されると、情報処理端末8は、ユーザに装着する動きセンサデバイス82のデバイスIDの入力画面を表示し、ユーザによる入力を受け付ける(ステップS319)。 Next, when the server 3 authenticates the login, the information processing terminal 8 displays a device ID input screen of the motion sensor device 82 attached to the user and accepts an input by the user (step S319).
 次いで、サーバ3のログイン処理部301は、情報処理端末8から送信されたデバイスIDを、ユーザアカウントに紐付けてユーザ管理テーブル321に登録する(図12上段参照)(ステップS322)。 Next, the login processing unit 301 of the server 3 registers the device ID transmitted from the information processing terminal 8 in the user management table 321 in association with the user account (see the upper part of FIG. 12) (step S322).
 次に、情報処理端末8は、ペットに装着する動きセンサデバイス84のデバイスIDの入力画面を表示し、ユーザによる入力を受け付ける(ステップS325)。 Next, the information processing terminal 8 displays a device ID input screen of the motion sensor device 84 attached to the pet and accepts an input by the user (step S325).
 次いで、サーバ3のログイン処理部301は、情報処理端末8から送信されたデバイスIDを、ユーザアカウント(ユーザID)に紐付けてインタラクション特性管理テーブル322に登録する(図12下段参照)(ステップS328)。 Next, the login processing unit 301 of the server 3 associates the device ID transmitted from the information processing terminal 8 with the user account (user ID) and registers it in the interaction characteristic management table 322 (see the lower part of FIG. 12) (step S328). ).
 次に、情報処理端末8は、ペット周辺でユーザとペットの動きを検出する監視カメラ80のデバイスIDの入力画面を表示し、ユーザによる入力を受け付ける(ステップS331)。 Next, the information processing terminal 8 displays a device ID input screen of the monitoring camera 80 that detects the movement of the user and the pet around the pet, and accepts an input by the user (step S331).
 次いで、サーバ3のログイン処理部301は、情報処理端末8から送信されたデバイスIDを、ユーザアカウント(ユーザID)に紐付けて監視カメラ管理テーブル323に登録する(ステップS334)。ここで、図21の上段に、監視カメラ管理テーブル323のデータ例を示す。図21上段に示すように、監視カメラ管理テーブル323には、ペット周辺にてユーザとペットの動きを検出するための監視カメラのデバイスIDが、ユーザIDに紐付けて登録されている。 Next, the login processing unit 301 of the server 3 registers the device ID transmitted from the information processing terminal 8 in the monitoring camera management table 323 in association with the user account (user ID) (step S334). Here, the upper part of FIG. 21 shows a data example of the monitoring camera management table 323. As shown in the upper part of FIG. 21, in the surveillance camera management table 323, device IDs of surveillance cameras for detecting the movement of the user and the pet around the pet are registered in association with the user ID.
 続いて、実在のペットからインタラクション特性データを収集する際の情報処理端末8の動作処理について図22を参照して説明する。図22は、第3の実施例による情報処理端末8の動作処理を示すフローチャートである。 Subsequently, the operation process of the information processing terminal 8 when collecting the interaction characteristic data from the actual pet will be described with reference to FIG. FIG. 22 is a flowchart showing an operation process of the information processing terminal 8 according to the third embodiment.
 図22に示すように、まず、情報処理端末8は、ペット周辺の監視カメラ80により撮像された撮像画像に基づいて、ユーザの動きを検出した場合(ステップS340/Yes)、検出したユーザの動きを記憶部に一時的に記憶する(ステップS342)。 As illustrated in FIG. 22, first, when the information processing terminal 8 detects a user movement based on a captured image captured by the monitoring camera 80 around the pet (step S340 / Yes), the detected user movement is detected. Is temporarily stored in the storage unit (step S342).
 次に、情報処理端末8は、ペット周辺の監視カメラ80のマイクロホンによりユーザの音声またはペットの鳴き声を検出した場合(ステップS344/Yes)、検出したユーザのユーザ音声またはペットの鳴き声を記憶部に一時的に記憶する(ステップS346)。 Next, when the information processing terminal 8 detects the user's voice or the pet's cry with the microphone of the surveillance camera 80 around the pet (step S344 / Yes), the detected user voice or the pet's cry is stored in the storage unit. Temporary storage is performed (step S346).
 次いで、情報処理端末8は、ユーザに装着された動きセンサデバイス82によりユーザの動きを検出した場合(ステップS348/Yes)、検出したユーザの動きデータを記憶部に一時的に記憶する(ステップS350)。 Next, when the motion sensor device 82 attached to the user detects the user's movement (step S348 / Yes), the information processing terminal 8 temporarily stores the detected user's movement data in the storage unit (step S350). ).
 次に、情報処理端末8は、ペットに装着された動きセンサデバイス84によりペットの動きを検出した場合(ステップS3352/Yes)、検出したペットの動きデータを記憶部に一時的に記憶する(ステップS354)。 Next, when the movement sensor device 84 attached to the pet detects the movement of the pet (step S3352 / Yes), the information processing terminal 8 temporarily stores the detected pet movement data in the storage unit (step S3352). S354).
 続いて、情報処理端末8は、一時記憶した各データに基づいて「ユーザの振る舞い」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS356)。ここで、情報処理端末8には、初期状態のインタラクション特性データがサーバ3から送信され記憶部に記憶されている。初期状態のインタラクション特性データは、例えば一般的な犬や猫等から検出して設定したものであって、想定し得るほぼ全ての振る舞い(ユーザの動き)と反応パターン(ペットの動き)が登録されている。該当する振る舞いがあるまで、上述したS340~S356が繰り返される。 Subsequently, the information processing terminal 8 determines “user behavior” based on each temporarily stored data, and determines whether there is any data corresponding to the read interaction characteristic data (step S356). Here, in the information processing terminal 8, the interaction characteristic data in the initial state is transmitted from the server 3 and stored in the storage unit. The initial interaction characteristic data is detected and set from, for example, general dogs and cats, and almost all possible behaviors (user movements) and reaction patterns (pet movements) are registered. ing. The above-described steps S340 to S356 are repeated until there is a corresponding behavior.
 次に、該当するユーザの振る舞いがある場合(ステップS356/Yes)、情報処理端末8は、当該ユーザの振る舞いに対応する愛情度を取得する(ステップS358)。 Next, when there is a corresponding user behavior (step S356 / Yes), the information processing terminal 8 acquires the degree of affection corresponding to the user behavior (step S358).
 次いで、情報処理端末8は、当該ユーザの振る舞いに対応するペットの反応パターン群を取得する(ステップS360)。 Next, the information processing terminal 8 acquires a pet reaction pattern group corresponding to the behavior of the user (step S360).
 次に、情報処理端末8は、一時記憶した各データに基づいて「ペットの反応パターン」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS262)。 Next, the information processing terminal 8 determines a “pet reaction pattern” based on each temporarily stored data, and determines whether there is any data corresponding to the read interaction characteristic data (step S262).
 続いて、情報処理端末8は、ユーザの振る舞いデータ(一時記憶したセンサデータ、若しくは振る舞い判定結果、若しくは振る舞いの内容を示す細分化されたID等)と、ペットの反応パターンをサーバ3に送信する(ステップS366)。これにより、サーバ3側で、インタラクション特性の更新(学習)が行われ得る。サーバ側での更新処理については、図23を参照して後述する。 Subsequently, the information processing terminal 8 transmits the user's behavior data (temporarily stored sensor data, behavior determination result, or segmented ID indicating the content of the behavior) and the pet reaction pattern to the server 3. (Step S366). As a result, the interaction characteristics can be updated (learned) on the server 3 side. The update process on the server side will be described later with reference to FIG.
 そして、情報処理端末8は、サーバ3により更新されたインタラクション特性データを受信すると、記憶部に記憶していたインタラクション特性データを、更新されたインタラクション特性データに置き換える(ステップS366)。 Then, when the information processing terminal 8 receives the interaction characteristic data updated by the server 3, the information processing terminal 8 replaces the interaction characteristic data stored in the storage unit with the updated interaction characteristic data (step S366).
 図23は、本実施例のサーバ3によるインタラクション特性データの更新処理を示すフローチャートである。図23に示すように、まず、サーバ3のインタラクション特性学習部303は、情報処理端末8から送信された、ユーザの振る舞いデータおよび反応パターンを、ユーザの振る舞いデータ一時記憶部327に一時的に記憶する(ステップS370)。 FIG. 23 is a flowchart showing the update processing of the interaction characteristic data by the server 3 of this embodiment. As shown in FIG. 23, first, the interaction characteristic learning unit 303 of the server 3 temporarily stores the user behavior data and the reaction pattern transmitted from the information processing terminal 8 in the user behavior data temporary storage unit 327. (Step S370).
 次いで、ステップS372~S378、ステップS380~S382において、第1の実施例の図14に示すステップS183~S192、ステップS198~S201と同様に、頻度の高いユーザ音声や動作に応じて、対応するインタラクション特性の愛情度を加算する。なお、声による呼び掛けのインタラクション特性は、「声を出す」という振る舞い(図5参照)に対応する「愛情度」および「ペットの反応パターン」が引き継がれる。 Next, in Steps S372 to S378 and Steps S380 to S382, as in Steps S183 to S192 and Steps S198 to S201 shown in FIG. 14 of the first embodiment, the corresponding interaction is performed according to the frequent user voice and operation. Add the affection level of the characteristic. Note that the interaction characteristic of the voice call inherits the “degree of affection” and the “pet reaction pattern” corresponding to the behavior of “speak out” (see FIG. 5).
 そして、サーバ3の制御部10は、更新されたインタラクション特性データを情報処理端末8に送信する(ステップS384)。 Then, the control unit 10 of the server 3 transmits the updated interaction characteristic data to the information processing terminal 8 (step S384).
 以上説明したように、第3の実施例では、実在のペットのインタラクション特性データも収集することが可能であり、収集したインタラクション特性データをペットロボット1やタイニーペットロボットにロードして再現することができる。 As described above, in the third embodiment, it is possible to collect actual pet interaction characteristic data, and the collected interaction characteristic data can be loaded on the pet robot 1 or the tiny pet robot and reproduced. it can.
 <3-4.第4の実施例>
 次に、第4の実施例として、ペット周辺デバイスを、インタラクション特性データに基づいてユーザの振る舞いに応じて動作させる場合について、図24~図28を参照して説明する。
<3-4. Fourth embodiment>
Next, as a fourth embodiment, a case where the pet peripheral device is operated according to the user's behavior based on the interaction characteristic data will be described with reference to FIGS.
 図24は、第4の実施例の概要について説明する図である。図24に示すように、音を鳴らしたり振動したりすることが可能な首輪(ペット周辺デバイス6A)や、リードのついた首輪(ペット周辺デバイス6B)は、ペット本体が居ない場合でも、インタラクション特性データに応じて振動したり音を発することで、ユーザの振る舞いに対するペットの反応を想起させることが可能となる。なおペット周辺デバイス6は図24に示す例に限定されず、例えばペット飼育用の籠、小屋、ボール等のペットの遊び道具、ペットの洋服等も想定される。 FIG. 24 is a diagram for explaining the outline of the fourth embodiment. As shown in FIG. 24, the collar (pet peripheral device 6A) capable of sounding and vibrating and the collar with the lead (pet peripheral device 6B) interact even when the pet body is not present. By vibrating or making a sound according to the characteristic data, it becomes possible to recall the pet's reaction to the user's behavior. The pet peripheral device 6 is not limited to the example shown in FIG. 24. For example, a pet breeding cage, a hut, a pet play tool such as a ball, and a pet clothes are also assumed.
 このようなペット周辺デバイス6のデバイスIDのサーバ3への登録処理は、第3の実施例による図20に示す処理と同様であって、例えば情報処理端末8においてペット周辺デバイス6のIDがユーザにより入力されると、当該デバイスIDがサーバ3へ送信され、ペット周辺デバイス管理テーブル324に登録される。具体的には、図21の下段に示すように、ペット周辺デバイス6のデバイスIDは、ペット周辺デバイス表現データおよびペットIDと紐付けられて登録される。 The registration process of the device ID of the pet peripheral device 6 to the server 3 is the same as the process shown in FIG. 20 according to the third embodiment. For example, in the information processing terminal 8, the ID of the pet peripheral device 6 is the user. , The device ID is transmitted to the server 3 and registered in the pet peripheral device management table 324. Specifically, as shown in the lower part of FIG. 21, the device ID of the pet peripheral device 6 is registered in association with the pet peripheral device expression data and the pet ID.
 図25は、本実施例によるペット周辺デバイス6へのデータ読み込み動作処理を示すシーケンス図である。図25に示すように、まず、ペット周辺デバイス6は、デバイスID(仮想生物アクセサリID)をサーバ3に送信し、インタラクション特性データの要求を行う(ステップS403)。 FIG. 25 is a sequence diagram showing data reading operation processing to the pet peripheral device 6 according to the present embodiment. As shown in FIG. 25, first, the pet peripheral device 6 transmits a device ID (virtual creature accessory ID) to the server 3 and requests interaction characteristic data (step S403).
 次に、サーバ3は、ペット周辺デバイス管理テーブル324(図21)を参照して、ペット周辺デバイス6から送信されたデバイスIDに対応するペットIDを取得する(ステップS406)。 Next, the server 3 refers to the pet peripheral device management table 324 (FIG. 21) and acquires a pet ID corresponding to the device ID transmitted from the pet peripheral device 6 (step S406).
 次いで、サーバ3は、インタラクション特性管理テーブル322を参照して、当該ペットIDに対応するインタラクション特性データを取得する(ステップS409)。 Next, the server 3 refers to the interaction characteristic management table 322 and acquires the interaction characteristic data corresponding to the pet ID (step S409).
 次に、サーバ3は、ペット周辺デバイス6にインタラクション特性データを送信する(ステップS412)。 Next, the server 3 transmits the interaction characteristic data to the pet peripheral device 6 (step S412).
 次いで、ペット周辺デバイス6は、サーバ3から受信したインタラクション特性データを読み込む(ステップS415)。具体的には、ペット周辺デバイス6の記憶部にインタラクション特性データを記憶する。 Next, the pet peripheral device 6 reads the interaction characteristic data received from the server 3 (step S415). Specifically, the interaction characteristic data is stored in the storage unit of the pet peripheral device 6.
 続いて、ペット周辺デバイス6は、ペット周辺デバイス6のデバイスIDをサーバ3に送信し、ペット周辺デバイス表現データの要求を行う(ステップS418)。 Subsequently, the pet peripheral device 6 transmits the device ID of the pet peripheral device 6 to the server 3 and requests pet peripheral device expression data (step S418).
 次に、サーバ3は、ペット周辺デバイス管理テーブル324を参照して、送信されたデバイスIDに対応するペット周辺デバイス表現データを取得する(ステップS421)。 Next, the server 3 refers to the pet peripheral device management table 324 and acquires pet peripheral device expression data corresponding to the transmitted device ID (step S421).
 次いで、サーバ3は、ペット周辺デバイス6に、ペット周辺デバイス表現データを送信する(ステップS424)。 Next, the server 3 transmits the pet peripheral device expression data to the pet peripheral device 6 (step S424).
 そして、ペット周辺デバイス6は、サーバ3から受信したペット周辺デバイス表現データを読み込む(ステップS427)。具体的には、ペット周辺デバイス6の記憶部にペット周辺デバイス表現データを記憶する。ペット周辺デバイス表現データの一例については、図28を参照して後述する。 Then, the pet peripheral device 6 reads the pet peripheral device expression data received from the server 3 (step S427). Specifically, the pet peripheral device expression data is stored in the storage unit of the pet peripheral device 6. An example of pet peripheral device expression data will be described later with reference to FIG.
 続いて、読み込んだデータに基づく、ユーザの振る舞いに応じたペット周辺デバイス6の動作制御について、図26および図27を参照して説明する。図26および図27は、本実施例によるペット周辺デバイス6の動作処理を示すフローチャートである。 Subsequently, operation control of the pet peripheral device 6 according to the user's behavior based on the read data will be described with reference to FIGS. 26 and 27. FIG. 26 and 27 are flowcharts showing the operation process of the pet peripheral device 6 according to this embodiment.
 図26に示すように、まず、ペット周辺デバイス6は、ペット周辺デバイス6のマイクによりユーザの声を検出した場合(ステップS430/Yes)、検出したユーザの音声データを記憶部に一時的に記憶する(ステップS433)。 As shown in FIG. 26, first, when the pet peripheral device 6 detects the voice of the user with the microphone of the pet peripheral device 6 (step S430 / Yes), the detected voice data of the user is temporarily stored in the storage unit. (Step S433).
 次に、ペット周辺デバイス6は、ペット周辺デバイス6のセンサ(タッチセンサ、圧力センサ、加速度センサ、ジャイロセンサ、コンパス等)によりユーザの動きを検出した場合(ステップS436/Yes)、検出したユーザの動きデータを記憶部に一時的に記憶する(ステップS439)。 Next, the pet peripheral device 6 detects the movement of the user by the sensor (touch sensor, pressure sensor, acceleration sensor, gyro sensor, compass, etc.) of the pet peripheral device 6 (step S436 / Yes). The motion data is temporarily stored in the storage unit (step S439).
 次いで、ペット周辺デバイス6は、ユーザに装着された動きセンサデバイスによりユーザの動きを検出した場合(ステップS442/Yes)、検出したユーザの動きデータを記憶部に一時的に記憶する(ステップS445)。 Next, when the movement of the user is detected by the movement sensor device attached to the user (step S442 / Yes), the pet peripheral device 6 temporarily stores the detected movement data of the user in the storage unit (step S445). .
 続いて、ペット周辺デバイス6は、一時記憶した各データに基づいて「ユーザの振る舞い」を判定し、読み込んだインタラクション特性データに該当するものがあるか否かを判断する(ステップS448)。上述したS430~S448は繰り返され、継続的にユーザ振る舞い判定が行われ得る。 Subsequently, the pet peripheral device 6 determines “user behavior” based on the temporarily stored data, and determines whether there is any data corresponding to the read interaction characteristic data (step S448). The above-described S430 to S448 are repeated, and the user behavior determination can be continuously performed.
 次に、該当するユーザの振る舞いがある場合(ステップS448/Yes)、ペット周辺デバイス6は、当該ユーザの振る舞いに対応する愛情度を取得する(ステップS451)。 Next, when there is a corresponding user behavior (step S448 / Yes), the pet peripheral device 6 acquires a love degree corresponding to the behavior of the user (step S451).
 次いで、ペット周辺デバイス6は、当該ユーザの振る舞いに対応するペットの反応パターン群を取得し(ステップS454)、取得した反応パターン群のうち、反応パターンの実行に必要な愛情度が「ユーザの振る舞いに対応する愛情度」を超えないものを抽出する(ステップS457)。 Next, the pet peripheral device 6 acquires a pet reaction pattern group corresponding to the user's behavior (step S454), and the degree of affection necessary for executing the reaction pattern is “user's behavior” among the acquired reaction pattern group. Those that do not exceed the “degree of affection corresponding to” are extracted (step S457).
 次に、ペット周辺デバイス6は、抽出した反応パターンからランダムに一つの反応パターンを選択する(ステップS460)。 Next, the pet peripheral device 6 randomly selects one reaction pattern from the extracted reaction patterns (step S460).
 次いで、ペット周辺デバイス6は、ペット周辺デバイス表現データを参照し、選択した反応パターンに対応する表現データを取得する(ステップS463)。ここで、図28に、本実施例によるペット周辺デバイス表現データの一例を示す。図示されているように、ペット周辺デバイス表現データは、ペット周辺デバイス毎に、ペットの反応パターンに対応するペット周辺デバイス6による表現データ(動作内容)を有する。例えばペット周辺デバイス6A(鈴のついた首輪)において、「首を軽くうなだれる」という反応パターンが選択された場合、ペット周辺デバイス6は、対応するペット周辺デバイス6の表現データである「鈴が静かに1秒間鳴る」を取得する。 Next, the pet peripheral device 6 refers to the pet peripheral device expression data and acquires expression data corresponding to the selected reaction pattern (step S463). Here, FIG. 28 shows an example of pet peripheral device expression data according to the present embodiment. As illustrated, the pet peripheral device expression data includes expression data (operation content) by the pet peripheral device 6 corresponding to the pet reaction pattern for each pet peripheral device. For example, in the pet peripheral device 6A (collar with a bell), when the reaction pattern of “lightly stroking the neck” is selected, the pet peripheral device 6 displays the expression data of the corresponding pet peripheral device 6 “bell is quiet. For 1 second.
 次に、図27に示すように、ペット周辺デバイス6は、取得したペット周辺デバイスの表現データが、音データの再生を必要とするものであるか否かを判断する(ステップS466)。 Next, as shown in FIG. 27, the pet peripheral device 6 determines whether or not the acquired expression data of the pet peripheral device requires reproduction of sound data (step S466).
 次いで、音データの再生を必要とするものである場合(ステップS466/Yes)、ペット周辺デバイス6が音データ再生機構を有しているか否かを判断する(ステップS469)。 Next, when it is necessary to reproduce sound data (step S466 / Yes), it is determined whether or not the pet peripheral device 6 has a sound data reproduction mechanism (step S469).
 次に、音データ再生機構を有している場合(ステップS469/Yes)、ペット周辺デバイス6は、取得したペット周辺デバイスの表現データに従って音データを再生するよう制御する(ステップS472)。 Next, when having a sound data reproduction mechanism (step S469 / Yes), the pet peripheral device 6 controls to reproduce the sound data according to the acquired expression data of the pet peripheral device (step S472).
 一方、音データ再生機構を有していない場合(ステップS469/No)、ペット周辺デバイス6は、音データを再生するという表現は実行することができない。 On the other hand, when the sound data reproduction mechanism is not provided (step S469 / No), the pet peripheral device 6 cannot execute the expression of reproducing the sound data.
 次いで、取得したペット周辺デバイスの表現データが、デバイスの振動、回転、または駆動を必要とするものである場合(ステップS475/Yes)、ペット周辺デバイス6は、自身に振動、回転、または駆動する機構があるか否かを判断する(ステップS478)。 Next, if the acquired expression data of the pet peripheral device requires vibration, rotation, or driving of the device (step S475 / Yes), the pet peripheral device 6 vibrates, rotates, or drives itself. It is determined whether or not there is a mechanism (step S478).
 次に、該当する機構がある場合(ステップS478/Yes)、ペット周辺デバイス6は、取得したペット周辺デバイスの表現データに従って、ペット周辺デバイス6の振動、回転、または駆動を実行する(ステップS481)。 Next, when there is a corresponding mechanism (step S478 / Yes), the pet peripheral device 6 performs vibration, rotation, or driving of the pet peripheral device 6 according to the acquired expression data of the pet peripheral device (step S481). .
 一方、該当する機構を有していない場合(ステップS478/No)、ペット周辺デバイス6は、振動、回転、または駆動といった表現は実行することができない。 On the other hand, when the corresponding mechanism is not included (step S478 / No), the pet peripheral device 6 cannot execute expressions such as vibration, rotation, or drive.
 以上説明したように、第4の実施例では、ペット周辺デバイス6に特定のペットのインタラクション特性データをロードし、ユーザの振る舞いに対して、インタラクション特性を間接的に再現し、ペット本体が居なくても、特定のペットの反応を表現することができる。 As described above, in the fourth embodiment, the interaction characteristic data of a specific pet is loaded into the pet peripheral device 6 and the interaction characteristic is indirectly reproduced with respect to the user's behavior, and the pet body does not exist. Even a specific pet's reaction can be expressed.
 <3-5.第5の実施例>
 次に、第5の実施例として、アタッチメントデバイスをペットロボット1に装着して駆動能力を拡張する場合について図29~図32を参照して説明する。
<3-5. Fifth embodiment>
Next, as a fifth embodiment, a case where the attachment device is attached to the pet robot 1 and the driving capability is expanded will be described with reference to FIGS. 29 to 32. FIG.
 本実施形態による情報処理システムでは、図29に示すように、例えば実在のペット4A、4Bから取得したインタラクション特性データを、猫型のペットロボット1A、犬型のペットロボット1C、アリクイ型のペットロボット1E、または鳥型のペットロボット1F等、様々なタイプの異なるペットロボット1に読み込ませてインタラクション特性を再現することができる。 In the information processing system according to the present embodiment, as shown in FIG. 29, for example, the interaction characteristic data acquired from the actual pets 4A and 4B is converted into cat-type pet robot 1A, dog-type pet robot 1C, and anteater-type pet robot. It is possible to reproduce the interaction characteristics by being read by various types of different pet robots 1 such as 1E or bird-shaped pet robot 1F.
 しかし、その動物ならではの特徴的な部位におけるインタラクション特性を再現することは、他の種別のペットロボットでは困難な場合がある。例えば、ヤマアラシの背中に密生する針状の体毛の動きや、ウサギの長い耳による動きを、他の種別のペットロボットでよりリアルに再現することは難しい。したがって、上述した実施例では、例えばペットロボット1からインタラクション特性データを新規で要求するリクエストがあった際、ペットロボット1の種別に応じた生物の一般的な初期用のインタラクション特性データを検索し、返信することが想定される。 However, it may be difficult for other types of pet robots to reproduce the interaction characteristics in the characteristic parts unique to the animal. For example, it is difficult to more realistically reproduce the movement of needle-shaped body hair that grows densely on the back of a porcupine or the movement of a rabbit's long ears with other types of pet robots. Therefore, in the above-described embodiment, for example, when there is a request for a new request for interaction characteristic data from the pet robot 1, the general initial interaction characteristic data of the organism corresponding to the type of the pet robot 1 is searched, It is expected to reply.
 これに対し本実施例では、身体的に特徴のある動物のインタラクション特性をよりリアルに再現するためのアタッチメントデバイス7を用いる。 On the other hand, in this embodiment, the attachment device 7 for reproducing the interaction characteristic of the animal having physical characteristics more realistically is used.
 図30は、本実施例によるアタッチメントデバイス7の一例を示す図である。図30に示すように、例えばヤマアラシのアタッチメントデバイス7Aや、ウサギの耳のアタッチメントデバイス7Bを猫型のペットロボット1Aに装着することで、ペットロボット1Aの駆動能力を拡張し、他の種別の生物のインタラクション特性をより忠実に再現することが可能となる。 FIG. 30 is a diagram illustrating an example of the attachment device 7 according to the present embodiment. As shown in FIG. 30, for example, by attaching a porcupine attachment device 7A or a rabbit ear attachment device 7B to a cat-shaped pet robot 1A, the driving capability of the pet robot 1A is expanded, and other types of organisms It is possible to more faithfully reproduce the interaction characteristics.
 図31は、駆動能力の拡張について具体的に説明する図である。図31の上段に示すように、インタラクション特性データでは、あるペットの反応パターン「片方の耳を折り曲げる」を実行するために必要なデバイス(ペットロボット)の駆動能力「駆動できる関節を持った長い耳」が規定されている。一方、各ペットロボット1には、ハードウェアの能力に従って固有の駆動能力が定義されている。例えば図31の下段に示すように、ペットロボット1Aの駆動能力として、前足の駆動能力、尻尾の駆動能力、首の駆動能力等が定義されている。ペットロボット1Aが「駆動できる関節を持った長い耳」といった必要な駆動能力を有していない場合、当該反応パターンは再現できないが、図31の下段に示すように、駆動できる関節を持つ長い耳のアタッチメントデバイス7Bを装着することで駆動能力が拡張され、当該反応パターンを再現することが可能となる。 FIG. 31 is a diagram specifically explaining the expansion of the driving capability. As shown in the upper part of FIG. 31, in the interaction characteristic data, the driving ability of a device (pet robot) necessary to execute a reaction pattern “bend one ear” of a certain pet “long ear with a joint that can be driven” Is defined. On the other hand, each of the pet robots 1 has a unique driving ability defined according to the hardware ability. For example, as shown in the lower part of FIG. 31, as the driving ability of the pet robot 1A, the driving ability of the forefoot, the driving ability of the tail, the driving ability of the neck and the like are defined. If the pet robot 1A does not have a necessary driving ability such as “long ears with joints that can be driven”, the reaction pattern cannot be reproduced. However, as shown in the lower part of FIG. By attaching the attachment device 7B, the driving ability is expanded and the reaction pattern can be reproduced.
 図32は、本実施例によるペットロボット1の動作処理を示すフローチャートである。図32に示すように、まず、ペットロボット1は、ユーザの振る舞いに応じて、インタラクション特性データを参照してペットの反応パターンを取得する(ステップS503)。 FIG. 32 is a flowchart showing an operation process of the pet robot 1 according to the present embodiment. As shown in FIG. 32, the pet robot 1 first obtains a pet reaction pattern by referring to the interaction characteristic data according to the behavior of the user (step S503).
 次に、ペットロボット1は、ペットの反応パターンの実行に必要なデバイスの駆動能力をサーバ3から取得する(ステップS506)。 Next, the pet robot 1 acquires the drive capability of the device necessary for executing the pet reaction pattern from the server 3 (step S506).
 次いで、ペットロボット1は、自身が有する駆動能力を取得し(ステップS509)、ペットロボット1の駆動能力に、ペットの反応パターンに必要な駆動能力が含まれているか否かを判断する(ステップS512)。 Next, the pet robot 1 acquires its own driving ability (step S509), and determines whether or not the driving ability of the pet robot 1 includes the driving ability necessary for the pet reaction pattern (step S512). ).
 次に、含まれている場合(ステップS512/Yes)、ペットロボット1は、ペットの反応パターンに従って、ペットロボット1を動作させる(ステップS515)。 Next, if it is included (step S512 / Yes), the pet robot 1 operates the pet robot 1 according to the pet reaction pattern (step S515).
 一方、含まれていない場合(ステップS512/No)、ペットロボット1は、アタッチメントデバイス7が装着されているか否かを判断する(ステップS518)。 On the other hand, when not included (step S512 / No), the pet robot 1 determines whether or not the attachment device 7 is attached (step S518).
 アタッチメントデバイス7が装着されている場合(ステップS518/Yes)、ペットロボット1は、アタッチメントデバイス7が有する駆動能力を取得する(ステップS521)。 When the attachment device 7 is attached (step S518 / Yes), the pet robot 1 acquires the drive capability of the attachment device 7 (step S521).
 次いで、ペットロボット1は、アタッチメントデバイス7の駆動能力に、ペットの反応パターンの実行に必要な駆動能力が含まれているか否かを判断する(ステップS524)。 Next, the pet robot 1 determines whether or not the drive capability of the attachment device 7 includes the drive capability necessary for executing the pet reaction pattern (step S524).
 そして、含まれている場合(ステップS524/Yes)、ペットロボット1は、ペットの反応パターンに従ってアタッチメントデバイス7を動作させる(ステップS527)。 If it is included (step S524 / Yes), the pet robot 1 operates the attachment device 7 according to the pet reaction pattern (step S527).
 一方、アタッチメントデバイス7が装着されていない場合(ステップS518/No)や、装着されていても反応パターンを実行するために必要な駆動能力が含まれていない場合(ステップS524/No)、ペットロボット1は、当該反応パターンを実行することができないため、ステップS503に戻り、次のユーザの振る舞いを待つ。 On the other hand, when the attachment device 7 is not attached (step S518 / No), or when the attachment device 7 is attached but does not include the driving ability necessary for executing the reaction pattern (step S524 / No), the pet robot Since 1 cannot execute the reaction pattern, the process returns to step S503 to wait for the next user's behavior.
 以上説明したように、第5の実施例では、身体的な特徴を有するペットの反応パターンを実現するためのアタッチメントデバイス7をペットロボット1に装着し、ペットロボット1の駆動能力を拡張して、インタラクション特性をより確実に再現することを可能とする。なおペットロボット1は、新規にインタラクション特性データをサーバ3に要求する際、ペットロボット1の種別ID(仮想生物ID)と、装着されているアタッチメントデバイス7のID(アタッチメントデバイスID:機能拡張のフラグの一例)と、ユーザIDを含めて送信してもよい。この場合、サーバ3は、種別IDに対応する生物の種類とは異なる、アタッチメントデバイスIDに対応する種類の生物の初期状態用の一般的なインタラクション特性データを検索し、返信するようにしてもよい。 As described above, in the fifth embodiment, the attachment device 7 for realizing a pet reaction pattern having physical characteristics is attached to the pet robot 1, and the driving capability of the pet robot 1 is expanded. It is possible to more reliably reproduce the interaction characteristics. When the pet robot 1 newly requests interaction characteristic data from the server 3, the type ID (virtual organism ID) of the pet robot 1 and the ID of the attached attachment device 7 (attachment device ID: flag of function expansion) And the user ID may be transmitted. In this case, the server 3 may search and return general interaction characteristic data for the initial state of the organism of the type corresponding to the attachment device ID, which is different from the type of the organism corresponding to the type ID. .
  <<5.まとめ>>
 上述したように、本開示の実施形態による情報処理システムでは、ユーザの振る舞いに対する実在または仮想の生物のインタラクション特性を再現することを可能とする。
<< 5. Summary >>
As described above, in the information processing system according to the embodiment of the present disclosure, it is possible to reproduce the interaction characteristics of a real or virtual creature with respect to a user's behavior.
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the present technology is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.
 例えば、上述した情報処理システムのペットロボット1、サーバ3、ユーザ端末5、または情報処理端末8に内蔵されるCPU、ROM、およびRAM等のハードウェアに、ペットロボット1、サーバ3、ユーザ端末5、または情報処理端末8の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。 For example, the pet robot 1, the server 3, and the user terminal 5 are installed in hardware such as a CPU, a ROM, and a RAM built in the pet robot 1, the server 3, the user terminal 5, or the information processing terminal 8 of the information processing system described above. Alternatively, it is possible to create a computer program for demonstrating the functions of the information processing terminal 8. A computer-readable storage medium storing the computer program is also provided.
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 In addition, the effects described in this specification are merely illustrative or illustrative, and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.
 なお、本技術は以下のような構成も取ることができる。
(1)
 ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積する蓄積部と、
 仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信する通信部と、
 前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御する制御部と、
を備える、仮想生物制御システム。
(2)
 前記制御部は、前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる前記オブジェクトIDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御する、前記(1)に記載の仮想生物制御システム。
(3)
 前記制御部は、
  前記通信部を介して、前記仮想生物デバイスにより検出されたユーザの振る舞いと、それに対して当該仮想生物を動作させた前記インタラクション特性データの反応データとを取得すると、
  前記蓄積部に蓄積される前記インタラクション特性データを、取得した前記ユーザの振る舞いと前記反応データに応じて更新するように制御する、前記(1)に記載の仮想生物制御システム。
(4)
 前記制御部は、前記ユーザの振る舞いの頻度に応じて、当該振る舞いに対応する愛情度を更新する、前記(3)に記載の仮想生物制御システム。
(5)
 前記制御部は、
  前記通信部を介して、仮想生物育成アプリケーションが実装される前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
  当該リクエストに含まれる仮想生物IDに対応する前記インタラクション特性データを前記蓄積部から検索し、
  前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(1)に記載の仮想生物制御システム。
(6)
 前記制御部は、
  前記通信部を介して、仮想生物育成アプリケーションが実装される前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
  当該リクエストに含まれるオブジェクトIDに対応する前記インタラクション特性データを前記蓄積部から検索し、
  前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(1)に記載の仮想生物制御システム。
(7)
 前記制御部は、
  前記通信部を介して、前記ユーザの振る舞いと、それに対する実在する生物の反応を表す反応データを取得し、
  前記蓄積部に、前記ユーザIDと、前記実在する生物のIDを示すオブジェクトIDとを関連付けて、前記ユーザの振る舞いと前記反応データに応じて、前記インタラクション特性データを更新する、前記(1)に記載の仮想生物制御システム。
(8)
 前記制御部は、
  前記通信部を介して、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
  当該リクエストに含まれる仮想生物IDに応じて、前記実在する生物のIDを示すオブジェクトIDを特定し、
  当該オブジェクトIDに応じて、前記蓄積部から、前記インタラクション特性データを検索し、
  前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(7)に記載の仮想生物制御システム。
(9)
 前記制御部は、
 前記通信部を介して、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
  当該リクエストに含まれる仮想生物IDの生物の種類とは異なる種類の、前記実在する生物のインタラクション特性データを前記蓄積部から検索し、
  前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(7)に記載の仮想生物制御システム。
(10)
 前記制御部は、
 前記通信部を介して受信される、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストの中に、機能拡張のフラグが含まれる際、当該リクエストに含まれる仮想生物IDの生物の種類とは異なる、機能拡張のフラグに対応する種類の生物の前記インタラクション特性データを前記蓄積部から検索し、
 前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、前記(1)に記載の仮想生物制御システム。
(11)
 前記制御部は、
  前記通信部を介して、外部デバイスから、仮想生物アクセサリIDを含む前記インタラクション特性データを要求するリクエストを受信すると、
  当該仮想生物アクセサリIDに紐付けられたオブジェクトIDを特定し、当該オブジェクトIDに応じて、前記蓄積部から前記インタラクション特性データを検索し、
  前記通信部を介して、前記検索されたインタラクション特性データを、前記外部デバイスに返信する、前記(1)に記載の仮想生物制御システム。
(12)
 仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、
 前記インタラクション特性データを蓄積する蓄積部と、
 前記ユーザの振る舞いをセンシングするセンサ部と、
 前記ユーザの振る舞いに対して反応するリアクション部と、
 前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、
を備える、仮想生物制御システム。
(13)
 前記仮想生物制御システムは、カードリーダをさらに備え、
 前記制御部は、
 前記通信部を介して、
  前記カードリーダを介して入力されたオブジェクトIDと、ユーザIDを特定するための情報を前記サーバに送信し、
  前記ユーザIDと前記オブジェクトIDに応じた前記インタラクション特性データを前記サーバより受信する、前記(12)記載の仮想生物制御システム。
(14)
 前記仮想生物制御システムを拡張する機能拡張モジュールを取り付け可能であり、
 前記通信部は、
  前記機能拡張モジュールが取り付けられている際、前記通信部を介して、ユーザID、仮想生物ID、機能拡張のフラグを含む、前記インタラクション特性データを要求するリクエストを送信し、
  前記仮想生物IDの生物の種類とは異なる種類の前記インタラクション特性データを前記サーバから受信し、
 前記制御部は、前記インタラクション特性データに応じて、前記ユーザの振る舞いに対して、前記機能拡張モジュールおよび前記リアクション部を制御する、前記(12)に記載の仮想生物制御システム。
(15)
 前記制御部は、前記ユーザの振る舞いに対応する愛情度を取得し、前記インタラクション特性データで定義されている前記ユーザの振る舞いに対する1以上の反応パターンのうち、前記愛情度に応じて、一の反応パターンを選択し、前記リアクション部を制御する、前記(12)または(13)に記載の仮想生物制御システム。
(16)
 プロセッサが、
 ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積部に蓄積することと、
 通信部を介して、仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信することと、
 前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御することと、
を含む、仮想生物制御方法。
(17)
 コンピュータを、
 仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、
 前記インタラクション特性データを蓄積する蓄積部と、
 前記ユーザの振る舞いをセンシングするセンサ部と、
 前記ユーザの振る舞いに対して反応するリアクション部と、
 前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、
として機能させるためのプログラムが記憶された、記憶媒体。
In addition, this technique can also take the following structures.
(1)
An accumulation unit that accumulates interaction characteristic data indicating the characteristic of the interaction of the object with the user in units of user ID and object ID;
A communication unit that receives a request for requesting the interaction characteristic data from a virtual biological device and returns the interaction characteristic data;
In response to a request for requesting the interaction characteristic data received from the virtual biological device via the communication unit, the interaction characteristic data is determined based on the virtual biological ID included in the request and the identified user ID. A control unit that searches from the storage unit and controls the retrieved interaction characteristic data to be returned via the communication unit;
A virtual biological control system.
(2)
In response to a request for requesting the interaction characteristic data received from the virtual biological device via the communication unit, the control unit is based on the object ID included in the request and the identified user ID. The virtual organism control system according to (1), wherein the interaction characteristic data is retrieved from the storage unit, and the retrieved interaction characteristic data is controlled to be returned via the communication unit.
(3)
The controller is
Via the communication unit, obtaining the behavior of the user detected by the virtual biological device and the response data of the interaction characteristic data that operated the virtual biological object thereto,
The virtual biological control system according to (1), wherein the interaction characteristic data stored in the storage unit is controlled to be updated according to the acquired user behavior and the reaction data.
(4)
The virtual biological control system according to (3), wherein the control unit updates the degree of affection corresponding to the behavior according to the frequency of the user's behavior.
(5)
The controller is
When receiving a request for requesting the interaction characteristic data from the virtual biological device on which the virtual biological training application is implemented via the communication unit,
The interaction characteristic data corresponding to the virtual creature ID included in the request is searched from the storage unit,
The virtual biological control system according to (1), wherein the retrieved interaction characteristic data is returned to the virtual biological device via the communication unit.
(6)
The controller is
When receiving a request for requesting the interaction characteristic data from the virtual biological device on which the virtual biological training application is implemented via the communication unit,
The interaction characteristic data corresponding to the object ID included in the request is searched from the storage unit,
The virtual biological control system according to (1), wherein the retrieved interaction characteristic data is returned to the virtual biological device via the communication unit.
(7)
The controller is
Via the communication unit, obtain the reaction data representing the behavior of the user and the reaction of the living organism to it,
In (1), the user ID and an object ID indicating the ID of the living creature are associated with the storage unit, and the interaction characteristic data is updated according to the behavior of the user and the reaction data. The described virtual biological control system.
(8)
The controller is
When receiving a request for requesting the interaction characteristic data from the virtual biological device via the communication unit,
According to the virtual creature ID included in the request, the object ID indicating the ID of the real creature is specified,
In accordance with the object ID, the interaction characteristic data is searched from the storage unit,
The virtual biological control system according to (7), wherein the retrieved interaction characteristic data is returned to the virtual biological device via the communication unit.
(9)
The controller is
When receiving a request for requesting the interaction characteristic data from the virtual biological device via the communication unit,
Searching the storage unit for the interaction characteristic data of the living organism of a type different from the type of the organism of the virtual organism ID included in the request,
The virtual biological control system according to (7), wherein the retrieved interaction characteristic data is returned to the virtual biological device via the communication unit.
(10)
The controller is
When the function expansion flag is included in the request for requesting the interaction characteristic data from the virtual biological device received via the communication unit, the type of the biological object of the virtual biological ID included in the request Retrieves the interaction characteristic data of the organisms of different types corresponding to the function extension flags from the storage unit,
The virtual biological control system according to (1), wherein the retrieved interaction characteristic data is returned to the virtual biological device via the communication unit.
(11)
The controller is
When receiving a request for requesting the interaction characteristic data including the virtual creature accessory ID from the external device via the communication unit,
An object ID associated with the virtual creature accessory ID is specified, and the interaction characteristic data is searched from the storage unit according to the object ID,
The virtual biological control system according to (1), wherein the retrieved interaction characteristic data is returned to the external device via the communication unit.
(12)
A communication unit that transmits a request for interaction characteristic data indicating characteristics of an interaction with a user of a virtual creature, and receives interaction characteristic data returned from the server in response to the request; and
An accumulator for accumulating the interaction characteristic data;
A sensor unit for sensing the user's behavior;
A reaction unit that reacts to the user's behavior;
In accordance with the interaction characteristic data received by the communication unit, a control unit that controls the reaction unit to react to the user's behavior sensed by the sensor unit;
A virtual biological control system.
(13)
The virtual biological control system further includes a card reader,
The controller is
Via the communication unit,
Send the object ID input via the card reader and information for specifying the user ID to the server,
The virtual biological control system according to (12), wherein the interaction characteristic data corresponding to the user ID and the object ID is received from the server.
(14)
A function expansion module for extending the virtual biological control system can be attached,
The communication unit is
When the function expansion module is attached, a request for requesting the interaction characteristic data including a user ID, a virtual creature ID, and a function expansion flag is transmitted via the communication unit;
Receiving the interaction characteristic data of a type different from the type of organism of the virtual organism ID from the server;
The virtual biological control system according to (12), wherein the control unit controls the function expansion module and the reaction unit with respect to the behavior of the user according to the interaction characteristic data.
(15)
The control unit acquires a degree of affection corresponding to the user's behavior, and one response pattern corresponding to the degree of affection among one or more response patterns for the user behavior defined by the interaction characteristic data. The virtual biological control system according to (12) or (13), wherein a pattern is selected and the reaction unit is controlled.
(16)
Processor
Storing, in the storage unit, interaction characteristic data indicating a characteristic of interaction with the user of the object in units of user ID and object ID;
Receiving a request for requesting the interaction characteristic data from the virtual biological device via the communication unit, and returning the interaction characteristic data;
In response to a request for requesting the interaction characteristic data received from the virtual biological device via the communication unit, the interaction characteristic data is determined based on the virtual biological ID included in the request and the identified user ID. Searching from the storage unit and controlling the retrieved interaction characteristic data to be returned via the communication unit;
A virtual biological control method.
(17)
Computer
A communication unit that transmits a request for interaction characteristic data indicating characteristics of an interaction with a user of a virtual creature, and receives interaction characteristic data returned from the server in response to the request; and
An accumulator for accumulating the interaction characteristic data;
A sensor unit for sensing the user's behavior;
A reaction unit that reacts to the user's behavior;
In accordance with the interaction characteristic data received by the communication unit, a control unit that controls the reaction unit to react to the user's behavior sensed by the sensor unit;
A storage medium storing a program for functioning as a computer.
 1 ペットロボット
 2 ネットワーク
 3 サーバ
 4 ペット
 5 ユーザ端末
 6 ペット周辺デバイス
 7 アタッチメントデバイス
 8 情報処理端末
 10 制御部
 11 通信部
 14 位置情報取得部
 15 カメラ
 16 音声入力部
 17 生体センサ
 18 駆動部
 19 圧力センサ
 20 記憶部
 21 表示部
 22 音声出力部
 23 加速度センサ
 24 角速度センサ
 30 制御部
 31 通信部
 32 記憶部
 50 タイニーペットロボット
 70 カードリーダ
 80 監視カメラ
 101 判定部
 102 ペット動作制御部
 210 センサデータ一時記憶部
 212 インタラクション特性データ記憶部
 301 ログイン処理部
 302 インタラクション特性検索部
 303 インタラクション特性学習部
 321 ユーザ管理テーブル
 322 インタラクション特性管理テーブル
 323 監視カメラ管理テーブル
 324 ペット周辺デバイス管理テーブル
 325 インタラクション特性データDB
 326 ペット周辺デバイス表現テーブル
 327 ユーザの振る舞いデータ一時記憶部   
DESCRIPTION OF SYMBOLS 1 Pet robot 2 Network 3 Server 4 Pet 5 User terminal 6 Pet peripheral device 7 Attachment device 8 Information processing terminal 10 Control part 11 Communication part 14 Position information acquisition part 15 Camera 16 Voice input part 17 Biosensor 18 Drive part 19 Pressure sensor 20 Storage unit 21 Display unit 22 Audio output unit 23 Acceleration sensor 24 Angular velocity sensor 30 Control unit 31 Communication unit 32 Storage unit 50 Tiny pet robot 70 Card reader 80 Monitoring camera 101 Judgment unit 102 Pet motion control unit 210 Sensor data temporary storage unit 212 Interaction Characteristic data storage unit 301 Login processing unit 302 Interaction characteristic search unit 303 Interaction characteristic learning unit 321 User management table 322 Interaction characteristic management table 32 Surveillance camera management table 324 pet peripheral device management table 325 interactions characteristic data DB
326 Pet peripheral device expression table 327 User behavior data temporary storage unit

Claims (17)

  1.  ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積する蓄積部と、
     仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信する通信部と、
     前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御する制御部と、
    を備える、仮想生物制御システム。
    An accumulation unit that accumulates interaction characteristic data indicating the characteristic of the interaction of the object with the user in units of user ID and object ID;
    A communication unit that receives a request for requesting the interaction characteristic data from a virtual biological device and returns the interaction characteristic data;
    In response to a request for requesting the interaction characteristic data received from the virtual biological device via the communication unit, the interaction characteristic data is determined based on the virtual biological ID included in the request and the identified user ID. A control unit that searches from the storage unit and controls the retrieved interaction characteristic data to be returned via the communication unit;
    A virtual biological control system.
  2.  前記制御部は、前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる前記オブジェクトIDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御する、請求項1に記載の仮想生物制御システム。 In response to a request for requesting the interaction characteristic data received from the virtual biological device via the communication unit, the control unit is based on the object ID included in the request and the identified user ID. The virtual biological control system according to claim 1, wherein the interaction characteristic data is retrieved from the storage unit, and the retrieved interaction characteristic data is controlled to be returned via the communication unit.
  3.  前記制御部は、
      前記通信部を介して、前記仮想生物デバイスにより検出されたユーザの振る舞いと、それに対して当該仮想生物を動作させた前記インタラクション特性データの反応データとを取得すると、
      前記蓄積部に蓄積される前記インタラクション特性データを、取得した前記ユーザの振る舞いと前記反応データに応じて更新するように制御する、請求項1に記載の仮想生物制御システム。
    The controller is
    Via the communication unit, obtaining the behavior of the user detected by the virtual biological device and the response data of the interaction characteristic data that operated the virtual biological object thereto,
    The virtual biological control system according to claim 1, wherein the interaction characteristic data stored in the storage unit is controlled to be updated according to the acquired user behavior and the reaction data.
  4.  前記制御部は、前記ユーザの振る舞いの頻度に応じて、当該振る舞いに対応する愛情度を更新する、請求項3に記載の仮想生物制御システム。 The virtual biological control system according to claim 3, wherein the control unit updates the degree of affection corresponding to the behavior according to the frequency of the user's behavior.
  5.  前記制御部は、
      前記通信部を介して、仮想生物育成アプリケーションが実装される前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
      当該リクエストに含まれる仮想生物IDに対応する前記インタラクション特性データを前記蓄積部から検索し、
      前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項1に記載の仮想生物制御システム。
    The controller is
    When receiving a request for requesting the interaction characteristic data from the virtual biological device on which the virtual biological training application is implemented via the communication unit,
    The interaction characteristic data corresponding to the virtual creature ID included in the request is searched from the storage unit,
    The virtual biological control system according to claim 1, wherein the retrieved interaction characteristic data is returned to the virtual biological device via the communication unit.
  6.  前記制御部は、
      前記通信部を介して、仮想生物育成アプリケーションが実装される前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
      当該リクエストに含まれるオブジェクトIDに対応する前記インタラクション特性データを前記蓄積部から検索し、
      前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項1に記載の仮想生物制御システム。
    The controller is
    When receiving a request for requesting the interaction characteristic data from the virtual biological device on which the virtual biological training application is implemented via the communication unit,
    The interaction characteristic data corresponding to the object ID included in the request is searched from the storage unit,
    The virtual biological control system according to claim 1, wherein the retrieved interaction characteristic data is returned to the virtual biological device via the communication unit.
  7.  前記制御部は、
      前記通信部を介して、前記ユーザの振る舞いと、それに対する実在する生物の反応を表す反応データを取得し、
      前記蓄積部に、前記ユーザIDと、前記実在する生物のIDを示すオブジェクトIDとを関連付けて、前記ユーザの振る舞いと前記反応データに応じて、前記インタラクション特性データを更新する、請求項1に記載の仮想生物制御システム。
    The controller is
    Via the communication unit, obtain the reaction data representing the behavior of the user and the reaction of the living organism to it,
    The interaction characteristic data is updated according to the behavior of the user and the reaction data by associating the user ID with an object ID indicating the ID of the living organism in the storage unit. Virtual biological control system.
  8.  前記制御部は、
      前記通信部を介して、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
      当該リクエストに含まれる仮想生物IDに応じて、前記実在する生物のIDを示すオブジェクトIDを特定し、
      当該オブジェクトIDに応じて、前記蓄積部から、前記インタラクション特性データを検索し、
      前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項7に記載の仮想生物制御システム。
    The controller is
    When receiving a request for requesting the interaction characteristic data from the virtual biological device via the communication unit,
    According to the virtual creature ID included in the request, the object ID indicating the ID of the real creature is specified,
    In accordance with the object ID, the interaction characteristic data is searched from the storage unit,
    The virtual biological control system according to claim 7, wherein the retrieved interaction characteristic data is returned to the virtual biological device via the communication unit.
  9.  前記制御部は、
     前記通信部を介して、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると、
      当該リクエストに含まれる仮想生物IDの生物の種類とは異なる種類の、前記実在する生物のインタラクション特性データを前記蓄積部から検索し、
      前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項7に記載の仮想生物制御システム。
    The controller is
    When receiving a request for requesting the interaction characteristic data from the virtual biological device via the communication unit,
    Searching the storage unit for the interaction characteristic data of the living organism of a type different from the type of the organism of the virtual organism ID included in the request,
    The virtual biological control system according to claim 7, wherein the retrieved interaction characteristic data is returned to the virtual biological device via the communication unit.
  10.  前記制御部は、
     前記通信部を介して受信される、前記仮想生物デバイスから、前記インタラクション特性データを要求するリクエストの中に、機能拡張のフラグが含まれる際、当該リクエストに含まれる仮想生物IDの生物の種類とは異なる、機能拡張のフラグに対応する種類の生物の前記インタラクション特性データを前記蓄積部から検索し、
     前記通信部を介して、前記検索されたインタラクション特性データを、前記仮想生物デバイスに返信する、請求項1に記載の仮想生物制御システム。
    The controller is
    When the function expansion flag is included in the request for requesting the interaction characteristic data from the virtual biological device received via the communication unit, the type of the biological object of the virtual biological ID included in the request Retrieves the interaction characteristic data of the organisms of different types corresponding to the function extension flags from the storage unit,
    The virtual biological control system according to claim 1, wherein the retrieved interaction characteristic data is returned to the virtual biological device via the communication unit.
  11.  前記制御部は、
      前記通信部を介して、外部デバイスから、仮想生物アクセサリIDを含む前記インタラクション特性データを要求するリクエストを受信すると、
      当該仮想生物アクセサリIDに紐付けられたオブジェクトIDを特定し、当該オブジェクトIDに応じて、前記蓄積部から前記インタラクション特性データを検索し、
      前記通信部を介して、前記検索されたインタラクション特性データを、前記外部デバイスに返信する、請求項1に記載の仮想生物制御システム。
    The controller is
    When receiving a request for requesting the interaction characteristic data including the virtual creature accessory ID from the external device via the communication unit,
    An object ID associated with the virtual creature accessory ID is specified, and the interaction characteristic data is searched from the storage unit according to the object ID,
    The virtual biological control system according to claim 1, wherein the retrieved interaction characteristic data is returned to the external device via the communication unit.
  12.  仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、
     前記インタラクション特性データを蓄積する蓄積部と、
     前記ユーザの振る舞いをセンシングするセンサ部と、
     前記ユーザの振る舞いに対して反応するリアクション部と、
     前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、
    を備える、仮想生物制御システム。
    A communication unit that transmits a request for interaction characteristic data indicating characteristics of an interaction with a user of a virtual creature, and receives interaction characteristic data returned from the server in response to the request; and
    An accumulator for accumulating the interaction characteristic data;
    A sensor unit for sensing the user's behavior;
    A reaction unit that reacts to the user's behavior;
    In accordance with the interaction characteristic data received by the communication unit, a control unit that controls the reaction unit to react to the user's behavior sensed by the sensor unit;
    A virtual biological control system.
  13.  前記仮想生物制御システムは、カードリーダをさらに備え、
     前記制御部は、
     前記通信部を介して、
      前記カードリーダを介して入力されたオブジェクトIDと、ユーザIDを特定するための情報を前記サーバに送信し、
      前記ユーザIDと前記オブジェクトIDに応じた前記インタラクション特性データを前記サーバより受信する、請求項12記載の仮想生物制御システム。
    The virtual biological control system further includes a card reader,
    The controller is
    Via the communication unit,
    Send the object ID input via the card reader and information for specifying the user ID to the server,
    The virtual biological control system according to claim 12, wherein the interaction characteristic data corresponding to the user ID and the object ID is received from the server.
  14.  前記仮想生物制御システムを拡張する機能拡張モジュールを取り付け可能であり、
     前記通信部は、
      前記機能拡張モジュールが取り付けられている際、前記通信部を介して、ユーザID、仮想生物ID、機能拡張のフラグを含む、前記インタラクション特性データを要求するリクエストを送信し、
      前記仮想生物IDの生物の種類とは異なる種類の前記インタラクション特性データを前記サーバから受信し、
     前記制御部は、前記インタラクション特性データに応じて、前記ユーザの振る舞いに対して、前記機能拡張モジュールおよび前記リアクション部を制御する、請求項12に記載の仮想生物制御システム。
    A function expansion module for extending the virtual biological control system can be attached,
    The communication unit is
    When the function expansion module is attached, a request for requesting the interaction characteristic data including a user ID, a virtual creature ID, and a function expansion flag is transmitted via the communication unit;
    Receiving the interaction characteristic data of a type different from the type of organism of the virtual organism ID from the server;
    The virtual biological control system according to claim 12, wherein the control unit controls the function expansion module and the reaction unit in response to the user behavior in accordance with the interaction characteristic data.
  15.  前記制御部は、前記ユーザの振る舞いに対応する愛情度を取得し、前記インタラクション特性データで定義されている前記ユーザの振る舞いに対する1以上の反応パターンのうち、前記愛情度に応じて、一の反応パターンを選択し、前記リアクション部を制御する、請求項12に記載の仮想生物制御システム。 The control unit acquires a degree of affection corresponding to the user's behavior, and one response pattern corresponding to the degree of affection among one or more response patterns for the user behavior defined by the interaction characteristic data. The virtual biological control system according to claim 12, wherein a pattern is selected and the reaction unit is controlled.
  16.  プロセッサが、
     ユーザIDおよびオブジェクトID単位で、当該オブジェクトのユーザに対するインタラクションの特性を示すインタラクション特性データを蓄積部に蓄積することと、
     通信部を介して、仮想生物デバイスから、前記インタラクション特性データを要求するリクエストを受信すると共に、前記インタラクション特性データを返信することと、
     前記通信部を介して前記仮想生物デバイスから受信した前記インタラクション特性データを要求するリクエストに応じて、当該リクエストに含まれる仮想生物IDと、特定された前記ユーザIDとに基づき、前記インタラクション特性データを前記蓄積部から検索し、検索された前記インタラクション特性データを、前記通信部を介して返信するように制御することと、
    を含む、仮想生物制御方法。
    Processor
    Storing, in the storage unit, interaction characteristic data indicating a characteristic of interaction with the user of the object in units of user ID and object ID;
    Receiving a request for requesting the interaction characteristic data from the virtual biological device via the communication unit, and returning the interaction characteristic data;
    In response to a request for requesting the interaction characteristic data received from the virtual biological device via the communication unit, the interaction characteristic data is determined based on the virtual biological ID included in the request and the identified user ID. Searching from the storage unit and controlling the retrieved interaction characteristic data to be returned via the communication unit;
    A virtual biological control method.
  17.  コンピュータを、
     仮想生物のユーザに対するインタラクションの特性を示すインタラクション特性データを要求するリクエストを送信すると共に、そのリクエストに対してサーバより返信されるインタラクション特性データを受信する通信部と、
     前記インタラクション特性データを蓄積する蓄積部と、
     前記ユーザの振る舞いをセンシングするセンサ部と、
     前記ユーザの振る舞いに対して反応するリアクション部と、
     前記通信部により受信された前記インタラクション特性データに応じて、前記センサ部によりセンシングされたユーザの振る舞いに対して反応するように前記リアクション部を制御する制御部と、
    として機能させるためのプログラムが記憶された、記憶媒体。
    Computer
    A communication unit that transmits a request for interaction characteristic data indicating characteristics of an interaction with a user of a virtual creature, and receives interaction characteristic data returned from the server in response to the request; and
    An accumulator for accumulating the interaction characteristic data;
    A sensor unit for sensing the user's behavior;
    A reaction unit that reacts to the user's behavior;
    In accordance with the interaction characteristic data received by the communication unit, a control unit that controls the reaction unit to react to the user's behavior sensed by the sensor unit;
    A storage medium storing a program for functioning as a computer.
PCT/JP2017/020890 2016-09-06 2017-06-05 Virtual biocontrol system, virtual biocontrol method, and recording medium WO2018047426A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018538030A JP7014168B2 (en) 2016-09-06 2017-06-05 Virtual organism control systems, virtual organism control methods, and programs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-173795 2016-09-06
JP2016173795 2016-09-06

Publications (1)

Publication Number Publication Date
WO2018047426A1 true WO2018047426A1 (en) 2018-03-15

Family

ID=61562636

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/020890 WO2018047426A1 (en) 2016-09-06 2017-06-05 Virtual biocontrol system, virtual biocontrol method, and recording medium

Country Status (2)

Country Link
JP (1) JP7014168B2 (en)
WO (1) WO2018047426A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166373A1 (en) * 2019-02-15 2020-08-20 ソニー株式会社 Information processing device and information processing method
US11142746B2 (en) 2013-03-15 2021-10-12 University Of Maryland, Baltimore High efficiency microfluidic purification of stem cells to improve transplants
WO2023037609A1 (en) * 2021-09-10 2023-03-16 ソニーグループ株式会社 Autonomous mobile body, information processing method, and program
WO2023037608A1 (en) * 2021-09-10 2023-03-16 ソニーグループ株式会社 Autonomous mobile body, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000066239A1 (en) * 1999-04-30 2000-11-09 Sony Corporation Electronic pet system, network system, robot, and storage medium
JP2001191275A (en) * 1999-10-29 2001-07-17 Sony Corp Robot system, exterior, and robot device
JP2003039362A (en) * 2001-07-27 2003-02-13 Matsushita Electric Ind Co Ltd Pet type robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000066239A1 (en) * 1999-04-30 2000-11-09 Sony Corporation Electronic pet system, network system, robot, and storage medium
JP2001191275A (en) * 1999-10-29 2001-07-17 Sony Corp Robot system, exterior, and robot device
JP2003039362A (en) * 2001-07-27 2003-02-13 Matsushita Electric Ind Co Ltd Pet type robot

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KAJIURA, FUMIO: "An Introductory Education for Measurement and analysis of animal's motion", IEICE TECHNICAL REPORT, vol. 108, no. 247, 10 October 2008 (2008-10-10), pages 29 - 32 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11142746B2 (en) 2013-03-15 2021-10-12 University Of Maryland, Baltimore High efficiency microfluidic purification of stem cells to improve transplants
WO2020166373A1 (en) * 2019-02-15 2020-08-20 ソニー株式会社 Information processing device and information processing method
US11620097B2 (en) 2019-02-15 2023-04-04 Sony Group Corporation Information processing apparatus and information processing method for displaying a figure corresponding to an autonomous moving body
WO2023037609A1 (en) * 2021-09-10 2023-03-16 ソニーグループ株式会社 Autonomous mobile body, information processing method, and program
WO2023037608A1 (en) * 2021-09-10 2023-03-16 ソニーグループ株式会社 Autonomous mobile body, information processing method, and program

Also Published As

Publication number Publication date
JPWO2018047426A1 (en) 2019-06-24
JP7014168B2 (en) 2022-02-01

Similar Documents

Publication Publication Date Title
WO2018047426A1 (en) Virtual biocontrol system, virtual biocontrol method, and recording medium
JP7400923B2 (en) Information processing device and information processing method
US8321221B2 (en) Speech communication system and method, and robot apparatus
WO2012172721A1 (en) Robot device, robot control method, and robot control program
EP1136194A1 (en) Robot, method of robot control, and program recording medium
US20230266767A1 (en) Information processing apparatus, information processing method, and program
JP7375748B2 (en) Information processing device, information processing method, and program
JPWO2017212723A1 (en) Virtual biological control system and virtual biological control method
JP7375770B2 (en) Information processing device, information processing method, and program
JP6575005B2 (en) Joint structure suitable for robot joints
JP2024045160A (en) Robot wearing costume
JP2024023193A (en) Information processing device and information processing method
WO2019123744A1 (en) Information processing device, information processing method, and program
JP2004298975A (en) Robot device and obstacle searching method
US11938625B2 (en) Information processing apparatus, information processing method, and program
WO2020022122A1 (en) Information processing device, action determination method, and program
CN110625608A (en) Robot, robot control method, and storage medium
EP3992987A1 (en) System and method for continously sharing behavioral states of a creature
JP7363823B2 (en) Information processing device and information processing method
JP2002273677A (en) Robot device and control method for the same
JP3501123B2 (en) Robot apparatus and behavior control method for robot apparatus
JP2020032014A (en) Autonomously acting robot recording daily life
JP2003001573A (en) Robot device and its control method

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018538030

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17848371

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17848371

Country of ref document: EP

Kind code of ref document: A1