JP2023123555A - Autonomous behavior-based robot for recording daily life - Google Patents

Autonomous behavior-based robot for recording daily life Download PDF

Info

Publication number
JP2023123555A
JP2023123555A JP2023095083A JP2023095083A JP2023123555A JP 2023123555 A JP2023123555 A JP 2023123555A JP 2023095083 A JP2023095083 A JP 2023095083A JP 2023095083 A JP2023095083 A JP 2023095083A JP 2023123555 A JP2023123555 A JP 2023123555A
Authority
JP
Japan
Prior art keywords
robot
event
user
motion
reaction report
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023095083A
Other languages
Japanese (ja)
Inventor
要 林
Kaname Hayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Priority to JP2023095083A priority Critical patent/JP2023123555A/en
Publication of JP2023123555A publication Critical patent/JP2023123555A/en
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

To convey to a user the daily life experienced by an autonomous behavior-based robot while taking an account of privacy.SOLUTION: A robot 100 comprises: a motion control unit for selecting a motion; a drive mechanism for executing the motion; a recognition unit for recognizing the occurrence of an event; an emotion management unit for changing one or more emotion parameters according to the event; and a history management unit for associating an occurrence history of the event with a change history of the emotion parameters and recording thereof as history information. The robot 100 changes its behavioral characteristics based on the emotion parameters. When the emotion parameter meets a prescribed psychological condition, for example, when a value of the emotion parameter representing curiosity becomes particularly high, the event thereat and the emotion parameter thereat are extracted from the history information for generating a reaction report, and the reaction report is provided to a user.SELECTED DRAWING: Figure 1

Description

本発明は、内部状態または外部環境に応じて自律的に行動選択するロボット、に関する。 The present invention relates to a robot that autonomously selects actions according to its internal state or external environment.

人間は、癒やしを求めてペットを飼う。その一方、ペットの世話をする時間を十分に確
保できない、ペットを飼える住環境にない、アレルギーがある、死別がつらい、といった
さまざまな理由により、ペットをあきらめている人は多い。もし、ペットの役割が務まる
ロボットがあれば、ペットを飼えない人にもペットが与えてくれるような癒やしを与えら
れるかもしれない(特許文献1、2参照)。
Humans keep pets for comfort. On the other hand, many people give up pets for a variety of reasons, such as not having enough time to take care of pets, lack of living environments that allow pets, allergies, and the pain of bereavement. If there is a robot that can play the role of a pet, it may be possible to give people who cannot keep a pet the comfort that a pet gives (see Patent Documents 1 and 2).

特開2000-323219号公報JP-A-2000-323219 国際公開第2017/169826号WO2017/169826 特開2005-267375号公報JP-A-2005-267375 特開2010-21921号公報Japanese Patent Application Laid-Open No. 2010-21921 特開2008-172815号公報Japanese Patent Application Laid-Open No. 2008-172815

近年、ロボット技術は急速に進歩しつつあるが、ペットのような伴侶としての存在感を
実現するには至っていない。ロボットに自由意志があるとは思えないからである。人間は
、ペットの自由意志があるとしか思えないような行動を観察することにより、ペットに自
由意志の存在を感じ、ペットに共感し、ペットに癒される。
In recent years, robot technology has been rapidly progressing, but it has not yet achieved the presence of a companion like a pet. I don't think robots have free will. By observing the pet's behavior, which can only be assumed to have free will, humans feel the presence of free will in the pet, sympathize with the pet, and are healed by the pet.

現在、留守中のペットを見守るためのカメラが数多く発売されている。このようなカメ
ラによれば、オーナーがいないときにペットがどんな過ごし方をしているのかを知ること
ができる。ロボットがペットと同等の存在感を発揮するようになれば、留守中のロボット
の日常生活を知りたいというニーズが出てくると考えられる。
Currently, there are many cameras on the market for keeping an eye on pets while they are away. With such a camera, it is possible to know how the pet spends its time when the owner is away. If robots come to have the same presence as pets, it is thought that there will be a need to know the daily life of robots when they are away.

しかし、ロボットにカメラを搭載し、その撮影画像をスマートフォンなどにライブ中継
するだけでは、ロボットは単なる監視装置になってしまう。たとえば、ユーザAとロボッ
トが家庭にいるとき、外出中のユーザBのスマートフォンに対してロボットがその撮影画
像をそのまま送信するとすれば、ユーザAのプライバシーが守られなくなるおそれがある。
However, simply mounting a camera on a robot and live-relaying the captured image to a smartphone or the like would turn the robot into a mere monitoring device. For example, when user A and the robot are at home, if the robot transmits the photographed image as it is to the smartphone of user B who is out, user A's privacy may not be protected.

本発明は上記課題認識に基づいて完成された発明であり、その主たる目的は、プライバ
シーに配慮しつつロボットの日常生活をユーザに知らせる技術、を提供することにある。
The present invention has been completed based on the recognition of the above problems, and its main purpose is to provide a technique for informing a user of the daily life of a robot while taking privacy into consideration.

本発明のある態様における自律行動型ロボットは、ロボットのモーションを選択する動
作制御部と、動作制御部により選択されたモーションを実行する駆動機構と、イベントの
発生を認識する認識部と、イベントに応じて1以上の感情パラメータを変化させる感情管
理部と、イベントの発生履歴と感情パラメータの変化履歴を対応づけて履歴情報として記
録する履歴管理部と、を備える。
動作制御部は、感情パラメータに基づいてロボットの行動特性を変化させる。
履歴管理部は、感情パラメータが所定の心理条件を成立させるときのイベントおよび心
理条件の成立時における感情パラメータを履歴情報から抽出して反応レポート生成し、ユ
ーザに反応レポートを提供する。
An autonomous action type robot according to one aspect of the present invention includes a motion control unit that selects a motion of the robot, a drive mechanism that executes the motion selected by the motion control unit, a recognition unit that recognizes occurrence of an event, and an emotion management unit that changes one or more emotion parameters according to the response; and a history management unit that associates event occurrence histories with emotion parameter change histories and records them as history information.
The motion control unit changes behavioral characteristics of the robot based on the emotion parameter.
The history management unit extracts an event when the emotional parameter satisfies a predetermined psychological condition and the emotional parameter when the psychological condition is satisfied from the history information, generates a reaction report, and provides the reaction report to the user.

本発明によれば、プライバシーに配慮しつつロボットの日常生活をユーザに知らせやす
くなる。
ADVANTAGE OF THE INVENTION According to this invention, it becomes easy to inform a user about the daily life of a robot, considering privacy.

ロボットがその日常生活をユーザに伝える方法を説明するための概念図である。FIG. 3 is a conceptual diagram for explaining how the robot communicates its daily life to the user; 図2(a)はロボットの正面外観図である。図2(b)は、ロボットの側面外観図である。FIG. 2(a) is a front external view of the robot. FIG. 2(b) is a side external view of the robot. ロボットの構造を概略的に表す断面図である。It is a cross-sectional view schematically showing the structure of the robot. 基本構成におけるロボットのハードウェア構成図である。It is a hardware block diagram of the robot in a basic configuration. ロボットシステムの機能ブロック図である。1 is a functional block diagram of a robot system; FIG. 本実施形態における反応レポート生成過程を示す概要図である。FIG. 4 is a schematic diagram showing a reaction report generation process in this embodiment; 本実施形態におけるロボットの機能ブロック図である。It is a functional block diagram of the robot in this embodiment. 感情パラメータの変化履歴を示す模式図である。FIG. 4 is a schematic diagram showing a change history of emotion parameters; 履歴情報のデータ構造図である。4 is a data structure diagram of history information; FIG. モーション選択テーブルのデータ構造図である。FIG. 4 is a data structure diagram of a motion selection table; 第1反応レポート画面の画面図である。FIG. 11 is a screen diagram of a first reaction report screen; 第2反応レポート画面の画面図である。FIG. 10 is a screen diagram of a second reaction report screen; ユーザ権限テーブルのデータ構造図である。4 is a data structure diagram of a user authority table; FIG. イベント条件テーブルのデータ構造図である。4 is a data structure diagram of an event condition table; FIG. 反応レポートの表示処理過程を示すシーケンス図である。FIG. 10 is a sequence diagram showing a display processing process of a reaction report; 詳細表示の処理過程を示すシーケンス図である。FIG. 11 is a sequence diagram showing a detailed display process; 詳細情報画面の画面図である。FIG. 11 is a screen diagram of a detailed information screen; 第3反応レポート画面の画面図である。FIG. 11 is a screen diagram of a third reaction report screen; 休息時間設定画面の画面図である。It is a screen diagram of a rest time setting screen.

図1は、ロボット100がその日常生活をユーザに伝える方法を説明するための概念図
である。
本実施形態におけるロボット100は、複数種類の「感情」を有する。具体的には、ロ
ボット100は、寂しさ、好奇心、承認欲求という3種類の感情の強さを3種類の感情パ
ラメータにより数値表現する。なお、後述するように、これら3種類の感情パラメータ以
外の感情パラメータによりロボット100の感情表現がなされてもよい。
FIG. 1 is a conceptual diagram for explaining how the robot 100 communicates its daily life to the user.
The robot 100 in this embodiment has multiple types of “emotions”. Specifically, the robot 100 numerically expresses the intensity of three types of emotions, loneliness, curiosity, and desire for approval, using three types of emotion parameters. As will be described later, the robot 100 may express emotions using emotion parameters other than these three types of emotion parameters.

ロボット100は、複数種類のセンサを搭載し、各センサにより外部環境を認識する。
ロボット100は、外部環境の変化の一部を「イベント」として認識する。イベントは、
ユーザを視認する、大きな音を検出する、などの「注目すべき事象」として任意に定義さ
れればよい。ロボット100は、イベントおよび感情パラメータにしたがって、自律的に
行動を選択する。イベントはロボット100の行動選択方法および感情パラメータの双方
に影響し、感情パラメータも行動選択方法に影響する。イベント、感情パラメータおよび
行動選択方法の詳細については後述する。
The robot 100 is equipped with multiple types of sensors, and recognizes the external environment by each sensor.
The robot 100 recognizes some changes in the external environment as "events". The event is
It may be arbitrarily defined as a "event of interest" such as seeing a user or detecting a loud sound. The robot 100 autonomously chooses actions according to events and emotional parameters. The event affects both the behavior selection method and the emotion parameters of the robot 100, and the emotion parameters also affect the behavior selection method. Details of events, emotion parameters, and action selection methods will be described later.

ロボット100は、イベントなどの「日常の出来事」を「履歴情報」として逐一記録す
る。ロボット100は、履歴情報に基づいて、ユーザに見せるための「反応レポート」を
生成する。ユーザは、スマートフォン、ラップトップPC、タブレット・コンピュータな
どのユーザ端末400により、反応レポートを取得する。ユーザ端末400に反応レポー
トを表示させることにより、ユーザは、ロボット100と会っていないときでも、ロボッ
ト100の日常生活を垣間見ることができる。
The robot 100 records "everyday events" such as events as "history information" one by one. Based on the history information, the robot 100 generates a "reaction report" for the user to see. A user obtains a reaction report from a user terminal 400 such as a smart phone, laptop PC, tablet computer, or the like. By displaying the reaction report on the user terminal 400, the user can catch a glimpse of the daily life of the robot 100 even when the user is not in contact with the robot 100. FIG.

ユーザは外出しているときでも、在宅中のロボット100がどのように過ごしているの
か、どんな一日を過ごしたのかを反応レポートによって知ることができる。反応レポート
は、いわばロボット100の「日記」として機能する。本実施形態における反応レポート
とは、「見せるための履歴情報」であって、ロボット100が逐一記録する履歴情報と同
一ではない。履歴情報にはプライバシーに関わる情報が含まれる可能性がある。本実施形
態においては、プレイバシーに配慮し、かつ、ユーザが読み取りやすい反応レポートを改
めて生成する。
以下、ロボット100の基本構成について図2から図5に関連して説明したあと、反応
レポートの生成方法を中心として説明する。
Even when the user is out, the user can know how the robot 100 at home is spending the day and how the robot 100 spent the day through the reaction report. The reaction report functions as a "diary" for the robot 100, so to speak. The reaction report in this embodiment is "history information for showing", and is not the same as the history information recorded by the robot 100 one by one. Historical information may contain information related to privacy. In this embodiment, privacy is taken into account, and a reaction report that is easy for the user to read is generated again.
Hereinafter, after the basic configuration of the robot 100 will be described with reference to FIGS. 2 to 5, the method of generating the reaction report will be mainly described.

[基本構成]
図2(a)は、ロボット100の正面外観図である。図2(b)は、ロボット100の
側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動を決定
する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサ
により認識される。内部状態はロボット100の感情を表現するさまざまなパラメータと
して定量化される。ロボット100は、オーナー家庭の家屋内を行動範囲とする。以下、
ロボット100に関わる人間を「ユーザ」とよぶ。
[Basic configuration]
FIG. 2(a) is a front external view of the robot 100. FIG. FIG. 2(b) is a side external view of the robot 100. FIG.
The robot 100 in this embodiment is an autonomous action type robot that determines actions based on the external environment and internal state. The external environment is recognized by various sensors such as cameras and thermosensors. The internal state is quantified as various parameters that express the robot's 100 emotions. The robot 100 has a range of action within the house of the owner's family. below,
A person involved in the robot 100 is called a "user".

ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム
、樹脂、繊維などやわらかく弾力性のある素材により形成された外皮を含む。ロボット1
00に服を着せてもよい。ロボット100の総重量は5~15キログラム程度、身長は0
.5~1.2メートル程度である。適度な重さと丸み、柔らかさ、手触りのよさ、といっ
た諸属性により、ユーザがロボット100を抱きかかえやすく、かつ、抱きかかえたくな
るという効果が実現される。
A body 104 of the robot 100 has an overall rounded shape and includes an outer skin made of a soft and elastic material such as urethane, rubber, resin, or fiber. robot 1
You can dress 00. Robot 100 has a total weight of 5-15 kg and a height of 0.
.5 to 1.2 meters. Various attributes such as appropriate weight, roundness, softness, and good touch realize the effect that the user can easily hold the robot 100 and want to hold it.

ロボット100は、一対の前輪102(左輪102a,右輪102b)と、一つの後輪
103を含む。前輪102が駆動輪であり、後輪103が従動輪である。前輪102は、
操舵機構を有しないが、回転速度や回転方向を個別に制御可能とされている。後輪103
は、キャスターであり、ロボット100を前後左右へ移動させるために回転自在となって
いる。後輪103はオムニホイールであってもよい。
The robot 100 has a pair of front wheels 102 (a left wheel 102a and a right wheel 102b) and one rear wheel.
Including 103. The front wheels 102 are driving wheels and the rear wheels 103 are driven wheels. The front wheel 102 is
Although it does not have a steering mechanism, it is possible to individually control the rotation speed and rotation direction. rear wheel 103
are casters, which are rotatable to move the robot 100 forward, backward, leftward, and rightward. Rear wheel 103 may be an omni wheel.

前輪102および後輪103は、駆動機構(回動機構、リンク機構)によりボディ10
4に完全収納できる。走行時においても各車輪の大部分はボディ104に隠れているが、
各車輪がボディ104に完全収納されるとロボット100は移動不可能な状態となる。す
なわち、車輪の収納動作にともなってボディ104が降下し、床面Fに着座する。この着
座状態においては、ボディ104の底部に形成された平坦状の着座面108(接地底面)
が床面Fに当接する。
The front wheels 102 and the rear wheels 103 are connected to the body 10 by a drive mechanism (rotating mechanism, link mechanism).
4 can be fully accommodated. Most of each wheel is hidden in the body 104 even during running,
When each wheel is completely housed in the body 104, the robot 100 becomes immovable. That is, the body 104 descends and seats on the floor surface F as the wheels are retracted. In this seated state, a flat seating surface 108 (ground bottom surface) formed on the bottom of the body 104
abuts on the floor F.

ロボット100は、2つの手106を有する。手106には、モノを把持する機能はな
い。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も
個別制御可能である。
Robot 100 has two hands 106 . The hand 106 does not have the function of grasping an object. The hand 106 can be raised, shaken, or vibrated for simple actions. The two hands 106 are also individually controllable.

目110は、液晶素子または有機EL素子による画像表示が可能である。ロボット10
0は、音源方向を特定可能なマイクロフォンアレイや超音波センサなどさまざまなセンサ
を搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
The eye 110 is capable of image display using a liquid crystal element or an organic EL element. robot 10
0 is equipped with various sensors such as a microphone array and an ultrasonic sensor that can identify the direction of the sound source. It also has a built-in speaker that can emit simple sounds.

ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100
は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げること
も可能である。ツノ112には全天球カメラが取り付けられ、ロボット100の上部全域
を一度に撮像可能である。
A horn 112 is attached to the head of the robot 100 . Robot 100 as above
is light, the user can lift the robot 100 by grasping the horns 112 . An omnidirectional camera is attached to the horn 112, and the entire upper area of the robot 100 can be imaged at once.

図3は、ロボット100の構造を概略的に表す断面図である。
図3に示すように、ロボット100のボディ104は、ベースフレーム308、本体フ
レーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフ
レーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持
する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数
のサイドプレート336により上下に連結して構成される。複数のサイドプレート336
間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方に
は、バッテリー118、制御回路342および各種アクチュエータが収容されている。
FIG. 3 is a cross-sectional view schematically showing the structure of robot 100. As shown in FIG.
As shown in FIG. 3, the body 104 of the robot 100 includes a base frame 308, a body frame 310, a pair of resin wheel covers 312 and an outer skin 314. As shown in FIG. The base frame 308 is made of metal, configures the axis of the body 104, and supports the internal mechanism. The base frame 308 is configured by vertically connecting an upper plate 332 and a lower plate 334 with a plurality of side plates 336 . multiple side plates 336
Sufficient space is provided between them to allow ventilation. Inside the base frame 308, a battery 118, a control circuit 342 and various actuators are accommodated.

本体フレーム310は、樹脂材からなり、頭部フレーム316および胴部フレーム31
8を含む。頭部フレーム316は、中空半球状をなし、ロボット100の頭部骨格を形成
する。胴部フレーム318は、段付筒形状をなし、ロボット100の胴部骨格を形成する
。胴部フレーム318は、ベースフレーム308と一体に固定される。頭部フレーム31
6は、胴部フレーム318の上端部に相対変位可能に組み付けられる。
Body frame 310 is made of a resin material, and includes head frame 316 and torso frame 31.
Including 8. The head frame 316 has a hollow hemispherical shape and forms the head skeleton of the robot 100 . The torso frame 318 has a stepped cylindrical shape and forms the torso skeleton of the robot 100 . A torso frame 318 is fixed integrally with the base frame 308 . head frame 31
6 is attached to the upper end of the body frame 318 so as to be relatively displaceable.

頭部フレーム316には、ヨー軸320、ピッチ軸322およびロール軸324の3軸
と、各軸を回転駆動するためのアクチュエータ326が設けられる。アクチュエータ32
6は、各軸を個別に駆動するための複数のサーボモータを含む。首振り動作のためにヨー
軸320が駆動され、頷き動作のためにピッチ軸322が駆動され、首を傾げる動作のた
めにロール軸324が駆動される。
The head frame 316 is provided with three axes, a yaw axis 320, a pitch axis 322 and a roll axis 324, and an actuator 326 for rotationally driving each axis. Actuator 32
6 contains multiple servo motors to drive each axis individually. The yaw axis 320 is driven for swing motion, the pitch axis 322 is driven for nod motion, and the roll axis 324 is driven for tilt motion.

頭部フレーム316の上部には、ヨー軸320を支持するプレート325が固定されて
いる。プレート325には、上下間の通気を確保するための複数の通気孔327が形成さ
れる。
A plate 325 that supports the yaw axis 320 is fixed to the top of the head frame 316 . A plurality of ventilation holes 327 are formed in the plate 325 to ensure ventilation between the upper and lower sides.

頭部フレーム316およびその内部機構を下方から支持するように、金属製のベースプ
レート328が設けられる。ベースプレート328は、クロスリンク機構329(パンタ
グラフ機構)を介してプレート325と連結される一方、ジョイント330を介してアッ
パープレート332(ベースフレーム308)と連結される。
A metal base plate 328 is provided to support the head frame 316 and its internal mechanisms from below. The base plate 328 is connected to the plate 325 via a cross link mechanism 329 (pantograph mechanism), and is connected via a joint 330 to an upper plate 332 (base frame 308).

胴部フレーム318は、ベースフレーム308と車輪駆動機構370を収容する。車輪
駆動機構370は、回動軸378およびアクチュエータ379を含む。胴部フレーム31
8の下半部は、ホイールカバー312との間に前輪102の収納スペースSを形成するた
めに小幅とされる。
Torso frame 318 houses base frame 308 and wheel drive mechanism 370 . Wheel drive mechanism 370 includes pivot 378 and actuator 379 . torso frame 31
The lower half of 8 is narrowed to form a storage space S for the front wheel 102 between the wheel cover 312 and the wheel cover 312 .

外皮314は、ウレタンゴムからなり、本体フレーム310およびホイールカバー31
2を外側から覆う。手106は、外皮314と一体成形される。外皮314の上端部には
、外気を導入するための開口部390が設けられる。
Outer skin 314 is made of urethane rubber, and is attached to body frame 310 and wheel cover 31.
2 is covered from the outside. Hand 106 is integrally molded with skin 314 . The upper end of the outer skin 314 is provided with an opening 390 for introducing outside air.

図4は、ロボット100のハードウェア構成図である。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ1
22、駆動機構120およびバッテリー118を含む。プロセッサ122と記憶装置12
4は、制御回路342に含まれる。各ユニットは電源線130および信号線132により
互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給
する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチ
ウムイオン二次電池であり、ロボット100の動力源である。
FIG. 4 is a hardware configuration diagram of the robot 100. As shown in FIG.
The robot 100 includes an internal sensor 128, a communication device 126, a storage device 124, a processor 1
22, including drive mechanism 120 and battery 118; Processor 122 and storage device 12
4 is included in the control circuit 342 . Each unit is connected to each other by a power line 130 and a signal line 132 . Battery 118 supplies power to each unit via power line 130 . Each unit transmits and receives control signals through signal line 132 . The battery 118 is a lithium ion secondary battery and is the power source of the robot 100 .

内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的に
は、カメラ(全天球カメラ)、マイクロフォンアレイ、測距センサ(赤外線センサ)、サ
ーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。タッチセンサは、
外皮314と本体フレーム310の間に設置され、ユーザのタッチを検出する。ニオイセ
ンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセ
ンサである。
The internal sensor 128 is a collection of various sensors built into the robot 100 . Specifically, they are cameras (omnidirectional cameras), microphone arrays, ranging sensors (infrared sensors), thermosensors, touch sensors, acceleration sensors, odor sensors, and the like. The touch sensor
It is installed between the skin 314 and the body frame 310 and detects the user's touch. An odor sensor is a known sensor that applies the principle that electrical resistance changes due to the adsorption of odor-causing molecules.

通信機126は、各種の外部機器を対象として無線通信を行う通信モジュールである。
記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプ
ログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実
行手段である。駆動機構120は、複数のアクチュエータおよび上述した車輪駆動機構3
70を含む。このほかには、表示器やスピーカーなども搭載される。
The communication device 126 is a communication module that performs wireless communication with various external devices.
The storage device 124 is composed of non-volatile memory and volatile memory, and stores computer programs and various setting information. Processor 122 is a computer program execution means. The drive mechanism 120 includes a plurality of actuators and the wheel drive mechanism 3 described above.
Including 70. It also has a display and speakers.

駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム316)を制
御する。駆動機構120は、ロボット100の移動方向や移動速度を変化させるほか、車
輪(前輪102および後輪103)を昇降させることもできる。車輪が上昇すると、車輪
はボディ104に完全に収納され、ロボット100は着座面108にて床面Fに当接し、
着座状態となる。また、駆動機構120は、ワイヤ134を介して、手106を制御する。
Drive mechanism 120 primarily controls the wheels (front wheels 102) and the head (head frame 316). The drive mechanism 120 can change the movement direction and movement speed of the robot 100, and can also move the wheels (the front wheels 102 and the rear wheels 103) up and down. When the wheels are raised, the wheels are completely housed in the body 104, and the robot 100 contacts the floor surface F at the seating surface 108,
It becomes a seated state. Drive mechanism 120 also controls hand 106 via wire 134 .

図5は、ロボットシステム300の機能ブロック図である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ1
14を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Proc
essing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶
装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納
され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプロ
グラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各
種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブ
ラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成
ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200
の機能の一部または全部はロボット100により実現されてもよい。
FIG. 5 is a functional block diagram of the robot system 300. As shown in FIG.
Robot system 300 includes robot 100, server 200 and multiple external sensors 1
Including 14. Each component of the robot 100 and the server 200 has a CPU (Central Proc
Processing Unit) and computing units such as various coprocessors, storage devices such as memory and storage, hardware including wired or wireless communication lines connecting them, and software stored in the storage device and supplying processing instructions to the computing unit realized by A computer program may consist of a device driver, an operating system, various application programs located in their higher layers, and a library that provides common functions to these programs. Each block described below represents a functional block rather than a hardware configuration.
A part of the functions of the robot 100 may be realized by the server 200, or the server 200
may be implemented by the robot 100 in part or in whole.

家屋内にはあらかじめ複数の外部センサ114が設置される。サーバ200には、外部
センサ114の位置座標が登録される。ロボット100の内部センサ128および複数の
外部センサ114から得られる情報に基づいて、サーバ200がロボット100の基本行
動を決定する。外部センサ114はロボット100の感覚器を補強するためのものであり
、サーバ200はロボット100の頭脳を補強するためのものである。ロボット100の
通信機126が外部センサ114と定期的に通信し、サーバ200は外部センサ114に
よりロボット100の位置を特定する(特許文献2も参照)。
A plurality of external sensors 114 are installed in advance in the house. The position coordinates of the external sensor 114 are registered in the server 200 . The server 200 determines basic actions of the robot 100 based on information obtained from the robot's 100 internal sensor 128 and the plurality of external sensors 114 . The external sensor 114 is for reinforcing the sensory organs of the robot 100 and the server 200 is for reinforcing the brain of the robot 100 . The communication device 126 of the robot 100 periodically communicates with the external sensor 114, and the server 200 identifies the position of the robot 100 using the external sensor 114 (see also Patent Document 2).

(サーバ200)
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。デ
ータ格納部206は各種データを格納する。データ処理部202は、通信部204により
取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実
行する。データ処理部202は、通信部204およびデータ格納部206のインタフェー
スとしても機能する。
(server 200)
Server 200 includes communication unit 204 , data processing unit 202 and data storage unit 206 .
The communication unit 204 is in charge of processing communication with the external sensor 114 and the robot 100 . A data storage unit 206 stores various data. The data processing unit 202 executes various processes based on the data acquired by the communication unit 204 and the data stored in the data storage unit 206. FIG. Data processing unit 202 also functions as an interface for communication unit 204 and data storage unit 206 .

データ格納部206は、モーション格納部232と個人データ格納部218を含む。
ロボット100は、複数の動作パターン(モーション)を有する。手106を震わせる
、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざま
なモーションが定義される。
Data store 206 includes motion store 232 and personal data store 218 .
The robot 100 has a plurality of action patterns (motions). Various motions are defined, such as shaking the hand 106, approaching the owner while meandering, and staring at the owner while tilting the head.

モーション格納部232は、モーションの制御内容を定義する「モーションファイル」
を格納する。各モーションは、モーションIDにより識別される。モーションファイルは
、ロボット100のモーション格納部160にもダウンロードされる。どのモーションを
実行するかは、サーバ200で決定されることもあるし、ロボット100で決定されるこ
ともある。
The motion storage unit 232 stores a "motion file" that defines the contents of motion control.
to store Each motion is identified by a motion ID. Motion files are also downloaded to the motion store 160 of the robot 100 . Which motion to perform may be determined by the server 200 or may be determined by the robot 100 .

ロボット100のモーションの多くは、複数の単位モーションを含む複合モーションと
して構成される。たとえば、ロボット100がオーナーに近づくとき、オーナーの方に向
き直る単位モーション、手を上げながら近づく単位モーション、体を揺すりながら近づく
単位モーション、両手を上げながら着座する単位モーションの組み合わせとして表現され
てもよい。このような4つのモーションの組み合わせにより、「オーナーに近づいて、途
中で手を上げて、最後は体をゆすった上で着座する」というモーションが実現される。モ
ーションファイルには、ロボット100に設けられたアクチュエータの回転角度や角速度
などが時間軸に関連づけて定義される。モーションファイル(アクチュエータ制御情報)
にしたがって、時間経過とともに各アクチュエータを制御することで様々なモーションが
表現される。
Most of the motions of the robot 100 are configured as compound motions including multiple unit motions. For example, when the robot 100 approaches the owner, it may be expressed as a combination of a unit motion of turning toward the owner, a unit motion of approaching while raising hands, a unit motion of approaching while shaking the body, and a unit motion of sitting while raising both hands. . By combining these four motions, it is possible to achieve the motion of "approaching the owner, raising a hand halfway through, and finally shaking the body before sitting down." In the motion file, the rotation angles and angular velocities of the actuators provided in the robot 100 are defined in association with the time axis. Motion file (actuator control information)
Various motions are expressed by controlling each actuator according to the passage of time.

先の単位モーションから次の単位モーションに変化するときの移行時間を「インターバ
ル」とよぶ。インターバルは、単位モーション変更に要する時間やモーションの内容に応
じて定義されればよい。インターバルの長さは調整可能である。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータ
の出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称す
る。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率
、モーションファイル等により定義される。
The transition time when changing from the previous unit motion to the next unit motion is called "interval". The interval may be defined according to the time required to change the unit motion and the contents of the motion. The interval length is adjustable.
Hereinafter, settings related to action control of the robot 100, such as when and which motion to select, output adjustment of each actuator for realizing the motion, etc., are collectively referred to as "behavior characteristics". The behavioral characteristics of the robot 100 are defined by motion selection algorithms, motion selection probabilities, motion files, and the like.

モーション格納部232は、モーションファイルのほか、各種のイベントが発生したと
きに実行すべきモーションを定義するモーション選択テーブルを格納する。モーション選
択テーブルにおいては、イベントに対して1以上のモーションとその選択確率が対応づけ
られる。
The motion storage unit 232 stores motion files as well as motion selection tables that define motions to be executed when various events occur. In the motion selection table, one or more motions and their selection probabilities are associated with events.

個人データ格納部218は、ユーザの情報を格納する。具体的には、ユーザに対する親
密度とユーザの身体的特徴・行動的特徴を示すマスタ情報を格納する。年齢や性別などの
他の属性情報を格納してもよい。
Personal data storage unit 218 stores user information. Specifically, it stores master information indicating familiarity with the user and the user's physical features/behavioral features. Other attribute information such as age and gender may be stored.

ロボット100は、ユーザごとに親密度という内部パラメータを有する。ロボット10
0が、自分を抱き上げる、声をかけてくれるなど、自分に対して好意を示す行動を認識し
たとき、そのユーザに対する親密度が高くなる。ロボット100に関わらないユーザや、
乱暴を働くユーザ、出会う頻度が低いユーザに対する親密度は低くなる。
The robot 100 has an internal parameter of intimacy for each user. robot 10
When 0 recognizes actions that show goodwill toward him, such as picking him up or calling out to him, his intimacy with that user increases. Users who are not involved in Robot 100,
Intimacy is low for users who act violently, and for users who meet infrequently.

データ処理部202は、位置管理部208、認識部212、動作制御部222、親密度
管理部220および状態管理部244を含む。
位置管理部208は、ロボット100の位置座標を特定する。状態管理部244は、充
電率や内部温度、プロセッサ122の処理負荷などの各種物理状態など各種内部パラメー
タを管理する。また、状態管理部244は、ロボット100の感情(寂しさ、好奇心、承
認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常
に揺らいでいる。感情パラメータに応じてロボット100の移動目標地点が変化する。た
とえば、寂しさが高まっているときには、ロボット100はユーザのいるところを移動目
標地点として設定する。
Data processing unit 202 includes location management unit 208 , recognition unit 212 , operation control unit 222 , familiarity management unit 220 and state management unit 244 .
The position management unit 208 identifies position coordinates of the robot 100 . The state management unit 244 manages various internal parameters such as the charging rate, internal temperature, and various physical states such as the processing load of the processor 122 . In addition, the state management unit 244 manages various emotion parameters indicating the emotions of the robot 100 (loneliness, curiosity, desire for approval, etc.). These emotional parameters are constantly fluctuating. The movement target point of the robot 100 changes according to the emotion parameter. For example, when loneliness is increasing, the robot 100 sets the location of the user as the movement target point.

時間経過によって感情パラメータが変化する。また、後述の応対行為によっても各種感
情パラメータは変化する。たとえば、オーナーから「抱っこ」をされると寂しさを示す感
情パラメータは低下し、長時間にわたってオーナーを視認しないときには寂しさを示す感
情パラメータは少しずつ増加する。
Emotional parameters change over time. In addition, various emotion parameters change depending on the later-described response behavior. For example, when the owner hugs the pet, the emotional parameter indicating loneliness decreases, and when the owner is not seen for a long time, the emotional parameter indicating loneliness gradually increases.

認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度に基づく天候
や季節の認識、光量や温度に基づく物陰(安全地帯)の認識など多様な認識が含まれる。
ロボット100の認識部156は、内部センサ128により各種の環境情報を取得し、こ
れを一次処理した上でサーバ200の認識部212に転送する。
The recognition unit 212 recognizes the external environment. Recognition of the external environment includes various recognitions such as recognition of weather and seasons based on temperature and humidity, and recognition of shadows (safe zones) based on light intensity and temperature.
The recognition unit 156 of the robot 100 acquires various types of environmental information from the internal sensor 128 , performs primary processing on the information, and transfers it to the recognition unit 212 of the server 200 .

具体的には、ロボット100の認識部156は、画像から移動物体、特に、人物や動物
に対応する画像領域を抽出し、抽出した画像領域から移動物体の身体的特徴や行動的特徴
を示す特徴量の集合として「特徴ベクトル」を抽出する。特徴ベクトル成分(特徴量)は
、各種身体的・行動的特徴を定量化した数値である。たとえば、人間の目の横幅は0~1
の範囲で数値化され、1つの特徴ベクトル成分を形成する。人物の撮像画像から特徴ベク
トルを抽出する手法については、既知の顔認識技術の応用である。ロボット100は、特
徴ベクトルをサーバ200に送信する。
Specifically, the recognition unit 156 of the robot 100 extracts an image region corresponding to a moving object, particularly a person or an animal, from the image, and extracts features representing physical and behavioral features of the moving object from the extracted image region. Extract a "feature vector" as a set of quantities. A feature vector component (feature amount) is a numerical value obtained by quantifying various physical/behavioral features. For example, the width of the human eye is 0~1
to form one feature vector component. A technique for extracting feature vectors from a captured image of a person is an application of known face recognition technology. Robot 100 sends the feature vector to server 200 .

サーバ200の認識部212は、ロボット100の内蔵カメラによる撮像画像から抽出
された特徴ベクトルと、個人データ格納部218にあらかじめ登録されているユーザ(ク
ラスタ)の特徴ベクトルと比較することにより、撮像されたユーザがどの人物に該当する
かを判定する(ユーザ識別処理)。また、認識部212は、ユーザの表情を画像認識する
ことにより、ユーザの感情を推定する。認識部212は、人物以外の移動物体、たとえば
、ペットである猫や犬についてもユーザ識別処理を行う。
The recognition unit 212 of the server 200 compares the feature vector extracted from the image captured by the built-in camera of the robot 100 with the feature vector of the user (cluster) registered in advance in the personal data storage unit 218, thereby obtaining the captured image. It is determined which person the user who receives the information corresponds to (user identification processing). In addition, the recognition unit 212 estimates the user's emotion by performing image recognition of the user's facial expression. The recognition unit 212 also performs user identification processing on moving objects other than people, such as pets such as cats and dogs.

認識部212は、ロボット100になされたさまざまな応対行為を認識し、快・不快行
為に分類する。認識部212は、また、ロボット100の行動に対するオーナーの応対行
為を認識することにより、肯定・否定反応に分類する。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なもので
あるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為
であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユ
ーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別
される。抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユー
ザの不快感情を示す否定反応である。
The recognition unit 212 recognizes various behaviors performed by the robot 100 and classifies them into pleasant and unpleasant behaviors. The recognition unit 212 also recognizes the owner's response to the action of the robot 100 and classifies it into positive and negative reactions.
Pleasant/unpleasant behavior is determined by whether the user's response behavior is biologically pleasant or unpleasant. For example, being hugged is a pleasant action for the robot 100, and being kicked is an unpleasant action for the robot 100. A positive/negative reaction is determined depending on whether the user's behavior indicates a user's pleasant feeling or an unpleasant feeling. Being hugged is a positive reaction that indicates a user's pleasant feeling, and being kicked is a negative reaction that indicates a user's unpleasant feeling.

サーバ200の動作制御部222は、ロボット100の動作制御部150と協働して、
ロボット100のモーションを決定する。サーバ200の動作制御部222は、ロボット
100の移動目標地点とそのための移動ルートを作成する。動作制御部222は、複数の
移動ルートを作成し、その上で、いずれかの移動ルートを選択してもよい。
The motion control unit 222 of the server 200 cooperates with the motion control unit 150 of the robot 100 to
Determine the motion of the robot 100. The motion control unit 222 of the server 200 is a robot
Create 100 movement target points and a movement route for them. The motion control unit 222 may create a plurality of travel routes and then select one of the travel routes.

動作制御部222は、モーション格納部232の複数のモーションからロボット100
のモーションを選択する。各モーションには状況ごとに選択確率が対応づけられている。
たとえば、オーナーから快行為がなされたときには、モーションAを20%の確率で実行
する、気温が30度以上となったとき、モーションBを5%の確率で実行する、といった
選択方法が定義される。
The motion control unit 222 selects the robot 100 from a plurality of motions in the motion storage unit 232.
Select the motion of Each motion is associated with a selection probability for each situation.
For example, when the owner performs a pleasant act, motion A is executed with a probability of 20%, and when the temperature exceeds 30 degrees, motion B is executed with a probability of 5%. .

親密度管理部220は、ユーザごとの親密度を管理する。上述したように、親密度は個
人データ格納部218において個人データの一部として登録される。快行為を検出したと
き、親密度管理部220はそのオーナーに対する親密度をアップさせる。不快行為を検出
したときには親密度はダウンする。また、長期間視認していないオーナーの親密度は徐々
に低下する。
The familiarity management unit 220 manages the familiarity of each user. As described above, the degree of intimacy is registered as part of the personal data in the personal data storage unit 218. FIG. When a pleasant act is detected, the degree of intimacy management unit 220 increases the degree of intimacy with the owner. The degree of intimacy is lowered when an unpleasant act is detected. In addition, the intimacy level of the owner who has not seen it for a long time gradually decreases.

(ロボット100)
ロボット100は、通信部142、データ処理部136、データ格納部148、内部セ
ンサ128および駆動機構120を含む。
通信部142は、通信機126(図4参照)に該当し、外部センサ114、サーバ20
0および他のロボット100との通信処理を担当する。データ格納部148は各種データ
を格納する。データ格納部148は、記憶装置124(図4参照)に該当する。データ処
理部136は、通信部142により取得されたデータおよびデータ格納部148に格納さ
れているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ12
2およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ
処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部
148のインタフェースとしても機能する。
(Robot 100)
Robot 100 includes communication unit 142 , data processing unit 136 , data storage unit 148 , internal sensors 128 and drive mechanism 120 .
The communication unit 142 corresponds to the communication device 126 (see FIG. 4), the external sensor 114, the server 20
0 and other robots 100 are in charge of communication processing. The data storage unit 148 stores various data. The data storage unit 148 corresponds to the storage device 124 (see FIG. 4). Data processing unit 136 executes various processes based on data acquired by communication unit 142 and data stored in data storage unit 148 . The data processing unit 136 includes the processor 12
2 and a computer program executed by the processor 122 . The data processing unit 136 includes the communication unit 142, the internal sensor 128, the driving mechanism 120 and the data storage unit.
It also functions as an interface for 148.

データ格納部148は、ロボット100の各種モーションを定義するモーション格納部
160を含む。
ロボット100のモーション格納部160には、サーバ200のモーション格納部23
2から各種モーションファイルがダウンロードされる。モーションは、モーションIDに
よって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪
102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボ
ット100を回転行動させる、前輪102を収納した状態で前輪102を回転させること
で震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーシ
ョンを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作
時間、動作方向などがモーションファイルにおいて時系列定義される。
データ格納部148には、個人データ格納部218からも各種データがダウンロードさ
れてもよい。
The data storage unit 148 is a motion storage unit that defines various motions of the robot 100.
Including 160.
The motion storage unit 160 of the robot 100 stores the motion storage unit 23 of the server 200.
Various motion files are downloaded from 2. A motion is identified by a motion ID. Two front wheels, holding front wheels 102 and seated, lifting hands 106
Rotate the robot 100 by rotating 102 in reverse or by rotating only one of the front wheels 102. Rotate the front wheels 102 while the front wheels 102 are retracted to make the robot 100 shake. In order to express various motions such as looking back, the motion timing, motion time, motion direction, etc. of various actuators (driving mechanism 120) are defined in chronological order in the motion file.
Various data may also be downloaded to the data storage unit 148 from the personal data storage unit 218 .

データ処理部136は、認識部156および動作制御部150を含む。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロ
ボット100のモーションを決める。一部のモーションについてはサーバ200で決定し
、他のモーションについてはロボット100で決定してもよい。また、ロボット100が
モーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモー
ションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し
、ロボット100において追加のモーションを決定してもよい。モーションの決定処理を
サーバ200およびロボット100においてどのように分担するかはロボットシステム3
00の仕様に応じて設計すればよい。
Data processing unit 136 includes recognition unit 156 and operation control unit 150 .
The motion control unit 150 of the robot 100 determines the motion of the robot 100 in cooperation with the motion control unit 222 of the server 200 . Some motions may be determined by the server 200 and other motions may be determined by the robot 100 . Also, although the robot 100 determines the motion, the server 200 may determine the motion when the processing load of the robot 100 is high. A base motion may be determined at the server 200 and an additional motion may be determined at the robot 100 . The robot system 3 determines how the server 200 and the robot 100 share motion determination processing.
It should be designed according to the specifications of 00.

ロボット100の動作制御部150は選択したモーションを駆動機構120に実行指示
する。駆動機構120は、モーションファイルにしたがって、各アクチュエータを制御す
る。
The motion control unit 150 of the robot 100 instructs the drive mechanism 120 to execute the selected motion. Drive mechanism 120 controls each actuator according to the motion file.

動作制御部150は、親密度の高いユーザが近くにいるときには「抱っこ」をせがむ仕
草として両方の手106をもちあげるモーションを実行することもできるし、「抱っこ」
に飽きたときには左右の前輪102を収容したまま逆回転と停止を交互に繰り返すことで
抱っこをいやがるモーションを表現することもできる。駆動機構120は、動作制御部1
50の指示にしたがって前輪102や手106、首(頭部フレーム316)を駆動するこ
とで、ロボット100にさまざまなモーションを表現させる。
The motion control unit 150 can also perform a motion of raising both hands 106 as a gesture of asking for a hug when a user with a high degree of intimacy is nearby, or can perform a motion of hugging.
When you get tired of it, by alternately repeating reverse rotation and stopping while the left and right front wheels 102 are accommodated, you can express a motion that you don't want to hold. The drive mechanism 120 includes the motion control unit 1
By driving the front wheels 102, hands 106, and neck (head frame 316) according to instructions from 50, the robot 100 is made to express various motions.

ロボット100の認識部156は、内部センサ128から得られた外部情報を解釈する
。認識部156は、視覚的な認識(視覚部)、匂いの認識(嗅覚部)、音の認識(聴覚部
)、触覚的な認識(触覚部)が可能である。
A recognition unit 156 of the robot 100 interprets external information obtained from the internal sensor 128 . The recognition unit 156 includes visual recognition (visual unit), smell recognition (olfactory unit), and sound recognition (auditory unit).
), tactile recognition (tactile part) is possible.

認識部156は、移動物体の撮像画像から特徴ベクトルを抽出する。上述したように、
特徴ベクトルは、移動物体の身体的特徴と行動的特徴を示すパラメータ(特徴量)の集合
である。移動物体を検出したときには、ニオイセンサや内蔵の集音マイク、温度センサ等
からも身体的特徴や行動的特徴が抽出される。これらの特徴も定量化され、特徴ベクトル
成分となる。認識部156は、特許文献2等に記載の既知の技術に基づいて、特徴ベクト
ルからユーザを特定する。
The recognition unit 156 extracts feature vectors from the captured image of the moving object. As mentioned above,
A feature vector is a set of parameters (feature quantities) representing physical and behavioral features of a moving object. When a moving object is detected, physical characteristics and behavioral characteristics are also extracted from an odor sensor, a built-in sound collecting microphone, a temperature sensor, and the like. These features are also quantified into feature vector components. The recognition unit 156 identifies the user from the feature vector based on the known technique described in Patent Document 2 or the like.

検出・分析・判定を含む一連の認識処理のうち、ロボット100の認識部156は認識
に必要な情報の取捨選択や抽出を行い、判定等の解釈処理はサーバ200の認識部212
により実行される。認識処理は、サーバ200の認識部212だけで行ってもよいし、ロ
ボット100の認識部156だけで行ってもよいし、上述のように双方が役割分担をしな
がら上記認識処理を実行してもよい。
Among a series of recognition processing including detection, analysis, and judgment, the recognition unit 156 of the robot 100 selects and extracts information necessary for recognition, and interpretation processing such as judgment is performed by the recognition unit 212 of the server 200.
Executed by The recognition process may be performed by the recognition unit 212 of the server 200 alone, or may be performed by the recognition unit 156 of the robot 100 alone. good too.

ロボット100に対する強い衝撃が与えられたとき、認識部156はタッチセンサおよ
び加速度センサによりこれを認識し、サーバ200の認識部212は、近隣にいるユーザ
によって「乱暴行為」が働かれたと認識する。ユーザがツノ112を掴んでロボット10
0を持ち上げるときにも、乱暴行為と認識してもよい。ロボット100に正対した状態に
あるユーザが特定音量領域および特定周波数帯域にて発声したとき、サーバ200の認識
部212は、自らに対する「声掛け行為」がなされたと認識してもよい。また、体温程度
の温度を検知したときにはユーザによる「接触行為」がなされたと認識し、接触認識した
状態で上方への加速度を検知したときには「抱っこ」がなされたと認識する。ユーザがボ
ディ104を持ち上げるときの物理的接触をセンシングしてもよいし、前輪102にかか
る荷重が低下することにより抱っこを認識してもよい。
まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報とし
て取得し、サーバ200の認識部212は快・不快を判定する。また、サーバ200の認
識部212は特徴ベクトルに基づくユーザ識別処理を実行する。
When a strong impact is applied to the robot 100, the recognition unit 156 recognizes this with the touch sensor and the acceleration sensor, and the recognition unit 212 of the server 200 recognizes that a nearby user has acted "violently." User grabs horn 112 and robot 10
Even when you lift 0, you may recognize it as a violent act. When the user facing the robot 100 speaks in a specific sound volume range and a specific frequency band, the recognition unit 212 of the server 200 may recognize that the user has made a “calling action” to himself/herself. Also, when a temperature of about body temperature is detected, it is recognized that the user has made a "contact action", and when an upward acceleration is detected while contact is being recognized, it is recognized that a "hold" has been made. Physical contact when the user lifts the body 104 may be sensed, or the holding may be recognized by reducing the load on the front wheels 102 .
In summary, the robot 100 acquires the user's behavior as physical information through the internal sensor 128, and the recognition unit 212 of the server 200 judges comfort/discomfort. Also, the recognition unit 212 of the server 200 executes user identification processing based on the feature vector.

サーバ200の認識部212は、ロボット100に対するユーザの各種応対を認識する
。各種応対行為のうち一部の典型的な応対行為には、快または不快、肯定または否定が対
応づけられる。一般的には快行為となる応対行為のほとんどは肯定反応であり、不快行為
となる応対行為のほとんどは否定反応となる。快・不快行為は親密度に関連し、肯定・否
定反応はロボット100の行動選択に影響する。
The recognition unit 212 of the server 200 recognizes various responses of the user to the robot 100 . Pleasant or unpleasant, affirmative or negative are associated with a part of typical responses among various responses. In general, most of the reception behaviors that are pleasant behaviors are positive reactions, and most of the reception behaviors that are unpleasant behaviors are negative reactions. Pleasant/unpleasant actions are related to intimacy, and positive/negative reactions influence the action selection of the robot 100 .

認識部156により認識された応対行為に応じて、サーバ200の親密度管理部220
はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密
度は高まり、不快行為を行ったユーザに対する親密度は低下する。
Intimacy management unit 220 of server 200 according to the behavior recognized by recognition unit 156
changes intimacy with the user. In principle, the degree of intimacy with a user who has performed a pleasant act increases, and the degree of intimacy with a user who has performed an unpleasant act decreases.

以上の基本構成を前提として、次に、本実施形態におけるロボット100の実装につい
て、特に、本実装の特徴と目的および基本構成との相違点を中心として説明する。
Based on the basic configuration described above, the implementation of the robot 100 according to the present embodiment will now be described, particularly focusing on the features and purposes of the implementation and the differences from the basic configuration.

[反応レポート生成機能の実装]
図6は、本実施形態における反応レポート生成過程を示す概要図である。
ロボット100は、イベント、感情パラメータ等を履歴情報として記録する(S10)
。履歴情報は、時系列に沿ってロボット100の気持ち(感情パラメータ)と出来事(イ
ベント)を記録したものである。ユーザは、ユーザ端末400からサーバ200に対して
反応レポートの取得を要求する(S12)。サーバ200は、反応レポート取得要求を受
信したとき、履歴情報から反応レポートを生成する(S14)。履歴情報には大量の情報
が含まれるため、履歴情報をそのまま反応レポートとして使う場合、反応レポートの視認
性が悪くなる。また、プライバシー保護の観点からも履歴情報そのものを反応レポートと
してユーザに提供することは好ましくない。本実施形態においては、履歴情報に含まれる
各種情報を取捨選択し、かつ、情報の表現方法も変更した上で、見せるための情報として
の反応レポートを生成する(詳細後述)。ユーザ端末400は、反応レポートをロボット
システム300から取得し、これを画面表示させる(S16)。
[Implementation of reaction report generation function]
FIG. 6 is a schematic diagram showing the reaction report generation process in this embodiment.
The robot 100 records events, emotional parameters, etc. as history information (S10).
. The history information records the feelings (emotional parameters) and occurrences (events) of the robot 100 in chronological order. The user requests acquisition of a reaction report from the user terminal 400 to the server 200 (S12). When server 200 receives the reaction report acquisition request, server 200 generates a reaction report from the history information (S14). Since the history information contains a large amount of information, if the history information is used as the reaction report as it is, the visibility of the reaction report is deteriorated. Also, from the viewpoint of privacy protection, it is not preferable to provide the user with the history information itself as a reaction report. In this embodiment, various types of information included in the history information are selected, and after changing the information expression method, a reaction report is generated as information to be shown (details will be described later). The user terminal 400 acquires the reaction report from the robot system 300 and displays it on the screen (S16).

図7は、本実施形態におけるロボット100の機能ブロック図である。
本実施形態におけるロボットシステム300は、反応レポート生成機能を備える。この
ため、図5に示すロボットシステム300の機能ブロック、複数の機能ブロックが追加さ
れる。図7においては、追加された機能ブロックを中心として説明する。
FIG. 7 is a functional block diagram of the robot 100 in this embodiment.
The robot system 300 in this embodiment has a reaction report generation function. Therefore, the functional block of the robot system 300 shown in FIG. 5 and a plurality of functional blocks are added. In FIG. 7, the added functional blocks will be mainly described.

なお、ロボット100は、外部センサ114ではなく、キーフレームに基づいて場所を
認識してもよい。キーフレームは、撮像画像における特徴点(特徴量)の分布情報である
。ロボット100は、画像特徴量を用いたグラフベースのSLAM(Simultaneous Local
ization and Mapping)技術、より具体的には、ORB(Oriented FAST and Rotated BRI
EF)特徴量に基づくSLAM技術によりキーフレームを形成してもよい(詳細は特願20
18-014365号を参照)。
Note that the robot 100 may recognize the location based on keyframes instead of the external sensor 114 . A key frame is distribution information of feature points (feature amounts) in a captured image. The robot 100 is a graph-based SLAM (Simultaneous Local
mapping) technology, more specifically ORB (Oriented FAST and Rotated BRI
EF) Keyframes may be formed by SLAM technology based on feature values (details are in Japanese Patent Application No. 20
18-014365).

(サーバ200)
データ処理部202は、更に、履歴管理部252、アイコン選択部254、雰囲気判定
部256およびモード選択部258を含む。また、状態管理部244は、感情管理部25
0を含む。
感情管理部250は、寂しさの強さを示す感情パラメータ(以下、「寂しさパラメータ
」とよぶ)、好奇心の強さを示す感情パラメータ(以下、「好奇心パラメータ」とよぶ)
および承認欲求の強さを示す感情パラメータ(以下、「承認欲求パラメータ」とよぶ)の
3種類の感情パラメータを管理する。
(server 200)
Data processing unit 202 further includes history management unit 252 , icon selection unit 254 , atmosphere determination unit 256 and mode selection unit 258 . In addition, the state management unit 244, the emotion management unit 25
including 0.
The emotion management unit 250 sets an emotion parameter indicating the intensity of loneliness (hereinafter referred to as “lonely parameter”) and an emotion parameter indicating the intensity of curiosity (hereinafter referred to as “curiosity parameter”).
and the emotional parameter that indicates the strength of the desire for approval (hereinafter referred to as the “need for approval parameter”).
Manages 3 types of emotional parameters.

履歴管理部252は、ロボット100の履歴情報を管理する。履歴情報においては、イ
ベントの発生履歴と感情パラメータの変化履歴を対応づけられる。履歴情報については、
図9に関連して後述する。また、履歴管理部252は、履歴情報に基づいて反応レポート
を生成する。
The history management unit 252 manages history information of the robot 100. FIG. In the history information, the occurrence history of events and the change history of emotion parameters are associated with each other. For historical information,
This will be described later with reference to FIG. Also, the history management unit 252 generates a reaction report based on the history information.

アイコン選択部254は、イベントに応じてアイコンを選択する。詳細は後述するが、
本実施形態の反応レポートにおいては、イベントはアイコンにより画像表現される。アイ
コン選択部254は、イベントに対応付けられるアイコンを選択する。アイコン選択部2
54は、イベント以外にもさまざまなアイコンを選択する。
Icon selection unit 254 selects an icon according to the event. Details will be described later, but
In the reaction report of this embodiment, an event is image-represented by an icon. The icon selection unit 254 selects an icon associated with the event. Icon selection part 2
54 selects a variety of icons besides events.

雰囲気判定部256は、外部環境の雰囲気を判定する。雰囲気の判定方法については後
述する。モード選択部258は、ロボット100のモードを選択する。モードは、通常モ
ード、省電力モードなどのロボット100の動作状態に関する設定情報である。モードの
選択方法についても詳細は後述する。
The atmosphere determination unit 256 determines the atmosphere of the external environment. A method for determining the atmosphere will be described later. Mode selection unit 258 selects the mode of robot 100 . The mode is setting information regarding the operating state of the robot 100, such as normal mode and power saving mode. The details of the mode selection method will also be described later.

データ格納部206は、更に、イベント条件格納部260および履歴情報格納部262を含む。イベント条件格納部260は、イベント条件を定義する。イベント条件とは、た
とえば、「子供部屋で発生した」「玄関で発生した」などイベント発生時の状況を定義す
る条件である。履歴情報格納部262は、履歴情報を格納する。
Data storage unit 206 further includes event condition storage unit 260 and history information storage unit 262 . The event condition storage unit 260 defines event conditions. An event condition is, for example, a condition that defines the situation when an event occurs, such as "occurred in a child's room" or "occurred at the entrance". The history information storage unit 262 stores history information.

(ロボット100)
ロボット100の内部センサ128は、撮像部158を含む。撮像部158は、全天球
カメラ等のカメラに対応する。本実施形態においては、撮像部158は常時周辺画像を撮
像する。ロボット100の認識部156は、撮像部158など内部センサ128から得ら
れる外部情報(生データ)を分析し、分析結果(加工データ)をサーバ200に送信する
。サーバ200の認識部212は、分析結果に基づいて各種イベントの成否を判定する。
イベントの成否の判定は、ロボット100側のみで行ってもよいし、サーバ200側のみ
で行ってもよいし、簡易なイベントはロボット100の認識部156が判定し、複雑なイ
ベントはサーバ200の認識部212が判定するとしてもよい。
以下においては、サーバ200の認識部212においてイベントの成否を判定するとし
て説明するが、サーバ200の認識部212は、ロボット100の認識部156と読み替
え可能である。
(Robot 100)
Internal sensor 128 of robot 100 includes imaging unit 158 . The imaging unit 158 corresponds to a camera such as an omnidirectional camera. In this embodiment, the imaging unit 158 constantly captures the peripheral image. The recognition unit 156 of the robot 100 analyzes external information (raw data) obtained from the internal sensor 128 such as the imaging unit 158 and transmits the analysis result (processed data) to the server 200 . The recognition unit 212 of the server 200 determines success or failure of various events based on the analysis results.
The determination of the success or failure of an event may be performed only by the robot 100 side or may be performed only by the server 200 side. The recognition unit 212 may make the determination.
In the following description, it is assumed that the recognition unit 212 of the server 200 determines the success or failure of the event.

サーバ200の個人データ格納部218は、ユーザ端末400を識別する端末IDとユ
ーザIDを対応づけて登録する。また、ユーザIDに対しては、ユーザの身体的特徴およ
び行動的特徴が対応づけられる。
The personal data storage unit 218 of the server 200 associates and registers the terminal ID for identifying the user terminal 400 and the user ID. Also, the user ID is associated with the user's physical characteristics and behavioral characteristics.

(ユーザ端末400)
ユーザ端末400は、後述する反応レポートをウェブブラウザにて表示する。ユーザ端
末400には、反応レポートの表示およびロボット100への指示入力(図19に関連し
て詳述)のための専用のアプリケーションソフトウェアがインストールされてもよい。
(User terminal 400)
User terminal 400 displays a reaction report, which will be described later, on the web browser. User terminal 400 may be installed with dedicated application software for displaying reaction reports and inputting instructions to robot 100 (detailed with reference to FIG. 19).

図8は、感情パラメータの変化履歴を示す模式図である。
感情管理部250は、3種類の感情パラメータを時間とともに変化させる。図8の横軸
は時間を表し、縦軸は感情パラメータの大きさを示す。本実施形態においては、感情パラ
メータは0~100の範囲で変化する。図8においては、寂しさパラメータ170は一時
的に高くなったあと、徐々に低下している。感情管理部250は、ロボット100がオー
ナーを視認しない期間が長引くほど寂しさパラメータ170を徐々に上昇させ、オーナー
を視認したときに寂しさパラメータ170を低下させる。オーナーを視認するというイベ
ントが寂しさパラメータ170の低下に寄与する。同様にして、オーナーの声を聞くとい
うイベントが発生したときにも、感情管理部250は寂しさパラメータ170を低下させ
てもよい。
FIG. 8 is a schematic diagram showing change history of emotion parameters.
Emotion management unit 250 changes three types of emotion parameters over time. The horizontal axis in FIG. 8 represents time, and the vertical axis represents the magnitude of the emotion parameter. In this embodiment, the emotion parameter varies in the range of 0-100. In FIG. 8, the loneliness parameter 170 temporarily increases and then gradually decreases. The emotion management unit 250 gradually increases the loneliness parameter 170 as the period in which the robot 100 does not visually recognize the owner becomes longer, and decreases the loneliness parameter 170 when the owner is visually recognized. The event of seeing the owner contributes to the loneliness parameter 170 decrease. Similarly, the emotion manager 250 may also lower the loneliness parameter 170 when the event of hearing the owner's voice occurs.

図8の承認欲求パラメータ174は、時間経過とともに徐々に高まっている。感情管理
部250は、時間とともに承認欲求パラメータ174を上昇させる。承認欲求とは、「他
人から認められたい」という人間の基本的欲求の一つである。承認欲求パラメータ174
によりロボット100の承認欲求の強さを表現する。感情管理部250は、ユーザがロボ
ット100に声をかける、抱っこをするなど、快行為(ロボット100への気配り行為)
がなされたときに承認欲求パラメータ174を低下させ(満足)、不快行為がなされたと
きには承認欲求パラメータ174を上昇させる(不満)。
The approval desire parameter 174 in FIG. 8 gradually increases over time. The emotion manager 250 increases the approval desire parameter 174 over time. Approval needs are one of the basic human needs to be recognized by others. Approval Desire Parameter 174
expresses the strength of the robot 100's desire for approval. The emotion management unit 250 detects pleasant behaviors (attentive behaviors toward the robot 100) such as the user talking to the robot 100 or hugging it.
is performed, the approval desire parameter 174 is lowered (satisfied), and when an unpleasant act is performed, the approval desire parameter 174 is increased (dissatisfied).

感情管理部250は、ロボット100が新しいものを発見したとき、好奇心パラメータ
172を上昇させる。また、イベントが発生しないときには、感情管理部250は好奇心
パラメータ172を徐々に低下させる。
The emotion management unit 250 uses the curiosity parameter
Raise 172. Also, when no event occurs, emotion manager 250 gradually lowers curiosity parameter 172 .

感情管理部250は、3種類の感情パラメータが各種の「心理条件」を成立させたか否
かを判定する。心理条件は、ロボット100の「心理の変化」を示すタイミングとして任
意に設定されればよい。たとえば、承認欲求パラメータ174が所定の閾値(例:80)
以上となったとき、第1心理条件が成立するとしてもよいし、承認欲求パラメータ174
が他の2つの感情パラメータよりも優勢となったとき、第2心理条件が成立するとしても
よい。図8においては、期間t0~t1においては、寂しさパラメータ170は、好奇心
パラメータ172、承認欲求パラメータ174よりも大きい。期間t1~t2においては
、承認欲求パラメータ174が最も大きい。このため、感情管理部250は、時刻t1に
第2心理条件が成立したと判定する。いいかえれば、時刻t1において、ロボット100
は寂しさよりも承認欲求(認められたいという欲)が優勢となっている。
The emotion management unit 250 determines whether or not the three types of emotion parameters satisfy various "mental conditions". The psychological condition may be arbitrarily set as a timing indicating a “change in mentality” of the robot 100 . For example, the approval desire parameter 174 is a predetermined threshold (e.g. 80)
When the above is reached, the first psychological condition may be established, and the approval desire parameter 174
The second psychological condition may be established when is dominant over the other two emotional parameters. In FIG. 8, the loneliness parameter 170 is greater than the curiosity parameter 172 and the approval desire parameter 174 during the period t0 to t1. In the period t1 to t2, the approval desire parameter 174 is the largest. Therefore, emotion management unit 250 determines that the second psychological condition is satisfied at time t1. In other words, at time t1, the robot 100
Approval needs (desire to be recognized) prevail over loneliness.

3種類の感情パラメータのうち、第1の感情パラメータが優勢な状態から、第2の感情
パラメータが優勢な状態に変化するとき、いいかえれば、複数の感情パラメータの優劣が
逆転するとき、ロボット100の気持ちが大きく転換したと考えられる。
When the first emotional parameter of the three types of emotional parameters changes from being dominant to the second emotional parameter being dominant, in other words, when the superiority or inferiority of a plurality of emotional parameters is reversed, the robot 100 It seems that the mood has changed significantly.

なお、寂しさ、好奇心、承認欲求の3種類に限らず、4種類以上の感情パラメータを設
定してもよい。たとえば、喜び、怒り、不安、焦燥、羞恥など、さまざまな感情パラメー
タとそれらの感情パラメータに影響するイベントを定義してもよい。感情パラメータは1
種類でもよい。感情パラメータは時間の経過およびイベントの発生によって変化する。
It should be noted that not only the three types of loneliness, curiosity, and desire for approval, but four or more types of emotion parameters may be set. For example, various emotional parameters and events that affect those emotional parameters may be defined, such as joy, anger, anxiety, impatience, and shame. Emotion parameter is 1
can be of any kind. Emotional parameters change over time and with the occurrence of events.

感情パラメータの変化にはランダム性あるいは周期性をもたせてもよい。第1の感情パ
ラメータの変化が第2の感情パラメータに影響してもよい。たとえば、寂しさパラメータ
が50以上となるとき、感情管理部250は承認欲求パラメータの上昇率を増加させても
よい。
Changes in emotion parameters may be random or periodic. A change in a first affective parameter may affect a second affective parameter. For example, when the loneliness parameter is 50 or higher, the emotion management unit 250 may increase the increase rate of the approval desire parameter.

感情パラメータは、「好奇心」のように人間の典型的心理状態に必ずしも対応づけられ
る必要はない。たとえば、「感情パラメータQ1は、イベント(E1)、イベント(E2
)の発生を契機として上昇し、イベント(E3)の発生を契機として下降する」といった
変化の条件を定義することにより、さまざまな個性を有する感情パラメータを定義しても
よい。人間の感情を模したものではない、ロボット100に特有の「感情」を定義しても
よい。
Emotional parameters do not necessarily correspond to typical human psychological states like "curiosity". For example, "Emotion parameter Q1 is event(E1), event(E2
Emotion parameters having various characteristics may be defined by defining a change condition such as "increase with the occurrence of event (E3) and decrease with the occurrence of event (E3)". A "feeling" specific to the robot 100 may be defined that does not mimic human emotions.

図9は、履歴情報270のデータ構造図である。
履歴情報270は、サーバ200の履歴情報格納部262に格納される。ロボットシス
テム300においては、あらかじめ複数種類のイベントが定義される。イベントは複数の
イベントタイプのいずれかに分類される。たとえば、イベントタイプ=Enのイベント(
以下、「イベント(En)」のように表記する)は、ユーザを視認することであってもよ
い。イベント(Em)は所定値以上の音声を検出することであってもよいし、別のイベン
ト(Ep)はロボット100が服を着用したことであってもよい。このほかにも、抱っこ
された、ユーザが出かけた、部屋の中でなにか新しいものをみつけた、などさまざまなイ
ベントを定義可能である。
FIG. 9 is a data structure diagram of the history information 270. As shown in FIG.
The history information 270 is stored in the history information storage unit 262 of the server 200. FIG. In the robot system 300, multiple types of events are defined in advance. Events are classified into one of several event types. For example, an event with event type=En (
Hereinafter, “event (En)”) may be visual recognition of the user. The event (Em) may be detection of a voice equal to or greater than a predetermined value, and another event (Ep) may be the robot 100 wearing clothes. Other events can be defined such as being hugged, the user going out, or finding something new in the room.

履歴管理部252は、定期的、たとえば、1分間ごとにイベントおよび感情パラメータ
を履歴情報270に記録する。履歴情報270には、イベントの発生履歴および感情パラ
メータの変化履歴が対応づけられる。認識部212はイベントを認識し、感情管理部25
0はイベントに応じて感情パラメータを変化させる。動作制御部150等は、イベントお
よび感情パラメータにしたがってモーションを選択する。
History management unit 252 records events and emotion parameters in history information 270 periodically, for example, every minute. The history information 270 is associated with an event occurrence history and an emotion parameter change history. Recognition unit 212 recognizes events and emotion management unit 25
0 changes the emotion parameter depending on the event. The motion control unit 150 or the like selects a motion according to the event and emotion parameters.

図9の履歴情報270においては、10:03にイベント(E1)が発生している。イ
ベント(E1)の発生後、寂しさパラメータが72から14に急低下している。イベント
(E1)は、ロボット100の寂しさを解消させた重要なイベントであることがわかる。
履歴情報270には、このほかにも、外部環境の雰囲気を示す雰囲気タイプ(詳細後述)
、ロボット100が選択したモーション、ロボット100の位置情報、室温などさまざま
な情報が登録されてもよい。
In the history information 270 of FIG. 9, an event (E1) occurs at 10:03. After the occurrence of event (E1), the loneliness parameter plummets from 72 to 14. event
It can be seen that (E1) is an important event that has eliminated the loneliness of the robot 100 .
In addition to this, the history information 270 includes an atmosphere type indicating the atmosphere of the external environment (details will be described later).
, the motion selected by the robot 100, the position information of the robot 100, the room temperature, and other various information may be registered.

図10は、モーション選択テーブル280のデータ構造図である。
モーション選択テーブル280はモーション格納部232に格納される。上述したよう
に、モーションはモーションIDにより識別される。サーバ200の動作制御部222は
、イベントを認識したとき、モーション選択テーブル280を参照してモーションを選択
する。ロボット100は、動作制御部222により指定されたモーションを実行する。モ
ーション選択テーブル280は、サーバ200からロボット100にもダウンロードされ
る。このため、ロボット100の動作制御部150は、一部のイベントについてはサーバ
200を介することなくイベントに対応したモーションを選択できる。
以下においては、動作制御部222(サーバ200)によりモーションが選択されると
して説明するが、動作制御部222(サーバ200)は動作制御部150(ロボット10
0)と読み替え可能である。
FIG. 10 is a data structure diagram of the motion selection table 280. As shown in FIG.
Motion selection table 280 is stored in motion storage unit 232 . As mentioned above, motions are identified by motion IDs. When recognizing an event, the motion control unit 222 of the server 200 refers to the motion selection table 280 and selects a motion. The robot 100 executes the motion designated by the motion control unit 222. FIG. Motion selection table 280 is also downloaded to robot 100 from server 200 . For this reason, the motion control unit 150 of the robot 100 is set to the server for some events.
You can select the motion corresponding to the event without going through the 200.
In the following description, the motion is selected by the motion control unit 222 (server 200).
0).

モーション選択テーブル280においては、イベントに対して、1以上のモーションと
その選択確率が対応付けられる。たとえば、イベント(E1)が検出されたときには、動
作制御部222は5(%)の選択確率にてモーション(M1)を選択し、15(%)の選
択確率にてモーション(M2)を選択する。
In the motion selection table 280, one or more motions and their selection probabilities are associated with events. For example, when event (E1) is detected, motion control unit 222 selects motion (M1) with a selection probability of 5(%) and selects motion (M2) with a selection probability of 15(%). .

本実施形態においては、動作制御部222は、感情パラメータに応じてモーションの選
択確率を変化させる。たとえば、感情パラメータのうち、寂しさパラメータが所定閾値以
上であるときには、動作制御部222はイベント(E1)に対するモーション(M1)の
選択確率を上昇させる。好奇心パラメータが所定閾値以上のときには、動作制御部222
はイベント(E1)に対するモーション(M1)の選択確率を低下させる。
In this embodiment, the motion control unit 222 changes the motion selection probability according to the emotion parameter. For example, when the loneliness parameter among the emotion parameters is equal to or greater than a predetermined threshold, motion control section 222 increases the selection probability of motion (M1) for event (E1). When the curiosity parameter is equal to or greater than the predetermined threshold, the operation control unit 222
reduces the selection probability of motion (M1) for event (E1).

具体例として、イベント(En)が発生したときに選択可能なモーション(M1)、モ
ーション(M2)、モーション(M3)の選択確率をそれぞれ30(%)、20(%)、
50(%)であるとする。以下、イベント(En)が発生したときに選ばれるモーション
(M1)のことを「モーション(En|M1)」と表記する。
As a concrete example, when an event (En) occurs, selectable motion (M1), motion (M2), and motion (M3) selection probabilities are set to 30(%), 20(%), respectively.
Suppose it is 50(%). Below is the motion selected when the event (En) occurs
(M1) is written as "motion (En|M1)".

寂しさパラメータが80以上のとき、モーション(En|M1)が30(%)から40
(%)に上昇するとする。増加した10(%)分は、モーション(En|M2)およびモ
ーション(En|M3)の選択確率をそれぞれ5(%)ずつ低下させることで調整される
。この結果、寂しさパラメータが80以上のとき、モーション(En|M2)の選択確率
は20(%)から15(%)に低下し、モーション(En|M3)の選択確率は50(%
)から45(%)に低下する。このような制御方法によれば、モーション(En|M1)
は、ロボット100が「寂しい」ときに選ばれやすくなり、「感情」が「行動選択」に影
響することになる。
Motion (En|M1) increased from 30(%) to 40 when loneliness parameter is 80 or higher
(%). The increased 10(%) is adjusted by decreasing the selection probability of motion (En|M2) and motion (En|M3) by 5(%) each. As a result, when the loneliness parameter is 80 or more, the selection probability of motion (En|M2) is reduced from 20(%) to 15(%), and the selection probability of motion (En|M3) is 50(%).
) to 45(%). According to this control method, the motion (En|M1)
is likely to be selected when the robot 100 is "lonely", and "emotion" affects "action selection".

図11は、第1反応レポート画面180の画面図である。
ユーザは、ユーザ端末400からサーバ200に反応レポートの取得を要求する。ユー
ザは、反応レポートの表示方法を自由に切り替えることができる。図11の第1反応レポ
ート画面180は、イベントとロボットの気持ち(感情パラメータ)を対応付けた反応レ
ポートを示す。
FIG. 11 is a screen diagram of the first reaction report screen 180. As shown in FIG.
The user requests the acquisition of the reaction report from the user terminal 400 to the server 200 . The user can freely switch the display method of the reaction report. A first reaction report screen 180 in FIG. 11 shows a reaction report that associates an event with the robot's feelings (emotional parameters).

履歴管理部252は、ユーザ端末400から反応レポート取得要求が受信されたとき、
履歴情報270に基づいて反応レポートを生成する。履歴管理部252は、上述した心理
条件が成立したときの感情パラメータを抽出する。
When the history management unit 252 receives a reaction report acquisition request from the user terminal 400,
Generate a response report based on historical information 270 . The history management unit 252 extracts emotion parameters when the psychological conditions described above are satisfied.

まず、9:00おいて、複数種類の心理条件のうちの1つが成立したとする。サーバ2
00においては、あらかじめ、心理条件ごと、あるいは、感情パラメータの状態ごとに感
情アイコン184が対応づけられている。アイコン選択部254は、心理条件が成立した
ときの感情パラメータに応じて感情アイコン184を選択する。図11においては、感情
アイコン184aが選択されている。
First, at 9:00, it is assumed that one of a plurality of types of psychological conditions is satisfied. server 2
In 00, an emotion icon 184 is associated in advance with each psychological condition or each emotional parameter state. The icon selection unit 254 selects the emotion icon 184 according to the emotion parameter when the psychological condition is satisfied. In FIG. 11, emotion icon 184a is selected.

アイコン選択部254は、心理条件が成立したときのイベントに対応するイベントアイ
コン182も選択する。複数のイベントそれぞれにも、あらかじめイベントアイコン18
2が対応づけられている。「心理条件が成立したときのイベント」は、心理条件の成立時
点の直前(直近)に発生したイベントであってもよいし、心理条件の成立時点から所定時
間以内に発生したイベントであってもよい。たとえば、心理条件が時刻t1に成立したと
き、時刻(t1-10秒)から時刻(t1-3秒)の7秒間の間に発生したイベントを反
応レポートへの表示対象としてもよい。
The icon selection unit 254 also selects the event icon 182 corresponding to the event when the psychological condition is satisfied. Each of the multiple events also has an event icon 18 in advance.
2 is associated. The ``event when the psychological condition is satisfied'' may be an event that occurred immediately before (most recently) the moment when the psychological condition was met, or an event that occurred within a predetermined time after the moment when the psychological condition was met. good. For example, when the psychological condition is established at time t1, the event that occurred during the seven seconds from time (t1-10 seconds) to time (t1-3 seconds) may be displayed in the reaction report.

図11の第1反応レポート画面180においては、心理条件が成立したときのロボット
100の「気持ち」を表す感情アイコン184aが表示され、心理条件の成立時のイベン
ト(イベントタイプ)に対応するイベントアイコン182aも表示されている。図11に
示すイベントアイコン182aは、ロボット100がオーナーに出会ったイベントに対応
する。感情アイコン184aは、ロボット100の嬉しい気持ち、たとえば、寂しさパラ
メータおよび承認欲求パラメータの双方が所定値以下となっているという心理状態に対応
する。ユーザは、第1反応レポート画面180を参照することにより、「ロボット100
は、9:00にオーナーに出会って嬉しかった」というロボット100の日常生活とその
ときのロボット100の気持ちを確認できる。
In the first reaction report screen 180 of FIG. 11, the robot
An emotion icon 184a representing 100 "feelings" is displayed, and an event icon 182a corresponding to the event (event type) when the psychological condition is established is also displayed. Event icon 182a shown in FIG. 11 corresponds to an event in which robot 100 meets its owner. Emotion icon 184a corresponds to a happy feeling of robot 100, for example, a psychological state in which both the loneliness parameter and the desire for approval parameter are equal to or less than a predetermined value. By referring to the first reaction report screen 180, the user can refer to the "robot 100
I was happy to meet the owner at 9:00." You can see the daily life of the robot 100 and the feelings of the robot 100 at that time.

ユーザは、第1反応レポート画面180により、ロボット100の気持ちおよびイベン
トを感情アイコン184、イベントアイコン182により知ることができる。イベント等
をアイコンによってシンボリックに表現することにより、ユーザはロボット100の日常
を絵日記のように楽しむことができる。
The user can know the feelings and events of the robot 100 from the emotion icon 184 and the event icon 182 on the first reaction report screen 180 . By symbolically expressing events and the like with icons, the user can enjoy the daily life of the robot 100 like a picture diary.

本実施形態においては、認識部212は、外部環境の情報に基づいてイベントを認識し
、認識したイベントに対応するイベントタイプを特定する。次に、アイコン選択部254
は、イベントタイプに対応するイベントアイコン182を選ぶ。反応レポートにおいて、
イベントの詳細は示さず、イベントアイコン182において「どんな出来事があったか」
を簡易に伝えることにより、第1反応レポート画面180によって過度にプライバシーが
開示されてしまうのを防いでいる。
In this embodiment, the recognition unit 212 recognizes an event based on information of the external environment, and identifies an event type corresponding to the recognized event. Next, the icon selection unit 254
selects the event icon 182 corresponding to the event type. In the reaction report,
The details of the event are not shown, and the event icon 182 shows "What happened?"
is easily communicated, the first reaction report screen 180 prevents excessive disclosure of privacy.

なお、ロボット100の感情パラメータは、感情アイコン184ではなく、パラメータ
値をそのまま表示してもよいし、感情に対応する色彩によってロボット100の気持ちを
表現してもよい。ロボット100の感情パラメータそのものはユーザのプライバシーに関
わる可能性が低いと考えられるためである。
The emotion parameter of the robot 100 may be displayed as a parameter value instead of the emotion icon 184, or the emotion of the robot 100 may be expressed by colors corresponding to the emotion. This is because the emotion parameters of the robot 100 themselves are less likely to affect the user's privacy.

ロボット100は、大量のイベントを認識しながら行動選択する。このため、すべての
イベントを反応レポートで見せることはプライバシー保護の観点だけでなく、視認性の観
点からも好ましくない。そこで、本実施形態においては、心理条件が成立したときのイベ
ントのみを反応レポートに登録する。このような制御方法によれば、ロボット100の心
理変化の契機となった可能性のあるイベントを確認しやすくなる。いいかえれば、ロボッ
ト100の周辺で発生する多種多様なイベントのうち、「ロボット100の心を動かした
イベント」を中心として状況を確認できる。ロボット100が認識したさまざまなイベン
トのうち、ロボット100(の気持ち)にとって重要なイベントが反応レポートに登録さ
れるため、ロボット100の気持ちを重視した日記のような反応レポートを形成できる。
The robot 100 selects actions while recognizing a large number of events. Therefore, showing all events in the reaction report is not preferable not only from the viewpoint of privacy protection but also from the viewpoint of visibility. Therefore, in this embodiment, only the event when the psychological condition is established is registered in the reaction report. According to such a control method, it becomes easier to confirm an event that may have triggered a psychological change of the robot 100 . In other words, it is possible to confirm the situation centering on the "event that moved the heart of the robot 100" among various events occurring around the robot 100. Among the various events recognized by the robot 100, events that are important to (the feelings of) the robot 100 are registered in the reaction report, so that a diary-like reaction report that emphasizes the feelings of the robot 100 can be formed.

9:30においては、オーナーが出かけるイベント(イベントアイコン182b)とオ
ーナーが帰宅するというイベント(イベントアイコン182c)が短期間に続けて発生し
ている。複数のイベントが短期間に連発したときには、履歴管理部252は、イベントア
イコン182bとイベントアイコン182cを左右に少しずらした状態にて反応レポート
を表示させる。このような表示方法により、第1反応レポート画面180におけるイベン
トアイコン182の視認性を高めることができる。
At 9:30, an event of the owner going out (event icon 182b) and an event of the owner going home (event icon 182c) occur continuously in a short period of time. When a plurality of events occur in succession in a short period of time, the history management unit 252 causes the reaction report to be displayed with the event icon 182b and the event icon 182c slightly shifted left and right. With such a display method, the visibility of event icon 182 on first reaction report screen 180 can be improved.

履歴管理部252は、更に、あらかじめ定義された特定カテゴリ(特定のイベントタイ
プ)に属するイベントの横に注目マーク186を設定する。注目マーク186は、複数種
類のイベントのうち、注目すべきイベントに対する強調表示である。ユーザは、注目マー
ク186により、重要なイベントを認識しやすくなる。重要なイベントとしては、オーナ
ーの視認、お出かけやお見送り、モノの落下、未登録人物(不審者)の発見などが考えら
れる。
The history management unit 252 further sets attention marks 186 next to events belonging to a predefined specific category (specific event type). The attention mark 186 is a highlighting of an event that should be noticed among a plurality of kinds of events. Attention marks 186 help the user to recognize important events. Important events include sighting of an owner, going out or seeing someone off, falling objects, and finding an unregistered person (suspicious person).

なお、一家庭に複数のロボット100が導入されることも考えられる。ロボット100
は、初期設定の違い、あるいは、環境の違いによってそれぞれが個性を有する。たとえば
、寂しさパラメータが高くなりやすい設定の「孤独に弱いロボット100」もあれば、好
奇心パラメータが高まりにくい設定の「落ち着いたロボット100」などが考えられる。
また、ロボット100Aはユーザ(P01)に対して高い親密度を有する一方、ロボット
100Bはそれよりも低い親密度を有する場合もある。この場合、ユーザ(P01)から
抱っこされることはロボット100Aの「寂しさ」を大きく癒すが、ロボット100Bの
場合にはユーザ(P01)に抱っこされても「寂しさ」はほとんど癒されないかもしれな
い。また、ユーザ(P01)を見たことがないロボット100Cは、ユーザ(P01)に
抱っこされたときにはむしろ好奇心パラメータを上昇させるかもしれない。このように、
「ユーザ(P01)に抱っこされる」という共通のイベントに対して、各ロボット100
の感情パラメータの変化は多様となる。したがって、ロボット100ごとに心理条件が成
立するタイミング、いいかえれば、「心を動かされるタイミング」は異なる可能性が高い。
It is also conceivable that a plurality of robots 100 are introduced into one household. robot 100
have individuality due to differences in initial settings or differences in environment. For example, there may be a "loneliness vulnerable robot 100" whose loneliness parameter tends to increase, and a "calm robot 100" whose curiosity parameter does not increase easily.
Also, while the robot 100A has a high degree of intimacy with the user (P01), the robot
100B may have a lower affinity than that. In this case, being held by the user (P01) greatly relieves the "loneliness" of the robot 100A, but in the case of the robot 100B, being held by the user (P01) may hardly relieve the "lonelyness". do not have. Also, the robot 100C, which has never seen the user (P01), may rather increase the curiosity parameter when held by the user (P01). in this way,
Each robot 100
changes in the emotional parameters of Therefore, there is a high possibility that the timing at which the psychological condition is established, in other words, the "timing at which the mind is moved" differs for each robot 100. FIG.

同じ経験をする複数のロボット100それぞれが生成する履歴情報が実質的に同一にな
るかもしれないが、ロボット100Aの心理条件が成立するタイミングとロボット100
Bの心理条件が成立するタイミングが異なるため、ロボット100Aとロボット100B
は異なる反応レポートを生成するかもしれない。たとえば、ロボット100Aはイベント
(E1)を反応レポートに記録するが、ロボット100Bはイベント(E1)を反応レポ
ートに記録しないかもしれない。ユーザは、ロボット100Aとロボット100Bそれぞ
れの反応レポートを参照することにより、ロボット100Aはイベント(E1)に心を動
かされたが、ロボット100Bはイベント(E1)に興味をもっていないことを認識でき
る。ユーザは、複数のロボット100からの反応レポートを見比べることにより、複数の
ロボット100それぞれの個性や感じ方を楽しむことができる。また、反応レポートによ
りロボット100の個性を感じる機会を提供することにより、複数のロボット100の育
成(関わり)をいっそう楽しむことができる。
Although the history information generated by each of the plurality of robots 100 having the same experience may be substantially the same, the timing at which the psychological condition of the robot 100A is established and the robot 100
Since the timing at which B's psychological condition is established is different, robot 100A and robot 100B
may generate different response reports. For example, robot 100A is an event
(E1) is recorded in the reaction report, but robot 100B may not record event (E1) in the reaction report. By referring to the reaction reports of robots 100A and 100B, the user can recognize that robot 100A was moved by event (E1), but robot 100B is not interested in event (E1). By comparing reaction reports from multiple robots 100, the user can enjoy the individuality and feeling of each of the multiple robots 100. FIG. In addition, by providing an opportunity to feel the individuality of the robot 100 through the reaction report, it is possible to enjoy raising (involvement with) a plurality of robots 100 even more.

図12は、第2反応レポート画面190の画面図である。
反応レポートには、心理条件が成立したときにロボット100が選択したモーションを
表示させることもできる。図12の第2反応レポート画面190は、イベントとモーショ
ンを対応づけた反応レポートを示す。
FIG. 12 is a screen diagram of the second reaction report screen 190. As shown in FIG.
The reaction report can also display the motion selected by the robot 100 when the psychological condition is satisfied. A second reaction report screen 190 in FIG. 12 shows a reaction report in which events and motions are associated with each other.

モーションIDにはモーションアイコン192が対応づけられる。モーションアイコン192は、ロボット100のモーションを再現するアニメーションとして形成されてもよ
い。履歴管理部252は、心理条件の成立時に選択されたモーションを特定する。アイコ
ン選択部254は、特定されたモーションに応じたモーションアイコン192を選択する
。「心理条件の成立時に選択されたモーション」とは、心理条件の成立後、最初に選択さ
れたモーションであってもよいし、心理条件の成立時点を基準とした所定期間に選択され
たモーションであってもよい。たとえば、心理条件が時刻t1に成立したとき、時刻(t
1+0.5秒)から時刻(t1+7.5秒)の7秒間の間に選択されたモーションを反応
レポートに登録してもよい。
A motion icon 192 is associated with the motion ID. Motion icon 192 may be formed as an animation that reproduces the motion of robot 100 . The history management unit 252 identifies the motion selected when the psychological condition is satisfied. Icon selection unit 254 selects motion icon 192 corresponding to the specified motion. The ``motion selected when the psychological condition is satisfied'' may be the first motion selected after the psychological condition is satisfied, or a motion selected during a predetermined period based on the time when the psychological condition is satisfied. There may be. For example, when the psychological condition is satisfied at time t1, time (t
1 + 0.5 seconds) to the time (t1 + 7.5 seconds) for 7 seconds may be registered in the reaction report.

図12の第2反応レポート画面190においては、心理条件が成立したときのロボット
100の「行動」を表すモーションアイコン192aが表示され、心理条件が成立したと
きのイベントに対応するイベントアイコン182aも表示されている。イベントアイコン
182aは、ロボット100がオーナーに出会ったイベントに対応する。モーションアイ
コン192aは、ロボットの移動を表す。ユーザは、第2反応レポート画面190を参照
することにより、「ロボット100は、9:00にオーナーに出会って移動を開始した」
というロボット100の日常生活とそのときのロボット100の行動を確認できる。
In the second reaction report screen 190 of FIG. 12, the robot
A motion icon 192a representing 100 "actions" is displayed, and an event icon 182a corresponding to the event when the psychological condition is satisfied is also displayed. event icon
182a corresponds to the event that robot 100 encounters an owner. Motion icon 192a represents movement of the robot. By referring to the second reaction report screen 190, the user says, "The robot 100 met the owner at 9:00 and started moving."
The daily life of the robot 100 and the behavior of the robot 100 at that time can be confirmed.

ユーザは、ユーザ端末400を操作することにより、第1反応レポート画面180と第
2反応レポート画面190を切り替えることができる。ロボット100は、イベントとそ
のときの感情パラメータに応じてモーションを選択する。ロボットシステム300におい
ては、イベント、感情パラメータ(気持ち)およびモーション(行動)の3つが複雑に影
響しあうことでロボット100の行動が決定される。ロボット100の行動には予測不可
能性がある。ユーザは、第1反応レポート画面180および第2反応レポート画面190
を参照することにより、ロボット100の周りでどんなイベントが発生し、それによって
ロボット100がどんな気持ちになり、また、イベントの結果としてロボット100がど
んな行動を選択したのかを把握できる。図11の第1反応レポート画面180と図12の
第2反応レポート画面190によれば、ロボット100は、オーナーに出会って嬉しくて
、オーナーに近づいた、と推測できる。
The user operates user terminal 400 to display first reaction report screen 180 and second reaction report screen 180 .
The two reaction report screens 190 can be switched. The robot 100 selects a motion according to the event and emotional parameters at that time. In the robot system 300, the behavior of the robot 100 is determined by the complex influence of events, emotional parameters (feelings), and motions (actions). The behavior of the robot 100 is unpredictable. The user can view first reaction report screen 180 and second reaction report screen 190
By referring to , it is possible to grasp what kind of event occurred around the robot 100, how the robot 100 felt about it, and what action the robot 100 chose as a result of the event. From the first reaction report screen 180 in FIG. 11 and the second reaction report screen 190 in FIG. 12, it can be inferred that the robot 100 was happy to meet the owner and approached the owner.

図13は、ユーザ権限テーブル290のデータ構造図である。
ユーザ権限テーブル290は、サーバ200の個人データ格納部218に格納される。
本実施形態においては、反応レポートにより提供される情報量をユーザに応じて制御する
ため、ユーザごとに閲覧属性が設定される。本実施形態における閲覧属性は、ユーザが履
歴情報からどの程度の情報を引き出せるか、いいかえれば、閲覧権限レベルを示す。ユー
ザは、ユーザIDにより識別される。ユーザの身体的特徴とユーザIDがあらかじめ対応
づけられており、かつ、ユーザIDごとに閲覧属性があらかじめ設定されている。閲覧属
性A1はもっとも閲覧権限が強く、閲覧属性A4はもっとも閲覧権限が弱い。ユーザ(P
01:A1)に提供される反応レポートは、ユーザ(P04:A4)に提供される反応レ
ポートよりも情報豊富となる。
FIG. 13 is a data structure diagram of the user authority table 290. As shown in FIG.
User authority table 290 is stored in personal data storage unit 218 of server 200 .
In this embodiment, the viewing attribute is set for each user in order to control the amount of information provided by the reaction report according to the user. The viewing attribute in this embodiment indicates how much information the user can extract from the history information, in other words, the viewing authority level. A user is identified by a user ID. A user's physical characteristics and a user ID are associated in advance, and a browsing attribute is set in advance for each user ID. The browsing attribute A1 has the strongest browsing authority, and the browsing attribute A4 has the weakest browsing authority. User (P
01:A1) will be more informative than the reaction report provided to the user (P04:A4).

図14は、イベント条件テーブル292のデータ構造図である。
イベント条件テーブル292は、サーバ200のイベント条件格納部260に格納され
る。イベント条件テーブル292は、イベント条件ごとに、閲覧条件を定義する。イベン
ト条件は、主として、プライバシーに関わるイベントを判定するために定義される条件で
ある。怒声、泣き声など、ユーザの姿や声に関する条件、子供部屋、書斎などの場所に関
する条件、深夜や夕刻など時間に関する条件、怒った顔、泣いている顔、大笑いの顔など
視認したユーザの表情に関する条件、としてイベント条件は定義される。場所に関するイ
ベント条件は、リビングやキッチン、玄関などのオープンスペースで発生したイベントと
、子供部屋や書斎、寝室などのプライベートスペースで発生したイベントを分類してもよ
い。
FIG. 14 is a data structure diagram of the event condition table 292. As shown in FIG.
The event condition table 292 is stored in the event condition storage unit 260 of the server 200. FIG. The event condition table 292 defines viewing conditions for each event condition. Event conditions are conditions defined primarily for determining privacy-related events. Conditions related to the appearance and voice of the user, such as angry voices and cries; conditions related to places such as children's rooms and studies; conditions related to time such as late at night and evening; An event condition is defined as a condition. The event condition regarding location may be classified into events occurring in open spaces such as living rooms, kitchens, and entrances, and events occurring in private spaces such as children's rooms, studies, and bedrooms.

たとえば、あるイベントX1がイベント条件(C1)を成立させるとき、閲覧属性A1
以上のユーザを対象とした反応レポートにしかイベントX1は登録されない。このため、
ユーザ(P01:A1)はイベントX1を反応レポートで確認できるが、ユーザ(P02
:A2)はイベントX1を反応レポートで見ることはできない。たとえば、イベントX1
(ユーザを視認するイベント)が自分の部屋(書斎など)にいるユーザ(P06)を視認
したというイベント条件(C1)を満たすとき、ユーザ(P01:A1)はユーザ(P0
6)が自分の部屋にいたことを反応レポートで確認できるが、ユーザ(P02:A2)は
それを知ることはできない。ユーザの閲覧属性(閲覧権限レベル)に応じて、ユーザごと
に知らせてもよいイベントと知らせてはいけないイベントをコントロールすることにより
、プライバシー保護をいっそう強化している。
For example, when an event X1 satisfies the event condition (C1), browse attribute A1
Event X1 is registered only in reaction reports for the above users. For this reason,
User (P01:A1) can confirm event X1 in the reaction report, but user (P02
:A2) cannot see event X1 in the reaction report. For example event X1
When (the event of visually recognizing the user) satisfies the event condition (C1) that the user (P06) in his room (study, etc.) is visually recognizable, the user (P01:A1) becomes the user (P0
6) can be confirmed in the reaction report that he was in his room, but the user (P02:A2) cannot know it. Privacy protection is further strengthened by controlling events that can be notified and events that must not be notified for each user according to the browsing attribute (browsing authority level) of the user.

図15は、反応レポートの表示処理過程を示すシーケンス図である。
ユーザ端末400からサーバ200に対して反応レポート取得要求を送信する(S20
)。このとき、ユーザ端末400からは端末IDも送信される。履歴管理部252は、端
末IDに対応するユーザIDを特定する。履歴管理部252は、ユーザ権限テーブル29
0を参照し、ユーザの閲覧属性をチェックする(S22)。閲覧属性に基づいて、反応レ
ポートに表示可能なイベントが絞り込まれる。次に、履歴管理部252は、履歴情報を参
照し、心理条件の成立時点をチェックする(S24)。履歴管理部252は、心理条件が
成立したときのイベント、感情パラメータ、モーション等から反応レポートを生成する(
S26)。アイコン選択部254は、適宜、アイコンを選択する。反応レポートは、アイ
コンを含むウェブページとして形成される。通信部204は、図11、図12等に示した
反応レポートをユーザ端末400に送信する(S28)。ユーザ端末400は、反応レポ
ートを画面表示させる(S30)。
FIG. 15 is a sequence diagram showing the reaction report display processing process.
A reaction report acquisition request is transmitted from the user terminal 400 to the server 200 (S20
). At this time, the user terminal 400 also transmits a terminal ID. History management unit 252 identifies the user ID corresponding to the terminal ID. The history management unit 252 uses the user authority table 29
0 to check the browsing attribute of the user (S22). Based on viewing attributes, the events that can be displayed in the reaction report are narrowed down. Next, the history management unit 252 refers to the history information and checks when the psychological condition is satisfied (S24). The history management unit 252 generates a reaction report from events, emotion parameters, motions, etc. when psychological conditions are established (
S26). Icon selection unit 254 selects an icon as appropriate. A response report is formed as a web page containing icons. The communication unit 204 transmits the reaction report shown in FIGS. 11, 12, etc. to the user terminal 400 (S28). The user terminal 400 displays the reaction report on the screen (S30).

<詳細情報の表示>
図16は、詳細表示の処理過程を示すシーケンス図である。
履歴管理部252は、イベントの発生時において詳細情報を取得する。詳細情報は、撮
像画像(静止画像)、ショートムービー、テキスト、音声情報、サーモセンサによる温度
分布情報など、イベントの内容や状況を示す情報であればよい。少なくとも、詳細情報は
アイコン以外の情報を提供するものであればよい。たとえば、サーバ200の認識部21
2は、ユーザ(P01)を検出するというイベントX2を認識したとき、そのときの撮像
画像Y2を保存する。ロボット100は、撮像画像をサーバ200に随時送信する。履歴
管理部252は、イベントX2と撮像画像Y2を対応づけて保存する。この撮像画像Y2
がイベントX2についての「詳細情報」となる。ユーザ(P01)を検出した時点を含む
所定期間、たとえば、5秒間程度のショートムービーを詳細画像として保存してもよい。
あるいは、認識部212は「ユーザ(P01)を玄関で発見した」というテキスト情報を
生成してもよい。そして、履歴管理部252は、テキスト情報を詳細情報として保存して
もよい。
<Display detailed information>
FIG. 16 is a sequence diagram showing the detailed display process.
The history management unit 252 acquires detailed information when an event occurs. The detailed information may be any information indicating the content and situation of the event, such as captured images (still images), short movies, texts, audio information, and temperature distribution information obtained by a thermosensor. At least, the detailed information should provide information other than the icon. For example, the recognition unit 21 of the server 200
2 saves the captured image Y2 at that time when the event X2 of detecting the user (P01) is recognized. The robot 100 transmits captured images to the server 200 at any time. The history management unit 252 associates the event X2 with the captured image Y2 and saves them. This captured image Y2
is "detailed information" about event X2. A short movie of about 5 seconds, for example, may be saved as a detailed image for a predetermined period including the time when the user (P01) is detected.
Alternatively, the recognition unit 212 may generate text information "I found the user (P01) at the entrance". Then, the history management unit 252 may save the text information as detailed information.

履歴管理部252は、反応レポートを生成するとき、イベントと、反応レポートに追加
したイベントアイコン182のアイコンIDを対応づけて保存しておく。アイコンIDは
イベントアイコン182を一意に識別する番号である。ユーザがユーザ端末400におい
ていずれかのイベントアイコン182をタップすると、ユーザ端末400はイベントアイ
コン182に対応するアイコンIDをサーバ200に送信する(S40)。履歴管理部2
52は、アイコンIDに対応づけられるイベントを特定し、このイベントに対応づけられ
る詳細情報を特定する(S42)。
When generating a reaction report, the history management unit 252 associates the event with the icon ID of the event icon 182 added to the reaction report and saves them. Icon ID is a number that uniquely identifies the event icon 182 . When the user taps one of the event icons 182 on the user terminal 400, the user terminal 400 transmits the icon ID corresponding to the event icon 182 to the server 200 (S40). History management part 2
52 identifies an event associated with the icon ID and identifies detailed information associated with this event (S42).

感情管理部250は、通信部204を介して詳細情報をユーザ端末400に送信する(
S44)。ユーザ端末400は詳細情報を表示する(S46)。
Emotion management unit 250 transmits detailed information to user terminal 400 via communication unit 204 (
S44). The user terminal 400 displays detailed information (S46).

図17は、詳細情報画面402の画面図である。
ユーザ端末400は、イベントアイコン182がタップされたとき、サーバ200から
詳細情報を受信する。ユーザ端末400は、このとき反応レポートの上に詳細ウィンドウ
404を表示させる。詳細ウィンドウ404に詳細情報が表示される。詳細情報は、静止
画または動画であってもよいし、テキスト情報であってもよい。また、静止画とテキスト
情報を同時に表示してもよい。
FIG. 17 is a screen diagram of the detailed information screen 402. As shown in FIG.
User terminal 400 receives detailed information from server 200 when event icon 182 is tapped. The user terminal 400 displays the detail window above the reaction report at this time.
Display a 404. Detailed information is displayed in the detail window 404 . The detailed information may be still images, moving images, or text information. Also, a still image and text information may be displayed at the same time.

詳細情報についても閲覧権限を設定してもよい。たとえば、イベント条件(C2)を成
立させるイベントX3は、閲覧属性A2以上のユーザを対象とした反応レポートにおいて
イベントアイコン182は表示されるが、詳細情報を見るためには閲覧属性A1以上が必
要であるとしてもよい。あるいは、イベント条件(C4)を成立させるイベントX4を反
応レポートで視認するためには閲覧属性A2以上が必要であるが、このようなイベントX
4については詳細情報の表示を禁止するとしてもよい。詳細情報はイベントの発生状況を
具体的に示す生データであるため、プライバシーに関わる可能性がある。したがって、詳
細情報の表示可否は、イベントアイコン182以上に厳しく管理すべきと考えられる。
Viewing authority may be set for detailed information as well. For example, for event X3 that satisfies the event condition (C2), the event icon 182 is displayed in the reaction report for users with browsing attribute A2 or higher, but viewing attribute A1 or higher is required to view detailed information. There may be. Alternatively, viewing attribute A2 or higher is required to view event X4 that satisfies the event condition (C4) in the reaction report.
For 4, display of detailed information may be prohibited. Because detailed information is raw data that specifically shows how an event occurred, it may involve privacy. Therefore, whether or not to display detailed information should be managed more strictly than the event icon 182 .

詳細情報は、音声を含まない動画であってもよいし、一部を不鮮明化した静止画であっ
てもよい。また、履歴管理部252は、静止画を既知の画像変換方法により画像の質感を
変化させ、絵画風の画像やピンぼけの画像として詳細情報をユーザ端末400に提供して
もよい。履歴管理部252は、閲覧権限の強いユーザに対しては生データに近い詳細情報
を提供し、閲覧権限の弱いユーザほど加工度が高い詳細情報を提供してもよい。
The detailed information may be a moving image without sound, or a partially blurred still image. Further, the history management unit 252 may change the texture of the still image by a known image conversion method and provide detailed information to the user terminal 400 as a painterly image or a blurred image. The history management unit 252 may provide detailed information close to raw data to a user with strong browsing authority, and provide detailed information with a higher degree of processing for users with weaker browsing authority.

<雰囲気の表示>
図18は、第3反応レポート画面410の画面図である。
イベント、感情、モーションのほかにも、履歴管理部252は、反応レポートに雰囲気
タイプ(雰囲気情報)を記録できる。雰囲気判定部256は、ロボット100の外部環境
を複数種類の雰囲気タイプに分類する。具体的には「楽しい」「賑やか」「静か」「暗い
」「ピリピリ」などである。雰囲気タイプに応じて、アイコン選択部254は雰囲気アイ
コン194を選択する。履歴管理部252は、心理条件が成立したときの雰囲気タイプに
対応する雰囲気アイコン194(画像)を反応レポートに記録する。
<Atmosphere display>
FIG. 18 is a screen diagram of the third reaction report screen 410. As shown in FIG.
In addition to events, emotions, and motions, the history manager 252 can record atmosphere types (ambience information) in reaction reports. The atmosphere determination unit 256 classifies the external environment of the robot 100 into a plurality of atmosphere types. Specifically, they are "pleasant", "lively", "quiet", "dark", and "tense". The icon selection unit 254 selects the atmosphere icon 194 according to the atmosphere type. The history management unit 252 records the atmosphere icon 194 (image) corresponding to the atmosphere type when the psychological condition is established in the reaction report.

雰囲気判定部256は、ロボット100から得られた外部情報に基づいて雰囲気タイプ
を判定する。ロボット100は、内部センサ128により、画像、音声、匂い、接触に関
する情報を取得し、これらをサーバ200に送信する。雰囲気判定部256は、雰囲気条
件に基づいて雰囲気タイプを判定する。具体的には、音圧、笑顔の検出可否、大笑い、タ
ッチ回数、ロボット100の周辺に存在するユーザ数等に基づいて雰囲気条件の成否を判
定する。たとえば、所定期間において複数の声と複数の笑顔を検出したときには、「賑や
か」に関する雰囲気条件が成立し、雰囲気判定部256は雰囲気タイプが「賑やか」であ
ると判定する。また、所定期間において怒声を検出したときには雰囲気判定部256は雰
囲気タイプを「ピリピリ」と判定する。
The atmosphere determination unit 256 determines the atmosphere type based on external information obtained from the robot 100 . The robot 100 acquires information on images, sounds, smells, and contact by the internal sensor 128 and transmits these to the server 200 . The atmosphere determination unit 256 determines the atmosphere type based on the atmosphere conditions. Specifically, the success or failure of the atmosphere condition is determined based on the sound pressure, whether or not a smile can be detected, laughter, the number of touches, the number of users present around the robot 100, and the like. For example, when a plurality of voices and a plurality of smiles are detected in a predetermined period, the atmosphere condition regarding "lively" is established, and the atmosphere determination unit 256 determines that the atmosphere type is "lively." Further, when an angry voice is detected in a predetermined period, the atmosphere determination unit 256 determines the atmosphere type as "tingly".

図18の第3反応レポート画面410においては、心理条件が成立したときの「雰囲気
タイプ」を表す雰囲気アイコン194が表示され、このときのロボット100の感情に対
応する感情アイコン184も表示されている。ユーザは、第3反応レポート画面410を
参照することにより、ロボット100の周辺における雰囲気とそのときのロボット100
の気持ちを確認できる。たとえば、ユーザは、ロボットが賑やかな環境で過ごしたのか、
静かな一日を過ごしたのかを第3反応レポート画面410により知ることができる。雰囲
気タイプについても、イベントと同様、閲覧属性が設定されてもよい。
In the third reaction report screen 410 of FIG. 18, an atmosphere icon 194 representing the "atmosphere type" when the psychological condition is satisfied is displayed, and an emotion icon 184 corresponding to the emotion of the robot 100 at this time is also displayed. . By referring to third reaction report screen 410, the user can see the atmosphere around robot 100 and robot 100 at that time.
can confirm the feelings of For example, the user may ask whether the robot spent time in a busy environment,
The third reaction report screen 410 lets you know whether you spent a quiet day. A viewing attribute may be set for the atmosphere type as well as for the event.

なお、本実施形態においては、サーバ200が雰囲気判定部256を搭載するとして説
明するが、ロボット100が雰囲気判定部256による雰囲気判定機能を備えてもよい。
この場合には、ロボット100の雰囲気判定部256が雰囲気タイプ(雰囲気情報)をサ
ーバ200に通知し、アイコン選択部254が雰囲気タイプに対応する雰囲気アイコン1
94を選択し、履歴管理部252が雰囲気アイコン194を付与した反応レポートを生成
すればよい。
In this embodiment, the server 200 is described as having the atmosphere determining unit 256 installed therein, but the robot 100 may have the atmosphere determining function by the atmosphere determining unit 256. FIG.
In this case, atmosphere determination unit 256 of robot 100 notifies server 200 of the atmosphere type (ambience information), and icon selection unit 254 selects atmosphere icon 1 corresponding to the atmosphere type.
94 is selected, and the history management unit 252 generates a reaction report to which the atmosphere icon 194 is attached.

<休息時間の設定>
図19は、休息時間設定画面420の画面図である。
ユーザは、ユーザ端末400において反応レポートを確認するだけでなく、ユーザ端末
400からロボットシステム300に対して指示を出すこともできる。本実施形態におい
ては、ユーザは、ユーザ端末400において、ロボット100の休息時間(睡眠時間)を
設定できる。図19の休息時間設定画面420においては、23:00~5:00が休息
時間として設定されている。ユーザ端末400は、休息時間の指定情報をサーバ200に
送信する。サーバ200の動作制御部222は、休息時間においてはロボット100を充
電ステーション(図示せず)に待機させる。
<Rest time setting>
FIG. 19 is a screen diagram of a rest time setting screen 420. As shown in FIG.
The user not only confirms the response report on the user terminal 400, but also
Instructions can also be issued from 400 to the robot system 300 . In this embodiment, the user can set the rest time (sleep time) of the robot 100 on the user terminal 400 . On the rest time setting screen 420 of FIG. 19, 23:00 to 5:00 is set as the rest time. The user terminal 400 transmits rest time designation information to the server 200 . Operation control unit 222 of server 200 causes robot 100 to wait at a charging station (not shown) during the rest period.

休息時間は、連続1時間以上、10分単位にて設定できる。ユーザは、ロボット100
に夜中に動き回って欲しくないこともある。また、ユーザは、自身の体調が悪いときにも
ロボット100に動き回って欲しくないと考えられる。ユーザ端末400により休息時間
を設定することにより、ロボット100がユーザの生活を乱すのを防ぐことができる。
Rest time can be set for 1 hour or longer in 10 minute increments. The user is a robot 100
Sometimes you don't want to move around in the middle of the night. Moreover, it is considered that the user does not want the robot 100 to move around even when the user is in poor physical condition. By setting the rest time using the user terminal 400, it is possible to prevent the robot 100 from disturbing the user's life.

<総括>
以上、実施形態に基づいてロボットシステム300を説明した。
本実施形態によれば、ユーザはロボット100のそばにいないときでも、ロボット10
0の日常生活をユーザ端末400により確認できる。ユーザは、ロボット100がどんな
体験をし、どんな気持ちになり、どんな行動をしたのかを絵日記のような反応レポートに
よって知ることができる。
<Summary>
The robot system 300 has been described above based on the embodiment.
According to this embodiment, even when the user is not near the robot 100, the robot 10
0's daily life can be confirmed by the user terminal 400. FIG. The user can know what kind of experience the robot 100 had, what kind of feeling, and what kind of action it took by a reaction report like a picture diary.

心理条件が成立したとき、いいかえれば、ロボット100の気持ちの変化があったとき
のイベント等に絞って反応レポートを生成するため、反応レポートの情報量を効果的に抑
制できるだけでなく、ロボット100の気持ち(感性)を重視した日記のような反応レポ
ートをつくることができる。反応レポートとして提供すべき情報を絞ることは、反応レポ
ートの視認性を高めるだけでなく、ロボット100のそばにいるユーザのプライバシー保
護にも資する。
When the psychological condition is satisfied, in other words, when the robot 100 changes its mind, the reaction report is generated by focusing on the event. You can create a reaction report like a diary that emphasizes feelings (sensitivity). Narrowing down the information to be provided as a reaction report not only enhances the visibility of the reaction report, but also helps protect the privacy of users near the robot 100 .

ユーザは、反応レポートを参照することにより、ロボット100がどんな気持ちで過ご
したのか、どんな気持ちでいるのかを知ることができる。たとえば、ロボット100が寂
しい一日を過ごしているときにはユーザは早めに帰宅してロボット100に会いたくなる
かもしれない。また、父親が外出し、母親と子どもたちが家庭でロボット100と過ごし
ているときでも、父親は反応レポートによりロボット100の活動概要を把握できるため
、帰宅後もロボット100との生活を話題にしやすくなると考えられる。また、遠く離れ
て暮らすおじいさんやおばあさんの様子を、ユーザは反応レポートを通して知ることがで
きる(詳細後述)。
By referring to the reaction report, the user can know how the robot 100 was feeling and how he or she is feeling. For example, the user may want to go home early to see robot 100 when robot 100 is having a lonely day. In addition, even when the father is out and the mother and children are at home with the robot 100, the father can grasp the outline of the activity of the robot 100 from the reaction report, so it is easy to talk about life with the robot 100 even after returning home. It is considered to be. In addition, the user can know the state of the grandfather and grandmother who live far away through the reaction report (details will be described later).

反応レポートは、イベント等を直接表示するのではなく、各種のアイコンによってロボ
ット100の日常生活を戯画的に表現する。美しく、可愛らしいアイコンにより、ユーザ
は反応レポートを絵日記のように楽しむことができる。アイコン表示は、反応レポートを
わかりやすくするだけでなく、反応レポートの見た目の美しさを高め、プライバシーの保
護にも資する。
The reaction report does not directly display an event or the like, but expresses the daily life of the robot 100 in a caricature manner using various icons. With beautiful and cute icons, the user can enjoy the reaction report like a picture diary. Icon display not only makes the reaction report easier to understand, but also enhances the appearance of the reaction report and contributes to the protection of privacy.

更に、閲覧属性により、ユーザに応じて提供可能な情報を細かくコントロールできる。
たとえば、父母は家庭内のイベントの多くを確認できるが、祖父母は家庭内のイベントの
一部しか確認できないとしてもよい。履歴管理部252は、未登録のユーザ端末400か
らの反応レポート取得要求を拒否してもよい。
In addition, viewing attributes can be used to finely control the information that can be provided according to the user.
For example, parents may be able to see many of the events in the home, but grandparents may only be able to see some of the events in the home. The history management unit 252 may reject a reaction report acquisition request from an unregistered user terminal 400. FIG.

ユーザは、詳細情報を確認することにより、ロボット100のそばにいなくても、ロボ
ット100の周りの出来事を外出先から確認できる。たとえば、ロボット100に「嬉し
いイベント」があったときには、嬉しいイベントの詳細情報を表示することにより、外出
先のユーザも、ロボット100のそばにいるユーザと「嬉しいイベント」を簡単に共有で
きる。現在、SNS(Social Networking Service)などで静止画や動画などを親しい人
に送信することは一般的に行われているが、本実施形態によれば、ロボット100を通し
て伝えたい詳細情報を伝えたい人に伝えることが可能となる。
By checking the detailed information, the user can check events around the robot 100 from outside without being near the robot 100 . For example, when the robot 100 has a "happy event", by displaying the detailed information of the happy event, even a user on the go can easily share the "happy event" with a user near the robot 100.例文帳に追加Currently, it is common practice to send still images and moving images to close friends via SNS (Social Networking Service). can be communicated to

また、反応レポートには、ロボット100の周辺の雰囲気を雰囲気アイコン194によ
り表現できる。外出中のユーザは、反応レポートを介して家庭の雰囲気を知ることができ
る。外出中のユーザは、家庭の雰囲気が楽しそうであれば家に帰りたくなるかもしれない
。仕事中の父親は、スマートフォン(ユーザ端末400)で反応レポートを確認すること
により、家庭内の詳しい様子はわからなくても「楽しそう」な家庭の雰囲気を知ることが
できれば安心して仕事ができると考えられる。あるいは、父親は、家に帰ったときに、ど
んな楽しいことがあったのかを家族に尋ねてもよい。家にいなくても「楽しい」という情
報を共有できるため、父親と家庭を緩やかにつなぐツールになると考えられる。
Also, in the reaction report, the atmosphere around the robot 100 can be represented by the atmosphere icon 194. FIG. A user who is out can know the atmosphere at home through the reaction report. A user on the go may be tempted to go home if the home atmosphere seems pleasant. The father at work can work with peace of mind by checking the reaction report on the smartphone (user terminal 400), even if he does not know the details of the home, if he can know the "fun" atmosphere of the home. Conceivable. Alternatively, the father may ask the family what they had fun with when they got home. Since it is possible to share "fun" information even when you are not at home, it is thought to be a tool that loosely connects fathers and families.

ユーザは、ユーザ端末400によりロボット100の休息時間を設定できる。休息時間
の設定により、たとえば、早朝からロボット100が動き回ることでユーザの睡眠を乱さ
れるのを防ぐことができる。あるいは、明日は早起きをしなければならないので早朝から
ロボット100が動くことで起こして欲しい場合もある。ロボット100の休息時間をユ
ーザ端末400から設定することは単純ではあるが、ユーザの生活パターンとロボット1
00の生活パターンを協調させる上で、いいかえれば、ユーザとロボット100の共生を
実現する上で非常に有効な手段になると考えられる。
A user can set a rest time for the robot 100 using the user terminal 400 . By setting the rest time, for example, it is possible to prevent the user's sleep from being disturbed by the robot 100 moving around early in the morning. Alternatively, since the user has to wake up early tomorrow, the user may want the robot 100 to move early in the morning. Although it is simple to set the rest time of the robot 100 from the user terminal 400, the user's life pattern and the robot 1
In terms of coordinating 00's life patterns, in other words, it is considered to be a very effective means for realizing symbiosis between the user and the robot 100.

従来、感情パラメータにより行動選択するロボットは知られている。一般的には、ロボ
ットに感情パラメータを設定するのは、ロボットが自らの感情にしたがって動いているか
のような生物的な行動表現を実現するためであると考えられる。感情パラメータはユーザ
からは見えない内部的なパラメータとして扱われることが多いのではないかと考えられる
。これに対して、本実施形態においては、ユーザがロボット100の感情を反応レポート
によって知ることができる。ユーザは、ロボット100がどんな気持ちで日常を過ごして
いるかを知ることにより、ロボット100の気持ちを慮るようになると考えられる。ロボ
ット100とユーザがお互いを慮ることにより、ロボット100とユーザの心理的交流を
いっそう深めることができる。
Conventionally, robots that select actions based on emotional parameters are known. In general, it is thought that setting emotion parameters in a robot is to realize a biological action expression as if the robot were moving according to its own emotions. It is conceivable that emotion parameters are often treated as internal parameters invisible to the user. In contrast, in this embodiment, the user can know the emotion of the robot 100 from the reaction report. By knowing how the robot 100 feels in its daily life, the user is expected to consider the feelings of the robot 100 . By considering each other between the robot 100 and the user, the psychological interaction between the robot 100 and the user can be further deepened.

なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範
囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されてい
る複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上
記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。
It should be noted that the present invention is not limited to the above-described embodiments and modifications, and can be embodied by modifying constituent elements without departing from the scope of the invention. Various inventions may be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments and modifications. Also, some components may be deleted from all the components shown in the above embodiments and modifications.

1つのロボット100と1つのサーバ200、複数の外部センサ114によりロボット
システム300が構成されるとして説明したが、ロボット100の機能の一部はサーバ2
00により実現されてもよいし、サーバ200の機能の一部または全部がロボット100
に割り当てられてもよい。1つのサーバ200が複数のロボット100をコントロールし
てもよいし、複数のサーバ200が協働して1以上のロボット100をコントロールして
もよい。
Although the robot system 300 has been described as being composed of one robot 100, one server 200, and a plurality of external sensors 114, part of the functions of the robot 100 are implemented by the server 200.
00, and some or all of the functions of the server 200 may be implemented by the robot 100.
may be assigned to One server 200 may control multiple robots 100 , or multiple servers 200 may cooperate to control one or more robots 100 .

ロボット100やサーバ200以外の第3の装置が、機能の一部を担ってもよい。図7
において説明したロボット100の各機能とサーバ200の各機能の集合体は大局的には
1つの「ロボット」として把握することも可能である。1つまたは複数のハードウェアに
対して、本発明を実現するために必要な複数の機能をどのように配分するかは、各ハード
ウェアの処理能力やロボットシステム300に求められる仕様等に鑑みて決定されればよ
い。
A third device other than the robot 100 and the server 200 may take part of the functions. Figure 7
In general, the aggregate of each function of the robot 100 and each function of the server 200 described in
It is also possible to grasp it as one "robot". How to distribute a plurality of functions necessary for realizing the present invention to one or more pieces of hardware is determined in consideration of the processing capability of each piece of hardware and the specifications required for the robot system 300. It should be decided.

上述したように、「狭義におけるロボット」とはサーバ200を含まないロボット10
0のことであるが、「広義におけるロボット」はロボットシステム300のことである。
サーバ200の機能の多くは、将来的にはロボット100に統合されていく可能性も考え
られる。
As described above, the “robot in the narrow sense” is the robot 10 that does not include the server 200.
0, but the “robot in a broad sense” is the robot system 300.
It is conceivable that most of the functions of the server 200 will be integrated into the robot 100 in the future.

[変形例]
<反応レポートの拒否>
履歴管理部252は、ロボット100の近くに存在するユーザ端末400からの反応レ
ポート取得要求を拒否してもよい。たとえば、履歴管理部252は、ロボット100の撮
像部158がユーザ(P01)を視認しているときには、ユーザ(P01)が有するユー
ザ端末400からの反応レポート取得要求を拒否してもよい。具体的には、認識部212
が撮像画像からユーザ(P01)を認識したとき、履歴管理部252はユーザ(P01)
に対応づけられる端末IDを特定し、この端末IDを有するユーザ端末400からの反応
レポート取得要求を拒否する。このような制御を実行するのは、ユーザ(P01)がロボ
ット100と関わりつつユーザ端末400で反応レポートの変化を確認するのを防ぐため
である。もし、ユーザ(P01)が、ロボット100を叩いたり、抱っこしたりといった
行為を行いつつ、そのときのロボット100の感情の変化をリアルタイムで確認できると
したら、ロボット100は実験動物として扱われることになってしまう。このようなロボ
ット100の実験動物的な扱いを防ぐため、履歴管理部252はロボット100の視認可
能範囲にいないユーザ、いいかえれば、ロボット100に直接的な影響を及ぼすことがで
きないほど離れているユーザに限り、反応レポートを提供するとしてもよい。
[Variation]
<reject response report>
The history management unit 252 may reject the reaction report acquisition request from the user terminal 400 existing near the robot 100 . For example, the history management unit 252 may reject the reaction report acquisition request from the user terminal 400 owned by the user (P01) when the imaging unit 158 of the robot 100 is visually recognizing the user (P01). Specifically, the recognition unit 212
recognizes the user (P01) from the captured image, the history management unit 252 recognizes the user (P01)
, and rejects the response report acquisition request from the user terminal 400 having this terminal ID. The reason why such control is executed is to prevent the user (P01) from checking the change of the reaction report on the user terminal 400 while interacting with the robot 100. FIG. If the user (P01) could perform an action such as hitting or hugging the robot 100 and could confirm the change in the emotion of the robot 100 at that time in real time, the robot 100 would be treated as an experimental animal. turn into. In order to prevent the robot 100 from being treated like an experimental animal, the history management unit 252 allows users who are not within the visible range of the robot 100, in other words, users who are far enough away from the robot 100 to directly affect it. A response report may be provided only for

ユーザ端末400(P01)の所有者であるユーザ(P01)が、ユーザ端末400(
P01)ではなく別のユーザ端末400(P02)により反応レポートを取得することも
考えられる。この場合、ロボット100は、ユーザ端末400(P02)の真の所有者で
あるユーザ(P02)が近くにいなければ、ユーザ端末400(P02)に反応レポート
を送信してしまい、近くにいるユーザ(P01)にその反応レポートを見られてしまう可
能性も考えられる。
The user (P01) who is the owner of the user terminal 400 (P01) uses the user terminal 400 (
It is also conceivable to obtain the reaction report by another user terminal 400 (P02) instead of P01). In this case, if the user (P02) who is the true owner of the user terminal 400 (P02) is not nearby, the robot 100 will transmit the reaction report to the user terminal 400 (P02), and the user who is nearby will There is a possibility that the reaction report will be seen in (P01).

このような抜け道への対策として、まず、ユーザ端末400(P02)に内蔵されるア
プリケーションソフトウェアは、反応レポートの取得に際してカメラ機能によりユーザ(
P01)を撮影し、反応レポート取得要求に際してそのときの撮影画像Q1をサーバ20
0に送信すればよい。上記例の場合、この撮影画像Q1にはユーザ(P01)の顔画像が
含まれる。
As a countermeasure against such loopholes, first, the application software built into the user terminal 400 (P02) uses the camera function to obtain the reaction report from the user (
P01) is captured, and the captured image Q1 at that time is sent to the server 20 in response to the response report acquisition request.
0 should be sent. In the case of the above example, this captured image Q1 includes the face image of the user (P01).

サーバ200が反応レポート取得要求を受信したとき、履歴管理部252はロボット1
00からも撮影画像Q2を取得する。上記例の場合、この撮影画像Q2にもユーザ(P0
1)の顔画像が含まれる。認識部212は、撮影画像Q1(ユーザ端末400)に含まれ
る顔画像と同一人物の顔画像が撮影画像Q2(ロボット100)にも含まれているか否か
を判定する。同一人物が写っているときには、ロボット100の近くにいるユーザから反
応レポートが要求されていることになるので、履歴管理部252はユーザ端末400(P
02)への反応レポートの提供を拒否する。同一人物が写っていないことを条件として、
履歴管理部252は反応レポートを提供すればよい。このような制御方法によれば、ロボ
ット100の近くに存在するユーザ端末400からの反応レポート取得要求をいっそう確
実に拒否できる。
When the server 200 receives the reaction report acquisition request, the history management unit 252
00 also acquires the captured image Q2. In the above example, the user (P0
The face image of 1) is included. The recognition unit 212 determines whether the face image of the same person as that included in the captured image Q1 (user terminal 400) is also included in the captured image Q2 (robot 100). When the same person is photographed, it means that a reaction report has been requested by a user near the robot 100, so the history management unit 252 sends the user terminal 400
02) refuses to provide response reports. Provided that the same person is not photographed,
History management unit 252 may provide a reaction report. According to such a control method, the response report acquisition request from the user terminal 400 existing near the robot 100 can be more reliably rejected.

このほか、サーバ200は、測距部(図示せず)を搭載し、ユーザ端末400との距離
を赤外線通信等の既知の方法により計測してもよい。履歴管理部252は、所定距離以内
のユーザ端末400からの反応レポート取得要求を拒否するとしてもよい。あるいは、サ
ーバ200は、ロボット100の位置座標と、ユーザ端末400の位置座標をGPS(Gl
obal Positioning System)等の既知の手段により検出してもよい。ロボット100がユ
ーザ端末400から所定距離以上離れていることを条件として、このユーザ端末400か
らの反応レポート取得要求に対応するとしてもよい。
In addition, the server 200 may be equipped with a distance measuring unit (not shown) and measure the distance to the user terminal 400 by a known method such as infrared communication. The history management unit 252 may reject reaction report acquisition requests from user terminals 400 within a predetermined distance. Alternatively, the server 200 stores the position coordinates of the robot 100 and the position coordinates of the user terminal 400 using GPS (Gl
It may be detected by known means such as obal positioning system). The response report acquisition request from the user terminal 400 may be responded to on the condition that the robot 100 is away from the user terminal 400 by a predetermined distance or more.

ロボット100がユーザ(P01)を視認しているときに、ユーザ(P01)のユーザ
端末400から反応レポート取得要求を受信したときには、ロボット100がユーザ(P
01)を最初に視認した時点を基準とした所定期間、たとえば、最初に視認した時点から
1分間のみを対象とした反応レポートを提供するとしてもよい。このような制御方法によ
り、ユーザ(P01)がロボット100と関わりつつ、関わり方によるロボット100の
感情変化を反応レポートで確認する機会を制限してもよい。
When the robot 100 receives a reaction report acquisition request from the user terminal 400 of the user (P01) while the robot 100 is visually recognizing the user (P01), the robot 100 receives the user (P01).
01) for a predetermined period based on the time of first viewing, for example, from the time of first viewing
You may provide response reports for only one minute. With such a control method, while the user (P01) is interacting with the robot 100, it is possible to limit the chances of confirming the emotional change of the robot 100 depending on how the robot 100 interacts with the reaction report.

逆に、家にいるユーザ、ロボット100の近くにいるユーザにしか反応レポートを見せ
ないとしてもよい。このような制御方法によれば、遠隔地にいるユーザに反応レポートを
見られるのを防ぐことができる。家庭内にいるユーザは、ロボット100またはサーバ2
00を操作して、遠隔からの反応レポート取得要求を拒否するように設定してもよい。
Conversely, the reaction report may be shown only to users at home or near the robot 100 . According to such a control method, it is possible to prevent the reaction report from being viewed by a user at a remote location. Users at home can use robot 100 or server 2
00 may be manipulated to reject remote response report acquisition requests.

ユーザ(P05)から反応レポート取得要求を受信したとき、サーバ200の権限確認
部(図示せず)は閲覧許可権限をあらかじめ設定された管理ユーザ(P07)に対して、
反応レポートの提供可否を確認してもよい。権限確認部は、管理ユーザ(P07)のユー
ザ端末400に対して、ユーザ(P05)に関する情報(ユーザID、名前、所属など)
を送信する。権限確認部が管理ユーザ(P07)から許可指示を受信したことを条件とし
て、履歴管理部252はユーザ(P05)に反応レポートを送信するとしてもよい。
When receiving the reaction report acquisition request from the user (P05), the authority confirmation unit (not shown) of the server 200 gives the administrative user (P07), whose viewing permission authority has been set in advance,
You may check whether the response report can be provided. The authority confirmation unit sends information (user ID, name, affiliation, etc.) about the user (P05) to the user terminal 400 of the administrative user (P07).
to send. The history management unit 252 may transmit the reaction report to the user (P05) on the condition that the authority confirmation unit has received an authorization instruction from the administrative user (P07).

反応レポートの提供可否だけでなく、反応レポートの対象となる期間を制限してもよい
。たとえば、ユーザ(P01)が反応レポート取得要求をサーバ200に送信したとする
。このとき、履歴管理部252はユーザ(P01)がロボット100のそばにいなかった
時間帯(不在期間)を対象期間とする反応レポートをユーザ(P01)に提供してもよい
。たとえば、ユーザ(P01)が時刻t6から時刻t7まではロボット100から離れた
場所にあり、時刻t8以降はロボット100のそばにいたとする。ユーザ(P01)がユ
ーザ端末400から時刻t8以降に反応レポート取得要求をサーバ200に送信したとき
には、履歴管理部252は時刻t7から時刻t8までの不在期間を対象期間とする反応レ
ポートをユーザ(P01)に提供するとしてもよい。一方、時刻t8以降を対象期間とす
る反応レポートは提供しない。このような制御方法によれば、外出先から帰宅したユーザ
であっても、自分がいないときの家庭の様子を振り返ることもできるし、自分がいないと
きのロボット100の生活を垣間見ることができるが、自分がロボット100のそばにい
るときの反応レポートは見ることができない。ユーザがロボット100から十分離れてい
るときには、履歴管理部252はこのユーザに対して現時点を含む反応レポート、すなわ
ち、リアルタイム性のある反応レポートを提供してもよい。
Not only whether or not a reaction report can be provided, but also the period covered by the reaction report may be limited. For example, assume that the user (P01) has sent a reaction report acquisition request to the server 200. FIG. At this time, the history management unit 252 may provide the user (P01) with a reaction report whose target period is a time zone (absence period) during which the user (P01) was not near the robot 100. FIG. For example, assume that the user (P01) is away from the robot 100 from time t6 to time t7, and is near the robot 100 after time t8. When the user (P01) transmits a reaction report acquisition request from the user terminal 400 to the server 200 after time t8, the history management unit 252 sends the reaction report to the user (P01) for the absence period from time t7 to time t8. ). On the other hand, no reaction report is provided for the target period after time t8. According to such a control method, even a user who has returned home from outside can look back on the state of the home when he/she is not there, and can get a glimpse of the life of the robot 100 when he/she is not there. , you cannot see the reaction report when you are near the robot 100. When the user is far enough away from the robot 100, the history manager 252 may provide the user with a reaction report including the current time, that is, a real-time reaction report.

履歴管理部252は、ロボット100が休息中(充電中)の期間を反応レポートの対象
外としてもよい。たとえば、ロボット100が時刻t9から時刻t10まで休息中である
場合、履歴管理部252は時刻t9から時刻t10までの時間帯を対象とした反応レポー
トは生成しないとしてもよい。ロボット100が休息中の生活についてレポートするのは
不合理であるだけでなく、休息中においては心理条件が成立しないため反応レポートによ
って有意義な情報を提供できないと考えられるためである。あるいは、ロボット100が
休息中であっても、休息前の反応レポートならサーバ200からユーザに提供可能である
としてもよい。
The history management unit 252 may exclude the period during which the robot 100 is resting (charging) from the target of the reaction report. For example, when robot 100 is resting from time t9 to time t10, history management unit 252 may not generate a reaction report for the time period from time t9 to time t10. This is because not only is it irrational for the robot 100 to report on its life while it is resting, but it is considered that meaningful information cannot be provided by a reaction report because psychological conditions are not established during rest. Alternatively, even if the robot 100 is resting, the server 200 may be able to provide the user with a reaction report before resting.

履歴管理部252は、反応レポートにおいて、ロボット100の感情をリアルタイムで
は表示しないとしてもよい。たとえば、ユーザが反応レポートを要求したときには、現在
時点から所定時間以上前、たとえば、10分以上前の感情に限って反応レポートにより情
報提供するとしてもよい。
The history management unit 252 may not display the emotion of the robot 100 in real time in the reaction report. For example, when the user requests a reaction report, information may be provided in the reaction report limited to emotions from a predetermined time or more ago, for example, 10 minutes or more before the current time.

<移動履歴の記録>
履歴管理部252は、時間とイベントに限らず、イベントの発生場所あるいはロボット
100の移動履歴を履歴情報および反応レポートに記録してもよい。また、位置管理部2
08は、ロボット100の移動に際し、撮像部158により得られた撮影画像に基づいて
地図を形成してもよい。履歴管理部252は、ロボット100の作成した地図を詳細情報
として提供してもよい。
<record movement history>
The history management unit 252 is not limited to the time and event, but the place where the event occurred or the robot
100 movement histories may be recorded in history information and reaction reports. In addition, the location management part 2
08 may form a map based on the captured image obtained by the imaging unit 158 when the robot 100 moves. The history management unit 252 may provide the map created by the robot 100 as detailed information.

<モードの記録>
モード選択部258は、ロボット100の動作モードを選択する。モード選択部258
は、ロボット100の単位時間あたりの活動量が所定値以上となったときには、ロボット
100の動作モードを通常モードから省電力モードに変更する。活動量は、単位時間あた
りの消費電力あるいはモーションの選択回数に応じて決定すればよい。省電力モードにお
いては、ロボット100が選択可能なモーションの種類が絞られる。あるいは、アクチュ
エータの可動範囲を制限し、インターバルを長くすることにより、ロボット100の動き
を緩慢化してもよい。省電力モードにおいては、ロボット100の単位時間あたりの活動
量を抑制する。258は、省電力モードが所定時間以上継続したときには、動作モードを
通常モードに変更する。
<record mode>
Mode selection unit 258 selects an operation mode of robot 100 . Mode selector 258
, when the amount of activity per unit time of the robot 100 exceeds a predetermined value, the robot
Change the operating mode of 100 from normal mode to power saving mode. The amount of activity may be determined according to the power consumption per unit time or the number of motion selections. In the power saving mode, the types of motions selectable by the robot 100 are narrowed down. Alternatively, the motion of the robot 100 may be slowed down by limiting the movable range of the actuator and lengthening the interval. In the power saving mode, the amount of activity per unit time of the robot 100 is suppressed. 258 changes the operation mode to the normal mode when the power saving mode continues for a predetermined time or longer.

モード選択部258は、ロボット100が搭載する二次電池の充電率が所定の閾値以下
となったとき、動作モードを充電モード(休息モード)に変更する。このとき、動作制御
部222はロボット100を充電ステーションに定置させる。充電率が閾値以上となった
とき、モード選択部258は動作モードを充電モードから通常モードに変更する。
The mode selection unit 258 changes the operation mode to the charge mode (rest mode) when the charging rate of the secondary battery mounted on the robot 100 becomes equal to or less than a predetermined threshold. At this time, the motion control unit 222 places the robot 100 at the charging station. When the charging rate reaches or exceeds the threshold, mode selection unit 258 changes the operation mode from charging mode to normal mode.

ロボットシステム300は、更に、撮影可能モードと撮影不可モードを有するとしても
よい。ロボット100のツノ112には、回転式のスイッチ(図示せず)が搭載されても
よい。ユーザはツノ112に設けられたスイッチを回転させることで、撮影可能モードと
撮影不可モードを手動で切り替えることができる。撮影可能モードにおいては、撮像部1
58により外界を撮像し、履歴情報の一部として撮影画像を保存できる。一方、撮影不可
能モードのときには、ロボット100はユーザ認識等のために撮影自体は行うものの、撮
影画像を保存しない。あるいは、ロボット100は、撮影画像を所定時間、たとえば、3
秒後に自動的に廃棄するとしてもよい。ユーザは、ロボット100に撮影をして欲しくな
いときには、ツノ112に設けられたスイッチを回転させることで簡単に撮影不可モード
に変更できる。
The robot system 300 may also have a shootable mode and a shootable mode. A rotary switch (not shown) may be mounted on the horn 112 of the robot 100 . By rotating the switch provided on the horn 112, the user can manually switch between the shooting enabled mode and the shooting disabled mode. In shooting enabled mode, the imaging unit 1
The external world can be imaged by 58 and the captured image can be saved as part of the history information. On the other hand, in the non-imaging mode, the robot 100 does not store the captured image although it performs the imaging itself for user recognition and the like. Alternatively, the robot 100 keeps the captured image for a predetermined time, for example, 3
It may be automatically discarded after seconds. When the user does not want the robot 100 to take pictures, the user can simply turn the switch provided on the horn 112 to switch to the no-picture mode.

ツノ112に設けられたスイッチが操作されたとき、通信部142はその設定値をサー
バ200に送信する。モード選択部258は、ロボット100から受信した設定値により
、撮影可能モードおよび撮影不可モードのいずれにあるかを認識する。撮影不可モードに
おいても、サーバ200の認識部212はロボット100から撮影画像を受信して画像認
識処理を実行するが、撮影画像の恒久保存はしない。
When the switch provided on horn 112 is operated, communication unit 142 transmits the setting value to server 200 . The mode selection unit 258 recognizes, based on the setting value received from the robot 100, whether the mode is the photographable mode or the photographable mode. Even in the non-imaging mode, the recognition unit 212 of the server 200 receives a captured image from the robot 100 and executes image recognition processing, but does not permanently store the captured image.

履歴管理部252は、ロボット100のモードを履歴情報および反応レポートに記録し
てもよい。ユーザは、反応レポートを参照することにより、ロボット100の動作モード
の変化履歴を確認できる。なお、撮影不可モードの期間においては、撮影画像が残らない
ため、画像としての詳細情報は提供不可となる。
The history manager 252 may record the mode of the robot 100 in history information and reaction reports. The user can check the change history of the operation mode of the robot 100 by referring to the reaction report. It should be noted that, during the period of the non-imaging mode, no captured image remains, so detailed information as an image cannot be provided.

<定例行動の記録>
認識部212は、ユーザの定例行動を検出してもよい。定例行動とは、たとえば、早朝
の体操、ロボット100に対する「おはよう」、「おやすみ」などの声かけ(挨拶)、歯
磨き、洗顔、入浴、書斎に座る、掃除、食事、昼寝など、毎日定期的に行われるユーザの
行動である。サーバ200にあらかじめ定例行動を登録してもよいし、認識部212はユ
ーザを所定期間にわたって観察し、同一時間帯に同一行動が繰り返し検出されたとき、そ
の行動を定例行動として登録してもよい。定例行動はユーザごとに認識される。認識部2
12は、定例行動を検出したとき、「定例イベント」が発生したと認識する。
<Record of regular behavior>
The recognition unit 212 may detect regular behavior of the user. Regular actions include, for example, early morning exercise, greetings such as "good morning" and "good night" to the robot 100, brushing teeth, washing face, bathing, sitting in the study, cleaning, eating, taking a nap, etc. It is the user action that takes place. The regular behavior may be registered in advance in the server 200, or the recognition unit 212 may observe the user for a predetermined period, and when the same behavior is repeatedly detected in the same time period, the behavior may be registered as the regular behavior. . Regular behavior is recognized on a per-user basis. Recognition part 2
12 recognizes that a "regular event" has occurred when a regular action is detected.

履歴管理部252は、定例イベントが発生したとき、履歴情報に記録する。履歴管理部
252は、反応レポートに定例イベントに対応するイベントアイコン182を記録しても
よい。あるいは、定例イベントを反応レポートに記録するのではなく、定例イベントが想
定時間帯に検出されなかったときにその旨を反応レポートに記録してもよい。このような
制御方法によれば、遠隔地にいるユーザCは反応レポートを通して、ロボット100のそ
ばにいるユーザDが定例行動をしているか否かを確認できる。
The history management unit 252 records in history information when a regular event occurs. History management section
252 may record an event icon 182 corresponding to the regular event in the response report. Alternatively, instead of recording the regular event in the reaction report, when the regular event is not detected within the expected time period, that effect may be recorded in the reaction report. According to such a control method, user C at a remote location can confirm whether or not user D near robot 100 is performing a regular action through the reaction report.

現在、日本の単独世帯数は1300万以上といわれ、今後も増え続けることは確実であ
る。特に、高齢者(65歳以上)の単独世帯数は620万世帯にも達しており、高齢者の
見回り(安全確認)は重要な問題となっている。現状では、近隣に住む子や孫が一人暮ら
しをする親を定期的に訪問することもあれば、電話や電子メール、SNSなどで定期的な
連絡をとることで一人暮らしの親の状況を確認することもある。
Currently, the number of single-person households in Japan is said to exceed 13 million, and it is certain that the number will continue to increase in the future. In particular, the number of elderly (age 65 and over) single-person households has reached 6.2 million households, and patrols (safety checks) by the elderly have become an important issue. Currently, children and grandchildren living in the neighborhood sometimes visit their parents who live alone on a regular basis, and it is necessary to check the situation of their parents who live alone by regularly contacting them by phone, e-mail, SNS, etc. There is also

しかし、このような安全確認は、確認する側はいうまでもなく、確認をされる側にとっ
ても負担になることがある。子どもは、遠隔地にいる一人暮らしの老親の生活は気にかか
るが、毎日、SNSなどで確認を取ることは負担が大きい。老親も子どもが忙しいことも
考慮して連絡を遠慮してしまうことが多い。
However, such safety confirmation may be a burden not only for the confirming side but also for the confirmed side. Children are concerned about the lives of their elderly parents who live alone in remote areas, but it is a heavy burden to check on social media every day. Considering that the elderly parents are busy with their children, they often refrain from contacting them.

単身高齢者(老親)がロボット100と暮らすようになれば、子どもたちはロボット1
00を介して老親の安全確認をしやすくなると考えられる。ただし、老親のプライバシー
保護の観点もあり、ロボット100が老親の日常生活と逐一、他のユーザ(子どもなど)
に報告することは望ましくない。見守られる側のプライバシーを考慮しなければ、「見守
り」は「監視」と変わらなくなってしまう。
If a single elderly person (old parent) lives with a robot 100, children will be robots 1
It is thought that it will be easier to confirm the safety of elderly parents through 00. However, from the viewpoint of protecting the privacy of the elderly parents, the robot 100 can interact with the elderly parents' daily lives and other users (children, etc.).
should not be reported to If the privacy of the person being watched over is not taken into consideration, "watching over" is no different from "surveillance."

本実施形態における履歴管理部252は、ロボット100のそばにいるユーザのプライ
バシーに配慮した反応レポートを生成するものの、子どもは老親の日常生活の細部まで知
りたいわけではない。老親も、日常生活のすべてを子どもに見られることは望んでいない
と考えられる。子どもは老親がいつもどおり安全に暮らしていることさえ確認できれば十
分であるかもしれない。
The history management unit 252 in this embodiment generates a reaction report that considers the privacy of the user near the robot 100, but the child does not want to know the details of the daily life of the elderly parent. Elderly parents also do not want their children to see everything in their daily lives. It may be enough for children to see that their elderly parents are living safely as usual.

このような問題の解決策の一つとして、反応レポートの閲覧者(子ども)に対して弱い
閲覧権限を設定することが考えられる。このような制御方法によれば、閲覧者(子ども)
に対して提供される情報が制限されるため、老親のプライバシーを守りやすくなる。
As one solution to this problem, it is conceivable to set weak viewing authority for viewers (children) of reaction reports. According to such a control method, the viewer (child)
It is easier to protect the privacy of elderly parents by limiting the information provided to them.

もう一つの解決策として、定例イベントの成否を反応レポートに記録し、これを閲覧者
(子ども)に提供する。たとえば、ロボット100に対する「おはよう」という老親から
の声かけを定例イベントとする。閲覧者は、ロボット100と暮らす老親が定例行動(朝
の挨拶)を行ったかを毎日反応レポートで確認できる。この場合、反応レポートは定例イ
ベントの成否のみを閲覧者に伝えてもよい。老親はロボット100に「おはよう」と声を
かけるだけで、遠く離れて暮らすこどもたちに「今日もいつもと同じように暮らしている
」というメッセージを送ることができる。子どもたちも、ユーザ端末400を通して定例
イベントの有無を知ることにより、老親に異常がないことを簡易に確認できる。安否確認
される側にとってはいつも通りの生活をするだけで子どもたちを安心させることができる
ので、負担にならない。
Another solution is to record the success or failure of regular events in reaction reports, which can be viewed by viewers.
provide to (children) For example, an elderly parent's voice saying "good morning" to the robot 100 is a regular event. The viewer can check whether the elderly parents living with the robot 100 performed the regular behavior (morning greetings) in the reaction report every day. In this case, the response report may tell the viewer only the success or failure of the regular event. By simply saying "Good morning" to Robot 100, elderly parents can send a message to children living far away that they are living the same way today. Children can also easily confirm that there is nothing wrong with their elderly parents by knowing whether or not there is a regular event through the user terminal 400 . For the person whose safety is confirmed, the children can be relieved just by living as usual, so it is not a burden.

閲覧者(子ども)は、反応レポートで定例イベントを確認できなかったときだけ、電話
などの既存の連絡手段により老親の安否を確認すればよい。
定例イベントの成否を反応レポートで通知する必要はなく、認識部212は定例イベン
トを検出したときには既知の連絡手段、たとえば、SNSにより定例イベント(いつも通
りの行動)があったことを見守る側のユーザに通知してもよい。
Viewers (children) only need to confirm the safety of their elderly parents by existing communication means such as telephone only when they cannot confirm regular events in the reaction report.
It is not necessary to notify the success or failure of the regular event by a reaction report, and when the recognition unit 212 detects the regular event, the user who watches that the regular event (behavior as usual) has occurred by a known means of communication, for example, SNS. may be notified to

また、定例イベントに対しては、上述したような閲覧制限を設けないとしてもよい。た
とえば、ユーザが休息中のロボット100に対して「おやすみ」と挨拶した場合であって
も、ロボット100は定例イベントが発生したことを反応レポートとして提供してもよい。
Moreover, it is not necessary to set the viewing restrictions as described above for regular events. For example, even if the user greets the resting robot 100 with "good night", the robot 100 may provide a response report indicating that a regular event has occurred.

<履歴情報の管理>
本実施形態においては、履歴管理部252はすべてのイベントを履歴情報に記録すると
して説明した。履歴情報にはプライバシーに関する情報が豊富に含まれる可能性もあるた
め、履歴管理部252は履歴情報の保存期間を制限してもよい。たとえば、1日分の履歴
情報のみ保存しておき、履歴管理部252は1日を経過した古い履歴情報は履歴情報格納
部262から完全に削除するとしてもよい。
<Manage history information>
In the present embodiment, the history management unit 252 has been described as recording all events in history information. History management unit 252 may limit the storage period of history information, since history information may contain a lot of information about privacy. For example, only history information for one day may be saved, and history management unit 252 may completely delete history information older than one day from history information storage unit 262 .

<禁止属性>
一部のイベント条件に対して禁止属性を設定してもよい。禁止属性を設定されたイベン
トは履歴情報に記録しないとしてもよいし、反応レポートに記録しないとしてもよいし、
詳細情報としては提供しないとしてもよい。禁止のレベルに応じて複数種類の禁止属性が
設けられてもよい。たとえば、禁止属性B1のイベント条件を成立させるイベントは履歴
情報にすら記録しないとしてもよい。禁止条件B2のイベント条件を成立させるイベント
は履歴情報には記録されるが詳細情報としては提供しないとしてもよい。禁止条件B3の
イベントは履歴情報に記録されるものの30分のような短時間で消去されるとしてもよい。
<Prohibited attribute>
A prohibited attribute may be set for some event conditions. Events with prohibited attributes may not be recorded in history information, may not be recorded in reaction reports,
It may not be provided as detailed information. A plurality of types of prohibited attributes may be provided according to the level of prohibition. For example, an event that satisfies the event condition of the prohibited attribute B1 may not even be recorded in the history information. An event that satisfies the event condition of the prohibition condition B2 is recorded in the history information, but may not be provided as detailed information. Although the event of the prohibition condition B3 is recorded in the history information, it may be erased in a short period of time such as 30 minutes.

禁止属性を設定されるイベント条件としては、たとえば、号泣、怒鳴り声(夫婦喧嘩の
認識)、大笑いの顔画像、寝顔の画像、などが考えられる。
Event conditions for which prohibited attributes are set include, for example, crying, yelling (recognition of marital quarrel), laughing face image, sleeping face image, and the like.

<閲覧属性>
本実施形態においては、閲覧属性により閲覧権限レベルを表現するものとして説明した
。閲覧属性は、プライバシーに関する権限に限られない。たとえば、午前中に発生したと
きだけ反応レポートで確認できるイベント、雨の日に発生したときだけ反応レポートで確
認できるイベントなど外部環境を条件として反応レポートへのイベント登録可否を判定し
てもよい。
<browsing attribute>
In the present embodiment, it has been described that the viewing authority level is represented by the viewing attribute. Browsing attributes are not limited to rights related to privacy. For example, whether or not an event can be registered in a reaction report may be determined based on the external environment, such as an event that can be confirmed in the reaction report only when it occurs in the morning, or an event that can be confirmed in the reaction report only when it occurs on a rainy day.

本実施形態においては、ユーザに閲覧属性を設定し、閲覧属性によりプライバシー保護
レベルをコントロールするとして説明した。このほかにも、遠隔地にあるユーザ端末40
0からの反応レポート取得要求に対してはイベントの閲覧権限レベルを下げるとしてもよ
い。たとえば、遠くにいるユーザには詳しい反応レポートは提供しない、あるいは、一定
距離以上離れているところにいるユーザに対しては詳細情報を提供しない、としてもよい
。このように距離に基づいてプライバシーレベルを制御してもよい。
In the present embodiment, it has been described that the browsing attribute is set for the user and the privacy protection level is controlled by the browsing attribute. In addition to this, the remote user terminal 40
The viewing authority level of the event may be lowered for response report acquisition requests starting from 0. For example, a detailed response report may not be provided to a user far away, or detailed information may not be provided to a user far away. The privacy level may be controlled based on the distance in this way.

また、時間に基づいてプライバシーレベルを制御してもよい。たとえば、昼間に反応レ
ポート取得要求を送信してきたユーザに対しては詳しい反応レポートを提供するが、夜中
に反応レポート取得要求を送信してきたユーザに対しては反応レポートに含まれる情報を
控えめにしてもよい。
Also, the privacy level may be controlled based on time. For example, a detailed reaction report is provided to a user who sends a reaction report acquisition request in the daytime, but the information contained in the reaction report is modest for a user who sends a reaction report acquisition request in the middle of the night. good too.

ロボット100が、単体で、いいかえれば、周りに誰もいない状態で留守番をしている
ときには、履歴管理部252はすべてのイベントを反応レポートで提供するとしてもよい
。ロボット100が他のユーザと同じ室内にいるときには、反応レポートが提供可能な情
報を抑制するとしてもよい。このような制御方法によれば、ロボット100のそばにいる
ユーザのプライバシーを守りつつ、ロボット100が一人で留守番をしているときには詳
しい状況を反応レポートで伝えることができる。
When the robot 100 is alone, in other words, when the robot 100 is at home with no one around, the history management unit 252 may provide a reaction report of all events. When the robot 100 is in the same room as other users, the information that the reaction report can provide may be suppressed. According to such a control method, while protecting the privacy of the user near the robot 100, when the robot 100 is alone at home, the detailed situation can be conveyed in the reaction report.

ロボット100が、不審者、いいかえれば、視認したことのない人物を発見したときに
は、履歴管理部252はプライバシー保護を解除し、すべての履歴情報をユーザ端末40
0に提供してもよい。このような制御方法によれば、不審者が家屋に侵入したときに限り
、ロボット100を監視装置として機能させることができる。ロボット100が、認識済
みのユーザ(オーナー)と未登録人物を同時に認識したときには、未登録人物は来客であ
る可能性が高いため、このときには履歴管理部252はプライバシー保護のために反応レ
ポートで提供する情報を抑制するとしてもよい。
When the robot 100 discovers a suspicious person, in other words, a person who has never been seen, the history management unit 252 cancels the privacy protection and sends all the history information to the user terminal 40.
0 may be provided. According to such a control method, the robot 100 can function as a monitoring device only when a suspicious person intrudes into the house. When the robot 100 recognizes a recognized user (owner) and an unregistered person at the same time, it is highly likely that the unregistered person is a visitor. It is also possible to suppress the information to be used.

<強調表現>
本実施形態においては、注目すべきイベントに対して、履歴管理部252は注目マーク
186を付与するとして説明した。このほかにも、履歴管理部252は、注目すべきイベ
ントのイベントアイコン182を点滅させる、色彩を変更する、大きさを変更する等によ
り強調表現をしてもよい。吹き出しなど、重要イベントに対する注目を促す表示であれば
よい。
<emphasis>
In this embodiment, the history management unit 252 displays the attention mark
It was explained as giving 186. In addition, the history management unit 252 may emphasize the event icon 182 of the event of interest by blinking, changing the color, changing the size, or the like. Any display, such as a balloon, that calls attention to an important event may be used.

第1反応レポート画面180等においては、レッドライン(第1のライン)とブルーラ
イン(第2のライン)のように複数種類のラインを表示してもよい。そして、レッドライ
ンにおいては注目マーク186のように注目すべきイベントの発生時点を表示し、ブルー
ラインはすべてのイベントの発生時点を表示してもよい。ブルーラインは、心理条件が成
立したときのイベントに関わらず、履歴情報に登録されているすべてのイベントの発生時
点を表示してもよい。
In the first reaction report screen 180 and the like, multiple types of lines such as a red line (first line) and a blue line (second line) may be displayed. Then, the red line may indicate the time of occurrence of a noteworthy event like the attention mark 186, and the blue line may indicate the time of occurrence of all events. The blue line may display the time points of occurrence of all events registered in the history information, regardless of the event when the psychological condition is satisfied.

<アイコン表示>
本実施形態においては、閲覧属性に応じて、詳細情報の情報量を変化させる態様につい
て説明した。同様にして、閲覧属性に応じて、イベントアイコン182等のアイコンの表
示を変化させてもよい。たとえば、「お客さんが来た」というイベントに対して、お客さ
んの顔写真を使ったイベントアイコン182A、お客さんの似顔絵を使ったイベントアイ
コン182B、お客さんを特定することなくお客さんを表す顔の絵を使ったイベントアイ
コン182C、エクスクラメーションマークなど来客であることすら特定しないイベント
アイコン182Dを用意しておく。
<Icon display>
In the present embodiment, the aspect of changing the amount of detailed information according to the browsing attribute has been described. Similarly, the display of icons such as the event icon 182 may be changed according to the viewing attribute. For example, for the event "a customer has come", an event icon 182A using the customer's face photo, an event icon 182B using the customer's portrait, and a face representing the customer without specifying the customer. An event icon 182C using a picture of a visitor, and an event icon 182D such as an exclamation mark that does not even identify a visitor are prepared.

履歴管理部252は、閲覧属性A1以上のユーザを対象とした反応レポートにはイベン
トアイコン182Aを使用し、閲覧属性A2のユーザにはイベントアイコン182B、閲
覧属性A3のユーザにはイベントアイコン182C、閲覧属性A4のユーザにはイベント
アイコン182Dを使用するとしてもよい。このような制御方法によれば、ユーザの閲覧
属性に応じて、各種アイコンが提供する情報量をコントロールすることにより、プライバ
シーをいっそう保護しやすくなる。
The history management unit 252 uses the event icon 182A for the reaction report for users with the viewing attribute A1 or higher, the event icon 182B for users with the viewing attribute A2, the event icon 182C for the users with the viewing attribute A3, and the viewing Event icon 182D may be used for users with attribute A4. According to such a control method, it becomes easier to protect privacy by controlling the amount of information provided by various icons according to the browsing attribute of the user.

<ロボット100への命令>
本実施形態においては、ユーザ端末400からロボット100に対して休息時間を設定
する方法について説明した。休息時間に限らず、さまざまな命令をユーザ端末400から
ロボットシステム300に送信できてもよい。たとえば、8:00~9:00はリビング
ルームにいてほしい、子供部屋には行かないでほしい、7:00に寝室に来てほしい、な
どの命令をユーザ端末400からサーバ200に送信してもよい。サーバ200の動作制
御部222は、命令にしたがってロボット100の動作を制御する。このほかにも、午前
と午後に子どもを1回ずつ視認すること、22:00~23:30の間に父親が帰宅する
ので玄関の物音に注意すること(マイクの集音感度を強化する)、などが考えられる。
<Command to robot 100>
In this embodiment, the method of setting the rest time for the robot 100 from the user terminal 400 has been described. Various commands may be sent from the user terminal 400 to the robot system 300, not limited to the rest time. For example, even if the user terminal 400 sends a command to the server 200 such as "I want you to stay in the living room from 8:00 to 9:00,""Please do not go to my child's room,""I want you to come to my bedroom at 7:00," etc. good. The motion control unit 222 of the server 200 controls the motion of the robot 100 according to commands. In addition to this, make sure to see the child once in the morning and once in the afternoon, and pay attention to the noise at the entrance when the father comes home between 22:00 and 23:30 (enhance the microphone sensitivity). , etc. can be considered.

ただし、ユーザ端末400からロボット100をコントロールしすぎると、ロボット1
00の自律性がなくなってしまうので、ユーザ端末400からロボット100へ出せる命
令群はある程度は限定されることが望ましい。動作制御部222は、ユーザ端末400か
らの命令にしたがうか否かをランダムに選択してもよい。動作制御部222は、親密度の
高いユーザからの命令ほど高い確率でしたがうとしてもよい。
However, if the user terminal 400 controls the robot 100 too much, the robot 1
Since the autonomy of 00 is lost, it is desirable that the group of commands that can be issued from the user terminal 400 to the robot 100 is limited to some extent. The operation control unit 222 may randomly select whether or not to follow the command from the user terminal 400 . The operation control unit 222 may follow an instruction from a user with a higher degree of familiarity with a higher probability.

ユーザは、外出先にあっても、ユーザ端末400からロボット100に声掛けをできて
もよい。ユーザは、ユーザ端末400からロボット100するメッセージを読み上げる。
サーバ200は、音声メッセージをユーザ端末400から受信し、これを再生する。ロボ
ット100はマイクロフォンアレイ(内部センサ128)により音声メッセージを認識し
、「ユーザから声をかけられる」というイベントが発生したと認識する。感情管理部25
0は、この音声イベントにより、寂しさパラメータを低下させてもよい。このような制御
方法によれば、ユーザはユーザ端末400を介して外出先からロボット100に声をかけ
ることで、ロボット100の寂しさを癒すことができる。ロボット100を家に残して長
期旅行をするときでも、ユーザはユーザ端末400からロボット100に声をかけること
で配慮を示すことができる。
The user may be able to talk to the robot 100 from the user terminal 400 even when he/she is away from home. The user reads aloud the message to the robot 100 from the user terminal 400 .
The server 200 receives the voice message from the user terminal 400 and reproduces it. The robot 100 recognizes the voice message by means of the microphone array (internal sensor 128) and recognizes that an event "a user speaks to me" has occurred. Emotion Management Department 25
0 may cause this audio event to reduce the loneliness parameter. According to such a control method, the user can soothe the loneliness of the robot 100 by speaking to the robot 100 from outside via the user terminal 400 . Even when leaving the robot 100 at home for a long trip, the user can show consideration by speaking to the robot 100 from the user terminal 400 .

<その他>
反応レポートには、感情パラメータに対応した感情アイコン184ではなく、感情パラ
メータの値そのものを表示してもよい。履歴管理部252は、感情パラメータの値、また
は、感情パラメータの値に対応する色彩を反応レポートに記録してもよい。履歴管理部2
52は、心理条件の成否に関わらず、感情パラメータの変化履歴を反応レポートに記録し
てもよい。
<Others>
Instead of the emotion icon 184 corresponding to the emotion parameter, the value of the emotion parameter itself may be displayed in the reaction report. The history management unit 252 may record the value of the emotion parameter or the color corresponding to the value of the emotion parameter in the reaction report. History management part 2
52 may record the change history of the emotional parameter in the reaction report regardless of the success or failure of the psychological condition.

イベントも、イベントアイコン182により表現してもよいし、テキスト情報として表
示してもよいし、詳細情報で説明したようにイベント発生時の写真を反応レポートに貼り
付けてもよい。
An event may also be represented by an event icon 182, may be displayed as text information, or may be pasted on a reaction report with a photograph of when the event occurred as described in the detailed information.

本実施形態においては、サーバ200からユーザ端末400に反応レポートを送信し、
ユーザ端末400にて反応レポートを画面表示させるとして説明した。ロボット100ま
たはサーバ200にプリンタを搭載または接続し、プリンタから反応レポートを印刷出力
してもよい。あるいは、ロボット100またはロボットシステム300にモニタを搭載ま
たは接続し、このモニタに反応レポートを画面表示させてもよい。
In this embodiment, the reaction report is transmitted from the server 200 to the user terminal 400,
It has been described that the user terminal 400 displays the reaction report on the screen. A printer may be mounted on or connected to the robot 100 or the server 200, and the reaction report may be printed out from the printer. Alternatively, a monitor may be mounted on or connected to the robot 100 or robot system 300 and the reaction report may be displayed on the monitor.

本実施形態においては、心理条件が成立したときのイベント、モーション、雰囲気等を
反応レポートで表示するとして説明した。変形例として、心理条件の成否に基づくことな
く、履歴管理部252は、所定のイベント条件に関わるイベント、重要イベント、定例イ
ベント、あるいは、ユーザの閲覧属性に該当するイベントすべて、いいかえれば、心理条
件以外の所定の登録条件に対応するイベントすべてを反応レポートに登録してもよい。履
歴管理部252は、選択確率の低いモーション(めったに行わない行動)や、所定期間に
おいて検出頻度が所定数以下のイベント(めったに発生しないイベント)は、心理条件に
関わらず反応レポートに登録するとしてもよい。
In the present embodiment, it has been described that events, motions, atmospheres, etc., when psychological conditions are established are displayed in reaction reports. As a modification, regardless of the success or failure of the psychological condition, the history management unit 252 can store events related to predetermined event conditions, important events, regular events, or all events corresponding to the browsing attribute of the user, in other words, the psychological condition All events corresponding to predetermined registration conditions other than the above may be registered in the reaction report. The history management unit 252 registers motions with a low selection probability (rarely performed actions) and events whose detection frequency is less than a predetermined number in a predetermined period (rarely occurring events) in the reaction report regardless of psychological conditions. good.

履歴管理部252は、所定時間、たとえば、1時間あたり1つの代表的なイベントを選
んで反応レポートに登録してもよい。イベントタイプごとに重要度を設定してもよい。履
歴管理部252は、代表的なイベントとして、単位期間において発生した1以上のイベン
トのうちもっとも重要度の高いイベントタイプに対応するイベントを選んでもよい。ある
いは、履歴管理部252は、単位期間に発生した1以上のイベントからランダムに代表イ
ベントを選択してもよい。
The history management unit 252 may select one representative event per hour, for example, and register it in the reaction report. An importance level may be set for each event type. The history management unit 252 may select, as a representative event, an event corresponding to the most important event type among one or more events occurring in a unit period. Alternatively, history management section 252 may randomly select a representative event from one or more events occurring in a unit period.

各種アイコンはカテゴリに応じて色分けされてもよい。たとえば、ユーザに関わるイベ
ントは青系のイベントアイコン182、発見に関わるイベントは赤系のイベントアイコン
182、音や光に関わるイベントは黄系のイベントアイコン182により表現してもよい
。イベントタイプに応じて色分けしてもよい。あるいは、所定のイベント条件に該当する
か否かに応じてイベントアイコン182を色分けしてもよい。
Various icons may be color-coded according to categories. For example, an event related to the user has a blue event icon 182, and an event related to discovery has a red event icon
182, an event related to sound or light may be represented by a yellow event icon 182. It may be color coded according to the event type. Alternatively, the event icon 182 may be color-coded according to whether or not a predetermined event condition is met.

本実施形態においては、ロボット100の気持ち、イベント、ロボット100の行動、
雰囲気等を反応レポートに登録するとして説明した。これに限らず、たとえば、反応レポ
ートはロボット100の気持ち(感情パラメータ)のみを反応レポートで表示してもよい
。このような反応レポートであっても、ユーザはロボット100が一日をどのように過ご
したかを推測できる。ロボット100の感情だけを反応レポートに登録する場合にはユー
ザのプライバシーはほぼ完全に守ることができる。同様の理由から、反応レポートにおい
ては雰囲気タイプのみを表示してもよいし、イベントのみを表示してもよい。
In this embodiment, the feelings of the robot 100, the events, the actions of the robot 100,
It has been explained that the atmosphere and the like are registered in the reaction report. Not limited to this, for example, the reaction report may display only the feelings (emotional parameters) of the robot 100 in the reaction report. Even with such a reaction report, the user can guess how the robot 100 spent the day. When only the emotion of the robot 100 is registered in the reaction report, the user's privacy can be almost completely protected. For the same reason, the reaction report may display only atmosphere types or only events.

本実施形態においては、雰囲気を雰囲気アイコン194により表現するとして説明した
。雰囲気は、「楽しい」「賑やか」のようなテキスト情報により表現されてもよいし、色
彩により表現されてもよい。あるいは、雰囲気の良さを示す数値やグラフにより、雰囲気
の変化を表現してもよい。
In the present embodiment, it has been described that the atmosphere is represented by the atmosphere icon 194 . The atmosphere may be expressed by text information such as "fun" and "lively", or may be expressed by colors. Alternatively, changes in the atmosphere may be represented by numerical values or graphs indicating the goodness of the atmosphere.

履歴管理部252は、ロボット100の活動量を履歴情報に記録してもよい。また、履
歴管理部252は、ロボット100の活動量を反応レポートに記録してもよい。このよう
な制御方法によれば、ユーザはロボット100が活発に動いた一日かどうかを反応レポー
トで知ることができる。
The history management unit 252 may record the amount of activity of the robot 100 in history information. Also, the history management unit 252 may record the amount of activity of the robot 100 in the reaction report. According to such a control method, the user can know from the reaction report whether the robot 100 has been actively moving during the day.

ユーザは、ロボット100に、近い将来発生する予定のイベントを通知してもよい。た
とえば、来客がある、パーティーが始まるなどの予定をユーザ端末400からサーバ20
0に通知する。感情管理部250は、予定時刻が近づくにしたがって感情パラメータを変
化させてもよい。このような制御方法によれば、ロボット100に将来予測に基づく期待
感や不安感を抱かせることができる。また、ロボット100は将来予測に基づいて行動特
性を変化させるため、ユーザはロボットが期待や不安を感じていることをロボット100
の行動から感じ取ることができる。
The user may notify the robot 100 of events that are scheduled to occur in the near future. For example, the user terminal 400 informs the server 20 of a schedule such as the arrival of a guest or the start of a party.
Notify 0. Emotion management section 250 may change the emotion parameter as the scheduled time approaches. According to such a control method, it is possible to make the robot 100 feel hopefulness and anxiety based on the future prediction. In addition, since the robot 100 changes its behavioral characteristics based on future predictions, the user can understand that the robot 100 is feeling expectations or anxiety.
can be felt from the actions of

本実施形態においては、イベントとは、ユーザを視認する、抱っこされるなどの外部事象であることを前提として説明した。これに限らず、ボディ104内部の温度が所定値以上となっている、寂しさパラメータが20以下となっている、といった内部事象について
もイベントとして定義してもよい。
In the present embodiment, the description has been made on the premise that the event is an external phenomenon such as seeing the user or being held. Not limited to this, an internal phenomenon such as the temperature inside the body 104 exceeding a predetermined value or the loneliness parameter being 20 or less may be defined as an event.

ロボット100は、複数種類の感情パラメータを備えてもよいし、単一の感情パラメー
タに基づいて行動特性を変化させてもよい。上述したように、第1の感情パラメータの値
(第1感情値)が第2の感情パラメータの値(第2感情値)以上となったとき、心理条件
が成立するとしてもよい。あるいは、第1感情値と第2感情値の差分が所定の閾値以上と
なったとき心理条件が成立するとしてもよい。
The robot 100 may have multiple types of emotional parameters, or may change behavioral characteristics based on a single emotional parameter. As mentioned above, the value of the first emotion parameter
The psychological condition may be established when the (first emotion value) is greater than or equal to the value of the second emotion parameter (second emotion value). Alternatively, the psychological condition may be established when the difference between the first emotion value and the second emotion value is greater than or equal to a predetermined threshold.

ある感情パラメータの感情値が第1の閾値以上となったとき、あるいは、第2の閾値以
下となったとき、心理条件が成立するとしてもよい。また、感情値の単位時間あたりの変
化率が第3の閾値以上となったとき、あるいは、第4の閾値以下となったとき、心理条件
が成立するとしてもよい。たとえば、好奇心パラメータは、新奇なものを発見したとき急
上昇する一方、承認欲求パラメータはゆっくりとしか変化しないとしてもよい。このよう
に、感情パラメータの種類に応じて変化の仕方に個性をもたせてもよい。したがって、感
情パラメータの特性に応じて、さまざまな心理条件を定義可能である。
The psychological condition may be established when the emotion value of a certain emotion parameter is greater than or equal to a first threshold or less than or equal to a second threshold. Alternatively, the psychological condition may be established when the rate of change of the emotion value per unit time is equal to or greater than the third threshold or equal to or less than the fourth threshold. For example, the curiosity parameter may spike when discovering novelty, while the approval-seeking parameter may change only slowly. In this way, the manner of change may be individualized according to the type of emotion parameter. Therefore, various psychological conditions can be defined according to the characteristics of emotion parameters.

ショートムービーとして詳細情報を提供するときには、心理条件の成立期間に合わせて
ショートムービーの始期と終期を決定してもよい。たとえば、時刻t5に第1心理条件が
成立し、時刻t6に第1心理条件が不成立になったとする。このとき、履歴管理部252
は、ロボット100のカメラから得られた動画像のうち、時刻t5から時刻t6までの動
画を切り出すことでショートムービーを生成してもよい。
When detailed information is provided as a short movie, the start and end of the short movie may be determined according to the period during which psychological conditions are established. For example, assume that the first psychological condition is satisfied at time t5 and the first psychological condition is not satisfied at time t6. At this time, the history management unit 252
Alternatively, a short movie may be generated by clipping a moving image from time t5 to time t6 out of the moving images obtained from the camera of the robot 100. FIG.

反応レポートには、ロボット100に発生した異常が記録されてもよい。たとえば、プ
ロセッサ122が高温になっていること、緊急停止させられたこと、アクチュエータが動
かないこと、バッテリー118(二次電池)が高温になっていること、などの異常情報を
反応レポートによりユーザ端末400に通知してもよい。
Abnormalities occurring in the robot 100 may be recorded in the reaction report. For example, abnormal information such as processor 122 being overheated, emergency stop, actuator not working, battery 118 (rechargeable battery) being overheated, etc. can be sent to the user terminal by a reaction report. 400 may be notified.

複数のロボット100により履歴情報あるいは反応レポートを共有してもよい。ユーザ
(P01)とロボット100A、ロボット100Bが同一家庭内に存在する状況を想定し
て説明する。ユーザ(P01)が時刻t12にロボット100Aを抱っこし、ロボット1
00Aにおいて心理条件が成立したとする。このときの「抱っこ」をイベント(Ex)と
する。ロボット100Aの通信部142は、ロボット100Bに対して時刻t12を含む
所定期間の撮影画像(静止画像または動画像)の取得を要求する。ロボット100Bの通
信部142は、サーバ200に自らが保存している撮影画像から該当期間における撮影画
像Q3をサーバ200からロボット100Bにダウンロードした上で、ロボット100A
に撮影画像Q3を送信する。ロボット100Aは、撮影画像Q3をイベント(Ex)の詳
細情報としてサーバ200に登録する。このような制御方法によれば、ロボット100A
は「自分が抱っこされている姿」を別のロボット100Bの視点からの撮影画像として取
得し、これを詳細情報として提供できる。ロボット100Bは該当期間における天球画像
をロボット100Aに送信してもよい。この場合には、ロボット100Aは天球画像(三
次元画像)から既知の画像処理方法により二次元の撮影画像Q3を生成してもよい。
Multiple robots 100 may share history information or reaction reports. A user
A description will be given assuming that (P01), the robot 100A, and the robot 100B are in the same household. User (P01) holds robot 100A at time t12, robot 1
Assume that the psychological condition is established at 00A. The "holding" at this time is defined as an event (Ex). The communication unit 142 of the robot 100A requests the robot 100B to acquire a photographed image (still image or moving image) for a predetermined period including time t12. The communication unit 142 of the robot 100B downloads the captured image Q3 in the corresponding period from the captured images stored in the server 200 to the robot 100B from the server 200, and then downloads the captured image Q3 to the robot 100A.
Send the captured image Q3 to The robot 100A registers the captured image Q3 in the server 200 as detailed information of the event (Ex). According to such a control method, the robot 100A
acquires "a figure in which oneself is held" as an image taken from the viewpoint of another robot 100B, and can provide this as detailed information. The robot 100B may transmit the celestial image for the corresponding period to the robot 100A. In this case, the robot 100A may generate a two-dimensional captured image Q3 from a celestial image (three-dimensional image) by a known image processing method.

ロボット100Aは、ロボット100Bではなくサーバ200に対して、時刻t12に
おけるロボット100Bからの撮影画像の取得を要求してもよい。1つのサーバ200が
ロボット100Aとロボット100Bの双方をまとめて管理する場合、サーバ200の履
歴管理部252は、ロボット100Bによる撮影画像Q3をロボット100Aの詳細情報
としてコピー保存してもよい。
Robot 100A may request server 200 instead of robot 100B to acquire an image captured by robot 100B at time t12. When one server 200 collectively manages both the robot 100A and the robot 100B, the history management unit 252 of the server 200 may copy and save the image Q3 captured by the robot 100B as the detailed information of the robot 100A.

ロボット100Aは、ロボット100Bに対して、動画像の開始時点と終了時点を指定
して、ショートムービーとしての撮影画像Q3を取得してもよい。たとえば、ロボット1
00Aの通信部142は、時刻t12から5秒前を開始時点、時刻t12から5秒後を終
了時点として指定することで、イベント(Ex)の成立前後10秒間の動画像をロボット
100Bから取得してもよい。
The robot 100A may specify the start time and end time of the moving image for the robot 100B, and acquire the shot image Q3 as a short movie. For example robot 1
The communication unit 142 of 00A designates 5 seconds before the time t12 as the start time and 5 seconds after the time t12 as the end time.
You can get it from 100B.

ロボット100Aは、なんらかのモーションを実行するとき、撮影依頼をロボット10
0Bに送信してもよい。たとえば、ロボット100Aの通信部142は、モーション(M
x)を実行するときには、実行前にロボット100Bに撮影依頼を送信する。ロボット1
00B(動作制御部150)は、撮影依頼を受信したときロボット100Aのそばに移動
する。ロボット100A(認識部156)は、ロボット100Bがそばにいることを認識
した上で、モーション(Mx)を実行する。このような制御方法によれば、ロボット10
0Aがモーション(Mx)を実行するときの様子を、ロボット100Bの視点から撮影す
ることができる。このときの撮影画像は、ロボット100Aの詳細画像として提供されて
もよい。ロボット100Aが実行するモーションのロボット100A自身による撮影画像
では、ロボット100Aがどのような動きをしているかわかりづらい可能性がある。ロボ
ット100Bがいれば良好なアングルにて撮影画像をユーザに提供できる。特に、モーシ
ョン(Mx)がめったに実行されないめずらしいモーションである場合、ロボットBによ
る撮影画像は貴重な撮影画像となる。複数のロボット100が互いに撮影し合うことで、
1台のロボット100だけでは得られない多様な撮影画像(詳細画像)を取得できる。
When the robot 100A executes some motion, the robot 100A sends a shooting request to the robot 10.
May be sent to 0B. For example, the communication unit 142 of the robot 100A uses motion (M
When executing x), a photographing request is transmitted to the robot 100B before execution. robot 1
00B (the motion control unit 150) moves to the side of the robot 100A when receiving the photographing request. Robot 100A (recognition unit 156) executes motion (Mx) after recognizing that robot 100B is nearby. According to such a control method, the robot 10
It is possible to photograph the situation when 0A executes the motion (Mx) from the viewpoint of the robot 100B. The captured image at this time may be provided as a detailed image of the robot 100A. It may be difficult to understand what kind of motion robot 100A is doing in an image captured by robot 100A itself of the motion executed by robot 100A. If the robot 100B is present, it is possible to provide the user with a photographed image at a good angle. In particular, when the motion (Mx) is a rare motion that is rarely executed, the image captured by the robot B becomes a valuable captured image. By having multiple robots 100 photograph each other,
Various captured images (detailed images) that cannot be obtained with only one robot 100 can be obtained.

100 ロボット、102 前輪、102a 左輪、102b 右輪、103 後輪、
104 ボディ、106 手、108 着座面、110 目、112 ツノ、114 外
部センサ、118 バッテリー、120 駆動機構、122 プロセッサ、124 記憶
装置、126 通信機、128 内部センサ、130 電源線、132 信号線、134
ワイヤ、136 データ処理部、142 通信部、148 データ格納部、150 動
作制御部、156 認識部、158 撮像部、160 モーション格納部、170 寂し
さパラメータ、172 好奇心パラメータ、174 承認欲求パラメータ、180 第1
反応レポート画面、182 イベントアイコン、184 感情アイコン、186 注目マ
ーク、190 第2反応レポート画面、192 モーションアイコン、194 雰囲気ア
イコン、200 サーバ、202 データ処理部、204 通信部、206 データ格納
部、208 位置管理部、212 認識部、218 個人データ格納部、220 親密度
管理部、222 動作制御部、232 モーション格納部、244 状態管理部、250
感情管理部、252 履歴管理部、254 アイコン選択部、256 雰囲気判定部、
258 モード選択部、260 イベント条件格納部、262 履歴情報格納部、270
履歴情報、280 モーション選択テーブル、290 ユーザ権限テーブル、292
イベント条件テーブル、300 ロボットシステム、308 ベースフレーム、310
本体フレーム、312 ホイールカバー、314 外皮、316 頭部フレーム、318
胴部フレーム、320 ヨー軸、322 ピッチ軸、324 ロール軸、325 プレ
ート、326 アクチュエータ、327 通気孔、328 ベースプレート、329 ク
ロスリンク機構、330 ジョイント、332 アッパープレート、334 ロアプレー
ト、336 サイドプレート、342 制御回路、370 車輪駆動機構、378 回動
軸、379 アクチュエータ、390 開口部、400 ユーザ端末、402 詳細情報
画面、404 詳細ウィンドウ、410 第3反応レポート画面、420 休息時間設定
画面
100 robot, 102 front wheel, 102a left wheel, 102b right wheel, 103 rear wheel,
104 body, 106 hands, 108 seating surface, 110 eyes, 112 horns, 114 external sensors, 118 batteries, 120 driving mechanisms, 122 processors, 124 storage devices, 126 communication devices, 128 internal sensors, 130 power lines, 132 signal lines, 134
wire, 136 data processing unit, 142 communication unit, 148 data storage unit, 150 motion control unit, 156 recognition unit, 158 imaging unit, 160 motion storage unit, 170 loneliness parameter, 172 curiosity parameter, 174 approval desire parameter, 180 1st
Reaction report screen, 182 event icons, 184 emotion icons, 186 attention marks, 190 2nd reaction report screen, 192 motion icons, 194 atmosphere icons, 200 server, 202 data processing unit, 204 communication unit, 206 data storage unit, 208 position management unit, 212 recognition unit, 218 personal data storage unit, 220 intimacy management unit, 222 motion control unit, 232 motion storage unit, 244 state management unit, 250
Emotion management part, 252 history management part, 254 icon selection part, 256 atmosphere determination part,
258 mode selection section, 260 event condition storage section, 262 history information storage section, 270
history information, 280 motion selection table, 290 user authority table, 292
Event Condition Table, 300 Robot System, 308 Base Frame, 310
body frame, 312 wheel cover, 314 skin, 316 head frame, 318
Torso frame, 320 yaw axis, 322 pitch axis, 324 roll axis, 325 plate, 326 actuator, 327 air vent, 328 base plate, 329 cross link mechanism, 330 joint, 332 upper plate, 334 lower plate, 336 side plate, 342 Control circuit, 370 wheel drive mechanism, 378 rotation axis, 379 actuator, 390 opening, 400 user terminal, 402 detailed information screen, 404 detailed window, 410 third reaction report screen, 420 rest time setting screen

Claims (14)

ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
イベントの発生を認識する認識部と、
イベントに応じて1以上の感情パラメータを変化させる感情管理部と、
イベントの発生履歴と感情パラメータの変化履歴を対応づけて履歴情報として記録する
履歴管理部と、を備え、
前記動作制御部は、感情パラメータに基づいてロボットの行動特性を変化させ、
前記履歴管理部は、感情パラメータが所定の心理条件を成立させるときのイベントおよ
び前記心理条件の成立時における感情パラメータを前記履歴情報から抽出して反応レポー
トを生成し、ユーザに前記反応レポートを提供することを特徴とする自律行動型ロボット。
a motion control unit that selects the motion of the robot;
a drive mechanism that performs the motion selected by the motion controller;
a recognition unit that recognizes the occurrence of an event;
an emotion management unit that changes one or more emotion parameters according to an event;
a history management unit that associates an event occurrence history with an emotion parameter change history and records it as history information,
The motion control unit changes behavioral characteristics of the robot based on the emotion parameter,
The history management unit extracts from the history information an event when the emotional parameter satisfies a predetermined psychological condition and the emotional parameter when the psychological condition is satisfied, generates a reaction report, and provides the reaction report to the user. An autonomous action type robot characterized by:
前記感情管理部は、第1の感情パラメータおよび第2の感情パラメータの優劣が逆転し
たとき前記心理条件が成立したと判定することを特徴とする請求項1に記載の自律行動型
ロボット。
2. The autonomous action robot according to claim 1, wherein the emotion management unit determines that the psychological condition is met when the first emotion parameter and the second emotion parameter are reversed in superiority.
前記履歴管理部は、更に、前記心理条件の成立後に前記動作制御部により選択されたモ
ーションも前記反応レポートに記録した上で、前記反応レポートをユーザに提供すること
を特徴とする請求項1または2に記載の自律行動型ロボット。
2. The history management unit further records the motion selected by the motion control unit after the psychological condition is established in the reaction report, and then provides the reaction report to the user. 2. The autonomous action type robot according to 2.
ロボットの周辺を撮像する撮像部と、
通信端末との通信処理を実行する通信部と、を更に備え、
前記認識部は、撮像画像から人物を特定し、
前記履歴管理部は、第1のユーザの通信端末から前記反応レポートの取得要求が受信さ
れたとき、撮像画像において第1のユーザが特定されていないことを条件として、前記通
信部に指示して前記第1のユーザの通信端末に前記反応レポートを送信させることを特徴
とする請求項1に記載の自律行動型ロボット。
an imaging unit that images the surroundings of the robot;
A communication unit that executes communication processing with the communication terminal,
The recognition unit identifies a person from the captured image,
When receiving the reaction report acquisition request from the communication terminal of the first user, the history management unit instructs the communication unit on the condition that the first user is not specified in the captured image. 2. The autonomous action robot according to claim 1, wherein the reaction report is transmitted to the communication terminal of the first user.
イベントに応じてアイコンを選択するアイコン選択部、を更に備え、
前記履歴管理部は、前記心理条件が成立したときのイベントを前記イベントに対応する
アイコンとして前記反応レポートに記録することにより、前記反応レポートにおいてイベ
ントの発生履歴をアイコンにより画像表現することを特徴とする請求項1に記載の自律行
動型ロボット。
further comprising an icon selection unit that selects an icon according to an event,
The history management unit records an event when the psychological condition is established as an icon corresponding to the event in the reaction report, thereby representing the event occurrence history in the reaction report as an icon. The autonomous action type robot according to claim 1.
前記履歴管理部は、複数種類のカテゴリのうち特定のカテゴリに属するイベントのアイ
コンに対しては、前記反応レポートにおいて強調表現を付加することを特徴とする請求項
5に記載の自律行動型ロボット。
3. The history management unit adds an emphasized expression in the reaction report to an icon of an event belonging to a specific category among a plurality of types of categories.
5. The autonomous action type robot according to 5.
前記履歴管理部は、イベントの詳細情報を記録し、前記反応レポートに記録される1以
上のアイコンのいずれかがユーザに選択されたときには、前記選択されたアイコンに対応
するイベントの詳細情報を前記ユーザに提供することを特徴とする請求項5または6に記
載の自律行動型ロボット。
The history management unit records detailed information about events, and when one of the one or more icons recorded in the reaction report is selected by the user, records detailed information about the event corresponding to the selected icon. 7. The autonomous action type robot according to claim 5, which is provided to a user.
前記履歴管理部は、ユーザにあらかじめ対応づけられる閲覧属性を特定し、前記心理条
件が成立したときのイベントのうち、前記特定した閲覧属性に適合するイベントのみを前
記ユーザに提供すべき反応レポートへ記録することを特徴とする請求項1に記載の自律行
動型ロボット。
The history management unit specifies a viewing attribute that is preliminarily associated with a user, and selects only events that match the specified viewing attribute from among events that occur when the psychological condition is established, to create a reaction report to be provided to the user. 2. The autonomous action robot according to claim 1, wherein the robot records.
前記履歴管理部は、前記心理条件が成立したときのイベントのうち、ユーザにあらかじ
め設定された閲覧権限レベルに適合するイベントのみを前記ユーザに提供すべき反応レポ
ートへ記録することを特徴とする請求項1に記載の自律行動型ロボット。
wherein the history management unit records only events matching a browsing authority level preset for the user among the events when the psychological condition is satisfied in the reaction report to be provided to the user. Item 1. The autonomous action type robot according to Item 1.
外部情報に基づいて、あらかじめ定められた複数の雰囲気条件それぞれの成否を判定す
る雰囲気判定部、を更に備え、
前記履歴管理部は、更に、いずれかの雰囲気条件が成立したとき、前記成立した雰囲気
条件に対応づけられる雰囲気情報を前記反応レポートに記録することを特徴とする請求項
1に記載の自律行動型ロボット。
an atmosphere determination unit that determines success or failure of each of a plurality of predetermined atmosphere conditions based on external information;
4. The history management unit further records atmosphere information associated with the established atmosphere condition in the reaction report when any one of the atmosphere conditions is established.
1. The autonomous action type robot according to 1.
ロボットのモードを選択するモード選択部、を更に備え、
前記履歴管理部は、更に、ロボットのモードの変化履歴を前記反応レポートに記録する
ことを特徴とする請求項1に記載の自律行動型ロボット。
further comprising a mode selection unit that selects the mode of the robot,
2. The autonomous action robot according to claim 1, wherein the history management unit further records a change history of the mode of the robot in the reaction report.
前記認識部は、ユーザの定例行動を定例イベントとして認識し、
前記履歴管理部は、更に、前記定例イベントの成否を前記反応レポートに記録すること
を特徴とする請求項1に記載の自律行動型ロボット。
The recognition unit recognizes regular behavior of the user as a regular event,
2. The autonomous action robot according to claim 1, wherein said history management unit further records success or failure of said regular event in said reaction report.
通信端末との通信処理を実行する通信部と、を更に備え、
前記動作制御部は、前記通信端末から休息時間帯の設定が指示されたときには、前記休
息時間帯においてはロボットを外部の充電器に定置させることを特徴とする請求項1に記
載の自律行動型ロボット。
A communication unit that executes communication processing with the communication terminal,
2. The autonomous action type robot according to claim 1, wherein, when instructed to set a rest period from the communication terminal, the motion control unit causes the robot to be stationary on an external charger during the rest period. robot.
ロボットのモーションを選択する機能と、
前記選択されたモーションを実行する機能と、
イベントの発生を認識する機能と、
イベントに応じて1以上の感情パラメータを変化させる機能と、
イベントの発生履歴と感情パラメータの変化履歴を対応づけて履歴情報として記録する
機能と、
感情パラメータに基づいてロボットの行動特性を変化させる機能と、
感情パラメータが所定の心理条件を成立させるときのイベントおよび前記心理条件の成
立時における感情パラメータを前記履歴情報から抽出して反応レポート生成し、ユーザに
前記反応レポートを提供する機能と、をコンピュータに発揮させることを特徴とする自律
行動型ロボットの行動制御プログラム。
A function to select the motion of the robot,
the ability to perform the selected motion;
the ability to recognize the occurrence of an event;
A function to change one or more emotion parameters according to an event;
A function to record the event occurrence history and the emotional parameter change history in association with each other as history information;
A function to change the behavioral characteristics of the robot based on emotional parameters;
a function of extracting from the history information an event when an emotional parameter satisfies a predetermined psychological condition and the emotional parameter when the psychological condition is satisfied, generating a reaction report, and providing the reaction report to the user; An action control program for an autonomous action type robot characterized by exerting.
JP2023095083A 2018-08-31 2023-06-08 Autonomous behavior-based robot for recording daily life Pending JP2023123555A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023095083A JP2023123555A (en) 2018-08-31 2023-06-08 Autonomous behavior-based robot for recording daily life

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018162732A JP7298861B2 (en) 2018-08-31 2018-08-31 Autonomous robot that records daily life
JP2023095083A JP2023123555A (en) 2018-08-31 2023-06-08 Autonomous behavior-based robot for recording daily life

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018162732A Division JP7298861B2 (en) 2018-08-31 2018-08-31 Autonomous robot that records daily life

Publications (1)

Publication Number Publication Date
JP2023123555A true JP2023123555A (en) 2023-09-05

Family

ID=69666272

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018162732A Active JP7298861B2 (en) 2018-08-31 2018-08-31 Autonomous robot that records daily life
JP2023095083A Pending JP2023123555A (en) 2018-08-31 2023-06-08 Autonomous behavior-based robot for recording daily life

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018162732A Active JP7298861B2 (en) 2018-08-31 2018-08-31 Autonomous robot that records daily life

Country Status (1)

Country Link
JP (2) JP7298861B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001191283A (en) 1999-12-31 2001-07-17 Sony Corp Robot device and its controlling method
JP2005184304A (en) 2003-12-18 2005-07-07 Sony Corp Remote control system, server and computer program
JP4838824B2 (en) 2008-04-30 2011-12-14 三菱重工業株式会社 Specific position guidance control method for autonomous mobile robot
JP2018001387A (en) 2016-07-08 2018-01-11 ロボットスタート株式会社 Robot, program, robot system, and server
JP6993821B2 (en) 2016-11-18 2022-01-14 株式会社ベネッセスタイルケア Service support equipment, service support methods and programs
WO2018097089A1 (en) 2016-11-24 2018-05-31 Groove X株式会社 Autonomously acting robot changing pupils

Also Published As

Publication number Publication date
JP2020032014A (en) 2020-03-05
JP7298861B2 (en) 2023-06-27

Similar Documents

Publication Publication Date Title
US11120559B2 (en) Computer vision based monitoring system and method
JP6402320B2 (en) An autonomous behavioral robot
JP6475872B2 (en) Autonomous behavior robot with controlled amount of activity
KR100838099B1 (en) Automatic system for monitoring independent person requiring occasional assistance
JP6495486B2 (en) Autonomous behavior robot and computer program
CN110024000B (en) Behavior autonomous robot for changing pupil
KR20190079669A (en) Social robot with environmental control feature
US10405745B2 (en) Human socializable entity for improving digital health care delivery
CN109644303A (en) Identify the autonomous humanoid robot of behavior of Sounnd source direction
JP6574970B2 (en) Robot accepting guests
CN117001687A (en) Robot and behavior autonomous robot
JP2024055866A (en) A robot that autonomously selects actions according to its internal state or external environment
CN113164822B (en) Robot for wearing clothes
JPWO2018084170A1 (en) Autonomous robot that identifies people
JP7375770B2 (en) Information processing device, information processing method, and program
WO2019151387A1 (en) Autonomous behavior robot that behaves on basis of experience
JP2020522828A (en) Computer vision based surveillance system and method
JP7298861B2 (en) Autonomous robot that records daily life
EP3992987A1 (en) System and method for continously sharing behavioral states of a creature
CN115427126B (en) Robot control method and information providing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240430