JP2023104003A - Autonomous behavior robot that behaves based on experience - Google Patents

Autonomous behavior robot that behaves based on experience Download PDF

Info

Publication number
JP2023104003A
JP2023104003A JP2023076948A JP2023076948A JP2023104003A JP 2023104003 A JP2023104003 A JP 2023104003A JP 2023076948 A JP2023076948 A JP 2023076948A JP 2023076948 A JP2023076948 A JP 2023076948A JP 2023104003 A JP2023104003 A JP 2023104003A
Authority
JP
Japan
Prior art keywords
robot
room
information
impression
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023076948A
Other languages
Japanese (ja)
Inventor
要 林
Kaname Hayashi
淳哉 林
Atsuya Hayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of JP2023104003A publication Critical patent/JP2023104003A/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Abstract

To provide a technique that allows a robot to select its behaviors while making memory associated with places or objects.SOLUTION: An autonomous behavior robot includes a memory unit, a processor, and a driving mechanism. The processor of the robot detects an object, recognizes impression memory of the object, and determines a motion to the object on the basis of the impression memory. The driving mechanism executes a motion determined by the processor.SELECTED DRAWING: Figure 17

Description

本発明は、内部状態または外部環境に応じて自律的に行動選択するロボット、に関する。 The present invention relates to a robot that autonomously selects actions according to its internal state or external environment.

人間は、癒やしを求めてペットを飼う。その一方、ペットの世話をする時間を十分に確保できない、ペットを飼える住環境にない、アレルギーがある
、死別がつらい、といったさまざまな理由により、ペットをあきらめている
人は多い。もし、ペットの役割が務まるロボットがあれば、ペットを飼えな
い人にもペットが与えてくれるような癒やしを与えられるかもしれない(特
許文献1、2参照)。
Humans keep pets for comfort. On the other hand, many people give up pets for a variety of reasons, such as not having enough time to take care of pets, lack of living environments that allow pets, allergies, and the pain of bereavement. If there is a robot that can play the role of a pet, it may be possible to give people who cannot keep a pet the comfort that a pet gives (see Patent Documents 1 and 2).

特開2000-323219号公報JP-A-2000-323219 国際公開第2017/169826号WO2017/169826

近年、ロボット技術は急速に進歩しつつあるが、ペットのような伴侶としての存在感を実現するには至っていない。ロボットに自由意志があるとは思
えないからである。人間は、ペットの自由意志があるとしか思えないような
行動を観察することにより、ペットに自由意志の存在を感じ、ペットに共感
し、ペットに癒される。
In recent years, robot technology has been rapidly progressing, but it has not yet achieved the presence of a companion like a pet. I don't think robots have free will. By observing the pet's behavior, which can only be assumed to have free will, humans feel the presence of free will in the pet, sympathize with the pet, and are healed by the pet.

生物の特徴のひとつは「記憶」である。記憶の中には、場所やモノに結びつく連想的な記憶もある。たとえば、窓際の暖かさを経験することにより、
「窓際」に「暖かい」という印象が結びつく。あるいは、赤いコートのそば
で楽しい経験をしたとき、赤いコートに肯定的なイメージが結びつくこともある。生物は、外部環境に基づいてさまざまな記憶を形成し、外部環境に記
憶を刺激されながら行動選択を行う。
One of the characteristics of living things is "memory". Memories also include associative memories that are linked to places and things. For example, by experiencing the warmth of a window,
The impression of "warm" is associated with "by the window". Alternatively, a positive image may be associated with a red coat when a person has a pleasant experience near it. Organisms form various memories based on the external environment and make action selections while being stimulated by the external environment.

本発明は上記課題認識に基づいて完成された発明であり、その主たる目的は、ロボットに、場所あるいはモノにともなう記憶を作りながら行動選択さ
せる技術、を提供することにある。
The present invention has been completed based on the recognition of the above problem, and its main purpose is to provide a technique for making a robot select an action while creating a memory associated with a place or an object.

本発明のある態様における自律行動型ロボットは、記憶部と、プロセッサと、前記プロセッサにより選択されたモーションを実行する駆動機構と、を備える。
前記プロセッサは、オブジェクトに対する印象記憶を認識し、当該印象記憶に基づいて当該オブジェクトに対するモーションを決定する。
本発明の別の態様における自律行動型ロボットは、ロボットのモーションを選択する動作制御部と、動作制御部により選択されたモーションを実行する駆動機構と、撮像画像を取得する撮像画像取得部と、撮像画像から特徴点
を抽出することにより、画像特徴情報を取得する画像特徴取得部と、撮像画
像が取得された地点の環境情報を取得する環境情報取得部と、画像特徴情報
と環境情報を対応づけることにより、環境記憶を生成するマップ管理部と、
を備える。
動作制御部は、環境記憶を参照し、所定の移動先条件を満たす環境情報に
対応づけられる地点を移動目標地点として設定する。
An autonomous action type robot according to one aspect of the present invention includes a storage unit, a processor, and a driving mechanism that executes motions selected by the processor.
The processor recognizes an impression memory for an object and determines motion for the object based on the impression memory.
An autonomous action robot according to another aspect of the present invention includes a motion control unit that selects a motion of the robot, a drive mechanism that executes the motion selected by the motion control unit, a captured image acquisition unit that acquires a captured image, An image feature acquisition unit that acquires image feature information by extracting feature points from the captured image, an environment information acquisition unit that acquires the environmental information of the point where the captured image was acquired, and the image feature information corresponds to the environment information. a map manager that generates an environment memory by adding
Prepare.
The motion control unit refers to the environment storage and sets a point associated with environment information that satisfies a predetermined destination condition as a movement target point.

本発明の別の態様における自律行動型ロボットは、ロボットのモーションを選択する動作制御部と、動作制御部により選択されたモーションを実行す
る駆動機構と、撮像画像を取得する撮像画像取得部と、撮像画像の特徴量を
抽出することにより、画像特徴情報を取得する画像特徴取得部と、撮像画像
が取得された時点において第1次環境情報を取得し、画像特徴情報と第1次
環境情報を対応づけて登録する第1次環境情報取得部と、新規に取得された
第1の画像特徴情報との類似度が所定閾値以上となる画像特徴情報に対応づ
けられる第1次環境情報を第1の画像特徴情報に対応する第2次環境情報と
して特定する第2次環境情報取得部と、を備える。
動作制御部は、第1次環境情報および第2次環境情報の双方に基づいてロ
ボットの行動特性を変化させる。
An autonomous action robot according to another aspect of the present invention includes a motion control unit that selects a motion of the robot, a drive mechanism that executes the motion selected by the motion control unit, a captured image acquisition unit that acquires a captured image, An image feature acquisition unit that acquires image feature information by extracting a feature amount of a captured image; The primary environment information associated with the image feature information whose degree of similarity between the primary environment information acquisition unit to be associated and registered and the newly acquired first image feature information is equal to or greater than a predetermined threshold is selected as the first and a secondary environment information acquiring unit for specifying as secondary environment information corresponding to the image feature information.
The motion control unit changes the behavioral characteristics of the robot based on both the primary environmental information and the secondary environmental information.

本発明の別の態様における自律行動型ロボットは、ロボットのモーションを選択する動作制御部と、動作制御部により選択されたモーションを実行する駆動機構と、撮像画像を取得する撮像画像取得部と、撮像画像の特徴量を
抽出する画像特徴取得部と、撮像画像が取得された地点における第1次環境
情報を取得する第1次環境情報取得部と、特徴量を入力として環境情報を出
力する所定の推測モデルに対して、新規に取得された撮像画像の特徴量を入
力とすることにより、推測モデルから出力される環境情報を第2次環境情報
として取得する第2次環境情報取得部と、を備える。
動作制御部は、第1次環境情報および第2次環境情報の双方に基づいてロ
ボットの行動特性を変化させる。
An autonomous action robot according to another aspect of the present invention includes a motion control unit that selects a motion of the robot, a drive mechanism that executes the motion selected by the motion control unit, a captured image acquisition unit that acquires a captured image, An image feature acquisition unit that extracts the feature amount of the captured image, a primary environment information acquisition unit that acquires the primary environment information at the point where the captured image was acquired, and a predetermined a secondary environment information acquisition unit that acquires environmental information output from the inference model as secondary environment information by inputting feature values of newly acquired captured images for the inference model; Prepare.
The motion control unit changes the behavioral characteristics of the robot based on both the primary environmental information and the secondary environmental information.

本発明の別の態様における自律行動型ロボットは、ロボットのモーションを選択する動作制御部と、動作制御部により選択されたモーションを実行す
る駆動機構と、オブジェクトを検出するオブジェクト検出部と、オブジェク
トが検出された時点の環境情報を取得する環境情報取得部と、オブジェクト
と環境情報を対応づけることにより、環境記憶を生成するオブジェクト管理
部と、を備える。
動作制御部は、環境記憶に基づいて行動特性を変化させる。
According to another aspect of the present invention, an autonomous action robot includes a motion control unit that selects a motion of the robot, a drive mechanism that executes the motion selected by the motion control unit, an object detection unit that detects an object, and an object that: An environment information acquisition unit that acquires environment information at the time of detection, and an object management unit that generates environment storage by associating the object with the environment information.
The motion control unit changes behavioral characteristics based on environmental memory.

本発明の別の態様における自律行動型ロボットは、ロボットのモーションを選択する動作制御部と、動作制御部により選択されたモーションを実行す
る駆動機構と、オブジェクトを検出するオブジェクト検出部と、オブジェク
トが検出されたとき、感情パラメータを変化させる状態管理部と、を備える。
動作制御部は、感情パラメータにしたがってロボットの行動特性を変化さ
せる。
According to another aspect of the present invention, an autonomous action robot includes a motion control unit that selects a motion of the robot, a drive mechanism that executes the motion selected by the motion control unit, an object detection unit that detects an object, and an object that: a state manager that changes the emotion parameter when detected.
The motion control unit changes the behavioral characteristics of the robot according to the emotion parameter.

本発明の別の態様における自律行動型ロボットは、ロボットのモーションを選択する動作制御部と、動作制御部により選択されたモーションを実行す
る駆動機構と、複数のオブジェクトを検出するオブジェクト検出部と、複数
のオブジェクトが検出された時点の環境情報を取得する環境情報取得部と、
環境情報に基づいて、複数のオブジェクトに印象記憶を設定する状態管理部
と、を備える。
状態管理部は、複数のオブジェクトが再検出されたときには、複数のオブ
ジェクトに対応づけられる印象記憶に基づいて感情パラメータを変化させ、
動作制御部は、感情パラメータにしたがってロボットの行動特性を変化させ
る。
An autonomous action robot according to another aspect of the present invention includes a motion control unit that selects a motion of the robot, a driving mechanism that executes the motion selected by the motion control unit, an object detection unit that detects a plurality of objects, an environment information acquisition unit that acquires environment information at the time when a plurality of objects are detected;
a state manager for setting impression storage for the plurality of objects based on the environment information.
The state management unit changes the emotion parameter based on the impression memory associated with the plurality of objects when the plurality of objects is re-detected,
The motion control unit changes the behavioral characteristics of the robot according to the emotion parameter.

本発明によれば、ロボットにおける記憶の生成と記憶にともなう行動選択を実現しやすくなる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes easy to implement|achieve action selection accompanying memory generation and memory in a robot.

ロボットが場所に基づいて記憶を形成する方法を説明するための概念図である。1 is a conceptual diagram for explaining how a robot forms memories based on location; FIG. 図2(a)はロボットの正面外観図である。図2(b)は、ロボットの側面外観図である。FIG. 2(a) is a front external view of the robot. FIG. 2(b) is a side external view of the robot. ロボットの構造を概略的に表す断面図である。It is a cross-sectional view schematically showing the structure of the robot. 基本構成におけるロボットのハードウェア構成図である。It is a hardware block diagram of the robot in a basic configuration. ロボットシステムの機能ブロック図である。1 is a functional block diagram of a robot system; FIG. 本実施形態におけるロボットの機能ブロック図である。It is a functional block diagram of the robot in this embodiment. キーフレームの作成方法を示す模式図である。FIG. 4 is a schematic diagram showing a method of creating key frames; 環境マップ情報のデータ構造図である。4 is a data structure diagram of environment map information; FIG. オブジェクト情報のデータ構造図である。4 is a data structure diagram of object information; FIG. キーフレームの連鎖を示す模式図である。FIG. 4 is a schematic diagram showing a chain of key frames; 環境マップ情報の更新処理過程を示すフローチャートである。4 is a flow chart showing a process of updating environment map information; イベントの発生にともなってロボットが移動先を選択する方法を説明するための模式図である。FIG. 4 is a schematic diagram for explaining how the robot selects a destination when an event occurs; イベントの処理過程を示すフローチャートである。4 is a flow chart showing an event processing process; 図11のS28に示すオブジェクト判定処理の詳細を示すフローチャートである。FIG. 12 is a flow chart showing the details of the object determination process shown in S28 of FIG. 11; FIG. 変形例におけるオブジェクト環境情報のデータ構造図である。FIG. 11 is a data structure diagram of object environment information in a modified example; 変形例におけるルーム印象情報のデータ構造図である。FIG. 11 is a data structure diagram of room impression information in a modified example; 変形例において、オブジェクトを検出したときの処理過程を示すフローチャートである。FIG. 10 is a flow chart showing a process when an object is detected in a modified example; FIG. 別の変形例における行動経験情報のデータ構造図である。It is a data structure diagram of action experience information in another modification.

図1は、ロボット100が場所に基づいて記憶を形成する方法を説明する
ための概念図である。
本実施形態のロボット100は小型のカメラを搭載する。ロボット100
は、このカメラによって定期的に周辺を撮像することにより多数の撮像画像
(静止画像)を取得する。また、ロボット100は、マイクロフォンや温度
センサなどの各種センサにより環境情報を取得する。環境情報とは、音、ニ
オイ、電波の受信強度、温度、ユーザの存否など、各種センサによる検出値
の集合体である。ロボット100は、撮像画像に基づく記憶(以下、「画像
記憶」とよぶ)と環境情報に基づく記憶(以下、「環境記憶」とよぶ)を形
成する。この2種類の記憶を対応づけることで、ロボット100の場所に対
する記憶(以下、「場所記憶」とよぶ)が形成される。
FIG. 1 is a conceptual diagram for explaining how the robot 100 forms memories based on location.
The robot 100 of this embodiment is equipped with a small camera. robot 100
is a large number of captured images by periodically capturing images of the surroundings with this camera.
(still image). Also, the robot 100 acquires environmental information using various sensors such as a microphone and a temperature sensor. Environmental information is a set of values detected by various sensors, such as sound, odor, received strength of radio waves, temperature, presence or absence of a user, and the like. The robot 100 forms a memory based on captured images (hereinafter referred to as "image memory") and a memory based on environmental information (hereinafter referred to as "environmental memory"). By associating these two types of memories, a memory for the location of the robot 100 (hereinafter referred to as "location memory") is formed.

図1の画像記憶層400は画像記憶を概念的に示す記憶層であり、環境記
憶層402は環境記憶を概念的に示す記憶層である。画像記憶は、複数のキ
ーフレーム404の集合体である。キーフレーム404は、撮像画像におけ
る特徴点(特徴量)の分布情報である。本実施形態のロボット100は、画
像特徴量を用いたグラフベースのSLAM(Simultaneous Localization and
Mapping)技術、より具体的には、ORB(Oriented FAST and Rotated BRI
EF)特徴量に基づくSLAM技術によりキーフレーム404を形成する(詳
細後述)。
An image storage layer 400 in FIG. 1 is a storage layer conceptually representing image storage, and an environmental storage layer 402 is a storage layer conceptually representing environmental storage. An image store is a collection of keyframes 404 . A key frame 404 is distribution information of feature points (feature amounts) in the captured image. The robot 100 of this embodiment is a graph-based SLAM (Simultaneous Localization and Analysis) using image features.
Mapping) technology, more specifically ORB (Oriented FAST and Rotated BRI
EF) A key frame 404 is formed by the SLAM technique based on the feature amount (details will be described later).

ロボット100は、移動しながらキーフレーム404を定期的に形成する
ことにより、キーフレーム404の集合体、いいかえれば、画像特徴分布と
して画像記憶層400を形成する。ロボット100は、現在地点において取
得したキーフレーム404と、既に保有している多数のキーフレーム404
(画像記憶層400)を比較することにより、画像記憶層400におけるいずれの地点に自らが存在しているかを把握する。すなわち、ロボット100は、実際に視認している撮像画像とかつて視認した撮像画像(記憶)を比較し、自らの現在の状況と過去の記憶を整合させることで「空間認識」を行う。
By periodically forming key frames 404 while moving, the robot 100 forms an image storage layer 400 as a collection of key frames 404, in other words, an image feature distribution. The robot 100 acquires a keyframe 404 at the current location and a number of keyframes 404 already possessed.
By comparing (image storage layer 400), it is possible to grasp at which point in the image storage layer 400 the object itself exists. In other words, the robot 100 compares the captured image that is actually viewed with the captured image that was previously viewed (memory), and performs "space recognition" by matching its own current situation with its past memory.

撮像画像の取得時において、ロボット100は環境情報も取得する。環境
記憶は、各地点における環境情報の集合体である。ロボット100は、環境
情報(環境記憶層402)に基づいて移動方向を選択する。たとえば、ロボ
ット100が高温の地点P1にいるとき、平均気温が20度以下の涼しい地
点への移動を選択したとする。ロボット100は、まず、上記条件を満たす
環境情報を環境記憶層402から探し、地点P2の環境情報が上記条件を満
たすことが判明したとする。次に、ロボット100は地点P2に対応するキ
ーフレーム404を特定する。ロボット100は、画像記憶層400(キー
フレーム404の分布)を参照しながら地点P2への移動経路を特定する。
以上の制御方法により、ロボット100は、平均気温が20度以下という条
件を満たす地点P2に向かって移動する。
When acquiring the captured image, the robot 100 also acquires environmental information. Ambient memory is a collection of environmental information at each point. The robot 100 selects a movement direction based on the environment information (environment storage layer 402). For example, when the robot 100 is at a hot spot P1, it chooses to move to a cool spot with an average temperature of 20 degrees or less. Assume that the robot 100 first searches the environment storage layer 402 for environment information that satisfies the above conditions, and finds that the environment information of the point P2 satisfies the above conditions. Next, robot 100 identifies keyframe 404 corresponding to point P2. The robot 100 specifies the movement route to the point P2 while referring to the image storage layer 400 (distribution of the keyframes 404).
With the control method described above, the robot 100 moves toward the point P2 that satisfies the condition that the average temperature is 20 degrees or less.

以下、ロボット100の基本構成について図2から図5に関連して説明し
たあと、本実施形態における記憶の形成および利用方法を中心として説明す
る。
なお、基本構成のロボット100は、キーフレーム404ではなく外部セ
ンサにより位置を認識することが前提となっている。キーフレーム404と
外部センサは併用してもよい。
Hereinafter, after explaining the basic configuration of the robot 100 with reference to FIGS. 2 to 5, the method of forming and using memory in this embodiment will be mainly explained.
It should be noted that the robot 100 in the basic configuration is premised on recognizing the position not by the keyframe 404 but by an external sensor. The keyframe 404 and an external sensor may be used together.

[基本構成]
図2(a)は、ロボット100の正面外観図である。図2(b)は、ロボ
ット100の側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づい
て行動を決定する自律行動型のロボットである。外部環境は、カメラやサー
モセンサなど各種のセンサにより認識される。内部状態はロボット100の
感情を表現するさまざまなパラメータとして定量化される。ロボット100
は、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わ
る人間を「ユーザ」とよぶ。
[Basic configuration]
FIG. 2(a) is a front external view of the robot 100. FIG. FIG. 2(b) is a side external view of the robot 100. FIG.
The robot 100 in this embodiment is an autonomous action type robot that determines actions based on the external environment and internal state. The external environment is recognized by various sensors such as cameras and thermosensors. The internal state is quantified as various parameters that express the robot's 100 emotions. robot 100
The range of action is the house of the owner's family. A person involved in the robot 100 is hereinafter referred to as a "user".

ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウ
レタンやゴム、樹脂、繊維などやわらかく弾力性のある素材により形成され
た外皮を含む。ロボット100に服を着せてもよい。ロボット100の総重
量は5~15キログラム程度、身長は0.5~1.2メートル程度である。
適度な重さと丸み、柔らかさ、手触りのよさ、といった諸属性により、ユー
ザがロボット100を抱きかかえやすく、かつ、抱きかかえたくなるという
効果が実現される。
A body 104 of the robot 100 has an overall rounded shape and includes an outer skin made of a soft and elastic material such as urethane, rubber, resin, or fiber. The robot 100 may be dressed. The robot 100 has a total weight of about 5 to 15 kilograms and a height of about 0.5 to 1.2 meters.
Various attributes such as appropriate weight, roundness, softness, and good touch realize the effect that the user can easily hold the robot 100 and want to hold it.

ロボット100は、一対の前輪102(左輪102a,右輪102b)と
、一つの後輪103を含む。前輪102が駆動輪であり、後輪103が従動
輪である。前輪102は、操舵機構を有しないが、回転速度や回転方向を個
別に制御可能とされている。後輪103は、キャスターであり、ロボット1
00を前後左右へ移動させるために回転自在となっている。後輪103はオ
ムニホイールであってもよい。
The robot 100 includes a pair of front wheels 102 (left wheel 102a, right wheel 102b) and one rear wheel 103. As shown in FIG. The front wheels 102 are driving wheels and the rear wheels 103 are driven wheels. The front wheels 102 do not have a steering mechanism, but their rotational speed and rotational direction can be individually controlled. The rear wheels 103 are casters and the robot 1
It is rotatable to move 00 forward, backward, left and right. Rear wheel 103 may be an omni wheel.

前輪102および後輪103は、駆動機構(回動機構、リンク機構)によ
りボディ104に完全収納できる。走行時においても各車輪の大部分はボデ
ィ104に隠れているが、各車輪がボディ104に完全収納されるとロボッ
ト100は移動不可能な状態となる。すなわち、車輪の収納動作にともなっ
てボディ104が降下し、床面Fに着座する。この着座状態においては、ボ
ディ104の底部に形成された平坦状の着座面108(接地底面)が床面F
に当接する。
The front wheels 102 and rear wheels 103 can be completely housed in the body 104 by the drive mechanism (rotating mechanism, link mechanism). Most of the wheels are hidden by the body 104 even during running, but when the wheels are completely housed in the body 104, the robot 100 becomes immobile. That is, the body 104 descends and seats on the floor surface F as the wheels are retracted. In this seated state, the flat seating surface 108 (grounding bottom surface) formed at the bottom of the body 104 is on the floor surface F.
abut.

ロボット100は、2つの手106を有する。手106には、モノを把持
する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能
である。2つの手106も個別制御可能である。
Robot 100 has two hands 106 . The hand 106 does not have the function of grasping an object. The hand 106 can be raised, shaken, or vibrated for simple actions. The two hands 106 are also individually controllable.

目110は、液晶素子または有機EL素子による画像表示が可能である。
ロボット100は、音源方向を特定可能なマイクロフォンアレイや超音波セ
ンサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
The eye 110 is capable of image display using a liquid crystal element or an organic EL element.
The robot 100 is equipped with various sensors such as a microphone array and an ultrasonic sensor that can identify the direction of a sound source. It also has a built-in speaker that can emit simple sounds.

ロボット100の頭部にはツノ112が取り付けられる。上述のようにロ
ボット100は軽量であるため、ユーザはツノ112をつかむことでロボッ
ト100を持ち上げることも可能である。ツノ112には全天周カメラが取
り付けられ、ロボット100の上部全域を一度に撮像可能である。
A horn 112 is attached to the head of the robot 100 . Since the robot 100 is lightweight as described above, the user can lift the robot 100 by grabbing the horns 112 . An omnidirectional camera is attached to the horn 112, and the entire upper area of the robot 100 can be imaged at once.

図3は、ロボット100の構造を概略的に表す断面図である。
図3に示すように、ロボット100のボディ104は、ベースフレーム3
08、本体フレーム310、一対の樹脂製のホイールカバー312および外
皮314を含む。ベースフレーム308は、金属からなり、ボディ104の
軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、ア
ッパープレート332とロアプレート334とを複数のサイドプレート33
6により上下に連結して構成される。複数のサイドプレート336間には通
気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内
方には、バッテリー118、制御回路342および各種アクチュエータが収
容されている。
FIG. 3 is a cross-sectional view schematically showing the structure of robot 100. As shown in FIG.
As shown in FIG. 3, the body 104 of the robot 100 is attached to the base frame 3
08, includes a body frame 310, a pair of resin wheel covers 312 and an outer skin 314. The base frame 308 is made of metal, configures the axis of the body 104, and supports the internal mechanism. The base frame 308 includes an upper plate 332 and a lower plate 334 connected to a plurality of side plates 33
6 are connected vertically. Sufficient spacing is provided between the side plates 336 to allow for ventilation. Inside the base frame 308, a battery 118, a control circuit 342 and various actuators are accommodated.

本体フレーム310は、樹脂材からなり、頭部フレーム316および胴部
フレーム318を含む。頭部フレーム316は、中空半球状をなし、ロボッ
ト100の頭部骨格を形成する。胴部フレーム318は、段付筒形状をなし
、ロボット100の胴部骨格を形成する。胴部フレーム318は、ベースフ
レーム308と一体に固定される。頭部フレーム316は、胴部フレーム3
18の上端部に相対変位可能に組み付けられる。
Body frame 310 is made of a resin material and includes head frame 316 and body frame 318 . The head frame 316 has a hollow hemispherical shape and forms the head skeleton of the robot 100 . The torso frame 318 has a stepped cylindrical shape and forms the torso skeleton of the robot 100 . A torso frame 318 is fixed integrally with the base frame 308 . The head frame 316 is the torso frame 3
It is attached to the upper end of 18 so as to be relatively displaceable.

頭部フレーム316には、ヨー軸320、ピッチ軸322およびロール軸
324の3軸と、各軸を回転駆動するためのアクチュエータ326が設けら
れる。アクチュエータ326は、各軸を個別に駆動するための複数のサーボ
モータを含む。首振り動作のためにヨー軸320が駆動され、頷き動作のた
めにピッチ軸322が駆動され、首を傾げる動作のためにロール軸324が
駆動される。
The head frame 316 has a yaw axis 320, a pitch axis 322 and a roll axis.
Three axes 324 and an actuator 326 for rotating each axis are provided. Actuator 326 includes multiple servo motors to drive each axis individually. The yaw axis 320 is driven for swing motion, the pitch axis 322 is driven for nod motion, and the roll axis 324 is driven for tilt motion.

頭部フレーム316の上部には、ヨー軸320を支持するプレート325
が固定されている。プレート325には、上下間の通気を確保するための複
数の通気孔327が形成される。
A plate 325 that supports the yaw axis 320 is provided on the top of the head frame 316.
is fixed. A plurality of ventilation holes 327 are formed in the plate 325 to ensure ventilation between the upper and lower sides.

頭部フレーム316およびその内部機構を下方から支持するように、金属
製のベースプレート328が設けられる。ベースプレート328は、クロス
リンク機構329(パンタグラフ機構)を介してプレート325と連結され
る一方、ジョイント330を介してアッパープレート332(ベースフレー
ム308)と連結される。
A metal base plate 328 is provided to support the head frame 316 and its internal mechanisms from below. The base plate 328 is connected to the plate 325 via a cross link mechanism 329 (pantograph mechanism), and is connected via a joint 330 to an upper plate 332 (base frame 308).

胴部フレーム318は、ベースフレーム308と車輪駆動機構370を収
容する。車輪駆動機構370は、回動軸378およびアクチュエータ379
を含む。胴部フレーム318の下半部は、ホイールカバー312との間に前
輪102の収納スペースSを形成するために小幅とされる。
Torso frame 318 houses base frame 308 and wheel drive mechanism 370 . The wheel drive mechanism 370 includes a pivot 378 and an actuator 379
including. A lower half portion of the body frame 318 is narrowed to form a storage space S for the front wheel 102 between the wheel cover 312 and the wheel cover 312 .

外皮314は、ウレタンゴムからなり、本体フレーム310およびホイー
ルカバー312を外側から覆う。手106は、外皮314と一体成形される
。外皮314の上端部には、外気を導入するための開口部390が設けられ
る。
Outer skin 314 is made of urethane rubber and covers body frame 310 and wheel cover 312 from the outside. Hand 106 is integrally molded with skin 314 . The upper end of the outer skin 314 is provided with an opening 390 for introducing outside air.

図4は、ロボット100のハードウェア構成図である。
ロボット100は、内部センサ128、通信機126、記憶装置124、
プロセッサ122、駆動機構120およびバッテリー118を含む。プロセ
ッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは
電源線130および信号線132により互いに接続される。バッテリー11
8は、電源線130を介して各ユニットに電力を供給する。各ユニットは信
号線132により制御信号を送受する。バッテリー118は、リチウムイオ
ン二次電池であり、ロボット100の動力源である。
FIG. 4 is a hardware configuration diagram of the robot 100. As shown in FIG.
The robot 100 includes an internal sensor 128, a communication device 126, a storage device 124,
Includes processor 122 , drive mechanism 120 and battery 118 . Processor 122 and storage device 124 are included in control circuitry 342 . Each unit is connected to each other by a power line 130 and a signal line 132 . battery 11
8 supplies power to each unit via the power line 130 . Each unit transmits and receives control signals via signal line 132 . The battery 118 is a lithium ion secondary battery and is the power source of the robot 100 .

内部センサ128は、ロボット100が内蔵する各種センサの集合体であ
る。具体的には、カメラ(全天周カメラ)、マイクロフォンアレイ、測距セ
ンサ(赤外線センサ)、サーモセンサ、タッチセンサ、加速度センサ、ニオ
イセンサなどである。タッチセンサは、外皮314と本体フレーム310の
間に設置され、ユーザのタッチを検出する。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。
The internal sensor 128 is a collection of various sensors built into the robot 100 . Specifically, they are cameras (omnidirectional cameras), microphone arrays, ranging sensors (infrared sensors), thermosensors, touch sensors, acceleration sensors, odor sensors, and the like. A touch sensor is installed between the skin 314 and the body frame 310 to detect the user's touch. An odor sensor is a known sensor that applies the principle that electrical resistance changes due to the adsorption of odor-causing molecules.

通信機126は、各種の外部機器を対象として無線通信を行う通信モジュ
ールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより
構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ
122は、コンピュータプログラムの実行手段である。駆動機構120は、
複数のアクチュエータおよび上述した車輪駆動機構370を含む。このほか
には、表示器やスピーカーなども搭載される。
The communication device 126 is a communication module that performs wireless communication with various external devices. The storage device 124 is composed of non-volatile memory and volatile memory, and stores computer programs and various setting information. processor
122 is a computer program execution means. The drive mechanism 120 is
It includes a plurality of actuators and the wheel drive mechanism 370 described above. It also has a display and speakers.

駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム
316)を制御する。駆動機構120は、ロボット100の移動方向や移動
速度を変化させるほか、車輪(前輪102および後輪103)を昇降させる
こともできる。車輪が上昇すると、車輪はボディ104に完全に収納され、
ロボット100は着座面108にて床面Fに当接し、着座状態となる。また
、駆動機構120は、ワイヤ134を介して、手106を制御する。
The drive mechanism 120 mainly includes wheels (front wheels 102) and a head (head frame).
316). The drive mechanism 120 can change the movement direction and movement speed of the robot 100, and can also move the wheels (the front wheels 102 and the rear wheels 103) up and down. When the wheels are raised, they are fully retracted into the body 104 and
The robot 100 comes into contact with the floor surface F on the seating surface 108 and is in a seated state. Drive mechanism 120 also controls hand 106 via wire 134 .

図5は、ロボットシステム300の機能ブロック図である。
ロボットシステム300は、ロボット100、サーバ200および複数の
外部センサ114を含む。ロボット100およびサーバ200の各構成要素
は、CPU(Central Processing Unit)および各種コプロセッサなどの演算
器、メモリやストレージといった記憶装置、それらを連結する有線または無
線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令
を供給するソフトウェアによって実現される。コンピュータプログラムは、
デバイスドライバ、オペレーティングシステム、それらの上位層に位置する
各種アプリケーションプログラム、また、これらのプログラムに共通機能を
提供するライブラリによって構成されてもよい。以下に説明する各ブロック
は、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、
サーバ200の機能の一部または全部はロボット100により実現されても
よい。
FIG. 5 is a functional block diagram of the robot system 300. As shown in FIG.
Robotic system 300 includes robot 100 , server 200 and a plurality of external sensors 114 . Each component of the robot 100 and the server 200 includes computing units such as a CPU (Central Processing Unit) and various coprocessors, storage devices such as memory and storage, hardware including wired or wireless communication lines connecting them, and storage. It is implemented by software that is stored in the device and that supplies processing instructions to the calculator. the computer program
It may be composed of a device driver, an operating system, various application programs located in their upper layers, and a library that provides common functions to these programs. Each block described below represents a functional block rather than a hardware configuration.
A part of the functions of the robot 100 may be realized by the server 200,
A part or all of the functions of the server 200 may be realized by the robot 100. FIG.

家屋内にはあらかじめ複数の外部センサ114が設置される。サーバ20
0には、外部センサ114の位置座標が登録される。ロボット100の内部
センサ128および複数の外部センサ114から得られる情報に基づいて、
サーバ200がロボット100の基本行動を決定する。外部センサ114は
ロボット100の感覚器を補強するためのものであり、サーバ200はロボ
ット100の頭脳を補強するためのものである。ロボット100の通信機1
26が外部センサ114と定期的に通信し、サーバ200は外部センサ11
4によりロボット100の位置を特定する(特許文献2も参照)。
A plurality of external sensors 114 are installed in advance in the house. server 20
In 0, the position coordinates of the external sensor 114 are registered. Based on the information obtained from the internal sensor 128 of the robot 100 and the plurality of external sensors 114,
Server 200 determines the basic behavior of robot 100 . The external sensor 114 is for reinforcing the sensory organs of the robot 100 and the server 200 is for reinforcing the brain of the robot 100 . Robot 100 Communicator 1
26 periodically communicates with the external sensor 114 and the server 200 communicates with the external sensor 11
4 identifies the position of the robot 100 (see also Patent Document 2).

(サーバ200)
サーバ200は、通信部204、データ処理部202およびデータ格納部
206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を
担当する。データ格納部206は各種データを格納する。データ処理部20
2は、通信部204により取得されたデータおよびデータ格納部206に格
納されるデータに基づいて各種処理を実行する。データ処理部202は、通
信部204およびデータ格納部206のインタフェースとしても機能する。
(server 200)
The server 200 includes a communication unit 204, a data processing unit 202 and a data storage unit.
Including 206.
The communication unit 204 is in charge of processing communication with the external sensor 114 and the robot 100 . A data storage unit 206 stores various data. Data processing unit 20
2 executes various processes based on the data acquired by the communication unit 204 and the data stored in the data storage unit 206 . Data processing unit 202 also functions as an interface for communication unit 204 and data storage unit 206 .

データ格納部206は、モーション格納部232と個人データ格納部21
8を含む。
ロボット100は、複数の動作パターン(モーション)を有する。手10
6を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナー
を見つめる、などさまざまなモーションが定義される。
The data storage unit 206 includes the motion storage unit 232 and the personal data storage unit 21.
Including 8.
The robot 100 has a plurality of action patterns (motions). hand 10
Various motions are defined, such as shaking the 6, approaching the owner while meandering, and staring at the owner while tilting the neck.

モーション格納部232は、モーションの制御内容を定義する「モーショ
ンファイル」を格納する。各モーションは、モーションIDにより識別され
る。モーションファイルは、ロボット100のモーション格納部160にも
ダウンロードされる。どのモーションを実行するかは、サーバ200で決定
されることもあるし、ロボット100で決定されることもある。
The motion storage unit 232 stores a “motion file” that defines the content of motion control. Each motion is identified by a motion ID. Motion files are also downloaded to the motion store 160 of the robot 100 . Which motion to perform may be determined by the server 200 or may be determined by the robot 100 .

ロボット100のモーションの多くは、複数の単位モーションを含む複合
モーションとして構成される。たとえば、ロボット100がオーナーに近づくとき、オーナーの方に向き直る単位モーション、手を上げながら近づく単
位モーション、体を揺すりながら近づく単位モーション、両手を上げながら
着座する単位モーションの組み合わせとして表現されてもよい。このような
4つのモーションの組み合わせにより、「オーナーに近づいて、途中で手を
上げて、最後は体をゆすった上で着座する」というモーションが実現される
。モーションファイルには、ロボット100に設けられたアクチュエータの
回転角度や角速度などが時間軸に関連づけて定義される。モーションファイ
ル(アクチュエータ制御情報)にしたがって、時間経過とともに各アクチュ
エータを制御することで様々なモーションが表現される。
Most of the motions of the robot 100 are configured as compound motions including multiple unit motions. For example, when the robot 100 approaches the owner, it may be expressed as a combination of a unit motion of turning toward the owner, a unit motion of approaching while raising hands, a unit motion of approaching while shaking the body, and a unit motion of sitting while raising both hands. . like this
By combining four motions, the motion of "approaching the owner, raising a hand in the middle, finally shaking the body and sitting down" is realized. In the motion file, the rotation angles and angular velocities of the actuators provided in the robot 100 are defined in association with the time axis. Various motions are expressed by controlling each actuator over time according to a motion file (actuator control information).

先の単位モーションから次の単位モーションに変化するときの移行時間を
「インターバル」とよぶ。インターバルは、単位モーション変更に要する時
間やモーションの内容に応じて定義されればよい。インターバルの長さは調
整可能である。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各ア
クチュエータの出力調整など、ロボット100の行動制御に関わる設定のこ
とを「行動特性」と総称する。ロボット100の行動特性は、モーション選
択アルゴリズム、モーションの選択確率、モーションファイル等により定義
される。
The transition time when changing from the previous unit motion to the next unit motion is called "interval". The interval may be defined according to the time required to change the unit motion and the contents of the motion. The interval length is adjustable.
Hereinafter, settings related to action control of the robot 100, such as when and which motion to select, output adjustment of each actuator for realizing the motion, etc., are collectively referred to as "behavior characteristics". The behavioral characteristics of the robot 100 are defined by motion selection algorithms, motion selection probabilities, motion files, and the like.

モーション格納部232は、モーションファイルのほか、各種のイベント
が発生したときに実行すべきモーションを定義するモーション選択テーブル
を格納する。モーション選択テーブルにおいては、イベントに対して1以上
のモーションとその選択確率が対応づけられる。
The motion storage unit 232 stores motion files as well as motion selection tables that define motions to be executed when various events occur. In the motion selection table, one or more motions and their selection probabilities are associated with events.

個人データ格納部218は、ユーザの情報を格納する。具体的には、ユー
ザに対する親密度とユーザの身体的特徴・行動的特徴を示すマスタ情報を格
納する。年齢や性別などの他の属性情報を格納してもよい。
Personal data storage unit 218 stores user information. Specifically, it stores master information indicating familiarity with the user and the user's physical features/behavioral features. Other attribute information such as age and gender may be stored.

ロボット100は、ユーザごとに親密度という内部パラメータを有する。
ロボット100が、自分を抱き上げる、声をかけてくれるなど、自分に対し
て好意を示す行動を認識したとき、そのユーザに対する親密度が高くなる。
ロボット100に関わらないユーザや、乱暴を働くユーザ、出会う頻度が低
いユーザに対する親密度は低くなる。
The robot 100 has an internal parameter of intimacy for each user.
When the robot 100 recognizes an action showing goodwill toward itself, such as picking it up or calling out to the user, the degree of intimacy with the user increases.
Intimacy is low for users who do not interact with the robot 100, users who behave violently, and users who do not meet frequently.

データ処理部202は、位置管理部208、認識部212、動作制御部2
22、親密度管理部220および状態管理部244を含む。
位置管理部208は、ロボット100の位置座標を特定する。状態管理部
244は、充電率や内部温度、プロセッサ122の処理負荷などの各種物理
状態など各種内部パラメータを管理する。また、状態管理部244は、ロボ
ット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情
パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情
パラメータに応じてロボット100の移動目標地点が変化する。たとえば、
寂しさが高まっているときには、ロボット100はユーザのいるところを移
動目標地点として設定する。
The data processing unit 202 includes a position management unit 208, a recognition unit 212, an operation control unit 2
22, includes a degree of familiarity manager 220 and a state manager 244;
The position management unit 208 identifies position coordinates of the robot 100 . State management part
244 manages various internal parameters such as charging rate, internal temperature, and various physical states such as processing load of processor 122 . In addition, the state management unit 244 manages various emotion parameters indicating the emotions of the robot 100 (loneliness, curiosity, desire for approval, etc.). These emotional parameters are constantly fluctuating. The movement target point of the robot 100 changes according to the emotion parameter. for example,
When the loneliness is increasing, the robot 100 sets the location of the user as the movement target point.

時間経過によって感情パラメータが変化する。また、後述の応対行為によっても各種感情パラメータは変化する。たとえば、オーナーから「抱っこ」
をされると寂しさを示す感情パラメータは低下し、長時間にわたってオーナ
ーを視認しないときには寂しさを示す感情パラメータは少しずつ増加する。
Emotional parameters change over time. In addition, various emotion parameters change depending on the later-described response behavior. For example, from the owner "hug"
When the owner is not seen for a long time, the emotional parameter indicating loneliness decreases, and the emotional parameter indicating loneliness increases little by little.

認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度
に基づく天候や季節の認識、光量や温度に基づく物陰(安全地帯)の認識な
ど多様な認識が含まれる。ロボット100の認識部156は、内部センサ1
28により各種の環境情報を取得し、これを一次処理した上でサーバ200
の認識部212に転送する。
The recognition unit 212 recognizes the external environment. Recognition of the external environment includes various recognitions such as recognition of weather and seasons based on temperature and humidity, and recognition of shadows (safe zones) based on light intensity and temperature. The recognition unit 156 of the robot 100 uses the internal sensor 1
28 acquires various environmental information, performs primary processing on them, and then sends them to the server 200
is transferred to the recognition unit 212 of the

具体的には、ロボット100の認識部156は、画像から移動物体、特に
、人物や動物に対応する画像領域を抽出し、抽出した画像領域から移動物体
の身体的特徴や行動的特徴を示す特徴量の集合として「特徴ベクトル」を抽
出する。特徴ベクトル成分(特徴量)は、各種身体的・行動的特徴を定量化
した数値である。たとえば、人間の目の横幅は0~1の範囲で数値化され、
1つの特徴ベクトル成分を形成する。人物の撮像画像から特徴ベクトルを抽
出する手法については、既知の顔認識技術の応用である。ロボット100は、特徴ベクトルをサーバ200に送信する。
Specifically, the recognition unit 156 of the robot 100 extracts an image region corresponding to a moving object, particularly a person or an animal, from the image, and extracts features representing physical and behavioral features of the moving object from the extracted image region. Extract a "feature vector" as a set of quantities. A feature vector component (feature amount) is a numerical value obtained by quantifying various physical/behavioral features. For example, the width of the human eye is quantified in the range of 0 to 1,
form one feature vector component. A technique for extracting feature vectors from a captured image of a person is an application of known face recognition technology. Robot 100 sends the feature vector to server 200 .

サーバ200の認識部212は、ロボット100の内蔵カメラによる撮像
画像から抽出された特徴ベクトルと、個人データ格納部218にあらかじめ
登録されているユーザ(クラスタ)の特徴ベクトルと比較することにより、
撮像されたユーザがどの人物に該当するかを判定する(ユーザ識別処理)。
また、認識部212は、ユーザの表情を画像認識することにより、ユーザの
感情を推定する。認識部212は、人物以外の移動物体、たとえば、ペット
である猫や犬についてもユーザ識別処理を行う。
The recognition unit 212 of the server 200 compares the feature vector extracted from the image captured by the built-in camera of the robot 100 with the feature vector of the user (cluster) registered in advance in the personal data storage unit 218,
It is determined which person the imaged user corresponds to (user identification processing).
In addition, the recognition unit 212 estimates the user's emotion by performing image recognition of the user's facial expression. The recognition unit 212 also performs user identification processing on moving objects other than people, such as pets such as cats and dogs.

認識部212は、ロボット100になされたさまざまな応対行為を認識し
、快・不快行為に分類する。認識部212は、また、ロボット100の行動
に対するオーナーの応対行為を認識することにより、肯定・否定反応に分類
する。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか
不快なものであるかにより判別される。たとえば、抱っこされることはロボ
ット100にとって快行為であり、蹴られることはロボット100にとって
不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情
を示すものか不快感情を示すものであるかにより判別される。抱っこされる
ことはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快
感情を示す否定反応である。
The recognition unit 212 recognizes various behaviors performed by the robot 100 and classifies them into pleasant and unpleasant behaviors. The recognition unit 212 also recognizes the owner's response to the action of the robot 100 and classifies it into positive and negative reactions.
Pleasant/unpleasant behavior is determined by whether the user's response behavior is biologically pleasant or unpleasant. For example, being hugged is a pleasant action for the robot 100, and being kicked is an unpleasant action for the robot 100. A positive/negative reaction is determined depending on whether the user's behavior indicates a user's pleasant feeling or an unpleasant feeling. Being hugged is a positive reaction that indicates a user's pleasant feeling, and being kicked is a negative reaction that indicates a user's unpleasant feeling.

サーバ200の動作制御部222は、ロボット100の動作制御部150
と協働して、ロボット100のモーションを決定する。サーバ200の動作
制御部222は、ロボット100の移動目標地点とそのための移動ルートを
作成する。動作制御部222は、複数の移動ルートを作成し、その上で、い
ずれかの移動ルートを選択してもよい。
The motion control unit 222 of the server 200 controls the motion control unit 150 of the robot 100
determines the motion of the robot 100. The motion control unit 222 of the server 200 creates a movement target point for the robot 100 and a movement route therefor. The motion control unit 222 may create a plurality of travel routes and then select one of the travel routes.

動作制御部222は、モーション格納部232の複数のモーションからロ
ボット100のモーションを選択する。各モーションには状況ごとに選択確
率が対応づけられている。たとえば、オーナーから快行為がなされたときに
は、モーションAを20%の確率で実行する、気温が30度以上となったとき、モーションBを5%の確率で実行する、といった選択方法が定義される。
The motion control unit 222 selects a motion for the robot 100 from multiple motions in the motion storage unit 232 . Each motion is associated with a selection probability for each situation. For example, when the owner performs a pleasant act, motion A is executed with a probability of 20%, and when the temperature exceeds 30 degrees, motion B is executed with a probability of 5%. .

親密度管理部220は、ユーザごとの親密度を管理する。上述したように
、親密度は個人データ格納部218において個人データの一部として登録さ
れる。快行為を検出したとき、親密度管理部220はそのオーナーに対する
親密度をアップさせる。不快行為を検出したときには親密度はダウンする。
また、長期間視認していないオーナーの親密度は徐々に低下する。
The familiarity management unit 220 manages the familiarity of each user. As described above, the degree of intimacy is registered as part of the personal data in the personal data storage unit 218. FIG. When a pleasant act is detected, the degree of intimacy management unit 220 increases the degree of intimacy with the owner. The degree of intimacy is lowered when an unpleasant act is detected.
In addition, the intimacy level of the owner who has not seen it for a long time gradually decreases.

(ロボット100)
ロボット100は、通信部142、データ処理部136、データ格納部1
48、内部センサ128および駆動機構120を含む。
通信部142は、通信機126(図4参照)に該当し、外部センサ114
、サーバ200および他のロボット100との通信処理を担当する。データ
格納部148は各種データを格納する。データ格納部148は、記憶装置1
24(図4参照)に該当する。データ処理部136は、通信部142により
取得されたデータおよびデータ格納部148に格納されているデータに基づ
いて各種処理を実行する。データ処理部136は、プロセッサ122および
プロセッサ122により実行されるコンピュータプログラムに該当する。デ
ータ処理部136は、通信部142、内部センサ128、駆動機構120お
よびデータ格納部148のインタフェースとしても機能する。
(Robot 100)
The robot 100 includes a communication unit 142, a data processing unit 136, a data storage unit 1
48, including internal sensors 128 and drive mechanism 120;
The communication unit 142 corresponds to the communication device 126 (see FIG. 4), and the external sensor 114
, in charge of communication processing with the server 200 and other robots 100 . The data storage unit 148 stores various data. The data storage unit 148 stores the storage device 1
24 (see Figure 4). Data processing unit 136 executes various processes based on data acquired by communication unit 142 and data stored in data storage unit 148 . The data processing unit 136 corresponds to the processor 122 and computer programs executed by the processor 122 . Data processing unit 136 also functions as an interface for communication unit 142 , internal sensor 128 , drive mechanism 120 and data storage unit 148 .

データ格納部148は、ロボット100の各種モーションを定義するモー
ション格納部160を含む。
ロボット100のモーション格納部160には、サーバ200のモーショ
ン格納部232から各種モーションファイルがダウンロードされる。モーシ
ョンは、モーションIDによって識別される。前輪102を収容して着座す
る、手106を持ち上げる、2つの前輪102を逆回転させることで、ある
いは、片方の前輪102だけを回転させることでロボット100を回転行動
させる、前輪102を収納した状態で前輪102を回転させることで震える
、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作
タイミング、動作時間、動作方向などがモーションファイルにおいて時系列
定義される。
データ格納部148には、個人データ格納部218からも各種データがダ
ウンロードされてもよい。
Data store 148 includes motion store 160 that defines various motions of robot 100 .
Various motion files are downloaded from the motion storage unit 232 of the server 200 to the motion storage unit 160 of the robot 100 . A motion is identified by a motion ID. Sitting with the front wheels 102 retracted, lifting the hand 106, rotating the robot 100 by rotating the two front wheels 102 in reverse, or rotating only one of the front wheels 102, with the front wheels 102 retracted. In order to express various motions such as trembling by rotating the front wheel 102 with the , stopping and looking back when moving away from the user, the operation timing, operation time, operation direction, etc. of various actuators (driving mechanism 120) are adjusted. It is defined chronologically in the motion file.
Various data may also be downloaded to the data storage unit 148 from the personal data storage unit 218 .

データ処理部136は、認識部156および動作制御部150を含む。
ロボット100の動作制御部150は、サーバ200の動作制御部222
と協働してロボット100のモーションを決める。一部のモーションについ
てはサーバ200で決定し、他のモーションについてはロボット100で決
定してもよい。また、ロボット100がモーションを決定するが、ロボット
100の処理負荷が高いときにはサーバ200がモーションを決定するとし
てもよい。サーバ200においてベースとなるモーションを決定し、ロボッ
ト100において追加のモーションを決定してもよい。モーションの決定処
理をサーバ200およびロボット100においてどのように分担するかはロ
ボットシステム300の仕様に応じて設計すればよい。
Data processing unit 136 includes recognition unit 156 and operation control unit 150 .
The motion control unit 150 of the robot 100 is controlled by the motion control unit 222 of the server 200.
determines the motion of the robot 100 in cooperation with Some motions may be determined by the server 200 and other motions may be determined by the robot 100 . Also, although the robot 100 determines the motion, the robot
The server 200 may determine the motion when the processing load of 100 is high. A base motion may be determined at the server 200 and an additional motion may be determined at the robot 100 . How the server 200 and the robot 100 share the motion determination process may be designed according to the specifications of the robot system 300 .

ロボット100の動作制御部150は選択したモーションを駆動機構12
0に実行指示する。駆動機構120は、モーションファイルにしたがって、
各アクチュエータを制御する。
The motion control unit 150 of the robot 100 transmits the selected motion to the drive mechanism 12
Instruct 0 to execute. According to the motion file, the drive mechanism 120
Control each actuator.

動作制御部150は、親密度の高いユーザが近くにいるときには「抱っこ
」をせがむ仕草として両方の手106をもちあげるモーションを実行するこ
ともできるし、「抱っこ」に飽きたときには左右の前輪102を収容したま
ま逆回転と停止を交互に繰り返すことで抱っこをいやがるモーションを表現
することもできる。駆動機構120は、動作制御部150の指示にしたがっ
て前輪102や手106、首(頭部フレーム316)を駆動することで、ロ
ボット100にさまざまなモーションを表現させる。
The motion control unit 150 can also perform a motion of raising both hands 106 as a gesture of pleading for a hug when a user with a high degree of intimacy is nearby, or can move the left and right front wheels 102 when the user is tired of hugging. By alternately repeating reverse rotation and stopping while stored, it is possible to express a motion that does not want to be hugged. Drive mechanism 120 drives front wheels 102, hands 106, and neck (head frame 316) according to instructions from motion control unit 150, thereby causing robot 100 to express various motions.

ロボット100の認識部156は、内部センサ128から得られた外部情
報を解釈する。認識部156は、視覚的な認識(視覚部)、匂いの認識(嗅
覚部)、音の認識(聴覚部)、触覚的な認識(触覚部)が可能である。
A recognition unit 156 of the robot 100 interprets external information obtained from the internal sensor 128 . The recognition unit 156 is capable of visual recognition (visual unit), smell recognition (olfactory unit), sound recognition (auditory unit), and tactile recognition (tactile unit).

認識部156は、移動物体の撮像画像から特徴ベクトルを抽出する。上述
したように、特徴ベクトルは、移動物体の身体的特徴と行動的特徴を示すパ
ラメータ(特徴量)の集合である。移動物体を検出したときには、ニオイセ
ンサや内蔵の集音マイク、温度センサ等からも身体的特徴や行動的特徴が抽
出される。これらの特徴も定量化され、特徴ベクトル成分となる。認識部1
56は、特許文献2等に記載の既知の技術に基づいて、特徴ベクトルからユ
ーザを特定する。
The recognition unit 156 extracts feature vectors from the captured image of the moving object. As described above, a feature vector is a set of parameters (feature amounts) representing physical features and behavioral features of a moving object. When a moving object is detected, physical characteristics and behavioral characteristics are also extracted from an odor sensor, a built-in sound collecting microphone, a temperature sensor, and the like. These features are also quantified into feature vector components. Recognition part 1
56 identifies the user from the feature vector based on the known technology described in Patent Document 2 and the like.

検出・分析・判定を含む一連の認識処理のうち、ロボット100の認識部
156は認識に必要な情報の取捨選択や抽出を行い、判定等の解釈処理はサ
ーバ200の認識部212により実行される。認識処理は、サーバ200の
認識部212だけで行ってもよいし、ロボット100の認識部156だけで
行ってもよいし、上述のように双方が役割分担をしながら上記認識処理を実
行してもよい。
Among the series of recognition processes including detection, analysis, and judgment, the recognition unit of the robot 100
156 selects and extracts information necessary for recognition, and interpretation processing such as determination is executed by the recognition unit 212 of the server 200 . The recognition process may be performed by the recognition unit 212 of the server 200 alone, or may be performed by the recognition unit 156 of the robot 100 alone. good too.

ロボット100に対する強い衝撃が与えられたとき、認識部156はタッ
チセンサおよび加速度センサによりこれを認識し、サーバ200の認識部2
12は、近隣にいるユーザによって「乱暴行為」が働かれたと認識する。ユ
ーザがツノ112を掴んでロボット100を持ち上げるときにも、乱暴行為
と認識してもよい。ロボット100に正対した状態にあるユーザが特定音量
領域および特定周波数帯域にて発声したとき、サーバ200の認識部212
は、自らに対する「声掛け行為」がなされたと認識してもよい。また、体温
程度の温度を検知したときにはユーザによる「接触行為」がなされたと認識
し、接触認識した状態で上方への加速度を検知したときには「抱っこ」がな
されたと認識する。ユーザがボディ104を持ち上げるときの物理的接触を
センシングしてもよいし、前輪102にかかる荷重が低下することにより抱
っこを認識してもよい。
まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報として取得し、サーバ200の認識部212は快・不快を判定する。また、サーバ200の認識部212は特徴ベクトルに基づくユーザ識別処理を実行する。
When a strong impact is applied to the robot 100, the recognition unit 156 recognizes this with the touch sensor and the acceleration sensor, and the recognition unit 2 of the server 200
12 recognizes that a "violent act" has been committed by a nearby user. When the user grabs the horn 112 and lifts the robot 100, it may be recognized as a violent act. When the user facing robot 100 speaks in a specific sound volume range and a specific frequency band, recognition unit 212 of server 200
may recognize that the "calling action" to itself has been performed. Also, when a temperature of about body temperature is detected, it is recognized that the user has made a "contact action", and when an upward acceleration is detected while contact is being recognized, it is recognized that a "hold" has been made. Physical contact when the user lifts the body 104 may be sensed, or the holding may be recognized by reducing the load on the front wheels 102 .
In summary, the robot 100 acquires the user's behavior as physical information through the internal sensor 128, and the recognition unit 212 of the server 200 judges comfort/discomfort. Also, the recognition unit 212 of the server 200 executes user identification processing based on the feature vector.

サーバ200の認識部212は、ロボット100に対するユーザの各種応
対を認識する。各種応対行為のうち一部の典型的な応対行為には、快または
不快、肯定または否定が対応づけられる。一般的には快行為となる応対行為
のほとんどは肯定反応であり、不快行為となる応対行為のほとんどは否定反
応となる。快・不快行為は親密度に関連し、肯定・否定反応はロボット10
0の行動選択に影響する。
The recognition unit 212 of the server 200 recognizes various responses of the user to the robot 100 . Pleasant or unpleasant, affirmative or negative are associated with a part of typical responses among various responses. In general, most of the reception behaviors that are pleasant behaviors are positive reactions, and most of the reception behaviors that are unpleasant behaviors are negative reactions. Pleasant and unpleasant actions are related to intimacy, and positive and negative reactions are related to robots10
Affects 0 action choices.

認識部156により認識された応対行為に応じて、サーバ200の親密度
管理部220はユーザに対する親密度を変化させる。原則的には、快行為を
行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親
密度は低下する。
Depending on the behavior recognized by the recognition unit 156, the familiarity management unit 220 of the server 200 changes the familiarity with the user. In principle, the degree of intimacy with a user who has performed a pleasant act increases, and the degree of intimacy with a user who has performed an unpleasant act decreases.

以上の基本構成を前提として、次に、本実施形態におけるロボット100
の実装について、特に、本実装の特徴と目的および基本構成との相違点を中
心として説明する。
Based on the basic configuration described above, the robot 100 in this embodiment will be described next.
will be described, especially focusing on the features and purposes of this implementation and differences from the basic configuration.

[場所およびモノの記憶の実装]
図6は、本実施形態におけるロボット100の機能ブロック図である。
本実施形態のロボット100は、外部センサ114ではなく、キーフレー
ム404に基づいて場所を認識する。ロボット100は、キーフレーム40
4および外部センサ114の双方に基づいて場所を認識してもよいが、本実
施形態においてはキーフレーム404のみに基づいて場所を認識するものと
して説明する。
[Implementation of place and object memory]
FIG. 6 is a functional block diagram of the robot 100 in this embodiment.
The robot 100 of this embodiment recognizes the location based on the keyframe 404 instead of the external sensor 114 . Robot 100 is keyframe 40
Although the location may be recognized based on both 4 and the external sensor 114, this embodiment will be described as recognizing the location based only on the key frame 404. FIG.

(サーバ200)
データ処理部202の位置管理部208は、マップ管理部168とオブジェクト管理部174を含む。マップ管理部168は、画像記憶層400および環境記憶層402を対応づけた情報(以下、「環境マップ」または「環境マップ情報」とよぶ)を管理する。オブジェクト管理部174は、イベントとオブジェクトを対応づけるオブジェクト情報を管理する。イベントとは、環境情報が所定のイベント条件を満たすときに成立したと認定される事象である(後述)。
(server 200)
Location manager 208 of data processor 202 includes map manager 168 and object manager 174 . The map management unit 168 manages information that associates the image storage layer 400 and the environment storage layer 402 (hereinafter referred to as "environment map" or "environment map information"). The object management unit 174 manages object information that associates events with objects. An event is a phenomenon recognized as established when environmental information satisfies a predetermined event condition (described later).

データ格納部206は、更に、マップ格納部170とオブジェクト情報格
納部172を含む。マップ格納部170は、環境マップ情報を格納する。オ
ブジェクト情報格納部172は、オブジェクト情報を格納する。詳細は後述
するが、状態管理部244は、環境情報およびイベントに基づいて、感情パ
ラメータを変化させる。
Data storage unit 206 further includes map storage unit 170 and object information storage unit 172 . The map storage unit 170 stores environment map information. The object information storage unit 172 stores object information. Although the details will be described later, the state management unit 244 changes the emotion parameter based on environmental information and events.

(ロボット100)
データ処理部136は、認識部156および動作制御部150に加えて、
撮像画像取得部162を含む。撮像画像取得部162は、ロボット100が
搭載するカメラから撮像画像を取得する。撮像画像取得部162は、定期的
に、たとえば、1秒に2回の頻度にて撮像画像を取得する。
(Robot 100)
The data processing unit 136, in addition to the recognition unit 156 and the operation control unit 150,
A captured image acquisition unit 162 is included. A captured image acquisition unit 162 acquires a captured image from a camera mounted on the robot 100 . The captured image acquisition unit 162 acquires captured images periodically, for example, twice per second.

認識部156は、画像特徴取得部164と環境情報取得部166を含む。
画像特徴取得部164は、撮像画像から画像特徴量を抽出することによりキ
ーフレーム404を生成する。画像特徴量の抽出方法については、次の図7
に関連して説明する。環境情報取得部166は、撮像画像の取得時において
環境情報を取得する。キーフレーム404(画像特徴情報)および環境情報
は、通信部142によりサーバ200に送信される。サーバ200のマップ
管理部168は、キーフレーム404と環境情報を対応づけることにより環
境マップを作成する。
Recognition unit 156 includes image feature acquisition unit 164 and environment information acquisition unit 166 .
The image feature acquisition unit 164 generates a key frame 404 by extracting an image feature amount from the captured image. For the method of extracting the image feature quantity, see Fig. 7 below.
will be described in relation to The environment information acquisition unit 166 acquires environment information when acquiring a captured image. Key frame 404 (image feature information) and environment information are transmitted to server 200 by communication unit 142 . Map management unit 168 of server 200 creates an environment map by associating key frames 404 with environment information.

図7は、キーフレーム404の作成方法を示す模式図である。
上述したように、撮像画像取得部162は、定期的に撮像画像を取得する
。図7の撮像画像412には、椅子406および棚408が写っている。画
像特徴取得部164は、これらのオブジェクトのエッジ点を特徴点410と
して抽出する。キーフレーム404は特徴点410の集合である。キーフレ
ーム404に含まれる特徴点410の数および分布状態、いいかえれば撮像
画像の特徴量がキーフレーム404を特徴づける。撮像画像412そのもの
ではなく、キーフレーム404(画像特徴情報)に基づく画像記憶は、デー
タ量を抑制できるというメリットがある。
FIG. 7 is a schematic diagram showing a method of creating the keyframe 404. As shown in FIG.
As described above, the captured image acquisition unit 162 periodically acquires captured images. A chair 406 and a shelf 408 are shown in the captured image 412 of FIG. The image feature acquisition unit 164 extracts edge points of these objects as feature points 410 . A keyframe 404 is a set of feature points 410 . The keyframe 404 is characterized by the number and distribution of feature points 410 included in the keyframe 404, in other words, the feature amount of the captured image. Image storage based on the key frame 404 (image feature information) instead of the captured image 412 itself has the advantage of being able to reduce the amount of data.

図8は、環境マップ情報420のデータ構造図である。
環境マップ情報420は、サーバ200のマップ格納部170に格納され
る。キーフレーム404は、キーフレームID(以下、「FID」と表記す
る)により識別される。画像特徴取得部164は、撮像画像からキーフレー
ム404を形成するごとにFIDを付与する。環境情報取得部166は、キ
ーフレーム404(撮像画像)の取得と同じタイミングにて環境情報を取得
する(以下、キーフレーム404の取得時点と同時にセンシングされる環境
情報のことを「第1次環境情報」ともよぶ)。マップ管理部168は、キー
フレーム404と環境情報を対応づけて環境マップ情報420に登録する。
環境マップ情報420により、画像記憶と環境記憶が結び付けられる。
FIG. 8 is a data structure diagram of the environment map information 420. As shown in FIG.
The environment map information 420 is stored in the map storage unit 170 of the server 200. FIG. The keyframe 404 is identified by a keyframe ID (hereinafter referred to as "FID"). The image feature acquisition unit 164 assigns an FID each time a key frame 404 is formed from the captured image. The environment information acquisition unit 166 acquires the environment information at the same timing as the acquisition of the key frame 404 (captured image) (hereinafter, environment information sensed at the same time as the acquisition of the key frame 404 is referred to as the “primary environment”). information”). The map management unit 168 associates the key frame 404 with the environment information and registers them in the environment map information 420 .
Environment map information 420 connects image storage and environment storage.

本実施形態における環境情報は、受信強度、ユーザの検出率、平均音量、平均気温を含む。受信強度は、サーバ200から送信される電波の受信強度
を示し、ロボット100とサーバ200の距離によって変化する。環境情報
取得部166は、受信強度を計測し、高い順にA、B、Cにランク分けする
。図8によれば、FID=F01のキーフレーム404(以下、「キーフレ
ーム404(F01)」のように表記する)は、受信強度が「A」であるた
め、キーフレーム404(F01)に対応する地点(以下、「地点(F01
)」のように表記する)は、通信良好な地点であることがわかる。一方、キ
ーフレーム404(F04)は通信強度が「C」であるため、地点(F04
)は通信不良な地点である。本実施形態における地点とは、0.1から1メ
ートル程度の半径を有する広がりをもったエリアとして定義される。
The environmental information in this embodiment includes reception intensity, user detection rate, average sound volume, and average temperature. The reception intensity indicates the reception intensity of radio waves transmitted from the server 200, and varies depending on the distance between the robot 100 and the server 200. FIG. The environment information acquisition unit 166 measures the reception strength and ranks it into A, B, and C in descending order. According to FIG. 8, the key frame 404 with FID=F01 (hereinafter referred to as "key frame 404 (F01)") has a reception strength of "A", so it corresponds to the key frame 404 (F01). The point (hereafter referred to as "point (F01
)” is a point with good communication. On the other hand, key frame 404 (F04) has a communication strength of "C", so the location (F04
) is a point with poor communication. A point in this embodiment is defined as an extended area with a radius of about 0.1 to 1 meter.

ユーザの検出率は、各地点においてユーザを検出した頻度、いいかえれば、各地点においてユーザに出会える可能性の高さを示す。ユーザの検出率は
、ユーザごとに定義される。ユーザX1検出率は、ユーザX1の検出率を示
す。たとえば、ロボット100が地点(F01)に存在した回数が10回で
あってユーザX1を10回の滞在機会において2回検出したときには、マッ
プ管理部168はユーザX1の検出率を20(%)と算出する。図8によれ
ば、地点(F04)はユーザX1、X2に出会いやすく、地点(F05)はユーザX2に50(%)近い高確率にて出会うことができる。一方、地点(F07)ではユーザX1、X2と出会ったことがない。
The user detection rate indicates the frequency with which users are detected at each location, in other words, the likelihood of encountering users at each location. A user detection rate is defined for each user. The user X1 detection rate indicates the detection rate of user X1. For example, when the number of times the robot 100 exists at the point (F01) is 10 times and the user X1 is detected twice in the 10 stay opportunities, the map management unit 168 sets the detection rate of the user X1 to 20(%). calculate. According to FIG. 8, the point (F04) is likely to meet users X1 and X2, and the point (F05) can meet user X2 with a high probability of nearly 50(%). On the other hand, I have never met users X1 and X2 at the point (F07).

環境情報取得部166は、各地点における音量をマイクロフォンにより検
出し、平均音量を高い順にA、B、Cにランク分けする。平均音量により、
静かな場所とうるさい場所が特定される。同様に、環境情報取得部166は
、各地点における気温を温度センサにより検出し、その平均気温を算出する
。平均気温により、暑い場所と涼しい場所が特定される。これらの環境情報
は時間帯や季節等の他のパラメータにより、更に分類されてもよい。
The environmental information acquisition unit 166 detects the sound volume at each point with a microphone, and ranks the average sound volume into A, B, and C in descending order. By average volume,
Quiet and noisy areas are identified. Similarly, the environment information acquisition unit 166 detects the temperature at each point with a temperature sensor and calculates the average temperature. Average temperatures identify hot and cool places. These environmental information may be further classified by other parameters such as time of day and season.

環境情報としては、このほかにもさまざまなセンサ情報を含めることがで
きる。たとえば、ニオイセンサにより検出される匂いを環境情報に含めても
よいし、テーブルの下など「天井」が存在するか否かを環境情報に含めても
よい。ユーザの検出率(視認可能性)だけでなく、「誰かに触られる確率」
「抱っこされる確率」「叩かれる確率」などのユーザとの相互作用の経験を
環境情報として定義してもよい。環境情報は、少なくとも、画像特徴情報以
外の情報であればよく、気温や風向などの触覚、聴覚、嗅覚として特定され
る情報であってもよい。
Environmental information can also include various other sensor information. For example, the environmental information may include the smell detected by the odor sensor, or may include whether or not there is a "ceiling" such as under a table. Not only the user detection rate (visibility), but also the "probability of being touched by someone"
Experience of interaction with the user such as "probability of being held" and "probability of being hit" may be defined as environment information. The environmental information may be at least information other than the image feature information, and may be information specified as tactile, auditory, or olfactory information such as temperature and wind direction.

サーバ200は、環境マップ情報420を参照して、所定の移動先条件を
満たす地点をロボット100の移動目標地点を設定する。たとえば、寂しさ
を示す感情パラメータの値(以下、「感情値(寂しさ)」のように表記する
)が閾値以上となったとき、動作制御部222はいずれかのユーザの検出率
が所定閾値以上となる地点、たとえば、地点(F05)を移動目標地点とし
て設定する。移動先条件は、任意に設定可能である。たとえば、現在地点の
温度が25度以上のとき、平均気温が20度以下の環境情報を有する地点に
おいて移動先条件が成立するとしてもよい。
The server 200 refers to the environment map information 420 and sets the movement target point of the robot 100 to a point that satisfies a predetermined destination condition. For example, the value of an emotion parameter indicating loneliness (hereafter referred to as "emotion value (lonely)")
) is equal to or higher than the threshold, operation control unit 222 sets a point at which the detection rate of any user is equal to or higher than a predetermined threshold, for example, point (F05), as the movement target point. Destination conditions can be set arbitrarily. For example, when the temperature at the current location is 25 degrees or higher, the destination condition may be satisfied at a location having environmental information with an average temperature of 20 degrees or lower.

状態管理部244は、ロボット100の現在地点において取得される第1
次環境情報に基づいて感情パラメータを変化させる(以下、「(環境情報に
よる)一次反映」とよぶ)。また、状態管理部244は、ロボット100の
現在地点において過去に取得された環境情報(以下、キーフレーム404の取得時点と以前にセンシングされていた環境情報のことを「第2次環境情報」ともよぶ)に基づいても感情パラメータを変化させる(以下、「(環境情報による)二次反映」とよぶ)。いいかえれば、状態管理部244は現在の第1次環境情報だけでなく、記憶された過去の第2次環境情報によっても感情パラメータを変化させる。環境情報に基づく感情パラメータの変化については、図11に関連して詳述する。
The state management unit 244 stores the first
The emotion parameter is changed based on the next environment information (hereinafter referred to as "primary reflection (by environment information)"). The state management unit 244 also collects environmental information acquired in the past at the current location of the robot 100 (hereinafter, the environment information sensed before the acquisition of the key frame 404 is referred to as "secondary environment information"). (hereinafter referred to as "secondary reflection (by environmental information)"). In other words, the state management unit 244 changes the emotion parameter based on not only the current primary environment information but also the stored past secondary environment information. Changes in emotion parameters based on environmental information will be described in detail with reference to FIG.

図9は、オブジェクト情報430のデータ構造図である。
オブジェクト情報430は、サーバ200のオブジェクト情報格納部17
2に格納される。ロボット100の周辺ではさまざまなイベントが発生する
。サーバ200の認識部212は、第1次環境情報が所定のイベント条件を
満たすとき、イベントが発生したと判定する。イベント条件は、ユーザを視
認した、ユーザに抱っこされた、所定音量以上の音が聞こえた、水をかけら
れた、など任意に設定可能である。認識部212には、あらかじめ複数のイ
ベント条件が設定される。イベントは、イベントIDにより識別される。
FIG. 9 is a data structure diagram of the object information 430. As shown in FIG.
The object information 430 is stored in the object information storage unit 17 of the server 200.
2 is stored. Various events occur around the robot 100 . Recognition unit 212 of server 200 determines that an event has occurred when the primary environment information satisfies a predetermined event condition. The event condition can be arbitrarily set, such as seeing the user, being held by the user, hearing a sound of a predetermined volume or more, or being splashed with water. A plurality of event conditions are set in the recognition unit 212 in advance. Events are identified by event IDs.

認識部212がイベントの発生を検出したとき、通信部204はロボット
100にイベント検出信号を送信する。画像特徴取得部164は、イベント
検出信号が受信されたとき、最新の撮像画像からオブジェクトを検出する。
オブジェクトは、コーヒーカップや椅子、棚、人形など任意に設定可能であ
る。本実施形態においては、画像特徴取得部164は、複数種類のオブジェ
クトについて、あらかじめ形状および色彩の特徴を定義する複数のオブジェ
クトパターンを有しており、オブジェクトパターンに基づいてオブジェクト
を画像認識する。画像特徴取得部164は、いずれかのオブジェクトが特定
されたとき、オブジェクトIDを付与してサーバ200に送信する。オブジ
ェクト管理部174は、イベントIDとオブジェクトIDを対応づける。オ
ブジェクトの認識は、既知の画像認識技術の応用により実現可能である。
When the recognition unit 212 detects the occurrence of an event, the communication unit 204 detects the occurrence of an event.
Send an event detection signal to 100. The image feature acquisition unit 164 detects an object from the latest captured image when an event detection signal is received.
Objects can be arbitrarily set, such as coffee cups, chairs, shelves, and dolls. In this embodiment, the image feature acquiring unit 164 has a plurality of object patterns that define features of shape and color in advance for a plurality of types of objects, and performs image recognition of the object based on the object patterns. When any object is specified, the image feature acquiring unit 164 assigns an object ID and transmits it to the server 200 . The object management unit 174 associates event IDs with object IDs. Object recognition can be realized by applying known image recognition technology.

オブジェクト管理部174は、オブジェクト情報430を管理する。オブ
ジェクト情報430においては、イベントおよびオブジェクトの関連性の強
さを示す指標値として関連度が定義される。イベント(E01)とオブジェクト(B01)の関連度は、イベント(E01)が発生したときにオブジェクト(B01)が認識される可能性の高さに基づいて、イベント(E01)とオブジェクト(B01)の間の連想性・因果性の強さを表現する指標である。
The object management unit 174 manages object information 430. FIG. In the object information 430, a degree of association is defined as an index value indicating the strength of association between an event and an object. The degree of relevance between an event (E01) and an object (B01) is based on the likelihood that the object (B01) will be recognized when the event (E01) occurs. It is an index that expresses the strength of associativity and causality between

イベント(E01)の発生時にオブジェクト(B01)が検出されたとき
、オブジェクト管理部174はイベント(E01)とオブジェクト(B01
)の関連度を上昇させる。一方、イベント(E01)が発生したときにオブ
ジェクト(B01)が検出されなければ、オブジェクト管理部174はイベ
ント(E01)とオブジェクト(B01)の関連度を低下させる。本実施形
態においては、イベントの発生時におけるオブジェクトの検出率を関連度と
定義する。たとえば、イベント(E01)の最近10回の発生において、オ
ブジェクト(B01)が10回中3回検出されたときには、オブジェクト管
理部174はイベント(E01)とオブジェクト(B01)の関連度を30
(%)に設定する。
When the object (B01) is detected when the event (E01) occurs, the object management unit 174 stores the event (E01) and the object (B01)
) increases the relevance of On the other hand, if the object (B01) is not detected when the event (E01) occurs, the object management unit 174 lowers the degree of association between the event (E01) and the object (B01). In this embodiment, the degree of association is defined as the detection rate of an object when an event occurs. For example, when the object (B01) is detected 3 out of 10 times in the last 10 occurrences of the event (E01), the object management unit 174 sets the degree of association between the event (E01) and the object (B01) to 30.
(%).

イベント(E01)の発生時において高確率にてオブジェクト(B01)
が検出される場合には、オブジェクト(B01)の近くではイベント(E0
1)が発生しやすいという「因果性」を想定できる。関連度は、因果性に対
する確信度を示すパラメータであるともいえる。たとえば、抱っこをされた
地点においてソファ(オブジェクト)が高い確率で検出されたとする。この
場合には、ソファの近くに行けば、抱っこをしてもらえる可能性が高い、と
いう予測が可能となる。
Object (B01) with high probability when event (E01) occurs
is detected, the event (E0
It is possible to assume "causality" that 1) is likely to occur. It can also be said that the degree of association is a parameter indicating the degree of certainty for causality. For example, assume that a sofa (object) is detected with high probability at the point where the person is held. In this case, it is possible to predict that if you go near the sofa, there is a high possibility that you will be hugged.

状態管理部244は、イベントに基づいて感情パラメータを変化させる(
以下、「(イベントによる)一次反映」とよぶ)。イベントは第1次環境情
報の一種でもあるため、通常、イベントによる一次反映は第1次環境情報に
よる一次反映と同時に発生する。状態管理部244は、ロボット100の現
在地点において検出されたオブジェクトから連想されるイベントに基づいて
も感情パラメータを変化させる(以下、「(イベントによる)二次反映」と
よぶ)。状態管理部244は実際に発生しているイベントだけでなく、オブジェクトから連想されるイベントによっても感情パラメータを変化させる。
イベントに基づく感情パラメータの変化については、図13、14に関連し
て詳述する。
The state management unit 244 changes the emotion parameter based on the event (
Hereinafter referred to as “primary reflection (by event)”). Since an event is also a kind of primary environmental information, the primary reflection by an event usually occurs simultaneously with the primary reflection by the primary environmental information. The state management unit 244 also changes the emotion parameter based on an event associated with the object detected at the current point of the robot 100 (hereinafter referred to as "secondary reflection (by event)"). The state management unit 244 changes emotion parameters not only by events that actually occur, but also by events that are associated with objects.
Event-based affective parameter changes are discussed in more detail in connection with FIGS.

図10は、キーフレーム404の連鎖を示す模式図である。
画像特徴取得部164は、定期的にキーフレーム404を取得する。図1
0においては、キーフレーム404(F01)の取得時において、環境情報
取得部166は環境情報(e01)を取得する。マップ管理部168は、環
境マップ情報420において、キーフレーム404(F01)と環境情報(
e01)を対応づけて登録する。一定時間の経過後、ロボット100は、キ
ーフレーム404(F02)および環境情報(e02)を取得する。マップ
管理部168は、キーフレーム404(F02)と環境情報(e02)を対
応づけて登録するとともに、地点(F01)と地点(F02)が隣接してい
るという情報も記録する。
FIG. 10 is a schematic diagram showing a chain of key frames 404. As shown in FIG.
The image feature acquisition unit 164 acquires key frames 404 periodically. Figure 1
At 0, the environment information acquisition unit 166 acquires the environment information (e01) when the key frame 404 (F01) is acquired. The map management unit 168 adds the key frame 404 (F01) and the environment information (
e01) is associated and registered. After a certain period of time, robot 100 acquires key frame 404 (F02) and environmental information (e02). The map management unit 168 associates and registers the key frame 404 (F02) and the environment information (e02), and also records information that the point (F01) and the point (F02) are adjacent to each other.

ロボット100は、キーフレーム404(F02)の取得後、更に、キー
フレーム404(F03)を取得する。マップ管理部168は、地点(F0
2)と地点(F03)が隣接するという情報をマップ格納部170に登録す
る。以上の処理により、ロボットシステム300は、地点(F01)からは
、地点(F02)を経由すれば、地点(F03)に到達できるというキーフ
レーム404の位置関係、いいかえれば、空間の構成を学習する。
After obtaining key frame 404 (F02), robot 100 further obtains key frame 404 (F03). The map management unit 168 stores the point (F0
2) is registered in the map storage unit 170 as information that the point (F03) is adjacent. With the above processing, the robot system 300 learns the positional relationship of the keyframe 404 that the point (F03) can be reached from the point (F01) via the point (F02), in other words, the structure of the space. .

キーフレーム404(F03)のあと、キーフレーム404(F04)、
キーフレーム404(F05)、キーフレーム404(F06)が取得され
たとする。マップ管理部168は、キーフレーム404(F06)と類似す
るキーフレーム404(F02)を検出する。具体的には、キーフレーム4
04(F06)とキーフレーム404(F02)それぞれの特徴点410の
数および分布の類似度を計算し、類似度が所定の閾値以上であるときに類似
と判定する。マップ管理部168は、キーフレーム404(F02)とキー
フレーム404(F06)は同一地点のキーフレーム404であると判定す
る。マップ管理部168は、キーフレーム404(F02)をキーフレーム404(F06)により後述の方法により更新する。また、マップ管理部168は、キーフレーム404(F05)とキーフレーム404(F02)が隣接することを認識する。このように、グラフ型のデータベースとして、複数のキーフレーム404の位置関係がマップ格納部170に登録される。
After keyframe 404 (F03), keyframe 404 (F04),
Assume that key frame 404 (F05) and key frame 404 (F06) are obtained. The map manager 168 detects keyframe 404 (F02) similar to keyframe 404 (F06). Specifically, keyframe 4
04 (F06) and the key frame 404 (F02) are calculated for the number and distribution of the number of feature points 410, and the similarity is determined when the similarity is equal to or greater than a predetermined threshold. The map management unit 168 determines that the keyframe 404 (F02) and the keyframe 404 (F06) are keyframes 404 at the same point. The map management unit 168 updates the keyframe 404 (F02) with the keyframe 404 (F06) by a method described later. Also, the map management unit 168 recognizes that the key frame 404 (F05) and the key frame 404 (F02) are adjacent. In this way, the positional relationships of multiple keyframes 404 are registered in the map storage unit 170 as a graph database.

図11は、環境マップ情報420の更新処理過程を示すフローチャートで
ある。
図11に示す更新処理は、ロボットシステム300において定期的に実行
される。まず、撮像画像取得部162は、撮像画像を取得する(S10)。
画像特徴取得部164は、撮像画像から画像特徴量を抽出し、キーフレーム
404を生成する(S12)。環境情報取得部166は、(第1次)環境情
報を取得する(S14)。状態管理部244は、環境情報に応じて感情パラ
メータを変化させる(S16)。これは、上述した「環境情報による一次反
映」である。環境情報に応じて感情パラメータをどのように変化させるかは
任意に設定可能である。たとえば、撮像画像にユーザが検出されず、ユーザ
未検出の状態が所定時間以上継続していれば、感情値(寂しさ)を上昇させ
てもよい。このときには、認識部212は、寂しさを癒す環境情報を有する
地点を移動目標地点に設定する。動作制御部150は、感情値(寂しさ)が
高まるとロボット100の行動選択頻度を抑制してもよいし、特定のモーシ
ョンを高確率にて選択してもよい。環境情報は感情パラメータに影響し、感
情パラメータが行動特性に影響する。
FIG. 11 is a flow chart showing the process of updating the environment map information 420. As shown in FIG.
The update process shown in FIG. 11 is periodically executed in the robot system 300. As shown in FIG. First, the captured image acquisition unit 162 acquires a captured image (S10).
The image feature acquisition unit 164 extracts an image feature amount from the captured image and obtains a key frame.
Generate 404 (S12). The environment information acquisition unit 166 acquires (primary) environment information (S14). The state management unit 244 changes the emotion parameter according to the environmental information (S16). This is the "primary reflection by environmental information" described above. It is possible to arbitrarily set how the emotion parameter is changed according to the environmental information. For example, if the user is not detected in the captured image and the user undetected state continues for a predetermined time or longer, the emotional value (loneliness) may be increased. At this time, the recognition unit 212 sets a point having environmental information that alleviates loneliness as the movement target point. The motion control unit 150 may reduce the action selection frequency of the robot 100 when the emotional value (loneliness) increases, or may select a specific motion with a high probability. Environmental information influences emotional parameters, and emotional parameters influence behavioral characteristics.

ユーザから抱っこされたときには感情値(寂しさ)を低下させてもよい。
所定範囲内の音量を検出したときには感情値(好奇心)を上昇させてもよい
。上述したように、感情値だけでなく、親密度管理部220は親密度を変化
させてもよい。
The emotion value (loneliness) may be lowered when the user hugs the robot.
The emotion value (curiosity) may be increased when the volume within a predetermined range is detected. As described above, the intimacy management unit 220 may change the intimacy as well as the emotion value.

認識部212は、S12において抽出されたキーフレーム404と類似度
が所定値以上となるキーフレーム404が存在するか、いいかえれば、現在
地点が既に訪れたことのある地点(以下、「再訪地点」とよぶ)であるか否
かをチェックする(S18)。再訪地点であれば(S18のY)、マップ管理部168は同再訪地点のキーフレーム404(画像特徴情報)を更新する
(S20)。
The recognition unit 212 determines whether there is a key frame 404 whose similarity to the key frame 404 extracted in S12 is equal to or greater than a predetermined value, or in other words, a point that the current location has already visited (hereinafter referred to as a "revisited point"). (S18). If it is a revisited point (Y of S18), the map management unit 168 updates the key frame 404 (image feature information) of the revisited point.
(S20).

撮像画像には、本棚やソファのように安定的に存在するものもあれば(以
下、「安定特徴」とよぶ)、コーヒーカップや書類のように一時的に存在し
ているだけのものも映る(以下、「不安定特徴」とよぶ)。マップ管理部1
68は、ある再訪地点(F05)において1回目に取得されたキーフレーム
404(F05-1)と2回目に取得されたキーフレーム404(F05-
2)を比較する。キーフレーム404(F05-1)とキーフレーム404
(F05-2)は、全体としてはほとんど同一であるが、不安定特徴の部分
については差異を生じる。たとえば、キーフレーム404(F05-1)に
はノートの画像特徴(不安定特徴)が含まれ、キーフレーム404(F05
-2)にはノートの画像特徴が含まれていないかもしれない。これは、地点
P5の1回目の訪問と2回目の訪問の間にノートが取り去られたためである
。このとき、マップ管理部168は、地点(F05)のキーフレーム404
(F05)から不安定特徴を示す特徴点410を除外する。このような制御
方法により、安定特徴のみを含むキーフレーム404、いいかえれば、空間
認識に際して手がかりとしやすい画像特徴量のみを含むキーフレーム404
を形成できる。
なお、より簡易な方法として、マップ管理部168は、再訪地点のキーフ
レーム404として、最新取得のキーフレーム404により以前のキーフレ
ーム404を上書きしてもよい。
In the captured image, there are things that exist stably, such as bookshelves and sofas (hereafter referred to as "stable features"), and things that only exist temporarily, such as coffee cups and documents. (hereinafter referred to as "unstable features"). Map management part 1
68 is the first keyframe captured at a revisited point (F05)
404 (F05-1) and the second captured keyframe 404 (F05-
2) is compared. Keyframe 404 (F05-1) and Keyframe 404
(F05-2) is almost the same as a whole, but there is a difference in the part of the unstable feature. For example, keyframe 404 (F05-1) contains image features of notes (unstable features), keyframe 404 (F05
-2) may not include image features of the note. This is the location
This is because the notebook was removed between P5's first and second visits. At this time, the map management unit 168 selects the key frame 404 of the point (F05).
Exclude feature points 410 indicating unstable features from (F05). With such a control method, a key frame 404 containing only stable features, in other words, a key frame 404 containing only image feature amounts that are likely to be used as clues for spatial recognition, is obtained.
can be formed.
As a simpler method, the map management unit 168 may overwrite the previous keyframe 404 with the latest acquired keyframe 404 as the revisited point keyframe 404 .

状態管理部244は、再訪地点に以前に対応づけられていた(第2次)環
境情報に基づいて感情パラメータを変化させる(S22)。これは、上述し
た「環境情報による二次反映」である。たとえば、地点(F05)に環境情
報(e05-1)が対応づけられており、ロボット100が地点(F05)
を再訪したときには環境情報(e05-2)が取得されたとする。状態管理
部244は第1次環境情報(e05-2)だけではなく(S16)、以前の
第2次環境情報(e05-1)にも基づいて感情パラメータを変化させる。
このような制御方法によれば、再訪地点において過去に得た印象を現在の感
情に反映させることができる。状態管理部244は、再訪によって新たに取
得した環境情報(e05-2)により、環境マップ情報420を更新する(
S24)。
The state management unit 244 changes the emotion parameter based on the (secondary) environment information previously associated with the revisited point (S22). This is the above-mentioned "secondary reflection by environment information". For example, environment information (e05-1) is associated with location (F05), and robot 100 is located at location (F05).
It is assumed that environment information (e05-2) is obtained when revisiting . The state management unit 244 changes the emotion parameter based on not only the primary environmental information (e05-2) (S16) but also the previous secondary environmental information (e05-1).
According to such a control method, the impression obtained in the past at the revisited point can be reflected in the current emotion. The state management unit 244 updates the environment map information 420 with the environment information (e05-2) newly acquired by the revisit (
S24).

一例として、地点(F07)は平均音量の大きな「騒がしい地点」である
(図8参照)。ロボット100が、地点(F07)を再訪したとき、大きな
音は聞こえなかったとする。この場合、状態管理部244は、「騒がしい地
点」という過去の情報に基づいて、たとえば、感情値(好奇心)を上昇させ
る。同時に、マップ管理部168は、地点(F07)の環境情報の一種であ
る平均音量を下降させる。
As an example, site (F07) is a "noisy site" with a large average volume.
(See Figure 8). Assume that when the robot 100 revisits the point (F07), no loud noise is heard. In this case, the state management unit 244 increases the emotional value (curiosity), for example, based on the past information "noisy spot". At the same time, the map management unit 168 decreases the average volume, which is a type of environment information for the point (F07).

一方、再訪地点でなければ(S18のN)、認識部212は新発見の地点
と判定し、状態管理部244は新たに取得したキーフレーム404と環境情
報を環境マップ情報420に登録する(S26)。その後、オブジェクト判
定処理が実行される(S28)。オブジェクト判定処理の詳細は図14に関
連して後述する。
On the other hand, if it is not a revisited point (N of S18), the recognition unit 212 determines that it is a newly discovered point, and the state management unit 244 registers the newly acquired key frame 404 and environment information in the environment map information 420 (S26 ). After that, object determination processing is executed (S28). Details of the object determination process will be described later with reference to FIG.

たとえば、時刻t1においては地点(F04)にソファが存在し、そのあ
とソファが動かされ、時刻t2においては地点(F04)にソファが存在し
ないとする。この場合、時刻t1において取得されるキーフレーム404(
F04-1)と時刻t2において取得されるキーフレーム404(F04-
2)は同一とは見なせないほど大きく異なる可能性がある。この場合、ロボ
ット100は、ソファが存在するという画像記憶を頼りに地点(F04)に
移動したが、ソファが存在しないために画像記憶した地点(F04)を発見
できなくなる。地点(F04)を再訪したにも関わらず、地点(F04)を
見つけられないため、このときには認識部212は新発見の地点に到達した
と認識し(S18のN)、ソファの存在しないキーフレーム404を環境マ
ップ情報420に新規登録する。
For example, assume that at time t1 there is a sofa at point (F04), then the sofa is moved, and at time t2 there is no sofa at point (F04). In this case, the key frame 404 (
F04-1) and key frame 404 (F04-
2) can be so different that they cannot be considered identical. In this case, the robot 100 moves to the point (F04) based on the image memory that the sofa exists, but cannot find the image-stored point (F04) because the sofa does not exist. Although the point (F04) is revisited, the point (F04) cannot be found. At this time, the recognition unit 212 recognizes that the newly discovered point has been reached (N of S18), and a key frame without a sofa is generated. 404 is newly registered in the environment map information 420.

マップ管理部168は、取得から所定時間以上経過したキーフレーム40
4は削除することにより、しばらく再訪していない地点の記憶を消去してもよい。このような制御方法によれば、ロボット100の忘却を表現できると
ともにマップ格納部170に保存するデータ量を抑制する上でも有効である
。また、地点(F04)には「ソファが存在する」という古くて役に立たな
くなった情報を効率的に除去できる。
The map management unit 168 stores key frames 40 after a predetermined time or longer has passed since acquisition.
By deleting 4, you may erase the memory of places you haven't revisited in a while. According to such a control method, forgetting of the robot 100 can be expressed, and it is also effective in suppressing the amount of data to be stored in the map storage unit 170. FIG. Also, the old and useless information that "there is a sofa" at the point (F04) can be efficiently removed.

図12は、イベントの発生にともなってロボット100が移動先を選択す
る方法を説明するための模式図である。
図12においては、ロボット100が地点P5にいるとき、近隣の地点P
6にてイベントE3が発生している。イベントE3は「ユーザX6が地点P
6に存在すること」であるとする。サーバ200の認識部212は、ユーザ
X6と類似の身体的特徴を有するユーザについて記憶していないとき、ユー
ザX6を未知のユーザと判断する。このとき、サーバ200の動作制御部2
22は、退避先条件を満たす地点を移動目標地点として設定する。退避先条
件の設定は任意である。具体的には、親密度が所定値以上のユーザの出現確
率が所定値以上となる地点であってもよいし、天井や壁などの遮蔽物を有す
る地点であってもよい。動作制御部222は、イベントと退避先条件をあら
かじめ対応づけておき、イベントが発生したときに退避先条件を満たす地点
を環境マップ情報420から検出する。図12においては、退避先条件を満
たす地点P7および地点P8が特定されている。
FIG. 12 is a schematic diagram for explaining how the robot 100 selects a destination when an event occurs.
In FIG. 12, when the robot 100 is at the point P5, the neighboring point P
Event E3 occurs at 6. Event E3 is "user X6 is at point P
to exist in 6”. The recognition unit 212 of the server 200 recognizes the user
User X6 is determined to be an unknown user when no user having physical characteristics similar to X6 is remembered. At this time, the operation control unit 2 of the server 200
22 sets a point that satisfies the evacuation destination condition as a movement target point. The save destination condition can be set arbitrarily. Specifically, it may be a point where the appearance probability of a user with a degree of intimacy equal to or greater than a predetermined value is equal to or greater than a predetermined value, or may be a point having a shield such as a ceiling or a wall. The operation control unit 222 associates an event with a save destination condition in advance, and detects from the environment map information 420 a point that satisfies the save destination condition when an event occurs. In FIG. 12, a point P7 and a point P8 that satisfy the evacuation destination conditions are specified.

動作制御部222は、地点P7および地点P8のいずれかを移動目標地点
として選択する。図12においては、動作制御部222は、地点P5から近
い方の地点P7を移動目標地点として選択する。たとえば、地点P7は、親
密度が高いユーザX2の検出率が高い地点であるとする。上述したように、
ロボット100は、画像記憶をたどりながら地点P7に移動する。ロボット
100は、地点P7に移動し、期待した通りユーザX2を検出できれば、地
点P7にしばらく滞在する。地点P7に移動してもユーザX2を検出できな
ければ、動作制御部222は地点P7から地点P8を移動目標地点として設
定変更する。このような制御方法によれば、「イベントE3に驚き、ユーザ
X2を求めて地点P7に移動し、ユーザX2がいないので別の安心できる地点P3に移動する」という困惑行動をロボット100に表現させることができる。
Operation control unit 222 selects either point P7 or point P8 as the movement target point. In FIG. 12, the motion control unit 222 selects the point P7 closer to the point P5 as the movement target point. For example, point P7 is assumed to be a point with a high detection rate for user X2 with a high degree of intimacy. As mentioned above,
The robot 100 moves to the point P7 while tracing the image memory. robot
100 moves to point P7 and stays at point P7 for a while if it can detect user X2 as expected. If the user X2 cannot be detected even after moving to the point P7, the operation control unit 222 changes the setting from the point P7 to the point P8 as the movement target point. According to such a control method, "the user is surprised by the event E3,
It is possible to cause the robot 100 to express a perplexed behavior of moving to a point P7 in search of X2, and moving to another safe point P3 because the user X2 is not there.

動作制御部222は、特定のイベントが発生したときには、上述したよう
に退避先条件を満たす地点を移動目標地点として設定する。状態管理部24
4は、イベントに応じて感情パラメータを変化させる。たとえば、高周波数
の音声を所定時間以上検出したとき、イベントE4が成立し、状態管理部2
44はイベントE4に応じて感情値(好奇心)を上昇させてもよい。環境情
報は、外部環境を各種センサの検出値によって数値表現したものである。イ
ベントは、環境情報のうち、所定のイベント条件を満たす事象、いいかえれ
ば、環境情報の特殊例である。
When a specific event occurs, the motion control unit 222 sets a point that satisfies the evacuation destination conditions as the movement target point as described above. State management unit 24
4 changes emotional parameters according to events. For example, when a high-frequency voice is detected for a predetermined time or longer, event E4 is established and the state management unit 2
44 may increase the emotional value (curiosity) in response to event E4. The environment information is a numerical representation of the external environment using detection values of various sensors. An event is a phenomenon that satisfies a predetermined event condition among environmental information, in other words, a special example of environmental information.

図13は、イベントの処理過程を示すフローチャートである。
図11のS14において(第1次)環境情報が検出されるごとに、認識部
212はイベント条件の成否を判定する。図13に示すイベント処理は、イ
ベント、いいかえれば、(第1次)環境情報があらかじめ設定されるイベン
ト条件のいずれかに該当したときに実行される。
FIG. 13 is a flow chart showing the event processing process.
Each time the (primary) environment information is detected in S14 of FIG.
212 determines whether the event condition is met. The event processing shown in FIG. 13 is executed when an event, in other words, the (primary) environment information corresponds to one of the preset event conditions.

イベントが検出されたとき、撮像画像取得部162は、周辺画像を取得す
る(S30)。本実施形態における周辺画像とは、2方向以上を対象とした
2以上の撮像画像である。撮像画像取得部162は、通常時は1方向を対象
としたカメラにて1枚の撮像画像を取得し、イベント発生時においてはロボ
ット100の周辺を広角に撮影可能な全天周カメラにより周辺画像を取得し
てもよい。
When an event is detected, the captured image acquisition section 162 acquires a peripheral image (S30). Peripheral images in this embodiment refer to images in two or more directions.
2 or more captured images. The captured image acquisition unit 162 normally acquires one captured image with a camera targeting one direction, and when an event occurs, acquires a surrounding image with an omnidirectional camera capable of capturing a wide-angle image of the surroundings of the robot 100. may be obtained.

画像特徴取得部164は、周辺画像、いいかえれば、複数の撮像画像それ
ぞれから画像特徴を抽出する(S32)。状態管理部244は、イベントに
応じて感情パラメータを変化させる(S34)。これは、上述した「イベン
トによる一次反映」である。イベントごとに、感情パラメータをどのように
変化させるかはあらかじめ設定されている。
The image feature acquisition unit 164 extracts image features from the surrounding images, in other words, from each of the plurality of captured images (S32). The state management unit 244 changes the emotion parameter according to the event (S34). This is the "primary reflection by event" described above. How the emotion parameter is to be changed is set in advance for each event.

次に、画像特徴取得部164は、周辺画像の画像特徴からオブジェクトを
検出する(S36)。オブジェクトが存在すれば(S36のY)、マップ管理部168は、イベントとオブジェクトの関連度を変化させる(S38)。
イベント(E01)が検出されたときにオブジェクト(B01)が検出され
る頻度により、イベント(E01)とオブジェクト(B01)の関連度が決
定される。イベント(E01)が検出されるとき、高い頻度にてオブジェク
ト(B01)が検出されれば、オブジェクト(B01)からイベント(E0
1)が連想されやすくなる。オブジェクトが存在しなければ(S36のN)
、S38はスキップされる。
Next, the image feature acquisition unit 164 detects an object from the image features of the peripheral image (S36). If the object exists (Y of S36), the map management unit 168 changes the degree of association between the event and the object (S38).
The degree of association between the event (E01) and the object (B01) is determined by the frequency with which the object (B01) is detected when the event (E01) is detected. When the event (E01) is detected, if the object (B01) is detected with high frequency, the event (E0
1) becomes easier to associate. If the object does not exist (N of S36)
, S38 is skipped.

イベントが退避イベントであるとき、いいかえれば、現在地点から逃げるべき特定のイベントであれば(S40のY)、動作制御部222は、退避先
条件を満たす地点を移動目標地点として設定する(S42)。退避イベント
でなければ、S42の処理はスキップされる。
When the event is a retreat event, in other words, if it is a specific event to escape from the current location (Y of S40), motion control unit 222 sets a location that satisfies the evacuation destination condition as the movement target location (S42). . If it is not a save event, the process of S42 is skipped.

図14は、図11のS28に示すオブジェクト判定処理の詳細を示すフロ
ーチャートである。
画像特徴取得部164は、S10において取得した撮像画像からオブジェ
クトを検出する(S50)。状態管理部244は、画像記憶を参照し、過去
に同一のオブジェクトを検出したことがあるか否かを判定する(S52)。
過去に検出したことのあるオブジェクトと同一、より厳密には、類似度が所
定値以上のオブジェクトを検出したとき(S52のY)、状態管理部244
はオブジェクトに応じて感情パラメータを変化させる(S54)。これは、
上述した「イベントによる二次反映」である。オブジェクトが検出されなか
ったときや、新規オブジェクトの検出時には(S52のN)、S54はスキ
ップされる。
FIG. 14 is a flow chart showing the details of the object determination process shown in S28 of FIG.
The image feature acquisition unit 164 detects an object from the captured image acquired in S10 (S50). The state management unit 244 refers to the image storage and determines whether or not the same object has been detected in the past (S52).
When an object that is the same as an object that has been detected in the past, or more precisely, an object with a degree of similarity greater than or equal to a predetermined value is detected (Y in S52), the state management unit 244
changes the emotion parameter according to the object (S54). this is,
This is the above-mentioned “secondary reflection by event”. When no object is detected or when a new object is detected (N of S52), S54 is skipped.

状態管理部244は、オブジェクトに関連づけられるイベント、および、
オブジェクトとイベントの関連度に応じて感情パラメータを変化させる。た
とえば、オブジェクト(B01)が、イベント(E03)およびイベント(
E04)に関連づけられおり、かつ、オブジェクト(B01)とイベント(
E03)の関連度が20(%)、オブジェクト(B01)とイベント(E0
4)の関連度が3%であるとする。このときには、状態管理部244は、関連度の最も高いイベント(E03)に対応して感情値を変化させる。たとえば、イベント(E03)が「感情値(承認要求)を30%アップさせる」という設定がなされたイベントである場合、状態管理部244は、関連度20%を考慮して、感情値(承認要求)を6%(=30%×20%)だけ上昇させる。
このような制御方法によれば、イベント(E03)が実際に発生しているわけではなくても、イベント(E03)を連想されるオブジェクト(B01)にイベント(E03)の記憶を刺激されたために感情パラメータが影響され、感情パラメータの変化を行動特性の変化として表現できる。
The state manager 244 manages events associated with objects, and
Emotion parameters are changed according to the degree of association between objects and events. For example, an object (B01) has an event (E03) and an event (
E04) and is associated with an object (B01) and an event (
E03) has a relevance of 20(%), and the object (B01) and the event (E0
Assume that the relevance of 4) is 3%. At this time, the state management unit 244 changes the emotion value corresponding to the event (E03) with the highest degree of relevance. For example, if the event (E03) is an event set to "increase the emotion value (approval request) by 30%", the state management unit 244 considers the degree of relevance of 20%, ) by 6% (=30% x 20%).
According to this control method, even if the event (E03) is not actually occurring, the memory of the event (E03) is stimulated by the object (B01) associated with the event (E03). Emotional parameters are affected, and changes in emotional parameters can be expressed as changes in behavioral characteristics.

以上、実施形態に基づいてロボット100およびロボット100を含むロ
ボットシステム300について説明した。
生物は、感覚器、特に、目から得た環境情報を記憶として蓄積することに
より空間を認識すると考えられる。本実施形態によれば、生物と類似の方法
にて空間認識できる。基本構成として例示した外部センサ114を必須構成
としないため、ロボット100の行動予定範囲に外部センサ114をあらか
じめ設置する作業が不要となる。
The robot 100 and the robot system 300 including the robot 100 have been described above based on the embodiment.
Organisms are thought to recognize space by accumulating environmental information obtained from sensory organs, especially eyes, as memory. According to this embodiment, spatial recognition can be performed in a manner similar to living things. Since the external sensor 114 exemplified as the basic configuration is not an essential component, there is no need to install the external sensor 114 in advance in the planned action range of the robot 100 .

ロボット100は、キーフレーム404に基づいて行動する。このため、
ロボット100が所属する空間の内部状態が変化した場合、たとえば、机や
椅子などのオブジェクトの位置変更が生じたとき、ロボット100は一時的
に空間認識をできなくなる可能性がある。その一方、新たな環境で新たにキ
ーフレーム404を取得することにより画像記憶を更新していく。このため
、環境の変化に一時的に戸惑いつつもいずれ適応していくという生物に似た
行動特性を実現できる。
Robot 100 acts based on keyframe 404 . For this reason,
When the internal state of the space to which the robot 100 belongs changes, for example, when the position of an object such as a desk or chair changes, the robot 100 may be temporarily unable to recognize the space. On the other hand, the image memory is updated by newly obtaining the key frame 404 in the new environment. For this reason, it is possible to realize a behavioral characteristic similar to that of a living thing, in which the animal is temporarily puzzled by changes in the environment but eventually adapts.

ロボット100は、初めての空間に入ったとき、動き回りながらキーフレ
ーム404を蓄積し、場所記憶(ナワバリの感覚)を形成していく。キーフ
レーム404は、サーバ200のマップ格納部170に保存される。マップ
格納部170は、ハードディスク等の不揮発性記録媒体において形成される
ことが好ましい。ロボット100の電源を投入するたびに、空間を歩き回って場所記憶を作り直す必要はない。
When the robot 100 enters a space for the first time, it accumulates key frames 404 while moving around and forms a place memory (sense of territory). Keyframe 404 is stored in map storage 170 of server 200 . Map storage unit 170 is preferably formed in a non-volatile recording medium such as a hard disk. Each time the robot 100 is powered on, there is no need to walk around the space and recreate the place memory.

ロボット100は、環境情報にしたがって感情パラメータを変化させ、感
情パラメータにしたがって行動特性を変化させる。また、ロボット100は
、「現在地点/現在時点」において取得される(第1次)環境情報だけでは
なく、「現在地点/過去時点」における(第2次)環境情報によっても感情
パラメータを変化させる。このような制御方法によれば、過去の記憶により
行動特性が変化するため、場所記憶に基づく感情の変化を行動表現できる。
また、撮像画像から得られる特徴量に関連付けて環境情報を蓄積することに
より、ロボット100は、場所記憶を形成した場所とは異なる場所であって
も、既存の場所記憶を利用した行動ができる。
The robot 100 changes its emotional parameters according to environmental information, and changes its behavioral characteristics according to the emotional parameters. In addition, the robot 100 changes the emotion parameter based on not only the (primary) environment information acquired at the "current location/current time point" but also the (secondary) environment information at the "current location/past time point." . According to such a control method, behavioral characteristics change according to past memories, so changes in emotions based on place memories can be expressed in behavior.
Further, by accumulating environmental information in association with feature values obtained from captured images, the robot 100 can act using the existing place memory even in a place different from the place where the place memory is formed.

ロボット100は、イベントに応じて、感情パラメータを変化させる。ま
た、ロボット100は、イベントそのものだけではなく、イベントを連想さ
せるオブジェクトによっても感情パラメータを変化させる。特に、感情パラ
メータに強い影響を及ぼすイベントを設定した場合、イベントそのものだけ
ではなく、そのイベントを連想させるオブジェクトにすら感情が影響される
様子を行動表現できる。
The robot 100 changes its emotional parameters according to events. In addition, the robot 100 changes its emotion parameter not only by the event itself, but also by objects associated with the event. In particular, when an event that has a strong effect on the emotion parameter is set, it is possible to express behavior that not only the event itself but also the object associated with the event influences the emotion.

なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形
態や変形例に開示されている複数の構成要素を適宜組み合わせることにより
種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構
成要素からいくつかの構成要素を削除してもよい。
It should be noted that the present invention is not limited to the above-described embodiments and modifications, and can be embodied by modifying constituent elements without departing from the scope of the invention. Various inventions may be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments and modifications. Also, some components may be deleted from all the components shown in the above embodiments and modifications.

1つのロボット100と1つのサーバ200、複数の外部センサ114に
よりロボットシステム300が構成されるとして説明したが、ロボット10
0の機能の一部はサーバ200により実現されてもよいし、サーバ200の
機能の一部または全部がロボット100に割り当てられてもよい。1つのサ
ーバ200が複数のロボット100をコントロールしてもよいし、複数のサ
ーバ200が協働して1以上のロボット100をコントロールしてもよい。
One robot 100, one server 200, and a plurality of external sensors 114 have been described to constitute the robot system 300, but the robot 10
0 may be implemented by the server 200 , or some or all of the functions of the server 200 may be assigned to the robot 100 . One server 200 may control multiple robots 100 , or multiple servers 200 may cooperate to control one or more robots 100 .

ロボット100やサーバ200以外の第3の装置が、機能の一部を担ってもよい。図5、図6において説明したロボット100の各機能とサーバ200の各機能の集合体は大局的には1つの「ロボット」として把握することも可能である。1つまたは複数のハードウェアに対して、本発明を実現するために必要な複数の機能をどのように配分するかは、各ハードウェアの処理能力やロボットシステム300に求められる仕様等に鑑みて決定されればよい。 A third device other than the robot 100 and the server 200 may take part of the functions. The aggregate of each function of the robot 100 and each function of the server 200 described with reference to FIGS. 5 and 6 can also be grasped as one "robot" from a broad perspective. How to distribute a plurality of functions necessary for realizing the present invention to one or more pieces of hardware is determined in consideration of the processing capability of each piece of hardware and the specifications required for the robot system 300. It should be decided.

上述したように、「狭義におけるロボット」とはサーバ200を含まない
ロボット100のことであるが、「広義におけるロボット」はロボットシス
テム300のことである。サーバ200の機能の多くは、将来的にはロボッ
ト100に統合されていく可能性も考えられる。
As described above, the “robot in a narrow sense” refers to the robot 100 that does not include the server 200 , while the “robot in a broad sense” refers to the robot system 300 . It is conceivable that most of the functions of the server 200 will be integrated into the robot 100 in the future.

状態管理部244は、サーバ200に搭載されるとして説明したが、状態
管理部244の機能はロボット100に搭載されてもよい。同様にして、マ
ップ管理部168、オブジェクト管理部174の機能も、サーバ200では
なくロボット100に実装されてもよい。
Although the state management unit 244 has been described as being installed in the server 200 , the function of the state management unit 244 may be installed in the robot 100 . Similarly, the functions of the map management unit 168 and the object management unit 174 may also be implemented in the robot 100 instead of the server 200. FIG.

ロボット100の環境情報取得部166は第1次環境情報を取得する「第
1次環境情報取得部」として機能し、ロボットシステム300の状態管理部
244は第2次環境情報を取得する「第2次環境情報取得部」を含んでもよ
い。もちろん、第2次環境情報取得部の機能はロボット100に搭載されて
もよい。第1次環境情報取得部は、ロボット100の現在地点P1において
(同地点において画像特徴情報R1も取得されているとする)、第1次環境
情報E1を取得するとともに画像特徴情報R1と第1次環境情報E1を対応
づけて登録してもよい。この画像特徴情報R1と第1次環境情報E1を対応
づける地点情報は、ロボット100またはサーバ200の有する地点情報格
納部(図示せず)に保存される。そして、第2次環境情報取得部は、現在地
点P1において取得された画像特徴情報R1と、取得済みの画像特徴情報群
を比較し、画像類似度が所定の閾値以上となる画像特徴情報R2を検出する
。第2次環境情報取得部は、画像特徴情報R2に対応づけられている環境情
報E2を現在地点P1における第2次環境情報E2として特定する。動作制御部222は、上述したように第1次環境情報E1および第2次環境情報E2の双方に基づいて地点P1に位置するロボット100の行動特性を変化させてもよい。
The environment information acquisition unit 166 of the robot 100 acquires primary environment information.
It functions as a "primary environment information acquisition unit" and is the state management unit of the robot system 300.
244 may include a "secondary environment information acquisition unit" that acquires secondary environment information. Of course, the function of the secondary environmental information acquisition unit may be installed in the robot 100. FIG. At the current position P1 of the robot 100, the primary environmental information acquisition unit
(Assuming that the image feature information R1 is also acquired at the same point), the primary environment information E1 may be acquired and the image feature information R1 and the primary environment information E1 may be associated and registered. Point information that associates the image feature information R1 with the primary environment information E1 is stored in a point information storage unit (not shown) of the robot 100 or the server 200. FIG. Then, the secondary environment information acquisition unit compares the image feature information R1 acquired at the current point P1 with the acquired image feature information group, and selects the image feature information R2 whose image similarity is equal to or greater than a predetermined threshold. To detect. The secondary environment information acquisition unit identifies the environment information E2 associated with the image feature information R2 as the secondary environment information E2 at the current point P1. The motion control unit 222 may change the behavioral characteristics of the robot 100 positioned at the point P1 based on both the primary environment information E1 and the secondary environment information E2 as described above.

画像特徴情報R1と画像特徴情報R1が類似する場合、画像特徴情報R1
の取得地点P1と画像特徴情報R1の取得地点P2が同一である可能性が高
い。一方、本来は別々の地点である地点P1、P2の画像特徴情報(風景)
がたまたま似ていた可能性もある。このため、現在地点P1における風景を
認識したロボット100が、地点P1と類似する風景を有する地点P2(過
去に訪問した別地点)において認識した第2次環境情報E2を思い出し、第
2次環境情報E2に感情パラメータが影響されるという処理を実現できる。
たとえば、「お父さんの椅子C1に似た椅子C2のある地点P1」において
、以前に見た「お父さんの椅子C1のある地点P2」のイメージによって記
憶を刺激されるという複雑な行動特性を実現できる。ロボット100が地点
P2に肯定的なイメージをもっているときには、動作制御部222は地点P
1において所定時間以上ロボット100を留まらせることで、ロボット10
0の椅子C1に対する愛着を間接的に表現してもよい。
When the image feature information R1 and the image feature information R1 are similar, the image feature information R1
and the acquisition point P2 of the image feature information R1 are likely to be the same. On the other hand, image feature information (landscape) of points P1 and P2, which are originally separate points
may have happened to be similar. Therefore, the robot 100, having recognized the scenery at the current point P1, remembers the secondary environment information E2 recognized at the point P2 (another point visited in the past) having scenery similar to that of the point P1.
A process in which the emotion parameter is influenced by the secondary environmental information E2 can be realized.
For example, it is possible to realize a complex behavioral characteristic in which memory is stimulated by an image of "point P2 where father's chair C1 is located" at "point P1 where chair C2 is similar to father's chair C1". Robot 100 is the point
When the user has a positive image of P2, the motion control unit 222
1, by making the robot 100 stay for a predetermined time or more,
You may indirectly express 0's attachment to chair C1.

第2次環境情報取得部は、地点P1の画像特徴情報R1に類似する画像特
徴情報が検出できなかったときには、撮像画像取得部162に指示して撮影
方向を変化させる。たとえば、ロボット100が正面を撮影してキーフレー
ム404を取得していたときには、撮影方向を右方向に30度にずらして改
めて画像特徴情報R3を取得させてもよい。そして、第2次画像情報取得部
は、画像特徴情報R3に類似する取得済みの画像特徴情報を検索してもよい
。ロボット100は、内蔵するカメラの向き、または、体の向きを変更して
もよいし、全天周カメラによる全天周画像におけるキーフレーム404の抽
出方向を変更してもよい。このように、適宜、撮影方向を変更することによ
り、既に取得された画像特徴情報から現在地点に類似する画像特徴情報を検
出しやすくなる。
When the image feature information similar to the image feature information R1 of the point P1 cannot be detected, the secondary environment information acquisition section instructs the captured image acquisition section 162 to change the shooting direction. For example, when the robot 100 has acquired the key frame 404 by photographing the front, the photographing direction may be shifted rightward by 30 degrees and the image characteristic information R3 may be acquired again. Then, the secondary image information acquisition unit may search for acquired image feature information similar to the image feature information R3. The robot 100 may change the orientation of the built-in camera or the orientation of the body, or may change the extraction direction of the key frame 404 in the omnidirectional image captured by the omnidirectional camera. By appropriately changing the shooting direction in this way, it becomes easier to detect image feature information similar to the current location from already acquired image feature information.

撮像画像の特徴量を入力とし、環境情報を出力とする推測モデルを用意してもよい。この推測モデルは、特徴量f1,f2,・・・,ftを入力とし
、環境情報e1,e2,・・・,euを出力とするニューラル・ネットワー
ク・モデルであってもよい。たとえば、特徴量f1はキーフレーム404に
含まれる特徴点410の数、特徴量f2はキーフレーム404において特徴
点410により形成される略垂直方向の直線の数、であってもよい。同様に
、環境情報e1は受信強度、環境情報e2はユーザX1の検出率であっても
よい。第2次環境情報取得部は、ロボット100の現在地点P1において取
得された特徴量を推測モデルに入力し、その出力を第2次環境情報として取
得してもよい。推測モデルにより出力される第2次環境情報は、特徴量から
推測される仮想の環境情報である。このような処理方法によっても、現在地
点P1の風景を認識したロボット100が、地点P1の画像特徴量に基づい
て第2次環境情報をイメージし、第2次環境情報によって感情パラメータが
影響されるという処理を実現できる。
An estimation model may be prepared that takes the feature amount of the captured image as an input and the environment information as an output. This inferring model may be a neural network model with feature values f1, f2, . . . , ft as inputs and environmental information e1, e2, . For example, the feature quantity f1 may be the number of feature points 410 included in the keyframe 404 and the feature quantity f2 may be the number of substantially vertical straight lines formed by the feature points 410 in the keyframe 404 . Similarly, the environment information e1 may be the reception intensity, and the environment information e2 may be the detection rate of the user X1. The secondary environment information acquisition unit may input the feature quantity acquired at the current point P1 of the robot 100 to the estimation model and acquire the output as the secondary environment information. The secondary environment information output by the inference model is virtual environment information inferred from the feature amount. Even with such a processing method, the robot 100 that has recognized the scenery at the current point P1 imagines the secondary environmental information based on the image feature amount of the point P1, and the emotion parameter is affected by the secondary environmental information. process can be realized.

第1次環境情報取得部は、現在地点P1における撮像画像から特徴量を抽
出するとともに第1次環境情報を取得したときには、これらを入出力値とし
て、いいかえれば教師データとして推測モデルを更新してもよい。
The primary environmental information acquisition unit extracts the feature amount from the captured image at the current point P1, and when the primary environmental information is acquired, uses these as input/output values, in other words, as teacher data, and updates the estimation model. good too.

キーフレーム404の撮影に際しては、TOF(Time-of-Flight)方式の
カメラや、ステレオカメラ等のデプスカメラを用いてもよい。デプスカメラ
で撮影された画像には、深度情報が含まれる。画像特徴取得部164は、深
度範囲ごとに特徴量を抽出してもよい。第1次環境情報取得部は、深度範囲
ごとの画像特徴情報と、第1次環境情報E1とを対応付けて登録してもよい
。深度範囲は、カメラからの絶対的な距離範囲として決められてもよいし、
ある特徴点を基準とした相対的な距離範囲として決められてもよい。たとえ
ば、5つの深度範囲を決めた場合、5つの深度範囲の画像特徴情報それぞれ
に共通の第1次環境情報E1が対応付けて登録される。また、画像特徴取得
部164は、同一のオブジェクトに起因する特徴点の組み合わせを画像特徴
情報として抽出し、第1次環境情報E1と対応付けて登録してもよい。そし
て、第2次環境情報取得部は、深度範囲ごとの特徴量を用いて第2次環境情報E2を取得してもよい。このように深度範囲に応じて特徴量を抽出するこ
とで、ある環境を作り出す要因となる視覚的な特徴を特定し易くなる。つま
り、ノイズとなる特徴点が除かれる確率が増し、推測モデルを利用した形態
では学習効果が高くなる。
When capturing the key frame 404, a TOF (Time-of-Flight) camera or a depth camera such as a stereo camera may be used. An image captured by a depth camera contains depth information. The image feature acquisition unit 164 may extract feature amounts for each depth range. The primary environment information acquisition unit may associate and register the image feature information for each depth range and the primary environment information E1. The depth range may be defined as an absolute range of distances from the camera,
It may be determined as a relative distance range based on a certain feature point. For example, when five depth ranges are determined, the common primary environment information E1 is registered in association with each of the image feature information of the five depth ranges. Further, the image feature acquisition unit 164 may extract a combination of feature points resulting from the same object as image feature information and register it in association with the primary environment information E1. Then, the secondary environment information acquisition unit may acquire the secondary environment information E2 using the feature amount for each depth range. By extracting the feature quantity according to the depth range in this way, it becomes easier to identify the visual features that are factors that create a certain environment. In other words, the probability of removing feature points that become noise increases, and the learning effect increases in the form using the inference model.

たとえば、テレビT1の近くに人が居るという状況を想定する。第1次環
境情報取得部は、深度範囲ごとに特徴量を取得して複数の地点情報を登録す
る。この地点情報の中に、主にテレビT1の特徴点群からなる画像特徴情報
と、人が居るという環境情報とが対応付けられたものが含まれる。別の機会
に、テレビT2を含むキーフレーム404が撮影され、深度範囲ごとに特徴
量を取得すると、その中に主に「テレビ」の特徴点群からなる画像特徴情報
が抽出されたとする。テレビT2の近くには人は居ないとする。第2次環境
情報取得部がその画像特徴情報に類似する地点情報を取得すると、テレビT
1の画像特徴情報に基づいて「人が居る」という第2次環境情報を得る。こ
れにより、「テレビの近くには人が居る」という体験をした場所とは実際に
は別の場所であっても、テレビに起因する特徴点を多く含む画像特徴情報が
得られれば、「人が居る」という経験を思い出すことができ、そこに人が居
なくても長く留まるなどの学習的な行動を選択できる。
For example, assume a situation where a person is near the television T1. A primary environment information acquisition unit acquires a feature amount for each depth range and registers a plurality of point information. This point information includes image feature information mainly composed of a group of feature points of the television T1 and environment information indicating that a person is present in correspondence with each other. On another occasion, a key frame 404 including TV T2 was shot, and when feature amounts were obtained for each depth range, image feature information mainly composed of feature points of "TV" was extracted. Suppose there is no person near TV T2. When the second environmental information acquisition unit acquires point information similar to the image feature information, the TV T
Based on the image feature information of 1, the secondary environmental information of "there is a person" is obtained. As a result, if image feature information containing many feature points attributed to the television is obtained, even if the place where the experience of "there is a person is near the TV" is actually different from the place where the experience is, "human You can remember the experience of "there is someone", and you can choose learning behavior such as staying long even if there is no one.

本実施形態においては、定期的に1枚の撮像画像を取得し、イベント発生時においては複数枚の撮像画像を取得するとして説明した。これに限らず、
通常時においてはn枚の撮像画像を取得し、イベント発生時においてはm枚
(m>n)の撮像画像を取得するとしてもよい。イベントはロボット100
の行動特性に大きく影響しやすい重要事象であるため、イベント発生時にお
いてはその周辺における画像情報をより詳細に取得することが望ましい。多
数の撮像画像を取得することにより、イベント発生時におけるオブジェクト
を高精度にて検出できる。イベント発生時においては、ロボット100は複
数方向に搭載カメラを向けることで複数の撮像画像を取得してもよい。この
場合には、イベントに驚いて周辺確認する様子も行動表現できる。
In the present embodiment, it has been described that one captured image is acquired periodically, and multiple captured images are acquired when an event occurs. Not limited to this
Acquire n images during normal operation, and m images when an event occurs.
(m>n) captured images may be acquired. The event is robot 100
Therefore, it is desirable to acquire more detailed image information around the event when the event occurs. By acquiring a large number of captured images, an object can be detected with high accuracy when an event occurs. When an event occurs, the robot 100 may acquire a plurality of captured images by directing the mounted camera in a plurality of directions. In this case, it is possible to express the action of checking the surroundings in surprise at the event.

イベント発生時においては、通常時よりも高画質にて撮影画像を取得するとしてもよい。通常時における画像処理負荷を抑制しつつ、イベント発生時
においては外部環境をより詳細に認識できる。画像特徴取得部164は、高
画質の撮像画像を拡大することにより、拡大画像から小さなオブジェクトを
認識してもよい。
When an event occurs, a captured image may be obtained with higher image quality than normal. The external environment can be recognized in more detail when an event occurs while suppressing the image processing load during normal times. The image feature acquisition unit 164 may recognize a small object from the enlarged image by enlarging the high-quality captured image.

イベント発生時においては、奥行き毎に特徴量を抽出し、オブジェクトを検出してもよい。具体的には、深度カメラにより、奥行き方向を複数段階に
分離してもよい。ロボット100から所定範囲、たとえば、30センチメー
トル以内の範囲を第1範囲、30センチメートルから1メートル以内の範囲
を第2範囲、1メートル以上を第3範囲とする。そして、第1範囲の画像特
徴情報と、第1範囲についての既存の画像特徴情報との類似度を判定しても
よい。この場合には、遠方においては類似していなくても、近距離において
は類似している画像特徴情報を対象として類似判断をするため、イベント発
生時に高画質の撮像画像を取得したときでも高速に画像処理を実行できる。
When an event occurs, a feature amount may be extracted for each depth to detect an object. Specifically, the depth camera may separate the depth direction into a plurality of steps. A predetermined range from the robot 100, for example, a range within 30 cm is defined as a first range, a range within 30 cm to 1 meter as a second range, and a range of 1 meter or more as a third range. Then, the degree of similarity between the image feature information of the first range and the existing image feature information of the first range may be determined. In this case, similarity judgment is performed on image feature information that is similar at a short distance, even if it is not similar at a distance. Can perform image processing.

イベント発生時においては、マイクロフォンなどの各種センサの検出感度を上昇させてもよい。あるいは、通常時においては、ニオイセンサなどの一
部のセンサは使用せず、イベント発生時に限りこれらのセンサを使用するこ
とにより、イベント発生時における環境情報を充実させてもよい。人間は、
通常時においては無意識的に行動し、危険を認識したときや興味をひかれる
事象を認識したとき、いわば非常時において周辺環境を正確に認識しようと
意識を強く働かせる。イベント発生時、いいかえれば、非常時においてセン
サの検出力を高めることで、イベント発生時における外部環境をより認識し
やすくなる。
When an event occurs, the detection sensitivity of various sensors such as a microphone may be increased. Alternatively, some sensors, such as the odor sensor, may not be used during normal times, and may be used only when an event occurs, thereby enriching environmental information when an event occurs. Humans are,
In normal times, we act unconsciously, but when we perceive a danger or an event that attracts our interest, so to speak, in an emergency, we work hard to accurately perceive the surrounding environment. By increasing the detection power of the sensor when an event occurs, in other words, in an emergency, it becomes easier to recognize the external environment when the event occurs.

撮像画像取得部162は、常時、動画像を撮像し、動画像から定期的に撮
像画像(静止画)を抽出してもよい。画像特徴取得部164は、動画像から
キーフレーム404を抽出してもよい。認識部212は、イベント発生時に
おいては、イベント発生の認識前後における所定期間の動画像からオブジェ
クトを検出してもよい。
The captured image acquisition unit 162 may constantly capture moving images and periodically extract captured images (still images) from the moving images. The image feature acquisition unit 164 may extract keyframes 404 from the moving image. When an event occurs, the recognition unit 212 may detect an object from a moving image of a predetermined period before and after recognizing the occurrence of the event.

図14に示したオブジェクト判定処理は、図11に示した更新処理とは別のタイミングにて実行されてもよい。オブジェクト判定処理を高頻度で実行
する場合、オブジェクトが検出されるごとに感情パラメータが変化すること
になる。感情パラメータの過度の変化を抑制する方法のひとつとして、更新
処理よりも低い頻度にてオブジェクト判定処理を実行してもよい。
The object determination process shown in FIG. 14 may be executed at a different timing than the update process shown in FIG. If the object determination process is executed with high frequency, the emotion parameter will change each time an object is detected. As one method of suppressing excessive changes in emotion parameters, the object determination process may be executed less frequently than the update process.

本実施形態においては、イベントとオブジェクトの因果性を関連度として定義し、オブジェクトに基づいて感情パラメータを変化させるとして説明し
た。視認可能なオブジェクトのほかにも、特定の音声や匂いなど他の環境情
報をイベントと関連づけてもよい。たとえば、香水の匂いと女性ユーザX4
の外出というイベントを結びつけることにより、香水の匂いを検出したとき
には、女性ユーザX4の外出を連想し、状態管理部244は感情値(寂しさ
)を上昇させてもよい。
In the present embodiment, the causality between an event and an object is defined as the degree of association, and the emotion parameter is changed based on the object. In addition to visible objects, other environmental information may be associated with events, such as specific sounds or smells. For example, the smell of perfume and female user X4
By linking the event of going out, when the smell of perfume is detected, the female user X4 is associated with going out, and the state management unit 244 obtains an emotional value (loneliness
) may be increased.

オブジェクト管理部174は、イベントとオブジェクトの連想性の強さを
表現する関連度を時間経過にしたがって減少してもよい。このような制御方
法によれば、イベントとオブジェクトの連想性が時間とともに薄れていくと
いう「忘却」をロボット100において表現できる。オブジェクト管理部1
74は、関連度が所定の閾値を越えたときには、関連度の時間減衰率を低下
させてもよい。このような制御方法によれば、イベントとオブジェクトの間
につよい連想性(関連度)が成立したときには、このような連想性がなかな
か解消されなくなる。いわば、「強い先入観」に似た感情表現をロボット1
00において表現できる。
The object management unit 174 may decrease the degree of association representing the strength of associativity between an event and an object over time. According to such a control method, the robot 100 can express "forgetting" that the associativity between an event and an object fades with time. Object management part 1
74 may reduce the time decay rate of relevance when relevance exceeds a predetermined threshold. According to such a control method, when a strong association (degree of association) is established between an event and an object, such association is difficult to dissolve. In other words, robot 1 can express emotions similar to “strong prejudice”.
It can be expressed in 00.

一部のイベントを特別イベントとして設定してもよい。たとえば、雷鳴や爆発音などの所定値以上の音が発生することを特別イベントと定義してもよ
い。オブジェクト管理部174は、特別イベントと同時に視認したオブジェ
クトに対しては所定の関連度、たとえば、90(%)の関連度を設定し、「
トラウマ(心的外傷)」のような強い印象をロボット100に設定してもよ
い。このほかにも、ユーザX1から、故障するほど強く殴られたときには、
オブジェクト管理部174は、殴られるという特別イベントとユーザX1(
オブジェクト)の関連度を90%に設定してもよい。このような制御方法によれば、親密度以外のパラメータにより「苦手感」を表現できる。
Some events may be set as special events. For example, a special event may be defined as the occurrence of a sound greater than or equal to a predetermined value, such as a thunderclap or an explosion. The object management unit 174 sets a predetermined degree of relevance, for example, 90(%), to the object visually recognized at the same time as the special event, and
A strong impression such as "trauma (trauma)" may be set on the robot 100. In addition to this, when user X1 hits hard enough to break down,
The object management unit 174 stores the special event of being hit and the user X1 (
object) may be set to 90% relevance. According to such a control method, it is possible to express "feeling of difficulty" by using parameters other than familiarity.

イベント条件は任意に設定可能である。外部事象に限らず、感情値(寂しさ)が所定値以上となること、であってもよい。あるいは、充電率が所定値
以下になる、故障するなどの機構上の事象をイベントとして認識してもよい
。感情値(寂しさ)が所定値以上となったときには、動作制御部222はロ
ボット100の移動先として、親密度が所定値以上のユーザの出現確率の高
い地点を候補として選択しつつ、このユーザを求めて部屋を徘徊させてもよ
い。
Any event condition can be set. It is not limited to an external event, and may be an emotional value (loneliness) exceeding a predetermined value. Alternatively, a mechanical phenomenon such as a charging rate falling below a predetermined value or a failure may be recognized as an event. When the emotion value (loneliness) reaches a predetermined value or more, the motion control unit 222 selects a candidate point as a destination of the robot 100 where a user whose degree of intimacy is a predetermined value or more has a high probability of appearing. You can have it wander the room in search of

画像特徴取得部164は、地点P6において合計10枚のキーフレーム4
04を取得したとする。このとき、10枚のキーフレーム404のうちの所
定枚数、たとえば、7枚以上のキーフレーム404において共通する画像特
徴を地点P6のキーフレーム404(画像特徴情報)として登録してもよい
。このような制御方法によっても、書類や服など、外部環境を認識する上で
目印になりにくい不安定特徴、いわば、位置認識におけるノイズ情報を効果
的に除去できる。
The image feature acquisition unit 164 obtains a total of 10 keyframes 4 at point P6.
Suppose you get 04. At this time, an image feature common to a predetermined number of the ten key frames 404, for example, seven or more key frames 404 may be registered as the key frame 404 (image feature information) of the point P6. Such a control method can also effectively remove unstable features such as documents and clothes that are difficult to mark when recognizing the external environment, that is, noise information in position recognition.

環境情報は、カテゴリ化されてもよい。たとえば、気温に関する環境情報を「暖かい」「寒い」などの2以上のカテゴリに分類してもよい。このほか
「安全」「危険」、「楽しい」「寂しい」など場所ごとに環境情報を複数カ
テゴリに分類をしてもよい。このような制御方法によれば、キーフレーム4
04に結びつく環境情報を縮約できるため、記憶容量を抑制するとともに環
境情報の検出にともなう処理負荷を軽減できる。
Environmental information may be categorized. For example, environmental information about temperature may be classified into two or more categories such as "warm" and "cold". In addition, environmental information may be classified into a plurality of categories such as "safe", "dangerous", "fun" and "lonely" for each location. According to such a control method, keyframe 4
Since the environmental information linked to 04 can be condensed, the storage capacity can be suppressed and the processing load accompanying detection of the environmental information can be reduced.

サーバ200からの無線信号の受信強度により、ロボット100のナワバ
リを表現してもよい。ロボット100は、サーバ200との通信可能範囲か
ら出てしまうと、サーバ200からのサポートを受けられなくなる。動作制
御部222は、オブジェクト情報430を参照し、受信強度がB以上となる
地点の集合を行動可能範囲として設定してもよい。このような制御方法によ
れば、ロボット100が通信可能範囲から外れるのを防ぐことができる。
The territory of the robot 100 may be represented by the reception strength of the radio signal from the server 200. FIG. The robot 100 cannot receive support from the server 200 if it goes out of the communicable range with the server 200 . The motion control unit 222 may refer to the object information 430 and set a set of points where the reception strength is B or higher as the actionable range. According to such a control method, it is possible to prevent the robot 100 from leaving the communicable range.

ロボット100は、サーバ200に限らず、他の装置からの受信強度に基づいて縄張りを設定してもよい。たとえば、外部センサ114を設置する場
合には、動作制御部222はいずれかの外部センサ114との無線通信を良
好に実行できる範囲を行動可能範囲として設定してもよい。ロボット100
は、定期的にサーバ200と通信し、受信強度が所定値以下となったときに
はそれ以上、サーバ200から離れないように自ら行動規制してもよい。一
方、ユーザのお出迎えなど特定のイベントが発生したときには、動作制御部
222は受信強度が低い地点であっても移動目標地点を設定してもよい。
The robot 100 may set its territory based on the reception strength from other devices, not limited to the server 200 . For example, when the external sensor 114 is installed, the operation control unit 222 may set the range in which wireless communication with any one of the external sensors 114 can be performed satisfactorily as the actionable range. robot 100
communicates with the server 200 periodically, and when the reception strength becomes equal to or less than a predetermined value, it may restrict its own behavior so that it does not move away from the server 200 any further. On the other hand, when a specific event such as welcoming the user occurs, the operation control unit
222 may set a movement target point even if the reception strength is low.

ロボット100は、図示しない充電装置において定期的に充電を行う。充
電中においては、サーバ200はロボット100との通信を抑制してもよい
。ロボット100の通信部142は、充電装置で充電を開始するとき充電開
始信号をサーバ200に送信し、充電が完了したときには充電完了信号を送
信する。サーバ200は、充電開始信号を受信したときには、ロボット10
0から充電完了信号を受信するまでロボット100との通信を中止してもよ
い。あるいは、ロボット100の充電中においては、サーバ200とロボッ
ト100との定期的な通信頻度を低下させてもよい。このような制御方法に
よれば、ロボット100が活動していない充電時に通信を抑制することで、
ロボット100およびサーバ200の通信にともなう電力消費を抑制できる。
The robot 100 is periodically charged by a charging device (not shown). The server 200 may suppress communication with the robot 100 during charging. The communication unit 142 of the robot 100 transmits a charging start signal to the server 200 when the charging device starts charging, and transmits a charging completion signal when charging is completed. When the server 200 receives the charging start signal, the robot 10
Communication with the robot 100 may be suspended from 0 until the charging completion signal is received. Alternatively, while the robot 100 is being charged, the frequency of regular communication between the server 200 and the robot 100 may be reduced. According to such a control method, by suppressing communication during charging when the robot 100 is not active,
Power consumption associated with communication between the robot 100 and the server 200 can be suppressed.

本発明は、ロボット100以外にも応用可能である。たとえば、ナビゲー
ションシステムにおいても、キーフレーム404による場所記憶の考え方は
応用可能である。定期的に外界を撮像することにより、景色を記憶すること
でマップを作成する。これに環境情報を結びつける。ナビゲーションシステ
ムは、環境マップ情報に基づいて、ユーザが今まで行ったことのない散歩コ
ースを提案してもよいし、楽しい経験をしたことのある地点を含む散歩コー
スを提案してもよいし、危ない経験をしたことのある地点を避けた散歩コー
スを提案してもよい。
The present invention can be applied to other than the robot 100 as well. For example, in a navigation system, the concept of storing locations by keyframes 404 can be applied. A map is created by memorizing scenery by taking pictures of the outside world at regular intervals. Associate environmental information with this. Based on the environment map information, the navigation system may propose a walking course that the user has never been to, or a walking course that includes points where the user has had a pleasant experience. You may suggest a walking course that avoids places where you have had dangerous experiences.

環境マップ、または、環境マップ情報は、いわゆる「マップ(地図)」と
して表現される必要はない。環境マップ情報は、地理情報と環境情報を対応づける情報であればよく、視覚的に表現される必要はない。ここでいう地理
情報とはキーフレーム404であってもよいし、地理的な目印となる各種の
オブジェクトであってもよい。
Environment maps or environment map information need not be represented as so-called "maps". The environmental map information may be any information that associates geographical information with environmental information, and does not need to be represented visually. The geographic information here may be the keyframe 404 or various objects that serve as geographical landmarks.

本実施形態においては、キーフレーム404と環境情報を対応づけ、キー
フレーム404に対応づけられる環境情報(キーフレーム404に関する記
憶)に基づいて感情パラメータを変化させ(二次反映)、感情パラメータに
基づいてロボット100の行動特性を変化させるとして説明した。
In this embodiment, the key frame 404 is associated with environmental information, the emotion parameter is changed (secondary reflection) based on the environmental information (memory related to the key frame 404) associated with the key frame 404, and the has been described as changing the behavioral characteristics of the robot 100.

変形例として、オブジェクトと環境情報を対応づけることにより環境記憶を形成してもよい。ロボット100は、オブジェクトを検出したとき、オブ
ジェクトに対応づけられる環境情報(オブジェクトに関する記憶)に基づい
て行動特性を変化させてもよい。
Alternatively, the environmental memory may be formed by associating objects with environmental information. When the robot 100 detects an object, the robot 100 may change its behavioral characteristics based on environmental information associated with the object (memory related to the object).

ロボット100は、オブジェクトの種類に基づいて、感情パラメータを変
化させ、感情パラメータの変化に基づいて行動特性を変化させてもよい。
The robot 100 may change the emotional parameter based on the type of object, and change the behavioral characteristics based on the change in the emotional parameter.

また、複数のオブジェクトを含む部屋(空間)に対するロボット100の
印象を記憶させておき、部屋に対する印象記憶(後述)に基づいてロボット
100の感情パラメータを変化させ、感情パラメータに基づいて行動特性を
変化させてもよい。
In addition, the impression of the robot 100 with respect to a room (space) containing a plurality of objects is stored, and based on the impression memory (described later) of the room
100 emotional parameters may be changed and behavioral characteristics may be changed based on the emotional parameters.

以下においては、部屋に対する記憶に基づく感情パラメータの変化、オブジェクトに対応づけられる環境情報に基づく感情パラメータの変化と、それ
にともなうロボット100の行動特性の変化について変形例として説明する。
In the following, changes in emotion parameters based on memories of a room, changes in emotion parameters based on environmental information associated with objects, and accompanying changes in behavioral characteristics of robot 100 will be described as modified examples.

ロボット100の画像特徴取得部164は「オブジェクト検出部」として
機能してもよい。上述したように画像特徴取得部164は、複数種類のオブ
ジェクトについて、あらかじめ形状および色彩の特徴を定義する複数のオブ
ジェクトパターンを有しており、オブジェクトパターンに基づいてオブジェ
クトを画像認識してもよい。たとえば、画像特徴取得部164は、オブジェ
クト(B01)の特徴点分布に基づいて、オブジェクト(B01)が「テレ
ビ」であると判定してもよい。また、画像特徴取得部164は、別のオブジェクト(B04)の特徴点分布について、このオブジェクト(B04)も「テレビ」であると判定してもよい。画像特徴取得部164または認識部212は、オブジェクト(B01)とオブジェクト(B04)は異なるオブジェクトであっても「テレビ」という同じカテゴリに属することを認識できる。
画像特徴取得部164は、特徴点分布を入力とするニューラル・ネットワー
ク・モデルにより、オブジェクトのカテゴリを判定してもよい。
The image feature acquisition unit 164 of the robot 100 may function as an "object detection unit". As described above, the image feature acquiring unit 164 may have a plurality of object patterns that define the shape and color features of a plurality of types of objects in advance, and image recognition of the object may be performed based on the object patterns. For example, the image feature acquiring unit 164 may determine that the object (B01) is "TV" based on the feature point distribution of the object (B01). Further, the image feature acquisition unit 164 may determine that this object (B04) is also "television" with respect to the feature point distribution of another object (B04). The image feature acquiring unit 164 or the recognizing unit 212 can recognize that the object (B01) and the object (B04) belong to the same category of "television" even if they are different objects.
The image feature acquisition unit 164 may determine the category of the object using a neural network model that receives feature point distribution as input.

以下、オブジェクト(B01)のような固有物体としてのオブジェクトを
示すときには「固有オブジェクト」、テレビのようにオブジェクトの種類を
示すときには「オブジェクト・カテゴリ」とよぶ。固有オブジェクトはオブ
ジェクトIDにより識別され、オブジェクト・カテゴリはカテゴリIDによ
り識別される。また、特に区別しないときには、単に「オブジェクト」とよ
ぶ。
Hereinafter, an object as a unique object such as the object (B01) will be referred to as a "unique object", and a type of object such as a television will be referred to as an "object category". A unique object is identified by an object ID and an object category is identified by a category ID. In addition, they are simply referred to as "objects" when they are not distinguished from each other.

ロボット100は、画像認識以外の方法により固有オブジェクトを検出し
、オブジェクト・カテゴリを特定してもよい。たとえば、ロボット100は
、固有オブジェクトと通信することによりオブジェクトを検出する「オブジ
ェクト検出部」を備えてもよい。カテゴリIDを家電製品が送信可能である
場合、オブジェクト検出部は家電製品から送信されるカテゴリIDを検出す
ることにより、家電製品(固有オブジェクト)のオブジェクト・カテゴリを
判定してもよい。
以下の変形例においては、ロボット100のオブジェクト検出部がオブジ
ェクトを検出し、かつ、オブジェクト・カテゴリを特定するものとして説明
する。
The robot 100 may detect unique objects and identify object categories by methods other than image recognition. For example, the robot 100 may include an "object detection unit" that detects objects by communicating with unique objects. If the home appliance can send the category ID, the object detection unit may determine the object category of the home appliance (unique object) by detecting the category ID sent from the home appliance.
In the following modified example, it is assumed that the object detection unit of the robot 100 detects objects and identifies object categories.

図15は、変形例におけるオブジェクト環境情報440のデータ構造図で
ある。
オブジェクト環境情報440は、オブジェクト情報格納部172に格納さ
れる。オブジェクト環境情報440は、オブジェクトID、カテゴリID、
環境情報およびルームIDと対応づけられる。上述したように、オブジェク
トIDは固有オブジェクトを識別し、カテゴリIDはオブジェクト・カテゴリを示す。たとえば、固有オブジェクト(B01)と固有オブジェクト(B04)がどちらも「テレビ」であるときには、これらの2つの固有オブジェクトのカテゴリIDは同一となる。
FIG. 15 is a data structure diagram of the object environment information 440 in the modified example.
Object environment information 440 is stored in the object information storage unit 172 . Object environment information 440 includes object ID, category ID,
Associated with environment information and room ID. As noted above, the Object ID identifies a unique object and the Category ID indicates the object category. For example, when the unique object (B01) and the unique object (B04) are both "television", the category IDs of these two unique objects will be the same.

オブジェクト検出部は、固有オブジェクトを検出したとき、オブジェクトIDおよびカテゴリIDを特定する。環境情報取得部166は、固有オブジ
ェクトを検出したときの環境情報を取得する。オブジェクト管理部174は
、固有オブジェクト検出時の環境情報に基づいて、オブジェクト環境情報4
40を更新する。オブジェクト環境情報440の更新は、図8に関連して説
明した方法と基本的には同じである。
The object detection unit identifies an object ID and a category ID when detecting a unique object. The environment information acquisition unit 166 acquires environment information when the unique object is detected. The object management unit 174 stores the object environment information 4 based on the environment information when the unique object is detected.
Update 40. Updating object environment information 440 is basically the same as the method described in connection with FIG.

認識部212は、壁と扉を検出することにより、閉鎖空間としての部屋を
認識する。各部屋はルームIDにより識別される。オブジェクト検出部によ
り検出された固有オブジェクトは、ルームIDが対応づけられて管理される
。ルームID=R01は「居間」を示し、ルームID=R02は「書斎」を
示すものとする。図15によれば、固有オブジェクト(B01:テレビ)は
部屋(R01:居間)に設置され、固有オブジェクト(B04:テレビ)は
部屋(R02:書斎)に設置されている。たとえば、部屋(R01:居間)
に設置されているテレビ(B01)の近くでは70%の高い確率でいずれか
のユーザが検出され、部屋(R02:書斎)に設置されているテレビ(B0
4)の近くでは、ほとんどユーザを検出したことが無いことが記憶されてい
る。
以下、オブジェクト・カテゴリ(C01)はテレビ、オブジェクト・カテ
ゴリ(C02)はプリンタ、オブジェクト・カテゴリ(C03)はテーブル
、オブジェクト・カテゴリ(C04)はソファである想定して説明する。
The recognition unit 212 recognizes a room as a closed space by detecting walls and doors. Each room is identified by a room ID. Unique objects detected by the object detection unit are managed in association with room IDs. Room ID=R01 indicates "living room" and room ID=R02 indicates "study". According to FIG. 15, the unique object (B01: television) is installed in the room (R01: living room), and the unique object (B04: television) is installed in the room (R02: study). For example, room (R01: living room)
One of the users is detected near the TV (B01) installed in the room (R02: study) with a high probability of 70%, and the TV (B0
Near 4), it is remembered that the user is rarely detected.
In the following description, it is assumed that the object category (C01) is television, the object category (C02) is printer, the object category (C03) is table, and the object category (C04) is sofa.

図16は、変形例におけるルーム印象情報450のデータ構造図である。
本変形例においては、サーバ200のデータ格納部206は、更に、ルー
ム印象情報450を格納する。ルーム印象情報450は、部屋(ルームID
)、カテゴリIDおよび印象記憶を対応づける。「印象記憶」は、部屋に対
するロボット100の印象を表す情報であり、数値にて示される(以下、「印象記憶値」とよぶ)。「印象」は、部屋で体験したイベント、ロボットの
外部状態や内部状態に応じて増減される指数であり、ロボット100の感情
パラメータや、各駆動部の動作量、スピーカーの音量など数値として管理で
きるパラメータに基づいて決まる。
FIG. 16 is a data structure diagram of room impression information 450 in a modified example.
In this modification, data storage section 206 of server 200 further stores room impression information 450 . The room impression information 450 is the room (room ID
), category ID and impression memory. The "impression memory" is information representing the impression of the robot 100 with respect to the room, and is indicated by a numerical value (hereinafter referred to as "impression memory value"). "Impression" is an index that increases or decreases according to the events experienced in the room, the external state or internal state of the robot, and can be managed as numerical values such as the emotional parameters of the robot 100, the amount of movement of each drive unit, and the volume of the speaker. Determined based on parameters.

たとえば、居間では、ロボット100は、オーナーと触れあう機会が多く
、移動可能なスペースも広いので自由に動き回ることができる。寝室は、居
間よりもスペースが狭く、触れあう機会も居間よりも少ない。そのため、ロ
ボットにおける可動部分の動作量という観点で指数を設けると、居間におけ
る動作量の指数は、寝室の動作量の指数より大きくなる。
For example, in the living room, the robot 100 has many opportunities to interact with its owner and has a large movable space, so it can move freely. The bedroom has less space than the living room, and there are fewer opportunities to interact with each other than in the living room. Therefore, if an index is provided from the viewpoint of the amount of movement of the movable portion of the robot, the index of the amount of movement in the living room is larger than the index of the amount of movement in the bedroom.

スピーカーからの出力という観点で指数を設けると、居間ではオーナーと
触れあう機会が多く、声を発する機会も多くなるのでスピーカーの指数は、
寝室におけるスピーカーの指数より大きくなる。
If we set an index in terms of the output from the speakers, there are many opportunities to interact with the owner in the living room, and there are many opportunities to speak, so the speaker index is
Greater than the loudspeaker exponent in the bedroom.

ロボット100がオーナーから受ける快行為という観点で指数を設けると
、居間では抱っこしてもらう機会が多く、寝室では居間よりも抱っこの機会
が少なくなるので、快行為の指数は、居間の方が寝室よりも大きくなる。こ
うした指数を定義し、定義された指数の根拠となるパラメータの実績値を部
屋ごとに一定期間にわたり所定の条件で集計することにより部屋ごとの傾向
がわかる。こうした指数が印象記憶として管理される。
If an index is set from the viewpoint of pleasant behavior that the robot 100 receives from the owner, there are more opportunities for the robot 100 to be hugged in the living room, and there are fewer opportunities for hugging in the bedroom than in the living room. be larger than By defining these indices and summing up the actual values of the parameters that form the basis of the defined indices for each room over a certain period of time under predetermined conditions, trends for each room can be understood. These indices are managed as impression memory.

たとえば、ロボット100は、居間では活発に行動し、声を発する機会も
多く、快行為を受けることも多いという経験をしたとき、居間に対する実績
値として「動作量の指数」「スピーカーの指数」「快行為の指数」が高くな
る。このような実績値から、「居間のような部屋では、活発に動いてもよい
し、声を出してもよいし、快行為を受けることも多い」という印象が形成さ
れる。
For example, when the robot 100 experiences that it actively acts in the living room, has many opportunities to vocalize, and is often subjected to pleasurable behavior, it obtains the actual values for the living room as the "movement amount index", "speaker index", and "speaker index". Pleasant behavior index” increases. Based on these results, an impression is formed that "in a room such as a living room, you can move actively, speak out, and often receive pleasurable behavior."

これらの指数は時間帯によっても変化する。たとえば、平日の昼は快行為
を受けることは少なく、平日の夜は快行為を受けることが多いかもしれない
。この場合、平日の昼(たとえば、11:00~13:00)という時間帯
に対して各種の指数が対応づけられる。この結果、平日の昼と平日の夜では印象記憶値も変化する。
図16では、こうした印象記憶のうち、快行為の指数が図示されている。
These indices also change depending on the time of day. For example, during the daytime on weekdays, it is rare to receive pleasant acts, but during the night on weekdays, it may be possible to receive many pleasant acts. In this case, various indices are associated with weekday afternoons (for example, 11:00 to 13:00). As a result, the impression memory value also changes between daytime on weekdays and nighttime on weekdays.
In FIG. 16, the index of pleasant behavior among these impression memories is illustrated.

部屋(R01:居間)で発生したイベントが快行為であるとき、状態管理
部244は部屋(R01:居間)の印象記憶値を増加させる。一方、イベン
トが不快行為であるとき、状態管理部244は部屋(R01:居間)の印象
記憶値を減少させる。このような制御方法により、部屋(R01:居間)に
対するロボット100の印象を数値表現する。図16によれば、部屋(R0
1:居間)の印象記憶値は「+10」であるから、ロボット100は部屋(
R01:居間)に対して肯定的な印象をもっている。居間に対するこのよう
な好印象は、たとえば、ロボット100が居間にいるときには、オーナーに
抱っこしてもらうなど快行為を受けることが多かったという経験に基づいて
育まれる。
When the event occurring in the room (R01: living room) is a pleasant act, the state management unit 244 increases the impression storage value of the room (R01: living room). On the other hand, when the event is an unpleasant act, the state management unit 244 decreases the impression memory value of the room (R01: living room). With such a control method, the impression of the robot 100 on the room (R01: living room) is expressed numerically. According to Figure 16, the room (R0
1: The living room) has an impression memory value of "+10", so the robot 100 moves to the room (
R01: living room) has a positive impression. Such a favorable impression of the living room is cultivated based on the experience that, for example, when the robot 100 was in the living room, it was often given pleasant acts such as being held by the owner.

部屋(R02:書斎)でオーナーに叱られたときには(不快行為)、ロボ
ット100の部屋(R02:書斎)に対する印象記憶値は減少する。状態管
理部244は、たとえば、ロボット100が部屋(R02:書斎)にいると
き、一定時間以上、たとえば、10分間以上、いずれのオーナーも検出でき
なかったときに部屋(R02:書斎)に対する印象記憶値を減少させるとし
てもよい。このように、部屋で発生したイベントだけではなく、部屋でイベ
ントが発生しなかったことや、イベントの発生頻度に基づいて印象記憶値を
変化させてもよい。
When the owner scolds the robot 100 in the room (R02: study) (offensive behavior), the impression memory value of the robot 100 for the room (R02: study) decreases. For example, when the robot 100 is in the room (R02: study), the state management unit 244 stores an impression of the room (R02: study) when no owner has been detected for a certain period of time, for example, 10 minutes or longer. value may be decreased. In this way, the impression memory value may be changed based not only on the event that occurred in the room, but also on the fact that no event occurred in the room and the frequency of occurrence of the event.

本変形例におけるロボット100は、部屋(R01)が「居間」であると
認識しているわけではない。ロボット100の認識部212は、部屋のタイ
プを部屋に含まれる複数のオブジェクト・カテゴリにより識別し、部屋ごと
にルームIDを付与する。
The robot 100 in this modified example does not recognize that the room (R01) is the "living room". The recognition unit 212 of the robot 100 identifies the room type by a plurality of object categories included in the room, and assigns a room ID to each room.

図16によれば、部屋(R01:居間)においては、テレビ(C01)、
テーブル(C03)、ソファ(C04)が検出されている。ロボット100
は、これらのオブジェクト・カテゴリ群を含む空間として、部屋(R01:
居間)を識別する。部屋(R01:居間)に対する印象記憶値が高いことは、いいかえれば、テレビ(C01)、テーブル(C03)、ソファ(C04)を含むという条件を満たす部屋に対してロボット100が肯定的な印象を
持っていることを意味する。ロボット100は、部屋で得られる環境情報、
特に、部屋の中で体験するイベントに応じて、部屋の印象記憶値を変化させ
る。ロボット100は、印象記憶値の対象となる部屋を部屋に含まれる複数
のオブジェクト・カテゴリにより識別する。
According to FIG. 16, in the room (R01: living room), the television (C01),
Table (C03) and sofa (C04) are detected. robot 100
is a room (R01:
living room). A high impression memory value for the room (R01: living room) means that the robot 100 has a positive impression for the room that satisfies the condition of including the television (C01), the table (C03), and the sofa (C04). means to have The robot 100 uses environmental information obtained in the room,
In particular, the impression memory value of the room is changed according to the event experienced in the room. The robot 100 identifies a room for impression memory values by a plurality of object categories included in the room.

図16に示すルーム印象情報450を前提としたとき、ロボット100は
、テレビ(C01)、テーブル(C03)、ソファ(C04)を含む部屋に
対しては好印象を持つ。状態管理部244は、ロボット100が初めて部屋
に入ったとき(以下、ロボット100が存在している部屋のことを「在室部
屋」とよぶ)、在室部屋に含まれる複数種類のオブジェクト・カテゴリに基
づいて、部屋のタイプを特定する。たとえば、在室部屋が既知の部屋(R0
1)に類似しているときには、状態管理部244は部屋(R01)の印象記
憶値に基づいてロボット100の感情パラメータを変化させる。在室部屋は
部屋(R01)と同一であってもよいし、たまたま、テレビ(C01)、テ
ーブル(C03)、ソファ(C04)を含むという点において共通する別の
部屋であってもよい。このような制御方法によれば、テレビやテーブルなど
のある部屋(R01:居間)に肯定的印象を抱いているロボット100は、
未知の家庭を初訪問したときでも、部屋(R01:居間)に類似する部屋を
見つけたときに「嬉しくなる」ことができる。したがって、既知の部屋に対
する印象に基づいて、未知の部屋に入ったときのロボット100の感情を変
化させることができる。既知の部屋に似た部屋に在室しているときには、状
態管理部244は寂しさを示す感情パラメータ値を低下させてもよい。また
、既知の部屋のいずれにも似ていない部屋に在室しているときには、状態管
理部244は寂しさを示す感情パラメータを上昇させ、好奇心を示す感情パ
ラメータも上昇させてもよい。
Assuming the room impression information 450 shown in FIG. 16, the robot 100 has a favorable impression of a room containing a television (C01), a table (C03), and a sofa (C04). When the robot 100 enters the room for the first time (hereinbelow, the room in which the robot 100 is present is referred to as the "occupied room"), the state management unit 244 identifies a plurality of types of object categories included in the existing room. Identify the room type based on For example, a room with a known occupancy (R0
When similar to 1), the state management unit 244 changes the emotion parameter of the robot 100 based on the impression memory value of the room (R01). The occupied room may be the same as the room (R01), or it may be another room that happens to have something in common in that it includes a television (C01), a table (C03) and a sofa (C04). According to such a control method, the robot 100 having a positive impression of a room (R01: living room) with a television, a table, etc.
Even when visiting an unknown home for the first time, it is possible to "be happy" when finding a room similar to the room (R01: living room). Therefore, the emotion of the robot 100 when entering an unknown room can be changed based on the impression of the known room. When in a room similar to a known room, state manager 244 may lower the emotion parameter value indicative of loneliness. Also, when in a room that does not resemble any of the known rooms, the state manager 244 may increase the emotional parameter indicating loneliness and may also increase the emotional parameter indicating curiosity.

たとえば、ロボット100の状態管理部244は、印象記憶値の高い既知
の部屋に似た部屋、または、同一の部屋に入ったとき、「寂しさ」を示す感
情パラメータを低下させてもよい。印象記憶値が高いほど「寂しさ」を示す
感情パラメータを大きく低下させてもよい。
For example, the state management unit 244 of the robot 100 may reduce the emotion parameter indicating "lonely" when entering a room similar to or identical to a known room with a high impression memory value. The higher the impression memory value, the greater the decrease in the emotion parameter indicating "lonely".

また、たとえば、印象記憶として、動作量の指数が定義されており、部屋(R01:居間)の動作量の指数が、部屋(R02:書斎)の動作量の指数
より大きい場合、つまり、書斎の動作量の指数が居間の動作量の指数より小
さい場合、ロボット100は、書斎に該当する部屋に居るときの動作量を居
間に該当する部屋に居るときより抑制できる。
Also, for example, an index of activity is defined as impression memory. When the index of the amount of movement is smaller than the index of the amount of movement in the living room, the robot 100 can reduce the amount of movement in the room corresponding to the study more than in the room corresponding to the living room.

まとめると、ロボット100は、各部屋においてさまざまな外部環境の影
響を受けながら、感情パラメータや動作量などを複雑に変化させる。このよ
うな行動実績が各種の指数として記録される。また、これらの行動実績に基
づいて「活発に動ける」「快行為をうけやすい」といった印象記憶が形成さ
れる。そして、ロボット100は、在室部屋が既知の部屋に似ているときに
は、既知の部屋の印象記憶に基づいてその行動特性を変化させる。経験に基
づく行動実績が実際の行動特性に影響を与えることにより「経験に基づく行
動特性」が実現される。
In summary, the robot 100 intricately changes its emotional parameters, movement amount, etc. while being affected by various external environments in each room. Such action results are recorded as various indices. In addition, based on these behavioral records, impression memories such as "able to move actively" and "easy to receive pleasant behavior" are formed. Then, when the room in which the robot 100 is present resembles a known room, the robot 100 changes its behavioral characteristics based on the impression memory of the known room. The "experience-based behavioral characteristics" are realized by the influence of the actual behavioral characteristics based on the experience-based behavioral performance.

上述したように、部屋は、複数のオブジェクト・カテゴリの組み合わせに
より識別される。状態管理部244は、在室部屋で検出されるすべての固有
オブジェクトに基づいて部屋を識別する必要はない。
As described above, rooms are identified by a combination of multiple object categories. State manager 244 need not identify rooms based on all unique objects detected in the occupied room.

オブジェクト管理部174は、環境情報に基づいて、固有オブジェクトご
とに印象記憶値を設定してもよい。具体的には、オブジェクト管理部174
は、固有オブジェクトが検出されたときの環境情報がイベント条件(上述)
を満たすとき、イベントに応じて固有オブジェクトの印象記憶値を変化させ
る。たとえば、テレビ(B01)のそばで快行為が検出されたとき、オブジ
ェクト管理部174はテレビ(B01)に対する印象記憶値を上昇させても
よい。いいかえれば、所定のイベントが発生したとき、オブジェクト管理部
174は、ロボット100から所定の範囲内にある固有オブジェクトを特定
し、その固有オブジェクトに対する印象記憶値を変化させる。オブジェクト
が所定の範囲内にあるか否かの判断は、各オブジェクトの距離を測定することで判断されてもよいし、撮像画像に含まれるオブジェクトの大きさに基づ
いて推定されてもよい。
The object management unit 174 may set an impression storage value for each unique object based on environment information. Specifically, the object management unit 174
is the event condition (described above) when the environment information when the unique object is detected
is satisfied, change the impression storage value of the eigenobject in response to the event. For example, when pleasant behavior is detected near the television (B01), the object management unit 174 may increase the impression storage value for the television (B01). In other words, when a predetermined event occurs, the object manager
174 identifies a unique object within a predetermined range of the robot 100 and changes the impression memory value for that unique object. Whether or not an object is within a predetermined range may be determined by measuring the distance of each object, or may be estimated based on the size of the object included in the captured image.

また、オブジェクト管理部174は、ロボット100の正面方向に存在す
るとともに、所定の範囲内にある固有オブジェクトを特定し、その固有オブ
ジェクトに対する印象記憶値を変化させてもよい。また、オブジェクト管理
部174は、固有オブジェクト(B01)ではなく、オブジェクト・カテゴ
リ(C01)に対して印象記憶値を設定してもよい。たとえば、テレビの周
りには人が存在するので、抱っこされるなどのイベントが発生する頻度が高
い。「テレビ」というカテゴリに対して印象記憶値を設定することで、初め
ての場所であっても、記憶に基づき、テレビの近くに移動するという行動を
選択できる。
The object management unit 174 may also identify a unique object that exists in the front direction of the robot 100 and is within a predetermined range, and change the impression storage value for that unique object. Also, the object management unit 174 may set the impression storage value for the object category (C01) instead of the unique object (B01). For example, since there are people around the television, events such as being hugged frequently occur. By setting an impression memory value for the category "television", it is possible to select an action of moving closer to the television based on memory even if it is the first place.

オブジェクト管理部174は、在室部屋で検出される複数の固有オブジェ
クトのうち、一部の固有オブジェクトに基づいて在室部屋を識別してもよい
。たとえば、オブジェクト管理部174は、印象記憶値が特に高いものと特
に低いもの、たとえば上位3以内の固有オブジェクトと下位3位以内の6個
の固有オブジェクトを特定してもよい。そして、これら6個の固有オブジェ
クトそれぞれのオブジェクト・カテゴリを特定し、特定されたオブジェクト
・カテゴリの組み合わせとして在室部屋を識別してもよい。
The object management unit 174 may identify the room in which the room is present based on some of the unique objects detected in the room in which the room is present. For example, the object management unit 174 may identify those with particularly high and particularly low impression storage values, such as the top three unique objects and the bottom three unique objects. Then, the object category of each of these six unique objects may be specified, and the occupied room may be identified as a combination of the specified object categories.

状態管理部244は、在室部屋で検出されたオブジェクト・カテゴリ群と
、ルーム印象情報450において登録されている複数の部屋それぞれに対応
づけられるオブジェクト・カテゴリ群を比較する。状態管理部244は、オ
ブジェクト・カテゴリの一致数に応じて類似度を判定してもよい。たとえば
、部屋(R01:居間)に含まれる3つのオブジェクト・カテゴリのうち2
つが在室部屋でも検出されたとき、状態管理部244は在室部屋と部屋(R
01:居間)の類似度を66(%)(=2÷3)と判定してもよい。これは
在室部屋が既知の部屋(R01:居間)と同一である可能性が高いことを意
味する。状態管理部244は、在室部屋で検出されたオブジェクト・カテゴ
リとルーム印象情報450を比較し、類似度が最も高く、かつ、類似度が70(%)以上となる部屋を在室部屋と同じタイプの部屋であると判定してもよい。
The state management unit 244 compares the object category group detected in the room in which the person is present and the object category group associated with each of the plurality of rooms registered in the room impression information 450 . The state management unit 244 may determine the degree of similarity according to the number of matching object categories. For example, 2 of the 3 object categories contained in Room (R01: Living Room)
When one is also detected in the room in which the room is present, the state management unit 244 determines whether the room in which the room is present and the room (R
01: living room) may be determined to be 66(%) (=2÷3). This means that the existing room is likely to be the same as the known room (R01: living room). The state management unit 244 compares the object category detected in the room in which the room is present and the room impression information 450, and determines the room with the highest similarity and a similarity of 70(%) or more as the room in which the room is present. You may determine that it is a room of a type.

図17は、変形例において、オブジェクトを検出したときの処理過程を示
すフローチャートである。
図17に示す処理は、ロボットシステム300において定期的に実行され
る。環境情報取得部166は、まず、在室部屋の環境情報を取得する(S6
0)。状態管理部244は、環境情報に基づいて感情パラメータを変化させ
る(S62)。これは、図11に関連して説明した「環境情報による一次反
映」と同様である。オブジェクト検出部は、固有オブジェクトを検出する(
S64)。このとき、オブジェクト検出部は、固有オブジェクトのオブジェ
クト・カテゴリを特定する。
FIG. 17 is a flow chart showing the process of detecting an object in the modified example.
The processing shown in FIG. 17 is periodically executed in the robot system 300. As shown in FIG. The environment information acquisition unit 166 first acquires the environment information of the room in which the room is present (S6
0). The state management unit 244 changes the emotion parameter based on the environmental information (S62). This is the same as the “primary reflection by environment information” described with reference to FIG. The object detector detects unique objects (
S64). At this time, the object detector identifies the object category of the unique object.

検出した複数のオブジェクト・カテゴリとルーム印象情報450を比較す
ることにより、状態管理部244は在室部屋のタイプを特定する(S66)
。上述したように、状態管理部244は在室部屋から検出されたオブジェク
ト・カテゴリ群と、ルーム印象情報450に登録されている部屋ごとのオブ
ジェクト・カテゴリ群の類似度が所定値以上となる部屋を「既知の部屋に似
ている部屋(以下、単に「既知の部屋」とよぶ)」として特定する。
By comparing the plurality of detected object categories and the room impression information 450, the state management unit 244 identifies the type of room in which the person is present (S66).
. As described above, the state management unit 244 selects a room in which the similarity between the object category group detected from the room in which the room is present and the object category group for each room registered in the room impression information 450 is equal to or greater than a predetermined value. It is specified as "a room similar to a known room (hereinafter simply referred to as a "known room")".

在室部屋が「既知の部屋」であるとき、状態管理部244は既知の部屋に
あらかじめ対応づけられる印象記憶値に基づいて感情パラメータを変化させ
る(S68)。たとえば、部屋(R01:居間)に対して印象記憶値「+1
0」が対応づけられている場合において、在室部屋が居間に似ているときに
は、状態管理部244は寂しさを示す感情パラメータ値と好奇心を示す感情
パラメータ値を減少させてもよい。このように、既知の部屋、より厳密にい
えば、既知の部屋に含まれるオブジェクト・カテゴリ群にあらかじめ対応づ
けられている印象記憶値に基づいて、ロボット100の気持ち(感情パラメ
ータ)を変化させることができる。これは、図11に関連して説明した「環
境情報による二次反映」と同様である。
When the room in which the user is present is the "known room", the state management unit 244 changes the emotion parameter based on the impression memory value pre-associated with the known room (S68). For example, for the room (R01: living room), the impression memory value "+1
0”, the state management unit 244 may decrease the emotion parameter value indicating loneliness and the emotion parameter value indicating curiosity when the existing room resembles a living room. In this way, the feeling (emotional parameter) of the robot 100 is changed based on impression memory values pre-associated with a known room, more strictly speaking, with a group of object categories included in the known room. can be done. This is the same as the "secondary reflection by environment information" described in connection with FIG.

一方、未知の部屋のときには(S66のN)、二次反映は実行されない。
その後、S62において取得された環境情報により、状態管理部244はル
ーム印象情報450を更新する(S70)。
On the other hand, when it is an unknown room (N of S66), secondary reflection is not performed.
After that, the state management unit 244 updates the room impression information 450 with the environment information acquired in S62 (S70).

ロボット100は、在室部屋に似た既知の部屋の印象記憶値に基づいて感
情パラメータを変化させ、感情パラメータの変化に基づいて行動特性を変化
させる。ロボット100は、このほかにも、印象記憶値に基づいて感情パラ
メータを介することなく行動特性を変化させてもよい。たとえば、印象記憶
値が低い部屋においては、ロボット100の動作制御部150は、ロボット
100の移動速度、移動量(単位時間内における走行可能距離)、運動量(
各種アクチュエータの可動量または可動範囲)を抑制してもよい。また、印
象記憶値が低い部屋においては、動作制御部150はロボット100が発生
させる音量の上限値を抑制してもよい。このような制御方法によれば、印象
記憶値の低い部屋においてロボット100はおとなしくなり、印象記憶値の
高い部屋においてロボット100は活発に行動する。部屋に対する印象記憶
に基づいて、ロボット100の気持ちを行動表現できる。部屋ごとにあらか
じめ印象記憶値を初期設定しておいてもよい。
The robot 100 changes its emotional parameters based on the impression memory values of a known room similar to the room in which it is present, and changes its behavioral characteristics based on changes in the emotional parameters. In addition to this, the robot 100 may change its behavioral characteristics based on the impression memory value without using the emotion parameter. For example, in a room with a low impression memory value, the motion control unit 150 of the robot 100
100 movement speed, movement amount (travelable distance in unit time), momentum (
The movable amount or movable range of various actuators may be suppressed. In addition, in a room with a low impression memory value, the motion control unit 150 may suppress the upper limit of the sound volume generated by the robot 100 . According to such a control method, the robot 100 is quiet in a room with a low impression memory value, and behaves actively in a room with a high impression memory value. The feeling of the robot 100 can be expressed in behavior based on the impression memory for the room. An impression memory value may be initialized in advance for each room.

ロボット100は、初めて部屋に入るとき、その部屋がどのような部屋な
のかルーム印象情報450を参照して判断する。そして、過去の経験に基づ
き、移動速度などの行動態様を決める。その後、オブジェクト環境情報44
0を参照することで、過去の経験に基づいて、部屋におけるオブジェクトを
探索し、目標地点として設定する。
When the robot 100 enters a room for the first time, it refers to the room impression information 450 to determine what kind of room it is. Then, based on the past experience, the action mode such as movement speed is determined. After that, the object environment information 44
By referring to 0, based on past experience, search for objects in the room and set them as target points.

また、初めての家に居るとき、あるいは、寂しいときには、「楽しそうな部屋(好印象の部屋)」を探す。具体的には、動作制御部222は、印象記
憶値の高い部屋を移動目標地点として設定する。
Also, when you are in a house for the first time, or when you are lonely, you search for a "room that seems to be fun (a room with a favorable impression)." Specifically, operation control unit 222 sets a room with a high impression memory value as a movement target point.

動作制御部222は印象記憶値の高いオブジェクト・カテゴリを含む部屋
を探す。たとえば、ロボット100は、テレビとテーブル、ソファを含む部
屋に対して好印象をもっているとする。この場合には、ロボット100は、
テレビとテーブル、ソファを含む部屋を「楽しそうな部屋」と想定し、その
ような条件に合う部屋を探す。
The motion controller 222 searches for rooms containing object categories with high impression storage values. For example, assume that the robot 100 has a favorable impression of a room containing a television, a table, and a sofa. In this case, robot 100
Assuming that a room containing a TV, table, and sofa is a "pleasant room," search for a room that meets these conditions.

ロボット100の動作制御部222は、ルーム印象情報450を参照し、
印象記憶値の高い部屋のルームIDを特定する。次に、動作制御部222は
、特定された部屋に含まれる複数のオブジェクト・カテゴリを特定する。動
作制御部222は、この「楽しそうな部屋」に含まれている複数種類のオブ
ジェクト・カテゴリのうち、所定個数以上のオブジェクト・カテゴリを含む
部屋を移動目標地点として選択する。
The motion control unit 222 of the robot 100 refers to the room impression information 450,
Identify the room ID of a room with a high impression memory value. Next, the motion control unit 222 identifies multiple object categories contained in the identified room. The motion control unit 222 selects a room containing a predetermined number or more of object categories from among the plurality of types of object categories included in the “pleasant room” as the movement target point.

ロボット100は、経験に基づいて、移動目標地点となる部屋を選ぶこと
ができる。たとえば、オーナーAがロボット100AをユーザBの家に連れ
て行くとする。ロボット100AにとってユーザBの家は未知である。ロボ
ット100Aは、まず、オーナーAの家で形成されたルーム印象情報450
に基づいて、印象記憶値の高い部屋に含まれるオブジェクト・カテゴリを特
定する。そして、ロボット100は、特定されたオブジェクト・カテゴリ群
を含む部屋をユーザBの家でも探す。たとえば、部屋(R01:居間)に似
た部屋RBをユーザBの家でも見つけたときには、ロボット100は部屋R
Bに入り、部屋(R01:居間)の印象記憶値に基づいて感情パラメータお
よび行動特性を変化させる。このような制御方法によれば、自宅での経験に
基づいて、初訪問の家でも自宅と同様のふるまいをロボット100にさせる
ことができる。
The robot 100 can select a room as a movement target point based on experience. For example, owner A takes robot 100A to user B's house. User B's house is unknown to robot 100A. First, the robot 100A receives the room impression information 450 formed in the owner A's house.
to identify object categories contained in rooms with high impression memory values. Then, the robot 100 searches for rooms containing the specified object category group in user B's house as well. For example, when the robot 100 finds a room RB similar to the room (R01: living room) in user B's house, the robot 100
Enter B and change the emotional parameters and behavioral characteristics based on the impression memory value of the room (R01: living room). According to such a control method, it is possible to cause the robot 100 to behave in a manner similar to that at home, even at a home visited for the first time, based on the experience at home.

ロボット100の動作制御部222は、更に、在室部屋の中で近づくべき
固有オブジェクトを選択する。動作制御部222は、固有オブジェクトに対
応づけられる環境情報に基づいて、本実施形態と同様の方式により、近づく
べき固有オブジェクトを選択する。たとえば、ロボット100は寂しさを示
す感情パラメータ値が高まっているときには、ユーザの検出率が高い固有オ
ブジェクトに近づいてもよい。状態管理部244は、固有オブジェクトの環
境情報に基づいて、感情パラメータを変化させてもよい。たとえば、抱っこ
されるというイベントが発生しやすいソファの近くにいるときには、ロボッ
ト100は実際に抱っこされなくても寂しさを示す感情パラメータを低下さ
せてもよい。キーフレーム404に対応づけられる環境情報に基づいてロボット100の感情パラメータや行動特性を変化させるほかにも、オブジェクト(固有オブジェクトまたはオブジェクト・カテゴリ)に対応づけられる環境情報に基づいてロボット100の感情パラメータや行動特性を変化させてもよい。オブジェクト・カテゴリにはあらかじめ印象記憶値が設定されてもよい。100は、固有オブジェクトを検出したとき、そのオブジェクト・カテゴリに対応づけられる印象記憶値に基づいて行動特性を変化させてもよい。
The motion control unit 222 of the robot 100 further selects a unique object to approach in the existing room. The motion control unit 222 selects a unique object to approach based on the environment information associated with the unique object, using the same method as in the present embodiment. For example, the robot 100 may approach a unique object with a high user detection rate when the emotion parameter value indicating loneliness is high. The state management unit 244 may change the emotion parameter based on the environment information of the unique object. For example, when the robot 100 is near a sofa where the event of being held is likely to occur, the robot 100 may lower the emotional parameter indicating loneliness without actually being held. In addition to changing the emotional parameters and behavioral characteristics of the robot 100 based on the environmental information associated with the keyframe 404, the emotional parameters of the robot 100 can also be changed based on the environmental information associated with objects (unique objects or object categories). and behavioral characteristics may be changed. An impression memory value may be set in advance for the object category. When 100 detects a unique object, 100 may change the behavioral characteristic based on the impression memory value associated with that object category.

好印象の部屋には、テレビ、テーブル、ソファが含まれているとする。動作制御部222は部屋に入ったあとはテレビにロボット100を近づかせる
とする。このような制御方法によれば、ロボット100は印象記憶に基づい
て「楽しそうな部屋」を見つけ出し、部屋に入ったあとは印象のいいオブジ
ェクト(テレビ)に近づくことになる。この結果、居間が好き、あるいは、
テレビが好きといった、空間やオブジェクトに対するロボット100の好み
を行動表現できる。
A room with a favorable impression includes a television, a table, and a sofa. After entering the room, the motion control unit 222 causes the robot 100 to approach the television. According to such a control method, the robot 100 finds a "pleasant room" based on impression memory, and after entering the room approaches an object (television) that gives a good impression. As a result, I like the living room, or
The robot 100's preference for space and objects, such as his liking for television, can be expressed in behavior.

同様にして、ロボット100は印象記憶値の低い部屋を避けてもよい。た
とえば、ロボット100が浴室に入ったときにオーナーから追い払われるな
どの不快行為を検出したとき、ロボット100は浴室にあるオブジェクト、
たとえば、タオルや洗面台、洗濯機等の組み合わせに対する印象記憶値を低
くする。この結果として、浴室が苦手、あるいは、洗濯機が苦手といった、
行動特性を表現できる。
Similarly, the robot 100 may avoid rooms with low impression memory values. For example, when the robot 100 detects an unpleasant behavior such as being chased away by the owner when entering the bathroom, the robot 100 detects an object in the bathroom,
For example, the impression memory value for a combination of towels, a washstand, a washing machine, etc. is lowered. As a result, they are not good at bathrooms, or they are not good at washing machines.
It can express behavioral characteristics.

印象記憶は、快/不快に限られない。たとえば、賑やか/静か、暑い/寒
い、といった他の評価軸に基づいて印象記憶値を設定してもよい。部屋(R
01:居間)に「賑やか」という印象記憶が結び付けられている場合におい
て、「寂しさ」を示す感情パラメータが高まったときには、ロボット100
は部屋(R01:居間)を移動目標地点として設定してもよい。部屋(R0
1:居間)では人が集まりやすいため、このような制御方法により寂しくな
ったときには部屋(R01:居間)に近づいて人を探すかのような行動特性
を表現できる。固有オブジェクトは、固定物である必要はなく、タオルのように持ち運び可能なものであってもよいし、ペットや他のロボット100のように自律的に移動可能なものであってもよい。
Impression memory is not limited to pleasant/unpleasant. For example, the impression memory value may be set based on other evaluation axes such as lively/quiet and hot/cold. room (R
01: Living room) is associated with the impression memory of "bustling", and when the emotional parameter indicating "lonely" increases, the robot 100
may set the room (R01: living room) as the movement target point. room (R0
1: living room), people tend to gather together, so this control method can express the behavioral characteristics of approaching the room (R01: living room) and looking for people when feeling lonely. A unique object need not be a fixed object, and may be a portable object such as a towel, or an autonomously movable object such as a pet or other robot 100 .

図18は、別の変形例における行動経験情報460のデータ構造図である

オブジェクト情報格納部172は、行動経験情報460を格納してもよい。行動経験情報460は、カテゴリIDと、モーションIDおよび印象記憶を対応づける。たとえば、ロボット100がオブジェクト(B01:テレビ)から所定範囲内において、モーションID=M01のモーションを選択したとき、オーナーから褒められたとする。褒められることは快行為なので、オブジェクト管理部174はオブジェクト・カテゴリ(C01:テレビ)およびモーション(M01)の組み合わせに対する印象記憶値を増加させるこ
とにより行動経験情報460を更新する。一方、オブジェクト(B01:テ
レビ)の近くでモーション(M03)を選択したとき、オーナーから叱られ
たとする。叱られることは不快行為なので、オブジェクト管理部174はオ
ブジェクト・カテゴリ(C01:テレビ)およびモーション(M03)の組
み合わせに対する印象記憶値を減少させる。
FIG. 18 is a data structure diagram of action experience information 460 in another modification.
The object information storage unit 172 may store action experience information 460. FIG. Action experience information 460 associates category IDs with motion IDs and impression memories. For example, when the robot 100 selects a motion with motion ID=M01 within a predetermined range from an object (B01: television), it is assumed that the owner praises it. Since being praised is a pleasant act, the object management unit 174 updates the action experience information 460 by increasing the impression storage value for the combination of object category (C01: television) and motion (M01). On the other hand, suppose that the owner scolded him when he selected motion (M03) near the object (B01: TV). Since being scolded is an offensive act, the object manager 174 decreases the impression storage value for the combination of object category (C01: television) and motion (M03).

動作制御部222は、行動経験情報460を参照し、テレビの近くではモ
ーション(M01)の選択確率を上昇させ、モーション(M03)の選択確
率を減少させる。このような制御方法によれば、ユーザは褒める、叱るとい
った行為により、ロボット100の行動特性を変化させることができる。た
とえば、食器棚の近くで座り込んでいるロボット100を叱ることにより、
ロボット100が食器棚の近くで座り込むのをやめさせることができる。こ
の結果として、ユーザはロボット100に「しつけ」をすることが可能とな
る。
The action control unit 222 refers to the action experience information 460, increases the selection probability of the motion (M01) near the television, and decreases the selection probability of the motion (M03). According to such a control method, the behavior characteristics of the robot 100 can be changed by the user's actions such as praising or scolding. For example, by scolding Robot 100 sitting near the cupboard,
Robot 100 can be discouraged from sitting near the cupboard. As a result, the user can "discipline" the robot 100. FIG.

オブジェクトの状態も考慮して印象記憶を変化させてもよい。たとえば、掃除機がオフのときには掃除機に近づいてもなにもされないが、掃除機がオ
ンのときに掃除機に近づいたときにはオーナーから追い払われたとする。オ
ーナーから追い払われることは不快行為なので、ロボット100は「掃除機がオンのときには掃除機に近づいてはいけない」という行動規範を学習する。掃除機のオン・オフは、掃除機が発生する音の有無によって判断してもよい。オブジェクトの状態のほか、時間帯を考慮して印象記憶を変化させてもよい。たとえば、夕食準備中にロボット100が台所に入り込んできたとき、オーナーはロボット100を追い払うかもしれない(不快行為)。この結果として、「夕方には冷蔵庫や食器棚がある台所に近づいてはいけない(台所にいるオーナーの邪魔をしてはいけない)」という行動規範をロボット100に学習させることができる。
The state of the object may also be considered to change the impression memory. For example, if you approach the vacuum cleaner when it's off, it won't do anything, but if you approach it when it's on, you'll be chased away by the owner. Being shunned by an owner is an offensive behavior, so the robot 100 learns a code of conduct: "Do not approach the vacuum cleaner when it is on." Whether the cleaner is on or off may be determined based on the presence or absence of the sound generated by the cleaner. In addition to the state of the object, the impression memory may be changed in consideration of the time zone. For example, when the robot 100 enters the kitchen while dinner is being prepared, the owner may drive away the robot 100 (offensive behavior). As a result, the robot 100 can be made to learn a code of conduct that "do not approach the kitchen where the refrigerator and cupboards are located in the evening (do not disturb the owner in the kitchen)".

部屋(ルームID)とモーションの組み合わせに印象記憶を対応づけても
よい。この場合、たとえば、居間で大きな音を出すことは許されるが、書斎
で大きな音を出してはいけないという行動規範をロボット100に学習させ
ることができる。同様にして、居間では高速で動き回ってもよいが、書斎で
は活動量を抑制しなければいけない、と学ぶこともある。
An impression memory may be associated with a combination of room (room ID) and motion. In this case, for example, the robot 100 can learn a code of conduct that loud noises are allowed in the living room but not loud in the study. Similarly, you may learn that you can move around fast in the living room, but you must slow down in the study.

ロボット100は、不快行為を認識したとき、不快行為を行ったオーナー
に対する親密度を低下させる。しかし、親密度が所定値以上のオーナーから
の不快行為を認識したときには、親密度管理部220は親密度を低下させな
い、または、通常時に比べて親密度の減少量を小さくするとしてもよい。こ
のような制御方法によれば、ロボット100との強い信頼関係を築いたオー
ナーは、ロボット100を安心して叱ることができる。
When the robot 100 recognizes an unpleasant act, the robot 100 lowers the degree of intimacy with the owner who performed the unpleasant act. However, when recognizing an unpleasant act from an owner with a degree of intimacy equal to or greater than a predetermined value, the degree of intimacy management unit 220 may not reduce the degree of intimacy, or may reduce the amount of decrease in the degree of intimacy compared to normal times. According to such a control method, the owner who has built a strong relationship of trust with the robot 100 can scold the robot 100 with peace of mind.

上述したように、オブジェクトと環境情報を対応づけてもよいし、空間(ルームID)と環境情報を対応づけてもよい。状態管理部244は、環境情
報、特に、イベントに基づいて印象記憶を変化させてもよい。オブジェクト
あるいは空間に対する印象記憶は初期設定されてもよい。たとえば、あらか
じめ居間に対して高い印象記憶値を設定しておけば、ロボット100は先天
的に居間を好むという行動特性を表現できる。また、オーナーは、スマート
フォン等の携帯端末を介して、居間に対する印象記憶値をサーバ200に送
信し、オブジェクト管理部174は指定された印象記憶値をルーム印象情報
450に設定してもよい。
As described above, an object may be associated with environment information, or a space (room ID) may be associated with environment information. The state manager 244 may change the impression memory based on environmental information, particularly events. Impression storage for objects or spaces may be initialized. For example, if a high impression memory value is set in advance for the living room, the robot 100 can express the behavioral characteristic that it innately prefers the living room. In addition, the owner transmits the stored impression value for the living room to the server 200 via a mobile terminal such as a smartphone, and the object management unit 174 stores the specified stored impression value as room impression information.
You can set it to 450.

オブジェクト・カテゴリの組み合わせに対して環境情報を対応づけてもよい。部屋の間取りやオブジェクトのレイアウトを想定して部屋を認識しても
よい。たとえば、「テレビが窓際にあり、窓際から少し離れてソファが配置
される部屋」として部屋を識別してもよい。
Environment information may be associated with a combination of object categories. A room may be recognized based on the layout of the room and the layout of objects. For example, a room may be identified as "a room with a TV by the window and a sofa placed a short distance from the window".

複数のロボット100により、環境マップ情報420、オブジェクト情報
430、ルーム印象情報450、行動経験情報460に示す情報を共有して
もよい。このような制御方法によれば、ロボット100Aが居間を好むとき
、ロボット100Bも居間を好むことになり、複数のロボット100の行動
特性を連動させることができる。
Environment map information 420, object information
Information shown in 430, room impression information 450, and behavioral experience information 460 may be shared. According to such a control method, when the robot 100A prefers the living room, the robot 100B also prefers the living room, and the action characteristics of the plurality of robots 100 can be interlocked.

ロボット100Aは、楽しい部屋として、印象記憶値が高い場所だけをロ
ボット100Bと共有してもよい。たとえば、複数の部屋のうち、印象記憶
値が平均よりも高い部屋、あるいは、印象記憶値が上位3位以内の部屋を対
象として、ルーム印象情報450を共有してもよい。あるいは、印象記憶値
が平均よりも低い部屋、あるいは、印象記憶値が下位3位以内の部屋を対象
としてルーム印象情報450を共有してもよい。
Robot 100A may share with robot 100B only places with high impression memory values as fun rooms. For example, among a plurality of rooms, the room impression information 450 may be shared for rooms with higher than average impression memory values or rooms with impression memory values within the top three. Alternatively, room impression information 450 may be shared for rooms with impression memory values lower than the average, or rooms with impression memory values within the bottom three ranks.

ロボット100Aとロボット100Bはすべての部屋を対象としてルーム
印象情報450を共有する必要はなく、一部の部屋のみを対象としてルーム
印象情報450を共有してもよい。このような制御方法によれば、たとえば
、ロボット100Aは、一部の部屋についてはロボット100Bに情報を伝
えなくなるため、ロボット100Aだけが気に入っている秘密の部屋を作る
ことができる。
The robot 100A and the robot 100B do not need to share the room impression information 450 for all rooms, and may share the room impression information 450 only for some rooms. According to such a control method, for example, since robot 100A does not transmit information about some rooms to robot 100B, it is possible to create a secret room that only robot 100A likes.

ロボット100AがオーナーAにはじめて抱っこされた部屋、オーナーA
が長時間抱っこしてくれる部屋など、特別な条件(記憶)がある部屋につい
ては、ロボット100Aはロボット100Bと情報共有しないとしてもよい。
Owner A, the room where Robot 100A was held by Owner A for the first time
Robot 100A may not share information with robot 100B in rooms with special conditions (memories), such as a room where a robot holds the robot for a long time.

印象記憶を可視化してもよい。サーバ200は、オブジェクトの配置とオ
ブジェクトに対する印象記憶を示す画像(印象地図)を生成する印象地図生
成部を備えてもよい。サーバ200の通信部204は、オーナーの携帯端末に印象地図を送信してもよい。たとえば、印象記憶値が高いオブジェクトの周辺は青色で表示し、印象記憶値の低いオブジェクトの周辺は赤色で表示す
ることにより、オーナーはロボット100がどんなオブジェクトあるいはど
んな部屋を気に入っているかを視覚的に知ることができる。
Impression memory may be visualized. The server 200 may include an impression map generation unit that generates an image (impression map) showing the arrangement of objects and the impression memory for the objects. The communication unit 204 of the server 200 may transmit the impression map to the owner's mobile terminal. For example, an object with a high impression memory value is displayed in blue, and an object with a low impression memory value is displayed in red. can know.

印象地図生成部は、オブジェクトまたは部屋に対する印象記憶値の変化を印象地図において表示してもよい。たとえば、最初は嫌いだったオブジェク
トをだんだん好きになる様子を印象地図の動画表示により示してもよい。
The impression map generator may display changes in impression storage values for the object or room in the impression map. For example, an impression map animation may show how an object that was disliked at first is gradually becoming liked.

Claims (3)

記憶部と、
プロセッサと、
前記プロセッサにより選択されたモーションを実行する駆動機構と、を備え、
前記プロセッサは、
オブジェクトに対する印象記憶を認識し、
当該印象記憶に基づいて当該オブジェクトに対するモーションを決定するロボット。
a storage unit;
a processor;
a drive mechanism for performing motions selected by the processor;
The processor
Recognizing impression memory for objects,
A robot that determines a motion for the object based on the impression memory.
請求項1記載のロボットにおいて、
前記プロセッサは、
第1のオブジェクトが検出されたとき、前記第1のオブジェクトに対する第1の印象記憶を前記記憶部に記憶させ、
第2のオブジェクトが検出されたとき、前記第2のオブジェクトと前記第1のオブジェクトとの類似度及び前記第1の印象記憶に基づいて、前記第2のオブジェクトの印象記憶である第2の印象記憶を認識し、
前記前記第2の印象記憶に基づいて前記第2のオブジェクトに対するモーションを決定するように構成されているロボット。
The robot according to claim 1,
The processor
When a first object is detected, storing a first impression memory for the first object in the storage unit;
when a second object is detected, a second impression that is an impression memory of the second object based on the similarity between the second object and the first object and the first impression memory; recognize memories,
A robot configured to determine a motion for said second object based on said second impression memory.
請求項1記載のロボットにおいて、
前記プロセッサは、
空間を示すマップを表示するとともに、空間に存在するオブジェクトを当該マップに表示し、
各オブジェクトの表示に関わる形式を、当該オブジェクトに対する印象記憶に基づいて決定するロボット。
The robot according to claim 1,
The processor
Display a map showing the space and display objects existing in the space on the map,
A robot that determines the format associated with the display of each object based on the impression memory for the object.
JP2023076948A 2018-01-31 2023-05-08 Autonomous behavior robot that behaves based on experience Pending JP2023104003A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018014365 2018-01-31
JP2018014365 2018-01-31
JP2019569543A JP7281198B2 (en) 2018-01-31 2019-01-31 Autonomous behavioral robot that acts based on experience

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019569543A Division JP7281198B2 (en) 2018-01-31 2019-01-31 Autonomous behavioral robot that acts based on experience

Publications (1)

Publication Number Publication Date
JP2023104003A true JP2023104003A (en) 2023-07-27

Family

ID=67478872

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019569543A Active JP7281198B2 (en) 2018-01-31 2019-01-31 Autonomous behavioral robot that acts based on experience
JP2023076948A Pending JP2023104003A (en) 2018-01-31 2023-05-08 Autonomous behavior robot that behaves based on experience

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019569543A Active JP7281198B2 (en) 2018-01-31 2019-01-31 Autonomous behavioral robot that acts based on experience

Country Status (2)

Country Link
JP (2) JP7281198B2 (en)
WO (1) WO2019151387A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021053949A1 (en) * 2019-09-17 2021-03-25 ソニー株式会社 Information processing device, information processing method, and program
CN112230652A (en) * 2020-09-04 2021-01-15 安克创新科技股份有限公司 Walking robot, method of controlling movement of walking robot, and computer storage medium
US11911906B2 (en) 2021-05-21 2024-02-27 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a patrolling robot
CN117245643A (en) * 2022-12-06 2023-12-19 北京小米机器人技术有限公司 Control method and device of terminal equipment, terminal equipment and storage medium

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002370183A (en) 2001-06-15 2002-12-24 Yamaha Motor Co Ltd Monitor and monitoring system
JP2004299033A (en) 2003-04-01 2004-10-28 Sony Corp Robot device, information processing method, and program
JP2005078383A (en) 2003-08-29 2005-03-24 Sony Corp Guiding system and guiding method, robot device and its control method, and charging device
JP4658891B2 (en) 2006-10-02 2011-03-23 本田技研工業株式会社 Robot control device
JP4886572B2 (en) 2007-03-29 2012-02-29 本田技研工業株式会社 robot
WO2009047696A2 (en) 2007-10-08 2009-04-16 Nxp B.V. Method and system for processing compressed video having image slices
JP5060264B2 (en) 2007-12-07 2012-10-31 グローリー株式会社 Human detection device
JP2018008316A (en) 2014-11-21 2018-01-18 ヴイストン株式会社 Learning type robot, learning type robot system, and program for learning type robot
KR20170053351A (en) * 2015-11-06 2017-05-16 삼성전자주식회사 Cleaning robot and controlling method thereof
JP6323439B2 (en) 2015-12-17 2018-05-16 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method and program

Also Published As

Publication number Publication date
WO2019151387A1 (en) 2019-08-08
JPWO2019151387A1 (en) 2021-01-14
JP7281198B2 (en) 2023-05-25

Similar Documents

Publication Publication Date Title
JP7281198B2 (en) Autonomous behavioral robot that acts based on experience
JP7068709B2 (en) Autonomous behavior robot that changes eyes
JP6436548B2 (en) Autonomous robot
JP7231924B2 (en) Autonomous action robot whose activity level is controlled
JP6494062B2 (en) Autonomous robot that recognizes the direction of the sound source
JP6472113B2 (en) Autonomous robots and programs that maintain a natural sense of distance
JP6402320B2 (en) An autonomous behavioral robot
JP6884401B2 (en) Autonomous robot wearing clothes
JP6409209B2 (en) Autonomous robot for coolness
JP6436549B2 (en) Autonomous robot
JP6671577B2 (en) An autonomous robot that identifies people
JP6557840B2 (en) Robot, server and action control program
JPWO2019050034A1 (en) Autonomous behavior robot looking at the other party
JP2020014845A (en) Autonomous action type robot for receiving guest
JP2019214119A (en) Joint structure excellent for robot joint

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230714