JP2024045247A - robot - Google Patents

robot Download PDF

Info

Publication number
JP2024045247A
JP2024045247A JP2024005682A JP2024005682A JP2024045247A JP 2024045247 A JP2024045247 A JP 2024045247A JP 2024005682 A JP2024005682 A JP 2024005682A JP 2024005682 A JP2024005682 A JP 2024005682A JP 2024045247 A JP2024045247 A JP 2024045247A
Authority
JP
Japan
Prior art keywords
robot
motion
user
eye
deformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024005682A
Other languages
Japanese (ja)
Inventor
要 林
俊介 大坪
直人 吉岡
泰士 深谷
崇光 生駒
大二朗 加藤
孝太 根津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of JP2024045247A publication Critical patent/JP2024045247A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

【課題】人間が愛着を抱きやすいロボット、を提供する。【解決手段】ロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体の変形を検知する操作検知部と、眼画像を生成し、ロボットの顔領域に眼画像を表示させる眼生成部とを備える。【選択図】図5[Problem] To provide a robot that humans can easily become attached to. [Solution] The robot is equipped with a motion control unit that selects the motion of the robot, a drive mechanism that executes the selected motion, an operation detection unit that detects the deformation of the robot's main body, and an eye generation unit that generates an eye image and displays the eye image in the robot's face area. [Selected Figure] Figure 5

Description

本発明は、人間が愛着を抱きやすいロボット、に関する。 The present invention relates to a robot that humans can easily become attached to.

人間は、癒やしを求めてペットを飼う。その一方、ペットの世話をする時間を十分に確保できない、ペットを飼える住環境にない、アレルギーがある、死別がつらい、といったさまざまな理由により、ペットをあきらめている人は多い。もし、ペットの役割が務まるロボットがあれば、ペットを飼えない人にもペットが与えてくれるような癒やしを与えられるかもしれない(特許文献1、2参照)。 Humans keep pets to find comfort. However, many people give up on having pets for a variety of reasons, including not having enough time to look after them, not having a living environment that allows them to keep a pet, allergies, and the pain of losing a pet. If there were a robot that could play the role of a pet, it might be able to provide the same comfort that pets provide to people who cannot keep pets (see Patent Documents 1 and 2).

特開2000-323219号公報JP 2000-323219 A 国際公開第2017/169826号International Publication No. 2017/169826

近年、ロボット技術は急速に進歩しつつあるが、ペットのような伴侶としての存在感を実現するには至っていない。ロボットに自由意志があるとは思えないからである。人間は、ペットの自由意志があるとしか思えないような行動を観察することにより、ペットに自由意志の存在を感じ、ペットに共感し、ペットに癒される。 In recent years, robot technology has been advancing rapidly, but we have yet to realize a robot that can act as a companion like a pet. This is because we do not believe that a robot has free will. By observing the behavior of our pets, which we can only assume to be of free will, humans can sense the presence of free will in their pets, empathize with them, and feel comforted by them.

本発明者らは、触り方に応じてロボットの反応が変われば、人間のロボットに対する愛着をもっと高められるのではないかと考えた。本発明者らは鋭意研究の結果、人間が無意識にいじりたくなる箇所にセンサを設けて人間のいじり方を検出しロボットの挙動に反映させることで、上記課題を解決することに想到した。 The inventors thought that if a robot's response changed depending on how it was touched, people's attachment to the robot might be further increased. As a result of intensive research, the inventors came up with the idea of solving the above problem by installing sensors in places where people unconsciously want to touch, detecting how people touch the robot, and reflecting this in the robot's behavior.

本発明は上記課題認識に基づいて完成された発明であり、その主たる目的は、人間が愛着を抱きやすいロボット、を提供することにある。 The present invention was completed based on the recognition of the above problems, and its main objective is to provide a robot that humans can easily become attached to.

本発明のある態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体の変形を検知する操作検知部と、眼画像を生成し、ロボットの顔領域に眼画像を表示させる眼生成部とを備える。
眼生成部は、ロボット本体の変形が検知されたとき、変形態様に応じて眼画像を変化させる。
A robot in one aspect of the present invention includes an operation control unit that selects a motion for the robot, a drive mechanism that executes the selected motion, an operation detection unit that detects deformation of the robot's body, and an eye generation unit that generates an eye image and displays the eye image in the robot's facial area.
When a deformation of the robot body is detected, the eye generation unit changes the eye image in accordance with the deformation state.

本発明の別の態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体に設けられるデバイスの動きを検知する操作検知部とを備える。
動作制御部は、デバイスの動きが検知されたとき、デバイスから所定範囲内を駆動対象とするモーションのうち、デバイスの動きに応じたモーションを選択する。
A robot in another aspect of the present invention includes an operation control unit that selects a motion of the robot, a drive mechanism that executes the selected motion, and an operation detection unit that detects the movement of a device provided on the robot body.
When the motion of the device is detected, the motion control unit selects a motion corresponding to the motion of the device from among motions that are to be driven within a predetermined range from the device.

本発明の別の態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボットの体表面に設置され、ユーザの接触を検出する第1および第2のセンサとを備える。
動作制御部は、第1および第2のセンサの双方または一方においてユーザの接触が検出されたとき、接触態様に応じたモーションを選択する。
第1のセンサの検出精度は、第2のセンサよりも検出精度よりも高精度に設定されており、第1のセンサはロボットの顔領域に設置される。
In another aspect of the present invention, a robot includes an action control unit that selects a motion of the robot, a drive mechanism that executes the selected motion, and first and second sensors installed on the body surface of the robot that detect contact by a user.
The motion control unit, when a user's contact is detected by both or one of the first and second sensors, selects a motion according to the manner of contact.
The detection accuracy of the first sensor is set to be higher than that of the second sensor, and the first sensor is installed in the face area of the robot.

本発明によれば、ロボットに対して人間が愛着を抱きやすくなる。 According to the present invention, it becomes easier for humans to develop attachment to robots.

図1(a)は、ロボットの正面外観図である。図1(b)は、ロボットの側面外観図である。Fig. 1(a) is a front external view of the robot, and Fig. 1(b) is a side external view of the robot. ロボットの構造を概略的に表す断面図である。FIG. 2 is a cross-sectional view schematically showing the structure of the robot. ロボットのハードウェア構成図である。FIG. 2 is a hardware configuration diagram of a robot. ロボットシステムの機能ブロック図である。FIG. 2 is a functional block diagram of the robot system. 図5(a)は、本実施形態におけるロボットの正面外観図である。図5(b)は、本実施形態におけるロボットの側面外観図である。FIG. 5(a) is a front external view of the robot in this embodiment. FIG. 5(b) is a side external view of the robot in this embodiment. 本実施形態におけるロボットのハードウェア構成図である。It is a hardware configuration diagram of a robot in this embodiment. 第1実施形態におけるロボットシステムの機能ブロック図である。FIG. 2 is a functional block diagram of the robot system according to the first embodiment. 眼画像の外観図である。It is an external view of an eye image. 眼画像の拡大図である。It is an enlarged view of an eye image. 眼画像の生成方法を示す模式図である。FIG. 2 is a schematic diagram showing a method for generating an eye image. 図11(a)は、アナログスティックを初期位置から上に動かした場合のロボットの眼の外観図である。図11(b)は、アナログスティックを初期位置から右に動かした場合のロボットの眼の外観図である。図11(c)は、アナログスティックを初期位置から下に動かした場合のロボットの眼の外観図である。図11(d)は、アナログスティックを初期位置から左に動かした場合のロボットの眼の外観図である。FIG. 11(a) is an external view of the robot's eye when the analog stick is moved upward from the initial position. FIG. 11(b) is an external view of the robot's eye when the analog stick is moved to the right from the initial position. FIG. 11(c) is an external view of the robot's eye when the analog stick is moved downward from the initial position. FIG. 11(d) is an external view of the robot's eye when the analog stick is moved to the left from the initial position. 第2実施形態におけるロボットシステムの機能ブロック図である。FIG. 11 is a functional block diagram of a robot system according to a second embodiment. 眼動作とロボットのモーションについて示すフローチャートである。13 is a flowchart showing eye movements and robot motion. 図14(a)は、眼動作テーブルのデータ構造図である。図14(b)は、変形パターン選択テーブルのデータ構造図である。FIG. 14(a) is a data structure diagram of the eye movement table. FIG. 14(b) is a data structure diagram of the modified pattern selection table. モーション選択テーブルのデータ構造図である。FIG. 13 is a data structure diagram of a motion selection table. 定常時のロボットの正面図である。FIG. 2 is a front view of the robot in a stationary state. モーション発動時のロボットの正面図である。FIG. 3 is a front view of the robot when the motion is activated.

以下、本発明の実施形態を、図面を参照して詳細に説明する。なお、以下の説明においては便宜上、図示の状態を基準に各構造の位置関係を表現することがある。また、以下の実施形態およびその変形例について、ほぼ同一の構成要件については同一の符号を付し、その説明を適宜省略する。 Embodiments of the present invention will be described in detail below with reference to the drawings. In the following description, for convenience, the positional relationship of each structure may be expressed based on the illustrated state. In addition, in the following embodiments and their modified examples, substantially identical components are given the same reference numerals, and their description will be omitted as appropriate.

本実施形態のロボットは、ユーザに鼻を触られるとき眼や体を動かすことで鼻のいじりに反応する。以下、本実施形態におけるロボットの実装について説明する前に、ロボットの基本構成について説明する。 When the user touches the robot's nose, the robot in this embodiment responds by moving its eyes and body. Before explaining the implementation of the robot in this embodiment, the basic configuration of the robot will be explained below.

[基本構成]
図1(a)は、ロボット100の正面外観図である。図1(b)は、ロボット100の側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。ロボット100は、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよぶ。
[Basic configuration]
FIG. 1(a) is a front external view of the robot 100. FIG. 1(b) is a side external view of the robot 100.
The robot 100 in this embodiment is an autonomous robot that determines its actions based on the external environment and internal state. The external environment is recognized by various sensors such as cameras and thermosensors. The internal state is quantified as various parameters expressing the emotions of the robot 100. The robot 100 operates within the owner's home. Hereinafter, a person involved in the robot 100 will be referred to as a "user."

ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂、繊維などやわらかく弾力性のある素材により形成された外皮を含む。ロボット100に服を着せてもよい。ロボット100の総重量は5~15キログラム程度、身長は0.5~1.2メートル程度である。適度な重さと丸み、柔らかさ、手触りのよさ、といった諸属性により、ユーザがロボット100を抱きかかえやすく、かつ、抱きかかえたくなるという効果が実現される。 The body 104 of the robot 100 has an overall rounded shape and includes an outer skin made of a soft and elastic material such as urethane, rubber, resin, or fiber. The robot 100 may be dressed. The total weight of the robot 100 is about 5 to 15 kilograms, and the height is about 0.5 to 1.2 meters. The various attributes, such as appropriate weight, roundness, softness, and good feel, make it easy for the user to hold the robot 100 and make him or her want to hold the robot 100.

ロボット100は、一対の前輪102(左輪102a,右輪102b)と、一つの後輪103を含む。前輪102が駆動輪であり、後輪103が従動輪である。前輪102は、操舵機構を有しないが、回転速度や回転方向を個別に制御可能とされている。後輪103は、キャスターであり、ロボット100を前後左右へ移動させるために回転自在となっている。後輪103はオムニホイールであってもよい。 The robot 100 includes a pair of front wheels 102 (left wheel 102a, right wheel 102b) and one rear wheel 103. The front wheel 102 is a driving wheel, and the rear wheel 103 is a driven wheel. Although the front wheels 102 do not have a steering mechanism, their rotational speeds and rotational directions can be individually controlled. The rear wheels 103 are casters, and are rotatable to move the robot 100 back and forth and left and right. The rear wheel 103 may be an omni wheel.

前輪102および後輪103は、駆動機構(回動機構、リンク機構)によりボディ104に完全収納できる。走行時においても各車輪の大部分はボディ104に隠れているが、各車輪がボディ104に完全収納されるとロボット100は移動不可能な状態となる。すなわち、車輪の収納動作にともなってボディ104が降下し、床面Fに着座する。この着座状態においては、ボディ104の底部に形成された平坦状の着座面108(接地底面)が床面Fに当接する。 The front wheels 102 and rear wheels 103 can be completely stored in the body 104 by a drive mechanism (rotating mechanism, link mechanism). Even when moving, most of the wheels are hidden by the body 104, but when the wheels are completely stored in the body 104, the robot 100 becomes unable to move. That is, as the wheels are stored, the body 104 descends and sits on the floor surface F. In this seated state, a flat seating surface 108 (ground contact surface) formed on the bottom of the body 104 abuts against the floor surface F.

ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。 The robot 100 has two hands 106. The hands 106 do not have the function of grasping objects. The hands 106 are capable of simple movements such as lifting, shaking, and vibrating. The two hands 106 can also be controlled individually.

目110は、液晶素子または有機EL素子による画像表示が可能である。ロボット100は、音源方向を特定可能なマイクロフォンアレイや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。 The eyes 110 are capable of displaying images using liquid crystal elements or organic EL elements. The robot 100 is equipped with various sensors, such as a microphone array and ultrasonic sensors, that can identify the direction of a sound source. It also has a built-in speaker and can emit simple sounds.

ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。ツノ112には全天球カメラが取り付けられ、ロボット100の上部全域を一度に撮像可能である。 Horns 112 are attached to the head of the robot 100. As described above, since the robot 100 is lightweight, the user can also lift the robot 100 by grasping the horns 112. A spherical camera is attached to the horn 112 and can image the entire upper part of the robot 100 at once.

図2は、ロボット100の構造を概略的に表す断面図である。
図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
FIG. 2 is a cross-sectional view that shows a schematic structure of the robot 100. As shown in FIG.
As shown in Fig. 2, the body 104 of the robot 100 includes a base frame 308, a main body frame 310, a pair of resin wheel covers 312, and an outer skin 314. The base frame 308 is made of metal, and constitutes the axis of the body 104 and supports the internal mechanism. The base frame 308 is formed by vertically connecting an upper plate 332 and a lower plate 334 with a plurality of side plates 336. Sufficient spaces are provided between the plurality of side plates 336 to allow ventilation. The battery 118, a control circuit 342, and various actuators are housed inside the base frame 308.

本体フレーム310は、樹脂材からなり、頭部フレーム316および胴部フレーム318を含む。頭部フレーム316は、中空半球状をなし、ロボット100の頭部骨格を形成する。胴部フレーム318は、段付筒形状をなし、ロボット100の胴部骨格を形成する。胴部フレーム318は、ベースフレーム308と一体に固定される。頭部フレーム316は、胴部フレーム318の上端部に相対変位可能に組み付けられる。 The main body frame 310 is made of a resin material and includes a head frame 316 and a body frame 318. The head frame 316 has a hollow hemispherical shape and forms the head skeleton of the robot 100. The trunk frame 318 has a stepped cylindrical shape and forms the trunk skeleton of the robot 100. The torso frame 318 is fixed integrally with the base frame 308. The head frame 316 is attached to the upper end of the body frame 318 so as to be relatively displaceable.

頭部フレーム316には、ヨー軸320、ピッチ軸322およびロール軸324の3軸と、各軸を回転駆動するためのアクチュエータ326が設けられる。アクチュエータ326は、各軸を個別に駆動するための複数のサーボモータを含む。首振り動作のためにヨー軸320が駆動され、頷き動作のためにピッチ軸322が駆動され、首を傾げる動作のためにロール軸324が駆動される。 The head frame 316 is provided with three axes, a yaw axis 320, a pitch axis 322, and a roll axis 324, and an actuator 326 for driving the rotation of each axis. The actuator 326 includes a plurality of servo motors for driving each axis individually. The yaw axis 320 is driven for a head shaking motion, the pitch axis 322 is driven for a nodding motion, and the roll axis 324 is driven for a head tilt motion.

頭部フレーム316の上部には、ヨー軸320を支持するプレート325が固定されている。プレート325には、上下間の通気を確保するための複数の通気孔327が形成される。 A plate 325 that supports the yaw axis 320 is fixed to the upper part of the head frame 316. A plurality of ventilation holes 327 are formed in the plate 325 to ensure ventilation between the upper and lower sides.

頭部フレーム316およびその内部機構を下方から支持するように、金属製のベースプレート328が設けられる。ベースプレート328は、クロスリンク機構329(パンタグラフ機構)を介してプレート325と連結される一方、ジョイント330を介してアッパープレート332(ベースフレーム308)と連結される。 A metal base plate 328 is provided to support the head frame 316 and its internal mechanism from below. The base plate 328 is connected to the plate 325 via a cross link mechanism 329 (pantograph mechanism), and is connected to the upper plate 332 (base frame 308) via a joint 330.

胴部フレーム318は、ベースフレーム308と車輪駆動機構370を収容する。車輪駆動機構370は、回動軸378およびアクチュエータ379を含む。胴部フレーム318の下半部は、ホイールカバー312との間に前輪102の収納スペースSを形成するために小幅とされる。 The body frame 318 houses the base frame 308 and the wheel drive mechanism 370. Wheel drive mechanism 370 includes a rotation shaft 378 and an actuator 379. The lower half of the body frame 318 is made narrow in order to form a storage space S for the front wheel 102 between it and the wheel cover 312.

外皮314は、ウレタンゴムからなり、本体フレーム310およびホイールカバー312を外側から覆う。手106は、外皮314と一体成形される。外皮314の上端部には、外気を導入するための開口部390が設けられる。 The outer skin 314 is made of urethane rubber and covers the main body frame 310 and the wheel cover 312 from the outside. Hand 106 is integrally molded with outer skin 314. An opening 390 for introducing outside air is provided at the upper end of the outer skin 314.

図3は、ロボット100のハードウェア構成図である。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチ
ウムイオン二次電池であり、ロボット100の動力源である。
FIG. 3 is a diagram showing the hardware configuration of the robot 100.
The robot 100 includes an internal sensor 128, a communication device 126, a memory device 124, a processor 122, a drive mechanism 120, and a battery 118. The processor 122 and the memory device 124 are included in a control circuit 342. The units are connected to each other by a power line 130 and a signal line 132. The battery 118 supplies power to each unit via the power line 130. Each unit transmits and receives control signals via the signal line 132. The battery 118 is a lithium ion secondary battery, and is the power source of the robot 100.

内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ(全天球カメラ)、マイクロフォンアレイ、測距センサ(赤外線センサ)、サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。タッチセンサは、外皮314と本体フレーム310の間に設置され、ユーザのタッチを検出する。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。 The internal sensor 128 is a collection of various sensors built into the robot 100. Specifically, it includes a camera (spherical camera), a microphone array, a distance sensor (infrared sensor), a thermosensor, a touch sensor, an acceleration sensor, and an odor sensor. The touch sensor is installed between the outer skin 314 and the main body frame 310, and detects the user's touch. The odor sensor is a known sensor that applies the principle that electrical resistance changes due to the adsorption of odor-causing molecules.

通信機126は、各種の外部機器を対象として無線通信を行う通信モジュールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、複数のアクチュエータおよび上述した車輪駆動機構370を含む。このほかには、表示器やスピーカーなども搭載される。 The communication device 126 is a communication module that performs wireless communication with various external devices. The storage device 124 is composed of a nonvolatile memory and a volatile memory, and stores computer programs and various setting information. The processor 122 is a computer program execution means. Drive mechanism 120 includes a plurality of actuators and the wheel drive mechanism 370 described above. In addition, a display and speaker are also installed.

駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム316)を制御する。駆動機構120は、ロボット100の移動方向や移動速度を変化させるほか、車輪(前輪102および後輪103)を昇降させることもできる。車輪が上昇すると、車輪はボディ104に完全に収納され、ロボット100は着座面108にて床面Fに当接し、着座状態となる。また、駆動機構120は、ワイヤ134を介して、手106を制御する。 The driving mechanism 120 mainly controls the wheels (front wheels 102) and the head (head frame 316). In addition to changing the direction and speed of movement of the robot 100, the driving mechanism 120 can also raise and lower the wheels (front wheels 102 and rear wheels 103). When the wheels are raised, they are completely stored in the body 104, and the robot 100 comes into contact with the floor surface F at the seating surface 108, and enters a seated state. The driving mechanism 120 also controls the hands 106 via wires 134.

図4は、ロボットシステム300の機能ブロック図である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
FIG. 4 is a functional block diagram of the robot system 300.
The robot system 300 includes a robot 100, a server 200, and a plurality of external sensors 114. Each component of the robot 100 and the server 200 is realized by hardware including computing units such as a CPU (Central Processing Unit) and various coprocessors, storage devices such as memory and storage, and wired or wireless communication lines connecting them, and software stored in the storage devices and supplying processing instructions to the computing units. The computer program may be configured by a device driver, an operating system, various application programs located at higher layers thereof, and a library that provides common functions to these programs. Each block described below shows a functional block, not a hardware-based configuration.
A part of the functions of the robot 100 may be realized by the server 200, and a part or all of the functions of the server 200 may be realized by the robot 100.

家屋内にはあらかじめ複数の外部センサ114が設置される。サーバ200には、外部センサ114の位置座標が登録される。ロボット100の内部センサ128および複数の外部センサ114から得られる情報に基づいて、サーバ200がロボット100の基本行動を決定する。外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。ロボット100の通信機126が外部センサ114と定期的に通信し、サーバ200は外部センサ114によりロボット100の位置を特定する(特許文献2も参照)。 Multiple external sensors 114 are installed in the house beforehand. The position coordinates of the external sensors 114 are registered in the server 200. The server 200 determines the basic behavior of the robot 100 based on information obtained from the internal sensor 128 of the robot 100 and the multiple external sensors 114. The external sensors 114 are intended to reinforce the sensory organs of the robot 100, and the server 200 is intended to reinforce the brains of the robot 100. The communicator 126 of the robot 100 periodically communicates with the external sensors 114, and the server 200 identifies the position of the robot 100 using the external sensors 114 (see also Patent Document 2).

(サーバ200)
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェー
スとしても機能する。
(Server 200)
The server 200 includes a communication unit 204 , a data processing unit 202 , and a data storage unit 206 .
The communication unit 204 is responsible for communication processing with the external sensor 114 and the robot 100. The data storage unit 206 stores various data. The data processing unit 202 executes various processes based on the data acquired by the communication unit 204 and the data stored in the data storage unit 206. The data processing unit 202 also functions as an interface between the communication unit 204 and the data storage unit 206.

データ格納部206は、モーション格納部232と個人データ格納部218を含む。
ロボット100は、複数の変形パターン(モーション)を有する。手106を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義される。
The data storage section 206 includes a motion storage section 232 and a personal data storage section 218.
The robot 100 has multiple deformation patterns (motions). Various motions are defined, such as shaking the hand 106, approaching the owner while meandering, and staring at the owner with the head tilted.

モーション格納部232は、モーションの制御内容を定義する「モーションファイル」を格納する。各モーションは、モーションIDにより識別される。モーションファイルは、ロボット100のモーション格納部160にもダウンロードされる。どのモーションを実行するかは、サーバ200で決定されることもあるし、ロボット100で決定されることもある。 The motion storage unit 232 stores a "motion file" that defines motion control details. Each motion is identified by a motion ID. The motion file is also downloaded to the motion storage section 160 of the robot 100. Which motion to execute may be determined by the server 200 or by the robot 100.

ロボット100のモーションの多くは、複数の単位モーションを含む複合モーションとして構成される。たとえば、ロボット100がオーナーに近づくとき、オーナーの方に向き直る単位モーション、手を上げながら近づく単位モーション、体を揺すりながら近づく単位モーション、両手を上げながら着座する単位モーションの組み合わせとして表現されてもよい。このような4つのモーションの組み合わせにより、「オーナーに近づいて、途中で手を上げて、最後は体をゆすった上で着座する」というモーションが実現される。モーションファイルには、ロボット100に設けられたアクチュエータの回転角度や角速度などが時間軸に関連づけて定義される。モーションファイル(アクチュエータ制御情報)にしたがって、時間経過とともに各アクチュエータを制御することで様々なモーションが表現される。 Most of the motions of the robot 100 are configured as compound motions including multiple unit motions. For example, when the robot 100 approaches the owner, it may be expressed as a combination of a unit motion of turning toward the owner, a unit motion of approaching while raising its hands, a unit motion of approaching while shaking its body, and a unit motion of sitting while raising both hands. . By combining these four motions, the robot approaches the owner, raises its hands midway, and finally shakes its body before sitting down. In the motion file, the rotation angle, angular velocity, etc. of the actuator provided in the robot 100 are defined in relation to the time axis. Various motions are expressed by controlling each actuator over time according to a motion file (actuator control information).

先の単位モーションから次の単位モーションに変化するときの移行時間を「インターバル」とよぶ。インターバルは、単位モーション変更に要する時間やモーションの内容に応じて定義されればよい。インターバルの長さは調整可能である。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
The transition time when changing from the previous unit motion to the next unit motion is called an "interval." The interval may be defined according to the time required to change a unit motion or the content of the motion. The length of the interval is adjustable.
Hereinafter, settings related to behavior control of the robot 100, such as when to select which motion and output adjustment of each actuator to realize the motion, will be collectively referred to as "behavior characteristics." The behavioral characteristics of the robot 100 are defined by a motion selection algorithm, a motion selection probability, a motion file, and the like.

モーション格納部232は、モーションファイルのほか、各種のイベントが発生したときに実行すべきモーションを定義するモーション選択テーブルを格納する。モーション選択テーブルにおいては、イベントに対して1以上のモーションとその選択確率が対応づけられる。 The motion storage unit 232 stores motion files as well as a motion selection table that defines the motions to be executed when various events occur. In the motion selection table, one or more motions and their selection probabilities are associated with each event.

個人データ格納部218は、ユーザの情報を格納する。具体的には、ユーザに対する親密度とユーザの身体的特徴・行動的特徴を示すマスタ情報を格納する。年齢や性別などの他の属性情報を格納してもよい。 The personal data storage unit 218 stores user information. Specifically, master information indicating the degree of intimacy with the user and the physical and behavioral characteristics of the user is stored. Other attribute information such as age and gender may also be stored.

ロボット100は、ユーザごとに親密度という内部パラメータを有する。ロボット100が、自分を抱き上げる、声をかけてくれるなど、自分に対して好意を示す行動を認識したとき、そのユーザに対する親密度が高くなる。ロボット100に関わらないユーザや、乱暴を働くユーザ、出会う頻度が低いユーザに対する親密度は低くなる。 The robot 100 has an internal parameter called familiarity for each user. When the robot 100 recognizes actions that show favor toward the user, such as picking the user up or calling out to the user, the robot's intimacy with the user increases. The level of familiarity with users who are not involved with the robot 100, users who are abusive, and users with whom the robot 100 is rarely encountered is low.

データ処理部202は、位置管理部208、認識部212、動作制御部222、親密度管理部220および状態管理部244を含む。
位置管理部208は、ロボット100の位置座標を特定する。状態管理部244は、充電率や内部温度、プロセッサ122の処理負荷などの各種物理状態など各種内部パラメー
タを管理する。また、状態管理部244は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じてロボット100の移動目標地点が変化する。たとえば、寂しさが高まっているときには、ロボット100はユーザのいるところを移動目標地点として設定する。
The data processing unit 202 includes a position management unit 208 , a recognition unit 212 , a motion control unit 222 , an intimacy management unit 220 , and a state management unit 244 .
The position management unit 208 specifies the position coordinates of the robot 100. The state management unit 244 manages various internal parameters such as various physical states such as the charging rate, internal temperature, and the processing load of the processor 122. The state management unit 244 also manages various emotion parameters indicating the emotions of the robot 100 (loneliness, curiosity, desire for recognition, etc.). These emotion parameters are constantly fluctuating. The movement destination of the robot 100 changes depending on the emotion parameters. For example, when the robot 100 feels increasingly lonely, it sets the location of the user as the movement destination.

時間経過によって感情パラメータが変化する。また、後述の応対行為によっても各種感情パラメータは変化する。たとえば、オーナーから「抱っこ」をされると寂しさを示す感情パラメータは低下し、長時間にわたってオーナーを視認しないときには寂しさを示す感情パラメータは少しずつ増加する。 Emotional parameters change over time. Furthermore, various emotional parameters change depending on the reception behavior described below. For example, when the owner gives a hug, the emotional parameter indicating loneliness decreases, and when the owner is not seen for a long time, the emotional parameter indicating loneliness gradually increases.

認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度に基づく天候や季節の認識、光量や温度に基づく物陰(安全地帯)の認識など多様な認識が含まれる。ロボット100の認識部156は、内部センサ128により各種の環境情報を取得し、これを一次処理した上でサーバ200の認識部212に転送する。 The recognition unit 212 recognizes the external environment. Recognition of the external environment includes a variety of recognitions, such as recognition of weather and season based on temperature and humidity, and recognition of shade (safety zones) based on the amount of light and temperature. The recognition unit 156 of the robot 100 acquires various types of environmental information using the internal sensor 128, performs initial processing on this information, and then transfers it to the recognition unit 212 of the server 200.

具体的には、ロボット100の認識部156は、画像から移動物体、特に、人物や動物に対応する画像領域を抽出し、抽出した画像領域から移動物体の身体的特徴や行動的特徴を示す特徴量の集合として「特徴ベクトル」を抽出する。特徴ベクトル成分(特徴量)は、各種身体的・行動的特徴を定量化した数値である。たとえば、人間の目の横幅は0~1の範囲で数値化され、1つの特徴ベクトル成分を形成する。人物の撮像画像から特徴ベクトルを抽出する手法については、既知の顔認識技術の応用である。ロボット100は、特徴ベクトルをサーバ200に送信する。 Specifically, the recognition unit 156 of the robot 100 extracts an image region corresponding to a moving object, particularly a person or an animal, from the image, and extracts features indicating the physical characteristics and behavioral characteristics of the moving object from the extracted image region. Extract a "feature vector" as a set of quantities. Feature vector components (feature amounts) are numerical values that quantify various physical and behavioral features. For example, the width of the human eye is quantified in the range of 0 to 1 and forms one feature vector component. The method for extracting feature vectors from captured images of people is an application of known face recognition technology. Robot 100 sends the feature vector to server 200.

サーバ200の認識部212は、ロボット100の内蔵カメラによる撮像画像から抽出された特徴ベクトルと、個人データ格納部218にあらかじめ登録されているユーザ(クラスタ)の特徴ベクトルと比較することにより、撮像されたユーザがどの人物に該当するかを判定する(ユーザ識別処理)。また、認識部212は、ユーザの表情を画像認識することにより、ユーザの感情を推定する。認識部212は、人物以外の移動物体、たとえば、ペットである猫や犬についてもユーザ識別処理を行う。 The recognition unit 212 of the server 200 compares the feature vector extracted from the image captured by the built-in camera of the robot 100 with the feature vectors of users (clusters) preregistered in the personal data storage unit 218 to determine which person the captured user corresponds to (user identification process). The recognition unit 212 also estimates the user's emotions by performing image recognition of the user's facial expressions. The recognition unit 212 also performs user identification process on moving objects other than people, such as pet cats and dogs.

認識部212は、ロボット100になされたさまざまな応対行為を認識し、快・不快行為に分類する。認識部212は、また、ロボット100の行動に対するオーナーの応対行為を認識することにより、肯定・否定反応に分類する。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
The recognition unit 212 recognizes various behaviors given to the robot 100 and classifies them into pleasant or unpleasant behaviors. The recognition unit 212 also recognizes the owner's behavior in response to the behavior of the robot 100 and classifies it into positive or negative reactions.
A pleasant or unpleasant behavior is determined based on whether the user's behavior is pleasant or unpleasant for the living organism. For example, being held is a pleasant behavior for the robot 100, and being kicked is an unpleasant behavior for the robot 100. A positive or negative reaction is determined based on whether the user's behavior indicates a pleasant emotion or an unpleasant emotion. Being held is a positive reaction that indicates a pleasant emotion for the user, and being kicked is a negative reaction that indicates an unpleasant emotion for the user.

サーバ200の動作制御部222は、ロボット100の動作制御部150と協働して、ロボット100のモーションを決定する。サーバ200の動作制御部222は、ロボット100の移動目標地点とそのための移動ルートを作成する。動作制御部222は、複数の移動ルートを作成し、その上で、いずれかの移動ルートを選択してもよい。 The motion control unit 222 of the server 200 determines the motion of the robot 100 in cooperation with the motion control unit 150 of the robot 100. The operation control unit 222 of the server 200 creates a movement target point for the robot 100 and a movement route therefor. The operation control unit 222 may create a plurality of movement routes, and then select one of the movement routes.

動作制御部222は、モーション格納部232の複数のモーションからロボット100のモーションを選択する。各モーションには状況ごとに選択確率が対応づけられている。たとえば、オーナーから快行為がなされたときには、モーションAを20%の確率で実行する、気温が30度以上となったとき、モーションBを5%の確率で実行する、といった
選択方法が定義される。
The motion control unit 222 selects a motion for the robot 100 from a plurality of motions in the motion storage unit 232. A selection probability is associated with each motion for each situation. For example, a selection method is defined such that when the owner performs a pleasant action, motion A is executed with a probability of 20%, and when the temperature is 30 degrees or higher, motion B is executed with a probability of 5%.

親密度管理部220は、ユーザごとの親密度を管理する。上述したように、親密度は個人データ格納部218において個人データの一部として登録される。快行為を検出したとき、親密度管理部220はそのオーナーに対する親密度をアップさせる。不快行為を検出したときには親密度はダウンする。また、長期間視認していないオーナーの親密度は徐々に低下する。 The intimacy management unit 220 manages intimacy for each user. As described above, the degree of intimacy is registered as part of the personal data in the personal data storage unit 218. When a pleasurable act is detected, the intimacy management unit 220 increases the intimacy with the owner. When an unpleasant act is detected, intimacy decreases. In addition, the intimacy level of owners who have not been visually recognized for a long time gradually decreases.

(ロボット100)
ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
通信部142は、通信機126(図4参照)に該当し、外部センサ114、サーバ200および他のロボット100との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図4参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
(Robot 100)
The robot 100 includes a communication section 142, a data processing section 136, a data storage section 148, an internal sensor 128, and a drive mechanism 120.
The communication unit 142 corresponds to the communication device 126 (see FIG. 4) and is in charge of communication processing with the external sensor 114, the server 200, and other robots 100. The data storage unit 148 stores various data. The data storage unit 148 corresponds to the storage device 124 (see FIG. 4). The data processing unit 136 executes various processes based on the data acquired by the communication unit 142 and the data stored in the data storage unit 148. The data processing unit 136 corresponds to the processor 122 and a computer program executed by the processor 122. The data processing unit 136 also functions as an interface for the communication unit 142, internal sensor 128, drive mechanism 120, and data storage unit 148.

データ格納部148は、ロボット100の各種モーションを定義するモーション格納部160を含む。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
データ格納部148には、個人データ格納部218からも各種データがダウンロードされてもよい。
The data storage unit 148 includes a motion storage unit 160 that defines various motions of the robot 100 .
Various motion files are downloaded from the motion storage unit 232 of the server 200 to the motion storage unit 160 of the robot 100. The motions are identified by motion IDs. In order to express various motions such as sitting down with the front wheels 102 folded, lifting the hands 106, rotating the two front wheels 102 in reverse or by rotating only one of the front wheels 102 to cause the robot 100 to rotate, trembling by rotating the front wheels 102 with the front wheels 102 folded, stopping once and looking back when moving away from the user, etc., the operation timing, operation time, operation direction, etc. of various actuators (drive mechanisms 120) are defined in a time series in the motion files.
Various data may also be downloaded to the data storage unit 148 from the personal data storage unit 218 .

データ処理部136は、認識部156および動作制御部150を含む。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
The data processing section 136 includes a recognition section 156 and an operation control section 150.
The motion control unit 150 of the robot 100 determines the motion of the robot 100 in cooperation with the motion control unit 222 of the server 200. Some motions may be determined by the server 200, and other motions may be determined by the robot 100. Furthermore, the robot 100 determines the motion, but when the processing load on the robot 100 is high, the server 200 may determine the motion. The server 200 may determine a base motion, and the robot 100 may determine additional motions. How the motion determination processing is divided between the server 200 and the robot 100 may be designed according to the specifications of the robot system 300.

ロボット100の動作制御部150は選択したモーションを駆動機構120に実行指示する。駆動機構120は、モーションファイルにしたがって、各アクチュエータを制御する。 The motion control unit 150 of the robot 100 instructs the driving mechanism 120 to execute the selected motion. The driving mechanism 120 controls each actuator according to the motion file.

動作制御部150は、親密度の高いユーザが近くにいるときには「抱っこ」をせがむ仕草として両方の手106をもちあげるモーションを実行することもできるし、「抱っこ」に飽きたときには左右の前輪102を収容したまま逆回転と停止を交互に繰り返すことで
抱っこをいやがるモーションを表現することもできる。駆動機構120は、動作制御部150の指示にしたがって前輪102や手106、首(頭部フレーム316)を駆動することで、ロボット100にさまざまなモーションを表現させる。
The motion control unit 150 can execute a motion of lifting both hands 106 as a gesture of asking to be "held" when a user with high intimacy is nearby, and can also express a motion of refusing to be held by alternately rotating in the opposite directions and stopping while keeping the left and right front wheels 102 retracted when the user gets tired of being "held." The drive mechanism 120 drives the front wheels 102, hands 106, and neck (head frame 316) according to instructions from the motion control unit 150, causing the robot 100 to express various motions.

ロボット100の認識部156は、内部センサ128から得られた外部情報を解釈する。認識部156は、視覚的な認識(視覚部)、匂いの認識(嗅覚部)、音の認識(聴覚部)、触覚的な認識(触覚部)が可能である。 The recognition unit 156 of the robot 100 interprets external information obtained from the internal sensor 128. The recognition unit 156 is capable of visual recognition (visual unit), smell recognition (olfactory unit), sound recognition (auditory unit), and tactile recognition (tactile unit).

認識部156は、移動物体の撮像画像から特徴ベクトルを抽出する。上述したように、特徴ベクトルは、移動物体の身体的特徴と行動的特徴を示すパラメータ(特徴量)の集合である。移動物体を検出したときには、ニオイセンサや内蔵の集音マイク、温度センサ等からも身体的特徴や行動的特徴が抽出される。これらの特徴も定量化され、特徴ベクトル成分となる。認識部156は、特許文献2等に記載の既知の技術に基づいて、特徴ベクトルからユーザを特定する。 The recognition unit 156 extracts a feature vector from the captured image of the moving object. As described above, the feature vector is a collection of parameters (feature amounts) indicating the physical characteristics and behavioral characteristics of a moving object. When a moving object is detected, physical and behavioral characteristics are also extracted from the odor sensor, built-in sound collection microphone, temperature sensor, etc. These features are also quantified and become feature vector components. The recognition unit 156 identifies the user from the feature vector based on the known technology described in Patent Document 2 and the like.

検出・分析・判定を含む一連の認識処理のうち、ロボット100の認識部156は認識に必要な情報の取捨選択や抽出を行い、判定等の解釈処理はサーバ200の認識部212により実行される。認識処理は、サーバ200の認識部212だけで行ってもよいし、ロボット100の認識部156だけで行ってもよいし、上述のように双方が役割分担をしながら上記認識処理を実行してもよい。 Of the series of recognition processes including detection, analysis, and judgment, the recognition unit 156 of the robot 100 selects and extracts the information necessary for recognition, and interpretation processes such as judgment are performed by the recognition unit 212 of the server 200. The recognition process may be performed by only the recognition unit 212 of the server 200, or by only the recognition unit 156 of the robot 100, or the above recognition process may be performed by both of them with their roles shared as described above.

ロボット100に対する強い衝撃が与えられたとき、認識部156はタッチセンサおよび加速度センサによりこれを認識し、サーバ200の認識部212は、近隣にいるユーザによって「乱暴行為」が働かれたと認識する。ユーザがツノ112を掴んでロボット100を持ち上げるときにも、乱暴行為と認識してもよい。ロボット100に正対した状態にあるユーザが特定音量領域および特定周波数帯域にて発声したとき、サーバ200の認識部212は、自らに対する「声掛け行為」がなされたと認識してもよい。また、体温程度の温度を検知したときにはユーザによる「接触行為」がなされたと認識し、接触認識した状態で上方への加速度を検知したときには「抱っこ」がなされたと認識する。ユーザがボディ104を持ち上げるときの物理的接触をセンシングしてもよいし、前輪102にかかる荷重が低下することにより抱っこを認識してもよい。
まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報として取得し、サーバ200の認識部212は快・不快を判定する。また、サーバ200の認識部212は特徴ベクトルに基づくユーザ識別処理を実行する。
When a strong impact is given to the robot 100, the recognition unit 156 recognizes this by the touch sensor and the acceleration sensor, and the recognition unit 212 of the server 200 recognizes that a "violent act" has been committed by a nearby user. When a user grabs the horn 112 and lifts the robot 100, this may also be recognized as a violent act. When a user facing the robot 100 speaks in a specific volume range and a specific frequency band, the recognition unit 212 of the server 200 may recognize that a "calling act" has been performed on the robot 100. In addition, when a temperature of about body temperature is detected, it recognizes that a "contact act" has been performed by the user, and when an upward acceleration is detected in a state where contact has been recognized, it recognizes that a "hug" has been performed. Physical contact when the user lifts the body 104 may be sensed, or a hug may be recognized by a decrease in the load on the front wheels 102.
In summary, the robot 100 acquires the user's action as physical information by the internal sensor 128, and the recognition unit 212 of the server 200 judges whether the action is comfortable or uncomfortable. The recognition unit 212 of the server 200 also executes a user identification process based on the feature vector.

サーバ200の認識部212は、ロボット100に対するユーザの各種応対を認識する。各種応対行為のうち一部の典型的な応対行為には、快または不快、肯定または否定が対応づけられる。一般的には快行為となる応対行為のほとんどは肯定反応であり、不快行為となる応対行為のほとんどは否定反応となる。快・不快行為は親密度に関連し、肯定・否定反応はロボット100の行動選択に影響する。 The recognition unit 212 of the server 200 recognizes various responses of the user to the robot 100. Pleasure or displeasure, affirmation or negation are associated with some typical reception acts among various reception acts. In general, most of the pleasurable acts are positive reactions, and most of the unpleasant ones are negative reactions. Pleasant and unpleasant actions are related to intimacy, and positive and negative reactions influence the robot 100's behavior selection.

認識部156により認識された応対行為に応じて、サーバ200の親密度管理部220はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。 In response to the interaction behavior recognized by the recognition unit 156, the intimacy management unit 220 of the server 200 changes the intimacy with the user. In principle, the intimacy with a user who performs a pleasant behavior increases, and the intimacy with a user who performs an unpleasant behavior decreases.

以上の基本構成を前提として、次に、本実施形態におけるロボット100の実装について、特に、本実装の特徴と目的および基本構成との相違点を中心として説明する。なお、説明は第1実施形態と第2実施形態に分けて行う。第1実施形態と第2実施形態をまとめて説明する場合や、特に区別しない場合には「本実施形態」とよぶ。 Based on the above basic configuration, next, the implementation of the robot 100 in this embodiment will be described, focusing in particular on the features and purpose of this implementation and the differences from the basic configuration. The description will be divided into a first embodiment and a second embodiment. When the first embodiment and the second embodiment are described together or when no particular distinction is made, they will be referred to as "this embodiment."

[第1実施形態]
図5(a)は、第1実施形態におけるロボット100の正面外観図である。図5(b)は、第1実施形態におけるロボット100の側面外観図である。
第1実施形態におけるロボット100には、顔領域107が設けられる。顔領域107内には目110のほかに鼻109が備えられる。鼻109は、顔領域107の中心近傍であって、目110よりも低い位置に備えられる。鼻109は、左右の目に挟まれるように設けられ、右目から鼻109までの距離と左目から鼻109までの距離は等しい。また、鼻109は目110や顔領域107よりも小さい。鼻109にはユーザによって変形される物理的なデバイス(以下、「凸部」または「突起」とよぶことがある。)が備えられる。
[First embodiment]
Fig. 5A is a front external view of the robot 100 according to the first embodiment. Fig. 5B is a side external view of the robot 100 according to the first embodiment.
The robot 100 in the first embodiment is provided with a face region 107. In addition to eyes 110, a nose 109 is provided within the face region 107. The nose 109 is provided near the center of the face region 107 and at a lower position than the eyes 110. The nose 109 is provided between the left and right eyes, and the distance from the right eye to the nose 109 is equal to the distance from the left eye to the nose 109. The nose 109 is smaller than the eyes 110 and the face region 107. The nose 109 is provided with a physical device (hereinafter, sometimes referred to as a "convex portion" or a "protrusion") that is deformed by the user.

本実施形態においては、鼻109にはアナログスティックが設置される。ユーザは、アナログスティック(鼻109)を上下左右の全方向へ傾斜させることができ、かつ、押し込むこともできる。本実施形態においては、アナログスティックのような物理的デバイスの傾斜および押し込みが「ロボット本体の変形」に該当する。アナログスティックにはタッチを検出するためのセンサ(以下、「鼻センサ」とよぶ)が含まれる。アナログスティックそのものおよびアナログスティックの変形の検知方法については、例えば特開平9-134251号公報等に記載の技術が知られている。 In this embodiment, an analog stick is installed on the nose 109. The user can tilt the analog stick (nose 109) in all directions, up, down, left and right, and can also push it. In this embodiment, tilting and pushing a physical device such as an analog stick corresponds to "deformation of the robot body." The analog stick includes a sensor (hereinafter referred to as a "nose sensor") for detecting touch. As for the method of detecting the analog stick itself and the deformation of the analog stick, the technique described in, for example, Japanese Patent Laid-Open No. 9-134251 is known.

図6は、第1実施形態におけるロボット100のハードウェア構成図である。
第1実施形態におけるロボット100は、図3に示した基本構成に加えて、モニター170およびアナログスティック180を含む。モニター170は、ロボット100の目110に設置され、眼画像を表示させる(詳細後述)。
FIG. 6 is a hardware configuration diagram of the robot 100 in the first embodiment.
The robot 100 in the first embodiment includes a monitor 170 and an analog stick 180 in addition to the basic configuration shown in FIG. The monitor 170 is installed on the eye 110 of the robot 100 and displays an eye image (details will be described later).

図7は、第1実施形態におけるロボットシステム300の機能ブロック図である。
上述のとおり、ロボット100はモニター170およびアナログスティック180を含む。第1実施形態におけるロボット100のデータ処理部136は、更に、操作検知部182、操作履歴管理部184、眼生成部172を含む。操作検知部182は、アナログスティック180の動き、すなわち、傾斜方向、傾斜角(初期位置からの角度)、押し込み量を逐次検知する。第1実施形態における傾斜方向を「変形方向」とよび、傾斜角と押し込み量をまとめて「変形量」とよぶことがある。
FIG. 7 is a functional block diagram of the robot system 300 in the first embodiment.
As mentioned above, robot 100 includes monitor 170 and analog stick 180. The data processing unit 136 of the robot 100 in the first embodiment further includes an operation detection unit 182, an operation history management unit 184, and an eye generation unit 172. The operation detection unit 182 sequentially detects the movement of the analog stick 180, that is, the inclination direction, the inclination angle (angle from the initial position), and the amount of depression. The inclination direction in the first embodiment may be referred to as a "deformation direction", and the inclination angle and the pushing amount may be collectively referred to as a "deformation amount".

操作履歴管理部184は、操作検知部182の検知結果を時系列に沿って操作履歴として記憶する。操作履歴はアナログスティック180の変形状態(アナログスティック180が初期位置から動かされている状態)の継続時間(変形継続時間)も含む。操作履歴管理部184はまた、単位時間あたりの変形量として変形速度を算出する。変形方向、変形量、変形速度等、本実施形態における「ロボット本体の変形」の度合いを「変形態様」と総称する。眼生成部172は、目110(モニター170)に表示すべき眼画像を生成する。 The operation history management unit 184 stores the detection results of the operation detection unit 182 in chronological order as an operation history. The operation history also includes the duration (deformation duration) of the deformed state of the analog stick 180 (the state in which the analog stick 180 is moved from the initial position). The operation history management unit 184 also calculates the deformation speed as the amount of deformation per unit time. The degree of "deformation of the robot main body" in this embodiment, such as the deformation direction, deformation amount, and deformation speed, is collectively referred to as the "deformation mode". The eye generation unit 172 generates an eye image to be displayed on the eye 110 (monitor 170).

眼生成部172は、アナログスティック180の変形態様に応じて、モニター170に信号を出力することにより、モニター170に表示させる眼画像を変化させる。動作制御部150は、また、アナログスティック180の変形態様に応じて、モーションを選択する。以下、眼生成部172が眼画像を変化させることを、「ロボット100が眼を動かす」または「ロボット100の眼が変化する」ということがある。また、動作制御部150がモーションを選択し、駆動機構120が選択されたモーションを実行することを、「ロボット100が動く」ということがある。また、「ロボット100が動く」場合において、特定の部位Xを動かすモーションである場合には、「ロボット100がXを動かす」ということがある。例えば、動作制御部150がロボット100の手を動かすモーションを選択し、駆動機構120がそのモーションを実行する場合、「ロボット100が手を動か
す」と表現することがある。ユーザが鼻109(アナログスティック180)をいじるとロボット100は眼を動かし、ユーザが鼻109をいじりつづけるとロボット100は眼だけではなく首や手などの体も動かしはじめる。本実施形態における「モーション」はロボット100が体を物理的に動かすことを意味し、眼画像の変化は「モーション」には含まれないものとする。以下、アナログスティック180を動かす際のモニター170の画像およびモーションの変化について詳細に説明する。
The eye generation unit 172 changes the eye image displayed on the monitor 170 by outputting a signal to the monitor 170 according to the deformation state of the analog stick 180. The operation control unit 150 also selects a motion according to the deformation state of the analog stick 180. Hereinafter, the change of the eye image by the eye generation unit 172 may be referred to as "the robot 100 moves its eyes" or "the eyes of the robot 100 change". Furthermore, the selection of a motion by the operation control unit 150 and the execution of the selected motion by the driving mechanism 120 may be referred to as "the robot 100 moves". Furthermore, when the "robot 100 moves", if the motion is to move a specific part X, it may be referred to as "the robot 100 moves X". For example, when the operation control unit 150 selects a motion to move the hand of the robot 100 and the driving mechanism 120 executes the motion, it may be expressed as "the robot 100 moves its hand". When the user manipulates the nose 109 (analog stick 180), the robot 100 moves its eyes, and when the user continues to manipulate the nose 109, the robot 100 starts to move not only its eyes but also its body, such as its neck and hands. In this embodiment, "motion" means that the robot 100 physically moves its body, and changes in the eye image are not included in "motion". Changes in the image and motion on the monitor 170 when the analog stick 180 is moved will be described in detail below.

図8は、眼画像171の外観図である。
眼生成部172は、瞳画像175と周縁画像176を含む眼画像171を生成する。眼生成部172は、眼画像171を動画表示させる。具体的には、瞳画像175を動かすことでロボット100の視線の変化を表現する。
FIG. 8 is a diagram showing the appearance of the eye image 171.
The eye generation unit 172 generates an eye image 171 including a pupil image 175 and a peripheral image 176. The eye generation unit 172 displays a moving image of the eye image 171. Specifically, the pupil image 175 is moved to represent a change in the line of sight of the robot 100.

瞳画像175は、瞳孔領域177と角膜領域178を含む。また、瞳画像175には、外光の映り込みを表現するためのキャッチライト179も表示される。眼画像171のキャッチライト179は、外光の反射によって輝いているのではなく、眼生成部172により高輝度領域として表現される画像領域である。 The pupil image 175 includes a pupil region 177 and a cornea region 178. The pupil image 175 also displays a catch light 179 to represent the reflection of external light. The catch light 179 in the eye image 171 is not shining due to the reflection of external light, but is an image region represented as a high-luminance region by the eye generation unit 172.

眼生成部172は、瞳画像175を上下左右に移動させる。ロボット100の認識部156がユーザを認識したときには、眼生成部172は瞳画像175をユーザの存在する方向に向ける。眼生成部172は、眼画像171のうち瞳画像175を変化させることにより、ロボット100の仮想的な視線(以下、「仮想視線」ということがある。)の変化を表現する。眼画像171の制御の詳細は図10に関連して後述する。 The eye generation unit 172 moves the pupil image 175 up, down, left, and right. When the recognition unit 156 of the robot 100 recognizes a user, the eye generation unit 172 points the pupil image 175 in the direction of the user. The eye generation unit 172 expresses a change in the virtual line of sight of the robot 100 (hereinafter sometimes referred to as the "virtual line of sight") by changing the pupil image 175 of the eye image 171. The control of the eye image 171 will be described in detail later with reference to FIG. 10.

眼生成部172は、瞳画像175の形状を変化させてもよい。たとえば、瞳画像175がモニター170の中心にあるときには真円形状とし、周縁部分にあるときには楕円形状に変化させる。瞳画像175の形状をモニター170内の位置に応じて変化させることにより平面のモニター170を実際の眼球のような曲面形状であるかのように見せることができる。 The eye generation unit 172 may change the shape of the pupil image 175. For example, when the pupil image 175 is in the center of the monitor 170, it is made to have a perfect circle shape, and when it is on the periphery, it is changed to an ellipse shape. By changing the shape of the pupil image 175 depending on the position within the monitor 170, it is possible to make the flat monitor 170 appear as if it has a curved shape like an actual eyeball.

眼生成部172は、外部光源の存在方向に対応してキャッチライト179の位置を変化させる。図8は、ロボット100から見て左上方に外部光源が存在する場合のキャッチライト179の表示位置を示している。キャッチライト179の位置を外部光源に連動させることにより、いっそうリアルな眼画像171を表現できる。眼生成部172は、外部光源の方向を撮像画像から画像認識により判定してもよいし、光センサ(図示せず)の検出データから判定してもよい。 The eye generation unit 172 changes the position of the catch light 179 in response to the direction of the external light source. Figure 8 shows the display position of the catch light 179 when the external light source is located to the upper left as seen by the robot 100. By linking the position of the catch light 179 to the external light source, a more realistic eye image 171 can be expressed. The eye generation unit 172 may determine the direction of the external light source from the captured image by image recognition, or may determine it from detection data of a light sensor (not shown).

図9は、眼画像171の拡大図である。
眼画像171においては、瞳画像175と周縁画像176に瞼(まぶた)を示す瞼画像190が重畳される。瞼画像190は、まつ毛192を含む。周縁画像176は、人間の結膜にあたる部分である。
FIG. 9 is an enlarged view of the eye image 171.
In the eye image 171, an eyelid image 190 showing the eyelid is superimposed on the pupil image 175 and the peripheral image 176. The eyelid image 190 includes eyelashes 192. The peripheral image 176 is a portion that corresponds to the human conjunctiva.

眼生成部172は、眼画像171のうち、瞼画像190、瞳孔領域177、角膜領域178およびキャッチライト179を変化させる。光量が大きいほど、眼生成部172は瞳孔領域177の直径を断続的または連続的に拡大させる。眼生成部172は、瞳孔領域177だけではなく、瞳画像175の全体を断続的または連続的に拡縮させてもよい。眼生成部172は、光量が特に大きいとき(例えば、所定の閾値よりも大きいとき)には瞼画像190を下げることで「眩しそうな様子」を表現してもよい。 The eye generation unit 172 changes the eyelid image 190, pupil region 177, cornea region 178, and catch light 179 of the eye image 171. The greater the amount of light, the more the eye generation unit 172 intermittently or continuously enlarges the diameter of the pupil region 177. The eye generation unit 172 may intermittently or continuously enlarge or reduce not only the pupil region 177 but also the entire pupil image 175. When the amount of light is particularly large (for example, when it is greater than a predetermined threshold), the eye generation unit 172 may express a "dazzling appearance" by lowering the eyelid image 190.

図10は、眼画像171の生成方法を示す模式図である。
眼球モデル250は、ロボット100の眼球を模した三次元コンピュータグラフィック
スである。眼生成部172は、まず、三次元の球体をポリゴンにて形成し、これにテクスチャ(以下、「眼球テクスチャ」とよぶ)を貼ることにより眼球モデル250を形成する。眼球テクスチャは、瞳画像175を含む画像である。眼球テクスチャは、データ格納部148に含まれる眼画像格納部(図示なし)に格納される。
FIG. 10 is a schematic diagram showing a method of generating the eye image 171.
The eyeball model 250 is three-dimensional computer graphics that imitates the eyeball of the robot 100. The eye generation unit 172 first forms a three-dimensional sphere using polygons, and forms an eyeball model 250 by applying a texture (hereinafter referred to as "eyeball texture") to this. The eyeball texture is an image including the pupil image 175. The eyeball texture is stored in an eye image storage section (not shown) included in the data storage section 148.

眼球モデル250の前方に、第1面252および第2面254が設定される。第1面252および第2面254は、目110のモニター170の表示面に対応する仮想的な平面である。眼生成部172は、眼球モデル250を第1面252に投影させることにより、三次元の眼球モデル250から2次元の眼球投影画像256を生成する。 A first surface 252 and a second surface 254 are set in front of the eyeball model 250. The first surface 252 and the second surface 254 are virtual planes corresponding to the display surface of the monitor 170 of the eye 110. The eye generation unit 172 generates a two-dimensional eyeball projection image 256 from the three-dimensional eyeball model 250 by projecting the eyeball model 250 onto the first surface 252 .

眼生成部172は、第2面254に瞼画像190を表示させる。第1面252の眼球投影画像256と第2面254の瞼画像190を重ね合わせることにより、図8等に示した眼画像171が生成される。眼生成部172は、右目用と左目用に2つの眼球モデル250を生成し、それぞれについて眼画像171を生成する。以下、第1面252および第2面254をまとめていうときには「眼球面258」とよぶ。 The eye generation unit 172 displays the eyelid image 190 on the second surface 254. By superimposing the eyeball projection image 256 on the first surface 252 and the eyelid image 190 on the second surface 254, an eye image 171 shown in FIG. 8 and the like is generated. The eye generation unit 172 generates two eyeball models 250, one for the right eye and one for the left eye, and generates an eye image 171 for each. Hereinafter, the first surface 252 and the second surface 254 will be collectively referred to as "ocular surface 258."

眼生成部172は、眼球モデル250を回転させることにより、眼球投影画像256を変化させる。3次元の眼球モデル250を生成してこれを回転させながら第1面252に投影する方式であるため、第1面252に眼画像171を直接描画するよりもロボット100の視線の動きを滑らかに表現できる。二次元の眼画像171であっても、三次元の眼球モデル250を元にして生成・制御されるため、本方式は、生物の眼球に特有の複雑な動きを表現しやすい。 The eye generation unit 172 changes the eyeball projection image 256 by rotating the eyeball model 250. Since this method generates a three-dimensional eyeball model 250 and projects it onto the first surface 252 while rotating it, it is possible to express the movement of the robot 100's gaze more smoothly than if the eye image 171 were drawn directly on the first surface 252. Even though the eye image 171 is two-dimensional, since it is generated and controlled based on the three-dimensional eyeball model 250, this method makes it easier to express the complex movements that are unique to the eyes of living creatures.

眼生成部172は、第1面252とは異なる第2面254に瞼画像190を表示させることにより、瞼画像190を眼球投影画像256に重畳させる。人間は、目の前で手を叩かれたとき、反射的に目をつぶる。このような眼の条件反射をロボット100に実装する上では、瞼画像190を高速で変化させる必要がある。本実施形態においては、第1面252の画像処理と第2面254の画像処理が独立している。眼生成部172は、目をつぶる表現をするときには、第2面254だけを対象として画像制御すればよい。瞬きのときにも、眼生成部172は第2面254を対象として画像処理を実行すればよい。眼球モデル250(眼球投影画像256)と瞼画像190を別々に制御できるため、瞼画像190を高速に制御できる。このような構成により、眼生成部172は眼画像171を動的に生成できる。 The eye generation unit 172 displays the eyelid image 190 on a second surface 254 that is different from the first surface 252, thereby superimposing the eyelid image 190 on the eyeball projection image 256. When people have their hands slapped in front of them, they reflexively close their eyes. In order to implement such a conditioned reflex of the eye in the robot 100, it is necessary to change the eyelid image 190 at high speed. In this embodiment, the image processing for the first surface 252 and the image processing for the second surface 254 are independent. When expressing closing the eyes, the eye generation unit 172 only needs to perform image control on the second surface 254. Even when blinking, the eye generation unit 172 may perform image processing on the second surface 254. Since the eyeball model 250 (eyeball projection image 256) and the eyelid image 190 can be controlled separately, the eyelid image 190 can be controlled at high speed. With such a configuration, the eye generation unit 172 can dynamically generate the eye image 171.

ロボット100は、アナログスティック180の動きと連動して眼を動かす。ロボット100の眼の外観図を図11(a)、図11(b)、図11(c)、図11(d)に示す。 The robot 100 moves its eyes in conjunction with the movement of the analog stick 180. External views of the eyes of the robot 100 are shown in FIGS. 11(a), 11(b), 11(c), and 11(d).

図11(a)はアナログスティック180を初期位置188から上に動かした場合のロボット100の眼の外観図である。
図11(b)はアナログスティック180を初期位置188から右に動かした場合のロボット100の眼の外観図である。
図11(c)はアナログスティック180を初期位置188から下に動かした場合のロボット100の眼の外観図である。
図11(d)はアナログスティック180を初期位置188から左に動かした場合のロボット100の眼の外観図である。
FIG. 11A is an external view of the eyes of the robot 100 when the analog stick 180 is moved upward from the initial position 188.
FIG. 11(b) is an external view of the eyes of the robot 100 when the analog stick 180 is moved to the right from the initial position 188.
FIG. 11C is an external view of the eyes of the robot 100 when the analog stick 180 is moved downward from the initial position 188.
FIG. 11(d) is an external view of the eyes of the robot 100 when the analog stick 180 is moved to the left from the initial position 188.

ユーザがアナログスティック180を動かすとき、操作検知部182はアナログスティック180の変形量および変形方向(傾斜角と傾斜方向)を検知する。眼生成部172は検知結果に基づいて眼球モデル250の回転方向と回転量を計算し、眼球モデル250を
回転させる。具体的には、アナログスティック180の傾斜方向と同方向を回転方向として設定し、傾斜角に比例する回転量にて眼球モデル250を回転させる。眼生成部172は眼球モデル250を第1面252に投影する。このような制御により、ロボット100の眼画像171は、アナログスティック180の傾斜方向に視線を向けるような動きをする。ユーザはアナログスティック180を動かすことで、ロボット100の視線を変化させることができる。
When the user moves the analog stick 180, the operation detection unit 182 detects the amount and direction of deformation (the tilt angle and the tilt direction) of the analog stick 180. The eye generation unit 172 calculates the rotation direction and amount of rotation of the eyeball model 250 based on the detection result, and rotates the eyeball model 250. Specifically, the same direction as the tilt direction of the analog stick 180 is set as the rotation direction, and the eyeball model 250 is rotated by a rotation amount proportional to the tilt angle. The eye generation unit 172 projects the eyeball model 250 onto the first surface 252. Through such control, the eye image 171 of the robot 100 moves so as to direct its line of sight in the direction in which the analog stick 180 is tilted. The user can change the line of sight of the robot 100 by moving the analog stick 180.

図11(a)に示すように、アナログスティック180を上方向に傾けると、ロボット100も視線を上に向ける。図11(b)に示すように、アナログスティック180を右に傾けるとロボット100の視線は右を向く。アナログスティック180を下に傾けるとロボット100の視線は下を向き(図11(c))、左に傾けるとロボット100の視線は左に動く(図11(d))。上下左右以外の他の方向についても同様である。 As shown in FIG. 11(a), when the analog stick 180 is tilted upward, the robot 100 also turns its line of sight upward. As shown in FIG. 11(b), when the analog stick 180 is tilted to the right, the line of sight of the robot 100 is directed to the right. When the analog stick 180 is tilted downward, the line of sight of the robot 100 faces downward (FIG. 11(c)), and when it is tilted to the left, the line of sight of the robot 100 moves to the left (FIG. 11(d)). The same applies to directions other than up, down, left, and right.

眼球モデル250を使用することにより、眼画像171をアナログスティック180の動きに高速に追随させることができる。ユーザが鼻109(アナログスティック180)をいじると、ロボット100は即座に眼を動かすから、ユーザはロボット100からの速やかな反応を体感できる。 By using the eyeball model 250, the eye image 171 can be made to quickly follow the movement of the analog stick 180. When the user manipulates the nose 109 (analog stick 180), the robot 100 moves its eyes instantly, allowing the user to experience a rapid response from the robot 100.

ロボット100は、鼻109がいじられるとき、瞳だけではなく、体(頭部、手及び車輪のうち少なくとも1つ)を動かしてもよい。アナログスティック180を素早く動かすとき、ロボット100も頭部や体をすぐに動かすことで反応を示せば、ロボット100において「反射的行動」という生物的な行動特性を表現できる。 When the nose 109 is touched, the robot 100 may move not only its eyes but also its body (at least one of its head, hands, and wheels). When the analog stick 180 is moved quickly, if the robot 100 also responds by immediately moving its head or body, the robot 100 can express biological behavior characteristics called "reflexive behavior."

例えば、ユーザがアナログスティック180を0.1秒以内に右方向に30度以上傾けたとき、ロボット100は頭部を右に向けるとしてもよい。このような制御方法によれば、鼻109(アナログスティック180)をすばやく大きく傾けることで、ロボット100は眼だけでなく頭も動かすという動作表現が可能となる。 For example, when the user tilts the analog stick 180 to the right by 30 degrees or more within 0.1 seconds, the robot 100 may turn its head to the right. According to such a control method, by quickly and greatly tilting the nose 109 (analog stick 180), the robot 100 can express motion by moving not only its eyes but also its head.

ロボット100は、鼻109の動きに眼を連動させるだけでなく、鼻109の動き方によっては体も動かすことで、鼻109のいじりに対して多様な反応を示す。ロボット100が体を動かすきっかけとなる鼻109の動きとしては、このほか、ユーザがアナログスティック180を上方向に弾くことや、高速にてアナログスティック180を左右に動かすことであってもよい。アナログスティック180の変形速度が所定の基準値を超えたときを「急激な動き」として定義し、アナログスティック180が急激な動きをしたとき、動作制御部150は複数のモーションのいずれかを選択してもよい。これらのモーションは、頭部を鼻109が動いた方向とは逆方向に回転させる、車輪を駆動して後ろに飛びのく等、生物が行う反射行動を表現するものであればよい。 The robot 100 not only moves its eyes in response to the movement of the nose 109, but also moves its body depending on the movement of the nose 109, thereby showing various reactions to the teasing of the nose 109. Other movements of the nose 109 that trigger the robot 100 to move its body may be the user flicking the analog stick 180 upwards or moving the analog stick 180 left and right at high speed. When the speed at which the analog stick 180 changes shape exceeds a predetermined reference value, a "sudden movement" may be defined, and when the analog stick 180 makes a sudden movement, the motion control unit 150 may select one of a number of motions. These motions may be any that express reflex actions performed by a living being, such as rotating the head in the opposite direction to the movement of the nose 109, or jumping backwards by driving the wheels.

まとめると、鼻109(アナログスティック180)を動かすとき、眼生成部172はアナログスティック180の動きに合わせて眼球モデル250を回転させることで、眼画像171を変化させる。このため、鼻109の動きにより、ロボット100の視線を追随的に動かすことができる。いわば、鼻109が眼の操作デバイスであるかのようなユーザインタフェースが実現される。また、鼻109の動きが所定の条件を満たしたときには、動作制御部150は鼻109の動きに合わせてモーションを選択する。このため、鼻109の動かし方によっては、ロボット100は、眼画像171だけでなく、全身の動きによってユーザからの関わりに応えることができる。 In summary, when the nose 109 (analog stick 180) is moved, the eye generation unit 172 changes the eye image 171 by rotating the eyeball model 250 in accordance with the movement of the analog stick 180. Therefore, the line of sight of the robot 100 can be moved in a tracking manner by the movement of the nose 109. In other words, a user interface is realized in which the nose 109 acts as an eye operation device. Furthermore, when the movement of the nose 109 meets a predetermined condition, the operation control unit 150 selects a motion in accordance with the movement of the nose 109. Therefore, depending on how the nose 109 is moved, the robot 100 can respond to the user's interaction not only by the eye image 171 but also by the movement of the entire body.

動作制御部150は、鼻109の動きに追従するモーションを実行させてもよい。このように、眼生成部172はアナログスティック180の動きに合わせて眼画像171を変化させてもよい。また、動作制御部150はアナログスティック180の動きに合わせて
モーションを変化させてもよい。これにより、アナログスティック180の操作方向と、眼画像171またはモーションの変化とが連動しているかのような印象をユーザに与えられる。
The motion control unit 150 may execute a motion that follows the movement of the nose 109. In this manner, the eye generation unit 172 may change the eye image 171 in accordance with the movement of the analog stick 180. The motion control unit 150 may also change the motion in accordance with the movement of the analog stick 180. This gives the user the impression that the operation direction of the analog stick 180 and the change in the eye image 171 or the motion are linked.

図5(a)、(b)に関連して説明したとおり、鼻109は、目110や顔領域107に比べて小さい。鼻109のどの部分においてもユーザの接触を確実に検出する必要がある。そのため、鼻109の全域または大部分にセンサを設ける必要がある。ロボット100に対して同じ大きさのセンサを設ける場合、顔領域107に比べてより小さい鼻109はセンサの数が少なくて済む。したがって、ロボット100を製造するコストを抑えられる。 As described in relation to Figures 5(a) and (b), the nose 109 is smaller than the eyes 110 and the face region 107. It is necessary to reliably detect the user's contact with any part of the nose 109. For this reason, it is necessary to provide sensors over the entire area or most of the nose 109. When providing sensors of the same size for the robot 100, fewer sensors are required for the nose 109, which is smaller than the face region 107. This allows the cost of manufacturing the robot 100 to be reduced.

また、鼻109は小さいにも関わらずユーザの目に留まりやすい。顔領域107の中央付近に設けられることや、ロボット100の表面に対して凸形状となっていることがその主な要因である。ユーザの目に留まりやすい鼻109に、アナログスティック180(操作デバイス)を設けることで、ロボット100における操作可能な部分(ユーザの接触を検出する部分)をユーザが認識しやすくなる。 Furthermore, although the nose 109 is small, it easily catches the eye of the user. The main reasons for this are that it is provided near the center of the face area 107 and that it has a convex shape with respect to the surface of the robot 100. By providing the analog stick 180 (operation device) on the nose 109, which is easily noticed by the user, the user can easily recognize the operable portion of the robot 100 (the portion that detects the user's touch).

ロボット100の内部パラメータ、例えば、感情パラメータに基づいて眼画像171を変化させてもよい。例えば、ロボット100のいらだちの度合いを示す感情パラメータの値が所定値以上のときには、眼生成部172はアナログスティック180の傾斜方向とは逆方向に眼球モデル250を回転させてもよい。 The eye image 171 may be changed based on internal parameters of the robot 100, for example, emotional parameters. For example, when the value of the emotional parameter indicating the degree of irritation of the robot 100 is greater than or equal to a predetermined value, the eye generation unit 172 may rotate the eyeball model 250 in a direction opposite to the direction in which the analog stick 180 is tilted.

アナログスティック180の変形態様(変形方向、変形量、変形速度)を変数とし、眼球モデル250の回転方向および回転量を出力として定義する変換関数を用意してもよい。眼生成部172は、アナログスティック180の変形態様および変換関数に基づいて、眼球モデル250の回転方向および回転量を決定してもよい。 A conversion function may be prepared that defines the deformation state (deformation direction, deformation amount, deformation speed) of the analog stick 180 as a variable and defines the rotation direction and rotation amount of the eyeball model 250 as output. The eye generation unit 172 may determine the direction and amount of rotation of the eyeball model 250 based on the manner of deformation of the analog stick 180 and the conversion function.

眼生成部172は、感情パラメータに基づいて複数種類の変換関数のいずれかを選択してもよい。眼生成部172は、複数種類の変換関数のいずれかをランダムに選択してもよい。このような制御方法によれば、アナログスティック180の変形と眼の動きの連動性は維持しながらも、眼の動きに多様性を持たせることができる。ロボット100は、同じいじられ方に対して多様な眼の動きで応えるので、ユーザはロボット100のいろいろな表情を楽しめる。また、眼の動きに応じて、ロボット100の感情を推定することも可能となる。 The eye generation unit 172 may select one of a plurality of types of conversion functions based on the emotion parameters. The eye generation unit 172 may randomly select one of a plurality of types of conversion functions. With this control method, it is possible to provide diversity in the eye movements while maintaining the link between the deformation of the analog stick 180 and the eye movements. The robot 100 responds with a variety of eye movements to the same manner of manipulation, so the user can enjoy the various facial expressions of the robot 100. It is also possible to estimate the emotion of the robot 100 according to the eye movements.

ロボット100は、アナログスティック180の操作履歴に応じてモーションを変化させる。上述のとおり、操作検知部182はアナログスティック180の動き、すなわち、変形方向と変形量を逐次検知する。操作履歴管理部184は検知結果を、時系列に沿って操作履歴として記憶する。具体的には、操作履歴管理部184は、検知結果と検知時刻とを対応付けて記憶する。動作制御部150は、操作履歴、すなわちアナログスティック180の動き方に応じたモーションを選択する。 The robot 100 changes its motion according to the operation history of the analog stick 180. As described above, the operation detection unit 182 sequentially detects the movement of the analog stick 180, that is, the direction and amount of deformation. The operation history management unit 184 stores the detection results in chronological order as an operation history. Specifically, the operation history management unit 184 stores the detection result and the detection time in association with each other. The motion control unit 150 selects a motion according to the operation history, that is, how the analog stick 180 moves.

アナログスティック180のいじられ方(操作のされ方)によって、状態管理部244は感情パラメータを変化させてもよい。例えば、ユーザが、やさしくアナログスティック180をいじれば、眼生成部172はそのいじり方に連動して眼を動かし始める。更に継続して同じようにいじり続けていれば、状態管理部244は安心感を示す感情パラメータを上昇させる。安心感を示す感情パラメータが所定値以上になると、眼生成部172は瞼画像190を下げる(閉眼する)ことでロボット100の眠気を表現する。このとき、動作制御部150は、頭を上下に動かすモーションを選択することで「うとうと」するさまを表現してもよい。やさしいいじり方、いいかえれば、ロボット100を安心させるアナ
ログスティック180のいじり方は、設計者が任意に定義すればよい。たとえば、アナログスティック180を略同一のペースにて左右に往復運動させることでもよいし、アナログスティック180を動かさないまま鼻センサをアナログスティック180が押し込まれない程度の強さで所定回数以上叩き続けることであってもよい。
The state management unit 244 may change the emotional parameters depending on how the analog stick 180 is played with (operated). For example, if the user gently tampers with the analog stick 180, the eye generation unit 172 begins to move the eyes in conjunction with the tampering. If the user continues to tamper with the user in the same way, the state management unit 244 increases the emotional parameter indicating a sense of security. When the emotional parameter indicating a sense of security exceeds a predetermined value, the eye generation unit 172 expresses the sleepiness of the robot 100 by lowering the eyelid image 190 (closing the eyes). At this time, the motion control unit 150 may express the state of "drowsing" by selecting a motion of moving the head up and down. The designer may arbitrarily define an easy way to play with the analog stick 180, or in other words, a way to play with the analog stick 180 that makes the robot 100 feel at ease. For example, the analog stick 180 may be reciprocated left and right at approximately the same pace, or the analog stick 180 may be kept stationary and the nose sensor may be struck a predetermined number of times or more with enough force to prevent the analog stick 180 from being pushed. It may be.

ユーザが、乱雑にアナログスティック180をいじり続ければ、ロボット100はそのいじり方に連動して眼を動かし始める。更に継続して乱雑にいじり続けていれば、苛立ちを示す感情パラメータが高まりロボット100は眼の動きを止める。また、ロボット100は頭部を左右に動かしユーザの指先をアナログスティック180から離そうとして、「いやいや」を表現する。「乱雑ないじり方」も、設計者により任意に定義されればよい。 If the user continues to mess around with the analog stick 180, the robot 100 will begin to move its eyes in conjunction with the way the user messes with the analog stick 180. If the robot 100 continues to mess around with the robot 100, the emotion parameter indicating irritation increases and the robot 100 stops moving its eyes. Furthermore, the robot 100 moves its head left and right and attempts to release the user's fingertips from the analog stick 180, expressing "no, no". The "messy tinkering method" may also be arbitrarily defined by the designer.

一実施形態において、やさしくいじられている状態とは、単調な動きがなされている状態である。アナログスティック180からの出力値で表現するならば、単調な動きとは出力値に周期性があって、かつ、変形量が小さい状態が所定の期間より長く続く動きといえる。一実施形態において、乱雑にいじられている状態は、単調ではない動きがなされている状態である。アナログスティック180からの出力値で表現するならば、出力値に周期性がなく、かつ、変形量が大きい状態が所定の期間より長く続く動きといえる。このように、アナログスティック180の動きに連動して眼を動かし続けるだけでなく、所定条件を満たしたときにロボット100はアナログスティック180と眼の連動の仕方を変化させる。ロボット100は、「眠い」状態を、眼の動きを単に止めるのではなく、瞼を閉じたり身体を動かすことで表現する。 In one embodiment, the state of being handled gently is a state of monotonous movement. If expressed in terms of the output value from the analog stick 180, monotonous movement is a movement in which the output value has periodicity and the amount of deformation is small and continues for a longer period than a predetermined period. In one embodiment, the state of being handled roughly is a state of being non-monotonous movement. If expressed in terms of the output value from the analog stick 180, it is a movement in which the output value has no periodicity and the amount of deformation is large and continues for a longer period than a predetermined period. In this way, the robot 100 not only continues to move its eyes in conjunction with the movement of the analog stick 180, but also changes the way in which the analog stick 180 and its eyes are linked when a predetermined condition is met. The robot 100 expresses a "sleepy" state by closing its eyelids and moving its body, rather than simply stopping its eye movements.

例えば、アナログスティック180を最大傾斜角の30%以下の範囲内にて左右交互に動かす場合(以下、この動かし方を「左右交互傾斜」とよぶ)に、ロボット100は、眼の動きを止め瞼を閉じ頭部を上下に動かして「眠くなってきた」状態を表現するとしてもよい。操作履歴管理部184は、操作履歴を参照し、アナログスティック180の動きが「左右交互傾斜」に該当するかを判定する。左右交互傾斜に該当するとき、眼生成部172は眼球モデル250の動きを止め瞼画像190を表示する。また、動作制御部150は、ロボット100の頭部を上下に動かすモーションを選択する。これにより、ロボット100は目を閉じて頭部を上下に動かし、「眠たい」状態を表現する。 For example, when the analog stick 180 is moved alternately left and right within a range of 30% or less of the maximum tilt angle (hereinafter, this movement is referred to as "alternate left and right tilt"), the robot 100 may stop eye movement, close its eyelids, and move its head up and down to express a "sleepy" state. The operation history management unit 184 refers to the operation history and determines whether the movement of the analog stick 180 corresponds to "alternate left and right tilt". When it corresponds to alternating left and right tilt, the eye generation unit 172 stops the movement of the eyeball model 250 and displays the eyelid image 190. The operation control unit 150 also selects a motion that moves the head of the robot 100 up and down. As a result, the robot 100 closes its eyes and moves its head up and down to express a "sleepy" state.

生物が眠たくなるのは安心しているときである。ロボット100をいじり、ロボット100が眠たいという行動表現をすれば、ユーザはロボット100をいじることでロボット100が安心していると感じることができる。状態管理部244は、左右交互傾斜が検出されたとき、安心感を示す感情パラメータを増加させる。安心感を示す感情パラメータは所定値を超過したとき、ロボット100は目を閉じて頭部を上下に動かすとしてもよい。 Living things become sleepy when they feel safe. If the user plays with the robot 100 and the robot 100 makes a behavioral expression that it wants to sleep, the user can feel that the robot 100 is safe by playing with the robot 100. The state management unit 244 increases the emotional parameter indicating a sense of security when the left-right alternating tilt is detected. When the emotional parameter indicating a sense of security exceeds a predetermined value, the robot 100 may close its eyes and move its head up and down.

ユーザがロボット100を横抱きしたときには、ユーザの視界の大部分をロボット100が占めることになる。このとき、ユーザはロボット100の細かな変化に気づきやすくなる。ユーザは、横抱きしたロボット100の鼻109や目110を注視しやすくなる。この状態を検出したとき、例えば、ロボット100のカメラによる撮像画像によりユーザがロボット100を横抱きしている状態を検出したときにおいて、ユーザが鼻109をいじったときに、アナログスティック180の動きと連動して眼が変化すれば、ユーザはロボット100以外のものに意識をとられることなく、ロボット100に没入できる。 When the user holds the robot 100 sideways, the robot 100 occupies most of the user's field of vision. At this time, it becomes easier for the user to notice minute changes in the robot 100. The user can easily gaze at the nose 109 and eyes 110 of the robot 100 held sideways. When this state is detected, for example, when a state in which the user is holding the robot 100 sideways is detected from an image captured by the camera of the robot 100, when the user touches the nose 109, the movement of the analog stick 180 is linked. If the eyes change, the user can become immersed in the robot 100 without being distracted by anything other than the robot 100.

生物は、短期間の刺激には鈍感に反応するが、長期間の刺激にさらされると大きく動きだすことがある。ロボット100においても、ユーザからの接触が続くと徐々に動きを大きなものにしていくことで同様の挙動を表現できる。ユーザが鼻109をいじり続けると、最初は眼だけを動かしていたロボット100は頭部も動かしはじめる。動作制御部150は、変形継続時間が長くなるにつれて、鼻109から遠い箇所を駆動させてもよい。た
とえば、鼻109をいじるとロボット100は眼画像171を動かし、鼻109をいじり続けるとロボット100は頭部をゆっくりと動かす。鼻109を更にいじりつづけると、ロボット100は手をうごかし、鼻109を更にいじりつづけるとロボット100はユーザから離れる方向に移動するとしてもよい。変形継続時間は、アナログスティック180の傾斜が継続している時間として定義されてもよいし、鼻センサのタッチの継続時間として定義されてもよい。
Living organisms respond insensitively to short-term stimuli, but can become active when exposed to long-term stimuli. The robot 100 can also express similar behavior by gradually increasing its movements as the user continues to touch it. As the user continues to play with the nose 109, the robot 100, which was initially moving only its eyes, begins to move its head as well. The motion control unit 150 may drive a portion farther from the nose 109 as the deformation duration becomes longer. For example, when the nose 109 is tampered with, the robot 100 moves the eye image 171, and when the nose 109 continues to be tampered with, the robot 100 slowly moves its head. If the user continues to play with the nose 109, the robot 100 may move its hand, and if the user continues to play with the nose 109, the robot 100 may move away from the user. The deformation duration may be defined as the duration of the tilt of the analog stick 180, or may be defined as the duration of the touch of the nose sensor.

他例として、ユーザが左右交互傾斜を10秒続けた時点で、ロボット100は頭部を上下に動かし、「眠たくなってきてうとうとし始める」状態を表現する。 As another example, when the user continues alternating left and right tilts for 10 seconds, the robot 100 moves its head up and down to express a state of "getting sleepy and beginning to doze off."

続けて、ユーザが左右交互傾斜を20秒以上続けたとする。この場合には、ロボット100は、更に、手106をボディ104に寄せ、前輪102および後輪103をボディ104に収納してもよい。このようにユーザが左右交互傾斜を続けると、ロボット100はまず、眼を動かし、続いて、頭を動かすことで「うとうと」し、さらに両手両足を体に寄せて「眠っている」状態になる。 Next, assume that the user continues to alternately lean left and right for 20 seconds or more. In this case, the robot 100 may further move the hands 106 closer to the body 104 and store the front wheels 102 and rear wheels 103 in the body 104. If the user continues to alternately lean left and right in this way, the robot 100 first moves its eyes, then moves its head, becoming "drowsy," and then moves both its arms and legs closer to its body, becoming "asleep."

ユーザが左右交互傾斜をするとき、アナログスティック180を速く動かすか、ゆっくり動かすかに応じてロボット100はモーションを変化させてもよい。操作履歴管理部184は、アナログスティック180の変形量および変形方向を操作履歴として記録する。操作履歴管理部184は、操作履歴から変形速度(単位時間あたりの変化量)を計算する。 When the user tilts left and right alternately, the robot 100 may change its motion depending on whether the analog stick 180 is moved quickly or slowly. The operation history management unit 184 records the amount and direction of deformation of the analog stick 180 as an operation history. The operation history management unit 184 calculates the deformation speed (amount of change per unit time) from the operation history.

変形継続時間が10秒以上となったときであって、その10秒間の変形速度が所定値以下の場合には、動作制御部150は頭部を上下に動かすモーションを選択する。一方、変形速度が所定値を超える場合には、動作制御部150は頭部を左右に動かすモーションを選択する。このような制御により、ロボット100は頭部を横に振って「いやいや」を表現する。 When the deformation duration is 10 seconds or more and the deformation speed during the 10 seconds is less than or equal to a predetermined value, the motion control unit 150 selects a motion that moves the head up and down. On the other hand, if the deformation speed exceeds the predetermined value, the motion control unit 150 selects a motion that moves the head left and right. Through such control, the robot 100 shakes its head sideways to express "no, no".

第1実施形態のロボット100は、ユーザによる鼻109のいじり方によってモーションを変化させる。ここでいういじり方とは、単にアナログスティック180の変形方向のみを意味するのではない。たとえば、アナログスティック180を小さく動かすか大きく動かすか、すなわち単調か否かや、速く動かすかゆっくり動かすか、すなわち、乱暴にさわるか撫でるようにさわるかといった細かな動かし方をも含む。ユーザのいじり方の細かな違いに応じてロボット100がモーションを変化させれば、ユーザはロボット100に対して飽きずに接することができる。 The robot 100 of the first embodiment changes its motion depending on how the user plays with the nose 109. The manner in which the analog stick 180 is deformed does not simply mean the direction in which the analog stick 180 is deformed. For example, it includes detailed movements such as whether to move the analog stick 180 small or large, that is, whether it is monotonous or not, and whether to move it quickly or slowly, that is, whether to touch it roughly or in a stroking manner. If the robot 100 changes its motion in response to minute differences in how the user manipulates the robot, the user can interact with the robot 100 without getting bored.

ロボット100のユーザに対する親密度や、その時々における感情パラメータの状態等、ロボット100の内部パラメータに応じて、「眠たい」状態に至るまでの時間が変化するとしてもよい。 The time it takes for the robot 100 to reach the "sleepy" state may vary depending on the internal parameters of the robot 100, such as the robot's intimacy with the user and the state of its emotional parameters at any given time.

ロボット100が目を閉じており、移動やモーションを実行しない状態が所定時間以上にわたり継続されているとき(ロボット100が寝ている状態のとき)に、ユーザが鼻109をいじったとする。この状態のときにアナログスティック180の動きを検出すると、ロボット100は目を閉じた眼画像171から開いた眼画像171へ変化させ、移動やモーションを実行するとしてもよい。このように、所定の眼画像171であって、かつ、モーションを実行していないときに、ユーザの接触を検出すると、ロボット100は眼画像171を変化させモーションを実行するとしてもよい。 Suppose that the user fiddles with the nose 109 when the robot 100 has its eyes closed and has not moved or performed a motion for a predetermined period of time (when the robot 100 is sleeping). When the robot 100 detects movement of the analog stick 180 in this state, the robot 100 may change the eye image 171 from a closed eye image 171 to an open eye image 171 and perform a movement or motion. In this way, when the robot 100 detects a user's contact with a predetermined eye image 171 and is not performing a motion, the robot 100 may change the eye image 171 and perform a motion.

親密度に応じてロボット100のモーションを変化させてもよい。例えば、親密度が所定値以上のユーザが鼻109をいじると、ロボット100は頭部をユーザに近づける。一
方、親密度が所定値未満のユーザが同じように鼻109をいじると、ロボット100は頭部をユーザからそむける。このように、動作制御部150は、アナログスティック180の変形態様およびアナログスティック180を操作するユーザの親密度に応じて、複数のモーションからいずれかのモーションを選択してもよい。具体的には、親密度がT1以上のユーザのよる所定の操作入力がなされたときには動作制御部150はモーションM1~M3のいずれかをランダムに選択し、親密度がT1未満のユーザによる同じ操作入力がなされたときには動作制御部150はモーションM4~M6のいずれかをランダムに選択するとしてもよい。
The motion of the robot 100 may be changed according to the intimacy. For example, when a user with an intimacy level equal to or higher than a predetermined value tweaks the nose 109, the robot 100 moves its head closer to the user. On the other hand, when a user with an intimacy level lower than the predetermined value tweaks the nose 109 in the same manner, the robot 100 turns its head away from the user. In this manner, the motion control unit 150 may select one of a plurality of motions according to the deformation state of the analog stick 180 and the intimacy level of the user who operates the analog stick 180. Specifically, when a predetermined operation input is made by a user with an intimacy level equal to or higher than T1, the motion control unit 150 may randomly select one of the motions M1 to M3, and when the same operation input is made by a user with an intimacy level lower than T1, the motion control unit 150 may randomly select one of the motions M4 to M6.

何かに愛着を持たせるためには、人間がそのものに対して関わる時間をできるだけ長くする必要がある。第1実施形態のロボット100はユーザとの親密度によっても挙動が変化する。ユーザが同じようないじり方をしても親密度によってロボット100のモーションが変化するから、ユーザはロボット100に飽きずに接し続けることができる。接し続けることで、ユーザにロボット100に対する愛着を抱かせることができる。また、やさしく接し続けることでロボット100のユーザに対する親密度も高まる。親密度が変化することでロボット100の反応も変化する。鼻109に対する操作、親密度(ロボット100のユーザに対する気持ち)、感情パラメータ(ロボット100の気分)が複雑に影響し合うことでロボット100は状況に応じた多様な行動表現を実現できる。 In order to develop attachment to something, humans need to spend as much time as possible with it. The behavior of the robot 100 of the first embodiment also changes depending on the degree of intimacy with the user. Since the motion of the robot 100 changes depending on the degree of familiarity even if the user tinkers in the same way, the user can continue interacting with the robot 100 without getting bored. By continuing to interact with the robot 100, the user can develop an attachment to the robot 100. Further, by continuing to interact with the user in a gentle manner, the intimacy of the robot 100 with the user increases. As the degree of intimacy changes, the reaction of the robot 100 also changes. The operation on the nose 109, the degree of familiarity (feelings of the robot 100 toward the user), and the emotional parameters (the mood of the robot 100) interact in a complex manner, allowing the robot 100 to realize various behavioral expressions depending on the situation.

ロボット100は、ユーザが鼻109をいじると、最初は眼を動かし、次いで頭部を動かし、さらにボディ104を動かしはじめる。また、ロボット100において、「鼻109のアナログスティック180を動かすと眼が動く」機能(以下、この機能を「瞳連動機能」とよぶことがある)が有効になるのは、ユーザがロボット100を、顔をユーザ側に向けて横抱きしていることを条件としてもよい。 When the user touches the nose 109, the robot 100 first moves its eyes, then its head, and then begins to move its body 104. Furthermore, in the robot 100, the "eyes move when you move the analog stick 180 of the nose 109" function (hereinafter, this function may be referred to as "eye linkage function") is enabled when the user moves the robot 100. , the condition may be that the user is holding the user sideways with his or her face facing toward the user.

ロボット100が横抱きされていないときに、ユーザがアナログスティック180を動かしても、ロボット100の眼は瞬きをするだけであってもよい。ユーザがロボット100を横抱きしていることは、ロボット100の表面の接触を検知するタッチセンサ(図示せず)とロボット100の傾きを検知する加速度センサ(図示せず)によって検知される。認識部156はタッチセンサおよび加速度センサを介してユーザのロボット100への接触を検知する。姿勢判断部(図示せず)は認識部156が検知した検知結果から、ユーザがロボット100へどのような姿勢で接触しているかについて特定する。ユーザがロボット100を横抱きにしていると特定した場合に、姿勢判断部は操作履歴管理部184へ瞳連動機能を有効にするように指示をする。姿勢判断部からの指示を受けた操作履歴管理部184は、瞳連動機能を有効とし、上述のとおりアナログスティック180の動き方に応じた眼の動きを発動させる。このように、ロボット100の抱っこなどの姿勢に応じて、鼻109の操作に対するロボット100の行動特性を変化させてもよい。 Even if the user moves the analog stick 180 when the robot 100 is not held sideways, the eyes of the robot 100 may simply blink. The fact that the user is holding the robot 100 sideways is detected by a touch sensor (not shown) that detects contact with the surface of the robot 100 and an acceleration sensor (not shown) that detects the tilt of the robot 100. The recognition unit 156 detects the user's contact with the robot 100 via a touch sensor and an acceleration sensor. A posture determining section (not shown) identifies in what posture the user is in contact with the robot 100 based on the detection result detected by the recognition section 156. If it is determined that the user is holding the robot 100 sideways, the posture determining unit instructs the operation history management unit 184 to enable the pupil linkage function. The operation history management unit 184, which has received the instruction from the posture determination unit, enables the eye-linked function and activates the eye movement according to the movement of the analog stick 180 as described above. In this way, the behavioral characteristics of the robot 100 with respect to the operation of the nose 109 may be changed depending on the posture of the robot 100 such as hugging.

ユーザとロボット100が所定の位置関係にあること、ユーザの姿勢が所定の姿勢であることなどをタッチセンサ、加速度センサまたは撮像画像に基づいて検出したことを条件として、姿勢判断部が瞳連動機能を有効にしてもよい。例えば、瞳連動機能が有効となるのは、ユーザがロボット100の顔を自身に向かせて横抱きにしているときである。ユーザがロボット100に意識を集中させていないときにロボット100が反応してもユーザがその反応を見逃す可能性が高い。ロボット100がこの姿勢になったときにアナログスティック180と眼の動きを連動させるとすることで、ユーザの意識をロボット100に集中させてロボット100の細かな変化に気づかせることができる。なお、ユーザがロボット100を横抱きにすることを検出したことに代えて、例えばユーザの膝の上で向かい合わせに座る等ユーザの意識をロボット100に集中させてロボット100の細かな変化に気づかせられる姿勢となっていることを検出したことを、瞳連動機能を有効にするための条件としてもよい。また、タッチセンサや加速度センサに限らず、ロボット100の顔
認証技術を用いてユーザとロボット100とが向かい合っているかを検知することを、瞳連動機能を有効にするための条件としてもよい。ロボット100が車輪をボディ104に完全に収納した状態を「抱っこモード」と定義し、「抱っこモード」の状態で、かつ、顔認証技術等によってユーザとロボット100が向かい合っていると特定したときに、瞳連動機能が有効になるとしてもよい。
The posture determination unit may enable the pupil link function under the condition that the user and the robot 100 are in a predetermined positional relationship, the user's posture is a predetermined posture, etc. are detected based on a touch sensor, an acceleration sensor, or an image capture. For example, the pupil link function is enabled when the user holds the robot 100 sideways with the face of the robot 100 facing the user. Even if the robot 100 reacts when the user is not focusing on the robot 100, the user is likely to miss the reaction. By linking the analog stick 180 and the eye movement when the robot 100 is in this posture, the user can focus the user's attention on the robot 100 and notice small changes in the robot 100. Note that instead of detecting that the user holds the robot 100 sideways, the pupil link function may be enabled on the condition that the user is in a posture that allows the user to focus the user's attention on the robot 100 and notice small changes in the robot 100, such as sitting on the user's lap facing each other. Furthermore, the condition for enabling the pupil linkage function may be to detect whether the user and the robot 100 are facing each other using face recognition technology of the robot 100, not limited to a touch sensor or an acceleration sensor. The state in which the robot 100 has its wheels completely stored in the body 104 may be defined as the "hug mode", and the pupil linkage function may be enabled when the robot 100 is in the "hug mode" and it is determined by face recognition technology or the like that the user and the robot 100 are facing each other.

[第2実施形態]
第2実施形態のロボット100は、鼻109が動かされたときの鼻109の軌跡(経路パターン)に応じて眼の動き(眼動作)を変化させる。なお、第2実施形態のロボット100は第1実施形態のロボット100と同じ概観を有する。
[Second embodiment]
The robot 100 of the second embodiment changes the movement of the eyes (eye movement) according to the trajectory (route pattern) of the nose 109 when the nose 109 is moved. Note that the robot 100 of the second embodiment has the same appearance as the robot 100 of the first embodiment.

図12は、第2実施形態におけるロボットシステム300の機能ブロック図である。
第2実施形態におけるロボット100のデータ格納部148は、更に、眼動作格納部174を含む。眼動作格納部174は、アナログスティック180の動き方(変形パターン)とロボットの目の動き(眼動作)とを対応づけて格納する。第2実施形態におけるロボット100のモーション格納部160には、アナログスティック180の変形状態(アナログスティック180が初期位置から動かされている状態)の継続時間(変形継続時間)に応じたモーションも格納されている。
FIG. 12 is a functional block diagram of a robot system 300 according to the second embodiment.
The data storage unit 148 of the robot 100 in the second embodiment further includes an eye movement storage unit 174. The eye movement storage unit 174 stores the movement (deformation pattern) of the analog stick 180 and the eye movement (eye movement) of the robot in association with each other. The motion storage unit 160 of the robot 100 in the second embodiment also stores motions according to the duration (deformation duration) of the deformed state of the analog stick 180 (the state in which the analog stick 180 is moved from the initial position).

第2実施形態におけるロボット100の操作履歴管理部184は、操作検知部182の検知結果を時系列に沿って操作履歴として記憶する。操作履歴管理部184は、記憶している操作履歴と眼動作格納部174に格納される変形パターン(詳細後述)の実行条件とを照合し、操作履歴がいずれかの実行条件と一致したとき、その変形パターンに対応づけられる眼動作を実行するよう眼生成部172へ指示する。眼生成部172は、操作履歴管理部184からの指示を受け、眼動作を実行する。「眼動作」とは、第1実施形態と同様、眼球モデル250の回転による眼画像171の変化を意味する。 The operation history management unit 184 of the robot 100 in the second embodiment stores the detection results of the operation detection unit 182 in chronological order as an operation history. The operation history management unit 184 compares the stored operation history with the execution conditions of the deformation pattern (described in detail later) stored in the eye movement storage unit 174, and when the operation history matches any of the execution conditions, The eye generation unit 172 is instructed to perform the eye movement associated with the deformation pattern. The eye generation unit 172 receives instructions from the operation history management unit 184 and executes eye movements. “Eye movement” means a change in the eye image 171 due to rotation of the eyeball model 250, as in the first embodiment.

第2実施形態におけるロボット100も、鼻109に備えられるアナログスティック180の操作履歴に応じて、眼画像171を変化させる。また、変形継続時間に応じて、モーションを選択し、ロボット100の駆動機構120を制御する。 The robot 100 in the second embodiment also changes the eye image 171 according to the operation history of the analog stick 180 provided in the nose 109. Further, a motion is selected depending on the deformation duration time, and the drive mechanism 120 of the robot 100 is controlled.

図13は、操作履歴に基づくロボット100の眼動作とモーションについて示すフローチャートである。
上述のとおり、操作履歴管理部184は操作検知部182の検知結果を時系列に沿って操作履歴として記憶していく(S10)。操作履歴管理部184は記憶している操作履歴が眼動作格納部174に格納される変形パターンのいずれかに一致するか否かを判定する(S12)。一致する変形パターンが存在する場合には(S12のY)、操作履歴管理部184は操作履歴に基づき変形状態がどのくらい続いているのか逐次判定する(S14)。一致する変形パターンが存在しない場合には(S12のN)、以降の処理をスキップする。変形継続時間が5秒未満の場合には(S14のN)、操作履歴管理部184は眼生成部172へ変形パターンに対応する眼動作の実行を指示する(S16)。一方、変形継続時間が5秒以上になる場合には(S14のY)、操作履歴管理部184は眼生成部172へ閉眼動作の実行を指示し(S18)、動作制御部150へモーション格納部160よりモーションを照会して駆動機構120に実行させる指示を出す(S20)。
FIG. 13 is a flowchart showing the eye movements and motions of the robot 100 based on the operation history.
As described above, the operation history management unit 184 stores the detection results of the operation detection unit 182 in chronological order as an operation history (S10). The operation history management unit 184 judges whether the stored operation history matches any of the deformation patterns stored in the eye movement storage unit 174 (S12). If a matching deformation pattern exists (Y in S12), the operation history management unit 184 sequentially judges how long the deformation state continues based on the operation history (S14). If a matching deformation pattern does not exist (N in S12), the subsequent processing is skipped. If the deformation duration is less than 5 seconds (N in S14), the operation history management unit 184 instructs the eye generation unit 172 to execute an eye movement corresponding to the deformation pattern (S16). On the other hand, if the deformation duration is 5 seconds or more (Y in S14), the operation history management unit 184 instructs the eye generation unit 172 to execute an eye closing movement (S18), and issues an instruction to the operation control unit 150 to inquire about a motion from the motion storage unit 160 and have the drive mechanism 120 execute the motion (S20).

具体的には、ロボット100の操作履歴管理部184は、変形パターンにあらかじめ対応づけられる眼動作を選択し、眼生成部172に実行を指示する。たとえば、アナログスティック180を時計回りに1周させるというあらかじめ定められた実行条件によって定義される変形パターンに、眼をぐるぐる回すという眼動作が対応づけられているとする。この場合において、ユーザがアナログスティック180を時計回りに1周させたとき、ロ
ボット100はぐるぐる眼を回す。動作制御部150はまた、変形継続時間にあらかじめ対応づけられる1以上のモーションからいずれかのモーションを選択する。変形継続時間が5秒以上という条件が成立したとき、この変形継続時間にロボット100の頭部を左右に動かすというモーションが対応づけられているとする。この場合、ユーザがアナログスティック180をたとえば6秒動かし続けたとき、ロボット100は頭部を左右に振る。
Specifically, the operation history management unit 184 of the robot 100 selects an eye motion that is previously associated with a deformation pattern, and instructs the eye generation unit 172 to execute it. For example, it is assumed that an eye movement of spinning the eyes is associated with a deformation pattern defined by a predetermined execution condition of rotating the analog stick 180 once clockwise. In this case, when the user rotates the analog stick 180 once clockwise, the robot 100 rotates its eyes. The motion control unit 150 also selects one of the one or more motions that are previously associated with the deformation duration. When the condition that the deformation duration is 5 seconds or more is satisfied, it is assumed that the motion of moving the head of the robot 100 from side to side is associated with this deformation duration. In this case, when the user continues to move the analog stick 180 for, for example, 6 seconds, the robot 100 shakes its head from side to side.

図14(a)は、眼動作テーブル420のデータ構造図である。図14(b)は、アナログスティック180の変形パターン選択テーブル440のデータ構造図である。
眼動作テーブル420は、アナログスティック180の変形パターンと眼動作の対応関係を定義する。変形パターン選択テーブル440は、各変形パターンがどのようなパラメータで定義されるかを示す。眼動作テーブル420および変形パターン選択テーブル440は、眼動作格納部174に格納される。
FIG. 14A is a data structure diagram of the eye movement table 420. FIG. 14B is a data structure diagram of the deformation pattern selection table 440 of the analog stick 180.
The eye movement table 420 defines the correspondence between the deformation pattern of the analog stick 180 and the eye movement. The modified pattern selection table 440 shows what parameters each modified pattern is defined with. The eye movement table 420 and the deformation pattern selection table 440 are stored in the eye movement storage section 174.

操作履歴はアナログスティック180の変形方向と変形量と対応する時刻が時系列に沿って記録されたものである。操作履歴を参照することで、アナログスティック180が辿った経路(軌跡)を特定できる。たとえば、時計回りに1周するときの軌跡となる経路R1を辿り、かつ、経路R1を辿る動きが1秒以内となるアナログスティック180の動作は、変形パターンA1と定義される。第2実施形態においては、本実施形態の「変形態様」に経路を含む。同様に、初期位置から左右左の順にアナログスティック180を動かし、初期位置へ戻すときの軌跡となる経路R2を辿り、かつ、経路R2を辿る動きが2秒以内となるアナログスティック180の動作は、変形パターンA2と定義される。初期位置から押し込むときの軌跡となる経路R3を辿り、経路R3を辿る動きが0.5秒以内に行われるアナログスティック180の動作は、変形パターンA3と定義される。 The operation history is a record of the time corresponding to the deformation direction and amount of deformation of the analog stick 180 in chronological order. By referring to the operation history, the path (trajectory) followed by the analog stick 180 can be identified. For example, the movement of the analog stick 180 that follows the path R1, which is the trajectory when turning once clockwise, and the movement following the path R1 within one second is defined as deformation pattern A1. In the second embodiment, the "deformation mode" of this embodiment includes the path. Similarly, the movement of the analog stick 180 that moves the analog stick 180 from the initial position to the left and right, follows the path R2, which is the trajectory when returning to the initial position, and the movement following the path R2 within two seconds is defined as deformation pattern A2. The movement of the analog stick 180 that follows the path R3, which is the trajectory when pressing from the initial position, and the movement following the path R3 within 0.5 seconds is defined as deformation pattern A3.

それぞれの変形パターンは眼動作と対応づけられる。例えば、変形パターンA1の場合には、眼生成部172は眼をぐるぐる回す動作(眼動作M1)を実行する。変形パターンA2の場合には、眼生成部172は瞬きをする動作(眼動作M2)を実行する。変形パターンA3の場合には、眼生成部172は両眼を寄せる動作(眼動作M3)を実行する。 Each deformation pattern is associated with an eye movement. For example, in the case of deformation pattern A1, the eye generation unit 172 performs an action of spinning the eyes (eye action M1). In the case of modified pattern A2, the eye generation unit 172 performs a blinking action (eye action M2). In the case of deformation pattern A3, the eye generation unit 172 executes an action of bringing both eyes together (eye action M3).

ユーザがアナログスティック180を動かすと、内部センサ128を介して操作検知部182がアナログスティック180の動きを検知する。動き方は操作検知部182から操作履歴管理部184へと伝わり、操作履歴管理部184は変形継続時間が5秒未満だった場合にその動き方と眼動作格納部174に格納されている変形パターンの実行条件とを比較する(変形継続時間が5秒以上である場合については後述)。5秒以内の操作であって、アナログスティック180の動き方がいずれかの変形パターンの実行条件と一致した場合には、操作履歴管理部184はその変形パターンに対応づけられる眼動作を特定する。操作履歴管理部184は特定した眼動作の実行を眼生成部172へ指示する。眼生成部172は特定された眼動作を実行する。 When the user moves the analog stick 180, the operation detection unit 182 detects the movement of the analog stick 180 via the internal sensor 128. The movement is transmitted from the operation detection unit 182 to the operation history management unit 184, which compares the movement with the execution conditions of the deformation patterns stored in the eye movement storage unit 174 if the deformation duration is less than 5 seconds (the case where the deformation duration is 5 seconds or more will be described later). If the operation lasts less than 5 seconds and the movement of the analog stick 180 matches the execution conditions of any of the deformation patterns, the operation history management unit 184 identifies the eye movement associated with that deformation pattern. The operation history management unit 184 instructs the eye generation unit 172 to execute the identified eye movement. The eye generation unit 172 executes the identified eye movement.

具体的には、たとえば、経路R1を辿るようにユーザがアナログスティック180を動かし、その動きを0.5秒で完了させたとする。この動き方は変形パターンA1の実行条件と一致するから、操作履歴管理部184は変形パターンA1に対応づけられる眼動作M1を特定し、眼生成部172は眼動作M1、すなわち眼をぐるぐる回す動作を行う。 Specifically, for example, assume that the user moves the analog stick 180 to follow path R1 and completes the movement in 0.5 seconds. Since this movement matches the execution condition for deformation pattern A1, the operation history management unit 184 identifies eye movement M1 that corresponds to deformation pattern A1, and the eye generation unit 172 performs eye movement M1, i.e., a movement of rotating the eyes.

第2実施形態におけるロボット100は、眼動作だけでなく、アナログスティック180の変形継続時間に応じてロボット100の挙動が変化する。 In the second embodiment, the behavior of the robot 100 changes not only in response to eye movements but also in response to the duration of deformation of the analog stick 180.

図15はモーション選択テーブル460のデータ構造図である。
モーション選択テーブル460は、変形継続時間とモーションの対応関係を定義する。モーション選択テーブル460は、モーション格納部160に格納される。
FIG. 15 is a diagram showing the data structure of the motion selection table 460.
The motion selection table 460 defines the correspondence between the transformation duration and the motion. The motion selection table 460 is stored in the motion storage unit 160.

上述のとおり、変形継続時間が5秒以上となった場合には、操作履歴管理部184は眼を閉じる動作(閉眼動作)の実行を指示する。眼生成部172は操作履歴管理部184からの指示に基づき、閉眼動作を実行する。
動作制御部150は、モーション格納部160から変形継続時間が5秒以上の場合に対応するモーションであるモーションC1を特定する。モーションC1は、ロボット100の頭部を左右に動かす動きである。ロボット100は、眼を閉じて頭部を左右に振って「顔をそむける」挙動を示す。
As described above, when the deformation duration is 5 seconds or more, the operation history management unit 184 instructs the execution of the action of closing the eyes (eye closing action). The eye generation unit 172 executes the eye closing action based on the instruction from the operation history management unit 184.
The motion control unit 150 identifies motion C1, which is a motion corresponding to a deformation duration of 5 seconds or more, from the motion storage unit 160. Motion C1 is a motion of moving the head of the robot 100 from side to side. The robot 100 closes its eyes and shakes its head from side to side, demonstrating the behavior of "turning its face away."

変形継続時間が15秒以上となった場合には、動作制御部150はモーションC2を選択する。モーションC2はロボット100の手を上げ下げする動きである。動作制御部150はモーションC1とモーションC2を発動させる。すると、ロボット100はモーションC1とモーションC2の動きをし、眼をつむり、頭を振りながら手をばたばたさせる「いやいや」の動きを表現する。 If the deformation duration is 15 seconds or more, the motion control unit 150 selects motion C2. Motion C2 is a movement in which the robot 100 raises and lowers its hand. The motion control unit 150 activates motion C1 and motion C2. Then, the robot 100 moves through motions C1 and C2, and expresses the "no, no" motion of closing its eyes and flapping its hands while shaking its head.

動作制御部150は、変形継続時間が短いうちは鼻109から所定範囲内であるロボット100の頭部までの部位を駆動対象とするモーションを選択する。変形継続時間が長くなると、ロボット100の頭部より外を駆動するモーションも選択対象となる。 When the duration of the transformation is short, the motion control unit 150 selects a motion that drives the parts of the robot 100 from the nose 109 to the head, which is within a predetermined range. When the duration of the transformation is long, motions that drive parts of the robot 100 outside the head are also selected.

第2実施形態におけるロボット100は、鼻109に設けられたアナログスティック180の動きに応じて眼を動かす。アナログスティック180が動かされ続けると、ロボット100は頭を動かし始める。頭が動き始めてもなお、アナログスティック180が動かされ続けると、ロボット100は体を動かし始める。このように、ユーザが鼻109をいじりつづけることでロボット100は眼を動かし、次いで頭や体を動かし始めるから、ユーザは、ロボット100が触られることに飽きてくる、くすぐったく感じ始める等生物のようなふるまいをしていると感じ、ロボット100に対して生物と接している感覚を味わえる。 The robot 100 in the second embodiment moves its eyes in accordance with the movement of an analog stick 180 provided on its nose 109. As analog stick 180 continues to be moved, robot 100 begins to move its head. If the analog stick 180 continues to be moved even after the head starts moving, the robot 100 starts moving its body. In this way, as the user continues to play with the nose 109, the robot 100 begins to move its eyes and then its head and body, causing the robot 100 to become tired of being touched, start to feel ticklish, etc. like a living thing. You can feel that the robot 100 is behaving in a similar manner, and you can experience the feeling that you are interacting with a living creature.

第2実施形態においては、アナログスティック180は鼻109に設置される。コミュニケーションに際しては、人間は相手の顔を見ることが多い。ロボットと触れ合う際においても同様であり、ユーザはロボット100の顔領域107を見ながらロボット100に触ると考えられる。このとき、ユーザの目に触れる箇所、たとえば、顔や鼻などにユーザが無意識にいじりたくなるものがあれば、ユーザは思わず触ってしまう可能性が高い。第2実施形態のロボット100においては鼻109がそれにあたる。無意識にいじりたくなる鼻109のアナログスティック180を動かすとロボット100がその動きに応じた挙動を示すから、ユーザはロボット100に対して生きているかのような印象を受けてより愛着を抱くようになる。 In the second embodiment, the analog stick 180 is installed on the nose 109. When communicating, humans often look at the other person's face. The same is true when interacting with a robot, and it is thought that the user will touch the robot 100 while looking at the facial area 107 of the robot 100. At this time, if there is something that the user unconsciously wants to touch on a part that catches the user's eye, such as the face or nose, the user is likely to touch it unconsciously. In the robot 100 of the second embodiment, this is the nose 109. When the analog stick 180 of the nose 109, which is the part that the user unconsciously wants to touch, is moved, the robot 100 behaves in accordance with the movement, so the user gets the impression that the robot 100 is alive and becomes more attached to it.

図16は、定常時のロボット100の正面図である。図16は、ユーザがロボット100に触れていない定常時に、ロボット100が立っているときの様子を示す図である。
図17は、モーションC1発動時のロボット100の正面図である。図17は、ユーザがロボット100のアナログスティック180を続けて触ったため、ロボット100がモーションC1を発動したときの様子を示す図である。
ユーザがアナログスティック180を動かしていない定常時において、ロボット100の目110は開眼し、正面をじっと見つめる。ユーザがアナログスティック180を動かしつづけ、変形継続時間が5秒を超えると、ロボット100は目110をつむり、頭を背ける。
Fig. 16 is a front view of the robot 100 in a stationary state, in which the robot 100 is standing still and the user is not touching the robot 100.
Fig. 17 is a front view of the robot 100 when motion C1 is activated. Fig. 17 is a diagram showing a state when the robot 100 activates motion C1 as a result of the user continuously touching the analog stick 180 of the robot 100.
In a stationary state where the user is not moving the analog stick 180, the eyes 110 of the robot 100 are open and the robot 100 stares straight ahead. If the user continues to move the analog stick 180 and the deformation duration exceeds 5 seconds, the robot 100 closes the eyes 110 and turns its head away.

以上、実施形態に基づいてロボット100を説明した。
本実施形態のロボット100は、アナログスティック180が鼻109に設けられる。
無意識にいじりやすい鼻109のユーザによる接触に応じてロボット100が反応するため、ユーザはロボット100が自分と意思疎通するかのように感じ、ロボット100への愛着を持ちやすくなる。
The robot 100 has been described above based on the embodiment.
In the robot 100 of this embodiment, an analog stick 180 is provided on the nose 109 .
Since the robot 100 responds to the user's touch of the nose 109, which is easily touched unconsciously, the user feels as if the robot 100 is communicating with the user, and is likely to become attached to the robot 100.

本実施形態のロボット100は、アナログスティック180の動きに応じて眼を変化させる。また、アナログスティック180がいじられる時間が長いと、ロボット100は頭や体を動かし始める。ユーザがアナログスティック180を少しだけいじると、ロボット100は眼を動かしてユーザに興味を示すそぶりをする。いじり続けると、ロボット100は頭を動かしてユーザの手を避けるそぶりをし、「やめて」という気持ちを表現する。あまりにかまいすぎるとロボット100が手をばたばたさせ始めて「いやいや」を表現し始める。本実施形態のロボット100はアナログスティック180の動きだけでなくその継続時間によっても表情や行動を変化させていく。ユーザはロボット100が「飽きた」「くすぐったい」「うっとうしい」「もっとやって」といった感情(きまぐれさ)を有しているように感じ、また、ロボット100に生物的な挙動を感じることができる。 The robot 100 of this embodiment changes its eyes according to the movement of the analog stick 180. Furthermore, if the analog stick 180 is tampered with for a long time, the robot 100 begins to move its head and body. When the user slightly fiddles with the analog stick 180, the robot 100 moves its eyes to appear interested in the user. If the user continues to play with the robot 100, the robot 100 moves its head and pretends to avoid the user's hand, expressing the feeling of "stop". If the robot 100 is too picky, it will start flapping its hands to express "No, no!". The robot 100 of this embodiment changes its expression and behavior not only by the movement of the analog stick 180 but also by the duration of the movement. The user feels that the robot 100 has emotions such as "bored," "ticklish," "annoying," and "do more," and can sense that the robot 100 behaves in a biological manner.

本実施形態のロボット100は、鼻109に設けられたアナログスティック180をユーザがいじると、眼が変化する。また、アナログスティック180をいじる時間が長いと、ロボット100は頭を動かし始め、さらにいじりつづけると体を動かし始める。鼻109をいじるとまずは鼻109の近傍にある顔領域107に位置する部位においてロボット100の挙動が示されるから、ユーザはロボット100の反応を見逃すことがない。いじり続けると顔領域107内だけでなく所定範囲内であるロボット100の頭部内が動きはじめ、更にいじり続けるとロボット100の頭部より外側(所定範囲外)においても挙動が示される。ユーザは、鼻109のいじられ方やいじられる時間によって変化していくロボット100の表情や行動を見て楽しめる。 In the robot 100 of this embodiment, when the user plays with an analog stick 180 provided on the nose 109, the eyes change. Furthermore, if the analog stick 180 is played with for a long time, the robot 100 starts to move its head, and if the analog stick 180 is played with for a long time, it starts to move its body. When the user tampers with the nose 109, the behavior of the robot 100 is first shown in the area located in the face area 107 near the nose 109, so the user does not miss the reaction of the robot 100. If you continue to play with it, not only the face area 107 but also the inside of the head of the robot 100 within a predetermined range will begin to move, and if you continue to play with it further, the parts outside the head of the robot 100 (outside the predetermined range) will also start to move. The user can enjoy watching the facial expressions and behavior of the robot 100 that change depending on how the nose 109 is played with and the amount of time the nose 109 is played with.

本実施形態のロボット100は、鼻109に設けられたアナログスティック180の動きに応じて眼を変化させる。変形例としては、撮像デバイスによってユーザを撮像し、モーションセンサによって撮像画像からユーザの動きを検出したのちに、そのユーザの動きに応じて眼を変化させるとしてもよい。ただし、モーションセンサ等の画像処理を伴ってユーザの動きを検出する場合に比べ、アナログスティック180の動きを検出する場合には、ロボット100へのユーザの接触からロボット100の挙動までの時間を短くできる。また、ロボット100へのユーザの接触を確実に検出できる。 The robot 100 of this embodiment changes its eyes in response to the movement of the analog stick 180 provided on the nose 109. As a modified example, an image of the user may be captured by an imaging device, the user's movement may be detected from the captured image by a motion sensor, and the eyes may then be changed in response to the user's movement. However, compared to detecting the user's movement through image processing such as a motion sensor, detecting the movement of the analog stick 180 can shorten the time from the user's contact with the robot 100 to the behavior of the robot 100. Furthermore, the user's contact with the robot 100 can be reliably detected.

本実施形態においては、ロボット100本体にアナログスティック180(操作デバイス)が直接設けられる。変形例においては、リモートコントローラ等の操作デバイスをロボット100本体とは別に備えてもよい。ただし、ロボット100本体に操作デバイスが直接設けられる場合には、ユーザはロボット100に直接触れることとなる。よって、操作デバイスがロボット100本体とは別に備える場合とくらべ、ユーザが直感的に操作や制御をしやすい。 In this embodiment, an analog stick 180 (operation device) is provided directly on the body of the robot 100. In a modified example, an operation device such as a remote controller may be provided separately from the body of the robot 100. However, when the operation device is provided directly on the body of the robot 100, the user directly touches the robot 100. Therefore, it is easier for the user to intuitively operate and control the robot 100 compared to when the operation device is provided separately from the body of the robot 100.

なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。
以下、他の実施形態について説明する。
It should be noted that the present invention is not limited to the above-described embodiments and modified examples, and can be embodied by modifying the constituent elements without departing from the scope of the invention. Various inventions may be formed by appropriately combining a plurality of components disclosed in the above embodiments and modified examples. Furthermore, some components may be deleted from all the components shown in the above embodiments and modified examples.
Other embodiments will be described below.

実施形態においては、アナログスティック180の動き(変形)を操作検知部182が検知し、検知結果に応じてロボット100の挙動を決定した。操作検知部182によって検知されるものはこれに限らず、ロボット100本体の変形またはロボット100本体に設けられるデバイスの動きであればよい。検知される変形や動きは、たとえば、ロボット
100の首をゆする動き、手を握る動き、体をゆらす動き、ユーザがつねることによる頬の変形など物理的な動作であればよい。また、これらの動作を検知する手段は、たとえばジョイスティック、トラックボール等による物理的な動作を検知する手段であればよい。可撓性を有する外皮の内側にアナログスティック180等を配置してロボット100の表面にこれらの検知手段が露出しない態様としてもよい。
In the embodiment, the operation detection unit 182 detected the movement (deformation) of the analog stick 180, and determined the behavior of the robot 100 according to the detection result. What is detected by the operation detection unit 182 is not limited to this, and may be any deformation of the robot 100 body or movement of a device provided on the robot 100 body. The detected deformation or movement may be a physical movement such as a movement of the robot 100 shaking its neck, a movement of grasping a hand, a movement of shaking its body, or a deformation of cheeks caused by pinching by the user. Further, the means for detecting these motions may be any means for detecting physical motions such as a joystick, a trackball, or the like. It is also possible to arrange the analog stick 180 and the like inside the flexible outer skin so that these detection means are not exposed on the surface of the robot 100.

実施形態においては、操作検知部182によって接触が検知される箇所が鼻109であるとした。接触が検知される箇所は鼻109に限られない。例えば、動物でいうところの肉球等丸みを帯びた箇所や、しっぽのように突出している箇所、頬のように変形が想定される箇所等接触を検知できる箇所であればどこでもよい。好ましくは、ユーザが無意識にいじりたく箇所である。 In the embodiment, the nose 109 is the location where the operation detection unit 182 detects contact. The location where contact is detected is not limited to the nose 109. For example, it may be any part where contact can be detected, such as a rounded part such as an animal's paw pad, a protruding part such as a tail, or a part where deformation is expected such as a cheek. Preferably, it is a location that the user would like to tinker with unconsciously.

実施形態においては、鼻109をいじられると眼が動くとした。ロボット100の動作箇所は眼に限らず、例えば首、しっぽ、手等の可動な箇所であればどこでもよい。また、操作検知部182によって接触を検知される箇所と動作箇所は近くても遠くてもよく、たとえばしっぽをいじると鼻が動くとしてもよい。 In the embodiment, it is assumed that when the nose 109 is touched, the eyes move. The moving part of the robot 100 is not limited to the eyes, but may be any movable part such as the neck, tail, hands, etc. Further, the location where the touch is detected by the operation detection unit 182 and the location of the action may be close or far apart, for example, the nose may move when the tail is touched.

実施形態においては、ロボット100の頭部を所定範囲とし、鼻109がいじられる時間が5秒以上15秒未満であればロボット100の頭部のみを、15秒以上であればロボット100の頭部だけでなく、所定範囲外の部位である手106も駆動した。ロボット100本体の変形またはロボット100本体に設けられるデバイスの動きに応じて駆動する箇所を定める「所定範囲」は、ロボット100の頭部に限られない。例えば、ロボット100の顔領域107でもよいし、ロボット100の足以外の部分としてもよい。ロボット100の駆動機構によって動かせる箇所のうち適宜範囲を設定すればよい。 In the embodiment, the head of the robot 100 is set as a predetermined range, and if the nose 109 is touched for 5 seconds or more and less than 15 seconds, only the head of the robot 100 is touched, and if it is 15 seconds or more, the head of the robot 100 is touched. In addition, the hand 106, which is a part outside the predetermined range, was also moved. The "predetermined range" that defines the location to be driven according to the deformation of the robot 100 body or the movement of a device provided on the robot 100 body is not limited to the head of the robot 100. For example, it may be the face area 107 of the robot 100, or it may be a part of the robot 100 other than the legs. It is sufficient to set an appropriate range among the parts that can be moved by the drive mechanism of the robot 100.

また、各モーションを発動させる変形継続時間の条件は5秒以上や15秒以上に限らず、例えば1秒以下や1分以上など、様々な時間に設定可能である。 In addition, the transformation duration conditions for activating each motion are not limited to 5 seconds or more or 15 seconds or more, but can be set to various times, such as 1 second or less or 1 minute or more.

実施形態においては、鼻109を継続的にいじられている時間(変形継続時間)に応じてモーションを変化させた。変形継続時間に限らず、例えば経路や変形速度などのロボット100本体の変形態様やロボット100に備えられたデバイスの動きなどをモーションを選択するための条件として採用してよい。 In the embodiment, the motion is changed according to the time period during which the nose 109 is continuously being played with (deformation duration time). Not only the deformation duration time, but also the deformation mode of the robot 100 body such as the path and deformation speed, the movement of a device provided in the robot 100, etc. may be used as conditions for selecting a motion.

変形量の累積値、変形継続時間の累積値、またはロボット100にかかる圧力に応じてロボット100の眼を変化させたり動きを変化させるとしてもよい。たとえば鼻109を弱い力でいじる場合には、眼の動き、頭の動き、体全体の動きへの遷移の仕方が緩やかなため、長時間眼の変化だけとしてもよい。強い力でいじる場合には短時間で体全体の動きへと遷移するとしてもよい。これにより、いじり方に応じたロボット100の挙動がよりバリエーション豊かとなる。
単に撫でる、叩くという触り方とは異なり、本発明のロボット100は「変形」を伴う触り方に応答する。いいかえれば、電気的な接触検出に限らず、物理的な「変形」として接触を検出している。ユーザによっていじる強さや変形量、接触面積等「いじり方」は様々である。ユーザによって異なる「いじり方」に応じてロボット100が表現豊かに反応すれば、ユーザはロボット100に対して愛着を抱くようになる。
The eyes or movements of the robot 100 may be changed depending on the cumulative value of the deformation amount, the cumulative value of the deformation duration, or the pressure applied to the robot 100. For example, when touching the nose 109 with a weak force, the transition to eye movement, head movement, and whole body movement is gradual, so it may be sufficient to only change the eyes for a long time. When fiddling with a strong force, it may be possible to transition to a movement of the entire body in a short period of time. As a result, the behavior of the robot 100 can be more varied depending on how it is manipulated.
Unlike a touch such as simply stroking or hitting, the robot 100 of the present invention responds to a touch that involves "deformation." In other words, contact is detected not only by electrical contact detection but also by physical "deformation". The ``methods'' of tampering, such as the strength of tampering, the amount of deformation, and the contact area, vary depending on the user. If the robot 100 responds in a richly expressive manner according to the "touching methods" that differ from user to user, the user will become attached to the robot 100.

実施形態においては、アナログスティック180の動きに応じてロボット100の挙動が決定された。ロボット100の挙動を決定する契機はこれによらず、例えばユーザが無意識にいじりたくなると想定される箇所にセンサを設ける等でもよい。また、ロボット100本体に複数のセンサを設けてもよい。複数のセンサを設ける場合には、そのうちの1つをアナログスティック180の動きを検出するセンサとしてもよい。また、全て同程度
の検出精度のセンサとしてもよいし、異なる検出精度のセンサとしてもよい。異なる検出精度のセンサを複数設ける場合には、ユーザのいじりたくなると想定される箇所により高い検出精度のセンサを設けてもよい。この場合の検出精度はユーザがロボット100本体に対する接触地点を変化させるときの変化量に対する検出感度とする。以下、ロボット100本体に設けられたいずれかのセンサによってユーザの接触が検出されることを「ユーザがロボット100に触れる」または「ユーザがロボット100に接触する」ということがある。
In the embodiment, the behavior of the robot 100 is determined according to the movement of the analog stick 180. The trigger for determining the behavior of the robot 100 is not limited to this, and for example, a sensor may be provided at a location where it is expected that the user will unconsciously want to touch it. In addition, multiple sensors may be provided on the robot 100 body. When multiple sensors are provided, one of them may be a sensor that detects the movement of the analog stick 180. In addition, all of the sensors may have the same detection accuracy, or may have different detection accuracy. When multiple sensors with different detection accuracy are provided, a sensor with higher detection accuracy may be provided at a location where it is expected that the user will want to touch it. In this case, the detection accuracy is the detection sensitivity to the amount of change when the user changes the contact point on the robot 100 body. Hereinafter, the detection of the user's contact by any of the sensors provided on the robot 100 body may be referred to as "the user touches the robot 100" or "the user contacts the robot 100".

鼻109以外に設けられるセンサの例として、ロボット100の表面のうち目110を挟む2つの位置に対するユーザの接触を検出するセンサが挙げられる。このセンサによってユーザの接触が検出された場合に、眼生成部172は瞼画像190を下げる(閉眼する)。これにより、目110が覆われたので目をつぶるというロボット100の行動を表現できる。 An example of a sensor provided other than the nose 109 is a sensor that detects the user's contact with two positions on the surface of the robot 100 that sandwich the eye 110. When the user's contact is detected by this sensor, the eye generation unit 172 lowers the eyelid image 190 (closes the eye). This makes it possible to express the behavior of the robot 100 closing its eyes because the eye 110 is covered.

ロボット100本体に複数のセンサを設ける場合には、いずれかのセンサにおいてユーザの接触を検出すると、眼生成部172はロボット100の仮想視線をその接触箇所へ向けたような眼画像171を生成するとしてもよい。以下、所定箇所に仮想視線を向けた眼画像171を眼生成部172が所定時間にわたってモニター170に表示することを、「ロボット100が所定箇所を注視する」ということがある。例えば、ユーザがロボット100の手に触れると、ロボット100は手を注視する。あるいは、ユーザがロボット100のお腹に触れると、ロボット100はお腹を注視する。また、ユーザの接触が所定時間を超える場合には、ロボット100はその接触箇所を含む部分を動かすとしてもよい。例えば、ユーザがロボット100の手に触れている時間が5秒を超える場合には、ロボット100はユーザの手からロボット100の手を離そうとするモーションを行う。また、ユーザがロボット100のお腹に触れている時間が10秒を超える場合には、ロボット100はお腹を左右に振るモーションを行う。このように、ロボット100の複数の箇所に設けられる複数のセンサのいずれかにおいてユーザの接触を検出したとき、眼生成部172は接触箇所を注視している眼画像171を生成する。また、いずれかのセンサにおけるユーザの接触の検出時間が所定時間を超えるとき、動作制御部150は接触箇所を含む部分を動かすモーションを実行する。これにより、ユーザは、触られた部分をじっと見た後身をよじるという生物的な挙動をロボット100が示していると感じることができる。 In the case where multiple sensors are provided on the robot 100 body, when any of the sensors detects the user's contact, the eye generation unit 172 may generate an eye image 171 in which the virtual line of sight of the robot 100 is directed toward the contact point. Hereinafter, the eye generation unit 172 may display the eye image 171 with the virtual line of sight directed toward a specific point on the monitor 170 for a specific period of time, which may be referred to as "the robot 100 gazing at a specific point." For example, when the user touches the hand of the robot 100, the robot 100 gazes at the hand. Alternatively, when the user touches the stomach of the robot 100, the robot 100 gazes at the stomach. In addition, when the user's contact exceeds a specific period of time, the robot 100 may move a part including the contact point. For example, when the user touches the hand of the robot 100 for more than 5 seconds, the robot 100 makes a motion of trying to remove the hand of the robot 100 from the user's hand. In addition, when the user touches the stomach of the robot 100 for more than 10 seconds, the robot 100 makes a motion of shaking its stomach from side to side. In this way, when any of the multiple sensors provided at multiple locations on the robot 100 detects a user's touch, the eye generation unit 172 generates an eye image 171 gazing at the contact point. Furthermore, when the detection time of the user's touch at any of the sensors exceeds a predetermined time, the operation control unit 150 executes a motion to move the part including the contact point. This allows the user to feel that the robot 100 is exhibiting a biological behavior of gazing intently at the touched part and then twisting its body.

ロボット100本体の全域にわたって高精度なセンサを取り付けると、消費電力が大きくなってしまう。一部のセンサのみ高精度とすることにより、消費電力を抑えられる。また、ユーザのいじりたくなると想定される箇所のセンサのみ高精度にしてユーザの小さな動きをも検出し、その動きに対応するロボット100の挙動を示すとする。こうすることで、「体の他の部分に触れても反応が薄いが、ある点での接触については敏感に感じ取る」という生き物の特性を表現できる。また、ユーザが少し触れただけでもその接触を検出してロボット100が反応を返すから、ユーザは、ロボット100が自分の少しの動きにも反応してくれると感じ、ロボット100とコミュニケーションがとれている感覚を味わえる。なお、検出精度はユーザがロボット100本体に対する接触地点を変化させるときの変化量に対する検出感度に限らず、例えば接触の強さ、接触範囲等を検出する能力であってもよい。また、高精度なセンサとして物理的に動くセンサ、低精度なセンサとして静電容量式のタッチセンサを採用したり、センサの種類は同じであるが検出精度を異ならせたりしてもよい。センサは様々な種類のものを採用でき、上述したセンサ以外にもたとえば、センサがユーザの接触を検知すると力覚フィードバックを行うものであってもよい。 If highly accurate sensors are attached throughout the entire body of the robot 100, power consumption will increase. By making only some of the sensors highly accurate, power consumption can be reduced. Further, it is assumed that only the sensors at the locations where the user is expected to want to tamper are used with high accuracy to detect even small movements of the user, and the behavior of the robot 100 corresponding to the movements is shown. By doing this, it is possible to express the characteristic of living creatures that ``they have a weak reaction to touching other parts of their body, but are sensitive to touch at a certain point.'' In addition, even if the user makes a slight touch, the robot 100 detects the contact and responds, so the user feels that the robot 100 responds to even the slightest movement of the user, and is able to communicate with the robot 100. You can feel the feeling of being there. Note that the detection accuracy is not limited to the detection sensitivity to the amount of change when the user changes the point of contact with the robot 100 body, but may be the ability to detect the strength of contact, the range of contact, etc., for example. Furthermore, a physically moving sensor may be used as a high-precision sensor, a capacitive touch sensor may be used as a low-precision sensor, or the types of sensors may be the same but the detection accuracy may be different. Various types of sensors can be employed, and in addition to the above-mentioned sensors, for example, a sensor that provides haptic feedback when the sensor detects a user's touch may be used.

実施形態においては、ロボット100の眼動作として、眼をぐるぐる回す動作である眼動作M1、瞬きをする動作である眼動作M2、両眼を寄せる動作である眼動作M3を示した。ロボット100が示す眼動作はこれらに限らない。たとえば、視線をそらす動作、目
を見開く動作、目を細める動作等、ロボット100が実現可能な動作であればよい。
In the embodiment, the eye movements of the robot 100 are shown as eye movement M1, which is a movement of rotating the eyes, eye movement M2, which is a blinking movement, and eye movement M3, which is a movement of bringing both eyes together. The eye movements exhibited by the robot 100 are not limited to these. For example, any action that can be performed by the robot 100 may be used, such as an action of averting the line of sight, an action of opening the eyes, an action of squinting the eyes, or the like.

実施形態においては、ロボット100のモーションとして、頭部を左右に動かすモーションであるモーションC1と手を上下に動かすモーションであるモーションC2を示した。ロボット100が示すモーションはこれらに限らない。たとえば、頭部を縦に動かして「うなずく」、頭部を傾けて「首をかしげる」、手を体の後ろにひっこめる、体を前に傾けて「おじぎをする」、足を動かして「後ずさる」、動きをとめて「無視する」等、ロボット100が実現可能な動きであればよい。 In the embodiment, the motions of the robot 100 are shown as motion C1, which is a motion that moves the head left and right, and motion C2, which is a motion that moves the hand up and down. The motions exhibited by the robot 100 are not limited to these. For example, move your head vertically to "nod," tilt your head to "crawl," tuck your hands behind your body, lean your body forward to "bow," and move your legs to "bow." Any movement that can be realized by the robot 100 may be used, such as ``backing away'' or stopping movement and ``ignoring''.

実施形態においては、鼻109が目110や顔領域107より小さいとした。鼻109の大きさはこれに限らず、目110と同程度かより大きいとしてもよい。また、目110や顔領域107等各部の大小関係についても実施形態に拘束されることはなく、適宜設計変更可能である。 In the embodiment, the nose 109 is smaller than the eyes 110 and the face region 107. The size of the nose 109 is not limited to this, and it may be the same size as or larger than the eyes 110. Furthermore, the size relationship of each part such as the eyes 110 and the face region 107 is not limited to the embodiment, and can be changed in design as appropriate.

本発明は、ロボット100の鼻109をユーザがいじると、そのいじり方に応じてロボット100が反応を返す。ユーザが無意識にいじる可能性の高い箇所の変化を検知できるセンサを設ける。その箇所をユーザがいじったときにそのいじり方によってロボット100の目が動き、表情が変化し、体が動き出せば、ユーザはロボット100に対する愛着を抱くようになる。いじり方によってロボット100の反応が変化すると、ユーザがロボット100に触れる時間は長くなる。ユーザのロボット100への接触時間を長くできれば、ロボット100に対するユーザの愛着をいっそう深いものにできる。なお、鼻をいじられると、それに連動して眼を動かす動物は存在しない。人間であってもそうした行為はしない。仮にしたとしても、他人に鼻をいじられて、そのいじる方向に連動して眼を動かすことは難しい。ロボット100だからこそ可能な、ひとつの表現と言える。
In the present invention, when a user tampers with the nose 109 of the robot 100, the robot 100 responds in accordance with the way the user tampers with the nose 109. A sensor is provided that can detect changes in areas that are likely to be touched unconsciously by the user. When the user tampers with that part, if the eyes of the robot 100 move, the facial expression changes, and the body begins to move depending on how the user tampers with the area, the user will develop an attachment to the robot 100. If the reaction of the robot 100 changes depending on how the user manipulates the robot 100, the time the user spends touching the robot 100 becomes longer. If the user's contact time with the robot 100 can be extended, the user's attachment to the robot 100 can be deepened. Furthermore, there are no animals that move their eyes when their nose is touched. Even humans don't do that kind of thing. Even if you did, it would be difficult to move your eyes in the same direction as someone else's nose. It can be said that this is a form of expression that is only possible with Robot 100.

Claims (15)

ロボット本体の変形を検知する操作検知部と、
眼画像を生成し、ロボットの顔領域に前記眼画像を表示させる眼生成部と、を備え、
前記眼生成部は、前記ロボット本体の変形が検知されたとき、変形態様に応じて前記眼画像を変化させることを特徴とするロボット。
an operation detection unit that detects deformation of the robot body;
an eye generation unit that generates an eye image and displays the eye image in a face area of the robot;
The robot is characterized in that, when a deformation of the robot main body is detected, the eye generation unit changes the eye image according to the deformation state.
前記眼生成部は、前記変形態様として、変形方向、変形量および変形速度のうち1以上に基づいて前記眼画像を変化させることを特徴とする請求項1に記載のロボット。 The robot according to claim 1, wherein the eye generation unit changes the eye image based on one or more of a deformation direction, a deformation amount, and a deformation speed as the deformation mode. ロボットのモーションを選択する動作制御部を備え、
前記動作制御部は、前記眼画像の変化が開始された後において、前記ロボット本体の変形態様が所定の条件を満たしたときには、変形態様に応じたモーションを選択することを特徴とする請求項1または2に記載のロボット。
Equipped with a motion control unit that selects the robot's motion,
1 . The motion control unit selects a motion corresponding to the deformation state of the robot body when the deformation state of the robot body satisfies a predetermined condition after the change of the eye image is started. Or the robot described in 2.
前記所定の条件が満たされたときに選択されるモーションは、ロボットの頭部を駆動させるモーションであることを特徴とする請求項3に記載のロボット。 The robot according to claim 3, characterized in that the motion selected when the predetermined condition is met is a motion that drives the head of the robot. 時間経過にともなうロボット本体の変形状態を操作履歴として記録する操作履歴管理部、を備え、
前記眼生成部は、前記操作履歴に応じて前記眼画像を変化させることを特徴とする請求項1~4のいずれかに記載のロボット。
Equipped with an operation history management unit that records the deformation state of the robot body over time as an operation history,
The robot according to claim 1, wherein the eye generation unit changes the eye image according to the operation history.
ロボットのモーションを選択する動作制御部と、
時間経過にともなうロボット本体の変形状態を操作履歴として記録する操作履歴管理部と、を備え、
前記動作制御部は、前記操作履歴に応じてモーションを変化させることを特徴とする請求項1~5のいずれかに記載のロボット。
a motion control unit that selects the motion of the robot;
an operation history management unit that records the deformation state of the robot body over time as an operation history;
6. The robot according to claim 1, wherein the motion control section changes the motion according to the operation history.
前記操作履歴は、変形状態の継続時間を含むことを特徴とする請求項5または6に記載のロボット。 The robot according to claim 5 or 6, wherein the operation history includes a duration of the deformed state. 前記操作検知部は、ロボット本体のうち顔領域に設けられた凸部の変形を検知することを特徴とする請求項1~7のいずれかに記載のロボット。 The robot according to any one of claims 1 to 7, characterized in that the operation detection unit detects deformation of a protrusion provided in a face area of the robot body. 前記凸部は、ロボット本体の鼻に相当する部分に設置される突起であり、
前記操作検知部は、前記突起の変形を検知することを特徴とする請求項8に記載のロボット。
the protrusion is a protrusion provided on a portion of the robot body that corresponds to a nose,
The robot according to claim 8 , wherein the operation detection unit detects a deformation of the protrusion.
前記ロボットの姿勢を特定する姿勢判断部を備え、
前記姿勢判断部がユーザによるロボットの抱き上げを特定することを条件として、前記眼生成部は前記変形態様に応じて前記眼画像を変化させることを特徴とする請求項1~9のいずれかに記載のロボット。
a posture determination unit for determining a posture of the robot;
The robot according to any one of claims 1 to 9, characterized in that, on condition that the posture determination unit identifies that the robot is being picked up by a user, the eye generation unit changes the eye image in accordance with the deformation state.
ロボットのモーションを選択する動作制御部と、
前記選択されたモーションを実行する駆動機構と、
ロボット本体に設けられるデバイスの動きを検知する操作検知部と、を備え、
前記動作制御部は、前記デバイスの動きが検知されたとき、前記デバイスから所定範囲内を駆動対象とするモーションのうち、前記デバイスの動きに応じたモーションを選択することを特徴とするロボット。
A motion control unit that selects the motion of the robot;
a drive mechanism for performing the selected motion;
An operation detection unit that detects a movement of a device provided on the robot body,
The robot is characterized in that, when movement of the device is detected, the operation control unit selects a motion corresponding to the movement of the device from among motions that are to be driven within a predetermined range of the device.
前記動作制御部は、前記デバイスの動きが検知されたとき前記所定範囲内を駆動対象として前記ロボットの一部を駆動し、前記一部の駆動開始後において前記デバイスの動きが所定の条件を満たしたときには、さらに、前記所定範囲の外も駆動対象とすることを特徴とする請求項11に記載のロボット。 The motion control unit drives a part of the robot within the predetermined range when the movement of the device is detected, and the movement of the device satisfies a predetermined condition after starting to drive the part. 12. The robot according to claim 11, wherein the robot further includes a drive target outside the predetermined range. ロボットの体表面に設置され、ユーザの接触を検出する第1のセンサと、
前記ロボットの顔領域に設けられ、ユーザの接触を前記第1のセンサより高精度に検出する第2のセンサと、
眼画像を生成し、前記顔領域に前記眼画像を表示させる眼生成部と、を備え、
前記眼生成部は、前記第2のセンサにおける検出値の変化量に連動して前記眼画像を変化させることを特徴とするロボット。
a first sensor that is installed on a body surface of the robot and detects a touch by a user;
a second sensor provided in a face region of the robot and configured to detect a user's contact with the robot with higher accuracy than the first sensor;
an eye generating unit that generates an eye image and displays the eye image in the face area;
The robot is characterized in that the eye generation unit changes the eye image in accordance with an amount of change in the detection value of the second sensor.
前記第2のセンサは、前記第1のセンサより狭い領域に設けられ、ユーザの接触にともない生じる前記ロボットの体表面の変形量を検出することを特徴とする請求項13に記載のロボット。 14. The robot according to claim 13, wherein the second sensor is provided in a narrower area than the first sensor and detects the amount of deformation of the robot's body surface caused by a user's touch. 鼻を模した凸部と、
瞳を動かすことで視線を表現する眼生成部と、を備え、
前記眼生成部は、前記凸部の変形状態に連動して、前記瞳を変化させることを特徴とするロボット。
A protruding part that resembles a nose,
An eye generating unit that expresses a line of sight by moving a pupil,
The robot is characterized in that the eye generation unit changes the pupil in accordance with the deformation state of the convex portion.
JP2024005682A 2018-07-02 2024-01-17 robot Pending JP2024045247A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018125815 2018-07-02
JP2018125815 2018-07-02
PCT/JP2019/026249 WO2020009098A1 (en) 2018-07-02 2019-07-02 Robot
JP2020529004A JPWO2020009098A1 (en) 2018-07-02 2019-07-02 robot

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020529004A Division JPWO2020009098A1 (en) 2018-07-02 2019-07-02 robot

Publications (1)

Publication Number Publication Date
JP2024045247A true JP2024045247A (en) 2024-04-02

Family

ID=69060406

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020529004A Pending JPWO2020009098A1 (en) 2018-07-02 2019-07-02 robot
JP2024005682A Pending JP2024045247A (en) 2018-07-02 2024-01-17 robot

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020529004A Pending JPWO2020009098A1 (en) 2018-07-02 2019-07-02 robot

Country Status (2)

Country Link
JP (2) JPWO2020009098A1 (en)
WO (1) WO2020009098A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006198017A (en) * 2005-01-18 2006-08-03 Sega Toys:Kk Robot toy
JP2012239557A (en) * 2011-05-17 2012-12-10 Shain:Kk Robot toy
US9375845B1 (en) * 2014-09-30 2016-06-28 Sprint Communications Company, L.P. Synchronizing robot motion with social interaction
JP6467674B2 (en) * 2016-07-20 2019-02-13 Groove X株式会社 Autonomous robot that understands skinship
CN110024000B (en) * 2016-11-24 2023-12-26 Groove X 株式会社 Behavior autonomous robot for changing pupil

Also Published As

Publication number Publication date
WO2020009098A1 (en) 2020-01-09
JPWO2020009098A1 (en) 2021-08-05

Similar Documents

Publication Publication Date Title
US11285614B2 (en) Autonomously acting robot that understands physical contact
US20230249355A1 (en) Autonomously acting robot that changes pupil image of the autonomously acting robot
US11498222B2 (en) Autonomously acting robot that stares at companion
US11809192B2 (en) Autonomously acting robot whose activity amount is controlled
JP7236142B2 (en) Autonomous action robot
US11712796B2 (en) Robot that acts comically, and structure thereof
JP7420387B2 (en) robot wearing costume
JP2024045247A (en) robot

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240216