JPWO2020009098A1 - robot - Google Patents

robot Download PDF

Info

Publication number
JPWO2020009098A1
JPWO2020009098A1 JP2020529004A JP2020529004A JPWO2020009098A1 JP WO2020009098 A1 JPWO2020009098 A1 JP WO2020009098A1 JP 2020529004 A JP2020529004 A JP 2020529004A JP 2020529004 A JP2020529004 A JP 2020529004A JP WO2020009098 A1 JPWO2020009098 A1 JP WO2020009098A1
Authority
JP
Japan
Prior art keywords
robot
motion
user
eye
deformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020529004A
Other languages
Japanese (ja)
Other versions
JPWO2020009098A5 (en
Inventor
要 林
要 林
俊介 大坪
俊介 大坪
直人 吉岡
直人 吉岡
泰士 深谷
泰士 深谷
崇光 生駒
崇光 生駒
大二朗 加藤
大二朗 加藤
孝太 根津
孝太 根津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of JPWO2020009098A1 publication Critical patent/JPWO2020009098A1/en
Publication of JPWO2020009098A5 publication Critical patent/JPWO2020009098A5/ja
Priority to JP2024005682A priority Critical patent/JP2024045247A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

ロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体の変形を検知する操作検知部と、眼画像を生成し、ロボットの顔領域に眼画像を表示させる眼生成部とを備える。The robot generates an eye image, an motion control unit that selects the motion of the robot, a drive mechanism that executes the selected motion, an operation detection unit that detects deformation of the robot body, and an eye image in the face area of the robot. It is provided with an eye generation unit for displaying.

Description

本発明は、人間が愛着を抱きやすいロボット、に関する。 The present invention relates to a robot that humans tend to attach to.

人間は、癒やしを求めてペットを飼う。その一方、ペットの世話をする時間を十分に確保できない、ペットを飼える住環境にない、アレルギーがある、死別がつらい、といったさまざまな理由により、ペットをあきらめている人は多い。もし、ペットの役割が務まるロボットがあれば、ペットを飼えない人にもペットが与えてくれるような癒やしを与えられるかもしれない(特許文献1、2参照)。 Humans keep pets in search of healing. On the other hand, many people give up on pets for various reasons, such as not having enough time to take care of them, not having a living environment to keep pets, allergies, and hard bereavement. If there is a robot that plays the role of a pet, it may be possible to provide healing that a pet gives to a person who cannot keep a pet (see Patent Documents 1 and 2).

特開2000−323219号公報Japanese Unexamined Patent Publication No. 2000-323219 国際公開第2017/169826号International Publication No. 2017/169826

近年、ロボット技術は急速に進歩しつつあるが、ペットのような伴侶としての存在感を実現するには至っていない。ロボットに自由意志があるとは思えないからである。人間は、ペットの自由意志があるとしか思えないような行動を観察することにより、ペットに自由意志の存在を感じ、ペットに共感し、ペットに癒される。 In recent years, robot technology has been rapidly advancing, but it has not yet realized its presence as a companion like a pet. I don't think robots have free will. By observing behaviors that seem to be the pet's free will, humans feel the existence of the pet's free will, sympathize with the pet, and are healed by the pet.

本発明者らは、触り方に応じてロボットの反応が変われば、人間のロボットに対する愛着をもっと高められるのではないかと考えた。本発明者らは鋭意研究の結果、人間が無意識にいじりたくなる箇所にセンサを設けて人間のいじり方を検出しロボットの挙動に反映させることで、上記課題を解決することに想到した。 The present inventors thought that if the reaction of the robot changes depending on how it is touched, the attachment of humans to the robot may be further enhanced. As a result of diligent research, the present inventors have come up with the idea of solving the above problem by providing a sensor at a place where a human unconsciously wants to tamper with, detecting how the human tampering is detected, and reflecting it in the behavior of the robot.

本発明は上記課題認識に基づいて完成された発明であり、その主たる目的は、人間が愛着を抱きやすいロボット、を提供することにある。 The present invention is an invention completed based on the above-mentioned problem recognition, and a main object thereof is to provide a robot that humans can easily attach to.

本発明のある態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体の変形を検知する操作検知部と、眼画像を生成し、ロボットの顔領域に眼画像を表示させる眼生成部とを備える。
眼生成部は、ロボット本体の変形が検知されたとき、変形態様に応じて眼画像を変化させる。
The robot according to an aspect of the present invention generates an eye image, a motion control unit that selects a motion of the robot, a drive mechanism that executes the selected motion, an operation detection unit that detects deformation of the robot body, and the robot. It is provided with an eye generation unit for displaying an eye image in the face area of the robot.
When the deformation of the robot body is detected, the eye generation unit changes the eye image according to the deformation mode.

本発明の別の態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体に設けられるデバイスの動きを検知する操作検知部とを備える。
動作制御部は、デバイスの動きが検知されたとき、デバイスから所定範囲内を駆動対象とするモーションのうち、デバイスの動きに応じたモーションを選択する。
The robot according to another aspect of the present invention includes a motion control unit that selects the motion of the robot, a drive mechanism that executes the selected motion, and an operation detection unit that detects the movement of a device provided in the robot body.
When the movement of the device is detected, the motion control unit selects a motion corresponding to the movement of the device from the motions to be driven within a predetermined range from the device.

本発明の別の態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボットの体表面に設置され、ユーザの接触を検出する第1および第2のセンサとを備える。
動作制御部は、第1および第2のセンサの双方または一方においてユーザの接触が検出されたとき、接触態様に応じたモーションを選択する。
第1のセンサの検出精度は、第2のセンサよりも検出精度よりも高精度に設定されており、第1のセンサはロボットの顔領域に設置される。
The robot according to another aspect of the present invention includes a motion control unit that selects a motion of the robot, a drive mechanism that executes the selected motion, and first and first devices that are installed on the body surface of the robot and detect user contact. It is equipped with two sensors.
When the user's contact is detected by both or one of the first and second sensors, the motion control unit selects a motion according to the contact mode.
The detection accuracy of the first sensor is set to be higher than the detection accuracy of the second sensor, and the first sensor is installed in the face region of the robot.

本発明によれば、ロボットに対して人間が愛着を抱きやすくなる。 According to the present invention, it becomes easy for humans to have an attachment to a robot.

図1(a)は、ロボットの正面外観図である。図1(b)は、ロボットの側面外観図である。FIG. 1A is a front view of the robot. FIG. 1B is a side view of the robot. ロボットの構造を概略的に表す断面図である。It is sectional drawing which shows the structure of a robot schematicly. ロボットのハードウェア構成図である。It is a hardware block diagram of a robot. ロボットシステムの機能ブロック図である。It is a functional block diagram of a robot system. 図5(a)は、本実施形態におけるロボットの正面外観図である。図5(b)は、本実施形態におけるロボットの側面外観図である。FIG. 5A is a front view of the robot according to the present embodiment. FIG. 5B is a side view of the robot according to the present embodiment. 本実施形態におけるロボットのハードウェア構成図である。It is a hardware block diagram of the robot in this embodiment. 第1実施形態におけるロボットシステムの機能ブロック図である。It is a functional block diagram of the robot system in 1st Embodiment. 眼画像の外観図である。It is an external view of an eye image. 眼画像の拡大図である。It is an enlarged view of an eye image. 眼画像の生成方法を示す模式図である。It is a schematic diagram which shows the generation method of an eye image. 図11(a)は、アナログスティックを初期位置から上に動かした場合のロボットの眼の外観図である。図11(b)は、アナログスティックを初期位置から右に動かした場合のロボットの眼の外観図である。図11(c)は、アナログスティックを初期位置から下に動かした場合のロボットの眼の外観図である。図11(d)は、アナログスティックを初期位置から左に動かした場合のロボットの眼の外観図である。FIG. 11A is an external view of the eyes of the robot when the analog stick is moved upward from the initial position. FIG. 11B is an external view of the eyes of the robot when the analog stick is moved to the right from the initial position. FIG. 11C is an external view of the eyes of the robot when the analog stick is moved downward from the initial position. FIG. 11D is an external view of the eyes of the robot when the analog stick is moved from the initial position to the left. 第2実施形態におけるロボットシステムの機能ブロック図である。It is a functional block diagram of the robot system in 2nd Embodiment. 眼動作とロボットのモーションについて示すフローチャートである。It is a flowchart which shows the eye movement and the motion of a robot. 図14(a)は、眼動作テーブルのデータ構造図である。図14(b)は、変形パターン選択テーブルのデータ構造図である。FIG. 14A is a data structure diagram of the eye movement table. FIG. 14B is a data structure diagram of the deformation pattern selection table. モーション選択テーブルのデータ構造図である。It is a data structure diagram of a motion selection table. 定常時のロボットの正面図である。It is a front view of a robot at a fixed time. モーション発動時のロボットの正面図である。It is a front view of a robot at the time of motion activation.

以下、本発明の実施形態を、図面を参照して詳細に説明する。なお、以下の説明においては便宜上、図示の状態を基準に各構造の位置関係を表現することがある。また、以下の実施形態およびその変形例について、ほぼ同一の構成要件については同一の符号を付し、その説明を適宜省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description, for convenience, the positional relationship of each structure may be expressed with reference to the illustrated state. Further, with respect to the following embodiments and modifications thereof, the same reference numerals will be given to substantially the same constituent requirements, and the description thereof will be omitted as appropriate.

本実施形態のロボットは、ユーザに鼻を触られるとき眼や体を動かすことで鼻のいじりに反応する。以下、本実施形態におけるロボットの実装について説明する前に、ロボットの基本構成について説明する。 The robot of the present embodiment responds to tampering with the nose by moving the eyes and body when the user touches the nose. Hereinafter, the basic configuration of the robot will be described before the implementation of the robot in the present embodiment is described.

[基本構成]
図1(a)は、ロボット100の正面外観図である。図1(b)は、ロボット100の側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。ロボット100は、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよぶ。
[Basic configuration]
FIG. 1A is a front view of the robot 100. FIG. 1B is a side view of the robot 100.
The robot 100 in this embodiment is an autonomous action type robot that determines an action based on an external environment and an internal state. The external environment is recognized by various sensors such as cameras and thermosensors. The internal state is quantified as various parameters expressing the emotions of the robot 100. The robot 100 has an action range inside the owner's home. Hereinafter, the human being involved in the robot 100 is referred to as a "user".

ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂、繊維などやわらかく弾力性のある素材により形成された外皮を含む。ロボット100に服を着せてもよい。ロボット100の総重量は5〜15キログラム程度、身長は0.5〜1.2メートル程度である。適度な重さと丸み、柔らかさ、手触りのよさ、といった諸属性により、ユーザがロボット100を抱きかかえやすく、かつ、抱きかかえたくなるという効果が実現される。 The body 104 of the robot 100 has an overall rounded shape and includes an exodermis formed of a soft and elastic material such as urethane, rubber, resin, or fiber. The robot 100 may be dressed. The total weight of the robot 100 is about 5 to 15 kilograms, and the height is about 0.5 to 1.2 meters. Due to various attributes such as appropriate weight, roundness, softness, and good touch, the effect that the user can easily hold the robot 100 and want to hold it is realized.

ロボット100は、一対の前輪102(左輪102a,右輪102b)と、一つの後輪103を含む。前輪102が駆動輪であり、後輪103が従動輪である。前輪102は、操舵機構を有しないが、回転速度や回転方向を個別に制御可能とされている。後輪103は、キャスターであり、ロボット100を前後左右へ移動させるために回転自在となっている。後輪103はオムニホイールであってもよい。 The robot 100 includes a pair of front wheels 102 (left wheel 102a, right wheel 102b) and one rear wheel 103. The front wheels 102 are the driving wheels, and the rear wheels 103 are the driven wheels. Although the front wheels 102 do not have a steering mechanism, the rotation speed and the rotation direction can be individually controlled. The rear wheel 103 is a caster and is rotatable in order to move the robot 100 back and forth and left and right. The rear wheel 103 may be an omni wheel.

前輪102および後輪103は、駆動機構(回動機構、リンク機構)によりボディ104に完全収納できる。走行時においても各車輪の大部分はボディ104に隠れているが、各車輪がボディ104に完全収納されるとロボット100は移動不可能な状態となる。すなわち、車輪の収納動作にともなってボディ104が降下し、床面Fに着座する。この着座状態においては、ボディ104の底部に形成された平坦状の着座面108(接地底面)が床面Fに当接する。 The front wheels 102 and the rear wheels 103 can be completely housed in the body 104 by a drive mechanism (rotation mechanism, link mechanism). Most of each wheel is hidden in the body 104 even during traveling, but when each wheel is completely housed in the body 104, the robot 100 becomes immovable. That is, the body 104 descends with the retracting operation of the wheels and sits on the floor surface F. In this seated state, the flat seating surface 108 (ground contact bottom surface) formed on the bottom of the body 104 comes into contact with the floor surface F.

ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。 Robot 100 has two hands 106. The hand 106 does not have a function of gripping an object. The hand 106 can perform simple operations such as raising, shaking, and vibrating. The two hands 106 can also be individually controlled.

目110は、液晶素子または有機EL素子による画像表示が可能である。ロボット100は、音源方向を特定可能なマイクロフォンアレイや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。 The eye 110 can display an image by a liquid crystal element or an organic EL element. The robot 100 is equipped with various sensors such as a microphone array and an ultrasonic sensor that can specify the direction of a sound source. It also has a built-in speaker and can emit simple voice.

ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。ツノ112には全天球カメラが取り付けられ、ロボット100の上部全域を一度に撮像可能である。 A horn 112 is attached to the head of the robot 100. Since the robot 100 is lightweight as described above, the user can also lift the robot 100 by grasping the horn 112. An omnidirectional camera is attached to the tsuno 112, and the entire upper part of the robot 100 can be imaged at once.

図2は、ロボット100の構造を概略的に表す断面図である。
図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
FIG. 2 is a cross-sectional view schematically showing the structure of the robot 100.
As shown in FIG. 2, the body 104 of the robot 100 includes a base frame 308, a body frame 310, a pair of resin wheel covers 312 and an exodermis 314. The base frame 308 is made of metal and constitutes the axis of the body 104 and supports the internal mechanism. The base frame 308 is configured by connecting the upper plate 332 and the lower plate 334 vertically by a plurality of side plates 336. Sufficient spacing is provided between the plurality of side plates 336 to allow ventilation. A battery 118, a control circuit 342, and various actuators are housed inside the base frame 308.

本体フレーム310は、樹脂材からなり、頭部フレーム316および胴部フレーム318を含む。頭部フレーム316は、中空半球状をなし、ロボット100の頭部骨格を形成する。胴部フレーム318は、段付筒形状をなし、ロボット100の胴部骨格を形成する。胴部フレーム318は、ベースフレーム308と一体に固定される。頭部フレーム316は、胴部フレーム318の上端部に相対変位可能に組み付けられる。 The main body frame 310 is made of a resin material and includes a head frame 316 and a body frame 318. The head frame 316 has a hollow hemisphere and forms the head skeleton of the robot 100. The body frame 318 has a stepped tubular shape and forms the body skeleton of the robot 100. The body frame 318 is fixed integrally with the base frame 308. The head frame 316 is assembled to the upper end of the body frame 318 so as to be relatively displaceable.

頭部フレーム316には、ヨー軸320、ピッチ軸322およびロール軸324の3軸と、各軸を回転駆動するためのアクチュエータ326が設けられる。アクチュエータ326は、各軸を個別に駆動するための複数のサーボモータを含む。首振り動作のためにヨー軸320が駆動され、頷き動作のためにピッチ軸322が駆動され、首を傾げる動作のためにロール軸324が駆動される。 The head frame 316 is provided with three axes, a yaw axis 320, a pitch axis 322, and a roll axis 324, and an actuator 326 for rotationally driving each axis. Actuator 326 includes a plurality of servomotors for individually driving each axis. The yaw shaft 320 is driven for the swinging motion, the pitch shaft 322 is driven for the nodding motion, and the roll shaft 324 is driven for the tilting motion.

頭部フレーム316の上部には、ヨー軸320を支持するプレート325が固定されている。プレート325には、上下間の通気を確保するための複数の通気孔327が形成される。 A plate 325 that supports the yaw shaft 320 is fixed to the upper part of the head frame 316. The plate 325 is formed with a plurality of ventilation holes 327 for ensuring ventilation between the upper and lower parts.

頭部フレーム316およびその内部機構を下方から支持するように、金属製のベースプレート328が設けられる。ベースプレート328は、クロスリンク機構329(パンタグラフ機構)を介してプレート325と連結される一方、ジョイント330を介してアッパープレート332(ベースフレーム308)と連結される。 A metal base plate 328 is provided to support the head frame 316 and its internal mechanism from below. The base plate 328 is connected to the plate 325 via a cross-link mechanism 329 (pantograph mechanism), while being connected to the upper plate 332 (base frame 308) via a joint 330.

胴部フレーム318は、ベースフレーム308と車輪駆動機構370を収容する。車輪駆動機構370は、回動軸378およびアクチュエータ379を含む。胴部フレーム318の下半部は、ホイールカバー312との間に前輪102の収納スペースSを形成するために小幅とされる。 The fuselage frame 318 accommodates the base frame 308 and the wheel drive mechanism 370. The wheel drive mechanism 370 includes a rotating shaft 378 and an actuator 379. The lower half of the body frame 318 is narrowed to form a storage space S for the front wheels 102 with the wheel cover 312.

外皮314は、ウレタンゴムからなり、本体フレーム310およびホイールカバー312を外側から覆う。手106は、外皮314と一体成形される。外皮314の上端部には、外気を導入するための開口部390が設けられる。 The outer skin 314 is made of urethane rubber and covers the main body frame 310 and the wheel cover 312 from the outside. The hand 106 is integrally molded with the exodermis 314. An opening 390 for introducing outside air is provided at the upper end of the exodermis 314.

図3は、ロボット100のハードウェア構成図である。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
FIG. 3 is a hardware configuration diagram of the robot 100.
The robot 100 includes an internal sensor 128, a communication device 126, a storage device 124, a processor 122, a drive mechanism 120, and a battery 118. The processor 122 and the storage device 124 are included in the control circuit 342. Each unit is connected to each other by a power supply line 130 and a signal line 132. The battery 118 supplies electric power to each unit via the power supply line 130. Each unit sends and receives control signals via the signal line 132. The battery 118 is a lithium ion secondary battery and is a power source for the robot 100.

内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ(全天球カメラ)、マイクロフォンアレイ、測距センサ(赤外線センサ)、サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。タッチセンサは、外皮314と本体フレーム310の間に設置され、ユーザのタッチを検出する。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。 The internal sensor 128 is an assembly of various sensors built in the robot 100. Specifically, it includes a camera (omnidirectional camera), a microphone array, a ranging sensor (infrared sensor), a thermo sensor, a touch sensor, an acceleration sensor, an odor sensor, and the like. The touch sensor is installed between the outer skin 314 and the main body frame 310 to detect the user's touch. The odor sensor is a known sensor that applies the principle that the electrical resistance changes due to the adsorption of molecules that cause odors.

通信機126は、各種の外部機器を対象として無線通信を行う通信モジュールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、複数のアクチュエータおよび上述した車輪駆動機構370を含む。このほかには、表示器やスピーカーなども搭載される。 The communication device 126 is a communication module that performs wireless communication for various external devices. The storage device 124 is composed of a non-volatile memory and a volatile memory, and stores computer programs and various setting information. The processor 122 is a means for executing a computer program. The drive mechanism 120 includes a plurality of actuators and the wheel drive mechanism 370 described above. In addition, a display and speakers are also installed.

駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム316)を制御する。駆動機構120は、ロボット100の移動方向や移動速度を変化させるほか、車輪(前輪102および後輪103)を昇降させることもできる。車輪が上昇すると、車輪はボディ104に完全に収納され、ロボット100は着座面108にて床面Fに当接し、着座状態となる。また、駆動機構120は、ワイヤ134を介して、手106を制御する。 The drive mechanism 120 mainly controls the wheels (front wheels 102) and the head (head frame 316). The drive mechanism 120 can change the moving direction and moving speed of the robot 100, and can also raise and lower the wheels (front wheels 102 and rear wheels 103). When the wheels are raised, the wheels are completely housed in the body 104, and the robot 100 comes into contact with the floor surface F at the seating surface 108 to be in a seated state. Further, the drive mechanism 120 controls the hand 106 via the wire 134.

図4は、ロボットシステム300の機能ブロック図である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
FIG. 4 is a functional block diagram of the robot system 300.
The robot system 300 includes a robot 100, a server 200, and a plurality of external sensors 114. Each component of the robot 100 and the server 200 includes hardware including a CPU (Central Processing Unit), a computing unit such as various coprocessors, a storage device such as memory and storage, and a wired or wireless communication line connecting them, and storage. It is realized by software that is stored in the device and supplies processing commands to the arithmetic unit. A computer program may be composed of a device driver, an operating system, various application programs located on the upper layers thereof, and a library that provides common functions to these programs. Each block described below shows a block for each function, not a configuration for each hardware.
A part of the functions of the robot 100 may be realized by the server 200, and a part or all of the functions of the server 200 may be realized by the robot 100.

家屋内にはあらかじめ複数の外部センサ114が設置される。サーバ200には、外部センサ114の位置座標が登録される。ロボット100の内部センサ128および複数の外部センサ114から得られる情報に基づいて、サーバ200がロボット100の基本行動を決定する。外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。ロボット100の通信機126が外部センサ114と定期的に通信し、サーバ200は外部センサ114によりロボット100の位置を特定する(特許文献2も参照)。 A plurality of external sensors 114 are installed in advance in the house. The position coordinates of the external sensor 114 are registered in the server 200. Based on the information obtained from the internal sensor 128 of the robot 100 and the plurality of external sensors 114, the server 200 determines the basic action of the robot 100. The external sensor 114 is for reinforcing the sensory organs of the robot 100, and the server 200 is for reinforcing the brain of the robot 100. The communication device 126 of the robot 100 periodically communicates with the external sensor 114, and the server 200 identifies the position of the robot 100 by the external sensor 114 (see also Patent Document 2).

(サーバ200)
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
(Server 200)
The server 200 includes a communication unit 204, a data processing unit 202, and a data storage unit 206.
The communication unit 204 is in charge of communication processing with the external sensor 114 and the robot 100. The data storage unit 206 stores various data. The data processing unit 202 executes various processes based on the data acquired by the communication unit 204 and the data stored in the data storage unit 206. The data processing unit 202 also functions as an interface between the communication unit 204 and the data storage unit 206.

データ格納部206は、モーション格納部232と個人データ格納部218を含む。
ロボット100は、複数の変形パターン(モーション)を有する。手106を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義される。
The data storage unit 206 includes a motion storage unit 232 and a personal data storage unit 218.
The robot 100 has a plurality of deformation patterns (motions). Various motions are defined, such as shaking the hand 106, approaching the owner while meandering, and staring at the owner with his neck bent.

モーション格納部232は、モーションの制御内容を定義する「モーションファイル」を格納する。各モーションは、モーションIDにより識別される。モーションファイルは、ロボット100のモーション格納部160にもダウンロードされる。どのモーションを実行するかは、サーバ200で決定されることもあるし、ロボット100で決定されることもある。 The motion storage unit 232 stores a "motion file" that defines the control content of the motion. Each motion is identified by a motion ID. The motion file is also downloaded to the motion storage unit 160 of the robot 100. Which motion is executed may be determined by the server 200 or by the robot 100.

ロボット100のモーションの多くは、複数の単位モーションを含む複合モーションとして構成される。たとえば、ロボット100がオーナーに近づくとき、オーナーの方に向き直る単位モーション、手を上げながら近づく単位モーション、体を揺すりながら近づく単位モーション、両手を上げながら着座する単位モーションの組み合わせとして表現されてもよい。このような4つのモーションの組み合わせにより、「オーナーに近づいて、途中で手を上げて、最後は体をゆすった上で着座する」というモーションが実現される。モーションファイルには、ロボット100に設けられたアクチュエータの回転角度や角速度などが時間軸に関連づけて定義される。モーションファイル(アクチュエータ制御情報)にしたがって、時間経過とともに各アクチュエータを制御することで様々なモーションが表現される。 Most of the motions of the robot 100 are configured as compound motions including a plurality of unit motions. For example, when the robot 100 approaches the owner, it may be expressed as a combination of a unit motion of turning toward the owner, a unit motion of approaching while raising a hand, a unit motion of approaching while shaking the body, and a unit motion of sitting while raising both hands. .. By combining these four motions, the motion of "approaching the owner, raising his hand on the way, and finally shaking his body and sitting down" is realized. In the motion file, the rotation angle, the angular velocity, and the like of the actuator provided in the robot 100 are defined in relation to the time axis. Various motions are expressed by controlling each actuator with the passage of time according to the motion file (actuator control information).

先の単位モーションから次の単位モーションに変化するときの移行時間を「インターバル」とよぶ。インターバルは、単位モーション変更に要する時間やモーションの内容に応じて定義されればよい。インターバルの長さは調整可能である。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
The transition time when changing from the previous unit motion to the next unit motion is called "interval". The interval may be defined according to the time required to change the unit motion and the content of the motion. The length of the interval is adjustable.
Hereinafter, the settings related to the behavior control of the robot 100, such as when and which motion to select, and the output adjustment of each actuator in realizing the motion, are collectively referred to as "behavior characteristics". The behavioral characteristics of the robot 100 are defined by a motion selection algorithm, a motion selection probability, a motion file, and the like.

モーション格納部232は、モーションファイルのほか、各種のイベントが発生したときに実行すべきモーションを定義するモーション選択テーブルを格納する。モーション選択テーブルにおいては、イベントに対して1以上のモーションとその選択確率が対応づけられる。 In addition to the motion file, the motion storage unit 232 stores a motion selection table that defines a motion to be executed when various events occur. In the motion selection table, one or more motions and their selection probabilities are associated with the event.

個人データ格納部218は、ユーザの情報を格納する。具体的には、ユーザに対する親密度とユーザの身体的特徴・行動的特徴を示すマスタ情報を格納する。年齢や性別などの他の属性情報を格納してもよい。 The personal data storage unit 218 stores user information. Specifically, it stores master information indicating intimacy with the user and the physical and behavioral characteristics of the user. Other attribute information such as age and gender may be stored.

ロボット100は、ユーザごとに親密度という内部パラメータを有する。ロボット100が、自分を抱き上げる、声をかけてくれるなど、自分に対して好意を示す行動を認識したとき、そのユーザに対する親密度が高くなる。ロボット100に関わらないユーザや、乱暴を働くユーザ、出会う頻度が低いユーザに対する親密度は低くなる。 The robot 100 has an internal parameter called intimacy for each user. When the robot 100 recognizes an action that shows a favor to itself, such as picking it up or calling out to it, the intimacy with the user becomes high. The intimacy with users who are not involved in the robot 100, users who work violently, and users who meet infrequently is low.

データ処理部202は、位置管理部208、認識部212、動作制御部222、親密度管理部220および状態管理部244を含む。
位置管理部208は、ロボット100の位置座標を特定する。状態管理部244は、充電率や内部温度、プロセッサ122の処理負荷などの各種物理状態など各種内部パラメータを管理する。また、状態管理部244は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じてロボット100の移動目標地点が変化する。たとえば、寂しさが高まっているときには、ロボット100はユーザのいるところを移動目標地点として設定する。
The data processing unit 202 includes a position management unit 208, a recognition unit 212, an operation control unit 222, an intimacy management unit 220, and a state management unit 244.
The position management unit 208 specifies the position coordinates of the robot 100. The state management unit 244 manages various internal parameters such as the charge rate, the internal temperature, and various physical states such as the processing load of the processor 122. In addition, the state management unit 244 manages various emotion parameters indicating the emotions (loneliness, curiosity, desire for approval, etc.) of the robot 100. These emotional parameters are constantly fluctuating. The movement target point of the robot 100 changes according to the emotional parameter. For example, when loneliness is increasing, the robot 100 sets the place where the user is as a movement target point.

時間経過によって感情パラメータが変化する。また、後述の応対行為によっても各種感情パラメータは変化する。たとえば、オーナーから「抱っこ」をされると寂しさを示す感情パラメータは低下し、長時間にわたってオーナーを視認しないときには寂しさを示す感情パラメータは少しずつ増加する。 Emotional parameters change over time. In addition, various emotional parameters change depending on the response action described later. For example, the emotional parameter indicating loneliness decreases when the owner "hugs", and the emotional parameter indicating loneliness gradually increases when the owner is not visually recognized for a long period of time.

認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度に基づく天候や季節の認識、光量や温度に基づく物陰(安全地帯)の認識など多様な認識が含まれる。ロボット100の認識部156は、内部センサ128により各種の環境情報を取得し、これを一次処理した上でサーバ200の認識部212に転送する。 The recognition unit 212 recognizes the external environment. Recognition of the external environment includes various recognitions such as recognition of weather and seasons based on temperature and humidity, and recognition of shadows (safety zones) based on the amount of light and temperature. The recognition unit 156 of the robot 100 acquires various environmental information by the internal sensor 128, performs primary processing on the information, and then transfers the information to the recognition unit 212 of the server 200.

具体的には、ロボット100の認識部156は、画像から移動物体、特に、人物や動物に対応する画像領域を抽出し、抽出した画像領域から移動物体の身体的特徴や行動的特徴を示す特徴量の集合として「特徴ベクトル」を抽出する。特徴ベクトル成分(特徴量)は、各種身体的・行動的特徴を定量化した数値である。たとえば、人間の目の横幅は0〜1の範囲で数値化され、1つの特徴ベクトル成分を形成する。人物の撮像画像から特徴ベクトルを抽出する手法については、既知の顔認識技術の応用である。ロボット100は、特徴ベクトルをサーバ200に送信する。 Specifically, the recognition unit 156 of the robot 100 extracts an image area corresponding to a moving object, particularly a person or an animal, from the image, and a feature showing the physical characteristics and behavioral characteristics of the moving object from the extracted image area. Extract the "feature vector" as a set of quantities. The feature vector component (feature amount) is a numerical value that quantifies various physical and behavioral features. For example, the width of the human eye is quantified in the range 0 to 1 to form one feature vector component. The method of extracting a feature vector from a captured image of a person is an application of a known face recognition technique. The robot 100 transmits the feature vector to the server 200.

サーバ200の認識部212は、ロボット100の内蔵カメラによる撮像画像から抽出された特徴ベクトルと、個人データ格納部218にあらかじめ登録されているユーザ(クラスタ)の特徴ベクトルと比較することにより、撮像されたユーザがどの人物に該当するかを判定する(ユーザ識別処理)。また、認識部212は、ユーザの表情を画像認識することにより、ユーザの感情を推定する。認識部212は、人物以外の移動物体、たとえば、ペットである猫や犬についてもユーザ識別処理を行う。 The recognition unit 212 of the server 200 is imaged by comparing the feature vector extracted from the image captured by the built-in camera of the robot 100 with the feature vector of the user (cluster) registered in advance in the personal data storage unit 218. It is determined which person the user corresponds to (user identification process). In addition, the recognition unit 212 estimates the user's emotion by recognizing the user's facial expression as an image. The recognition unit 212 also performs user identification processing on moving objects other than humans, for example, cats and dogs that are pets.

認識部212は、ロボット100になされたさまざまな応対行為を認識し、快・不快行為に分類する。認識部212は、また、ロボット100の行動に対するオーナーの応対行為を認識することにより、肯定・否定反応に分類する。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
The recognition unit 212 recognizes various response actions performed by the robot 100 and classifies them into pleasant / unpleasant actions. The recognition unit 212 also classifies the robot 100 into affirmative / negative reactions by recognizing the owner's response to the action of the robot 100.
Pleasant / unpleasant behavior is determined by whether the user's response behavior is comfortable or unpleasant as a living thing. For example, being hugged is a pleasant act for the robot 100, and being kicked is an unpleasant act for the robot 100. The affirmative / negative reaction is determined by whether the user's response action indicates the user's pleasant feelings or unpleasant feelings. Being hugged is a positive reaction that indicates the user's pleasant feelings, and being kicked is a negative reaction that indicates the user's unpleasant feelings.

サーバ200の動作制御部222は、ロボット100の動作制御部150と協働して、ロボット100のモーションを決定する。サーバ200の動作制御部222は、ロボット100の移動目標地点とそのための移動ルートを作成する。動作制御部222は、複数の移動ルートを作成し、その上で、いずれかの移動ルートを選択してもよい。 The motion control unit 222 of the server 200 cooperates with the motion control unit 150 of the robot 100 to determine the motion of the robot 100. The operation control unit 222 of the server 200 creates a movement target point of the robot 100 and a movement route for the movement target point. The operation control unit 222 may create a plurality of movement routes and then select one of the movement routes.

動作制御部222は、モーション格納部232の複数のモーションからロボット100のモーションを選択する。各モーションには状況ごとに選択確率が対応づけられている。たとえば、オーナーから快行為がなされたときには、モーションAを20%の確率で実行する、気温が30度以上となったとき、モーションBを5%の確率で実行する、といった選択方法が定義される。 The motion control unit 222 selects the motion of the robot 100 from the plurality of motions of the motion storage unit 232. Each motion is associated with a selection probability for each situation. For example, a selection method is defined such that motion A is executed with a probability of 20% when the owner makes a pleasant act, and motion B is executed with a probability of 5% when the temperature rises above 30 degrees Celsius. ..

親密度管理部220は、ユーザごとの親密度を管理する。上述したように、親密度は個人データ格納部218において個人データの一部として登録される。快行為を検出したとき、親密度管理部220はそのオーナーに対する親密度をアップさせる。不快行為を検出したときには親密度はダウンする。また、長期間視認していないオーナーの親密度は徐々に低下する。 The intimacy management unit 220 manages the intimacy of each user. As described above, the intimacy is registered as part of the personal data in the personal data storage unit 218. When the pleasant behavior is detected, the intimacy management unit 220 raises the intimacy with the owner. Intimacy goes down when discomfort is detected. In addition, the intimacy of owners who have not been visually recognized for a long period of time gradually decreases.

(ロボット100)
ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
通信部142は、通信機126(図4参照)に該当し、外部センサ114、サーバ200および他のロボット100との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図4参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
(Robot 100)
The robot 100 includes a communication unit 142, a data processing unit 136, a data storage unit 148, an internal sensor 128, and a drive mechanism 120.
The communication unit 142 corresponds to the communication device 126 (see FIG. 4), and is in charge of communication processing with the external sensor 114, the server 200, and the other robot 100. The data storage unit 148 stores various data. The data storage unit 148 corresponds to the storage device 124 (see FIG. 4). The data processing unit 136 executes various processes based on the data acquired by the communication unit 142 and the data stored in the data storage unit 148. The data processing unit 136 corresponds to the processor 122 and the computer program executed by the processor 122. The data processing unit 136 also functions as an interface for the communication unit 142, the internal sensor 128, the drive mechanism 120, and the data storage unit 148.

データ格納部148は、ロボット100の各種モーションを定義するモーション格納部160を含む。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
データ格納部148には、個人データ格納部218からも各種データがダウンロードされてもよい。
The data storage unit 148 includes a motion storage unit 160 that defines various motions of the robot 100.
Various motion files are downloaded from the motion storage unit 232 of the server 200 to the motion storage unit 160 of the robot 100. The motion is identified by the motion ID. A state in which the front wheels 102 are housed, in which the robot 100 is rotated by accommodating and sitting on the front wheels 102, lifting the hand 106, rotating the two front wheels 102 in the reverse direction, or rotating only one of the front wheels 102. In order to express various motions such as trembling by rotating the front wheel 102, stopping once when leaving the user, and looking back, the operation timing, operation time, operation direction, etc. of various actuators (drive mechanism 120) are set. It is defined in time series in the motion file.
Various data may be downloaded to the data storage unit 148 from the personal data storage unit 218 as well.

データ処理部136は、認識部156および動作制御部150を含む。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
The data processing unit 136 includes a recognition unit 156 and an operation control unit 150.
The motion control unit 150 of the robot 100 determines the motion of the robot 100 in cooperation with the motion control unit 222 of the server 200. Some motions may be determined by the server 200, and other motions may be determined by the robot 100. Further, the robot 100 determines the motion, but when the processing load of the robot 100 is high, the server 200 may determine the motion. The server 200 may determine the base motion and the robot 100 may determine additional motions. How the motion determination process is shared between the server 200 and the robot 100 may be designed according to the specifications of the robot system 300.

ロボット100の動作制御部150は選択したモーションを駆動機構120に実行指示する。駆動機構120は、モーションファイルにしたがって、各アクチュエータを制御する。 The motion control unit 150 of the robot 100 instructs the drive mechanism 120 to execute the selected motion. The drive mechanism 120 controls each actuator according to the motion file.

動作制御部150は、親密度の高いユーザが近くにいるときには「抱っこ」をせがむ仕草として両方の手106をもちあげるモーションを実行することもできるし、「抱っこ」に飽きたときには左右の前輪102を収容したまま逆回転と停止を交互に繰り返すことで抱っこをいやがるモーションを表現することもできる。駆動機構120は、動作制御部150の指示にしたがって前輪102や手106、首(頭部フレーム316)を駆動することで、ロボット100にさまざまなモーションを表現させる。 The motion control unit 150 can also perform a motion of lifting both hands 106 as a gesture to plead for "holding" when a user with high intimacy is nearby, and when tired of "holding", the left and right front wheels 102 can be used. It is also possible to express a motion that dislikes a hug by alternately repeating reverse rotation and stop while it is housed. The drive mechanism 120 causes the robot 100 to express various motions by driving the front wheels 102, the hands 106, and the neck (head frame 316) according to the instructions of the motion control unit 150.

ロボット100の認識部156は、内部センサ128から得られた外部情報を解釈する。認識部156は、視覚的な認識(視覚部)、匂いの認識(嗅覚部)、音の認識(聴覚部)、触覚的な認識(触覚部)が可能である。 The recognition unit 156 of the robot 100 interprets the external information obtained from the internal sensor 128. The recognition unit 156 is capable of visual recognition (visual part), odor recognition (smell part), sound recognition (auditory part), and tactile recognition (tactile part).

認識部156は、移動物体の撮像画像から特徴ベクトルを抽出する。上述したように、特徴ベクトルは、移動物体の身体的特徴と行動的特徴を示すパラメータ(特徴量)の集合である。移動物体を検出したときには、ニオイセンサや内蔵の集音マイク、温度センサ等からも身体的特徴や行動的特徴が抽出される。これらの特徴も定量化され、特徴ベクトル成分となる。認識部156は、特許文献2等に記載の既知の技術に基づいて、特徴ベクトルからユーザを特定する。 The recognition unit 156 extracts a feature vector from the captured image of the moving object. As described above, the feature vector is a set of parameters (features) indicating the physical features and behavioral features of a moving object. When a moving object is detected, physical characteristics and behavioral characteristics are extracted from an odor sensor, a built-in sound collecting microphone, a temperature sensor, and the like. These features are also quantified and become feature vector components. The recognition unit 156 identifies the user from the feature vector based on the known technique described in Patent Document 2 and the like.

検出・分析・判定を含む一連の認識処理のうち、ロボット100の認識部156は認識に必要な情報の取捨選択や抽出を行い、判定等の解釈処理はサーバ200の認識部212により実行される。認識処理は、サーバ200の認識部212だけで行ってもよいし、ロボット100の認識部156だけで行ってもよいし、上述のように双方が役割分担をしながら上記認識処理を実行してもよい。 Of a series of recognition processes including detection, analysis, and determination, the recognition unit 156 of the robot 100 selects and extracts information necessary for recognition, and interpretation processing such as determination is executed by the recognition unit 212 of the server 200. .. The recognition process may be performed only by the recognition unit 212 of the server 200, or may be performed only by the recognition unit 156 of the robot 100, or the above recognition process is executed while both parties share roles as described above. May be good.

ロボット100に対する強い衝撃が与えられたとき、認識部156はタッチセンサおよび加速度センサによりこれを認識し、サーバ200の認識部212は、近隣にいるユーザによって「乱暴行為」が働かれたと認識する。ユーザがツノ112を掴んでロボット100を持ち上げるときにも、乱暴行為と認識してもよい。ロボット100に正対した状態にあるユーザが特定音量領域および特定周波数帯域にて発声したとき、サーバ200の認識部212は、自らに対する「声掛け行為」がなされたと認識してもよい。また、体温程度の温度を検知したときにはユーザによる「接触行為」がなされたと認識し、接触認識した状態で上方への加速度を検知したときには「抱っこ」がなされたと認識する。ユーザがボディ104を持ち上げるときの物理的接触をセンシングしてもよいし、前輪102にかかる荷重が低下することにより抱っこを認識してもよい。
まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報として取得し、サーバ200の認識部212は快・不快を判定する。また、サーバ200の認識部212は特徴ベクトルに基づくユーザ識別処理を実行する。
When a strong impact is applied to the robot 100, the recognition unit 156 recognizes this by the touch sensor and the acceleration sensor, and the recognition unit 212 of the server 200 recognizes that the "rough act" has been performed by a nearby user. When the user grabs the horn 112 and lifts the robot 100, it may be recognized as a violent act. When a user facing the robot 100 speaks in a specific volume region and a specific frequency band, the recognition unit 212 of the server 200 may recognize that a "calling action" has been made to itself. Further, when a temperature of about body temperature is detected, it is recognized that a "contact act" has been performed by the user, and when an upward acceleration is detected in the state of contact recognition, it is recognized that a "hug" has been performed. The user may sense the physical contact when lifting the body 104, or may recognize the hug by reducing the load applied to the front wheels 102.
In summary, the robot 100 acquires the user's action as physical information by the internal sensor 128, and the recognition unit 212 of the server 200 determines whether it is comfortable or unpleasant. Further, the recognition unit 212 of the server 200 executes the user identification process based on the feature vector.

サーバ200の認識部212は、ロボット100に対するユーザの各種応対を認識する。各種応対行為のうち一部の典型的な応対行為には、快または不快、肯定または否定が対応づけられる。一般的には快行為となる応対行為のほとんどは肯定反応であり、不快行為となる応対行為のほとんどは否定反応となる。快・不快行為は親密度に関連し、肯定・否定反応はロボット100の行動選択に影響する。 The recognition unit 212 of the server 200 recognizes various user responses to the robot 100. Some typical responses of the various responses are associated with pleasant or unpleasant, affirmative or negative. In general, most of the pleasant actions are positive reactions, and most of the unpleasant actions are negative reactions. Pleasure / discomfort is related to intimacy, and affirmative / negative reactions affect the action selection of the robot 100.

認識部156により認識された応対行為に応じて、サーバ200の親密度管理部220はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。 The intimacy management unit 220 of the server 200 changes the intimacy with respect to the user according to the response action recognized by the recognition unit 156. In principle, the intimacy with the user who performed the pleasant act increases, and the intimacy with the user who performed the unpleasant act decreases.

以上の基本構成を前提として、次に、本実施形態におけるロボット100の実装について、特に、本実装の特徴と目的および基本構成との相違点を中心として説明する。なお、説明は第1実施形態と第2実施形態に分けて行う。第1実施形態と第2実施形態をまとめて説明する場合や、特に区別しない場合には「本実施形態」とよぶ。 On the premise of the above basic configuration, next, the implementation of the robot 100 in the present embodiment will be described focusing on the features and purposes of the implementation and the differences from the basic configuration. The description will be divided into the first embodiment and the second embodiment. When the first embodiment and the second embodiment are described together, or when there is no particular distinction, they are referred to as "the present embodiment".

[第1実施形態]
図5(a)は、第1実施形態におけるロボット100の正面外観図である。図5(b)は、第1実施形態におけるロボット100の側面外観図である。
第1実施形態におけるロボット100には、顔領域107が設けられる。顔領域107内には目110のほかに鼻109が備えられる。鼻109は、顔領域107の中心近傍であって、目110よりも低い位置に備えられる。鼻109は、左右の目に挟まれるように設けられ、右目から鼻109までの距離と左目から鼻109までの距離は等しい。また、鼻109は目110や顔領域107よりも小さい。鼻109にはユーザによって変形される物理的なデバイス(以下、「凸部」または「突起」とよぶことがある。)が備えられる。
[First Embodiment]
FIG. 5A is a front view of the robot 100 according to the first embodiment. FIG. 5B is a side view of the robot 100 according to the first embodiment.
The robot 100 in the first embodiment is provided with a face region 107. In addition to the eyes 110, the nose 109 is provided in the face area 107. The nose 109 is provided near the center of the face region 107 and at a position lower than the eyes 110. The nose 109 is provided so as to be sandwiched between the left and right eyes, and the distance from the right eye to the nose 109 is equal to the distance from the left eye to the nose 109. Also, the nose 109 is smaller than the eyes 110 and the face area 107. The nose 109 is provided with a physical device that is deformed by the user (hereinafter sometimes referred to as a "convex" or "protrusion").

本実施形態においては、鼻109にはアナログスティックが設置される。ユーザは、アナログスティック(鼻109)を上下左右の全方向へ傾斜させることができ、かつ、押し込むこともできる。本実施形態においては、アナログスティックのような物理的デバイスの傾斜および押し込みが「ロボット本体の変形」に該当する。アナログスティックにはタッチを検出するためのセンサ(以下、「鼻センサ」とよぶ)が含まれる。アナログスティックそのものおよびアナログスティックの変形の検知方法については、例えば特開平9−134251号公報等に記載の技術が知られている。 In this embodiment, an analog stick is installed on the nose 109. The user can tilt the analog stick (nose 109) in all directions, up, down, left, and right, and can also push it in. In this embodiment, tilting and pushing of a physical device such as an analog stick corresponds to "deformation of the robot body". The analog stick includes a sensor for detecting touch (hereinafter referred to as "nose sensor"). As a method for detecting the analog stick itself and the deformation of the analog stick, for example, the techniques described in JP-A-9-134251 are known.

図6は、第1実施形態におけるロボット100のハードウェア構成図である。
第1実施形態におけるロボット100は、図3に示した基本構成に加えて、モニター170およびアナログスティック180を含む。モニター170は、ロボット100の目110に設置され、眼画像を表示させる(詳細後述)。
FIG. 6 is a hardware configuration diagram of the robot 100 according to the first embodiment.
The robot 100 in the first embodiment includes a monitor 170 and an analog stick 180 in addition to the basic configuration shown in FIG. The monitor 170 is installed on the eyes 110 of the robot 100 to display an eye image (details will be described later).

図7は、第1実施形態におけるロボットシステム300の機能ブロック図である。
上述のとおり、ロボット100はモニター170およびアナログスティック180を含む。第1実施形態におけるロボット100のデータ処理部136は、更に、操作検知部182、操作履歴管理部184、眼生成部172を含む。操作検知部182は、アナログスティック180の動き、すなわち、傾斜方向、傾斜角(初期位置からの角度)、押し込み量を逐次検知する。第1実施形態における傾斜方向を「変形方向」とよび、傾斜角と押し込み量をまとめて「変形量」とよぶことがある。
FIG. 7 is a functional block diagram of the robot system 300 according to the first embodiment.
As mentioned above, the robot 100 includes a monitor 170 and an analog stick 180. The data processing unit 136 of the robot 100 in the first embodiment further includes an operation detection unit 182, an operation history management unit 184, and an eye generation unit 172. The operation detection unit 182 sequentially detects the movement of the analog stick 180, that is, the inclination direction, the inclination angle (angle from the initial position), and the pushing amount. The tilting direction in the first embodiment is called a "deformation direction", and the tilt angle and the pushing amount may be collectively called a "deformation amount".

操作履歴管理部184は、操作検知部182の検知結果を時系列に沿って操作履歴として記憶する。操作履歴はアナログスティック180の変形状態(アナログスティック180が初期位置から動かされている状態)の継続時間(変形継続時間)も含む。操作履歴管理部184はまた、単位時間あたりの変形量として変形速度を算出する。変形方向、変形量、変形速度等、本実施形態における「ロボット本体の変形」の度合いを「変形態様」と総称する。眼生成部172は、目110(モニター170)に表示すべき眼画像を生成する。 The operation history management unit 184 stores the detection result of the operation detection unit 182 as an operation history in chronological order. The operation history also includes the duration (deformation duration) of the deformed state of the analog stick 180 (the state in which the analog stick 180 is moved from the initial position). The operation history management unit 184 also calculates the deformation speed as the amount of deformation per unit time. The degree of "deformation of the robot body" in the present embodiment, such as the deformation direction, the amount of deformation, and the deformation speed, is collectively referred to as the "deformation mode". The eye generation unit 172 generates an eye image to be displayed on the eye 110 (monitor 170).

眼生成部172は、アナログスティック180の変形態様に応じて、モニター170に信号を出力することにより、モニター170に表示させる眼画像を変化させる。動作制御部150は、また、アナログスティック180の変形態様に応じて、モーションを選択する。以下、眼生成部172が眼画像を変化させることを、「ロボット100が眼を動かす」または「ロボット100の眼が変化する」ということがある。また、動作制御部150がモーションを選択し、駆動機構120が選択されたモーションを実行することを、「ロボット100が動く」ということがある。また、「ロボット100が動く」場合において、特定の部位Xを動かすモーションである場合には、「ロボット100がXを動かす」ということがある。例えば、動作制御部150がロボット100の手を動かすモーションを選択し、駆動機構120がそのモーションを実行する場合、「ロボット100が手を動かす」と表現することがある。ユーザが鼻109(アナログスティック180)をいじるとロボット100は眼を動かし、ユーザが鼻109をいじりつづけるとロボット100は眼だけではなく首や手などの体も動かしはじめる。本実施形態における「モーション」はロボット100が体を物理的に動かすことを意味し、眼画像の変化は「モーション」には含まれないものとする。以下、アナログスティック180を動かす際のモニター170の画像およびモーションの変化について詳細に説明する。 The eye generation unit 172 changes the eye image displayed on the monitor 170 by outputting a signal to the monitor 170 according to the deformation mode of the analog stick 180. The motion control unit 150 also selects a motion according to the deformation mode of the analog stick 180. Hereinafter, changing the eye image by the eye generation unit 172 may be referred to as "the robot 100 moves the eyes" or "the eyes of the robot 100 change". Further, when the motion control unit 150 selects a motion and the drive mechanism 120 executes the selected motion, it may be referred to as "the robot 100 moves". Further, in the case of "moving the robot 100", if it is a motion to move a specific part X, it may be said that "the robot 100 moves X". For example, when the motion control unit 150 selects a motion for moving the hand of the robot 100 and the drive mechanism 120 executes the motion, it may be expressed as "the robot 100 moves the hand". When the user tampers with the nose 109 (analog stick 180), the robot 100 moves the eyes, and when the user continues to tamper with the nose 109, the robot 100 begins to move not only the eyes but also the body such as the neck and hands. The "motion" in the present embodiment means that the robot 100 physically moves the body, and the change in the eye image is not included in the "motion". Hereinafter, changes in the image and motion of the monitor 170 when the analog stick 180 is moved will be described in detail.

図8は、眼画像171の外観図である。
眼生成部172は、瞳画像175と周縁画像176を含む眼画像171を生成する。眼生成部172は、眼画像171を動画表示させる。具体的には、瞳画像175を動かすことでロボット100の視線の変化を表現する。
FIG. 8 is an external view of the eye image 171.
The eye generation unit 172 generates an eye image 171 including a pupil image 175 and a peripheral image 176. The eye generation unit 172 displays the eye image 171 as a moving image. Specifically, the change in the line of sight of the robot 100 is expressed by moving the pupil image 175.

瞳画像175は、瞳孔領域177と角膜領域178を含む。また、瞳画像175には、外光の映り込みを表現するためのキャッチライト179も表示される。眼画像171のキャッチライト179は、外光の反射によって輝いているのではなく、眼生成部172により高輝度領域として表現される画像領域である。 The pupil image 175 includes a pupil region 177 and a corneal region 178. In addition, the pupil image 175 also displays a catch light 179 for expressing the reflection of external light. The catch light 179 of the eye image 171 is not shining due to the reflection of external light, but is an image region expressed as a high-luminance region by the eye generation unit 172.

眼生成部172は、瞳画像175を上下左右に移動させる。ロボット100の認識部156がユーザを認識したときには、眼生成部172は瞳画像175をユーザの存在する方向に向ける。眼生成部172は、眼画像171のうち瞳画像175を変化させることにより、ロボット100の仮想的な視線(以下、「仮想視線」ということがある。)の変化を表現する。眼画像171の制御の詳細は図10に関連して後述する。 The eye generation unit 172 moves the pupil image 175 up / down / left / right. When the recognition unit 156 of the robot 100 recognizes the user, the eye generation unit 172 directs the pupil image 175 in the direction in which the user exists. The eye generation unit 172 expresses a change in the virtual line of sight (hereinafter, may be referred to as “virtual line of sight”) of the robot 100 by changing the pupil image 175 of the eye image 171. Details of the control of the eye image 171 will be described later in relation to FIG.

眼生成部172は、瞳画像175の形状を変化させてもよい。たとえば、瞳画像175がモニター170の中心にあるときには真円形状とし、周縁部分にあるときには楕円形状に変化させる。瞳画像175の形状をモニター170内の位置に応じて変化させることにより平面のモニター170を実際の眼球のような曲面形状であるかのように見せることができる。 The eye generation unit 172 may change the shape of the pupil image 175. For example, when the pupil image 175 is in the center of the monitor 170, it is changed to a perfect circular shape, and when it is in the peripheral portion, it is changed to an elliptical shape. By changing the shape of the pupil image 175 according to the position in the monitor 170, the flat monitor 170 can be made to look like a curved surface shape like an actual eyeball.

眼生成部172は、外部光源の存在方向に対応してキャッチライト179の位置を変化させる。図8は、ロボット100から見て左上方に外部光源が存在する場合のキャッチライト179の表示位置を示している。キャッチライト179の位置を外部光源に連動させることにより、いっそうリアルな眼画像171を表現できる。眼生成部172は、外部光源の方向を撮像画像から画像認識により判定してもよいし、光センサ(図示せず)の検出データから判定してもよい。 The eye generation unit 172 changes the position of the catch light 179 according to the presence direction of the external light source. FIG. 8 shows the display position of the catch light 179 when the external light source is present on the upper left side when viewed from the robot 100. By linking the position of the catch light 179 with the external light source, a more realistic eye image 171 can be expressed. The eye generation unit 172 may determine the direction of the external light source from the captured image by image recognition, or may determine from the detection data of the optical sensor (not shown).

図9は、眼画像171の拡大図である。
眼画像171においては、瞳画像175と周縁画像176に瞼(まぶた)を示す瞼画像190が重畳される。瞼画像190は、まつ毛192を含む。周縁画像176は、人間の結膜にあたる部分である。
FIG. 9 is an enlarged view of the eye image 171.
In the eye image 171, the eyelid image 190 showing the eyelids is superimposed on the pupil image 175 and the peripheral image 176. The eyelid image 190 includes eyelashes 192. Peripheral image 176 is a portion corresponding to the human conjunctiva.

眼生成部172は、眼画像171のうち、瞼画像190、瞳孔領域177、角膜領域178およびキャッチライト179を変化させる。光量が大きいほど、眼生成部172は瞳孔領域177の直径を断続的または連続的に拡大させる。眼生成部172は、瞳孔領域177だけではなく、瞳画像175の全体を断続的または連続的に拡縮させてもよい。眼生成部172は、光量が特に大きいとき(例えば、所定の閾値よりも大きいとき)には瞼画像190を下げることで「眩しそうな様子」を表現してもよい。 The eye generation unit 172 changes the eyelid image 190, the pupil region 177, the corneal region 178, and the catch light 179 of the eye image 171. As the amount of light increases, the eye generator 172 increases the diameter of the pupil region 177 intermittently or continuously. The eye generation unit 172 may enlarge or contract not only the pupil region 177 but also the entire pupil image 175 intermittently or continuously. The eye generation unit 172 may express a "dazzling appearance" by lowering the eyelid image 190 when the amount of light is particularly large (for example, when it is larger than a predetermined threshold value).

図10は、眼画像171の生成方法を示す模式図である。
眼球モデル250は、ロボット100の眼球を模した三次元コンピュータグラフィックスである。眼生成部172は、まず、三次元の球体をポリゴンにて形成し、これにテクスチャ(以下、「眼球テクスチャ」とよぶ)を貼ることにより眼球モデル250を形成する。眼球テクスチャは、瞳画像175を含む画像である。眼球テクスチャは、データ格納部148に含まれる眼画像格納部(図示なし)に格納される。
FIG. 10 is a schematic view showing a method of generating an eye image 171.
The eyeball model 250 is three-dimensional computer graphics that imitates the eyeball of the robot 100. The eye generation unit 172 first forms a three-dimensional sphere with polygons, and attaches a texture (hereinafter, referred to as “eyeball texture”) to the three-dimensional sphere to form an eyeball model 250. The eyeball texture is an image including a pupil image 175. The eyeball texture is stored in an eye image storage unit (not shown) included in the data storage unit 148.

眼球モデル250の前方に、第1面252および第2面254が設定される。第1面252および第2面254は、目110のモニター170の表示面に対応する仮想的な平面である。眼生成部172は、眼球モデル250を第1面252に投影させることにより、三次元の眼球モデル250から2次元の眼球投影画像256を生成する。 The first surface 252 and the second surface 254 are set in front of the eyeball model 250. The first surface 252 and the second surface 254 are virtual planes corresponding to the display surfaces of the monitor 170 of the eyes 110. The eye generation unit 172 generates a two-dimensional eyeball projection image 256 from the three-dimensional eyeball model 250 by projecting the eyeball model 250 onto the first surface 252.

眼生成部172は、第2面254に瞼画像190を表示させる。第1面252の眼球投影画像256と第2面254の瞼画像190を重ね合わせることにより、図8等に示した眼画像171が生成される。眼生成部172は、右目用と左目用に2つの眼球モデル250を生成し、それぞれについて眼画像171を生成する。以下、第1面252および第2面254をまとめていうときには「眼球面258」とよぶ。 The eye generation unit 172 causes the eyelid image 190 to be displayed on the second surface 254. By superimposing the eyeball projection image 256 on the first surface 252 and the eyelid image 190 on the second surface 254, the eye image 171 shown in FIG. 8 or the like is generated. The eye generation unit 172 generates two eye model 250s for the right eye and the left eye, and generates an eye image 171 for each. Hereinafter, when the first surface 252 and the second surface 254 are collectively referred to as "eye ball 258".

眼生成部172は、眼球モデル250を回転させることにより、眼球投影画像256を変化させる。3次元の眼球モデル250を生成してこれを回転させながら第1面252に投影する方式であるため、第1面252に眼画像171を直接描画するよりもロボット100の視線の動きを滑らかに表現できる。二次元の眼画像171であっても、三次元の眼球モデル250を元にして生成・制御されるため、本方式は、生物の眼球に特有の複雑な動きを表現しやすい。 The eye generation unit 172 changes the eyeball projection image 256 by rotating the eyeball model 250. Since it is a method of generating a three-dimensional eyeball model 250 and projecting it on the first surface 252 while rotating it, the movement of the line of sight of the robot 100 is smoother than drawing the eye image 171 directly on the first surface 252. Can be expressed. Even the two-dimensional eye image 171 is generated and controlled based on the three-dimensional eyeball model 250, so that this method can easily express complicated movements peculiar to the eyeball of an organism.

眼生成部172は、第1面252とは異なる第2面254に瞼画像190を表示させることにより、瞼画像190を眼球投影画像256に重畳させる。人間は、目の前で手を叩かれたとき、反射的に目をつぶる。このような眼の条件反射をロボット100に実装する上では、瞼画像190を高速で変化させる必要がある。本実施形態においては、第1面252の画像処理と第2面254の画像処理が独立している。眼生成部172は、目をつぶる表現をするときには、第2面254だけを対象として画像制御すればよい。瞬きのときにも、眼生成部172は第2面254を対象として画像処理を実行すればよい。眼球モデル250(眼球投影画像256)と瞼画像190を別々に制御できるため、瞼画像190を高速に制御できる。このような構成により、眼生成部172は眼画像171を動的に生成できる。 The eye generation unit 172 superimposes the eyelid image 190 on the eyeball projection image 256 by displaying the eyelid image 190 on the second surface 254 different from the first surface 252. Humans reflexively close their eyes when they clap their hands in front of them. In order to implement such conditional reflection of the eye on the robot 100, it is necessary to change the eyelid image 190 at high speed. In the present embodiment, the image processing of the first surface 252 and the image processing of the second surface 254 are independent. When expressing the eyes closed, the eye generation unit 172 may control the image only on the second surface 254. Even when blinking, the eye generation unit 172 may perform image processing on the second surface 254. Since the eyeball model 250 (eyeball projection image 256) and the eyelid image 190 can be controlled separately, the eyelid image 190 can be controlled at high speed. With such a configuration, the eye generation unit 172 can dynamically generate the eye image 171.

ロボット100は、アナログスティック180の動きと連動して眼を動かす。ロボット100の眼の外観図を図11(a)、図11(b)、図11(c)、図11(d)に示す。 The robot 100 moves its eyes in conjunction with the movement of the analog stick 180. The external views of the eyes of the robot 100 are shown in FIGS. 11 (a), 11 (b), 11 (c), and 11 (d).

図11(a)はアナログスティック180を初期位置188から上に動かした場合のロボット100の眼の外観図である。
図11(b)はアナログスティック180を初期位置188から右に動かした場合のロボット100の眼の外観図である。
図11(c)はアナログスティック180を初期位置188から下に動かした場合のロボット100の眼の外観図である。
図11(d)はアナログスティック180を初期位置188から左に動かした場合のロボット100の眼の外観図である。
FIG. 11A is an external view of the eyes of the robot 100 when the analog stick 180 is moved upward from the initial position 188.
FIG. 11B is an external view of the eyes of the robot 100 when the analog stick 180 is moved from the initial position 188 to the right.
FIG. 11C is an external view of the eyes of the robot 100 when the analog stick 180 is moved downward from the initial position 188.
FIG. 11D is an external view of the eyes of the robot 100 when the analog stick 180 is moved from the initial position 188 to the left.

ユーザがアナログスティック180を動かすとき、操作検知部182はアナログスティック180の変形量および変形方向(傾斜角と傾斜方向)を検知する。眼生成部172は検知結果に基づいて眼球モデル250の回転方向と回転量を計算し、眼球モデル250を回転させる。具体的には、アナログスティック180の傾斜方向と同方向を回転方向として設定し、傾斜角に比例する回転量にて眼球モデル250を回転させる。眼生成部172は眼球モデル250を第1面252に投影する。このような制御により、ロボット100の眼画像171は、アナログスティック180の傾斜方向に視線を向けるような動きをする。ユーザはアナログスティック180を動かすことで、ロボット100の視線を変化させることができる。 When the user moves the analog stick 180, the operation detection unit 182 detects the deformation amount and the deformation direction (tilt angle and tilt direction) of the analog stick 180. The eye generation unit 172 calculates the rotation direction and the amount of rotation of the eyeball model 250 based on the detection result, and rotates the eyeball model 250. Specifically, the same direction as the tilt direction of the analog stick 180 is set as the rotation direction, and the eyeball model 250 is rotated by a rotation amount proportional to the tilt angle. The eye generation unit 172 projects the eyeball model 250 onto the first surface 252. By such control, the eye image 171 of the robot 100 moves so as to direct the line of sight in the tilting direction of the analog stick 180. The user can change the line of sight of the robot 100 by moving the analog stick 180.

図11(a)に示すように、アナログスティック180を上方向に傾けると、ロボット100も視線を上に向ける。図11(b)に示すように、アナログスティック180を右に傾けるとロボット100の視線は右を向く。アナログスティック180を下に傾けるとロボット100の視線は下を向き(図11(c))、左に傾けるとロボット100の視線は左に動く(図11(d))。上下左右以外の他の方向についても同様である。 As shown in FIG. 11A, when the analog stick 180 is tilted upward, the robot 100 also directs its line of sight upward. As shown in FIG. 11B, when the analog stick 180 is tilted to the right, the line of sight of the robot 100 turns to the right. When the analog stick 180 is tilted downward, the line of sight of the robot 100 faces downward (FIG. 11 (c)), and when tilted to the left, the line of sight of the robot 100 moves to the left (FIG. 11 (d)). The same applies to directions other than up, down, left, and right.

眼球モデル250を使用することにより、眼画像171をアナログスティック180の動きに高速に追随させることができる。ユーザが鼻109(アナログスティック180)をいじると、ロボット100は即座に眼を動かすから、ユーザはロボット100からの速やかな反応を体感できる。 By using the eyeball model 250, the eye image 171 can be made to follow the movement of the analog stick 180 at high speed. When the user touches the nose 109 (analog stick 180), the robot 100 immediately moves the eyes, so that the user can experience a quick reaction from the robot 100.

ロボット100は、鼻109がいじられるとき、瞳だけではなく、体(頭部、手及び車輪のうち少なくとも1つ)を動かしてもよい。アナログスティック180を素早く動かすとき、ロボット100も頭部や体をすぐに動かすことで反応を示せば、ロボット100において「反射的行動」という生物的な行動特性を表現できる。 The robot 100 may move not only the eyes but also the body (at least one of the head, hands and wheels) when the nose 109 is tampered with. When the analog stick 180 is moved quickly, if the robot 100 also shows a reaction by immediately moving the head and body, the robot 100 can express a biological behavior characteristic called "reflexive behavior".

例えば、ユーザがアナログスティック180を0.1秒以内に右方向に30度以上傾けたとき、ロボット100は頭部を右に向けるとしてもよい。このような制御方法によれば、鼻109(アナログスティック180)をすばやく大きく傾けることで、ロボット100は眼だけでなく頭も動かすという動作表現が可能となる。 For example, when the user tilts the analog stick 180 to the right by 30 degrees or more within 0.1 seconds, the robot 100 may turn its head to the right. According to such a control method, by tilting the nose 109 (analog stick 180) quickly and greatly, the robot 100 can express the motion of moving not only the eyes but also the head.

ロボット100は、鼻109の動きに眼を連動させるだけでなく、鼻109の動き方によっては体も動かすことで、鼻109のいじりに対して多様な反応を示す。ロボット100が体を動かすきっかけとなる鼻109の動きとしては、このほか、ユーザがアナログスティック180を上方向に弾くことや、高速にてアナログスティック180を左右に動かすことであってもよい。アナログスティック180の変形速度が所定の基準値を超えたときを「急激な動き」として定義し、アナログスティック180が急激な動きをしたとき、動作制御部150は複数のモーションのいずれかを選択してもよい。これらのモーションは、頭部を鼻109が動いた方向とは逆方向に回転させる、車輪を駆動して後ろに飛びのく等、生物が行う反射行動を表現するものであればよい。 The robot 100 not only links the eyes to the movement of the nose 109, but also moves the body depending on the movement of the nose 109, thereby exhibiting various reactions to the tampering of the nose 109. Other movements of the nose 109 that trigger the robot 100 to move the body may be the user flipping the analog stick 180 upward or moving the analog stick 180 left and right at high speed. When the deformation speed of the analog stick 180 exceeds a predetermined reference value, it is defined as "rapid movement", and when the analog stick 180 makes a sudden movement, the motion control unit 150 selects one of a plurality of motions. You may. These motions may represent reflexive behaviors performed by living things, such as rotating the head in the direction opposite to the direction in which the nose 109 moves, driving the wheels to fly backwards, and the like.

まとめると、鼻109(アナログスティック180)を動かすとき、眼生成部172はアナログスティック180の動きに合わせて眼球モデル250を回転させることで、眼画像171を変化させる。このため、鼻109の動きにより、ロボット100の視線を追随的に動かすことができる。いわば、鼻109が眼の操作デバイスであるかのようなユーザインタフェースが実現される。また、鼻109の動きが所定の条件を満たしたときには、動作制御部150は鼻109の動きに合わせてモーションを選択する。このため、鼻109の動かし方によっては、ロボット100は、眼画像171だけでなく、全身の動きによってユーザからの関わりに応えることができる。 In summary, when the nose 109 (analog stick 180) is moved, the eye generation unit 172 changes the eye image 171 by rotating the eyeball model 250 according to the movement of the analog stick 180. Therefore, the line of sight of the robot 100 can be continuously moved by the movement of the nose 109. So to speak, a user interface is realized as if the nose 109 is an eye operating device. Further, when the movement of the nose 109 satisfies a predetermined condition, the motion control unit 150 selects the motion according to the movement of the nose 109. Therefore, depending on how the nose 109 is moved, the robot 100 can respond to the user's involvement not only by the eye image 171 but also by the movement of the whole body.

動作制御部150は、鼻109の動きに追従するモーションを実行させてもよい。このように、眼生成部172はアナログスティック180の動きに合わせて眼画像171を変化させてもよい。また、動作制御部150はアナログスティック180の動きに合わせてモーションを変化させてもよい。これにより、アナログスティック180の操作方向と、眼画像171またはモーションの変化とが連動しているかのような印象をユーザに与えられる。 The motion control unit 150 may execute a motion that follows the movement of the nose 109. In this way, the eye generation unit 172 may change the eye image 171 according to the movement of the analog stick 180. Further, the motion control unit 150 may change the motion according to the movement of the analog stick 180. This gives the user the impression that the operating direction of the analog stick 180 and the change in the eye image 171 or the motion are linked.

図5(a)、(b)に関連して説明したとおり、鼻109は、目110や顔領域107に比べて小さい。鼻109のどの部分においてもユーザの接触を確実に検出する必要がある。そのため、鼻109の全域または大部分にセンサを設ける必要がある。ロボット100に対して同じ大きさのセンサを設ける場合、顔領域107に比べてより小さい鼻109はセンサの数が少なくて済む。したがって、ロボット100を製造するコストを抑えられる。 As described in relation to FIGS. 5A and 5B, the nose 109 is smaller than the eyes 110 and the face area 107. It is necessary to reliably detect user contact in any part of the nose 109. Therefore, it is necessary to provide sensors in the entire area or most of the nose 109. When sensors of the same size are provided for the robot 100, the number of sensors for the nose 109, which is smaller than the face area 107, can be reduced. Therefore, the cost of manufacturing the robot 100 can be suppressed.

また、鼻109は小さいにも関わらずユーザの目に留まりやすい。顔領域107の中央付近に設けられることや、ロボット100の表面に対して凸形状となっていることがその主な要因である。ユーザの目に留まりやすい鼻109に、アナログスティック180(操作デバイス)を設けることで、ロボット100における操作可能な部分(ユーザの接触を検出する部分)をユーザが認識しやすくなる。 Moreover, although the nose 109 is small, it is easily noticed by the user. The main factors are that it is provided near the center of the face region 107 and that it has a convex shape with respect to the surface of the robot 100. By providing the analog stick 180 (operation device) on the nose 109, which is easily noticed by the user, the user can easily recognize the operable part (the part for detecting the user's contact) in the robot 100.

ロボット100の内部パラメータ、例えば、感情パラメータに基づいて眼画像171を変化させてもよい。例えば、ロボット100のいらだちの度合いを示す感情パラメータの値が所定値以上のときには、眼生成部172はアナログスティック180の傾斜方向とは逆方向に眼球モデル250を回転させてもよい。 The eye image 171 may be changed based on the internal parameters of the robot 100, for example, the emotional parameters. For example, when the value of the emotion parameter indicating the degree of irritation of the robot 100 is equal to or higher than a predetermined value, the eye generation unit 172 may rotate the eyeball model 250 in the direction opposite to the tilting direction of the analog stick 180.

アナログスティック180の変形態様(変形方向、変形量、変形速度)を変数とし、眼球モデル250の回転方向および回転量を出力として定義する変換関数を用意してもよい。眼生成部172は、アナログスティック180の変形態様および変換関数に基づいて、眼球モデル250の回転方向および回転量を決定してもよい。 A conversion function may be prepared in which the deformation mode (deformation direction, deformation amount, deformation speed) of the analog stick 180 is used as a variable, and the rotation direction and rotation amount of the eyeball model 250 are defined as outputs. The eye generation unit 172 may determine the rotation direction and the amount of rotation of the eyeball model 250 based on the deformation mode and the conversion function of the analog stick 180.

眼生成部172は、感情パラメータに基づいて複数種類の変換関数のいずれかを選択してもよい。眼生成部172は、複数種類の変換関数のいずれかをランダムに選択してもよい。このような制御方法によれば、アナログスティック180の変形と眼の動きの連動性は維持しながらも、眼の動きに多様性を持たせることができる。ロボット100は、同じいじられ方に対して多様な眼の動きで応えるので、ユーザはロボット100のいろいろな表情を楽しめる。また、眼の動きに応じて、ロボット100の感情を推定することも可能となる。 The eye generation unit 172 may select one of a plurality of types of conversion functions based on emotional parameters. The eye generation unit 172 may randomly select any one of a plurality of types of conversion functions. According to such a control method, it is possible to give diversity to the movement of the eye while maintaining the interlocking of the deformation of the analog stick 180 and the movement of the eye. Since the robot 100 responds to the same tampering with various eye movements, the user can enjoy various facial expressions of the robot 100. It is also possible to estimate the emotions of the robot 100 according to the movement of the eyes.

ロボット100は、アナログスティック180の操作履歴に応じてモーションを変化させる。上述のとおり、操作検知部182はアナログスティック180の動き、すなわち、変形方向と変形量を逐次検知する。操作履歴管理部184は検知結果を、時系列に沿って操作履歴として記憶する。具体的には、操作履歴管理部184は、検知結果と検知時刻とを対応付けて記憶する。動作制御部150は、操作履歴、すなわちアナログスティック180の動き方に応じたモーションを選択する。 The robot 100 changes the motion according to the operation history of the analog stick 180. As described above, the operation detection unit 182 sequentially detects the movement of the analog stick 180, that is, the deformation direction and the deformation amount. The operation history management unit 184 stores the detection result as an operation history in chronological order. Specifically, the operation history management unit 184 stores the detection result and the detection time in association with each other. The motion control unit 150 selects a motion according to the operation history, that is, how the analog stick 180 moves.

アナログスティック180のいじられ方(操作のされ方)によって、状態管理部244は感情パラメータを変化させてもよい。例えば、ユーザが、やさしくアナログスティック180をいじれば、眼生成部172はそのいじり方に連動して眼を動かし始める。更に継続して同じようにいじり続けていれば、状態管理部244は安心感を示す感情パラメータを上昇させる。安心感を示す感情パラメータが所定値以上になると、眼生成部172は瞼画像190を下げる(閉眼する)ことでロボット100の眠気を表現する。このとき、動作制御部150は、頭を上下に動かすモーションを選択することで「うとうと」するさまを表現してもよい。やさしいいじり方、いいかえれば、ロボット100を安心させるアナログスティック180のいじり方は、設計者が任意に定義すればよい。たとえば、アナログスティック180を略同一のペースにて左右に往復運動させることでもよいし、アナログスティック180を動かさないまま鼻センサをアナログスティック180が押し込まれない程度の強さで所定回数以上叩き続けることであってもよい。 The state management unit 244 may change the emotional parameters depending on how the analog stick 180 is tampered with (operated). For example, if the user gently tampers with the analog stick 180, the eye generation unit 172 starts to move the eyes in conjunction with the tampering. If the same tampering is continued, the state management unit 244 raises the emotional parameter indicating a sense of security. When the emotional parameter indicating a sense of security becomes equal to or higher than a predetermined value, the eye generation unit 172 expresses the drowsiness of the robot 100 by lowering (closing the eyes) the eyelid image 190. At this time, the motion control unit 150 may express a "drowsiness" by selecting a motion for moving the head up and down. The designer can arbitrarily define how to play with the analog stick 180, which is easy to play with, in other words, how to play with the analog stick 180 that reassures the robot 100. For example, the analog stick 180 may be reciprocated to the left and right at substantially the same pace, or the nose sensor may be continuously tapped a predetermined number of times or more with a strength that does not push the analog stick 180 without moving the analog stick 180. It may be.

ユーザが、乱雑にアナログスティック180をいじり続ければ、ロボット100はそのいじり方に連動して眼を動かし始める。更に継続して乱雑にいじり続けていれば、苛立ちを示す感情パラメータが高まりロボット100は眼の動きを止める。また、ロボット100は頭部を左右に動かしユーザの指先をアナログスティック180から離そうとして、「いやいや」を表現する。「乱雑ないじり方」も、設計者により任意に定義されればよい。 If the user keeps messing around with the analog stick 180, the robot 100 starts to move his eyes in conjunction with the messing around. If the robot 100 continues to play with the mess, the emotional parameters indicating irritation increase and the robot 100 stops the movement of the eyes. Further, the robot 100 expresses "no" by moving the head left and right to move the user's fingertip away from the analog stick 180. The "messy tampering method" may also be arbitrarily defined by the designer.

一実施形態において、やさしくいじられている状態とは、単調な動きがなされている状態である。アナログスティック180からの出力値で表現するならば、単調な動きとは出力値に周期性があって、かつ、変形量が小さい状態が所定の期間より長く続く動きといえる。一実施形態において、乱雑にいじられている状態は、単調ではない動きがなされている状態である。アナログスティック180からの出力値で表現するならば、出力値に周期性がなく、かつ、変形量が大きい状態が所定の期間より長く続く動きといえる。このように、アナログスティック180の動きに連動して眼を動かし続けるだけでなく、所定条件を満たしたときにロボット100はアナログスティック180と眼の連動の仕方を変化させる。ロボット100は、「眠い」状態を、眼の動きを単に止めるのではなく、瞼を閉じたり身体を動かすことで表現する。 In one embodiment, the state of being gently tampered with is a state of monotonous movement. Expressed by the output value from the analog stick 180, a monotonous movement can be said to be a movement in which the output value has periodicity and the amount of deformation is small for a longer period than a predetermined period. In one embodiment, the messed up state is a state in which non-monotonous movements are made. When expressed by the output value from the analog stick 180, it can be said that the state in which the output value has no periodicity and the amount of deformation is large continues for a longer period than a predetermined period. In this way, not only does the eye continue to move in conjunction with the movement of the analog stick 180, but when a predetermined condition is satisfied, the robot 100 changes the way in which the analog stick 180 and the eye are linked. The robot 100 expresses a "sleepy" state by closing the eyelids or moving the body, rather than simply stopping the movement of the eyes.

例えば、アナログスティック180を最大傾斜角の30%以下の範囲内にて左右交互に動かす場合(以下、この動かし方を「左右交互傾斜」とよぶ)に、ロボット100は、眼の動きを止め瞼を閉じ頭部を上下に動かして「眠くなってきた」状態を表現するとしてもよい。操作履歴管理部184は、操作履歴を参照し、アナログスティック180の動きが「左右交互傾斜」に該当するかを判定する。左右交互傾斜に該当するとき、眼生成部172は眼球モデル250の動きを止め瞼画像190を表示する。また、動作制御部150は、ロボット100の頭部を上下に動かすモーションを選択する。これにより、ロボット100は目を閉じて頭部を上下に動かし、「眠たい」状態を表現する。 For example, when the analog stick 180 is moved alternately left and right within a range of 30% or less of the maximum tilt angle (hereinafter, this movement method is referred to as "alternate left and right tilt"), the robot 100 stops the movement of the eyes and the eyelids. It may be said that the state of "becoming sleepy" is expressed by closing and moving the head up and down. The operation history management unit 184 refers to the operation history and determines whether or not the movement of the analog stick 180 corresponds to "alternate left-right tilt". When it corresponds to the alternating left-right tilt, the eye generation unit 172 stops the movement of the eyeball model 250 and displays the eyelid image 190. Further, the motion control unit 150 selects a motion for moving the head of the robot 100 up and down. As a result, the robot 100 closes its eyes and moves its head up and down to express a "sleepy" state.

生物が眠たくなるのは安心しているときである。ロボット100をいじり、ロボット100が眠たいという行動表現をすれば、ユーザはロボット100をいじることでロボット100が安心していると感じることができる。状態管理部244は、左右交互傾斜が検出されたとき、安心感を示す感情パラメータを増加させる。安心感を示す感情パラメータは所定値を超過したとき、ロボット100は目を閉じて頭部を上下に動かすとしてもよい。 It is when you feel at ease that an organism becomes sleepy. If the robot 100 is tampered with and the behavioral expression that the robot 100 wants to sleep is expressed, the user can feel that the robot 100 is relieved by tampering with the robot 100. The state management unit 244 increases the emotional parameter indicating a sense of security when the alternating left-right inclination is detected. When the emotional parameter indicating a sense of security exceeds a predetermined value, the robot 100 may close its eyes and move its head up and down.

ユーザがロボット100を横抱きしたときには、ユーザの視界の大部分をロボット100が占めることになる。このとき、ユーザはロボット100の細かな変化に気づきやすくなる。ユーザは、横抱きしたロボット100の鼻109や目110を注視しやすくなる。この状態を検出したとき、例えば、ロボット100のカメラによる撮像画像によりユーザがロボット100を横抱きしている状態を検出したときにおいて、ユーザが鼻109をいじったときに、アナログスティック180の動きと連動して眼が変化すれば、ユーザはロボット100以外のものに意識をとられることなく、ロボット100に没入できる。 When the user holds the robot 100 sideways, the robot 100 occupies most of the user's field of view. At this time, the user can easily notice small changes in the robot 100. The user can easily gaze at the nose 109 and the eyes 110 of the robot 100 held sideways. When this state is detected, for example, when the user detects the state in which the robot 100 is held sideways by the image captured by the camera of the robot 100, when the user tampers with the nose 109, it is linked with the movement of the analog stick 180. If the eyes change, the user can immerse himself in the robot 100 without being conscious of anything other than the robot 100.

生物は、短期間の刺激には鈍感に反応するが、長期間の刺激にさらされると大きく動きだすことがある。ロボット100においても、ユーザからの接触が続くと徐々に動きを大きなものにしていくことで同様の挙動を表現できる。ユーザが鼻109をいじり続けると、最初は眼だけを動かしていたロボット100は頭部も動かしはじめる。動作制御部150は、変形継続時間が長くなるにつれて、鼻109から遠い箇所を駆動させてもよい。たとえば、鼻109をいじるとロボット100は眼画像171を動かし、鼻109をいじり続けるとロボット100は頭部をゆっくりと動かす。鼻109を更にいじりつづけると、ロボット100は手をうごかし、鼻109を更にいじりつづけるとロボット100はユーザから離れる方向に移動するとしてもよい。変形継続時間は、アナログスティック180の傾斜が継続している時間として定義されてもよいし、鼻センサのタッチの継続時間として定義されてもよい。 Organisms respond insensitively to short-term stimuli, but can begin to move significantly when exposed to long-term stimuli. Even in the robot 100, the same behavior can be expressed by gradually increasing the movement as the contact from the user continues. As the user continues to mess with the nose 109, the robot 100, which initially moved only the eyes, also begins to move the head. The motion control unit 150 may drive a portion far from the nose 109 as the deformation duration becomes longer. For example, when the nose 109 is tampered with, the robot 100 moves the eye image 171, and when the nose 109 is continuously tampered with, the robot 100 slowly moves the head. If the nose 109 is further tampered with, the robot 100 may move its hand, and if the nose 109 is further tampered with, the robot 100 may move away from the user. The deformation duration may be defined as the duration of the tilt of the analog stick 180 or the duration of the touch of the nasal sensor.

他例として、ユーザが左右交互傾斜を10秒続けた時点で、ロボット100は頭部を上下に動かし、「眠たくなってきてうとうとし始める」状態を表現する。 As another example, when the user continues to tilt the left and right alternately for 10 seconds, the robot 100 moves the head up and down to express a state of "becoming sleepy and drowsy".

続けて、ユーザが左右交互傾斜を20秒以上続けたとする。この場合には、ロボット100は、更に、手106をボディ104に寄せ、前輪102および後輪103をボディ104に収納してもよい。このようにユーザが左右交互傾斜を続けると、ロボット100はまず、眼を動かし、続いて、頭を動かすことで「うとうと」し、さらに両手両足を体に寄せて「眠っている」状態になる。 Subsequently, it is assumed that the user continues the left-right alternating inclination for 20 seconds or more. In this case, the robot 100 may further move the hand 106 toward the body 104 and store the front wheels 102 and the rear wheels 103 in the body 104. When the user continues to tilt left and right alternately in this way, the robot 100 first moves its eyes, then moves its head to "drows", and then brings both hands and feet closer to the body to "sleep". ..

ユーザが左右交互傾斜をするとき、アナログスティック180を速く動かすか、ゆっくり動かすかに応じてロボット100はモーションを変化させてもよい。操作履歴管理部184は、アナログスティック180の変形量および変形方向を操作履歴として記録する。操作履歴管理部184は、操作履歴から変形速度(単位時間あたりの変化量)を計算する。 When the user alternately tilts left and right, the robot 100 may change the motion depending on whether the analog stick 180 is moved fast or slowly. The operation history management unit 184 records the deformation amount and the deformation direction of the analog stick 180 as the operation history. The operation history management unit 184 calculates the deformation speed (change amount per unit time) from the operation history.

変形継続時間が10秒以上となったときであって、その10秒間の変形速度が所定値以下の場合には、動作制御部150は頭部を上下に動かすモーションを選択する。一方、変形速度が所定値を超える場合には、動作制御部150は頭部を左右に動かすモーションを選択する。このような制御により、ロボット100は頭部を横に振って「いやいや」を表現する。 When the deformation duration is 10 seconds or more and the deformation speed for 10 seconds is equal to or less than a predetermined value, the motion control unit 150 selects a motion for moving the head up and down. On the other hand, when the deformation speed exceeds a predetermined value, the motion control unit 150 selects a motion for moving the head left and right. With such control, the robot 100 shakes its head sideways to express "no".

第1実施形態のロボット100は、ユーザによる鼻109のいじり方によってモーションを変化させる。ここでいういじり方とは、単にアナログスティック180の変形方向のみを意味するのではない。たとえば、アナログスティック180を小さく動かすか大きく動かすか、すなわち単調か否かや、速く動かすかゆっくり動かすか、すなわち、乱暴にさわるか撫でるようにさわるかといった細かな動かし方をも含む。ユーザのいじり方の細かな違いに応じてロボット100がモーションを変化させれば、ユーザはロボット100に対して飽きずに接することができる。 The robot 100 of the first embodiment changes the motion depending on how the user tampers with the nose 109. The tampering method here does not simply mean the deformation direction of the analog stick 180. For example, it includes fine movements such as whether the analog stick 180 is moved small or large, that is, monotonous, and whether it is moved fast or slowly, that is, whether it is roughly touched or stroked. If the robot 100 changes the motion according to the slight difference in how the user is tampered with, the user can come into contact with the robot 100 without getting tired of it.

ロボット100のユーザに対する親密度や、その時々における感情パラメータの状態等、ロボット100の内部パラメータに応じて、「眠たい」状態に至るまでの時間が変化するとしてもよい。 The time required to reach the "sleepy" state may change depending on the internal parameters of the robot 100, such as the intimacy of the robot 100 with respect to the user and the state of emotional parameters at that time.

ロボット100が目を閉じており、移動やモーションを実行しない状態が所定時間以上にわたり継続されているとき(ロボット100が寝ている状態のとき)に、ユーザが鼻109をいじったとする。この状態のときにアナログスティック180の動きを検出すると、ロボット100は目を閉じた眼画像171から開いた眼画像171へ変化させ、移動やモーションを実行するとしてもよい。このように、所定の眼画像171であって、かつ、モーションを実行していないときに、ユーザの接触を検出すると、ロボット100は眼画像171を変化させモーションを実行するとしてもよい。 It is assumed that the user has tampered with the nose 109 when the robot 100 has his eyes closed and the state of not performing movement or motion is continued for a predetermined time or longer (when the robot 100 is sleeping). When the movement of the analog stick 180 is detected in this state, the robot 100 may change the eye image 171 with the eyes closed to the eye image 171 with the eyes open, and execute the movement or the motion. As described above, if the contact of the user is detected when the predetermined eye image 171 is and the motion is not executed, the robot 100 may change the eye image 171 and execute the motion.

親密度に応じてロボット100のモーションを変化させてもよい。例えば、親密度が所定値以上のユーザが鼻109をいじると、ロボット100は頭部をユーザに近づける。一方、親密度が所定値未満のユーザが同じように鼻109をいじると、ロボット100は頭部をユーザからそむける。このように、動作制御部150は、アナログスティック180の変形態様およびアナログスティック180を操作するユーザの親密度に応じて、複数のモーションからいずれかのモーションを選択してもよい。具体的には、親密度がT1以上のユーザのよる所定の操作入力がなされたときには動作制御部150はモーションM1〜M3のいずれかをランダムに選択し、親密度がT1未満のユーザによる同じ操作入力がなされたときには動作制御部150はモーションM4〜M6のいずれかをランダムに選択するとしてもよい。 The motion of the robot 100 may be changed according to the intimacy. For example, when a user whose intimacy is equal to or higher than a predetermined value tampers with the nose 109, the robot 100 brings the head closer to the user. On the other hand, when a user whose intimacy is less than a predetermined value similarly tampers with the nose 109, the robot 100 turns its head away from the user. As described above, the motion control unit 150 may select one of a plurality of motions according to the deformation mode of the analog stick 180 and the intimacy of the user who operates the analog stick 180. Specifically, when a predetermined operation input is made by a user having an intimacy of T1 or more, the motion control unit 150 randomly selects one of motions M1 to M3, and the same operation by a user having an intimacy of less than T1. When an input is made, the motion control unit 150 may randomly select any one of the motions M4 to M6.

何かに愛着を持たせるためには、人間がそのものに対して関わる時間をできるだけ長くする必要がある。第1実施形態のロボット100はユーザとの親密度によっても挙動が変化する。ユーザが同じようないじり方をしても親密度によってロボット100のモーションが変化するから、ユーザはロボット100に飽きずに接し続けることができる。接し続けることで、ユーザにロボット100に対する愛着を抱かせることができる。また、やさしく接し続けることでロボット100のユーザに対する親密度も高まる。親密度が変化することでロボット100の反応も変化する。鼻109に対する操作、親密度(ロボット100のユーザに対する気持ち)、感情パラメータ(ロボット100の気分)が複雑に影響し合うことでロボット100は状況に応じた多様な行動表現を実現できる。 In order to be attached to something, it is necessary for human beings to spend as much time as possible on themselves. The behavior of the robot 100 of the first embodiment changes depending on the intimacy with the user. Since the motion of the robot 100 changes depending on the intimacy even if the user makes the same tampering, the user can continue to touch the robot 100 without getting tired of it. By continuing to be in contact with the robot, the user can be attached to the robot 100. In addition, by continuing to interact gently, the intimacy of the robot 100 with respect to the user is increased. As the intimacy changes, so does the reaction of the robot 100. The robot 100 can realize various behavioral expressions according to the situation by the complex influence of the operation on the nose 109, the intimacy (feelings toward the user of the robot 100), and the emotional parameters (feelings of the robot 100).

ロボット100は、ユーザが鼻109をいじると、最初は眼を動かし、次いで頭部を動かし、さらにボディ104を動かしはじめる。また、ロボット100において、「鼻109のアナログスティック180を動かすと眼が動く」機能(以下、この機能を「瞳連動機能」とよぶことがある)が有効になるのは、ユーザがロボット100を、顔をユーザ側に向けて横抱きしていることを条件としてもよい。 When the user tampers with the nose 109, the robot 100 first moves the eyes, then the head, and then the body 104. Further, in the robot 100, the function of "moving the analog stick 180 of the nose 109 to move the eyes" (hereinafter, this function may be referred to as "pupil interlocking function") is enabled by the user using the robot 100. , It may be a condition that the face is held sideways toward the user side.

ロボット100が横抱きされていないときに、ユーザがアナログスティック180を動かしても、ロボット100の眼は瞬きをするだけであってもよい。ユーザがロボット100を横抱きしていることは、ロボット100の表面の接触を検知するタッチセンサ(図示せず)とロボット100の傾きを検知する加速度センサ(図示せず)によって検知される。認識部156はタッチセンサおよび加速度センサを介してユーザのロボット100への接触を検知する。姿勢判断部(図示せず)は認識部156が検知した検知結果から、ユーザがロボット100へどのような姿勢で接触しているかについて特定する。ユーザがロボット100を横抱きにしていると特定した場合に、姿勢判断部は操作履歴管理部184へ瞳連動機能を有効にするように指示をする。姿勢判断部からの指示を受けた操作履歴管理部184は、瞳連動機能を有効とし、上述のとおりアナログスティック180の動き方に応じた眼の動きを発動させる。このように、ロボット100の抱っこなどの姿勢に応じて、鼻109の操作に対するロボット100の行動特性を変化させてもよい。 Even if the user moves the analog stick 180 when the robot 100 is not held sideways, the eyes of the robot 100 may only blink. The fact that the user is holding the robot 100 sideways is detected by a touch sensor (not shown) that detects contact with the surface of the robot 100 and an acceleration sensor (not shown) that detects the inclination of the robot 100. The recognition unit 156 detects the user's contact with the robot 100 via the touch sensor and the acceleration sensor. The posture determination unit (not shown) identifies the posture in which the user is in contact with the robot 100 from the detection result detected by the recognition unit 156. When the user identifies that the robot 100 is held sideways, the posture determination unit instructs the operation history management unit 184 to enable the pupil interlocking function. The operation history management unit 184, which receives an instruction from the posture determination unit, enables the pupil interlocking function and activates the movement of the eyes according to the movement of the analog stick 180 as described above. In this way, the behavioral characteristics of the robot 100 with respect to the operation of the nose 109 may be changed according to the posture of the robot 100 such as hugging.

ユーザとロボット100が所定の位置関係にあること、ユーザの姿勢が所定の姿勢であることなどをタッチセンサ、加速度センサまたは撮像画像に基づいて検出したことを条件として、姿勢判断部が瞳連動機能を有効にしてもよい。例えば、瞳連動機能が有効となるのは、ユーザがロボット100の顔を自身に向かせて横抱きにしているときである。ユーザがロボット100に意識を集中させていないときにロボット100が反応してもユーザがその反応を見逃す可能性が高い。ロボット100がこの姿勢になったときにアナログスティック180と眼の動きを連動させるとすることで、ユーザの意識をロボット100に集中させてロボット100の細かな変化に気づかせることができる。なお、ユーザがロボット100を横抱きにすることを検出したことに代えて、例えばユーザの膝の上で向かい合わせに座る等ユーザの意識をロボット100に集中させてロボット100の細かな変化に気づかせられる姿勢となっていることを検出したことを、瞳連動機能を有効にするための条件としてもよい。また、タッチセンサや加速度センサに限らず、ロボット100の顔認証技術を用いてユーザとロボット100とが向かい合っているかを検知することを、瞳連動機能を有効にするための条件としてもよい。ロボット100が車輪をボディ104に完全に収納した状態を「抱っこモード」と定義し、「抱っこモード」の状態で、かつ、顔認証技術等によってユーザとロボット100が向かい合っていると特定したときに、瞳連動機能が有効になるとしてもよい。 The posture determination unit has a pupil interlocking function on condition that the user and the robot 100 are in a predetermined positional relationship and the user's posture is detected based on the touch sensor, the acceleration sensor, or the captured image. May be enabled. For example, the pupil interlocking function is effective when the user is holding the robot 100 sideways with the face of the robot 100 facing itself. Even if the robot 100 reacts when the user is not concentrating on the robot 100, there is a high possibility that the user will miss the reaction. By linking the movement of the eyes with the analog stick 180 when the robot 100 is in this posture, it is possible to concentrate the user's consciousness on the robot 100 and notice small changes in the robot 100. Instead of detecting that the user holds the robot 100 sideways, the user's consciousness is concentrated on the robot 100, for example, sitting face to face on the user's lap, and the robot 100 is made aware of small changes. The detection that the user is in the desired posture may be a condition for enabling the pupil interlocking function. Further, not limited to the touch sensor and the acceleration sensor, it may be a condition for enabling the pupil interlocking function to detect whether the user and the robot 100 are facing each other by using the face recognition technology of the robot 100. When the robot 100 defines the state in which the wheels are completely housed in the body 104 as the "holding mode", and the user and the robot 100 are identified as facing each other by face recognition technology or the like in the "holding mode" state. , The pupil interlocking function may be enabled.

[第2実施形態]
第2実施形態のロボット100は、鼻109が動かされたときの鼻109の軌跡(経路パターン)に応じて眼の動き(眼動作)を変化させる。なお、第2実施形態のロボット100は第1実施形態のロボット100と同じ概観を有する。
[Second Embodiment]
The robot 100 of the second embodiment changes the movement of the eyes (eye movement) according to the locus (path pattern) of the nose 109 when the nose 109 is moved. The robot 100 of the second embodiment has the same appearance as the robot 100 of the first embodiment.

図12は、第2実施形態におけるロボットシステム300の機能ブロック図である。
第2実施形態におけるロボット100のデータ格納部148は、更に、眼動作格納部174を含む。眼動作格納部174は、アナログスティック180の動き方(変形パターン)とロボットの目の動き(眼動作)とを対応づけて格納する。第2実施形態におけるロボット100のモーション格納部160には、アナログスティック180の変形状態(アナログスティック180が初期位置から動かされている状態)の継続時間(変形継続時間)に応じたモーションも格納されている。
FIG. 12 is a functional block diagram of the robot system 300 according to the second embodiment.
The data storage unit 148 of the robot 100 in the second embodiment further includes an eye movement storage unit 174. The eye movement storage unit 174 stores the movement of the analog stick 180 (deformation pattern) and the movement of the robot's eyes (eye movement) in association with each other. The motion storage unit 160 of the robot 100 in the second embodiment also stores a motion corresponding to the duration (deformation duration) of the deformed state of the analog stick 180 (the state in which the analog stick 180 is moved from the initial position). ing.

第2実施形態におけるロボット100の操作履歴管理部184は、操作検知部182の検知結果を時系列に沿って操作履歴として記憶する。操作履歴管理部184は、記憶している操作履歴と眼動作格納部174に格納される変形パターン(詳細後述)の実行条件とを照合し、操作履歴がいずれかの実行条件と一致したとき、その変形パターンに対応づけられる眼動作を実行するよう眼生成部172へ指示する。眼生成部172は、操作履歴管理部184からの指示を受け、眼動作を実行する。「眼動作」とは、第1実施形態と同様、眼球モデル250の回転による眼画像171の変化を意味する。 The operation history management unit 184 of the robot 100 in the second embodiment stores the detection result of the operation detection unit 182 as an operation history in chronological order. The operation history management unit 184 collates the stored operation history with the execution conditions of the deformation pattern (details will be described later) stored in the eye movement storage unit 174, and when the operation history matches any of the execution conditions, The eye generation unit 172 is instructed to perform an eye movement associated with the deformation pattern. The eye generation unit 172 receives an instruction from the operation history management unit 184 and executes the eye movement. The “eye movement” means a change in the eye image 171 due to the rotation of the eyeball model 250, as in the first embodiment.

第2実施形態におけるロボット100も、鼻109に備えられるアナログスティック180の操作履歴に応じて、眼画像171を変化させる。また、変形継続時間に応じて、モーションを選択し、ロボット100の駆動機構120を制御する。 The robot 100 in the second embodiment also changes the eye image 171 according to the operation history of the analog stick 180 provided on the nose 109. Further, the motion is selected according to the deformation duration to control the drive mechanism 120 of the robot 100.

図13は、操作履歴に基づくロボット100の眼動作とモーションについて示すフローチャートである。
上述のとおり、操作履歴管理部184は操作検知部182の検知結果を時系列に沿って操作履歴として記憶していく(S10)。操作履歴管理部184は記憶している操作履歴が眼動作格納部174に格納される変形パターンのいずれかに一致するか否かを判定する(S12)。一致する変形パターンが存在する場合には(S12のY)、操作履歴管理部184は操作履歴に基づき変形状態がどのくらい続いているのか逐次判定する(S14)。一致する変形パターンが存在しない場合には(S12のN)、以降の処理をスキップする。変形継続時間が5秒未満の場合には(S14のN)、操作履歴管理部184は眼生成部172へ変形パターンに対応する眼動作の実行を指示する(S16)。一方、変形継続時間が5秒以上になる場合には(S14のY)、操作履歴管理部184は眼生成部172へ閉眼動作の実行を指示し(S18)、動作制御部150へモーション格納部160よりモーションを照会して駆動機構120に実行させる指示を出す(S20)。
FIG. 13 is a flowchart showing eye movements and motions of the robot 100 based on the operation history.
As described above, the operation history management unit 184 stores the detection result of the operation detection unit 182 as an operation history in chronological order (S10). The operation history management unit 184 determines whether or not the stored operation history matches any of the deformation patterns stored in the eye movement storage unit 174 (S12). When there is a matching deformation pattern (Y in S12), the operation history management unit 184 sequentially determines how long the deformation state continues based on the operation history (S14). If there is no matching deformation pattern (N in S12), the subsequent processing is skipped. When the deformation duration is less than 5 seconds (N in S14), the operation history management unit 184 instructs the eye generation unit 172 to execute the eye movement corresponding to the deformation pattern (S16). On the other hand, when the deformation duration is 5 seconds or more (Y in S14), the operation history management unit 184 instructs the eye generation unit 172 to execute the eye closing operation (S18), and the motion control unit 150 is instructed to execute the motion storage unit. The motion is inquired from 160 and an instruction is given to the drive mechanism 120 to execute the motion (S20).

具体的には、ロボット100の操作履歴管理部184は、変形パターンにあらかじめ対応づけられる眼動作を選択し、眼生成部172に実行を指示する。たとえば、アナログスティック180を時計回りに1周させるというあらかじめ定められた実行条件によって定義される変形パターンに、眼をぐるぐる回すという眼動作が対応づけられているとする。この場合において、ユーザがアナログスティック180を時計回りに1周させたとき、ロボット100はぐるぐる眼を回す。動作制御部150はまた、変形継続時間にあらかじめ対応づけられる1以上のモーションからいずれかのモーションを選択する。変形継続時間が5秒以上という条件が成立したとき、この変形継続時間にロボット100の頭部を左右に動かすというモーションが対応づけられているとする。この場合、ユーザがアナログスティック180をたとえば6秒動かし続けたとき、ロボット100は頭部を左右に振る。 Specifically, the operation history management unit 184 of the robot 100 selects an eye movement associated with the deformation pattern in advance, and instructs the eye generation unit 172 to execute the eye movement. For example, it is assumed that the eye movement of turning the eye is associated with the deformation pattern defined by the predetermined execution condition of rotating the analog stick 180 clockwise once. In this case, when the user makes one round of the analog stick 180 clockwise, the robot 100 turns its eyes round and round. The motion control unit 150 also selects one or more motions from one or more motions that are associated with the deformation duration in advance. When the condition that the deformation duration is 5 seconds or more is satisfied, it is assumed that the motion of moving the head of the robot 100 to the left or right is associated with the deformation duration. In this case, when the user keeps moving the analog stick 180 for, for example, 6 seconds, the robot 100 swings its head left and right.

図14(a)は、眼動作テーブル420のデータ構造図である。図14(b)は、アナログスティック180の変形パターン選択テーブル440のデータ構造図である。
眼動作テーブル420は、アナログスティック180の変形パターンと眼動作の対応関係を定義する。変形パターン選択テーブル440は、各変形パターンがどのようなパラメータで定義されるかを示す。眼動作テーブル420および変形パターン選択テーブル440は、眼動作格納部174に格納される。
FIG. 14A is a data structure diagram of the eye movement table 420. FIG. 14B is a data structure diagram of the deformation pattern selection table 440 of the analog stick 180.
The eye movement table 420 defines the correspondence between the deformation pattern of the analog stick 180 and the eye movement. The deformation pattern selection table 440 shows what kind of parameter each deformation pattern is defined by. The eye movement table 420 and the deformation pattern selection table 440 are stored in the eye movement storage unit 174.

操作履歴はアナログスティック180の変形方向と変形量と対応する時刻が時系列に沿って記録されたものである。操作履歴を参照することで、アナログスティック180が辿った経路(軌跡)を特定できる。たとえば、時計回りに1周するときの軌跡となる経路R1を辿り、かつ、経路R1を辿る動きが1秒以内となるアナログスティック180の動作は、変形パターンA1と定義される。第2実施形態においては、本実施形態の「変形態様」に経路を含む。同様に、初期位置から左右左の順にアナログスティック180を動かし、初期位置へ戻すときの軌跡となる経路R2を辿り、かつ、経路R2を辿る動きが2秒以内となるアナログスティック180の動作は、変形パターンA2と定義される。初期位置から押し込むときの軌跡となる経路R3を辿り、経路R3を辿る動きが0.5秒以内に行われるアナログスティック180の動作は、変形パターンA3と定義される。 In the operation history, the deformation direction of the analog stick 180 and the time corresponding to the deformation amount are recorded in chronological order. By referring to the operation history, the path (trajectory) followed by the analog stick 180 can be specified. For example, the operation of the analog stick 180 that follows the path R1 that is the locus when making one round clockwise and the movement that follows the path R1 is within 1 second is defined as the deformation pattern A1. In the second embodiment, the "modification mode" of the present embodiment includes a route. Similarly, the operation of the analog stick 180 in which the analog stick 180 is moved in the order of left and right from the initial position, the path R2 which is the trajectory when returning to the initial position is followed, and the movement following the path R2 is within 2 seconds is performed. It is defined as the deformation pattern A2. The operation of the analog stick 180 that follows the path R3, which is the locus when pushing from the initial position, and the movement of following the path R3 is performed within 0.5 seconds is defined as the deformation pattern A3.

それぞれの変形パターンは眼動作と対応づけられる。例えば、変形パターンA1の場合には、眼生成部172は眼をぐるぐる回す動作(眼動作M1)を実行する。変形パターンA2の場合には、眼生成部172は瞬きをする動作(眼動作M2)を実行する。変形パターンA3の場合には、眼生成部172は両眼を寄せる動作(眼動作M3)を実行する。 Each deformation pattern is associated with eye movement. For example, in the case of the deformation pattern A1, the eye generation unit 172 executes an motion of turning the eye (eye motion M1). In the case of the deformation pattern A2, the eye generation unit 172 executes a blinking motion (eye motion M2). In the case of the deformation pattern A3, the eye generation unit 172 executes an operation of bringing both eyes together (eye movement M3).

ユーザがアナログスティック180を動かすと、内部センサ128を介して操作検知部182がアナログスティック180の動きを検知する。動き方は操作検知部182から操作履歴管理部184へと伝わり、操作履歴管理部184は変形継続時間が5秒未満だった場合にその動き方と眼動作格納部174に格納されている変形パターンの実行条件とを比較する(変形継続時間が5秒以上である場合については後述)。5秒以内の操作であって、アナログスティック180の動き方がいずれかの変形パターンの実行条件と一致した場合には、操作履歴管理部184はその変形パターンに対応づけられる眼動作を特定する。操作履歴管理部184は特定した眼動作の実行を眼生成部172へ指示する。眼生成部172は特定された眼動作を実行する。 When the user moves the analog stick 180, the operation detection unit 182 detects the movement of the analog stick 180 via the internal sensor 128. The movement method is transmitted from the operation detection unit 182 to the operation history management unit 184, and the operation history management unit 184 transfers the movement method and the deformation pattern stored in the eye movement storage unit 174 when the deformation duration is less than 5 seconds. (The case where the deformation duration is 5 seconds or more will be described later). If the operation is performed within 5 seconds and the movement of the analog stick 180 matches the execution condition of any of the deformation patterns, the operation history management unit 184 identifies the eye movement associated with the deformation pattern. The operation history management unit 184 instructs the eye generation unit 172 to execute the specified eye movement. The eye generator 172 performs the specified eye movement.

具体的には、たとえば、経路R1を辿るようにユーザがアナログスティック180を動かし、その動きを0.5秒で完了させたとする。この動き方は変形パターンA1の実行条件と一致するから、操作履歴管理部184は変形パターンA1に対応づけられる眼動作M1を特定し、眼生成部172は眼動作M1、すなわち眼をぐるぐる回す動作を行う。 Specifically, for example, it is assumed that the user moves the analog stick 180 so as to follow the path R1 and completes the movement in 0.5 seconds. Since this movement matches the execution condition of the deformation pattern A1, the operation history management unit 184 identifies the eye movement M1 associated with the deformation pattern A1, and the eye generation unit 172 refers to the eye movement M1, that is, the movement of spinning the eye. I do.

第2実施形態におけるロボット100は、眼動作だけでなく、アナログスティック180の変形継続時間に応じてロボット100の挙動が変化する。 In the robot 100 of the second embodiment, the behavior of the robot 100 changes according to not only the eye movement but also the deformation duration of the analog stick 180.

図15はモーション選択テーブル460のデータ構造図である。
モーション選択テーブル460は、変形継続時間とモーションの対応関係を定義する。モーション選択テーブル460は、モーション格納部160に格納される。
FIG. 15 is a data structure diagram of the motion selection table 460.
The motion selection table 460 defines the correspondence between the deformation duration and the motion. The motion selection table 460 is stored in the motion storage unit 160.

上述のとおり、変形継続時間が5秒以上となった場合には、操作履歴管理部184は眼を閉じる動作(閉眼動作)の実行を指示する。眼生成部172は操作履歴管理部184からの指示に基づき、閉眼動作を実行する。
動作制御部150は、モーション格納部160から変形継続時間が5秒以上の場合に対応するモーションであるモーションC1を特定する。モーションC1は、ロボット100の頭部を左右に動かす動きである。ロボット100は、眼を閉じて頭部を左右に振って「顔をそむける」挙動を示す。
As described above, when the deformation duration is 5 seconds or more, the operation history management unit 184 instructs the execution of the eye closing operation (eye closing operation). The eye generation unit 172 executes the eye closing operation based on the instruction from the operation history management unit 184.
The motion control unit 150 identifies the motion C1 which is the corresponding motion when the deformation duration is 5 seconds or more from the motion storage unit 160. Motion C1 is a movement that moves the head of the robot 100 left and right. The robot 100 exhibits a behavior of "turning away" by closing its eyes and shaking its head from side to side.

変形継続時間が15秒以上となった場合には、動作制御部150はモーションC2を選択する。モーションC2はロボット100の手を上げ下げする動きである。動作制御部150はモーションC1とモーションC2を発動させる。すると、ロボット100はモーションC1とモーションC2の動きをし、眼をつむり、頭を振りながら手をばたばたさせる「いやいや」の動きを表現する。 When the deformation duration is 15 seconds or more, the motion control unit 150 selects motion C2. Motion C2 is a movement of raising and lowering the hand of the robot 100. The motion control unit 150 activates motion C1 and motion C2. Then, the robot 100 makes motions C1 and C2, and expresses a "no-no" movement in which the eyes are closed and the hands are fluttered while shaking the head.

動作制御部150は、変形継続時間が短いうちは鼻109から所定範囲内であるロボット100の頭部までの部位を駆動対象とするモーションを選択する。変形継続時間が長くなると、ロボット100の頭部より外を駆動するモーションも選択対象となる。 The motion control unit 150 selects a motion for driving a portion from the nose 109 to the head of the robot 100 within a predetermined range while the deformation duration is short. When the deformation duration becomes long, the motion for driving the outside of the head of the robot 100 is also selected.

第2実施形態におけるロボット100は、鼻109に設けられたアナログスティック180の動きに応じて眼を動かす。アナログスティック180が動かされ続けると、ロボット100は頭を動かし始める。頭が動き始めてもなお、アナログスティック180が動かされ続けると、ロボット100は体を動かし始める。このように、ユーザが鼻109をいじりつづけることでロボット100は眼を動かし、次いで頭や体を動かし始めるから、ユーザは、ロボット100が触られることに飽きてくる、くすぐったく感じ始める等生物のようなふるまいをしていると感じ、ロボット100に対して生物と接している感覚を味わえる。 The robot 100 in the second embodiment moves its eyes in response to the movement of the analog stick 180 provided on the nose 109. As the analog stick 180 continues to move, the robot 100 begins to move its head. Even if the head starts to move, if the analog stick 180 continues to move, the robot 100 starts to move the body. In this way, as the user keeps messing with the nose 109, the robot 100 moves the eyes and then the head and body, so that the user gets tired of being touched by the robot 100, begins to feel tickled, and so on. You can feel that you are behaving and you can feel that the robot 100 is in contact with living things.

第2実施形態においては、アナログスティック180は鼻109に設置される。コミュニケーションに際しては、人間は相手の顔を見ることが多い。ロボットと触れ合う際においても同様であり、ユーザはロボット100の顔領域107を見ながらロボット100に触ると考えられる。このとき、ユーザの目に触れる箇所、たとえば、顔や鼻などにユーザが無意識にいじりたくなるものがあれば、ユーザは思わず触ってしまう可能性が高い。第2実施形態のロボット100においては鼻109がそれにあたる。無意識にいじりたくなる鼻109のアナログスティック180を動かすとロボット100がその動きに応じた挙動を示すから、ユーザはロボット100に対して生きているかのような印象を受けてより愛着を抱くようになる。 In the second embodiment, the analog stick 180 is installed on the nose 109. When communicating, humans often look at the other person's face. The same applies when touching the robot, and it is considered that the user touches the robot 100 while looking at the face area 107 of the robot 100. At this time, if there is something that the user wants to unknowingly touch, such as a face or nose, the user is likely to touch it unintentionally. In the robot 100 of the second embodiment, the nose 109 corresponds to it. When the analog stick 180 of the nose 109 that makes you want to mess with it unconsciously is moved, the robot 100 behaves according to the movement. Become.

図16は、定常時のロボット100の正面図である。図16は、ユーザがロボット100に触れていない定常時に、ロボット100が立っているときの様子を示す図である。
図17は、モーションC1発動時のロボット100の正面図である。図17は、ユーザがロボット100のアナログスティック180を続けて触ったため、ロボット100がモーションC1を発動したときの様子を示す図である。
ユーザがアナログスティック180を動かしていない定常時において、ロボット100の目110は開眼し、正面をじっと見つめる。ユーザがアナログスティック180を動かしつづけ、変形継続時間が5秒を超えると、ロボット100は目110をつむり、頭を背ける。
FIG. 16 is a front view of the robot 100 in a steady state. FIG. 16 is a diagram showing a state when the robot 100 is standing in a steady state when the user is not touching the robot 100.
FIG. 17 is a front view of the robot 100 when the motion C1 is activated. FIG. 17 is a diagram showing a state when the robot 100 activates the motion C1 because the user continuously touches the analog stick 180 of the robot 100.
When the user is not moving the analog stick 180 in a steady state, the eyes 110 of the robot 100 open their eyes and stare at the front. When the user keeps moving the analog stick 180 and the deformation duration exceeds 5 seconds, the robot 100 closes his eyes 110 and turns his head away.

以上、実施形態に基づいてロボット100を説明した。
本実施形態のロボット100は、アナログスティック180が鼻109に設けられる。無意識にいじりやすい鼻109のユーザによる接触に応じてロボット100が反応するため、ユーザはロボット100が自分と意思疎通するかのように感じ、ロボット100への愛着を持ちやすくなる。
The robot 100 has been described above based on the embodiment.
In the robot 100 of this embodiment, an analog stick 180 is provided on the nose 109. Since the robot 100 reacts to the contact by the user of the nose 109, which is easy to tamper with unconsciously, the user feels as if the robot 100 communicates with himself / herself, and it becomes easy for the user to have an attachment to the robot 100.

本実施形態のロボット100は、アナログスティック180の動きに応じて眼を変化させる。また、アナログスティック180がいじられる時間が長いと、ロボット100は頭や体を動かし始める。ユーザがアナログスティック180を少しだけいじると、ロボット100は眼を動かしてユーザに興味を示すそぶりをする。いじり続けると、ロボット100は頭を動かしてユーザの手を避けるそぶりをし、「やめて」という気持ちを表現する。あまりにかまいすぎるとロボット100が手をばたばたさせ始めて「いやいや」を表現し始める。本実施形態のロボット100はアナログスティック180の動きだけでなくその継続時間によっても表情や行動を変化させていく。ユーザはロボット100が「飽きた」「くすぐったい」「うっとうしい」「もっとやって」といった感情(きまぐれさ)を有しているように感じ、また、ロボット100に生物的な挙動を感じることができる。 The robot 100 of the present embodiment changes its eyes according to the movement of the analog stick 180. Also, if the analog stick 180 is tampered with for a long time, the robot 100 starts to move its head and body. When the user slightly tampers with the analog stick 180, the robot 100 moves his eyes to pretend to be interested in the user. If you continue to mess with it, the robot 100 will move its head and pretend to avoid the user's hand, expressing the feeling of "stop". If it is too good, the robot 100 will start flapping its hands and start expressing "no". The robot 100 of the present embodiment changes facial expressions and actions not only by the movement of the analog stick 180 but also by its duration. The user feels that the robot 100 has emotions (whispering) such as "tired", "tickling", "annoying", and "doing more", and can also feel the biological behavior of the robot 100.

本実施形態のロボット100は、鼻109に設けられたアナログスティック180をユーザがいじると、眼が変化する。また、アナログスティック180をいじる時間が長いと、ロボット100は頭を動かし始め、さらにいじりつづけると体を動かし始める。鼻109をいじるとまずは鼻109の近傍にある顔領域107に位置する部位においてロボット100の挙動が示されるから、ユーザはロボット100の反応を見逃すことがない。いじり続けると顔領域107内だけでなく所定範囲内であるロボット100の頭部内が動きはじめ、更にいじり続けるとロボット100の頭部より外側(所定範囲外)においても挙動が示される。ユーザは、鼻109のいじられ方やいじられる時間によって変化していくロボット100の表情や行動を見て楽しめる。 When the user tampers with the analog stick 180 provided on the nose 109, the robot 100 of the present embodiment changes its eyes. Further, if the analog stick 180 is tampered with for a long time, the robot 100 starts to move its head, and if it continues to be tampered with, it starts to move its body. When the nose 109 is tampered with, the behavior of the robot 100 is first shown in the portion located in the face region 107 near the nose 109, so that the user does not overlook the reaction of the robot 100. If the tampering is continued, the inside of the head of the robot 100 that is within the predetermined range starts to move as well as the inside of the face area 107, and if the tampering is continued, the behavior is shown outside the head of the robot 100 (outside the predetermined range). The user can enjoy watching the facial expressions and actions of the robot 100 that change depending on how the nose 109 is tampered with and the time it is tampered with.

本実施形態のロボット100は、鼻109に設けられたアナログスティック180の動きに応じて眼を変化させる。変形例としては、撮像デバイスによってユーザを撮像し、モーションセンサによって撮像画像からユーザの動きを検出したのちに、そのユーザの動きに応じて眼を変化させるとしてもよい。ただし、モーションセンサ等の画像処理を伴ってユーザの動きを検出する場合に比べ、アナログスティック180の動きを検出する場合には、ロボット100へのユーザの接触からロボット100の挙動までの時間を短くできる。また、ロボット100へのユーザの接触を確実に検出できる。 The robot 100 of the present embodiment changes the eyes according to the movement of the analog stick 180 provided on the nose 109. As a modification, the user may be imaged by the imaging device, the movement of the user may be detected from the captured image by the motion sensor, and then the eyes may be changed according to the movement of the user. However, in the case of detecting the movement of the analog stick 180, the time from the user's contact with the robot 100 to the behavior of the robot 100 is shorter than in the case of detecting the movement of the user with image processing such as a motion sensor. can. In addition, the user's contact with the robot 100 can be reliably detected.

本実施形態においては、ロボット100本体にアナログスティック180(操作デバイス)が直接設けられる。変形例においては、リモートコントローラ等の操作デバイスをロボット100本体とは別に備えてもよい。ただし、ロボット100本体に操作デバイスが直接設けられる場合には、ユーザはロボット100に直接触れることとなる。よって、操作デバイスがロボット100本体とは別に備える場合とくらべ、ユーザが直感的に操作や制御をしやすい。 In the present embodiment, the analog stick 180 (operation device) is directly provided on the robot 100 main body. In the modified example, an operation device such as a remote controller may be provided separately from the robot 100 main body. However, when the operation device is directly provided on the robot 100 main body, the user directly touches the robot 100. Therefore, it is easier for the user to intuitively operate and control the operation device as compared with the case where the operation device is provided separately from the robot 100 main body.

なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。
以下、他の実施形態について説明する。
The present invention is not limited to the above-described embodiment or modification, and the components can be modified and embodied within a range that does not deviate from the gist. Various inventions may be formed by appropriately combining a plurality of components disclosed in the above embodiments and modifications. In addition, some components may be deleted from all the components shown in the above embodiments and modifications.
Hereinafter, other embodiments will be described.

実施形態においては、アナログスティック180の動き(変形)を操作検知部182が検知し、検知結果に応じてロボット100の挙動を決定した。操作検知部182によって検知されるものはこれに限らず、ロボット100本体の変形またはロボット100本体に設けられるデバイスの動きであればよい。検知される変形や動きは、たとえば、ロボット100の首をゆする動き、手を握る動き、体をゆらす動き、ユーザがつねることによる頬の変形など物理的な動作であればよい。また、これらの動作を検知する手段は、たとえばジョイスティック、トラックボール等による物理的な動作を検知する手段であればよい。可撓性を有する外皮の内側にアナログスティック180等を配置してロボット100の表面にこれらの検知手段が露出しない態様としてもよい。 In the embodiment, the operation detection unit 182 detects the movement (deformation) of the analog stick 180, and determines the behavior of the robot 100 according to the detection result. What is detected by the operation detection unit 182 is not limited to this, and may be any deformation of the robot 100 main body or movement of the device provided in the robot 100 main body. The detected deformation or movement may be, for example, a physical movement such as a movement of shaking the neck of the robot 100, a movement of holding a hand, a movement of shaking the body, or a movement of the cheek caused by the user pinching. Further, the means for detecting these movements may be any means for detecting physical movements such as a joystick or a trackball. An analog stick 180 or the like may be arranged inside the flexible exodermis so that these detecting means are not exposed on the surface of the robot 100.

実施形態においては、操作検知部182によって接触が検知される箇所が鼻109であるとした。接触が検知される箇所は鼻109に限られない。例えば、動物でいうところの肉球等丸みを帯びた箇所や、しっぽのように突出している箇所、頬のように変形が想定される箇所等接触を検知できる箇所であればどこでもよい。好ましくは、ユーザが無意識にいじりたく箇所である。 In the embodiment, it is assumed that the nose 109 is where the contact is detected by the operation detection unit 182. The place where contact is detected is not limited to the nose 109. For example, any place where contact can be detected, such as a rounded part such as a paws in an animal, a protruding part like a tail, or a part where deformation is expected such as a cheek, may be used. Preferably, it is a place where the user unknowingly wants to mess with.

実施形態においては、鼻109をいじられると眼が動くとした。ロボット100の動作箇所は眼に限らず、例えば首、しっぽ、手等の可動な箇所であればどこでもよい。また、操作検知部182によって接触を検知される箇所と動作箇所は近くても遠くてもよく、たとえばしっぽをいじると鼻が動くとしてもよい。 In the embodiment, it is assumed that the eyes move when the nose 109 is tampered with. The operating portion of the robot 100 is not limited to the eyes, and may be any movable portion such as the neck, tail, and hands. Further, the portion where the contact is detected by the operation detection unit 182 and the operation portion may be near or far, and for example, the nose may move when the tail is tampered with.

実施形態においては、ロボット100の頭部を所定範囲とし、鼻109がいじられる時間が5秒以上15秒未満であればロボット100の頭部のみを、15秒以上であればロボット100の頭部だけでなく、所定範囲外の部位である手106も駆動した。ロボット100本体の変形またはロボット100本体に設けられるデバイスの動きに応じて駆動する箇所を定める「所定範囲」は、ロボット100の頭部に限られない。例えば、ロボット100の顔領域107でもよいし、ロボット100の足以外の部分としてもよい。ロボット100の駆動機構によって動かせる箇所のうち適宜範囲を設定すればよい。 In the embodiment, the head of the robot 100 is set as a predetermined range, and if the time for the nose 109 to be tampered with is 5 seconds or more and less than 15 seconds, only the head of the robot 100 is used, and if it is 15 seconds or more, the head of the robot 100 is used. Not only that, the hand 106, which is a part outside the predetermined range, was also driven. The “predetermined range” that determines the location to be driven according to the deformation of the robot 100 body or the movement of the device provided on the robot 100 body is not limited to the head of the robot 100. For example, it may be the face area 107 of the robot 100, or it may be a part other than the legs of the robot 100. The range may be appropriately set among the parts that can be moved by the drive mechanism of the robot 100.

また、各モーションを発動させる変形継続時間の条件は5秒以上や15秒以上に限らず、例えば1秒以下や1分以上など、様々な時間に設定可能である。 Further, the condition of the deformation duration for activating each motion is not limited to 5 seconds or more and 15 seconds or more, and can be set to various times such as 1 second or less and 1 minute or more.

実施形態においては、鼻109を継続的にいじられている時間(変形継続時間)に応じてモーションを変化させた。変形継続時間に限らず、例えば経路や変形速度などのロボット100本体の変形態様やロボット100に備えられたデバイスの動きなどをモーションを選択するための条件として採用してよい。 In the embodiment, the motion is changed according to the time during which the nose 109 is continuously tampered with (deformation duration). Not limited to the deformation duration, for example, the deformation mode of the robot 100 main body such as the path and the deformation speed, the movement of the device provided in the robot 100, and the like may be adopted as conditions for selecting the motion.

変形量の累積値、変形継続時間の累積値、またはロボット100にかかる圧力に応じてロボット100の眼を変化させたり動きを変化させるとしてもよい。たとえば鼻109を弱い力でいじる場合には、眼の動き、頭の動き、体全体の動きへの遷移の仕方が緩やかなため、長時間眼の変化だけとしてもよい。強い力でいじる場合には短時間で体全体の動きへと遷移するとしてもよい。これにより、いじり方に応じたロボット100の挙動がよりバリエーション豊かとなる。
単に撫でる、叩くという触り方とは異なり、本発明のロボット100は「変形」を伴う触り方に応答する。いいかえれば、電気的な接触検出に限らず、物理的な「変形」として接触を検出している。ユーザによっていじる強さや変形量、接触面積等「いじり方」は様々である。ユーザによって異なる「いじり方」に応じてロボット100が表現豊かに反応すれば、ユーザはロボット100に対して愛着を抱くようになる。
The eyes of the robot 100 or the movement may be changed according to the cumulative value of the amount of deformation, the cumulative value of the duration of deformation, or the pressure applied to the robot 100. For example, when the nose 109 is tampered with with a weak force, the transition to the movement of the eyes, the movement of the head, and the movement of the whole body is gradual, so that only the change of the eyes may be performed for a long time. When tampering with a strong force, it may transition to the movement of the whole body in a short time. As a result, the behavior of the robot 100 according to the tampering method becomes richer in variation.
Unlike the touching method of simply stroking and hitting, the robot 100 of the present invention responds to the touching method accompanied by "deformation". In other words, contact is detected not only as electrical contact detection but also as physical "deformation". There are various "tampering methods" such as the strength to be tampered with, the amount of deformation, and the contact area depending on the user. If the robot 100 reacts expressively according to the "playing method" that differs depending on the user, the user becomes attached to the robot 100.

実施形態においては、アナログスティック180の動きに応じてロボット100の挙動が決定された。ロボット100の挙動を決定する契機はこれによらず、例えばユーザが無意識にいじりたくなると想定される箇所にセンサを設ける等でもよい。また、ロボット100本体に複数のセンサを設けてもよい。複数のセンサを設ける場合には、そのうちの1つをアナログスティック180の動きを検出するセンサとしてもよい。また、全て同程度の検出精度のセンサとしてもよいし、異なる検出精度のセンサとしてもよい。異なる検出精度のセンサを複数設ける場合には、ユーザのいじりたくなると想定される箇所により高い検出精度のセンサを設けてもよい。この場合の検出精度はユーザがロボット100本体に対する接触地点を変化させるときの変化量に対する検出感度とする。以下、ロボット100本体に設けられたいずれかのセンサによってユーザの接触が検出されることを「ユーザがロボット100に触れる」または「ユーザがロボット100に接触する」ということがある。 In the embodiment, the behavior of the robot 100 is determined according to the movement of the analog stick 180. The trigger for determining the behavior of the robot 100 is not limited to this, and for example, a sensor may be provided at a place where the user is expected to unknowingly want to tamper with it. Further, a plurality of sensors may be provided on the robot 100 main body. When a plurality of sensors are provided, one of them may be a sensor for detecting the movement of the analog stick 180. Further, all the sensors may have the same detection accuracy, or the sensors may have different detection accuracy. When a plurality of sensors having different detection accuracys are provided, sensors having higher detection accuracys may be provided at places where it is expected that the user will want to tamper with them. The detection accuracy in this case is the detection sensitivity with respect to the amount of change when the user changes the contact point with respect to the robot 100 main body. Hereinafter, the detection of the user's contact by any of the sensors provided in the robot 100 main body may be referred to as "the user touches the robot 100" or "the user touches the robot 100".

鼻109以外に設けられるセンサの例として、ロボット100の表面のうち目110を挟む2つの位置に対するユーザの接触を検出するセンサが挙げられる。このセンサによってユーザの接触が検出された場合に、眼生成部172は瞼画像190を下げる(閉眼する)。これにより、目110が覆われたので目をつぶるというロボット100の行動を表現できる。 An example of a sensor provided other than the nose 109 is a sensor that detects a user's contact with two positions on the surface of the robot 100 that sandwich the eye 110. When the user's contact is detected by this sensor, the eye generation unit 172 lowers (closes the eye) the eyelid image 190. As a result, the behavior of the robot 100 of closing the eyes because the eyes 110 are covered can be expressed.

ロボット100本体に複数のセンサを設ける場合には、いずれかのセンサにおいてユーザの接触を検出すると、眼生成部172はロボット100の仮想視線をその接触箇所へ向けたような眼画像171を生成するとしてもよい。以下、所定箇所に仮想視線を向けた眼画像171を眼生成部172が所定時間にわたってモニター170に表示することを、「ロボット100が所定箇所を注視する」ということがある。例えば、ユーザがロボット100の手に触れると、ロボット100は手を注視する。あるいは、ユーザがロボット100のお腹に触れると、ロボット100はお腹を注視する。また、ユーザの接触が所定時間を超える場合には、ロボット100はその接触箇所を含む部分を動かすとしてもよい。例えば、ユーザがロボット100の手に触れている時間が5秒を超える場合には、ロボット100はユーザの手からロボット100の手を離そうとするモーションを行う。また、ユーザがロボット100のお腹に触れている時間が10秒を超える場合には、ロボット100はお腹を左右に振るモーションを行う。このように、ロボット100の複数の箇所に設けられる複数のセンサのいずれかにおいてユーザの接触を検出したとき、眼生成部172は接触箇所を注視している眼画像171を生成する。また、いずれかのセンサにおけるユーザの接触の検出時間が所定時間を超えるとき、動作制御部150は接触箇所を含む部分を動かすモーションを実行する。これにより、ユーザは、触られた部分をじっと見た後身をよじるという生物的な挙動をロボット100が示していると感じることができる。 When a plurality of sensors are provided in the robot 100 main body, when a user's contact is detected by any of the sensors, the eye generation unit 172 generates an eye image 171 in which the virtual line of sight of the robot 100 is directed to the contact point. May be. Hereinafter, displaying the eye image 171 with the virtual line of sight directed to a predetermined location on the monitor 170 for a predetermined time may be referred to as "the robot 100 gazes at the predetermined location". For example, when the user touches the hand of the robot 100, the robot 100 gazes at the hand. Alternatively, when the user touches the stomach of the robot 100, the robot 100 gazes at the stomach. Further, when the user's contact exceeds a predetermined time, the robot 100 may move the portion including the contact portion. For example, when the user touches the robot 100's hand for more than 5 seconds, the robot 100 makes a motion to release the robot 100's hand from the user's hand. When the user touches the abdomen of the robot 100 for more than 10 seconds, the robot 100 makes a motion of shaking the abdomen from side to side. As described above, when the contact of the user is detected by any of the plurality of sensors provided at the plurality of points of the robot 100, the eye generation unit 172 generates an eye image 171 that is gazing at the contact points. Further, when the detection time of the user's contact in any of the sensors exceeds a predetermined time, the motion control unit 150 executes a motion to move the portion including the contact portion. As a result, the user can feel that the robot 100 exhibits a biological behavior of twisting the back body by staring at the touched portion.

ロボット100本体の全域にわたって高精度なセンサを取り付けると、消費電力が大きくなってしまう。一部のセンサのみ高精度とすることにより、消費電力を抑えられる。また、ユーザのいじりたくなると想定される箇所のセンサのみ高精度にしてユーザの小さな動きをも検出し、その動きに対応するロボット100の挙動を示すとする。こうすることで、「体の他の部分に触れても反応が薄いが、ある点での接触については敏感に感じ取る」という生き物の特性を表現できる。また、ユーザが少し触れただけでもその接触を検出してロボット100が反応を返すから、ユーザは、ロボット100が自分の少しの動きにも反応してくれると感じ、ロボット100とコミュニケーションがとれている感覚を味わえる。なお、検出精度はユーザがロボット100本体に対する接触地点を変化させるときの変化量に対する検出感度に限らず、例えば接触の強さ、接触範囲等を検出する能力であってもよい。また、高精度なセンサとして物理的に動くセンサ、低精度なセンサとして静電容量式のタッチセンサを採用したり、センサの種類は同じであるが検出精度を異ならせたりしてもよい。センサは様々な種類のものを採用でき、上述したセンサ以外にもたとえば、センサがユーザの接触を検知すると力覚フィードバックを行うものであってもよい。 If a high-precision sensor is attached to the entire area of the robot 100 body, power consumption will increase. Power consumption can be reduced by making only some sensors highly accurate. Further, it is assumed that only the sensor of the part where the user is expected to be tampered with is made highly accurate to detect a small movement of the user and the behavior of the robot 100 corresponding to the movement is shown. By doing this, it is possible to express the characteristic of living things that "the reaction is weak even if you touch other parts of the body, but you are sensitive to the contact at a certain point". Further, even if the user touches a little, the robot 100 detects the contact and returns a reaction, so that the user feels that the robot 100 reacts to even a little movement of himself / herself and can communicate with the robot 100. You can enjoy the feeling of being there. The detection accuracy is not limited to the detection sensitivity with respect to the amount of change when the user changes the contact point with respect to the robot 100 main body, and may be, for example, the ability to detect the strength of contact, the contact range, and the like. Further, a physically moving sensor may be used as a high-precision sensor, a capacitive touch sensor may be used as a low-precision sensor, or the same type of sensor but different detection accuracy may be used. Various types of sensors can be adopted, and in addition to the above-mentioned sensors, for example, when the sensor detects a user's contact, force feedback may be provided.

実施形態においては、ロボット100の眼動作として、眼をぐるぐる回す動作である眼動作M1、瞬きをする動作である眼動作M2、両眼を寄せる動作である眼動作M3を示した。ロボット100が示す眼動作はこれらに限らない。たとえば、視線をそらす動作、目を見開く動作、目を細める動作等、ロボット100が実現可能な動作であればよい。 In the embodiment, as the eye movements of the robot 100, the eye movement M1 which is the movement of turning the eyes, the eye movement M2 which is the movement of blinking, and the eye movement M3 which is the movement of bringing both eyes together are shown. The eye movements shown by the robot 100 are not limited to these. For example, any movement that can be realized by the robot 100, such as a movement of turning the line of sight, a movement of opening the eyes, a movement of squinting, etc., may be used.

実施形態においては、ロボット100のモーションとして、頭部を左右に動かすモーションであるモーションC1と手を上下に動かすモーションであるモーションC2を示した。ロボット100が示すモーションはこれらに限らない。たとえば、頭部を縦に動かして「うなずく」、頭部を傾けて「首をかしげる」、手を体の後ろにひっこめる、体を前に傾けて「おじぎをする」、足を動かして「後ずさる」、動きをとめて「無視する」等、ロボット100が実現可能な動きであればよい。 In the embodiment, as the motion of the robot 100, a motion C1 which is a motion of moving the head left and right and a motion C2 which is a motion of moving the hand up and down are shown. The motion shown by the robot 100 is not limited to these. For example, move your head vertically to "nod", tilt your head to "bend your neck", retract your hands behind your body, tilt your body forward to "bow", move your legs to "bow" Any movement that can be realized by the robot 100, such as "backward", stop the movement, and "ignore", is sufficient.

実施形態においては、鼻109が目110や顔領域107より小さいとした。鼻109の大きさはこれに限らず、目110と同程度かより大きいとしてもよい。また、目110や顔領域107等各部の大小関係についても実施形態に拘束されることはなく、適宜設計変更可能である。 In the embodiment, the nose 109 is smaller than the eyes 110 and the face area 107. The size of the nose 109 is not limited to this, and may be about the same as or larger than the eyes 110. Further, the size relationship of each part such as the eyes 110 and the face area 107 is not restricted by the embodiment, and the design can be changed as appropriate.

本発明は、ロボット100の鼻109をユーザがいじると、そのいじり方に応じてロボット100が反応を返す。ユーザが無意識にいじる可能性の高い箇所の変化を検知できるセンサを設ける。その箇所をユーザがいじったときにそのいじり方によってロボット100の目が動き、表情が変化し、体が動き出せば、ユーザはロボット100に対する愛着を抱くようになる。いじり方によってロボット100の反応が変化すると、ユーザがロボット100に触れる時間は長くなる。ユーザのロボット100への接触時間を長くできれば、ロボット100に対するユーザの愛着をいっそう深いものにできる。なお、鼻をいじられると、それに連動して眼を動かす動物は存在しない。人間であってもそうした行為はしない。仮にしたとしても、他人に鼻をいじられて、そのいじる方向に連動して眼を動かすことは難しい。ロボット100だからこそ可能な、ひとつの表現と言える。 In the present invention, when the user tampers with the nose 109 of the robot 100, the robot 100 returns a reaction according to the tampering method. Provide a sensor that can detect changes in places that are likely to be tampered with by the user. When the user tampers with the portion, the eyes of the robot 100 move, the facial expression changes, and the body begins to move, and the user becomes attached to the robot 100. If the reaction of the robot 100 changes depending on how it is tampered with, the time for the user to touch the robot 100 becomes longer. If the user's contact time with the robot 100 can be lengthened, the user's attachment to the robot 100 can be further deepened. There are no animals that move their eyes when their noses are tampered with. Even humans do not do that. Even if it were, it would be difficult for someone else to tamper with the nose and move the eyes in conjunction with the direction of the tampering. It can be said that this is an expression that is possible only with Robot 100.

Claims (15)

ロボット本体の変形を検知する操作検知部と、
眼画像を生成し、ロボットの顔領域に前記眼画像を表示させる眼生成部と、を備え、
前記眼生成部は、前記ロボット本体の変形が検知されたとき、変形態様に応じて前記眼画像を変化させることを特徴とするロボット。
An operation detector that detects the deformation of the robot body and
It is provided with an eye generation unit that generates an eye image and displays the eye image on the face area of the robot.
The eye generation unit is a robot characterized in that when a deformation of the robot body is detected, the eye image is changed according to the deformation mode.
前記眼生成部は、前記変形態様として、変形方向、変形量および変形速度のうち1以上に基づいて前記眼画像を変化させることを特徴とする請求項1に記載のロボット。 The robot according to claim 1, wherein the eye generation unit changes the eye image based on one or more of a deformation direction, a deformation amount, and a deformation speed as the deformation mode. ロボットのモーションを選択する動作制御部を備え、
前記動作制御部は、前記眼画像の変化が開始された後において、前記ロボット本体の変形態様が所定の条件を満たしたときには、変形態様に応じたモーションを選択することを特徴とする請求項1または2に記載のロボット。
Equipped with a motion control unit that selects the motion of the robot
1. The motion control unit is characterized in that, after the change of the eye image is started, when the deformation mode of the robot body satisfies a predetermined condition, the motion control unit selects a motion according to the deformation mode. Or the robot according to 2.
前記所定の条件が満たされたときに選択されるモーションは、ロボットの頭部を駆動させるモーションであることを特徴とする請求項3に記載のロボット。 The robot according to claim 3, wherein the motion selected when the predetermined condition is satisfied is a motion for driving the head of the robot. 時間経過にともなうロボット本体の変形状態を操作履歴として記録する操作履歴管理部、を備え、
前記眼生成部は、前記操作履歴に応じて前記眼画像を変化させることを特徴とする請求項1〜4のいずれかに記載のロボット。
Equipped with an operation history management unit that records the deformation state of the robot body with the passage of time as an operation history.
The robot according to any one of claims 1 to 4, wherein the eye generation unit changes the eye image according to the operation history.
ロボットのモーションを選択する動作制御部と、
時間経過にともなうロボット本体の変形状態を操作履歴として記録する操作履歴管理部と、を備え、
前記動作制御部は、前記操作履歴に応じてモーションを変化させることを特徴とする請求項1〜5のいずれかに記載のロボット。
A motion control unit that selects the motion of the robot,
It is equipped with an operation history management unit that records the deformation state of the robot body with the passage of time as an operation history.
The robot according to any one of claims 1 to 5, wherein the motion control unit changes a motion according to the operation history.
前記操作履歴は、変形状態の継続時間を含むことを特徴とする請求項5または6に記載のロボット。 The robot according to claim 5 or 6, wherein the operation history includes a duration of a deformed state. 前記操作検知部は、ロボット本体のうち顔領域に設けられた凸部の変形を検知することを特徴とする請求項1〜7のいずれかに記載のロボット。 The robot according to any one of claims 1 to 7, wherein the operation detection unit detects deformation of a convex portion provided in a face region of the robot body. 前記凸部は、ロボット本体の鼻に相当する部分に設置される突起であり、
前記操作検知部は、前記突起の変形を検知することを特徴とする請求項8に記載のロボット。
The convex portion is a protrusion installed on a portion corresponding to the nose of the robot body.
The robot according to claim 8, wherein the operation detection unit detects deformation of the protrusion.
前記ロボットの姿勢を特定する姿勢判断部を備え、
前記姿勢判断部がユーザによるロボットの抱き上げを特定することを条件として、前記眼生成部は前記変形態様に応じて前記眼画像を変化させることを特徴とする請求項1〜9のいずれかに記載のロボット。
It is equipped with a posture determination unit that identifies the posture of the robot.
The invention according to any one of claims 1 to 9, wherein the eye generation unit changes the eye image according to the deformation mode, provided that the posture determination unit identifies the robot being lifted by the user. Robot.
ロボットのモーションを選択する動作制御部と、
前記選択されたモーションを実行する駆動機構と、
ロボット本体に設けられるデバイスの動きを検知する操作検知部と、を備え、
前記動作制御部は、前記デバイスの動きが検知されたとき、前記デバイスから所定範囲内を駆動対象とするモーションのうち、前記デバイスの動きに応じたモーションを選択することを特徴とするロボット。
A motion control unit that selects the motion of the robot,
A drive mechanism that executes the selected motion, and
It is equipped with an operation detection unit that detects the movement of the device provided in the robot body.
The robot is characterized in that, when the movement of the device is detected, the motion control unit selects a motion corresponding to the movement of the device from among the motions to be driven within a predetermined range from the device.
前記動作制御部は、前記デバイスの動きが検知されたとき前記所定範囲内を駆動対象として前記ロボットの一部を駆動し、前記一部の駆動開始後において前記デバイスの動きが所定の条件を満たしたときには、さらに、前記所定範囲の外も駆動対象とすることを特徴とする請求項11に記載のロボット。 When the movement of the device is detected, the motion control unit drives a part of the robot with the predetermined range as a driving target, and the movement of the device satisfies a predetermined condition after the start of driving the part. The robot according to claim 11, further comprising driving the robot outside the predetermined range. ロボットの体表面に設置され、ユーザの接触を検出する第1のセンサと、
前記ロボットの顔領域に設けられ、ユーザの接触を前記第1のセンサより高精度に検出する第2のセンサと、
眼画像を生成し、前記顔領域に前記眼画像を表示させる眼生成部と、を備え、
前記眼生成部は、前記第2のセンサにおける検出値の変化量に連動して前記眼画像を変化させることを特徴とするロボット。
A first sensor installed on the body surface of the robot to detect user contact,
A second sensor provided in the face area of the robot and detecting a user's contact with higher accuracy than the first sensor.
It is provided with an eye generation unit that generates an eye image and displays the eye image in the face region.
The eye generation unit is a robot characterized in that the eye image is changed in association with the amount of change in the detected value of the second sensor.
前記第2のセンサは、前記第1のセンサより狭い領域に設けられ、ユーザの接触にともない生じる前記ロボットの体表面の変形量を検出することを特徴とする請求項13に記載のロボット。 The robot according to claim 13, wherein the second sensor is provided in a narrower area than the first sensor, and detects the amount of deformation of the body surface of the robot that occurs upon contact with the user. 鼻を模した凸部と、
瞳を動かすことで視線を表現する眼生成部と、を備え、
前記眼生成部は、前記凸部の変形状態に連動して、前記瞳を変化させることを特徴とするロボット。
A convex part that imitates the nose and
Equipped with an eye generator that expresses the line of sight by moving the eyes,
The eye generation unit is a robot characterized in that the pupil is changed in conjunction with the deformation state of the convex portion.
JP2020529004A 2018-07-02 2019-07-02 robot Pending JPWO2020009098A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024005682A JP2024045247A (en) 2018-07-02 2024-01-17 robot

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018125815 2018-07-02
JP2018125815 2018-07-02
PCT/JP2019/026249 WO2020009098A1 (en) 2018-07-02 2019-07-02 Robot

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024005682A Division JP2024045247A (en) 2018-07-02 2024-01-17 robot

Publications (2)

Publication Number Publication Date
JPWO2020009098A1 true JPWO2020009098A1 (en) 2021-08-05
JPWO2020009098A5 JPWO2020009098A5 (en) 2022-07-08

Family

ID=69060406

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020529004A Pending JPWO2020009098A1 (en) 2018-07-02 2019-07-02 robot
JP2024005682A Pending JP2024045247A (en) 2018-07-02 2024-01-17 robot

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024005682A Pending JP2024045247A (en) 2018-07-02 2024-01-17 robot

Country Status (2)

Country Link
JP (2) JPWO2020009098A1 (en)
WO (1) WO2020009098A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006198017A (en) * 2005-01-18 2006-08-03 Sega Toys:Kk Robot toy
WO2018016461A1 (en) * 2016-07-20 2018-01-25 Groove X株式会社 Autonomous-behavior-type robot that understands emotional communication through physical contact
WO2018097089A1 (en) * 2016-11-24 2018-05-31 Groove X株式会社 Autonomously acting robot changing pupils

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012239557A (en) * 2011-05-17 2012-12-10 Shain:Kk Robot toy
US9375845B1 (en) * 2014-09-30 2016-06-28 Sprint Communications Company, L.P. Synchronizing robot motion with social interaction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006198017A (en) * 2005-01-18 2006-08-03 Sega Toys:Kk Robot toy
WO2018016461A1 (en) * 2016-07-20 2018-01-25 Groove X株式会社 Autonomous-behavior-type robot that understands emotional communication through physical contact
WO2018097089A1 (en) * 2016-11-24 2018-05-31 Groove X株式会社 Autonomously acting robot changing pupils

Also Published As

Publication number Publication date
WO2020009098A1 (en) 2020-01-09
JP2024045247A (en) 2024-04-02

Similar Documents

Publication Publication Date Title
US11285614B2 (en) Autonomously acting robot that understands physical contact
CN110024000B (en) Behavior autonomous robot for changing pupil
US11498222B2 (en) Autonomously acting robot that stares at companion
JP7231924B2 (en) Autonomous action robot whose activity level is controlled
EP3456487A2 (en) Robot, method of controlling the same, and program
JP7236142B2 (en) Autonomous action robot
US20200206904A1 (en) Robot that acts comically, and structure thereof
JP7420387B2 (en) robot wearing costume
JP2018192559A (en) Autonomous mobile robot detecting touch to body of curved surface shape
JPWO2020009098A1 (en) robot
WO2019088160A1 (en) Autonomously acting robot capable of executing reflex action
JPWO2020111190A1 (en) Robot with operating device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230710

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240129

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240329