JP2018192559A - Autonomous mobile robot detecting touch to body of curved surface shape - Google Patents

Autonomous mobile robot detecting touch to body of curved surface shape Download PDF

Info

Publication number
JP2018192559A
JP2018192559A JP2017097910A JP2017097910A JP2018192559A JP 2018192559 A JP2018192559 A JP 2018192559A JP 2017097910 A JP2017097910 A JP 2017097910A JP 2017097910 A JP2017097910 A JP 2017097910A JP 2018192559 A JP2018192559 A JP 2018192559A
Authority
JP
Japan
Prior art keywords
robot
sensor
contact
touch sensor
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017097910A
Other languages
Japanese (ja)
Inventor
理 並木
Osamu Namiki
理 並木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Priority to JP2017097910A priority Critical patent/JP2018192559A/en
Publication of JP2018192559A publication Critical patent/JP2018192559A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a robot which has a rounded body and can recognize a contact from a human.SOLUTION: A robot has a curved body surface. A touch sensor 400 has an annular plate 402 of an annular shape. The annular plate 402 of the touch sensor 400 is installed on a body surface of the robot, and detects a contact to the robot. The robot changes action characteristics according to the contact to the robot. A plurality of electrodes 404 is installed on the annular plate 402. A detection chip 406 detects a potential change of each electrode 404 at the time of contacting. The robot determines a contact type to the robot, from potential change patterns.SELECTED DRAWING: Figure 7

Description

本発明は、内部状態または外部環境に応じて自律的に行動選択するロボット、に関する。   The present invention relates to a robot that autonomously selects an action according to an internal state or an external environment.

人間は、癒やしを求めてペットを飼う。その一方、ペットの世話をする時間を十分に確保できない、ペットを飼える住環境にない、アレルギーがある、死別がつらい、といったさまざまな理由により、ペットをあきらめている人は多い。もし、ペットの役割が務まるロボットがあれば、ペットを飼えない人にもペットが与えてくれるような癒やしを与えられるかもしれない(特許文献1参照)。   Humans keep pets for healing. On the other hand, many people give up pets for various reasons, such as not having enough time to care for pets, lack of living environment to keep pets, allergies, and difficulty in bereavement. If there is a robot that plays the role of a pet, it may be possible to give healing to a person who cannot keep a pet (see Patent Document 1).

特開2000−323219号公報JP 2000-323219 A

人間は、柔らかくて、丸くて、小さなペットを見ると本能的に触りたくなる。人間は、触ることでペットに対する愛情を表現し、ペットは触られることで人間に愛されていることを認識する。したがって、触りたくなるような形状を有し、かつ、触られたことを認識できるロボットであれば、ロボットへの共感を大きく高めることができると考えられる。   Humans tend to feel instinctively when they look at soft, round and small pets. Humans express their affection for pets by touching them and recognize that pets are loved by humans by touching them. Therefore, it is considered that a sympathy with the robot can be greatly enhanced if the robot has a shape that makes it easy to touch and can recognize the touch.

本発明は、上記着想に基づいて完成された発明であり、その主たる目的は、丸みを帯びたボディを有し、人間による接触を認識可能なロボット、を提供することにある。   The present invention has been completed based on the above idea, and its main object is to provide a robot having a rounded body and capable of recognizing human contact.

本発明のある態様における自律行動型ロボットは、ロボットの体表面に設置されロボットに対する接触を検出するセンサと、ロボットへの接触に応じて、ロボットの動作を制御する動作制御部と、を備える。
ロボットは曲面状の体表面を有し、センサは円環形状を有する。センサは、ロボットの体表面の曲面に沿って設置される。
An autonomous behavior type robot according to an aspect of the present invention includes a sensor that is installed on the body surface of the robot and detects contact with the robot, and an operation control unit that controls the operation of the robot according to the contact with the robot.
The robot has a curved body surface, and the sensor has an annular shape. The sensor is installed along the curved surface of the body surface of the robot.

本発明のある態様におけるセンサは、複数の電極が延伸方向に配列される円環形状のセンシング部と、複数の電極の電位変化を検出する検出チップを備える。検出チップは、複数の電極それぞれの電位変化を個別に検出する。   A sensor according to an aspect of the present invention includes an annular sensing unit in which a plurality of electrodes are arranged in an extending direction, and a detection chip that detects potential changes of the plurality of electrodes. The detection chip individually detects potential changes of the plurality of electrodes.

本発明によれば、ロボットに対する共感を高めやすくなる。   According to the present invention, it is easy to increase empathy for a robot.

ロボットの正面外観図である。It is a front external view of a robot. ロボットの側面外観図である。It is a side external view of a robot. ロボットの構造を概略的に表す断面図である。It is sectional drawing which represents the structure of a robot roughly. ロボットシステムの構成図である。It is a block diagram of a robot system. 感情マップの概念図である。It is a conceptual diagram of an emotion map. ロボットのハードウェア構成図である。It is a hardware block diagram of a robot. ロボットシステムの機能ブロック図である。It is a functional block diagram of a robot system. 円弧型のタッチセンサの外観図である。It is an external view of a circular arc type touch sensor. 真円型のタッチセンサの外観図である。It is an external view of a perfect circle type touch sensor. 円弧型のタッチセンサの取り付け態様を示す模式図である。It is a schematic diagram which shows the attachment aspect of a circular arc type touch sensor. タッチセンサのセンシング部の断面図である。It is sectional drawing of the sensing part of a touch sensor. ボディの断面拡大図である。It is a cross-sectional enlarged view of a body. 接触時におけるタッチセンサの電位変化を示す模式図である。It is a schematic diagram which shows the electric potential change of the touch sensor at the time of a contact. タイプテーブルのデータ構造図である。It is a data structure figure of a type table. 変形例におけるタッチセンサの外観図である。It is an external view of the touch sensor in a modification.

図1(a)は、ロボット100の正面外観図である。図1(b)は、ロボット100の側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについては後述する。
FIG. 1A is a front external view of the robot 100. FIG. 1B is a side external view of the robot 100.
The robot 100 according to the present embodiment is an autonomous behavior type robot that determines an action and a gesture (gesture) based on an external environment and an internal state. The external environment is recognized by various sensors such as a camera and a thermo sensor. The internal state is quantified as various parameters expressing the emotion of the robot 100. These will be described later.

ロボット100は、原則として、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよび、ロボット100が所属する家庭の構成員となるユーザのことを「オーナー」とよぶ。   As a general rule, the robot 100 uses the interior of the owner's family as the range of action. Hereinafter, a person related to the robot 100 is referred to as a “user”, and a user who is a member of the home to which the robot 100 belongs is referred to as an “owner”.

ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂、繊維などやわらかく弾力性のある素材により形成された外皮を含む。ロボット100に服を着せてもよい。丸くてやわらかく、手触りのよいボディ104とすることで、ロボット100はユーザに安心感とともに心地よい触感を提供する。   The body 104 of the robot 100 has a rounded shape as a whole and includes an outer skin formed of a soft and elastic material such as urethane, rubber, resin, or fiber. The robot 100 may be dressed. By making the body 104 round, soft, and comfortable to touch, the robot 100 provides the user with a sense of security and a comfortable touch.

ロボット100は、総重量が15キログラム以下、好ましくは10キログラム以下、更に好ましくは、5キログラム以下である。生後13ヶ月までに、赤ちゃんの過半数は一人歩きを始める。生後13ヶ月の赤ちゃんの平均体重は、男児が9キログラム強、女児が9キログラム弱である。このため、ロボット100の総重量が10キログラム以下であれば、ユーザは一人歩きできない赤ちゃんを抱きかかえるのとほぼ同等の労力でロボット100を抱きかかえることができる。生後2ヶ月未満の赤ちゃんの平均体重は男女ともに5キログラム未満である。したがって、ロボット100の総重量が5キログラム以下であれば、ユーザは乳児を抱っこするのと同等の労力でロボット100を抱っこできる。   The robot 100 has a total weight of 15 kg or less, preferably 10 kg or less, more preferably 5 kg or less. By 13 months after birth, the majority of babies start walking alone. The average weight of a 13-month-old baby is over 9 kilograms for boys and less than 9 kilograms for girls. Therefore, if the total weight of the robot 100 is 10 kg or less, the user can hold the robot 100 with almost the same effort as holding a baby who cannot walk alone. The average weight of babies under 2 months of age is less than 5 kilograms for both men and women. Therefore, if the total weight of the robot 100 is 5 kilograms or less, the user can hold the robot 100 with the same effort as holding an infant.

適度な重さと丸み、柔らかさ、手触りのよさ、といった諸属性により、ユーザがロボット100を抱きかかえやすく、かつ、抱きかかえたくなるという効果が実現される。同様の理由から、ロボット100の身長は1.2メートル以下、好ましくは、0.7メートル以下であることが望ましい。本実施形態におけるロボット100にとって、抱きかかえることができるというのは重要なコンセプトである。   Various attributes such as moderate weight, roundness, softness, and good touch feel that the user can easily hold the robot 100 and that the user wants to hold it. For the same reason, the height of the robot 100 is 1.2 meters or less, preferably 0.7 meters or less. It is an important concept that the robot 100 in this embodiment can be held.

ロボット100は、3輪走行するための3つの車輪を備える。図示のように、一対の前輪102(左輪102a,右輪102b)と、一つの後輪103を含む。前輪102が駆動輪であり、後輪103が従動輪である。前輪102は、操舵機構を有しないが、回転速度や回転方向を個別に制御可能とされている。後輪103は、いわゆるオムニホイールからなり、ロボット100を前後左右へ移動させるために回転自在となっている。左輪102aよりも右輪102bの回転数を大きくすることで、ロボット100は左折したり、左回りに回転できる。右輪102bよりも左輪102aの回転数を大きくすることで、ロボット100は右折したり、右回りに回転できる。   The robot 100 includes three wheels for traveling on three wheels. As shown, a pair of front wheels 102 (left wheel 102a and right wheel 102b) and one rear wheel 103 are included. The front wheel 102 is a driving wheel, and the rear wheel 103 is a driven wheel. The front wheel 102 does not have a steering mechanism, but the rotation speed and the rotation direction can be individually controlled. The rear wheel 103 is a so-called omni wheel, and is rotatable in order to move the robot 100 forward, backward, left and right. By making the rotation speed of the right wheel 102b larger than that of the left wheel 102a, the robot 100 can turn left or rotate counterclockwise. By making the rotation speed of the left wheel 102a larger than that of the right wheel 102b, the robot 100 can turn right or rotate clockwise.

前輪102および後輪103は、駆動機構(回動機構、リンク機構)によりボディ104に完全収納できる。走行時においても各車輪の大部分はボディ104に隠れているが、各車輪がボディ104に完全収納されるとロボット100は移動不可能な状態となる。すなわち、車輪の収納動作にともなってボディ104が降下し、床面Fに着座する。この着座状態においては、ボディ104の底部に形成された平坦状の着座面108(接地底面)が床面Fに当接する。   The front wheel 102 and the rear wheel 103 can be completely accommodated in the body 104 by a drive mechanism (rotation mechanism, link mechanism). Although most of the wheels are hidden by the body 104 even during traveling, the robot 100 is incapable of moving when the wheels are completely stored in the body 104. That is, the body 104 descends and sits on the floor F as the wheels are retracted. In this seated state, a flat seating surface 108 (grounding bottom surface) formed on the bottom of the body 104 abuts against the floor surface F.

ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。   The robot 100 has two hands 106. The hand 106 does not have a function of gripping an object. The hand 106 can perform simple operations such as raising, shaking, and vibrating. The two hands 106 can also be individually controlled.

目110は、液晶素子または有機EL素子による画像表示が可能である。ロボット100は、音源方向を特定可能なマイクロフォンアレイや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。   The eye 110 can display an image using a liquid crystal element or an organic EL element. The robot 100 is equipped with various sensors such as a microphone array and an ultrasonic sensor that can specify the sound source direction. It also has a built-in speaker and can emit simple sounds.

ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。ツノ112には全天球カメラが取り付けられ、ロボット100の上部全域を一度に撮像可能である。   A horn 112 is attached to the head of the robot 100. Since the robot 100 is lightweight as described above, the user can lift the robot 100 by holding the horn 112. An omnidirectional camera is attached to the horn 112, and the entire upper area of the robot 100 can be imaged at once.

ロボット100のボディ104には、曲面形状の体表面に沿って6個のタッチセンサ400(タッチセンサ400a〜400f)が設置される。本実施形態におけるタッチセンサ400は静電容量センサである。タッチセンサ400は円環形状を有し、一部に切り欠きを有する「円弧型」と切り欠きを有さない「真円型」の2種類に大別される。円弧型は図7に関連して、真円型は図8に関連して後に詳述する。   On the body 104 of the robot 100, six touch sensors 400 (touch sensors 400a to 400f) are installed along a curved body surface. The touch sensor 400 in this embodiment is a capacitance sensor. The touch sensor 400 has an annular shape, and is roughly classified into two types: an “arc type” having a notch in a part thereof and a “perfect circle type” having no notch. The arc shape will be described later in detail with reference to FIG. 7, and the perfect circle shape will be described in detail later with reference to FIG.

本実施形態においては、ロボット100の側頭部には真円型のタッチセンサ400d、400eが設置される。ロボット100の腹部と背部に円弧型のタッチセンサ400a、400fが設置され、胴体側部には左右それぞれに円弧型のタッチセンサ400b、400cが設置される。腹部のタッチセンサ400aは外径が10センチメートル程度であり、側頭部のタッチセンサ400d、400eの外径は7センチメートル程度である。設置場所に応じて、タッチセンサ400の形状およびサイズは異なる。   In the present embodiment, the round touch sensors 400d and 400e are installed on the side of the robot 100. Arc-shaped touch sensors 400a and 400f are installed on the abdomen and back of the robot 100, and arc-shaped touch sensors 400b and 400c are installed on the left and right sides of the body. The abdominal touch sensor 400a has an outer diameter of about 10 centimeters, and the outer diameters of the temporal head touch sensors 400d and 400e are about 7 centimeters. The shape and size of the touch sensor 400 vary depending on the installation location.

複数のタッチセンサ400は、少なくとも、ロボット100の主要部に設置されることが好ましい。本実施形態における「主要部」とは、少なくとも、頭部および腹部(または胸部)の双方をいう。好ましくは背部も含む。頭部および腹部(または胸部)に加えて背中へのタッチも検出できることが望ましい。   The plurality of touch sensors 400 are preferably installed at least in the main part of the robot 100. The “main part” in the present embodiment means at least both the head and abdomen (or chest). Preferably also includes the back. It is desirable to be able to detect a touch on the back in addition to the head and abdomen (or chest).

丸くて柔らかいボディ104は、ユーザに心地よい触感を与える。また、ロボット100はバッテリー118や制御回路342(後述)などの発熱部品を内蔵するため、内部の熱の一部は体表面に伝わる。ロボット100のボディ104の暖かさも、ロボット100との接触にともなう快感を高める。   The round and soft body 104 gives a comfortable touch to the user. Further, since the robot 100 incorporates heat generating components such as a battery 118 and a control circuit 342 (described later), part of the internal heat is transmitted to the body surface. The warmth of the body 104 of the robot 100 also increases the pleasure associated with the contact with the robot 100.

図2は、ロボット100の構造を概略的に表す断面図である。
図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
FIG. 2 is a cross-sectional view schematically showing the structure of the robot 100.
As shown in FIG. 2, the body 104 of the robot 100 includes a base frame 308, a main body frame 310, a pair of resin wheel covers 312, and an outer skin 314. The base frame 308 is made of metal and constitutes an axis of the body 104 and supports an internal mechanism. The base frame 308 is configured by vertically connecting an upper plate 332 and a lower plate 334 by a plurality of side plates 336. A sufficient space is provided between the plurality of side plates 336 so as to allow ventilation. A battery 118, a control circuit 342, and various actuators are housed inside the base frame 308.

本体フレーム310は、樹脂材からなり、頭部フレーム316および胴部フレーム318を含む。頭部フレーム316は、中空半球状をなし、ロボット100の頭部骨格を形成する。胴部フレーム318は、段付筒形状をなし、ロボット100の胴部骨格を形成する。胴部フレーム318は、ベースフレーム308と一体に固定される。頭部フレーム316は、胴部フレーム318の上端部に相対変位可能に組み付けられる。図1のタッチセンサ400は、本体フレーム310の表面に取り付けられる。   The main body frame 310 is made of a resin material and includes a head frame 316 and a body frame 318. The head frame 316 has a hollow hemispherical shape and forms the head skeleton of the robot 100. The torso frame 318 has a stepped cylinder shape and forms a torso skeleton of the robot 100. The body frame 318 is fixed integrally with the base frame 308. The head frame 316 is assembled to the upper end portion of the trunk frame 318 so as to be relatively displaceable. The touch sensor 400 of FIG. 1 is attached to the surface of the main body frame 310.

頭部フレーム316には、ヨー軸320、ピッチ軸322およびロール軸324の3軸と、各軸を回転駆動するためのアクチュエータ326が設けられる。アクチュエータ326は、各軸を個別に駆動するための複数のサーボモータを含む。首振り動作のためにヨー軸320が駆動され、頷き動作のためにピッチ軸322が駆動され、首を傾げる動作のためにロール軸324が駆動される。   The head frame 316 is provided with three axes of a yaw axis 320, a pitch axis 322, and a roll axis 324, and an actuator 326 for rotationally driving each axis. Actuator 326 includes a plurality of servo motors for individually driving each axis. The yaw shaft 320 is driven for the swinging motion, the pitch shaft 322 is driven for the rolling motion, and the roll shaft 324 is driven for the tilting motion.

頭部フレーム316の上部には、ヨー軸320を支持するプレート325が固定されている。プレート325には、上下間の通気を確保するための複数の通気孔327が形成される。   A plate 325 that supports the yaw shaft 320 is fixed to the upper portion of the head frame 316. The plate 325 is formed with a plurality of ventilation holes 327 for ensuring ventilation between the upper and lower sides.

頭部フレーム316およびその内部機構を下方から支持するように、金属製のベースプレート328が設けられる。ベースプレート328は、クロスリンク機構329(パンタグラフ機構)を介してプレート325と連結される一方、ジョイント330を介してアッパープレート332(ベースフレーム308)と連結されている。   A metal base plate 328 is provided to support the head frame 316 and its internal mechanism from below. The base plate 328 is connected to the plate 325 via a cross link mechanism 329 (pantograph mechanism), and is connected to the upper plate 332 (base frame 308) via a joint 330.

胴部フレーム318は、ベースフレーム308と車輪駆動機構370を収容する。車輪駆動機構370は、回動軸378およびアクチュエータ379を含む。胴部フレーム318の下半部は、ホイールカバー312との間に前輪102の収納スペースSを形成するために小幅とされている。   The body frame 318 houses the base frame 308 and the wheel drive mechanism 370. Wheel drive mechanism 370 includes a rotation shaft 378 and an actuator 379. The lower half of the body frame 318 has a small width so as to form a storage space S for the front wheel 102 between the body frame 318 and the wheel cover 312.

外皮314は、ウレタンゴムからなり、本体フレーム310およびホイールカバー312を外側から覆う。手106は、外皮314と一体成形される。外皮314の上端部には、外気を導入するための開口部390が設けられる。   The outer skin 314 is made of urethane rubber and covers the main body frame 310 and the wheel cover 312 from the outside. The hand 106 is integrally formed with the outer skin 314. An opening 390 for introducing outside air is provided at the upper end of the outer skin 314.

図3は、ロボットシステム300の構成図である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a、114b、・・・、114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
FIG. 3 is a configuration diagram of the robot system 300.
The robot system 300 includes a robot 100, a server 200, and a plurality of external sensors 114. A plurality of external sensors 114 (external sensors 114a, 114b,..., 114n) are installed in advance in the house. The external sensor 114 may be fixed to the wall surface of the house or may be placed on the floor. In the server 200, the position coordinates of the external sensor 114 are registered. The position coordinates are defined as x, y coordinates in the house assumed as the action range of the robot 100.

サーバ200は、家屋内に設置される。本実施形態におけるサーバ200とロボット100は、通常、1対1で対応する。ロボット100の内蔵するセンサおよび複数の外部センサ114から得られる情報に基づいて、サーバ200がロボット100の基本行動を決定する。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
Server 200 is installed in a house. The server 200 and the robot 100 in this embodiment usually correspond one-on-one. Based on information obtained from the sensors built in the robot 100 and the plurality of external sensors 114, the server 200 determines the basic behavior of the robot 100.
The external sensor 114 is for reinforcing the sensory organ of the robot 100, and the server 200 is for reinforcing the brain of the robot 100.

外部センサ114は、定期的に外部センサ114のID(以下、「ビーコンID」とよぶ)を含む無線信号(以下、「ロボット探索信号」とよぶ)を送信する。ロボット100はロボット探索信号を受信するとビーコンIDを含む無線信号(以下、「ロボット返答信号」とよぶ)を返信する。サーバ200は、外部センサ114がロボット探索信号を送信してからロボット返答信号を受信するまでの時間を計測し、外部センサ114からロボット100までの距離を測定する。複数の外部センサ114とロボット100とのそれぞれの距離を計測することで、ロボット100の位置座標を特定する。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
The external sensor 114 periodically transmits a radio signal (hereinafter referred to as “robot search signal”) including the ID of the external sensor 114 (hereinafter referred to as “beacon ID”). When the robot 100 receives the robot search signal, it returns a radio signal including a beacon ID (hereinafter referred to as a “robot response signal”). The server 200 measures the time from when the external sensor 114 transmits the robot search signal to when it receives the robot response signal, and measures the distance from the external sensor 114 to the robot 100. By measuring the distances between the plurality of external sensors 114 and the robot 100, the position coordinates of the robot 100 are specified.
Of course, the robot 100 may periodically transmit its position coordinates to the server 200.

図4は、感情マップ116の概念図である。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図4に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
FIG. 4 is a conceptual diagram of the emotion map 116.
The emotion map 116 is a data table stored in the server 200. The robot 100 selects an action according to the emotion map 116. The emotion map 116 shown in FIG. 4 shows the magnitude of the affectionate feeling with respect to the location of the robot 100. The x-axis and y-axis of the emotion map 116 indicate two-dimensional space coordinates. The z-axis indicates the size of feelings of good and bad. When the z value is positive, the place is highly likable. When the z value is negative, the place is disliked.

図4の感情マップ116において、座標P1は、ロボット100の行動範囲としてサーバ200が管理する屋内空間のうち好感情が高い地点(以下、「好意地点」とよぶ)である。ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。   In the emotion map 116 of FIG. 4, the coordinate P <b> 1 is a point where the favorable feeling is high (hereinafter referred to as “favorite point”) in the indoor space managed by the server 200 as the action range of the robot 100. The definition of what kind of place the robot 100 prefers is arbitrary, but in general, it is desirable to set a place favored by small children, small animals such as dogs and cats, as a favorable point.

座標P2は、悪感情が高い地点(以下、「嫌悪地点」とよぶ)である。ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。   The coordinate P2 is a point where the bad feeling is high (hereinafter referred to as “disgusting point”). Although the definition of what place the robot 100 dislikes is arbitrary, it is generally desirable to set a place where a small child or a small animal such as a dog or cat is afraid as an aversion point.

座標Qは、ロボット100の現在位置を示す。複数の外部センサ114が定期的に送信するロボット探索信号とそれに対するロボット返答信号により、サーバ200はロボット100の位置座標を特定する。たとえば、ビーコンID=1の外部センサ114とビーコンID=2の外部センサ114がそれぞれロボット100を検出したとき、2つの外部センサ114からロボット100の距離を求め、そこからロボット100の位置座標を求める。   The coordinate Q indicates the current position of the robot 100. The server 200 specifies the position coordinates of the robot 100 based on the robot search signal periodically transmitted by the plurality of external sensors 114 and the robot response signal corresponding thereto. For example, when the external sensor 114 with the beacon ID = 1 and the external sensor 114 with the beacon ID = 2 each detect the robot 100, the distance of the robot 100 is obtained from the two external sensors 114, and the position coordinates of the robot 100 are obtained therefrom. .

図4に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、嫌悪地点(座標P2)から離れる方向に移動する。   When the emotion map 116 shown in FIG. 4 is given, the robot 100 moves in a direction attracted to the favorable point (coordinate P1) and away from the disgusting point (coordinate P2).

感情マップ116は動的に変化する。ロボット100が座標P1に到達すると、座標P1におけるz値(好感情)は時間とともに低下する。これにより、ロボット100は好意地点(座標P1)に到達して、「感情が満たされ」、やがて、その場所に「飽きてくる」という生物的行動をエミュレートできる。同様に、座標P2における悪感情も時間とともに緩和される。時間経過とともに新たな好意地点や嫌悪地点が生まれ、それによってロボット100は新たな行動選択を行う。ロボット100は、新しい好意地点に「興味」を持ち、絶え間なく行動選択する。   The emotion map 116 changes dynamically. When the robot 100 reaches the coordinate P1, the z value (favorable feeling) at the coordinate P1 decreases with time. Thereby, the robot 100 can emulate the biological behavior of reaching the favored point (coordinate P1), “satisfied with emotion”, and eventually “getting bored” at that place. Similarly, the bad feeling at the coordinate P2 is also alleviated with time. As time passes, new favor points and dislike points are born, and the robot 100 makes a new action selection. The robot 100 has an “interest” at a new favorable point and continuously selects an action.

感情マップ116は、ロボット100の内部状態として、感情の起伏を表現する。ロボット100は、好意地点を目指し、嫌悪地点を避け、好意地点にしばらくとどまり、やがてまた次の行動を起こす。このような制御により、ロボット100の行動選択を人間的・生物的なものにできる。   The emotion map 116 represents the undulation of emotion as the internal state of the robot 100. The robot 100 aims at the favor point, avoids the dislike point, stays at the favor point for a while, and eventually takes the next action. By such control, the action selection of the robot 100 can be made human and biological.

なお、ロボット100の行動に影響を与えるマップ(以下、「行動マップ」と総称する)は、図4に示したようなタイプの感情マップ116に限らない。たとえば、好奇心、恐怖を避ける気持ち、安心を求める気持ち、静けさや薄暗さ、涼しさや暖かさといった肉体的安楽を求める気持ち、などさまざまな行動マップを定義可能である。そして、複数の行動マップそれぞれのz値を重み付け平均することにより、ロボット100の目的地点を決定してもよい。   The map that affects the behavior of the robot 100 (hereinafter collectively referred to as “behavior map”) is not limited to the emotion map 116 of the type shown in FIG. For example, it is possible to define various behavior maps such as curiosity, feelings of avoiding fear, feelings of peace, feelings of calm and dimness, feelings of physical comfort such as coolness and warmth. Then, the destination point of the robot 100 may be determined by weighted averaging the z values of the plurality of behavior maps.

ロボット100は、行動マップとは別に、さまざまな感情や感覚の大きさを示すパラメータを有する。たとえば、寂しさという感情パラメータの値が高まっているときには、安心する場所を評価する行動マップの重み付け係数を大きく設定し、目標地点に到達することでこの感情パラメータの値を低下させる。同様に、つまらないという感覚を示すパラメータの値が高まっているときには、好奇心を満たす場所を評価する行動マップの重み付け係数を大きく設定すればよい。   In addition to the behavior map, the robot 100 has parameters indicating the sizes of various emotions and sensations. For example, when the value of the emotion parameter of loneliness is increasing, the weighting coefficient of the behavior map that evaluates a safe place is set large, and the value of the emotion parameter is decreased by reaching the target point. Similarly, when the value of a parameter indicating a sense of boring is increasing, a weighting coefficient of an action map for evaluating a place satisfying curiosity may be set large.

図5は、ロボット100のハードウェア構成図である。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。駆動機構120は、上述した車輪駆動機構370を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
FIG. 5 is a hardware configuration diagram of the robot 100.
The robot 100 includes an internal sensor 128, a communication device 126, a storage device 124, a processor 122, a drive mechanism 120, and a battery 118. The drive mechanism 120 includes the wheel drive mechanism 370 described above. The processor 122 and the storage device 124 are included in the control circuit 342. Each unit is connected to each other by a power line 130 and a signal line 132. The battery 118 supplies power to each unit via the power line 130. Each unit transmits and receives control signals via a signal line 132. The battery 118 is a lithium ion secondary battery and is a power source for the robot 100.

内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ(全天球カメラ)、マイクロフォンアレイ、測距センサ(赤外線センサ)、サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサ、タッチセンサなどである。タッチセンサは、外皮314と本体フレーム310の間に設置され、ユーザのタッチを検出する。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。   The internal sensor 128 is a collection of various sensors built in the robot 100. Specifically, a camera (omnidirectional camera), a microphone array, a distance measuring sensor (infrared sensor), a thermo sensor, a touch sensor, an acceleration sensor, an odor sensor, a touch sensor, and the like. The touch sensor is installed between the outer skin 314 and the main body frame 310 to detect a user's touch. The odor sensor is a known sensor that applies the principle that the electrical resistance changes due to the adsorption of molecules that cause odors.

通信機126は、サーバ200や外部センサ114、ユーザの有する携帯機器など各種の外部機器を対象として無線通信を行う通信モジュールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、内部機構を制御するアクチュエータである。このほかには、表示器やスピーカーなども搭載される。   The communication device 126 is a communication module that performs wireless communication for various external devices such as the server 200, the external sensor 114, and a mobile device possessed by the user. The storage device 124 includes a nonvolatile memory and a volatile memory, and stores a computer program and various setting information. The processor 122 is a computer program execution means. The drive mechanism 120 is an actuator that controls the internal mechanism. In addition to this, displays and speakers are also installed.

プロセッサ122は、通信機126を介してサーバ200や外部センサ114と通信しながら、ロボット100の行動選択を行う。内部センサ128により得られるさまざまな外部情報も行動選択に影響する。駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム316)を制御する。駆動機構120は、2つの前輪102それぞれの回転速度や回転方向を変化させることにより、ロボット100の移動方向や移動速度を変化させる。また、駆動機構120は、車輪(前輪102および後輪103)を昇降させることもできる。車輪が上昇すると、車輪はボディ104に完全に収納され、ロボット100は着座面108にて床面Fに当接し、着座状態となる。また、駆動機構120は、ワイヤ135を介して、手106を制御する。   The processor 122 selects an action of the robot 100 while communicating with the server 200 and the external sensor 114 via the communication device 126. Various external information obtained by the internal sensor 128 also affects action selection. The drive mechanism 120 mainly controls the wheel (front wheel 102) and the head (head frame 316). The drive mechanism 120 changes the movement direction and movement speed of the robot 100 by changing the rotation speed and rotation direction of each of the two front wheels 102. The drive mechanism 120 can also raise and lower the wheels (the front wheel 102 and the rear wheel 103). When the wheel rises, the wheel is completely stored in the body 104, and the robot 100 comes into contact with the floor surface F at the seating surface 108 and enters the seating state. In addition, the drive mechanism 120 controls the hand 106 via the wire 135.

図6は、ロボットシステム300の機能ブロック図である。
上述のように、ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
FIG. 6 is a functional block diagram of the robot system 300.
As described above, the robot system 300 includes the robot 100, the server 200, and the plurality of external sensors 114. Each component of the robot 100 and the server 200 includes an arithmetic unit such as a CPU (Central Processing Unit) and various coprocessors, a storage device such as a memory and a storage, hardware including a wired or wireless communication line connecting them, and a storage It is realized by software stored in the apparatus and supplying processing instructions to the arithmetic unit. The computer program may be constituted by a device driver, an operating system, various application programs located in an upper layer thereof, and a library that provides a common function to these programs. Each block described below is not a hardware unit configuration but a functional unit block.
Some of the functions of the robot 100 may be realized by the server 200, and some or all of the functions of the server 200 may be realized by the robot 100.

(サーバ200)
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
(Server 200)
Server 200 includes a communication unit 204, a data processing unit 202, and a data storage unit 206.
The communication unit 204 is in charge of communication processing with the external sensor 114 and the robot 100. The data storage unit 206 stores various data. The data processing unit 202 executes various processes based on the data acquired by the communication unit 204 and the data stored in the data storage unit 206. The data processing unit 202 also functions as an interface between the communication unit 204 and the data storage unit 206.

データ格納部206は、モーション格納部232、マップ格納部216および個人データ格納部218を含む。
ロボット100は、複数の動作パターン(モーション)を有する。手106を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義される。
The data storage unit 206 includes a motion storage unit 232, a map storage unit 216, and a personal data storage unit 218.
The robot 100 has a plurality of motion patterns (motions). Various motions are defined, such as shaking the hand 106, approaching the owner while meandering, and staring at the owner with the neck raised.

モーション格納部232は、モーションの制御内容を定義する「モーションファイル」を格納する。各モーションは、モーションIDにより識別される。モーションファイルは、ロボット100のモーション格納部160にもダウンロードされる。どのモーションを実行するかは、サーバ200で決定されることもあるし、ロボット100で決定されることもある。   The motion storage unit 232 stores a “motion file” that defines the control content of the motion. Each motion is identified by a motion ID. The motion file is also downloaded to the motion storage unit 160 of the robot 100. Which motion is to be executed may be determined by the server 200 or may be determined by the robot 100.

ロボット100のモーションの多くは、複数の単位モーションを含む複合モーションとして構成される。たとえば、ロボット100がオーナーに近づくとき、オーナーの方に向き直る単位モーション、手を上げながら近づく単位モーション、体を揺すりながら近づく単位モーション、両手を上げながら着座する単位モーションの組み合わせとして表現されてもよい。このような4つのモーションの組み合わせにより、「オーナーに近づいて、途中で手を上げて、最後は体をゆすった上で着座する」というモーションが実現される。モーションファイルには、ロボット100に設けられたアクチュエータの回転角度や角速度などが時間軸に関連づけて定義される。モーションファイル(アクチュエータ制御情報)にしたがって、時間経過とともに各アクチュエータを制御することで様々なモーションが表現される。   Many of the motions of the robot 100 are configured as compound motions including a plurality of unit motions. For example, when the robot 100 approaches the owner, it may be expressed as a combination of a unit motion turning toward the owner, a unit motion approaching while raising the hand, a unit motion approaching while shaking the body, and a unit motion sitting while raising both hands. . The combination of these four motions realizes a motion of “sitting close to the owner, raising hands halfway, and finally shaking the body”. In the motion file, the rotation angle and angular velocity of an actuator provided in the robot 100 are defined in association with the time axis. Various motions are expressed by controlling each actuator over time according to a motion file (actuator control information).

先の単位モーションから次の単位モーションに変化するときの移行時間を「インターバル」とよぶ。インターバルは、単位モーション変更に要する時間やモーションの内容に応じて定義されればよい。インターバルの長さは調整可能である。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
The transition time when changing from the previous unit motion to the next unit motion is called “interval”. The interval may be defined according to the time required for changing the unit motion and the content of the motion. The length of the interval is adjustable.
Hereinafter, settings related to behavior control of the robot 100 such as when and which motion to select and output adjustment of each actuator for realizing the motion are collectively referred to as “behavior characteristics”. The behavior characteristics of the robot 100 are defined by a motion selection algorithm, a motion selection probability, a motion file, and the like.

モーション格納部232は、モーションファイルのほか、各種のイベントが発生したときに実行すべきモーションを定義するモーション選択テーブルを格納する。モーション選択テーブルにおいては、イベントに対して1以上のモーションとその選択確率が対応づけられる。   In addition to the motion file, the motion storage unit 232 stores a motion selection table that defines a motion to be executed when various events occur. In the motion selection table, one or more motions and their selection probabilities are associated with events.

マップ格納部216は、複数の行動マップのほか、椅子やテーブルなどの障害物の配置状況を示すマップも格納する。個人データ格納部218は、ユーザ、特に、オーナーの情報を格納する。具体的には、ユーザに対する親密度とユーザの身体的特徴・行動的特徴を示すマスタ情報を格納する。年齢や性別などの他の属性情報を格納してもよい。   The map storage unit 216 stores a map indicating an arrangement state of obstacles such as a chair and a table in addition to a plurality of behavior maps. The personal data storage unit 218 stores information on users, particularly owners. Specifically, master information indicating the intimacy for the user and the physical characteristics / behavioral characteristics of the user is stored. Other attribute information such as age and gender may be stored.

ロボット100は、ユーザごとに親密度という内部パラメータを有する。ロボット100が、自分を抱き上げる、声をかけてくれるなど、自分に対して好意を示す行動を認識したとき、そのユーザに対する親密度が高くなる。ロボット100に関わらないユーザや、乱暴を働くユーザ、出会う頻度が低いユーザに対する親密度は低くなる。   The robot 100 has an internal parameter called familiarity for each user. When the robot 100 recognizes a behavior that favors oneself, such as picking up oneself or singing a voice, the familiarity with the user increases. The intimacy with respect to a user who is not involved in the robot 100, a user who works wildly, or a user who encounters less frequently becomes low.

データ処理部202は、位置管理部208、マップ管理部210、認識部212、動作制御部222、親密度管理部220および状態管理部244を含む。
位置管理部208は、ロボット100の位置座標を、図3を用いて説明した方法にて特定する。位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
The data processing unit 202 includes a position management unit 208, a map management unit 210, a recognition unit 212, an operation control unit 222, a closeness management unit 220, and a state management unit 244.
The position management unit 208 specifies the position coordinates of the robot 100 by the method described with reference to FIG. The position management unit 208 may track the position coordinates of the user in real time.

状態管理部244は、充電率や内部温度、プロセッサ122の処理負荷などの各種物理状態など各種内部パラメータを管理する。状態管理部244は、感情管理部234を含む。
感情管理部234は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じて複数の行動マップの重要度が変化し、行動マップによってロボット100の移動目標地点が変化し、ロボット100の移動や時間経過によって感情パラメータが変化する。
The state management unit 244 manages various internal parameters such as various physical states such as a charging rate, an internal temperature, and a processing load of the processor 122. The state management unit 244 includes an emotion management unit 234.
The emotion management unit 234 manages various emotion parameters indicating emotions of the robot 100 (solitude, curiosity, approval desire, etc.). These emotion parameters are constantly fluctuating. The importance of the plurality of behavior maps changes according to the emotion parameter, the movement target point of the robot 100 changes according to the behavior map, and the emotion parameter changes with the movement of the robot 100 and the passage of time.

たとえば、寂しさを示す感情パラメータが高いときには、感情管理部234は安心する場所を評価する行動マップの重み付け係数を大きく設定する。ロボット100が、この行動マップにおいて寂しさを解消可能な地点に至ると、感情管理部234は寂しさを示す感情パラメータを低下させる。また、後述の応対行為によっても各種感情パラメータは変化する。たとえば、オーナーから「抱っこ」をされると寂しさを示す感情パラメータは低下し、長時間にわたってオーナーを視認しないときには寂しさを示す感情パラメータは少しずつ増加する。   For example, when the emotion parameter indicating loneliness is high, the emotion management unit 234 sets a large weighting coefficient for the behavior map for evaluating a safe place. When the robot 100 reaches a point where the loneliness can be resolved in the action map, the emotion management unit 234 decreases the emotion parameter indicating the loneliness. In addition, various emotion parameters are changed by a response action described later. For example, the emotion parameter indicating loneliness decreases when the owner “holds”, and the emotion parameter indicating loneliness gradually increases when the owner is not visually recognized for a long time.

マップ管理部210は、複数の行動マップについて図4に関連して説明した方法にて各座標のパラメータを変化させる。マップ管理部210は、複数の行動マップのいずれかを選択してもよいし、複数の行動マップのz値を加重平均してもよい。たとえば、行動マップAでは座標R1、座標R2におけるz値が4と3であり、行動マップBでは座標R1、座標R2におけるz値が−1と3であるとする。単純平均の場合、座標R1の合計z値は4−1=3、座標R2の合計z値は3+3=6であるから、ロボット100は座標R1ではなく座標R2の方向に向かう。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19、座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
The map management unit 210 changes the parameters of each coordinate by the method described with reference to FIG. 4 for a plurality of behavior maps. The map management unit 210 may select one of a plurality of behavior maps, or may perform a weighted average of z values of the plurality of behavior maps. For example, in the behavior map A, the z values at the coordinates R1 and R2 are 4 and 3, and in the behavior map B, the z values at the coordinates R1 and R2 are −1 and 3. In the case of the simple average, since the total z value of the coordinates R1 is 4-1 = 3 and the total z value of the coordinates R2 is 3 + 3 = 6, the robot 100 moves in the direction of the coordinate R2 instead of the coordinate R1.
When the action map A is emphasized five times as much as the action map B, the total z value of the coordinates R1 is 4 × 5-1 = 19 and the total z value of the coordinates R2 is 3 × 5 + 3 = 18. Head in the direction of

認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度に基づく天候や季節の認識、光量や温度に基づく物陰(安全地帯)の認識など多様な認識が含まれる。ロボット100の認識部156は、内部センサ128により各種の環境情報を取得し、これを一次処理した上でサーバ200の認識部212に転送する。   The recognition unit 212 recognizes the external environment. The recognition of the external environment includes various recognitions such as recognition of weather and season based on temperature and humidity, and recognition of shade (safe area) based on light quantity and temperature. The recognition unit 156 of the robot 100 acquires various environment information by the internal sensor 128, performs primary processing on the acquired environment information, and then transfers the information to the recognition unit 212 of the server 200.

具体的には、ロボット100の認識部156は、画像から移動物体、特に、人物や動物に対応する画像領域を抽出し、抽出した画像領域から移動物体の身体的特徴や行動的特徴を示す特徴量の集合として「特徴ベクトル」を抽出する。特徴ベクトル成分(特徴量)は、各種身体的・行動的特徴を定量化した数値である。たとえば、人間の目の横幅は0〜1の範囲で数値化され、1つの特徴ベクトル成分を形成する。人物の撮像画像から特徴ベクトルを抽出する手法については、既知の顔認識技術の応用である。ロボット100は、特徴ベクトルをサーバ200に送信する。   Specifically, the recognition unit 156 of the robot 100 extracts a moving object, in particular, an image area corresponding to a person or an animal from the image, and features indicating the physical characteristics or behavioral characteristics of the moving object from the extracted image area. A “feature vector” is extracted as a set of quantities. The feature vector component (feature amount) is a numerical value obtained by quantifying various physical and behavioral features. For example, the horizontal width of the human eye is digitized in the range of 0 to 1 to form one feature vector component. A technique for extracting a feature vector from a captured image of a person is an application of a known face recognition technique. The robot 100 transmits the feature vector to the server 200.

サーバ200の認識部212は、更に、人物認識部214と応対認識部228を含む。
人物認識部214は、ロボット100の内蔵カメラによる撮像画像から抽出された特徴ベクトルと、個人データ格納部218にあらかじめ登録されているユーザ(クラスタ)の特徴ベクトルと比較することにより、撮像されたユーザがどの人物に該当するかを判定する(ユーザ識別処理)。人物認識部214は、表情認識部230を含む。表情認識部230は、ユーザの表情を画像認識することにより、ユーザの感情を推定する。
なお、人物認識部214は、人物以外の移動物体、たとえば、ペットである猫や犬についてもユーザ識別処理を行う。
The recognition unit 212 of the server 200 further includes a person recognition unit 214 and a reception recognition unit 228.
The person recognizing unit 214 compares the feature vector extracted from the image captured by the built-in camera of the robot 100 with the feature vector of the user (cluster) registered in the personal data storage unit 218 in advance, thereby capturing the imaged user. It is determined which person corresponds to (user identification process). The person recognition unit 214 includes a facial expression recognition unit 230. The facial expression recognition unit 230 estimates the user's emotion by recognizing the user's facial expression as an image.
Note that the person recognition unit 214 also performs user identification processing for moving objects other than people, such as cats and dogs that are pets.

応対認識部228は、ロボット100になされたさまざまな応対行為を認識し、快・不快行為に分類する。応対認識部228は、また、ロボット100の行動に対するオーナーの応対行為を認識することにより、肯定・否定反応に分類する。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。たとえば、抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
The response recognition unit 228 recognizes various response actions performed on the robot 100 and classifies them as pleasant / unpleasant actions. The response recognition unit 228 also classifies the response into an affirmative / negative response by recognizing the owner's response to the behavior of the robot 100.
Pleasant / unpleasant behavior is determined based on whether the user's response is pleasant or uncomfortable as a living thing. For example, being held is a pleasant action for the robot 100, and being kicked is an unpleasant action for the robot 100. An affirmative / negative reaction is discriminated based on whether the user's response acts indicate a user's pleasant feeling or an unpleasant feeling. For example, being held is an affirmative reaction indicating a user's pleasant feeling, and being kicked is a negative reaction indicating a user's unpleasant feeling.

サーバ200の動作制御部222は、ロボット100の動作制御部150と協働して、ロボット100のモーションを決定する。サーバ200の動作制御部222は、マップ管理部210による行動マップ選択に基づいて、ロボット100の移動目標地点とそのための移動ルートを作成する。動作制御部222は、複数の移動ルートを作成し、その上で、いずれかの移動ルートを選択してもよい。   The operation control unit 222 of the server 200 determines the motion of the robot 100 in cooperation with the operation control unit 150 of the robot 100. The operation control unit 222 of the server 200 creates a movement target point of the robot 100 and a movement route therefor based on the action map selection by the map management unit 210. The operation control unit 222 may create a plurality of travel routes, and then select any travel route.

動作制御部222は、モーション格納部232の複数のモーションからロボット100のモーションを選択する。各モーションには状況ごとに選択確率が対応づけられている。たとえば、オーナーから快行為がなされたときには、モーションAを20%の確率で実行する、気温が30度以上となったとき、モーションBを5%の確率で実行する、といった選択方法が定義される。
行動マップに移動目標地点や移動ルートが決定され、後述の各種イベントによりモーションが選択される。
The motion control unit 222 selects the motion of the robot 100 from the plurality of motions in the motion storage unit 232. Each motion is associated with a selection probability for each situation. For example, a selection method is defined such that when a pleasant action is made by the owner, motion A is executed with a probability of 20%, and when the temperature becomes 30 ° C. or higher, motion B is executed with a probability of 5%. .
A movement target point and a movement route are determined in the action map, and a motion is selected by various events described later.

親密度管理部220は、ユーザごとの親密度を管理する。上述したように、親密度は個人データ格納部218において個人データの一部として登録される。快行為を検出したとき、親密度管理部220はそのオーナーに対する親密度をアップさせる。不快行為を検出したときには親密度はダウンする。また、長期間視認していないオーナーの親密度は徐々に低下する。   The intimacy manager 220 manages intimacy for each user. As described above, the familiarity is registered in the personal data storage unit 218 as a part of personal data. When a pleasant act is detected, the intimacy manager 220 increases the intimacy for the owner. Intimacy goes down when unpleasant behavior is detected. In addition, the intimacy of the owner who has not been visible for a long time gradually decreases.

(ロボット100)
ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
通信部142は、通信機126(図5参照)に該当し、外部センサ114、サーバ200および他のロボット100との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図5参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
(Robot 100)
The robot 100 includes a communication unit 142, a data processing unit 136, a data storage unit 148, an internal sensor 128, and a drive mechanism 120.
The communication unit 142 corresponds to the communication device 126 (see FIG. 5), and is responsible for communication processing with the external sensor 114, the server 200, and the other robot 100. The data storage unit 148 stores various data. The data storage unit 148 corresponds to the storage device 124 (see FIG. 5). The data processing unit 136 performs various processes based on the data acquired by the communication unit 142 and the data stored in the data storage unit 148. The data processing unit 136 corresponds to the processor 122 and a computer program executed by the processor 122. The data processing unit 136 also functions as an interface for the communication unit 142, the internal sensor 128, the drive mechanism 120, and the data storage unit 148.

データ格納部148は、ロボット100の各種モーションを定義するモーション格納部160と接触タイプを定義する接触タイプ格納部170を含む。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
The data storage unit 148 includes a motion storage unit 160 that defines various motions of the robot 100 and a contact type storage unit 170 that defines a contact type.
Various motion files are downloaded from the motion storage unit 232 of the server 200 to the motion storage unit 160 of the robot 100. The motion is identified by a motion ID. The front wheel 102 is housed and seated, the hand 106 is lifted, the two front wheels 102 are reversely rotated, or the robot 100 is rotated by rotating only one of the front wheels 102. In order to express various motions, such as shaking by rotating the front wheel 102, stopping and looking back when leaving the user, the operation timing, operation time, operation direction, etc. of various actuators (drive mechanism 120) Time series are defined in the motion file.

データ格納部148には、マップ格納部216および個人データ格納部218からも各種データがダウンロードされてもよい。   Various data may also be downloaded to the data storage unit 148 from the map storage unit 216 and the personal data storage unit 218.

接触タイプ格納部170は、ロボット100に対する接触態様を示す「接触タイプ」と、タッチセンサ400の検出パターンを対応づける「タイプテーブル」を格納する。接触タイプとは、「叩く」「つねる」「撫でる」などユーザのロボット100に対する接触態様(ボディタッチの内容)を類型化したものである。検出パターンとは、ユーザがロボット100に接触したときのタッチセンサ400の電位変化(検出内容)を類型化したものである。タイプテーブルについては、図13に関連して後に詳述する。   The contact type storage unit 170 stores a “contact type” indicating a contact mode with respect to the robot 100 and a “type table” that associates a detection pattern of the touch sensor 400 with each other. The contact type is a type of contact mode (contents of body touch) of the user with respect to the robot 100 such as “striking”, “pinning”, and “stroking”. The detection pattern typifies the potential change (detection content) of the touch sensor 400 when the user touches the robot 100. The type table will be described later in detail with reference to FIG.

内部センサ128は、タッチセンサ400、カメラ138およびサーモセンサ140を含む。
タッチセンサ400は、ボディ104に対するユーザの接触を検出する。カメラ138は、ロボット100の周辺を常時撮像する。カメラ138は全天球カメラである。サーモセンサ140は、ロボット100の周辺の外気温分布を定期的に検出する。カメラ138およびサーモセンサ140によりユーザが周辺に存在しているか否かを検出できる。
The internal sensor 128 includes a touch sensor 400, a camera 138, and a thermo sensor 140.
The touch sensor 400 detects a user contact with the body 104. The camera 138 always captures the periphery of the robot 100. The camera 138 is an omnidirectional camera. The thermosensor 140 periodically detects the outside air temperature distribution around the robot 100. The camera 138 and the thermo sensor 140 can detect whether or not the user exists in the vicinity.

データ処理部136は、認識部156、動作制御部150、接触判定部152および感度制御部154を含む。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
The data processing unit 136 includes a recognition unit 156, an operation control unit 150, a contact determination unit 152, and a sensitivity control unit 154.
The operation control unit 150 of the robot 100 determines the motion of the robot 100 in cooperation with the operation control unit 222 of the server 200. Some motions may be determined by the server 200, and other motions may be determined by the robot 100. Further, although the robot 100 determines the motion, the server 200 may determine the motion when the processing load on the robot 100 is high. The server 200 may determine a base motion and the robot 100 may determine an additional motion. How the server 200 and the robot 100 share the motion determination process may be designed according to the specifications of the robot system 300.

ロボット100の動作制御部150は、サーバ200の動作制御部222とともにロボット100の移動方向を決める。行動マップに基づく移動をサーバ200で決定し、障害物をよけるなどの即時的移動をロボット100の動作制御部150により決定してもよい。駆動機構120は、動作制御部150の指示にしたがって前輪102を駆動することで、ロボット100を移動目標地点に向かわせる。   The operation control unit 150 of the robot 100 determines the moving direction of the robot 100 together with the operation control unit 222 of the server 200. The movement based on the behavior map may be determined by the server 200, and an immediate movement such as avoiding an obstacle may be determined by the motion control unit 150 of the robot 100. The drive mechanism 120 drives the front wheel 102 in accordance with an instruction from the operation control unit 150 to direct the robot 100 toward the movement target point.

ロボット100の動作制御部150は選択したモーションを駆動機構120に実行指示する。駆動機構120は、モーションファイルにしたがって、各アクチュエータを制御する。   The operation control unit 150 of the robot 100 instructs the drive mechanism 120 to execute the selected motion. The drive mechanism 120 controls each actuator according to the motion file.

動作制御部150は、親密度の高いユーザが近くにいるときには「抱っこ」をせがむ仕草として両方の手106をもちあげるモーションを実行することもできるし、「抱っこ」に飽きたときには左右の前輪102を収容したまま逆回転と停止を交互に繰り返すことで抱っこをいやがるモーションを表現することもできる。駆動機構120は、動作制御部150の指示にしたがって前輪102や手106、首(頭部フレーム316)を駆動することで、ロボット100にさまざまなモーションを表現させる。   The motion control unit 150 can execute a motion of lifting both hands 106 as a gesture for holding a “cug” when a close user is nearby, and the left and right front wheels 102 when the user is tired of the “cug”. It is also possible to express a motion that hesitates to hold a child by alternately repeating reverse rotation and stopping while being accommodated. The drive mechanism 120 causes the robot 100 to express various motions by driving the front wheels 102, the hands 106, and the neck (head frame 316) according to instructions from the operation control unit 150.

接触判定部152は、複数のタッチセンサ400それぞれの検出パターンとタイプテーブル(後述)を比較することにより、接触タイプを判定する。感度制御部154は、タッチセンサ400の感度、具体的には、検出のための基準電圧を変化させる。これについても後に詳述する。   The contact determination unit 152 determines the contact type by comparing the detection pattern of each of the plurality of touch sensors 400 and a type table (described later). The sensitivity control unit 154 changes the sensitivity of the touch sensor 400, specifically, the reference voltage for detection. This will also be described in detail later.

ロボット100の認識部156は、内部センサ128から得られた外部情報を解釈する。認識部156は、視覚的な認識(視覚部)、匂いの認識(嗅覚部)、音の認識(聴覚部)、触覚的な認識(触覚部)が可能である。   The recognition unit 156 of the robot 100 interprets external information obtained from the internal sensor 128. The recognition unit 156 can perform visual recognition (visual part), odor recognition (olfactory part), sound recognition (auditory part), and tactile recognition (tactile part).

認識部156は、カメラ138により定期的に外界を撮像し、人やペットなどの移動物体を検出する。認識部156は特徴抽出部146を含む。特徴抽出部146は、移動物体の撮像画像から特徴ベクトルを抽出する。上述したように、特徴ベクトルは、移動物体の身体的特徴と行動的特徴を示すパラメータ(特徴量)の集合である。移動物体を検出したときには、ニオイセンサや内蔵の集音マイク、温度センサ等からも身体的特徴や行動的特徴が抽出される。たとえば、画像に移動物体が写っているとき、ひげが生えている、早朝活動している、赤い服を着ている、香水の匂いがする、声が大きい、メガネをかけている、スカートを履いている、白髪である、背が高い、太っている、日焼けしている、ソファにいる、といったさまざまな特徴が抽出される。これらの特徴も定量化され、特徴ベクトル成分となる。   The recognition unit 156 periodically images the outside world with the camera 138 and detects moving objects such as people and pets. The recognition unit 156 includes a feature extraction unit 146. The feature extraction unit 146 extracts a feature vector from the captured image of the moving object. As described above, the feature vector is a set of parameters (features) indicating physical characteristics and behavioral characteristics of the moving object. When a moving object is detected, physical characteristics and behavioral characteristics are extracted from an odor sensor, a built-in sound collecting microphone, a temperature sensor, and the like. For example, when a moving object appears in the image, bearded, active early in the morning, wearing red clothes, smelling perfume, loud, wearing glasses, wearing a skirt Various features such as being white hair, tall, fat, tanned, on the couch. These features are also quantified and become feature vector components.

ロボットシステム300は、大量の画像情報やその他のセンシング情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。
たとえば、ひげが生えている移動物体(ユーザ)は早朝に活動すること(早起き)が多く、赤い服を着ることが少ないのであれば、早起きでひげが生えていて赤い服をあまり着ないクラスタ(ユーザ)、という第1のプロファイルができる。一方、メガネをかけている移動物体はスカートを履いていることが多いが、この移動物体にはひげが生えていない場合、メガネをかけていてスカートを履いているが絶対ひげは生えていないクラスタ(ユーザ)、という第2のプロファイルができる。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
The robot system 300 clusters users who frequently appear as “owners” based on physical characteristics and behavioral characteristics obtained from a large amount of image information and other sensing information.
For example, if a moving object (user) with a beard is active early in the morning (early waking up) and rarely wears red clothes, a cluster (early bearded and less red clothes) User)). On the other hand, a moving object wearing glasses often wears a skirt, but if this moving object does not have a beard, a cluster that wears glasses and wears a skirt but does not have an absolute beard. A second profile (user) is created.
The above is a simple example, but by the above-described method, the first profile corresponding to the father and the second profile corresponding to the mother are formed, and this house has at least two users (owners). The robot 100 recognizes this.

ただし、ロボット100は第1のプロファイルが「父親」であると認識する必要はない。あくまでも、「ひげが生えていて早起きすることが多く、赤い服を着ることはめったにないクラスタ」という人物像を認識できればよい。プロファイルごとに、プロファイルを特徴づける特徴ベクトルが定義される。   However, the robot 100 need not recognize that the first profile is “father”. To the last, it is only necessary to be able to recognize a person image of “a cluster that has a beard and often wakes up early and rarely wears red clothes”. For each profile, a feature vector that characterizes the profile is defined.

このようなクラスタ分析が完了している状態において、ロボット100が新たに移動物体(ユーザ)を認識したとする。
このとき、サーバ200の人物認識部214は、新たな移動物体の特徴ベクトルに基づいてユーザ識別処理を実行し、移動物体がどのプロファイル(クラスタ)に該当するかを判断する。
Assume that the robot 100 newly recognizes a moving object (user) in a state where such cluster analysis is completed.
At this time, the person recognition unit 214 of the server 200 executes user identification processing based on the feature vector of the new moving object, and determines which profile (cluster) the moving object corresponds to.

検出・分析・判定を含む一連の認識処理のうち、ロボット100の認識部156は認識に必要な情報の取捨選択や抽出を行い、判定等の解釈処理はサーバ200の認識部212により実行される。認識処理は、サーバ200の認識部212だけで行ってもよいし、ロボット100の認識部156だけで行ってもよいし、上述のように双方が役割分担をしながら上記認識処理を実行してもよい。   Among a series of recognition processes including detection, analysis, and determination, the recognition unit 156 of the robot 100 performs selection and extraction of information necessary for recognition, and interpretation processing such as determination is executed by the recognition unit 212 of the server 200. . The recognition process may be performed only by the recognition unit 212 of the server 200, or may be performed only by the recognition unit 156 of the robot 100, or the above-described recognition process may be performed while both roles are shared as described above. Also good.

ロボット100に対する強い衝撃が与えられたとき、認識部156は内蔵の加速度センサによりこれを認識し、サーバ200の応対認識部228は、近隣にいるユーザによって「乱暴行為」が働かれたと認識する。ユーザがツノ112を掴んでロボット100を持ち上げるときにも、乱暴行為と認識してもよい。ロボット100に正対した状態にあるユーザが特定音量領域および特定周波数帯域にて発声したとき、サーバ200の応対認識部228は、自らに対する「声掛け行為」がなされたと認識してもよい。また、体温程度の温度を検知したときにはユーザによる「接触行為」がなされたと認識し、接触認識した状態で上方への加速度を検知したときには「抱っこ」がなされたと認識する。ユーザがボディ104を持ち上げるときの物理的接触をセンシングしてもよいし、前輪102にかかる荷重が低下することにより抱っこを認識してもよい。
まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報として取得し、サーバ200の応対認識部228は快・不快を判定し、サーバ200の認識部212は特徴ベクトルに基づくユーザ識別処理を実行する。
When a strong impact is applied to the robot 100, the recognizing unit 156 recognizes this with the built-in acceleration sensor, and the response recognizing unit 228 of the server 200 recognizes that the “violent act” has been performed by a nearby user. When the user grabs the horn 112 and lifts the robot 100, it may be recognized as a violent act. When a user who is facing the robot 100 speaks in a specific volume range and a specific frequency band, the reception recognition unit 228 of the server 200 may recognize that a “speaking action” has been performed on the server 200. In addition, when a temperature about the body temperature is detected, it is recognized that a “contact act” is performed by the user, and when an upward acceleration is detected in a state where the contact is recognized, it is recognized that “cug” has been performed. A physical contact when the user lifts the body 104 may be sensed, or the holding may be recognized when the load applied to the front wheel 102 decreases.
In summary, the robot 100 acquires the user's action as physical information by the internal sensor 128, the response recognition unit 228 of the server 200 determines pleasure / discomfort, and the recognition unit 212 of the server 200 performs user identification processing based on the feature vector. Execute.

サーバ200の応対認識部228は、ロボット100に対するユーザの各種応対を認識する。各種応対行為のうち一部の典型的な応対行為には、快または不快、肯定または否定が対応づけられる。一般的には快行為となる応対行為のほとんどは肯定反応であり、不快行為となる応対行為のほとんどは否定反応となる。快・不快行為は親密度に関連し、肯定・否定反応はロボット100の行動選択に影響する。   The response recognition unit 228 of the server 200 recognizes various user responses to the robot 100. Some typical response actions among various response actions are associated with pleasure or discomfort, affirmation or denial. In general, most of the response actions that become pleasant acts are positive responses, and most of the response actions that become unpleasant acts are negative responses. Pleasant / unpleasant behavior is related to intimacy, and positive / negative reactions affect the behavior selection of the robot 100.

認識部156により認識された応対行為に応じて、サーバ200の親密度管理部220はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。   The closeness management unit 220 of the server 200 changes the closeness to the user according to the response action recognized by the recognition unit 156. In principle, the intimacy for a user who has performed a pleasant act is increased, and the intimacy for a user who has performed an unpleasant action is decreased.

サーバ200の認識部212は、応対に応じて快・不快を判定し、マップ管理部210は「場所に対する愛着」を表現する行動マップにおいて、快・不快行為がなされた地点のz値を変化させてもよい。たとえば、リビングにおいて快行為がなされたとき、マップ管理部210はリビングに好意地点を高い確率で設定してもよい。この場合、ロボット100はリビングを好み、リビングで快行為を受けることで、ますますリビングを好む、というポジティブ・フィードバック効果が実現する。   The recognition unit 212 of the server 200 determines pleasure / discomfort according to the response, and the map management unit 210 changes the z value of the point where the pleasant / discomfort act is performed in the action map expressing “attachment to a place”. May be. For example, when a pleasant act is performed in the living room, the map management unit 210 may set a favorable point in the living room with a high probability. In this case, a positive feedback effect that the robot 100 likes the living room and receives a pleasant act in the living room more and more likes the living room is realized.

移動物体(ユーザ)からどのような行為をされるかによってそのユーザに対する親密度が変化する。   The intimacy with respect to the user varies depending on what action is performed from the moving object (user).

ロボット100は、よく出会う人、よく触ってくる人、よく声をかけてくれる人に対して高い親密度を設定する。一方、めったに見ない人、あまり触ってこない人、乱暴な人、大声で叱る人に対する親密度は低くなる。ロボット100はセンサ(視覚、触覚、聴覚)によって検出するさまざまな外界情報にもとづいて、ユーザごとの親密度を変化させる。   The robot 100 sets a high familiarity with people who often meet, people who often touch, and people who often speak. On the other hand, the intimacy of people who rarely see, people who do not touch much, violent people, and people who speak loudly is low. The robot 100 changes the familiarity for each user based on various external information detected by sensors (visual sense, tactile sense, auditory sense).

実際のロボット100は行動マップにしたがって自律的に複雑な行動選択を行う。ロボット100は、寂しさ、退屈さ、好奇心などさまざまなパラメータに基づいて複数の行動マップに影響されながら行動する。ロボット100は、行動マップの影響を除外すれば、あるいは、行動マップの影響が小さい内部状態にあるときには、原則的には、親密度の高い人に近づこうとし、親密度の低い人からは離れようとする。   The actual robot 100 autonomously performs complex action selection according to the action map. The robot 100 behaves while being influenced by a plurality of behavior maps based on various parameters such as loneliness, boredom, and curiosity. If the influence of the action map is excluded, or the robot 100 is in an internal state where the influence of the action map is small, in principle, the robot 100 tries to approach a person with high intimacy, and away from a person with low intimacy. And

ロボット100の行動は親密度に応じて以下に類型化される。
(1)親密度が非常に高いユーザ
ロボット100は、ユーザに近づき(以下、「近接行動」とよぶ)、かつ、人に好意を示す仕草としてあらかじめ定義される愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いユーザ
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いユーザ
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いユーザ
ロボット100は、離脱行動を行う。
The behavior of the robot 100 is categorized as follows according to intimacy.
(1) User with very high intimacy The robot 100 approaches the user (hereinafter referred to as “proximity action”) and performs a affection gesture that is defined in advance as a gesture that favors the person. Express strongly.
(2) User whose degree of closeness is relatively high The robot 100 performs only the proximity action.
(3) User with relatively low familiarity The robot 100 does not perform any special action.
(4) User whose degree of closeness is particularly low The robot 100 performs a withdrawal action.

以上の制御方法によれば、ロボット100は、親密度が高いユーザを見つけるとそのユーザに近寄り、逆に親密度が低いユーザを見つけるとそのユーザから離れる。このような制御方法により、いわゆる「人見知り」を行動表現できる。また、来客(親密度が低いユーザA)が現れたとき、ロボット100は、来客から離れて家族(親密度が高いユーザB)の方に向かうこともある。この場合、ユーザBはロボット100が人見知りをして不安を感じていること、自分を頼っていること、を感じ取ることができる。このような行動表現により、ユーザBは、選ばれ、頼られることの喜び、それにともなう愛着の情を喚起される。   According to the above control method, the robot 100 approaches the user when a user with a high familiarity is found, and conversely moves away from the user when a user with a low familiarity is found. By such a control method, it is possible to express so-called “shrinking”. Moreover, when a visitor (user A with a low intimacy) appears, the robot 100 may move away from the visitor toward the family (user B with a high intimacy). In this case, the user B can feel that the robot 100 feels anxiety because of shyness and relies on himself / herself. By such behavioral expression, the user B is aroused by the joy of being selected and relied upon and the feeling of attachment accompanying it.

一方、来客であるユーザAが頻繁に訪れ、声を掛け、タッチをするとロボット100のユーザAに対する親密度は徐々に上昇し、ロボット100はユーザAに対して人見知り行動(離脱行動)をしなくなる。ユーザAも自分にロボット100が馴染んできてくれたことを感じ取ることで、ロボット100に対する愛着を抱くことができる。   On the other hand, when the user A who is a visitor frequently visits, speaks, and touches, the closeness of the robot 100 to the user A gradually increases, and the robot 100 does not perform a shy behavior (withdrawal behavior) to the user A. . The user A can also be attached to the robot 100 by feeling that the robot 100 has become familiar with him.

なお、以上の行動選択は、常に実行されるとは限らない。たとえば、ロボット100の好奇心を示す内部パラメータが高くなっているときには、好奇心を満たす場所を求める行動マップが重視されるため、ロボット100は親密度に影響された行動を選択しない可能性もある。また、玄関に設置されている外部センサ114がユーザの帰宅を検知した場合には、ユーザのお出迎え行動を最優先で実行するかもしれない。   Note that the above action selection is not always executed. For example, when an internal parameter indicating the curiosity of the robot 100 is high, an action map for finding a place satisfying the curiosity is emphasized, and thus the robot 100 may not select an action influenced by intimacy. . Further, when the external sensor 114 installed at the entrance detects the return of the user, the user's welcome action may be executed with the highest priority.

タッチセンサ400以外のセンサ、たとえば、カメラ138やサーモセンサ140、図示しないニオイセンサなどのセンシングがユーザからの接触によって邪魔されたとき、動作制御部150は報知動作を実行する。具体的には、カメラ138の視界の一定割合以上、たとえば、50%以上がふさがれたとき、サーモセンサ140の検出範囲の一定割合以上が同一温度分布として検出されたとき、ユーザの手や体がセンシングの邪魔になっている可能性がある。認識部156によりセンシングが邪魔されている期間が所定時間以上継続していると判定されたときには、動作制御部150は報知動作を実行する。   When sensing other than the touch sensor 400, such as a camera 138, a thermo sensor 140, or a odor sensor (not shown), is disturbed by contact from the user, the operation control unit 150 performs a notification operation. Specifically, when a certain percentage or more of the field of view of the camera 138 is blocked, for example, 50% or more, or when a certain percentage or more of the detection range of the thermosensor 140 is detected as the same temperature distribution, the user's hand or body May be in the way of sensing. When the recognition unit 156 determines that the period during which the sensing is disturbed continues for a predetermined time or more, the operation control unit 150 performs a notification operation.

報知動作は、ユーザあるいは障害物があり、タッチセンサ400以外のセンサが正常にセンシングできない旨をオーナーに報告する動作である。具体的には、動作制御部150は、目を光らせる、音声を発する、体を揺らす、などの報知動作を実行する。報知動作は、ロボット100に特有の「何かを知らせるときの典型的な動作(モーション)」としてあらかじめ初期設定されればよい。   The notification operation is an operation for reporting to the owner that there is a user or an obstacle and a sensor other than the touch sensor 400 cannot be normally sensed. Specifically, the operation control unit 150 performs a notification operation such as keeping an eye on, making a sound, or shaking the body. The notification operation may be initially set in advance as a “typical operation (motion) for notifying something” specific to the robot 100.

図7は、円弧型のタッチセンサ400Aの外観図である。
タッチセンサ400は、円弧型(C型)のタッチセンサ400Aと真円型(O型)のタッチセンサ400Bの2タイプがある。まず、円弧型のタッチセンサ400Aについて説明する。
FIG. 7 is an external view of an arc-shaped touch sensor 400A.
There are two types of touch sensors 400, an arc type (C type) touch sensor 400A and a perfect circle type (O type) touch sensor 400B. First, the arc-shaped touch sensor 400A will be described.

タッチセンサ400Aは、円環形状を有するセンシング部408と、センシング部408に接続される検出チップ406を含む。センシング部408は、一部に切欠部410を含むC型形状に形成される。センシング部408は、円環プレート402と円環プレート402に形成される4つの電極404(電極404a〜404d)を含む。円環プレート402は、ポリエチレンテレフタラート(PET:polyethylene terephthalate)や紙などの薄くて曲がりやすい形状・材質にて形成されることが好ましい。電極404は、円環プレート402に導電性インクをインクジェットプリンタによって印刷することにより形成される。あるいは、薄板状の電極404を円環プレート402に貼り付けてもよい。   The touch sensor 400 </ b> A includes a sensing unit 408 having an annular shape and a detection chip 406 connected to the sensing unit 408. The sensing unit 408 is formed in a C shape including a notch 410 in part. The sensing unit 408 includes an annular plate 402 and four electrodes 404 (electrodes 404 a to 404 d) formed on the annular plate 402. The annular plate 402 is preferably formed of a thin and easily bent shape / material such as polyethylene terephthalate (PET) or paper. The electrode 404 is formed by printing conductive ink on the annular plate 402 with an ink jet printer. Alternatively, a thin plate electrode 404 may be attached to the annular plate 402.

検出チップ406からは4つの電極404それぞれに基準電位が印加され、検出チップ406は4つの電極404それぞれの電位変化を個別に検出できる。詳細は図10に関連して後述するが、各電極404は薄いキャパシタを形成している。水分を多く含む物体、たとえば、指がセンシング部408に近づくと、各電極404の電位が変化する。検出チップ406は、4つの電極404それぞれの電位変化を検出する。接触判定部152は、検出チップ406の検出結果に基づいて接触タイプを判定する。   A reference potential is applied to each of the four electrodes 404 from the detection chip 406, and the detection chip 406 can individually detect a potential change of each of the four electrodes 404. Although details will be described later with reference to FIG. 10, each electrode 404 forms a thin capacitor. When an object rich in moisture, such as a finger, approaches the sensing unit 408, the potential of each electrode 404 changes. The detection chip 406 detects a potential change of each of the four electrodes 404. The contact determination unit 152 determines the contact type based on the detection result of the detection chip 406.

センシング部408の外周部には、複数の切欠424が形成される。切欠424は、ロボット100の本体フレーム310に形成される突起と係合する。詳細は図8に関連して後述する。   A plurality of notches 424 are formed on the outer periphery of the sensing unit 408. The notch 424 engages with a protrusion formed on the main body frame 310 of the robot 100. Details will be described later with reference to FIG.

検出チップ406はセンシング部408(円環部)の中央に配置される。このため、タッチセンサ400Aのサイズをセンシング部408の外径サイズ以内にコンパクトに形成できる。   The detection chip 406 is disposed at the center of the sensing unit 408 (annular part). For this reason, the size of the touch sensor 400A can be formed compactly within the outer diameter size of the sensing unit 408.

センシング部408が大きいほど、いいかえれば、電極404が大きいほど、タッチセンサ400Aの検出能力は大きくなる。タッチセンサ400Aは、センシング部408を本体フレーム310(頭部フレーム316と胴部フレーム318)の曲面に沿わせた状態にてボディ104に設置される。検出チップ406は、本体フレーム310に設けられた開口部(図示せず)から本体フレーム310の内部に導入される。検出チップ406には、電源線や信号線が接続され、各ユニットと電気的に接続される。センシング部408は薄くて柔らかい素材により形成され、かつ、円環形状を有するため、ボディ104の曲面と適合させやすい。特に、切欠部410の開き具合を調整することでセンシング部408の曲がり具合を調整できるため、さまざまな曲率のボディ104に柔軟に対応できる。たとえば、図1のタッチセンサ400aをロボット100の腹部に設置するときには、腹部の曲率に合わせて切欠部410の開き具合を調整すればよい。   The larger the sensing unit 408, in other words, the larger the electrode 404, the greater the detection capability of the touch sensor 400A. The touch sensor 400A is installed on the body 104 in a state where the sensing unit 408 is along the curved surface of the main body frame 310 (the head frame 316 and the torso frame 318). The detection chip 406 is introduced into the main body frame 310 from an opening (not shown) provided in the main body frame 310. A power supply line and a signal line are connected to the detection chip 406 and are electrically connected to each unit. Since the sensing unit 408 is formed of a thin and soft material and has an annular shape, it is easy to match the curved surface of the body 104. In particular, since the degree of bending of the sensing unit 408 can be adjusted by adjusting the degree of opening of the notch 410, the body 104 having various curvatures can be flexibly supported. For example, when the touch sensor 400a of FIG. 1 is installed on the abdomen of the robot 100, the degree of opening of the notch 410 may be adjusted in accordance with the curvature of the abdomen.

図8は、真円型のタッチセンサ400Bの外観図である。
タッチセンサ400Bは、円環形状を有するセンシング部412と、センシング部412に接続される検出チップ406を含む。タッチセンサ400Bのセンシング部412は、切欠部410を有さないO型形状を有する。タッチセンサ400Aと同様、タッチセンサBのセンシング部412も円環プレート402と円環プレート402に形成される4つの電極404(電極404a〜404d)を含む。
FIG. 8 is an external view of a perfect circle touch sensor 400B.
The touch sensor 400B includes a sensing unit 412 having an annular shape and a detection chip 406 connected to the sensing unit 412. The sensing unit 412 of the touch sensor 400B has an O-shape that does not have the notch 410. Similar to the touch sensor 400A, the sensing unit 412 of the touch sensor B includes an annular plate 402 and four electrodes 404 (electrodes 404a to 404d) formed on the annular plate 402.

タッチセンサ400Bにおいても、検出チップ406からは4つの電極404それぞれに基準電位が印加され、検出チップ406は4つの電極404それぞれの電位の変化を個別に検出できる。   Also in the touch sensor 400B, a reference potential is applied from the detection chip 406 to each of the four electrodes 404, and the detection chip 406 can individually detect a change in potential of each of the four electrodes 404.

タッチセンサ400Bの検出チップ406はセンシング部412の外側にあるが、検出チップ406はセンシング部412の内側に形成されてもよい。あるいは、センシング部412と検出チップ406をつなぐ配線部414を折り曲げることで、検出チップ406をセンシング部412の内側に収めた(折り畳んだ)状態にてタッチセンサ400Bをボディ104に設置してもよい。真円型のタッチセンサ400Bは、ロボット100の側頭部など比較的曲率の小さな場所に設置される。センシング部412の外周部にも、ロボット100の本体フレーム310に形成される突起と係合する複数の切欠424が形成される。   Although the detection chip 406 of the touch sensor 400B is outside the sensing unit 412, the detection chip 406 may be formed inside the sensing unit 412. Alternatively, the touch sensor 400B may be installed on the body 104 in a state where the detection chip 406 is housed (folded) inside the sensing unit 412 by bending the wiring unit 414 connecting the sensing unit 412 and the detection chip 406. . The perfect circular touch sensor 400 </ b> B is installed in a place having a relatively small curvature, such as the temporal region of the robot 100. A plurality of notches 424 that engage with protrusions formed on the body frame 310 of the robot 100 are also formed on the outer periphery of the sensing unit 412.

図9は、円弧型のタッチセンサ400Aの取り付け態様を示す模式図である。
ロボット100の本体フレーム310には複数の突起426が形成される。タッチセンサ400Aの取り付けに際しては、タッチセンサ400Aの切欠424に突起426を嵌め込む。切欠424と突起426を係合させることにより、タッチセンサ400Aを安定的に本体フレーム310に取り付けられるだけでなく、タッチセンサ400Aの位置決めを確実にできる。タッチセンサ400Bについても同様である。
FIG. 9 is a schematic diagram showing how the arc-shaped touch sensor 400A is attached.
A plurality of protrusions 426 are formed on the body frame 310 of the robot 100. When attaching the touch sensor 400A, the protrusion 426 is fitted into the notch 424 of the touch sensor 400A. By engaging the notch 424 and the protrusion 426, the touch sensor 400A can be stably attached to the main body frame 310, and the positioning of the touch sensor 400A can be ensured. The same applies to the touch sensor 400B.

タッチセンサ400には、切欠424ではなく孔が形成されてもよい。そして、この孔に突起426を挿入することにより、タッチセンサ400を本体フレーム310に固定してもよい。あるいは、本体フレーム310にマークを記入しておき、タッチセンサ400をこのマークに合わせて本体フレーム310に固定することにより、タッチセンサ400を位置合わせしてもよい。   The touch sensor 400 may have a hole instead of the notch 424. Then, the touch sensor 400 may be fixed to the main body frame 310 by inserting the protrusions 426 into the holes. Alternatively, the touch sensor 400 may be positioned by writing a mark on the main body frame 310 and fixing the touch sensor 400 to the main body frame 310 according to the mark.

タッチセンサ400は、少なくとも2個、好ましくは3個以上の切欠424により本体フレーム310に固定されることが好ましい。本体フレーム310にくぼみを設け、そのくぼみにタッチセンサ400を嵌め込むことにより、タッチセンサ400を本体フレーム310に固定してもよい。   The touch sensor 400 is preferably fixed to the main body frame 310 by at least two, preferably three or more notches 424. The touch sensor 400 may be fixed to the main body frame 310 by providing a recess in the main body frame 310 and fitting the touch sensor 400 into the recess.

図10は、タッチセンサ400Aのセンシング部408の断面図である。
タッチセンサ400Aのセンシング部408においては、3枚の円環プレート402(円環プレート402a〜402c)が貼り合わされる。円環プレート402aには第2電極416が設置され、円環プレート402cには第1電極420が設置される。中間の円環プレート402bにはメッシュ導体418が設置される。
FIG. 10 is a cross-sectional view of the sensing unit 408 of the touch sensor 400A.
In the sensing unit 408 of the touch sensor 400A, three annular plates 402 (annular plates 402a to 402c) are bonded together. The second electrode 416 is installed on the annular plate 402a, and the first electrode 420 is installed on the annular plate 402c. A mesh conductor 418 is installed on the middle annular plate 402b.

第1電極420はロボット100の内側(機構側)に位置し、第2電極416はロボット100の外側に位置する。第2電極416と第1電極420によりキャパシタが形成される。メッシュ導体418は、第2電極416と第1電極420の静電容量を調整するための導電体であり必須の構成ではない。検出チップ406は、第1電極420を接地電位に設定し、第2電極416に基準電位(0(V)以上)を印加する。   The first electrode 420 is located on the inner side (mechanism side) of the robot 100, and the second electrode 416 is located on the outer side of the robot 100. A capacitor is formed by the second electrode 416 and the first electrode 420. The mesh conductor 418 is a conductor for adjusting the capacitance of the second electrode 416 and the first electrode 420 and is not an essential component. The detection chip 406 sets the first electrode 420 to the ground potential and applies a reference potential (0 (V) or higher) to the second electrode 416.

検出チップ406は、第1電極420と第2電極416の電位差を計測する。非接触時における電位差は基準電位である。指などの物体が第2電極416(外側)に近づくと、第1電極420の第2電極416の電位差(以下、単に、「電極404の電位」とよぶ)が変化する。   The detection chip 406 measures the potential difference between the first electrode 420 and the second electrode 416. The potential difference when not in contact is a reference potential. When an object such as a finger approaches the second electrode 416 (outside), the potential difference of the second electrode 416 of the first electrode 420 (hereinafter simply referred to as “the potential of the electrode 404”) changes.

第1電極420を接地電位とすることにより、通信機126やプロセッサ122などから放射される電磁波のタッチセンサ400に対する影響を抑制できる。真円型のタッチセンサ400Bのセンシング部412も同様の積層構造を有する。   By setting the first electrode 420 to the ground potential, the influence of the electromagnetic wave radiated from the communication device 126, the processor 122, and the like on the touch sensor 400 can be suppressed. The sensing unit 412 of the perfect circular touch sensor 400B has a similar stacked structure.

図11は、ボディ104の断面拡大図である。
本体フレーム310(内骨格)と外皮314の間にタッチセンサ400が挟まれる。樹脂製の本体フレーム310の曲面形状に沿って、タッチセンサ400が設置される。タッチセンサ400は本体フレーム310に接着されてもよいし、ビスなどの固定具により本体フレーム310に固定されてもよい。外皮314は、ウレタンゴムなどの弾性体で形成される。外皮314の表面は布製の表皮380で覆われる。
FIG. 11 is an enlarged cross-sectional view of the body 104.
Touch sensor 400 is sandwiched between body frame 310 (inner skeleton) and outer skin 314. The touch sensor 400 is installed along the curved surface shape of the resin main body frame 310. The touch sensor 400 may be adhered to the main body frame 310 or may be fixed to the main body frame 310 with a fixing tool such as a screw. The outer skin 314 is formed of an elastic body such as urethane rubber. The surface of the outer skin 314 is covered with a cloth skin 380.

タッチセンサ400は、表皮380への接触にともなって電極404の電位が敏感に変化する。このため、ユーザが表皮380を触ると、タッチセンサ400(第2電極416)の電位が変化する。このように、タッチセンサ400の外側に弾性体の外皮314を設けることで、たとえば、そっと触れた場合と強く触れた場合とで外皮314の変形状態が変わり、それにより電位変化も変わる。外皮314の変形をともなわない接触時の電位変化と、外皮314の変形をともなう接触時の電位変化とを予め測定しておくことで、単に接触を検出するだけでなく、接触の強さも検出できる。   In the touch sensor 400, the potential of the electrode 404 changes sensitively with the contact with the skin 380. For this reason, when the user touches the skin 380, the potential of the touch sensor 400 (second electrode 416) changes. Thus, by providing the outer skin 314 of the elastic body on the outside of the touch sensor 400, for example, the deformed state of the outer skin 314 changes depending on whether it is gently touched or strongly touched, thereby changing the potential change. By measuring in advance the potential change at the time of contact without deformation of the outer skin 314 and the potential change at the time of contact with deformation of the outer skin 314, it is possible not only to detect contact but also to detect the strength of contact. .

図12は、接触時におけるタッチセンサ400の電位変化を示す模式図である。
上述したように、手指が表皮380に接触して圧力をかけるとき、タッチセンサ400の電極404(第2電極416)の電位が変化する。図12は、あるタッチセンサ400のある電極404について、接触にともなう電位変化を示す。横軸は時間、縦軸は第1電極420と第2電極416の電位差を示す。
FIG. 12 is a schematic diagram showing a change in potential of the touch sensor 400 at the time of contact.
As described above, when the finger touches the skin 380 and applies pressure, the potential of the electrode 404 (second electrode 416) of the touch sensor 400 changes. FIG. 12 shows a potential change accompanying contact with an electrode 404 of a touch sensor 400. The horizontal axis represents time, and the vertical axis represents the potential difference between the first electrode 420 and the second electrode 416.

ユーザがロボット100のボディ104に接触するとき、接触箇所の近傍に位置するタッチセンサ400においては、4つの電極404ぞれぞれの電位が変化する。このときの接触態様に応じて、電極404の電位変化には特有のパターン(以下、「電位変化パターン」とよぶ)が現れる。   When the user contacts the body 104 of the robot 100, the potential of each of the four electrodes 404 changes in the touch sensor 400 located in the vicinity of the contact location. Depending on the contact state at this time, a specific pattern (hereinafter referred to as “potential change pattern”) appears in the potential change of the electrode 404.

電位変化パターンは、電位変化の速度、電位変化量の大きさ、基準電位に戻るまでの時間などのパラメータにより特徴づけられる。たとえば、ユーザがロボット100の腹部を撫でたときには、腹部のタッチセンサ400aの電極404の電位は緩やかに、かつ、繰り返し変化する。一方、ユーザがロボット100の腹部を叩いたときには、腹部のタッチセンサ400aの電極404の電位は急激かつ大きく変化する。1つのタッチセンサ400に含まれる4つの電極404それぞれの電位変化パターンの組み合わせをタッチセンサ400の検出パターンとよぶ。検出パターンと接触タイプは、タイプテーブルにより対応づけられる。   The potential change pattern is characterized by parameters such as the speed of potential change, the magnitude of the potential change amount, and the time to return to the reference potential. For example, when the user strokes the abdomen of the robot 100, the potential of the electrode 404 of the abdomen touch sensor 400a changes slowly and repeatedly. On the other hand, when the user strikes the abdomen of the robot 100, the potential of the electrode 404 of the abdomen touch sensor 400a changes rapidly and greatly. A combination of potential change patterns of the four electrodes 404 included in one touch sensor 400 is referred to as a detection pattern of the touch sensor 400. The detection pattern and the contact type are associated by a type table.

図13は、タイプテーブル180のデータ構造図である。
タイプテーブル180は、検出パターンと接触タイプ、および、モーションを対応づける。タイプテーブル180は、接触タイプ格納部170に格納される。接触タイプは、「お腹を軽く叩く」「頭を撫でる」「お腹をつねる」「お腹を撫でる」「抱きかかえる」など、ロボット100に対する触り方あるいは触られる位置を複数種類に類型化したものである。接触タイプはタイプIDにより識別される。
FIG. 13 is a data structure diagram of the type table 180.
The type table 180 associates detection patterns with contact types and motions. The type table 180 is stored in the contact type storage unit 170. The contact type is classified into a plurality of types of touching positions or touched positions of the robot 100 such as “tapping the stomach”, “patting the head”, “tapping the stomach”, “stroking the stomach”, and “holding”. . The contact type is identified by a type ID.

検出パターンは、タッチセンサ400の検出パターンを類型化したものである。上述したように、検出パターンは、タッチセンサ400が有する複数のタッチセンサ400それぞれの電位変化パターンを類型化したものである。たとえば、あるタッチセンサ400について「電極404aのピーク電位はV1以上、電極404bのピーク電位はV2以上であること」が検出パターンの一種として定義されるかもしれない。検出パターンはパターンIDにより識別される。また、タッチセンサ400はセンサIDにより識別される。   The detection pattern typifies the detection pattern of the touch sensor 400. As described above, the detection pattern typifies the potential change pattern of each of the plurality of touch sensors 400 included in the touch sensor 400. For example, “a peak potential of the electrode 404a is equal to or higher than V1 and a peak potential of the electrode 404b is equal to or higher than V2” for a touch sensor 400 may be defined as a kind of detection pattern. The detection pattern is identified by the pattern ID. The touch sensor 400 is identified by a sensor ID.

図12に示すタイプテーブル180によれば、センサID=S01のセンサ(以下、「センサ(S01)」のように表記する)が検出パターン(P01)を示し、かつ、センサ(S02)が検出パターン(P04)を示すとき、接触判定部152はユーザにより接触タイプ(T01)に該当する接触がなされたと判定する。接触タイプ(T01)が「お腹を撫でる」に該当するならば、応対認識部228は快行為がなされたと判定し、親密度管理部220はこのユーザに対する親密度を上昇させる。図12によれば、接触タイプ(T01)の判定に際しては、センサ(S01)およびセンサ(S02)以外の検出内容は考慮されない。   According to the type table 180 shown in FIG. 12, the sensor with sensor ID = S01 (hereinafter referred to as “sensor (S01)”) indicates the detection pattern (P01), and the sensor (S02) indicates the detection pattern. When (P04) is indicated, the contact determination unit 152 determines that contact corresponding to the contact type (T01) has been made by the user. If the contact type (T01) corresponds to “boil the stomach”, the reception recognition unit 228 determines that a pleasant act has been performed, and the closeness management unit 220 increases the closeness to the user. According to FIG. 12, in the determination of the contact type (T01), the detection contents other than the sensor (S01) and the sensor (S02) are not considered.

接触タイプ(T01)には、モーション(M01)〜モーション(M04)が対応づけられる。各モーションには、選択確率が対応づけられる。図13によれば、接触タイプ(T01)に対するモーション(M01)の選択確率は30%である。したがって、接触判定部152が接触タイプ(T01)による接触がなされたと判定したとき、動作制御部150は30%の確率にてモーション(M01)を選択する。モーション(M01)は、たとえば、「ユーザを見つめるモーション」であってもよい。このような制御方法によれば、ユーザがロボット100の「お腹を撫でる」とき、ロボット100は「ユーザを見つめる」という反応行動を行うことがある。ユーザは、ロボット100のお腹を撫でることでロボット100に対する愛情を表現したとき、ロボット100はユーザを見つめることによってユーザの愛情に応えるかのような行動を実行する。   Motion (M01) to motion (M04) are associated with the contact type (T01). Each motion is associated with a selection probability. According to FIG. 13, the selection probability of the motion (M01) for the contact type (T01) is 30%. Therefore, when the contact determination unit 152 determines that contact has been made according to the contact type (T01), the motion control unit 150 selects the motion (M01) with a probability of 30%. The motion (M01) may be, for example, “motion staring at the user”. According to such a control method, when the user “boiles the stomach” of the robot 100, the robot 100 may perform a reaction action of “gazing at the user”. When the user expresses affection for the robot 100 by stroking the stomach of the robot 100, the robot 100 performs an action as if responding to the user's affection by staring at the user.

また、親密度管理部220はロボット100に対するユーザの接触態様に応じてユーザに対する親密度を変化させ、動作制御部222はユーザに対する親密度に応じてロボット100の行動特性を変化させる。いいかえれば、ユーザとロボット100との物理的接触により、ロボット100のユーザに対する関わり方が変化する。   In addition, the intimacy management unit 220 changes the intimacy with respect to the user in accordance with the contact state of the user with the robot 100, and the operation control unit 222 changes the behavior characteristics of the robot 100 in accordance with the intimacy with respect to the user. In other words, the way the robot 100 relates to the user changes due to the physical contact between the user and the robot 100.

このほかにも、接触箇所、接触時間および接触強度の組み合わせによりさまざまな接触タイプを定義可能である。断続的なタッチが検出されたときには、接触判定部152は「つつかれている」と認識してもよい。瞬間的に強い接触を検出したときには「叩かれた」と認識してもよい。接触判定部152は、タッチセンサ400だけでなく、加速度センサやカメラ138、サーモセンサ140等の他のセンサからのセンシング情報に基づいて、接触タイプを判定してもよい。   In addition to this, various contact types can be defined by a combination of contact location, contact time, and contact strength. When an intermittent touch is detected, the contact determination unit 152 may recognize that it is “zipped”. When a strong contact is detected instantaneously, it may be recognized as “struck”. The contact determination unit 152 may determine the contact type based on sensing information from not only the touch sensor 400 but also other sensors such as an acceleration sensor, a camera 138, and a thermo sensor 140.

接触態様に応じて、認識部156は快・不快(快適度)を判定する。たとえば、軽いタッチは快行為だが、叩かれることは不快行為である。つつかれることは快行為だが、しつこくつつかれ続けることは不快行為である。   In accordance with the contact mode, the recognition unit 156 determines comfort / discomfort (comfort level). For example, a light touch is a pleasant act, but being hit is an unpleasant act. Being pecked is a pleasant act, but continuing to be pampered is an unpleasant act.

親密度管理部220は、快行為を検出したとき、ユーザに対する親密度を上昇させる。不快行為を検出したときは、ユーザに対する親密度を低下させる。また、不快行為が続くとき、暴力のような不快行為が認識されたときには、動作制御部150はユーザから離れるように行動指示する。   The intimacy management unit 220 increases the intimacy with respect to the user when a pleasant action is detected. When an unpleasant behavior is detected, the closeness to the user is reduced. In addition, when an unpleasant action continues, when an unpleasant action such as violence is recognized, the operation control unit 150 instructs to move away from the user.

また、応対認識部228は、タッチセンサ400が検出する接触態様により、ユーザの感情を判断する。やさしく触られることは肯定反応であり、蹴られることは否定反応である。肯定反応か否定反応かにより、動作制御部222はモーション選択方法を変更してもよい。表情認識部230による表情認識と組み合わせて感情を判断してもよい。たとえば、怒った顔、笑った顔の認識ができれば、ユーザの感情をより正確に判断できる。   In addition, the reception recognition unit 228 determines the user's emotion based on the contact mode detected by the touch sensor 400. Being touched gently is a positive response, and being kicked is a negative response. The motion control unit 222 may change the motion selection method depending on whether it is a positive response or a negative response. The emotion may be determined in combination with facial expression recognition by the facial expression recognition unit 230. For example, if an angry face or a laughing face can be recognized, the user's emotion can be determined more accurately.

肯定反応を検出したときには、ロボット100はオーナーの近辺にまとわりつく、抱っこをせがむなどのモーションを選択する。否定反応を検出したときには、オーナーから少し離れたところで着座しておとなしくするとしてもよい。オーナーは、自らの感情にあわせてロボット100の行動特性が変化するため、ロボット100なりに自分に合わせているのかもしれない、と認識できる。   When an affirmative reaction is detected, the robot 100 selects a motion such as clinging to the vicinity of the owner or holding a cuddle. When a negative reaction is detected, it may be possible to sit down at a distance from the owner and relax. Since the behavior characteristics of the robot 100 change according to his / her feelings, the owner can recognize that the robot 100 may be tailored to himself / herself.

肯定反応とのきには、モーションの実行を高速化して活発に活動し、否定反応のときには、モーションの実行速度を抑制するとしてもよい。インターバルを調整してもよい。肯定反応または否定反応に応じて、モーションを構成する単位モーションの一部を置換・省略することでモーションを変化させてもよい。   In the case of an affirmative response, it is possible to increase the speed of the motion execution and to be active, and in the case of a negative response, the motion execution speed may be suppressed. The interval may be adjusted. The motion may be changed by replacing or omitting a part of the unit motion constituting the motion in response to an affirmative reaction or a negative reaction.

人に「触る」という行為は、触る人の触られる人に対する気持ちが表れやすい。頭をなでる行為は目下のものをかわいがる、という気持ちが表れているといわれる。頬をさわる行為には、相手に近づきたいという心理があるといわれる。したがって、接触態様により、オーナーの気持ちを推測することはある程度可能である。   The act of “touching” a person tends to express the feeling of the person touched by the person touched. It is said that the act of stroking the head expresses the feeling of petting the current thing. The act of touching the cheek is said to have the psychology of wanting to approach the other party. Therefore, it is possible to estimate the owner's feeling to some extent by the contact mode.

ロボット100の周辺に人を確認できないとき、いいかえれば、カメラ138により人を撮像できないときやサーモセンサ140により移動熱源体を検出できないとき、感度制御部154はタッチセンサ400の感度を抑制する。感度の抑制は、基準電圧の低下によって実現される。人がいないときにはタッチセンサ400の接触検出は不要であるため、タッチセンサ400の感度を抑制することは節電に寄与する。ここでいう感度の抑制は、タッチセンサ400のオフ(無効化)であってもよい。   When the person cannot be confirmed around the robot 100, in other words, when the person cannot be imaged by the camera 138 or when the moving heat source body cannot be detected by the thermosensor 140, the sensitivity control unit 154 suppresses the sensitivity of the touch sensor 400. The suppression of sensitivity is realized by a decrease in the reference voltage. Since contact detection of the touch sensor 400 is unnecessary when there is no person, suppressing the sensitivity of the touch sensor 400 contributes to power saving. The suppression of sensitivity here may be turning off (invalidating) the touch sensor 400.

以上、実施形態に基づいてロボット100およびロボット100を含むロボットシステム300について説明した。
触るという行為は、もっとも原始的かつ基本的なコミュニケーション手段である。ロボット100においては、本体フレーム310が骨、外皮314が肉、表皮406が皮に相当し、タッチセンサ400は神経に相当する。ロボット100のボディ104の複数箇所にタッチセンサ400が埋設されるため、ロボット100は全身に対するさまざまな接触を検出できる。タッチセンサ400は、プラスチックフィルムなどの柔らかい素材により円環形状に形成されるため、曲面状のボディ104に沿わせやすい。
The robot system 300 including the robot 100 and the robot 100 has been described above based on the embodiment.
The act of touching is the most primitive and basic means of communication. In the robot 100, the main body frame 310 corresponds to the bone, the outer skin 314 corresponds to the flesh, the epidermis 406 corresponds to the skin, and the touch sensor 400 corresponds to the nerve. Since the touch sensors 400 are embedded in a plurality of locations on the body 104 of the robot 100, the robot 100 can detect various contacts with the whole body. Since the touch sensor 400 is formed in an annular shape from a soft material such as a plastic film, the touch sensor 400 is easily along the curved body 104.

ロボット100は、丸くて柔らかく、適度な重量を有する。また、バッテリー118等の熱源を内蔵するため、ロボット100のボディ104には温かさ伝わる。このため、ユーザはロボット100を触ったり抱っこしたりしたくなりやすい。丸くて柔らかいボディ104に沿ってタッチセンサ400を設置することで、ロボット100は多様な接触行為を認識できる。タッチセンサ400は外皮314と表皮380により覆われているため、外部からは視認できないだけでなく、柔らかい外皮314等により物理的に保護されている。   The robot 100 is round and soft and has an appropriate weight. Further, since a heat source such as a battery 118 is built in, the temperature is transmitted to the body 104 of the robot 100. For this reason, the user tends to want to touch or hold the robot 100. By installing the touch sensor 400 along the round and soft body 104, the robot 100 can recognize various contact actions. Since the touch sensor 400 is covered with the outer skin 314 and the outer skin 380, the touch sensor 400 is not only visually invisible from the outside, but is physically protected by the soft outer skin 314 and the like.

ユーザがロボット100にやさしく接触すると、ロボット100のユーザに対する親密度が上昇し、それによってロボット100の行動特性も変化する。一方、乱暴に接触すると、親密度が低下する。触りたくなるボディ104を有するだけでなく、触ることで共感が増す仕組みがあるため、ユーザとロボット100との交流をいっそう促進しやすくなる。   When the user gently touches the robot 100, the familiarity of the robot 100 with the user increases, and the behavior characteristics of the robot 100 change accordingly. On the other hand, close contact decreases the intimacy. In addition to having the body 104 that the user wants to touch, there is a mechanism that increases sympathy by touching, so that it is easier to promote interaction between the user and the robot 100.

タッチセンサ400は、ロボット100にあとから取り付け可能な部品として提供される。タッチセンサ400が故障したときには、新規のタッチセンサ400に取り替えることができる。導電性インクを円環プレート402に印刷することにより電極404が形成されるため、タッチセンサ400は低コストにて製造できる。タッチセンサ400は多種多様なロボット100の共通部品として利用できるため、量産効果を期待できる。   The touch sensor 400 is provided as a component that can be attached to the robot 100 later. When the touch sensor 400 fails, it can be replaced with a new touch sensor 400. Since the electrode 404 is formed by printing the conductive ink on the annular plate 402, the touch sensor 400 can be manufactured at low cost. Since the touch sensor 400 can be used as a common part of a wide variety of robots 100, a mass production effect can be expected.

本実施形態においては、ロボット100には6つのタッチセンサ400が設置され、1つのタッチセンサ400は4つの電極404を有する。このため、接触判定部152は合計24枚(=6×4)の電極404の電位変化の組み合わせにより多様な接触タイプを認識できる。   In the present embodiment, six touch sensors 400 are installed in the robot 100, and one touch sensor 400 has four electrodes 404. For this reason, the contact determination unit 152 can recognize various contact types based on combinations of potential changes of a total of 24 (= 6 × 4) electrodes 404.

設置箇所の大きさや形状(曲率)に応じて、タッチセンサ400の最適なサイズおよび形状を選択すればよい。本実施形態においては、内側の第1電極420を接地することにより、ロボット100内部からの電磁ノイズのタッチセンサ400に対する影響を抑制している。好ましくは、本体フレーム310を厚くする、電磁遮蔽板(金属板)を設けるなどの方法により、ロボット100内部からタッチセンサ400への電磁的影響をいっそう抑制してもよい。   What is necessary is just to select the optimal size and shape of the touch sensor 400 according to the magnitude | size and shape (curvature) of an installation location. In the present embodiment, the influence of electromagnetic noise from the inside of the robot 100 on the touch sensor 400 is suppressed by grounding the inner first electrode 420. Preferably, the electromagnetic influence on the touch sensor 400 from the inside of the robot 100 may be further suppressed by a method of increasing the thickness of the main body frame 310 or providing an electromagnetic shielding plate (metal plate).

なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。   In addition, this invention is not limited to the said embodiment and modification, A component can be deform | transformed and embodied in the range which does not deviate from a summary. Various inventions may be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments and modifications. Moreover, you may delete some components from all the components shown by the said embodiment and modification.

1つのロボット100と1つのサーバ200、複数の外部センサ114によりロボットシステム300が構成されるとして説明したが、ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部がロボット100に割り当てられてもよい。1つのサーバ200が複数のロボット100をコントロールしてもよいし、複数のサーバ200が協働して1以上のロボット100をコントロールしてもよい。   Although it has been described that the robot system 300 is configured by one robot 100, one server 200, and a plurality of external sensors 114, some of the functions of the robot 100 may be realized by the server 200. May be assigned to the robot 100. One server 200 may control a plurality of robots 100, or a plurality of servers 200 may cooperate to control one or more robots 100.

ロボット100やサーバ200以外の第3の装置が、機能の一部を担ってもよい。図6において説明したロボット100の各機能とサーバ200の各機能の集合体は大局的には1つの「ロボット」として把握することも可能である。1つまたは複数のハードウェアに対して、本発明を実現するために必要な複数の機能をどのように配分するかは、各ハードウェアの処理能力やロボットシステム300に求められる仕様等に鑑みて決定されればよい。   A third device other than the robot 100 and the server 200 may bear a part of the function. A set of each function of the robot 100 described in FIG. 6 and each function of the server 200 can be grasped as one “robot” in a global manner. How to allocate a plurality of functions necessary for realizing the present invention to one or a plurality of hardware depends on the processing capability of each hardware, the specifications required for the robot system 300, and the like. It only has to be decided.

上述したように、「狭義におけるロボット」とはサーバ200を含まないロボット100のことであるが、「広義におけるロボット」はロボットシステム300のことである。サーバ200の機能の多くは、将来的にはロボット100に統合されていく可能性も考えられる。   As described above, “robot in the narrow sense” refers to the robot 100 that does not include the server 200, but “robot in the broad sense” refers to the robot system 300. Many of the functions of the server 200 may be integrated into the robot 100 in the future.

本実施形態におけるタッチセンサ400は、4つの電極404を備えるとして説明したが、1つのタッチセンサ400が備える電極404の数は任意である。また、本実施形態においては、タッチセンサ400は円環形状の円環プレート402を有するとして説明した。変形例として、図14に示すように、検出チップ406に対して複数のプレート422(電極404)を放射状に配列してもよい。   Although the touch sensor 400 in the present embodiment has been described as including four electrodes 404, the number of electrodes 404 included in one touch sensor 400 is arbitrary. In the present embodiment, the touch sensor 400 has been described as including the annular plate 402 having an annular shape. As a modification, a plurality of plates 422 (electrodes 404) may be arranged radially with respect to the detection chip 406 as shown in FIG.

タッチセンサ400とその検出パターンおよび接触タイプはあらかじめタイプテーブル180として定義されてもよい。そして、ロボット100にタッチセンサ400を設置するとき、タイプテーブル180をインストールすることにより、ロボット100に接触検出機能を追加してもよい。たとえば、「優しく撫でる」という接触タイプに対応する検出パターンを登録しておけば、接触判定部152はタッチセンサ400により検出された検出パターンと既登録の検出パターンを比較することにより、上記接触タイプに該当するか否かを判定できる。タッチセンサ400とタイプテーブル180をまとめて製品にすれば、さまざまなロボット100に対して接触判定機能を導入しやすい。タイプテーブル180は、検出チップ406に内蔵されてもよい。また、検出チップ406が接触判定部152の機能を備えてもよい。   The touch sensor 400 and its detection pattern and contact type may be defined in advance as the type table 180. Then, when the touch sensor 400 is installed in the robot 100, a contact detection function may be added to the robot 100 by installing the type table 180. For example, if a detection pattern corresponding to the contact type “boil gently” is registered, the contact determination unit 152 compares the detection pattern detected by the touch sensor 400 with the already registered detection pattern, so that the contact type It can be determined whether or not this is true. If the touch sensor 400 and the type table 180 are combined into a product, it is easy to introduce a contact determination function for various robots 100. The type table 180 may be built in the detection chip 406. The detection chip 406 may have the function of the contact determination unit 152.

接触判定部152は、検出パターンを入力として、ニューラルネットワーク等の判定モデルにより接触タイプを判定してもよい。具体的には、まず、第1ロボット100に複数のタッチセンサ400を取り付ける。次に、複数の接触タイプに対応してユーザ(教師)は第1ロボット100に接触する。たとえば、接触タイプ(T01)の「お腹を撫でる」を学習させるために、ユーザは第1ロボット100のお腹を実際に撫でる。第1ロボット100の接触判定部152はこのときの各タッチセンサ400の検出パターンを記録する。第1ロボット100に接続される学習装置(図示せず)は、このときの検出パターンと接触タイプ(T01)を取得する。学習装置は、検出パターンを入力層に設定し、接触タイプ(T01)を教師データとすることにより、ニューラルネットワークに接触タイプ(T01)に対応する検出パターンを学習させる。他の接触タイプについても同様である。このような学習により、複数のタッチセンサ400の検出パターンの組み合わせと接触タイプが対応づけられる。いいかえれば、タイプテーブル180と同様に機能する判定モデルが生成される。   The contact determination unit 152 may determine the contact type by using a detection model as an input and a determination model such as a neural network. Specifically, first, a plurality of touch sensors 400 are attached to the first robot 100. Next, the user (teacher) contacts the first robot 100 corresponding to a plurality of contact types. For example, the user actually strokes the stomach of the first robot 100 in order to learn “contact the stomach” of the contact type (T01). The contact determination unit 152 of the first robot 100 records the detection pattern of each touch sensor 400 at this time. A learning device (not shown) connected to the first robot 100 acquires the detection pattern and the contact type (T01) at this time. The learning device sets a detection pattern in the input layer and uses the contact type (T01) as teacher data, thereby causing the neural network to learn the detection pattern corresponding to the contact type (T01). The same applies to other contact types. By such learning, a combination of detection patterns of the plurality of touch sensors 400 and a contact type are associated with each other. In other words, a determination model that functions similarly to the type table 180 is generated.

1以上のタッチセンサ400は、判定モデルとセットで提供されてもよい。タッチセンサ400を第2ロボット100に取り付けるとき、第2ロボット100にも第1ロボット100において形成された判定モデルが導入される。以後、第2ロボット100の接触判定部152は、第2ロボット100に対するさまざまな接触がなされたとき、そのときの検出パターンを入力ノードに設定することで接触タイプを判定する。ニューラルネットワークに限らず、判別分析等の様々な多変量解析モデルにより判定モデルを形成してもよい。   One or more touch sensors 400 may be provided as a set with a determination model. When the touch sensor 400 is attached to the second robot 100, the determination model formed in the first robot 100 is also introduced into the second robot 100. Thereafter, when various contacts with the second robot 100 are made, the contact determination unit 152 of the second robot 100 determines the contact type by setting the detection pattern at that time as an input node. The determination model may be formed not only by the neural network but also by various multivariate analysis models such as discriminant analysis.

第1ロボット100におけるタッチセンサ400の取り付け位置と、第2ロボット100におけるタッチセンサ400の取り付け位置がずれると、第1ロボット100における学習結果を反映させた判別モデルが第2ロボット100ではうまく機能しなくなる可能性がある。本実施形態においては、複数の電極404をタッチセンサ400にまとめることで、各電極404の位置関係が一致していることを担保し、かつ、タッチセンサ400は切欠424と突起426により正確かつ簡易に位置決めがなされるため、第1ロボット100の学習結果を正確に他のロボット100に反映させることができる。   When the attachment position of the touch sensor 400 in the first robot 100 is shifted from the attachment position of the touch sensor 400 in the second robot 100, the discrimination model reflecting the learning result in the first robot 100 functions well in the second robot 100. There is a possibility of disappearing. In the present embodiment, by assembling a plurality of electrodes 404 into the touch sensor 400, it is ensured that the positional relationship between the electrodes 404 is the same, and the touch sensor 400 is accurate and simple by the notches 424 and the protrusions 426. Therefore, the learning result of the first robot 100 can be accurately reflected on the other robots 100.

本実施形態においては、本体フレーム310と外皮314の間にタッチセンサ400を挿入するとして説明した。変形例として、本体フレーム310に対して電極404を貼り付けることにより、本体フレーム310とタッチセンサ400を一体形成してもよい。   In the present embodiment, the touch sensor 400 has been described as being inserted between the main body frame 310 and the outer skin 314. As a modification, the body frame 310 and the touch sensor 400 may be integrally formed by attaching the electrode 404 to the body frame 310.

接触検出のためのセンサとしては静電容量センサのほか、表皮314を圧電ファブリックにより形成する方法も考えられる。圧電ファブリックは、圧電体としてポリ乳酸繊維、電極として炭素繊維を使用することにより、ポリ乳酸繊維によって発生する電荷を検出する。そのほか、熱電対や圧力センサ、歪みゲージなどを組み合わせることで、多様な接触を検出してもよい。   As a sensor for detecting contact, in addition to a capacitance sensor, a method of forming the skin 314 with a piezoelectric fabric is also conceivable. The piezoelectric fabric detects charges generated by the polylactic acid fiber by using polylactic acid fiber as the piezoelectric body and carbon fiber as the electrode. In addition, various contacts may be detected by combining a thermocouple, a pressure sensor, a strain gauge, and the like.

静電容量センサなどのタッチセンサ400は、設置場所によって感度を異ならせてもよい。たとえば、頭部に設置されるタッチセンサ400は感度が鈍く、腹部に設置されるタッチセンサ400は感度を高く設定してもよい。感度は、検出電圧の高低により調整してもよいし、静電容量センサにおける電極線の密度を異ならせることで感度を変えてもよい。感度を場所によって変えることにより、たとえば、頭部は鈍いが、腹部は敏感、といったロボット100に特有の皮膚感覚を実現できる。また、タッチセンサ400全体を高感度にするのではなく、一部の場所でタッチセンサ400の感度を落とすことは節電にも寄与する。   Touch sensor 400 such as a capacitance sensor may have different sensitivities depending on the installation location. For example, the touch sensor 400 installed on the head may have low sensitivity, and the touch sensor 400 installed on the abdomen may be set to have high sensitivity. The sensitivity may be adjusted according to the level of the detection voltage, or the sensitivity may be changed by varying the density of the electrode lines in the capacitance sensor. By changing the sensitivity depending on the location, for example, it is possible to realize a skin sensation peculiar to the robot 100 such that the head is dull but the abdomen is sensitive. In addition, reducing the sensitivity of the touch sensor 400 in some places instead of making the entire touch sensor 400 highly sensitive also contributes to power saving.

ロボット100に対するタッチ頻度がロボット100の行動特性に影響してもよい。たとえば、製造後の所定期間において、腹部をよく触られているロボット100は、所定期間経過後も腹部を触られることを快行為あるいは愛情表現と認識してもよい。一方、所定期間において腹部を触られた回数が少ないロボット100は、所定期間経過後は腹部を触られることを不快行為と認識してもよい。このように、接触態様に応じて、快・不快の判断方法を変化させてもよい。いわば、幼い頃の接触態様により、「育ち」が変化するロボット100を実現できる。   The touch frequency with respect to the robot 100 may affect the behavior characteristics of the robot 100. For example, the robot 100 that is frequently touching the abdomen during a predetermined period after manufacture may recognize that the abdomen is touched even after the predetermined period has elapsed as a pleasant act or a love expression. On the other hand, the robot 100 with a small number of times the abdomen is touched in the predetermined period may recognize that touching the abdomen after the predetermined period has elapsed as an unpleasant act. In this way, the pleasant / unpleasant determination method may be changed according to the contact mode. In other words, it is possible to realize the robot 100 in which the “growth” changes depending on the contact mode at an early age.

接触箇所、接触強度、接触時間のほか、接触頻度や接触がなされた時間帯によって快適度を判定してもよい。たとえば、頬を触られることは快行為だが、頬を高頻度で触られると途中から不快行為と認識変更してもよい。また、充電中に触られることは不快行為と認識してもよい。   In addition to the contact location, contact strength, and contact time, the comfort level may be determined based on the contact frequency and the time zone during which contact is made. For example, touching the cheek is a pleasant act, but if the cheek is touched frequently, the recognition may be changed as an unpleasant act. Further, touching during charging may be recognized as an unpleasant act.

本実施形態における快適度は、快・不快の2値であるが、3値以上であってもよい。たとえば、「とても快」「やや快」「中立」「やや不快」「とても不快」のように5段階にカテゴライズしてもよい。快適度は、連続値により示されてもよい。たとえば、お腹は2ポイント、強く触ると−4ポイント、接触時間が3秒以上になると1.5倍とする場合、お腹を3秒以上強く触った場合には、(2−4)×1.5=−3として快適度を−3ポイントと算出してもよい。親密度管理部220は快適度に応じて親密度を更新する。また、快適度が所定値以上あるいは所定値以下となったときに対応するモーションがあらかじめ対応づけられてもよい。   The comfort level in the present embodiment is a pleasant / unpleasant binary value, but may be a ternary value or more. For example, it may be categorized into five levels such as “very pleasant”, “somewhat pleasant”, “neutral”, “somewhat uncomfortable”, and “very uncomfortable”. The comfort level may be indicated by a continuous value. For example, 2 points for the stomach, -4 points for a strong touch, 1.5 times when the contact time is 3 seconds or longer, and (2-4) × 1. The comfort level may be calculated as -3 points with 5 = -3. The closeness management unit 220 updates the closeness according to the comfort level. Further, a motion corresponding to when the comfort level is equal to or greater than a predetermined value or less than a predetermined value may be associated in advance.

ユーザは、ロボット100に衣装を着せてもよい。衣装にはさまざまな種類がある。衣装にはRFID(Radio Frequency Identifier)タグが縫い付けられている。RFIDタグは、衣装を識別する「衣装ID」を至近距離に発信する。ロボット100は、RFIDタグから衣装IDを読み取ることにより、衣装を着用していることと、着用している衣装の種別を特定する。ロボット100は、複数の衣装を重ね着してもよい。   The user may put a costume on the robot 100. There are various types of costumes. RFID (Radio Frequency Identifier) tags are sewn on the costume. The RFID tag transmits a “costume ID” identifying the costume at a close range. The robot 100 reads the costume ID from the RFID tag, and specifies that the costume is worn and the type of the worn costume. The robot 100 may wear a plurality of costumes.

ロボット100が衣装を着ているとき、タッチセンサ400の検出感度は衣装によって低下すると考えられる。内部センサ128が衣装の着用を検出したときには、感度制御部154はタッチセンサ400の感度を基準電位(通常設定値)以上に高めてもよい。衣装の種類や枚数に応じてタッチセンサ400の感度を調整してもよい。サーバ200またはロボット100は、衣装IDとタッチセンサ400の好適な感度をあらかじめ対応づけるデータテーブルを保有してもよい。感度制御部154は衣装の種類および枚数に応じて、データテーブルを参照して、タッチセンサ400の感度を変更してもよい。   When the robot 100 is wearing a costume, the detection sensitivity of the touch sensor 400 is considered to be reduced by the costume. When the internal sensor 128 detects wearing of a costume, the sensitivity control unit 154 may increase the sensitivity of the touch sensor 400 to a reference potential (normally set value) or more. The sensitivity of the touch sensor 400 may be adjusted according to the type and number of costumes. The server 200 or the robot 100 may have a data table that associates the costume ID with a suitable sensitivity of the touch sensor 400 in advance. The sensitivity control unit 154 may change the sensitivity of the touch sensor 400 with reference to the data table according to the type and number of costumes.

本実施形態においては、タッチセンサ400は本体フレーム310の外側に取り付けられるとして説明した。変形例として、タッチセンサ400は本体フレーム310の内側に取り付けられてもよい。   In the present embodiment, the touch sensor 400 has been described as being attached to the outside of the main body frame 310. As a modification, the touch sensor 400 may be attached to the inside of the main body frame 310.

100 ロボット、102 前輪、102a 左輪、102b 右輪、103 後輪、104 ボディ、106 手、108 着座面、110 目、112 ツノ、114 外部センサ、116 感情マップ、118 バッテリー、120 駆動機構、122 プロセッサ、124 記憶装置、126 通信機、128 内部センサ、130 電源線、132 信号線、135 ワイヤ、136 データ処理部、138 カメラ、140 サーモセンサ、142 通信部、146 特徴抽出部、148 データ格納部、150 動作制御部、152 接触判定部、154 感度制御部、156 認識部、160 モーション格納部、170 接触タイプ格納部、200 サーバ、202 データ処理部、204 通信部、206 データ格納部、208 位置管理部、210 マップ管理部、212 認識部、214 人物認識部、216 マップ格納部、218 個人データ格納部、220 親密度管理部、222 動作制御部、228 応対認識部、230 表情認識部、232 モーション格納部、234 感情管理部、244 状態管理部、300 ロボットシステム、308 ベースフレーム、310 本体フレーム、312 ホイールカバー、314 外皮、316 頭部フレーム、318 胴部フレーム、320 ヨー軸、322 ピッチ軸、324 ロール軸、325 プレート、326 アクチュエータ、327 通気孔、328 ベースプレート、329 クロスリンク機構、330 ジョイント、332 アッパープレート、334 ロアプレート、336 サイドプレート、342 制御回路、370 車輪駆動機構、378 回動軸、379 アクチュエータ、380 表皮、390 開口部、400 タッチセンサ、402 円環プレート、402a 円環プレート、402b 円環プレート、402c 円環プレート、404 電極、406 検出チップ、408 センシング部、410 切欠部、412 センシング部、414 配線部、416 第2電極、418 メッシュ導体、420 第1電極、424 切欠、426 突起   100 robot, 102 front wheel, 102a left wheel, 102b right wheel, 103 rear wheel, 104 body, 106 hands, 108 seating surface, 110 eyes, 112 horn, 114 external sensor, 116 emotion map, 118 battery, 120 drive mechanism, 122 processor , 124 storage device, 126 communication device, 128 internal sensor, 130 power line, 132 signal line, 135 wire, 136 data processing unit, 138 camera, 140 thermo sensor, 142 communication unit, 146 feature extraction unit, 148 data storage unit, 150 operation control unit, 152 contact determination unit, 154 sensitivity control unit, 156 recognition unit, 160 motion storage unit, 170 contact type storage unit, 200 server, 202 data processing unit, 204 communication unit, 206 data storage unit, 208 position management Part 2 10 map management unit, 212 recognition unit, 214 person recognition unit, 216 map storage unit, 218 personal data storage unit, 220 intimacy management unit, 222 motion control unit, 228 reception recognition unit, 230 facial expression recognition unit, 232 motion storage unit 234 emotion management unit, 244 state management unit, 300 robot system, 308 base frame, 310 body frame, 312 wheel cover, 314 skin, 316 head frame, 318 trunk frame, 320 yaw axis, 322 pitch axis, 324 roll Axle, 325 plate, 326 actuator, 327 vent hole, 328 base plate, 329 cross link mechanism, 330 joint, 332 upper plate, 334 lower plate, 336 side plate, 342 control circuit, 370 wheel Moving mechanism, 378 Rotating shaft, 379 Actuator, 380 Skin, 390 Opening, 400 Touch sensor, 402 Annular plate, 402a Annular plate, 402b Annular plate, 402c Annular plate, 404 electrode, 406 Detection chip, 408 Sensing part, 410 notch part, 412 sensing part, 414 wiring part, 416 second electrode, 418 mesh conductor, 420 first electrode, 424 notch, 426 protrusion

Claims (13)

ロボットの体表面に設置され、ロボットに対する接触を検出するセンサと、
ロボットへの接触に応じて、ロボットの動作を制御する動作制御部と、を備え、
前記ロボットは曲面状の体表面を有し、
前記センサは、円環形状を有し、前記ロボットの体表面の曲面に沿って設置されることを特徴とする自律行動型ロボット。
A sensor installed on the body surface of the robot to detect contact with the robot;
An operation control unit that controls the operation of the robot in response to contact with the robot,
The robot has a curved body surface,
The autonomous behavior robot according to claim 1, wherein the sensor has an annular shape and is installed along a curved surface of the body surface of the robot.
あらかじめ定義される複数種類の接触タイプのうち、前記センサへの接触態様に応じて接触タイプを判定する接触判定部、を更に備え、
前記センサは、円環部において複数の電極が配列され、
前記接触判定部は、前記センサに含まれる複数の電極それぞれの接触時における電位変化に基づいて接触タイプを判定することを特徴とする請求項1に記載の自律行動型ロボット。
A contact determination unit that determines a contact type according to a contact mode to the sensor among a plurality of types of contact types defined in advance;
In the sensor, a plurality of electrodes are arranged in an annular portion,
The autonomous behavior robot according to claim 1, wherein the contact determination unit determines a contact type based on a potential change at the time of contact of each of a plurality of electrodes included in the sensor.
前記動作制御部は、前記判定された接触タイプに応じてロボットの行動特性を変化させることを特徴とする請求項2に記載の自律行動型ロボット。   The autonomous behavior type robot according to claim 2, wherein the motion control unit changes behavior characteristics of the robot according to the determined contact type. ロボットの体表面の複数箇所に複数の前記センサが設置されることを特徴とする請求項1に記載の自律行動型ロボット。   The autonomous behavior type robot according to claim 1, wherein a plurality of the sensors are installed at a plurality of locations on the body surface of the robot. 前記複数のセンサは、設置箇所に応じて大きさが異なることを特徴とする請求項4に記載の自律行動型ロボット。   The autonomous behavior robot according to claim 4, wherein the plurality of sensors have different sizes depending on an installation location. 前記動作制御部は、前記複数のセンサそれぞれに対する接触態様に応じてロボットの行動特性を変化させることを特徴とする請求項4または5に記載の自律行動型ロボット。   6. The autonomous behavior robot according to claim 4, wherein the motion control unit changes behavior characteristics of the robot according to a contact mode with respect to each of the plurality of sensors. 前記センサは、円環の一部が欠落した形状を有することを特徴とする請求項1から6のいずれかに記載の自律行動型ロボット。   The autonomous behavior robot according to any one of claims 1 to 6, wherein the sensor has a shape in which a part of a ring is missing. 前記センサは、ロボットの内骨格と、弾性体の外皮との間に設置されることを特徴とする請求項1から7のいずれかに記載の自律行動型ロボット。   The autonomous behavior robot according to any one of claims 1 to 7, wherein the sensor is installed between an inner skeleton of the robot and an outer skin of an elastic body. 前記センサは、円環部において第1電極と第2電極が対向して設置され、かつ、前記ロボットの内側に位置する前記第1電極は接地電位に設定されることを特徴とする請求項1から8のいずれかに記載の自律行動型ロボット。   2. The sensor according to claim 1, wherein the first electrode and the second electrode are arranged to face each other in an annular portion, and the first electrode located inside the robot is set to a ground potential. The autonomous behavior type robot according to any one of 1 to 8. 前記センサは、電極と前記電極の電位変化を検出する検出チップを含み、前記検出チップが前記センサの円環部の中央に配置された状態で前記ロボットの体表面に設置されることを特徴とする請求項1から9のいずれかに記載の自律行動型ロボット。   The sensor includes an electrode and a detection chip for detecting a change in potential of the electrode, and the detection chip is installed on the body surface of the robot in a state of being arranged at the center of the annular portion of the sensor. The autonomous behavior type robot according to any one of claims 1 to 9. 周辺領域にユーザが検出されないとき、前記センサの検出感度を抑制する感度制御部と、を更に備えることを特徴とする請求項1から10のいずれかに記載の自律行動型ロボット。   The autonomous behavior type robot according to claim 1, further comprising: a sensitivity control unit configured to suppress detection sensitivity of the sensor when a user is not detected in a peripheral region. 複数の電極が延伸方向に配列されるセンシング部と、
前記複数の電極の電位変化を検出する検出チップと、を備え、
前記検出チップは、前記複数の電極それぞれの電位変化を個別に検出することを特徴とするセンサ。
A sensing unit in which a plurality of electrodes are arranged in the extending direction;
A detection chip for detecting potential changes of the plurality of electrodes,
The sensor, wherein the detection chip individually detects a potential change of each of the plurality of electrodes.
設置対象となるロボットに設けられる突起と係合する切り欠きを備えることを特徴とする請求項12に記載のセンサ。   The sensor according to claim 12, further comprising a notch that engages with a protrusion provided on a robot to be installed.
JP2017097910A 2017-05-17 2017-05-17 Autonomous mobile robot detecting touch to body of curved surface shape Pending JP2018192559A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017097910A JP2018192559A (en) 2017-05-17 2017-05-17 Autonomous mobile robot detecting touch to body of curved surface shape

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017097910A JP2018192559A (en) 2017-05-17 2017-05-17 Autonomous mobile robot detecting touch to body of curved surface shape

Publications (1)

Publication Number Publication Date
JP2018192559A true JP2018192559A (en) 2018-12-06

Family

ID=64568772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017097910A Pending JP2018192559A (en) 2017-05-17 2017-05-17 Autonomous mobile robot detecting touch to body of curved surface shape

Country Status (1)

Country Link
JP (1) JP2018192559A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230928A1 (en) * 2019-05-15 2020-11-19 엘지전자 주식회사 Robot and control method for same
US11498225B2 (en) 2019-02-21 2022-11-15 Samsung Electronics Co., Ltd. Touch input processing method and electronic device supporting the same
WO2023219041A1 (en) * 2022-05-13 2023-11-16 株式会社ソニー・インタラクティブエンタテインメント Interactive device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11498225B2 (en) 2019-02-21 2022-11-15 Samsung Electronics Co., Ltd. Touch input processing method and electronic device supporting the same
WO2020230928A1 (en) * 2019-05-15 2020-11-19 엘지전자 주식회사 Robot and control method for same
KR20200132654A (en) * 2019-05-15 2020-11-25 엘지전자 주식회사 Robot and its control method
KR102288658B1 (en) * 2019-05-15 2021-08-11 엘지전자 주식회사 Robot and its control method
US11376742B2 (en) 2019-05-15 2022-07-05 Lg Electronics Inc. Robot and method of controlling the same
WO2023219041A1 (en) * 2022-05-13 2023-11-16 株式会社ソニー・インタラクティブエンタテインメント Interactive device

Similar Documents

Publication Publication Date Title
JP6467674B2 (en) Autonomous robot that understands skinship
JP6475872B2 (en) Autonomous behavior robot with controlled amount of activity
JP6402320B2 (en) An autonomous behavioral robot
JP6494062B2 (en) Autonomous robot that recognizes the direction of the sound source
JP6884401B2 (en) Autonomous robot wearing clothes
JP6495486B2 (en) Autonomous behavior robot and computer program
JP6472113B2 (en) Autonomous robots and programs that maintain a natural sense of distance
JP2019149181A (en) Autonomous behavior type robot with changeable pupils
JP6557840B2 (en) Robot, server and action control program
JP6409209B2 (en) Autonomous robot for coolness
JP6671577B2 (en) An autonomous robot that identifies people
JPWO2018047900A1 (en) Autonomous robot that accepts guests
JPWO2020122236A1 (en) Robot wearing a costume
JP6575005B2 (en) Joint structure suitable for robot joints
JP2018192559A (en) Autonomous mobile robot detecting touch to body of curved surface shape

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200309