JP6734607B2 - Robots, portable items and robot control programs - Google Patents

Robots, portable items and robot control programs Download PDF

Info

Publication number
JP6734607B2
JP6734607B2 JP2019517713A JP2019517713A JP6734607B2 JP 6734607 B2 JP6734607 B2 JP 6734607B2 JP 2019517713 A JP2019517713 A JP 2019517713A JP 2019517713 A JP2019517713 A JP 2019517713A JP 6734607 B2 JP6734607 B2 JP 6734607B2
Authority
JP
Japan
Prior art keywords
robot
motion
unit
operation command
accessory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019517713A
Other languages
Japanese (ja)
Other versions
JPWO2018207908A1 (en
Inventor
正昭 田原
正昭 田原
要 林
要 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of JPWO2018207908A1 publication Critical patent/JPWO2018207908A1/en
Application granted granted Critical
Publication of JP6734607B2 publication Critical patent/JP6734607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators

Description

本発明は、内部状態または外部環境に応じて自律的に行動選択するロボット、に関する。 The present invention relates to a robot that autonomously selects an action according to an internal state or an external environment.

人間は、癒やしを求めてペットを飼う。その一方、ペットの世話をする時間を十分に確保できない、ペットを飼える住環境にない、アレルギーがある、死別がつらい、といったさまざまな理由により、ペットをあきらめている人は多い。もし、ペットの役割が務まるロボットがあれば、ペットを飼えない人にもペットが与えてくれるような癒やしを与えられるかもしれない(特許文献1参照)。 Humans keep pets for healing. On the other hand, many people give up their pets for various reasons, such as not being able to secure sufficient time to care for them, having no living environment for keeping pets, having allergies, and having a difficult bereavement. If there is a robot that plays the role of a pet, it may be possible to give the healing that the pet gives to a person who cannot keep the pet (see Patent Document 1).

特開2000−323219号公報JP, 2000-323219, A

ペットを飼う楽しさのひとつは、ペット同士の交流を見ることである。ロボットにおいても、ロボット同士の交流を促す仕組みがあれば、ロボットに対する愛着をいっそう深めることができると考えられる。ロボット同士の交流の前提となるのは、ロボットが他のロボットを識別する機能である。 One of the joys of keeping pets is to see them interact with each other. Even for robots, if there is a mechanism that encourages interaction between robots, it is possible to further deepen their attachment to robots. The prerequisite for interaction between robots is the ability of a robot to identify other robots.

本発明は上記認識に基づいて完成された発明であり、その主たる目的は、ロボットが他のロボットを簡易かつ確実に認識するための技術、を提供することにある。 The present invention is an invention completed based on the above recognition, and a main object thereof is to provide a technique for a robot to easily and surely recognize another robot.

本発明のある態様における自律行動型ロボットは、ロボットのモーションを選択する動作制御部と、動作制御部により選択されたモーションを実行する駆動機構と、他のロボットから、所定の近距離無線通信方式にしたがって送信される前記他のロボットのIDを受信する受信機と、受信されたIDにより他のロボットを判別する認識部と、を備える。 An autonomous behavior type robot according to an aspect of the present invention includes a motion control unit that selects a motion of a robot, a drive mechanism that executes the motion selected by the motion control unit, and a predetermined short-range wireless communication system from another robot. A receiver for receiving the ID of the other robot transmitted according to the above, and a recognition unit for discriminating the other robot by the received ID.

本発明の別の態様における自律行動型ロボットは、モーションを選択する動作制御部と、動作制御部により選択されたモーションを実行する駆動機構と、自ロボットを識別するIDを所定の近距離無線通信方式にしたがって送信する送信機と、を備える。 An autonomous behavior type robot according to another aspect of the present invention includes a motion control unit that selects a motion, a drive mechanism that executes the motion selected by the motion control unit, and an ID that identifies the robot itself in a predetermined short-range wireless communication. And a transmitter for transmitting according to the method.

本発明の別の態様における自律行動型ロボットは、ロボットのモーションを選択する動作制御部と、動作制御部により選択されたモーションを実行する駆動機構と、充電器から、所定の近距離無線通信方式にしたがって送信されるIDを受信する受信機と、二次電池の電池残量を監視する充電監視部と、を備える。
動作制御部は、電池残量が所定の閾値以下となったとき、複数の充電器のうち自ロボットに対応づけられるIDを送信する充電器を移動目標地点として選択する。
An autonomous behavior type robot according to another aspect of the present invention includes a motion control unit that selects a motion of the robot, a drive mechanism that executes the motion selected by the motion control unit, a charger, and a predetermined short-range wireless communication system. A receiver for receiving the ID transmitted in accordance with the above, and a charge monitoring unit for monitoring the remaining battery level of the secondary battery.
The operation control unit selects, as the movement target point, the charger that transmits the ID associated with the robot of the plurality of chargers when the remaining battery power becomes less than or equal to a predetermined threshold value.

本発明の別の態様における自律行動型ロボットは、サーバに対するアクセス情報に基づいて、第1の無線通信方式により前記サーバと接続する通信接続部と、ロボットのモーションを決定する動作制御部と、動作制御部により選択されたモーションを実行する駆動機構と、他のロボットから、第1の無線通信方式よりも通信距離の短い第2の無線通信方式により他のロボットのIDを受信する受信機と、IDが受信されたとき、他のロボットにアクセス情報を送信する送信機と、を備える。 An autonomous action robot according to another aspect of the present invention includes a communication connection unit that connects to the server by a first wireless communication method based on access information to the server, an operation control unit that determines a motion of the robot, and an operation. A drive mechanism that executes a motion selected by the control unit, a receiver that receives the ID of another robot from another robot using a second wireless communication method that has a shorter communication distance than the first wireless communication method, A transmitter for transmitting access information to another robot when the ID is received.

本発明の別の態様における自律行動型ロボットは、自ロボットを識別するIDを所定の近距離無線通信方式にしたがって送信する送信機、を備える。ロボットの頭部、または、頭頂部に形成される突起において、複数の送信機が環状に配列される。 An autonomous behavior type robot according to another aspect of the present invention includes a transmitter that transmits an ID for identifying the robot itself according to a predetermined short-range wireless communication system. A plurality of transmitters are arranged in a ring shape on a protrusion formed on the head or the crown of the robot.

本発明の別の態様における自律行動型ロボットは、ロボットのモーションを選択する動作制御部と、動作制御部により選択されたモーションを実行する駆動機構と、他の自律行動型ロボットから、自律行動型ロボットのIDを受信する受信機と、を備える。
動作制御部は、駆動機構に対して、自律行動型ロボットの所定位置に設置される送信機から送信される位置コードを受信可能な位置へ移動指示する。
An autonomous action type robot according to another aspect of the present invention includes an action control unit that selects a motion of a robot, a drive mechanism that executes a motion selected by the action control unit, and an autonomous action type robot from another autonomous action type robot. A receiver for receiving the robot ID.
The operation control unit instructs the drive mechanism to move to a position where the position code transmitted from the transmitter installed at the predetermined position of the autonomous behavior type robot can be received.

本発明のある態様における装身具は、自律行動型ロボットに対して、所定の近距離無線通信方式にしたがって、動作命令を送信する送信機、を備える。 An accessory according to an aspect of the present invention includes a transmitter that transmits an operation command to an autonomous action robot according to a predetermined short-range wireless communication system.

本発明によれば、ロボットが他のロボットを簡易に認識しやすくなる。 According to the present invention, a robot can easily recognize another robot.

図1(a)はロボットの正面外観図である。図1(b)はロボットの側面外観図である。FIG. 1A is a front external view of the robot. FIG. 1B is a side view of the robot. ロボットの構造を概略的に表す断面図である。It is sectional drawing which represents the structure of a robot roughly. ロボットシステムの構成図である。It is a block diagram of a robot system. 感情マップの概念図である。It is a conceptual diagram of an emotion map. ロボットのハードウェア構成図である。It is a hardware block diagram of a robot. ロボットシステムの機能ブロック図である。It is a functional block diagram of a robot system. ツノの外観拡大図である。It is an enlarged view of the horn. 通信機配置面の上面図である。It is a top view of a communication device arrangement surface. 複数のロボットが隊列を組む様子を示す模式図である。It is a schematic diagram which shows a mode that a some robot forms a formation. 装身具によるロボットへの行動指示を示す模式図である。It is a schematic diagram which shows the action instruction|indication to a robot by accessory. ホスト・ロボットによるゲスト・ロボットの認証過程を説明するための模式図である。It is a schematic diagram for demonstrating the authentication process of the guest robot by a host robot. 充電ステーションの外観図である。It is an external view of a charging station.

図1(a)は、ロボット100の正面外観図である。図1(b)は、ロボット100の側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについては後述する。
FIG. 1A is a front external view of the robot 100. FIG. 1B is a side external view of the robot 100.
The robot 100 in the present embodiment is an autonomous action type robot that determines actions and gestures (gestures) based on an external environment and an internal state. The external environment is recognized by various sensors such as a camera and a thermo sensor. The internal state is quantified as various parameters expressing the emotion of the robot 100. These will be described later.

ロボット100は、原則として、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよび、ロボット100が所属する家庭の構成員となるユーザのことを「オーナー」とよぶ。 In principle, the robot 100 sets the indoor area of the owner's home as the range of action. Hereinafter, a person related to the robot 100 is called a “user”, and a user who is a member of the household to which the robot 100 belongs is called an “owner”.

ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂、繊維などやわらかく弾力性のある素材により形成された外皮を含む。ロボット100に服を着せてもよい。丸くてやわらかく、手触りのよいボディ104とすることで、ロボット100はユーザに安心感とともに心地よい触感を提供する。 The body 104 of the robot 100 has a rounded shape as a whole and includes an outer skin formed of a soft and elastic material such as urethane, rubber, resin, or fiber. The robot 100 may be dressed. By making the body 104 round and soft and having a good feel, the robot 100 provides the user with a sense of security and a pleasant feel.

ロボット100は、総重量が15キログラム以下、好ましくは10キログラム以下、更に好ましくは、5キログラム以下である。生後13ヶ月までに、赤ちゃんの過半数は一人歩きを始める。生後13ヶ月の赤ちゃんの平均体重は、男児が9キログラム強、女児が9キログラム弱である。このため、ロボット100の総重量が10キログラム以下であれば、ユーザは一人歩きできない赤ちゃんを抱きかかえるのとほぼ同等の労力でロボット100を抱きかかえることができる。生後2ヶ月未満の赤ちゃんの平均体重は男女ともに5キログラム未満である。したがって、ロボット100の総重量が5キログラム以下であれば、ユーザは乳児を抱っこするのと同等の労力でロボット100を抱っこできる。 The robot 100 has a total weight of 15 kilograms or less, preferably 10 kilograms or less, and more preferably 5 kilograms or less. By 13 months of age, the majority of babies start walking alone. A 13-month-old baby has an average weight of over 9 kilograms for boys and a little under 9 kilograms for girls. Therefore, if the total weight of the robot 100 is 10 kilograms or less, the user can hold the robot 100 with almost the same effort as holding a baby who cannot walk alone. Babies younger than 2 months have an average weight of less than 5 kilograms for both sexes. Therefore, if the total weight of the robot 100 is 5 kilograms or less, the user can hold the robot 100 with the same effort as holding an infant.

適度な重さと丸み、柔らかさ、手触りのよさ、といった諸属性により、ユーザがロボット100を抱きかかえやすく、かつ、抱きかかえたくなるという効果が実現される。同様の理由から、ロボット100の身長は1.2メートル以下、好ましくは、0.7メートル以下であることが望ましい。本実施形態におけるロボット100にとって、抱きかかえることができるというのは重要なコンセプトである。 Due to various attributes such as appropriate weight, roundness, softness, and good feel, the effect that the user can easily hold the robot 100 and that he/she wants to hold the robot 100 is realized. For the same reason, the height of the robot 100 is 1.2 meters or less, preferably 0.7 meters or less. It is an important concept for the robot 100 in the present embodiment that the robot can be held.

ロボット100は、3輪走行するための3つの車輪を備える。図示のように、一対の前輪102(左輪102a,右輪102b)と、一つの後輪103を含む。前輪102が駆動輪であり、後輪103が従動輪である。前輪102は、操舵機構を有しないが、回転速度や回転方向を個別に制御可能とされている。後輪103は、いわゆるオムニホイールからなり、ロボット100を前後左右へ移動させるために回転自在となっている。左輪102aよりも右輪102bの回転数を大きくすることで、ロボット100は左折したり、左回りに回転できる。右輪102bよりも左輪102aの回転数を大きくすることで、ロボット100は右折したり、右回りに回転できる。 The robot 100 has three wheels for traveling three wheels. As shown, it includes a pair of front wheels 102 (left wheel 102a, right wheel 102b) and one rear wheel 103. The front wheels 102 are driving wheels and the rear wheels 103 are driven wheels. The front wheels 102 do not have a steering mechanism, but the rotation speed and the rotation direction can be individually controlled. The rear wheel 103 is a so-called omni wheel, and is rotatable for moving the robot 100 back and forth and left and right. By making the number of rotations of the right wheel 102b larger than that of the left wheel 102a, the robot 100 can turn left or rotate counterclockwise. By making the rotation speed of the left wheel 102a larger than that of the right wheel 102b, the robot 100 can turn right or rotate clockwise.

前輪102および後輪103は、駆動機構(回動機構、リンク機構)によりボディ104に完全収納できる。走行時においても各車輪の大部分はボディ104に隠れているが、各車輪がボディ104に完全収納されるとロボット100は移動不可能な状態となる。すなわち、車輪の収納動作にともなってボディ104が降下し、床面Fに着座する。この着座状態においては、ボディ104の底部に形成された平坦状の着座面108(接地底面)が床面Fに当接する。 The front wheels 102 and the rear wheels 103 can be completely housed in the body 104 by a drive mechanism (a rotation mechanism or a link mechanism). Most of the wheels are hidden in the body 104 even when the vehicle is running, but when the wheels are completely housed in the body 104, the robot 100 becomes immovable. That is, the body 104 descends as the wheels are retracted, and sits on the floor surface F. In this seated state, a flat seating surface 108 (ground contact bottom surface) formed on the bottom of the body 104 contacts the floor surface F.

ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。 The robot 100 has two hands 106. The hand 106 does not have a function of grasping an object. The hand 106 can perform simple operations such as raising, shaking, and vibrating. The two hands 106 can also be individually controlled.

目110は、液晶素子または有機EL素子による画像表示が可能である。ロボット100は、音源方向を特定可能なマイクロフォンアレイや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。 The eye 110 can display an image with a liquid crystal element or an organic EL element. The robot 100 is equipped with various sensors such as a microphone array and an ultrasonic sensor capable of specifying the sound source direction. It also has a built-in speaker and can emit simple voice.

ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。ツノ112には全天球カメラが取り付けられ、ロボット100の上部全域を一度に撮像可能である。また、ツノ112には、送信機と受信機が内蔵されるが、詳細は図7、図8に関連して後述する。 A horn 112 is attached to the head of the robot 100. Since the robot 100 is lightweight as described above, the user can also lift the robot 100 by grasping the horn 112. A spherical camera is attached to the horn 112, and the entire upper portion of the robot 100 can be imaged at once. Further, the horn 112 has a transmitter and a receiver built therein, which will be described later in detail with reference to FIGS. 7 and 8.

図2は、ロボット100の構造を概略的に表す断面図である。
図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
FIG. 2 is a sectional view schematically showing the structure of the robot 100.
As shown in FIG. 2, the body 104 of the robot 100 includes a base frame 308, a body frame 310, a pair of resin-made wheel covers 312, and an outer cover 314. The base frame 308 is made of metal, constitutes the shaft core of the body 104, and supports the internal mechanism. The base frame 308 is configured by vertically connecting an upper plate 332 and a lower plate 334 with a plurality of side plates 336. A sufficient space is provided between the plurality of side plates 336 to allow ventilation. A battery 118, a control circuit 342, and various actuators are housed inside the base frame 308.

本体フレーム310は、樹脂材からなり、頭部フレーム316および胴部フレーム318を含む。頭部フレーム316は、中空半球状をなし、ロボット100の頭部骨格を形成する。胴部フレーム318は、段付筒形状をなし、ロボット100の胴部骨格を形成する。胴部フレーム318は、ベースフレーム308と一体に固定される。頭部フレーム316は、胴部フレーム318の上端部に相対変位可能に組み付けられる。 The body frame 310 is made of a resin material and includes a head frame 316 and a body frame 318. The head frame 316 has a hollow hemispherical shape and forms the head skeleton of the robot 100. The body frame 318 has a stepped tubular shape and forms a body skeleton of the robot 100. The body frame 318 is fixed integrally with the base frame 308. The head frame 316 is assembled to the upper end of the body frame 318 so as to be relatively displaceable.

頭部フレーム316には、ヨー軸320、ピッチ軸322およびロール軸324の3軸と、各軸を回転駆動するためのアクチュエータ326が設けられる。アクチュエータ326は、各軸を個別に駆動するための複数のサーボモータを含む。首振り動作のためにヨー軸320が駆動され、頷き動作のためにピッチ軸322が駆動され、首を傾げる動作のためにロール軸324が駆動される。 The head frame 316 is provided with a yaw axis 320, a pitch axis 322, and a roll axis 324, and an actuator 326 for rotationally driving each axis. The actuator 326 includes a plurality of servo motors for individually driving each axis. The yaw shaft 320 is driven for the swinging motion, the pitch shaft 322 is driven for the nodding motion, and the roll shaft 324 is driven for the tilting motion.

頭部フレーム316の上部には、ヨー軸320を支持するプレート325が固定されている。プレート325には、上下間の通気を確保するための複数の通気孔327が形成される。 A plate 325 that supports the yaw shaft 320 is fixed to the upper portion of the head frame 316. The plate 325 is formed with a plurality of ventilation holes 327 for ensuring ventilation between the upper and lower sides.

頭部フレーム316およびその内部機構を下方から支持するように、金属製のベースプレート328が設けられる。ベースプレート328は、クロスリンク機構329(パンタグラフ機構)を介してプレート325と連結される一方、ジョイント330を介してアッパープレート332(ベースフレーム308)と連結されている。 A metal base plate 328 is provided so as to support the head frame 316 and its internal mechanism from below. The base plate 328 is connected to the plate 325 via a cross link mechanism 329 (pantograph mechanism), and is also connected to the upper plate 332 (base frame 308) via a joint 330.

胴部フレーム318は、ベースフレーム308と車輪駆動機構370を収容する。車輪駆動機構370は、回動軸378およびアクチュエータ379を含む。胴部フレーム318の下半部は、ホイールカバー312との間に前輪102の収納スペースSを形成するために小幅とされている。 The body frame 318 houses the base frame 308 and the wheel drive mechanism 370. The wheel drive mechanism 370 includes a rotation shaft 378 and an actuator 379. The lower half of the body frame 318 has a small width so as to form a storage space S for the front wheels 102 between the lower half of the body frame 318 and the wheel cover 312.

外皮314は、ウレタンゴムからなり、本体フレーム310およびホイールカバー312を外側から覆う。手106は、外皮314と一体成形される。外皮314の上端部には、外気を導入するための開口部390が設けられる。 The outer cover 314 is made of urethane rubber and covers the body frame 310 and the wheel cover 312 from the outside. The hand 106 is integrally formed with the outer cover 314. An opening 390 for introducing outside air is provided at the upper end of the outer cover 314.

図3は、ロボットシステム300の構成図である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a、114b、・・・、114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
FIG. 3 is a configuration diagram of the robot system 300.
The robot system 300 includes a robot 100, a server 200, and a plurality of external sensors 114. A plurality of external sensors 114 (external sensors 114a, 114b,..., 114n) are installed in advance in the house. The external sensor 114 may be fixed to the wall surface of the house or may be placed on the floor. The position coordinates of the external sensor 114 are registered in the server 200. The position coordinates are defined as x, y coordinates in the house, which is assumed as the action range of the robot 100.

サーバ200は、家屋内に設置される。ロボット100の内蔵するセンサおよび複数の外部センサ114から得られる情報に基づいて、サーバ200がロボット100の基本行動を決定する。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
The server 200 is installed inside the house. The server 200 determines the basic behavior of the robot 100 based on the information obtained from the sensor incorporated in the robot 100 and the plurality of external sensors 114.
The external sensor 114 is for reinforcing the sensory organs of the robot 100, and the server 200 is for reinforcing the brain of the robot 100.

外部センサ114は、定期的に外部センサ114のID(以下、「ビーコンID」とよぶ)を含む無線信号(以下、「ロボット探索信号」とよぶ)を送信する。ロボット100はロボット探索信号を受信するとビーコンIDを含む無線信号(以下、「ロボット返答信号」とよぶ)を返信する。サーバ200は、外部センサ114がロボット探索信号を送信してからロボット返答信号を受信するまでの時間を計測し、外部センサ114からロボット100までの距離を測定する。複数の外部センサ114とロボット100とのそれぞれの距離を計測することで、ロボット100の位置座標を特定する。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
The external sensor 114 periodically transmits a wireless signal (hereinafter, referred to as “robot search signal”) including an ID of the external sensor 114 (hereinafter, referred to as “beacon ID”). When the robot 100 receives the robot search signal, it returns a wireless signal including a beacon ID (hereinafter referred to as “robot reply signal”). The server 200 measures the time from the external sensor 114 transmitting the robot search signal to the reception of the robot response signal, and measures the distance from the external sensor 114 to the robot 100. The position coordinates of the robot 100 are specified by measuring the respective distances between the plurality of external sensors 114 and the robot 100.
Of course, the system in which the robot 100 periodically transmits its own position coordinates to the server 200 may be used.

図4は、感情マップ116の概念図である。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図4に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
FIG. 4 is a conceptual diagram of the emotion map 116.
The emotion map 116 is a data table stored in the server 200. The robot 100 selects an action according to the emotion map 116. The emotion map 116 illustrated in FIG. 4 indicates the magnitude of positive/negative emotions with respect to the location of the robot 100. The x-axis and the y-axis of the emotion map 116 represent two-dimensional space coordinates. The z-axis shows the magnitude of good and bad feelings. When the z value is a positive value, the place is highly liked, and when the z value is a negative value, the place is disliked.

図4の感情マップ116において、座標P1は、ロボット100の行動範囲としてサーバ200が管理する屋内空間のうち好感情が高い地点(以下、「好意地点」とよぶ)である。好意地点は、ソファの陰やテーブルの下などの「安全な場所」であってもよいし、リビングのように人が集まりやすい場所、賑やかな場所であってもよい。また、過去にやさしく撫でられたり、触れられたりした場所であってもよい。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
In the emotion map 116 of FIG. 4, a coordinate P1 is a point (hereinafter, referred to as a “favorable point”) in the indoor space managed by the server 200, which has a high favorable feeling as the action range of the robot 100. The favored point may be a “safe place” such as behind a sofa or under a table, or a place where people can easily gather, such as a living room, or a lively place. It may also be a place that has been gently stroked or touched in the past.
Although the definition of what kind of place the robot 100 prefers is arbitrary, it is generally desirable to set the place favored by small children or small animals such as dogs and cats as the favored point.

座標P2は、悪感情が高い地点(以下、「嫌悪地点」とよぶ)である。嫌悪地点は、テレビの近くなど大きな音がする場所、お風呂や洗面所のように濡れやすい場所、閉鎖空間や暗い場所、ユーザから乱暴に扱われたことがある不快な記憶に結びつく場所などであってもよい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
The coordinate P2 is a point where the bad feeling is high (hereinafter, referred to as “dislike point”). Dislike points are places where there is a loud noise such as near a TV, places that get wet easily such as baths and washrooms, closed spaces and dark places, and places that lead to unpleasant memories that have been roughly treated by users. It may be.
Although the definition of what place the robot 100 dislikes is arbitrary, it is generally desirable to set a place where a small child or a small animal such as a dog or a cat is afraid as a dislike point.

座標Qは、ロボット100の現在位置を示す。複数の外部センサ114が定期的に送信するロボット探索信号とそれに対するロボット返答信号により、サーバ200はロボット100の位置座標を特定する。たとえば、ビーコンID=1の外部センサ114とビーコンID=2の外部センサ114がそれぞれロボット100を検出したとき、2つの外部センサ114からロボット100の距離を求め、そこからロボット100の位置座標を求める。 The coordinate Q indicates the current position of the robot 100. The server 200 identifies the position coordinates of the robot 100 based on a robot search signal and a robot response signal to the robot search signal that are periodically transmitted by the plurality of external sensors 114. For example, when the external sensor 114 with beacon ID=1 and the external sensor 114 with beacon ID=2 respectively detect the robot 100, the distance between the robot 100 is obtained from the two external sensors 114, and the position coordinate of the robot 100 is obtained from the distance. ..

あるいは、ビーコンID=1の外部センサ114は、ロボット探索信号を複数方向に送信し、ロボット100はロボット探索信号を受信したときロボット返答信号を返す。これにより、サーバ200は、ロボット100がどの外部センサ114からどの方向のどのくらいの距離にいるかを把握してもよい。また、別の実施の形態では、前輪102または後輪103の回転数からロボット100の移動距離を算出して、現在位置を特定してもよいし、カメラから得られる画像に基づいて現在位置を特定してもよい。
図4に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、嫌悪地点(座標P2)から離れる方向に移動する。
Alternatively, the external sensor 114 with beacon ID=1 transmits a robot search signal in a plurality of directions, and the robot 100 returns a robot response signal when receiving the robot search signal. Accordingly, the server 200 may grasp the distance from which external sensor 114 the robot 100 is in which direction and how much. Further, in another embodiment, the current position may be specified by calculating the moving distance of the robot 100 from the rotation speed of the front wheel 102 or the rear wheel 103, or the current position may be determined based on the image obtained from the camera. May be specified.
When the emotion map 116 shown in FIG. 4 is given, the robot 100 moves in a direction attracted to the favored point (coordinate P1) and a direction away from the disliked point (coordinate P2).

感情マップ116は動的に変化する。ロボット100が座標P1に到達すると、座標P1におけるz値(好感情)は時間とともに低下する。これにより、ロボット100は好意地点(座標P1)に到達して、「感情が満たされ」、やがて、その場所に「飽きてくる」という生物的行動をエミュレートできる。同様に、座標P2における悪感情も時間とともに緩和される。時間経過とともに新たな好意地点や嫌悪地点が生まれ、それによってロボット100は新たな行動選択を行う。ロボット100は、新しい好意地点に「興味」を持ち、絶え間なく行動選択する。 The emotion map 116 changes dynamically. When the robot 100 reaches the coordinate P1, the z value (favorable feeling) at the coordinate P1 decreases with time. As a result, the robot 100 can emulate the biological action of reaching the favored point (coordinate P1), "being satisfied with emotions", and eventually "getting tired" at that place. Similarly, the bad feeling at the coordinate P2 is also alleviated with time. With the passage of time, new favor points and aversion points are created, which causes the robot 100 to make new action selections. The robot 100 has an “interest” in a new favor point and constantly selects actions.

感情マップ116は、ロボット100の内部状態として、感情の起伏を表現する。ロボット100は、好意地点を目指し、嫌悪地点を避け、好意地点にしばらくとどまり、やがてまた次の行動を起こす。このような制御により、ロボット100の行動選択を人間的・生物的なものにできる。 The emotion map 116 represents ups and downs of emotions as an internal state of the robot 100. The robot 100 aims at the favored point, avoids the disliked point, stays at the favored point for a while, and then takes the next action again. By such control, the action selection of the robot 100 can be made human or biological.

なお、ロボット100の行動に影響を与えるマップ(以下、「行動マップ」と総称する)は、図4に示したようなタイプの感情マップ116に限らない。たとえば、好奇心、恐怖を避ける気持ち、安心を求める気持ち、静けさや薄暗さ、涼しさや暖かさといった肉体的安楽を求める気持ち、などさまざまな行動マップを定義可能である。そして、複数の行動マップそれぞれのz値を重み付け平均することにより、ロボット100の目的地点を決定してもよい。 The map that affects the behavior of the robot 100 (hereinafter collectively referred to as “action map”) is not limited to the emotion map 116 of the type shown in FIG. For example, various action maps can be defined such as curiosity, fearlessness, reassurance, calmness, darkness, and physical comfort such as coolness and warmth. Then, the destination point of the robot 100 may be determined by weighting and averaging the z values of the plurality of action maps.

ロボット100は、行動マップとは別に、さまざまな感情や感覚の大きさを示すパラメータを有する。たとえば、寂しさという感情パラメータの値が高まっているときには、安心する場所を評価する行動マップの重み付け係数を大きく設定し、目標地点に到達することでこの感情パラメータの値を低下させる。同様に、つまらないという感覚を示すパラメータの値が高まっているときには、好奇心を満たす場所を評価する行動マップの重み付け係数を大きく設定すればよい。 The robot 100 has parameters indicating the magnitudes of various emotions and sensations, in addition to the action map. For example, when the value of the emotional parameter of loneliness is increasing, the weighting coefficient of the action map for evaluating a safe place is set to be large, and the value of this emotional parameter is lowered by reaching the target point. Similarly, when the value of the parameter indicating the feeling of being boring is increasing, the weighting coefficient of the action map for evaluating the place satisfying the curiosity may be set large.

図5は、ロボット100のハードウェア構成図である。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。駆動機構120は、上述した車輪駆動機構370を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
FIG. 5 is a hardware configuration diagram of the robot 100.
The robot 100 includes an internal sensor 128, a communication device 126, a storage device 124, a processor 122, a drive mechanism 120, and a battery 118. The drive mechanism 120 includes the wheel drive mechanism 370 described above. The processor 122 and the storage device 124 are included in the control circuit 342. Each unit is connected to each other by a power supply line 130 and a signal line 132. The battery 118 supplies electric power to each unit via the power supply line 130. Each unit sends and receives a control signal via a signal line 132. The battery 118 is a lithium-ion secondary battery and is a power source of the robot 100.

内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ(全天球カメラ)、マイクロフォンアレイ、測距センサ(赤外線センサ)、サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。タッチセンサは、外皮314と本体フレーム310の間に設置され、ユーザのタッチを検出する。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。 The internal sensor 128 is an assembly of various sensors incorporated in the robot 100. Specifically, the camera (omnidirectional camera), microphone array, the distance measuring sensor (infrared sensor), thermosensor, a touch sensor, an acceleration sensor is etc. Nioisen service. The touch sensor is installed between the outer cover 314 and the main body frame 310 and detects a user's touch. The odor sensor is a known sensor that applies the principle that electric resistance changes due to adsorption of molecules that are the origin of odor.

通信機126は、サーバ200や外部センサ114、ユーザの有する携帯機器など各種の外部機器を対象として無線通信を行う通信モジュールである。通信機126は、サーバ200および外部センサ114との通信を担当する第1通信機302と、他のロボット100等との通信を担当する第2通信機304を含む。第1通信機302は、無指向性のWi-Fi(登録商標)による通信方式(第1無線通信方式)にてサーバ200等と通信する。第2通信機304は、指向性があり通信範囲の狭いIrDA(Infrared Data Association)(登録商標)による通信方式(第2無線通信方式)にて他のロボット100と通信する。詳細は後述する。 The communication device 126 is a communication module that performs wireless communication with various external devices such as the server 200, the external sensor 114, and a mobile device that the user has. The communication device 126 includes a first communication device 302 in charge of communication with the server 200 and the external sensor 114, and a second communication device 304 in charge of communication with another robot 100 or the like. The first communication device 302 communicates with the server 200 and the like by a communication method (first wireless communication method) based on omnidirectional Wi-Fi (registered trademark). The second communication device 304 communicates with another robot 100 by a communication method (second wireless communication method) based on IrDA (Infrared Data Association) (registered trademark) that has directivity and has a narrow communication range. Details will be described later.

記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、内部機構を制御するアクチュエータである。このほかには、表示器やスピーカーなども搭載される。 The storage device 124 includes a non-volatile memory and a volatile memory, and stores a computer program and various setting information. The processor 122 is a means for executing a computer program. The drive mechanism 120 is an actuator that controls the internal mechanism. In addition to this, it will also be equipped with indicators and speakers.

プロセッサ122は、通信機126を介してサーバ200や外部センサ114と通信しながら、ロボット100の行動選択を行う。内部センサ128により得られるさまざまな外部情報も行動選択に影響する。駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム316)を制御する。駆動機構120は、2つの前輪102それぞれの回転速度や回転方向を変化させることにより、ロボット100の移動方向や移動速度を変化させる。また、駆動機構120は、車輪(前輪102および後輪103)を昇降させることもできる。車輪が上昇すると、車輪はボディ104に完全に収納され、ロボット100は着座面108にて床面Fに当接し、着座状態となる。また、駆動機構120は、ワイヤ135を介して、手106を制御する。 The processor 122 selects an action of the robot 100 while communicating with the server 200 and the external sensor 114 via the communication device 126. Various external information obtained by the internal sensor 128 also influences action selection. The drive mechanism 120 mainly controls the wheels (the front wheels 102) and the head (the head frame 316). The drive mechanism 120 changes the moving direction and moving speed of the robot 100 by changing the rotating speed and rotating direction of each of the two front wheels 102. The drive mechanism 120 can also move the wheels (the front wheels 102 and the rear wheels 103) up and down. When the wheels are raised, the wheels are completely housed in the body 104, and the robot 100 comes into contact with the floor surface F at the seating surface 108 and becomes seated. In addition, the drive mechanism 120 controls the hand 106 via the wire 135.

図6は、ロボットシステム300の機能ブロック図である。
上述のように、ロボットシステム300は、ロボット100、サーバ200、装身具140および複数の外部センサ114を含む。装身具140は、ロボット100に対して動作命令を送信する機能を有する。ロボット100、サーバ200および装身具140の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーション・プログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
FIG. 6 is a functional block diagram of the robot system 300.
As described above, the robot system 300 includes the robot 100, the server 200, the accessory 140, and the plurality of external sensors 114. The accessory 140 has a function of transmitting an operation command to the robot 100. Each component of the robot 100, the server 200, and the accessory 140 is a computing unit such as a CPU (Central Processing Unit) and various coprocessors, a storage device such as a memory or a storage, and hardware including a wired or wireless communication line connecting them. And is stored in a storage device and is realized by software that supplies a processing instruction to an arithmetic unit. The computer program may be configured by a device driver, an operating system, various application programs located in their upper layers, and a library that provides common functions to these programs. Each block described below is not a hardware-based configuration but a function-based block.
Some of the functions of the robot 100 may be realized by the server 200, and some or all of the functions of the server 200 may be realized by the robot 100.

(サーバ200)
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
(Server 200)
The server 200 includes a communication unit 204, a data processing unit 202, and a data storage unit 206.
The communication unit 204 is in charge of communication processing with the external sensor 114 and the robot 100. The data storage unit 206 stores various data. The data processing unit 202 executes various processes based on the data acquired by the communication unit 204 and the data stored in the data storage unit 206. The data processing unit 202 also functions as an interface between the communication unit 204 and the data storage unit 206.

データ格納部206は、モーション格納部232、マップ格納部216および個人データ格納部218を含む。
ロボット100は、複数の動作パターン(モーション)を有する。手106を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義される。
The data storage unit 206 includes a motion storage unit 232, a map storage unit 216, and a personal data storage unit 218.
The robot 100 has a plurality of motion patterns (motions). Various motions such as shaking the hand 106, approaching the owner while meandering, and staring at the owner with his or her neck bent are defined.

モーション格納部232は、モーションの制御内容を定義する「モーションファイル」を格納する。各モーションは、モーションIDにより識別される。モーションファイルは、ロボット100のモーション格納部160にもダウンロードされる。どのモーションを実行するかは、サーバ200で決定されることもあるし、ロボット100で決定されることもある。 The motion storage unit 232 stores a “motion file” that defines the motion control content. Each motion is identified by a motion ID. The motion file is also downloaded to the motion storage unit 160 of the robot 100. Which motion is to be executed may be determined by the server 200 or the robot 100.

ロボット100のモーションの多くは、複数の単位モーションを含む複合モーションとして構成される。たとえば、ロボット100がオーナーに近づくとき、オーナーの方に向き直る単位モーション、手を上げながら近づく単位モーション、体を揺すりながら近づく単位モーション、両手を上げながら着座する単位モーションの組み合わせとして表現されてもよい。このような4つのモーションの組み合わせにより、「オーナーに近づいて、途中で手を上げて、最後は体をゆすった上で着座する」というモーションが実現される。モーションファイルには、ロボット100に設けられたアクチュエータの回転角度や角速度などが時間軸に関連づけて定義される。モーションファイル(アクチュエータ制御情報)にしたがって、時間経過とともに各アクチュエータを制御することで様々なモーションが表現される。 Most of the motions of the robot 100 are configured as complex motions including a plurality of unit motions. For example, when the robot 100 approaches the owner, it may be expressed as a combination of a unit motion of turning toward the owner, a unit motion of approaching while raising a hand, a unit motion of approaching while shaking the body, and a unit motion of sitting while raising both hands. .. Such a combination of four motions realizes a motion of “approaching the owner, raising his hand in the middle, and finally shaking his body to sit down”. In the motion file, the rotation angle, angular velocity, etc. of the actuator provided in the robot 100 are defined in association with the time axis. According to the motion file (actuator control information), various motions are expressed by controlling each actuator over time.

先の単位モーションから次の単位モーションに変化するときの移行時間を「インターバル」とよぶ。インターバルは、単位モーション変更に要する時間やモーションの内容に応じて定義されればよい。インターバルの長さは調整可能である。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
The transition time when changing from the previous unit motion to the next unit motion is called "interval". The interval may be defined according to the time required to change the unit motion and the content of the motion. The length of the interval is adjustable.
Hereinafter, the settings relating to the behavior control of the robot 100, such as when and which motion to select, output adjustment of each actuator in realizing the motion, are collectively referred to as “action characteristics”. The behavior characteristic of the robot 100 is defined by a motion selection algorithm, a motion selection probability, a motion file, and the like.

モーション格納部232は、モーションファイルのほか、各種のイベントが発生したときに実行すべきモーションを定義するモーション選択テーブルを格納する。モーション選択テーブルにおいては、イベントに対して1以上のモーションとその選択確率が対応づけられる。 The motion storage unit 232 stores, in addition to motion files, a motion selection table that defines motions to be executed when various events occur. In the motion selection table, one or more motions and their selection probabilities are associated with an event.

マップ格納部216は、複数の行動マップのほか、椅子やテーブルなどの障害物の配置状況を示すマップも格納する。個人データ格納部218は、ユーザ、特に、オーナーの情報を格納する。具体的には、ユーザに対する親密度とユーザの身体的特徴・行動的特徴を示すマスタ情報を格納する。年齢や性別などの他の属性情報を格納してもよい。また、個人データ格納部218は、ユーザだけではなく、他のロボット100に対する親密度も登録される。 The map storage unit 216 stores not only a plurality of action maps but also a map showing the arrangement status of obstacles such as chairs and tables. The personal data storage unit 218 stores information of users, especially owners. Specifically, master information indicating intimacy with the user and physical/behavioral characteristics of the user is stored. Other attribute information such as age and gender may be stored. In addition, the personal data storage unit 218 registers not only the user's familiarity with other robots 100.

ロボット100は、ユーザごとに親密度という内部パラメータを有する。ロボット100が、自分を抱き上げる、声をかけてくれるなど、自分に対して好意を示す行動を認識したとき、そのユーザに対する親密度が高くなる。ロボット100に関わらないユーザや、乱暴を働くユーザ、出会う頻度が低いユーザに対する親密度は低くなる。ロボット100のロボット100に対する親密度については後述する。 The robot 100 has an internal parameter called intimacy for each user. When the robot 100 recognizes an action that favors itself, such as hugging itself or calling out to the user, the degree of intimacy with the user increases. The degree of intimacy with a user who is not involved in the robot 100, a user who works violently, or a user who rarely encounters is low. The closeness of the robot 100 to the robot 100 will be described later.

データ処理部202は、位置管理部208、マップ管理部210、認識部212、動作制御部222、親密度管理部220および状態管理部244を含む。
位置管理部208は、ロボット100の位置座標を、図3を用いて説明した方法にて特定する。位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
The data processing unit 202 includes a position management unit 208, a map management unit 210, a recognition unit 212, an operation control unit 222, an intimacy management unit 220, and a state management unit 244.
The position management unit 208 specifies the position coordinates of the robot 100 by the method described with reference to FIG. The position management unit 208 may also track the position coordinates of the user in real time.

状態管理部244は、充電率や内部温度、プロセッサ122の処理負荷などの各種物理状態など各種内部パラメータを管理する。状態管理部244は、感情管理部234を含む。
感情管理部234は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じて複数の行動マップの重要度が変化し、行動マップによってロボット100の移動目標地点が変化し、ロボット100の移動や時間経過によって感情パラメータが変化する。
The state management unit 244 manages various internal parameters such as the charging rate, the internal temperature, and various physical states such as the processing load of the processor 122. The state management unit 244 includes an emotion management unit 234.
The emotion management unit 234 manages various emotion parameters indicating the emotion of the robot 100 (loneliness, curiosity, desire for approval, etc.). These emotional parameters are always fluctuating. The importance of the plurality of action maps changes according to the emotion parameter, the movement target point of the robot 100 changes according to the action map, and the emotion parameter changes according to the movement of the robot 100 and the passage of time.

たとえば、寂しさを示す感情パラメータが高いときには、感情管理部234は安心する場所を評価する行動マップの重み付け係数を大きく設定する。ロボット100が、この行動マップにおいて寂しさを解消可能な地点に至ると、感情管理部234は寂しさを示す感情パラメータを低下させる。また、後述の応対行為によっても各種感情パラメータは変化する。たとえば、オーナーから「抱っこ」をされると寂しさを示す感情パラメータは低下し、長時間にわたってオーナーを視認しないときには寂しさを示す感情パラメータは少しずつ増加する。 For example, when the emotional parameter indicating loneliness is high, the emotion management unit 234 sets a large weighting coefficient of the action map for evaluating a safe place. When the robot 100 reaches a point where loneliness can be eliminated in this action map, the emotion management unit 234 reduces the emotion parameter indicating loneliness. In addition, various emotion parameters also change due to a response action described later. For example, the emotional parameter indicating loneliness decreases when the owner "hugs" it, and the emotional parameter indicating loneliness gradually increases when the owner is not visually recognized for a long time.

マップ管理部210は、複数の行動マップについて図4に関連して説明した方法にて各座標のパラメータを変化させる。マップ管理部210は、複数の行動マップのいずれかを選択してもよいし、複数の行動マップのz値を加重平均してもよい。たとえば、行動マップAでは座標R1、座標R2におけるz値が4と3であり、行動マップBでは座標R1、座標R2におけるz値が−1と3であるとする。単純平均の場合、座標R1の合計z値は4−1=3、座標R2の合計z値は3+3=6であるから、ロボット100は座標R1ではなく座標R2の方向に向かう。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19、座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
The map management unit 210 changes the parameter of each coordinate by the method described with reference to FIG. 4 for a plurality of action maps. The map management unit 210 may select one of the plurality of action maps, or may perform a weighted average of z values of the plurality of action maps. For example, in the action map A, z values at the coordinates R1 and coordinates R2 are 4 and 3, and in the action map B, the z values at the coordinates R1 and coordinates R2 are -1 and 3. In the case of the simple average, the total z value of the coordinate R1 is 4-1=3, and the total z value of the coordinate R2 is 3+3=6. Therefore, the robot 100 moves toward the coordinate R2 instead of the coordinate R1.
When the action map A is emphasized five times as much as the action map B, the total z value of the coordinates R1 is 4×5-1=19, and the total z value of the coordinates R2 is 3×5+3=18. Heading for.

認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度に基づく天候や季節の認識、光量や温度に基づく物陰(安全地帯)の認識など多様な認識が含まれる。ロボット100の認識部156は、内部センサ128により各種の環境情報を取得し、これを一次処理した上でサーバ200の認識部212に転送する。 The recognition unit 212 recognizes the external environment. The recognition of the external environment includes various recognitions such as recognition of weather and season based on temperature and humidity, and recognition of shade (safety zone) based on light intensity and temperature. The recognition unit 156 of the robot 100 acquires various environmental information by the internal sensor 128, performs primary processing on the environmental information, and transfers the environmental information to the recognition unit 212 of the server 200.

具体的には、ロボット100の認識部156は、画像から移動物体、特に、人物や動物に対応する画像領域を抽出し、抽出した画像領域から移動物体の身体的特徴や行動的特徴を示す特徴量の集合として「特徴ベクトル」を抽出する。特徴ベクトル成分(特徴量)は、各種身体的・行動的特徴を定量化した数値である。たとえば、人間の目の横幅は0〜1の範囲で数値化され、1つの特徴ベクトル成分を形成する。人物の撮像画像から特徴ベクトルを抽出する手法については、既知の顔認識技術の応用である。ロボット100は、特徴ベクトルをサーバ200に送信する。 Specifically, the recognition unit 156 of the robot 100 extracts a moving object, in particular, an image region corresponding to a person or an animal from the image, and a feature indicating the physical feature or behavioral feature of the moving object from the extracted image region. A "feature vector" is extracted as a set of quantities. The feature vector component (feature amount) is a numerical value that quantifies various physical and behavioral features. For example, the width of the human eye is digitized in the range of 0 to 1 to form one feature vector component. The method of extracting the feature vector from the captured image of a person is an application of a known face recognition technique. The robot 100 transmits the feature vector to the server 200.

サーバ200の認識部212は、更に、人物認識部214と応対認識部228を含む。
人物認識部214は、ロボット100の内蔵カメラによる撮像画像から抽出された特徴ベクトルと、個人データ格納部218にあらかじめ登録されているユーザ(クラスタ)の特徴ベクトルと比較することにより、撮像されたユーザがどの人物に該当するかを判定する(ユーザ識別処理)。人物認識部214は、表情認識部230を含む。表情認識部230は、ユーザの表情を画像認識することにより、ユーザの感情を推定する。
なお、人物認識部214は、人物以外の移動物体、たとえば、ペットである猫や犬についてもユーザ識別処理を行う。
The recognition unit 212 of the server 200 further includes a person recognition unit 214 and a response recognition unit 228.
The person recognizing unit 214 compares the feature vector extracted from the image captured by the built-in camera of the robot 100 with the feature vector of the user (cluster) registered in the personal data storage unit 218 in advance to capture the imaged user. It is determined which person corresponds to (user identification processing). The person recognition unit 214 includes a facial expression recognition unit 230. The facial expression recognition unit 230 estimates the emotion of the user by image-recognizing the facial expression of the user.
The person recognizing unit 214 also performs the user identifying process on a moving object other than a person, for example, a cat or dog that is a pet.

応対認識部228は、ロボット100になされたさまざまな応対行為を認識し、快・不快行為に分類する。応対認識部228は、また、ロボット100の行動に対するオーナーの応対行為を認識することにより、肯定・否定反応に分類する。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。たとえば、抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
The response recognition unit 228 recognizes various response actions made by the robot 100 and classifies them as pleasant/unpleasant actions. The response recognition unit 228 also classifies the response action of the owner in response to the action of the robot 100 into positive and negative reactions.
The pleasant/unpleasant behavior is determined depending on whether the user's behavior is pleasant or uncomfortable as a living thing. For example, being held is a pleasant act for the robot 100, and being kicked is an unpleasant act for the robot 100. The affirmative/negative reaction is determined depending on whether the user's response action indicates the user's pleasant feeling or unpleasant feeling. For example, being held is an affirmative reaction indicating the user's pleasant feeling, and being kicked is a negative reaction indicating the user's unpleasant feeling.

サーバ200の動作制御部222は、ロボット100の動作制御部150と協働して、ロボット100のモーションを決定する。サーバ200の動作制御部222は、マップ管理部210による行動マップ選択に基づいて、ロボット100の移動目標地点とそのための移動ルートを作成する。動作制御部222は、複数の移動ルートを作成し、その上で、いずれかの移動ルートを選択してもよい。 The operation control unit 222 of the server 200 cooperates with the operation control unit 150 of the robot 100 to determine the motion of the robot 100. The operation control unit 222 of the server 200 creates a movement target point of the robot 100 and a movement route therefor based on the action map selection by the map management unit 210. The operation control unit 222 may create a plurality of movement routes and select any one of the movement routes.

動作制御部222は、モーション格納部232の複数のモーションからロボット100のモーションを選択する。各モーションには状況ごとに選択確率が対応づけられている。たとえば、オーナーから快行為がなされたときには、モーションAを20%の確率で実行する、気温が30度以上となったとき、モーションBを5%の確率で実行する、といった選択方法が定義される。
行動マップに移動目標地点や移動ルートが決定され、後述の各種イベントによりモーションが選択される。
The motion control unit 222 selects the motion of the robot 100 from the plurality of motions in the motion storage unit 232. A selection probability is associated with each motion for each situation. For example, a selection method is defined in which, when a pleasant action is performed by the owner, the motion A is executed with a probability of 20%, and when the temperature exceeds 30 degrees, the motion B is executed with a probability of 5%. ..
The movement target point and the movement route are determined on the action map, and the motion is selected by various events described later.

親密度管理部220は、ユーザごとの親密度を管理する。上述したように、親密度は個人データ格納部218において個人データの一部として登録される。快行為を検出したとき、親密度管理部220はそのオーナーに対する親密度をアップさせる。不快行為を検出したときには親密度はダウンする。また、長期間視認していないオーナーの親密度は徐々に低下する。 The intimacy degree management unit 220 manages the intimacy degree for each user. As described above, the degree of intimacy is registered as a part of personal data in the personal data storage unit 218. When the pleasant behavior is detected, the intimacy degree management unit 220 increases the intimacy degree with respect to the owner. The intimacy decreases when an offensive behavior is detected. In addition, the intimacy of owners who have not been visually recognized for a long time gradually decreases.

本実施形態の親密度管理部220は、オーナーだけではなく、ロボット100ごとの親密度も管理する。他のロボット100に対する親密度も個人データ格納部218において個人データの一部として登録される。他のロボット100に対する親密度は、そのロボット100との関わり方に応じて増減するが詳細は後述する。 The familiarity management unit 220 of the present embodiment manages not only the owner but also the familiarity of each robot 100. The intimacy with respect to the other robot 100 is also registered in the personal data storage unit 218 as a part of the personal data. The degree of intimacy with respect to another robot 100 increases or decreases depending on how it interacts with the robot 100, but details will be described later.

(ロボット100)
ロボット100は、第1通信部142、第2通信部134、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
第1通信部142は第1通信機302に該当し、第2通信部134は第2通信機304に該当する(図5参照)。第1通信部142は、外部センサ114およびサーバ200との通信処理を担当する。第2通信部134は、他のロボット100および装身具140との通信処理を担当する。本実施形態における装身具140は、リストバンドであるとして説明する。
(Robot 100)
The robot 100 includes a first communication unit 142, a second communication unit 134, a data processing unit 136, a data storage unit 148, an internal sensor 128, and a drive mechanism 120.
The first communication unit 142 corresponds to the first communication device 302, and the second communication unit 134 corresponds to the second communication device 304 (see FIG. 5). The first communication unit 142 is in charge of communication processing with the external sensor 114 and the server 200. The second communication unit 134 is in charge of communication processing with the other robot 100 and the accessory 140. The accessory 140 in the present embodiment will be described as a wristband.

第1通信部142は、通信接続部138を含む。通信接続部138は、Wi-Fi(登録商標)(第1の無線通信方式)によりサーバ200と通信接続する。第2通信部134は、送信部162(送信機)および受信部164(受信機)を含む。第2通信部134は、IrDA(登録商標)(第2の無線通信方式)により、他のロボット100または装身具140と近距離無線通信を実行する。
本実施形態における「近距離無線通信」とは、少なくとも5メートル以内、好ましくは1.5メートル以内、更に好ましくは1メートル以内を通信範囲とする無線通信を意味するものとする。必須ではないが、近距離無線通信は、指向性のある通信方式であることが望ましく、また、アドホック通信(直接型)であることが望ましい。
The first communication unit 142 includes a communication connection unit 138. The communication connection unit 138 communicates with the server 200 by Wi-Fi (registered trademark) (first wireless communication method). The second communication unit 134 includes a transmitter 162 (transmitter) and a receiver 164 (receiver). The second communication unit 134 performs short-range wireless communication with another robot 100 or the accessory 140 by IrDA (registered trademark) (second wireless communication method).
The “short-distance wireless communication” in the present embodiment means a wireless communication within a communication range of at least 5 meters, preferably 1.5 meters or less, more preferably 1 meter or less. Although not essential, the short-range wireless communication is preferably a directional communication method and is preferably an ad hoc communication (direct type).

データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図5参照)に該当する。データ処理部136は、第1通信部142および第2通信部134により取得されたデータ、内部センサ128により検出されたセンサ情報およびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、第1通信部142、第2通信部134、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。 The data storage unit 148 stores various data. The data storage unit 148 corresponds to the storage device 124 (see FIG. 5). The data processing unit 136 executes various processes based on the data acquired by the first communication unit 142 and the second communication unit 134, the sensor information detected by the internal sensor 128, and the data stored in the data storage unit 148. To do. The data processing unit 136 corresponds to the processor 122 and a computer program executed by the processor 122. The data processing unit 136 also functions as an interface for the first communication unit 142, the second communication unit 134, the internal sensor 128, the drive mechanism 120, and the data storage unit 148.

データ格納部148は、ロボット100の各種モーションを定義するモーション格納部160を含む。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
The data storage unit 148 includes a motion storage unit 160 that defines various motions of the robot 100.
Various motion files are downloaded from the motion storage unit 232 of the server 200 to the motion storage unit 160 of the robot 100. The motion is identified by the motion ID. The front wheel 102 is seated and seated, the hand 106 is lifted, the two front wheels 102 are rotated in reverse, or only one of the front wheels 102 is rotated to rotate the robot 100, and the front wheel 102 is stored. In order to express various motions such as trembling by rotating the front wheel 102, stopping and turning when leaving the user, the operation timing, operation time, operation direction, etc. of various actuators (drive mechanism 120) are The time series is defined in the motion file.

データ格納部148には、マップ格納部216および個人データ格納部218からも各種データがダウンロードされてもよい。 Various data may be downloaded to the data storage unit 148 also from the map storage unit 216 and the personal data storage unit 218.

データ処理部136は、認識部156、動作制御部150、命令選択部166、ロボット検出部152および充電監視部154を含む。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
The data processing unit 136 includes a recognition unit 156, an operation control unit 150, a command selection unit 166, a robot detection unit 152, and a charge monitoring unit 154.
The operation control unit 150 of the robot 100 determines the motion of the robot 100 in cooperation with the operation control unit 222 of the server 200. The server 200 may determine some motions, and the robot 100 may determine other motions. Although the robot 100 determines the motion, the server 200 may determine the motion when the processing load of the robot 100 is high. The base motion may be determined in the server 200 and the additional motion may be determined in the robot 100. How the server 200 and the robot 100 share the motion determination process may be designed according to the specifications of the robot system 300.

ロボット100の動作制御部150は、サーバ200の動作制御部222とともにロボット100の移動方向を決める。行動マップに基づく移動をサーバ200で決定し、障害物をよけるなどの即時的移動をロボット100の動作制御部150により決定してもよい。駆動機構120は、動作制御部150の指示にしたがって前輪102を駆動することで、ロボット100を移動目標地点に向かわせる。 The operation control unit 150 of the robot 100 determines the moving direction of the robot 100 together with the operation control unit 222 of the server 200. The movement based on the action map may be determined by the server 200, and the immediate movement such as avoiding an obstacle may be determined by the operation control unit 150 of the robot 100. The drive mechanism 120 drives the front wheels 102 in accordance with the instruction of the operation control unit 150 to cause the robot 100 to move to the movement target point.

ロボット100の動作制御部150は選択したモーションを駆動機構120に実行指示する。駆動機構120は、モーションファイルにしたがって、各アクチュエータを制御する。 The operation control unit 150 of the robot 100 instructs the drive mechanism 120 to execute the selected motion. The drive mechanism 120 controls each actuator according to the motion file.

動作制御部150は、親密度の高いユーザが近くにいるときには「抱っこ」をせがむ仕草として両方の手106をもちあげるモーションを実行することもできるし、「抱っこ」に飽きたときには左右の前輪102を収容したまま逆回転と停止を交互に繰り返すことで抱っこをいやがるモーションを表現することもできる。駆動機構120は、動作制御部150の指示にしたがって前輪102や手106、首(頭部フレーム316)を駆動することで、ロボット100にさまざまなモーションを表現させる。 The motion control unit 150 can also perform a motion of lifting both hands 106 as a gesture to hold a "hug" when a user with high intimacy is nearby, and when the user gets tired of the "hug", the left and right front wheels 102 can be moved. By alternately repeating the reverse rotation and the stop while the robot is housed, it is possible to express a motion to hate the hug. The drive mechanism 120 causes the robot 100 to express various motions by driving the front wheel 102, the hand 106, and the neck (head frame 316) according to an instruction from the operation control unit 150.

命令選択部166は、動作命令を選択する。動作命令とは、他のロボット100に対してモーション選択を指示するための命令である。命令選択部166は、複数種類の動作命令を任意のタイミングにてランダムに選択してもよいし、イベントが発生したときにイベントに対応する動作命令を選択してもよい。たとえば、動作制御部150がモーションMを選択したとき、命令選択部166はモーションMにあらかじめ対応づけられる動作命令Xを選択してもよい。送信部162は、選択された動作命令を他のロボット100に送信する。 The instruction selection unit 166 selects an operation instruction. The motion command is a command for instructing another robot 100 to select a motion. The instruction selection unit 166 may randomly select a plurality of types of operation instructions at any timing, or may select an operation instruction corresponding to an event when the event occurs. For example, when the motion control unit 150 selects the motion M, the command selection unit 166 may select the motion command X associated with the motion M in advance. The transmission unit 162 transmits the selected motion command to another robot 100.

ロボット検出部152は、受信部164がロボット情報を検出したとき、他のロボットの存在およびその存在する方向や位置を特定する。ロボット情報の詳細は後述する。充電監視部154は、バッテリー118の電池残量を監視する。 When the receiving unit 164 detects the robot information, the robot detecting unit 152 identifies the existence of another robot and the direction and position of the existence of the other robot. Details of the robot information will be described later. The charge monitoring unit 154 monitors the remaining battery level of the battery 118.

ロボット100の認識部156は、内部センサ128から得られた外部情報を解釈する。認識部156は、視覚的な認識(視覚部)、匂いの認識(嗅覚部)、音の認識(聴覚部)、触覚的な認識(触覚部)が可能である。 The recognition unit 156 of the robot 100 interprets external information obtained from the internal sensor 128. The recognition unit 156 can perform visual recognition (visual part), odor recognition (olfactory part), sound recognition (auditory part), and tactile recognition (tactile part).

認識部156は、内蔵の全天球カメラにより定期的に外界を撮像し、人やペットなどの移動物体を検出する。認識部156は、特徴抽出部146を含む。特徴抽出部146は、移動物体の撮像画像から特徴ベクトルを抽出する。上述したように、特徴ベクトルは、移動物体の身体的特徴と行動的特徴を示すパラメータ(特徴量)の集合である。移動物体を検出したときには、ニオイセンサや内蔵の集音マイク、温度センサ等からも身体的特徴や行動的特徴が抽出される。たとえば、画像に移動物体が写っているとき、ひげが生えている、早朝活動している、赤い服を着ている、香水の匂いがする、声が大きい、メガネをかけている、スカートを履いている、白髪である、背が高い、太っている、日焼けしている、ソファにいる、といったさまざまな特徴が抽出される。これらの特徴も定量化され、特徴ベクトル成分となる。 The recognition unit 156 periodically captures the outside world with a built-in spherical camera to detect a moving object such as a person or a pet. The recognition unit 156 includes a feature extraction unit 146. The feature extraction unit 146 extracts a feature vector from the captured image of the moving object. As described above, the feature vector is a set of parameters (feature amount) indicating the physical feature and the behavioral feature of the moving object. When a moving object is detected, physical characteristics and behavioral characteristics are also extracted from an odor sensor, a built-in sound collecting microphone, a temperature sensor, and the like. For example, when a moving object appears in the image, bearded, active in the early morning, wearing red clothes, smelling perfume, loud, wearing glasses, wearing a skirt Various features such as standing, gray hair, tall, fat, tanned, on the sofa are extracted. These features are also quantified and become feature vector components.

ロボットシステム300は、大量の画像情報やその他のセンシング情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。
たとえば、ひげが生えている移動物体(ユーザ)は早朝に活動すること(早起き)が多く、赤い服を着ることが少ないのであれば、早起きでひげが生えていて赤い服をあまり着ないクラスタ(ユーザ)、という第1のプロファイルができる。一方、メガネをかけている移動物体はスカートを履いていることが多いが、この移動物体にはひげが生えていない場合、メガネをかけていてスカートを履いているが絶対ひげは生えていないクラスタ(ユーザ)、という第2のプロファイルができる。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
The robot system 300 clusters users that appear with high frequency as “owners” based on physical characteristics and behavioral characteristics obtained from a large amount of image information and other sensing information.
For example, if a moving object with a beard (user) is often active in the early morning (early rising) and rarely wears red clothes, a cluster with a beard growing early and not wearing much red clothes ( User)). On the other hand, a moving object wearing glasses often wears a skirt, but if this moving object does not have a beard, a cluster wearing glasses and wearing a skirt but never a beard A second profile called (user) is created.
The above is a simple example, but the above method forms the first profile corresponding to the father and the second profile corresponding to the mother, and the house has at least two users (owners). The robot 100 recognizes that.

ただし、ロボット100は第1のプロファイルが「父親」であると認識する必要はない。あくまでも、「ひげが生えていて早起きすることが多く、赤い服を着ることはめったにないクラスタ」という人物像を認識できればよい。プロファイルごとに、プロファイルを特徴づける特徴ベクトルが定義される。 However, the robot 100 does not need to recognize that the first profile is “father”. All that is required is to be able to recognize a person's image of "a cluster with a beard often rising early and rarely wearing red clothes". A feature vector that characterizes the profile is defined for each profile.

このようなクラスタ分析が完了している状態において、ロボット100が新たに移動物体(ユーザ)を認識したとする。
このとき、サーバ200の人物認識部214は、新たな移動物体の特徴ベクトルに基づいてユーザ識別処理を実行し、移動物体がどのプロファイル(クラスタ)に該当するかを判断する。たとえば、ひげが生えている移動物体を検出したとき、この移動物体は父親である確率が高い。この移動物体が早朝行動していれば、父親に該当することはいっそう確実である。一方、メガネをかけている移動物体を検出したときには、この移動物体は母親である可能性もある。この移動物体にひげが生えていれば、母親ではなく父親でもないので、クラスタ分析されていない新しい人物であると判定する。
It is assumed that the robot 100 newly recognizes a moving object (user) while such cluster analysis is completed.
At this time, the person recognition unit 214 of the server 200 executes a user identification process based on the new feature vector of the moving object, and determines which profile (cluster) the moving object corresponds to. For example, when a moving object with a beard is detected, the moving object is highly likely to be a father. If this moving object behaves early in the morning, it is even more certain that it is a father. On the other hand, when a moving object wearing glasses is detected, the moving object may be the mother. If this moving object bears a beard, it is neither a mother nor a father, so it is determined to be a new person who has not been subjected to cluster analysis.

特徴抽出によるクラスタ(プロファイル)の形成(クラスタ分析)と、特徴抽出にともなうクラスタへの当てはめは同時並行的に実行されてもよい。 The formation of clusters (profiles) by feature extraction (cluster analysis) and the fitting to clusters associated with feature extraction may be performed concurrently.

検出・分析・判定を含む一連の認識処理のうち、ロボット100の認識部156は認識に必要な情報の取捨選択や抽出を行い、判定等の解釈処理はサーバ200の認識部212により実行される。認識処理は、サーバ200の認識部212だけで行ってもよいし、ロボット100の認識部156だけで行ってもよいし、上述のように双方が役割分担をしながら上記認識処理を実行してもよい。 Of the series of recognition processing including detection, analysis, and determination, the recognition unit 156 of the robot 100 selects and extracts information necessary for recognition, and the interpretation processing such as determination is executed by the recognition unit 212 of the server 200. .. The recognition process may be performed only by the recognition unit 212 of the server 200, or may be performed only by the recognition unit 156 of the robot 100. As described above, both parties perform the recognition process while sharing roles. Good.

ロボット100に対する強い衝撃が与えられたとき、認識部156は内蔵の加速度センサによりこれを認識し、サーバ200の応対認識部228は、近隣にいるユーザによって「乱暴行為」が働かれたと認識する。ユーザがツノ112を掴んでロボット100を持ち上げるときにも、乱暴行為と認識してもよい。ロボット100に正対した状態にあるユーザが特定音量領域および特定周波数帯域にて発声したとき、サーバ200の応対認識部228は、自らに対する「声掛け行為」がなされたと認識してもよい。また、体温程度の温度を検知したときにはユーザによる「接触行為」がなされたと認識し、接触認識した状態で上方への加速度を検知したときには「抱っこ」がなされたと認識する。ユーザがボディ104を持ち上げるときの物理的接触をセンシングしてもよいし、前輪102にかかる荷重が低下することにより抱っこを認識してもよい。
まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報として取得し、サーバ200の応対認識部228は快・不快を判定し、サーバ200の認識部212は特徴ベクトルに基づくユーザ識別処理を実行する。
When a strong shock is applied to the robot 100, the recognition unit 156 recognizes this by the built-in acceleration sensor, and the response recognition unit 228 of the server 200 recognizes that “a violent act” is performed by a user in the vicinity. Even when the user holds the horn 112 and lifts the robot 100, it may be recognized as a violent act. When the user facing the robot 100 speaks in a specific sound volume region and a specific frequency band, the response recognition unit 228 of the server 200 may recognize that a “calling action” has been performed. Further, when a temperature around the body temperature is detected, it is recognized that the "contact action" has been performed by the user, and when an upward acceleration is detected in the state of contact recognition, it is recognized that the "hugging" has been performed. Physical contact may be sensed when the user lifts the body 104, or the hug may be recognized when the load applied to the front wheel 102 is reduced.
In summary, the robot 100 acquires the action of the user as physical information by the internal sensor 128, the response recognition unit 228 of the server 200 determines comfort/discomfort, and the recognition unit 212 of the server 200 performs the user identification process based on the feature vector. To execute.

サーバ200の応対認識部228は、ロボット100に対するユーザの各種応対を認識する。各種応対行為のうち一部の典型的な応対行為には、快または不快、肯定または否定が対応づけられる。一般的には快行為となる応対行為のほとんどは肯定反応であり、不快行為となる応対行為のほとんどは否定反応となる。快・不快行為は親密度に関連し、肯定・否定反応はロボット100の行動選択に影響する。 The response recognition unit 228 of the server 200 recognizes various responses of the user to the robot 100. Some typical response actions among various response actions are associated with pleasant or unpleasant, affirmative or negative. In general, most of the pleasant behaviors are positive reactions, and most of the offensive behaviors are negative reactions. Pleasure/discomfort is related to intimacy, and positive/negative reactions influence behavior selection of the robot 100.

認識部156により認識された応対行為に応じて、サーバ200の親密度管理部220はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。 The intimacy degree management unit 220 of the server 200 changes the intimacy degree with respect to the user according to the response action recognized by the recognition unit 156. In principle, the degree of intimacy with respect to the user who has performed a pleasant act increases, and the degree of intimacy with respect to the user who has performed an unpleasant act decreases.

移動物体(ユーザ)からどのような行為をされるかによってそのユーザに対する親密度が変化する。 The intimacy with the user changes depending on what kind of action is performed by the moving object (user).

ロボット100は、よく出会う人、よく触ってくる人、よく声をかけてくれる人に対して高い親密度を設定する。一方、めったに見ない人、あまり触ってこない人、乱暴な人、大声で叱る人に対する親密度は低くなる。ロボット100はセンサ(視覚、触覚、聴覚)によって検出するさまざまな外界情報にもとづいて、ユーザごとの親密度を変化させる。 The robot 100 sets a high degree of intimacy with people who often meet, people who touch it often, and people who often talk. On the other hand, the degree of intimacy with people who rarely see it, people who do not touch it very much, violent people, and people who scold loudly becomes low. The robot 100 changes the intimacy degree for each user based on various external world information detected by sensors (visual, tactile, auditory).

実際のロボット100は行動マップにしたがって自律的に複雑な行動選択を行う。ロボット100は、寂しさ、退屈さ、好奇心などさまざまなパラメータに基づいて複数の行動マップに影響されながら行動する。ロボット100は、行動マップの影響を除外すれば、あるいは、行動マップの影響が小さい内部状態にあるときには、原則的には、親密度の高い人に近づこうとし、親密度の低い人からは離れようとする。 The actual robot 100 autonomously performs complicated action selection according to the action map. The robot 100 acts while being influenced by a plurality of action maps based on various parameters such as loneliness, boredom, and curiosity. If the influence of the action map is excluded, or the robot 100 is in an internal state where the influence of the action map is small, the robot 100 will, in principle, try to approach a person with high intimacy and move away from a person with low intimacy. And

ロボット100の行動は親密度に応じて以下に類型化される。
(1)親密度が非常に高いユーザ
ロボット100は、ユーザに近づき(以下、「近接行動」とよぶ)、かつ、人に好意を示す仕草としてあらかじめ定義される愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いユーザ
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いユーザ
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いユーザ
ロボット100は、離脱行動を行う。
The behavior of the robot 100 is categorized as follows according to intimacy.
(1) User who has a very high degree of intimacy The robot 100 approaches the user (hereinafter referred to as “proximity behavior”) and performs affection gesture that is defined in advance as a gesture that favors a person. Express strongly.
(2) User who has a relatively high degree of intimacy The robot 100 performs only a proximity action.
(3) User with a relatively low degree of intimacy The robot 100 does not take any particular action.
(4) User who has a particularly low degree of intimacy The robot 100 performs a leaving action.

以上の制御方法によれば、ロボット100は、親密度が高いユーザを見つけるとそのユーザに近寄り、逆に親密度が低いユーザを見つけるとそのユーザから離れる。このような制御方法により、いわゆる「人見知り」を行動表現できる。また、来客(親密度が低いユーザA)が現れたとき、ロボット100は、来客から離れて家族(親密度が高いユーザB)の方に向かうこともある。この場合、ユーザBはロボット100が人見知りをして不安を感じていること、自分を頼っていること、を感じ取ることができる。このような行動表現により、ユーザBは、選ばれ、頼られることの喜び、それにともなう愛着の情を喚起される。 According to the control method described above, the robot 100 approaches the user when it finds a user with high intimacy, and leaves the user when it finds a user with low intimacy. With such a control method, so-called "knowing" can be expressed. Further, when a visitor (user A having low intimacy) appears, the robot 100 may leave the visitor and head toward a family (user B having high intimacy). In this case, the user B can feel that the robot 100 is shy and anxious, and that he is relying on himself. By such an action expression, the user B evokes the joy of being selected and relying on, and the emotion of attachment accompanying it.

一方、来客であるユーザAが頻繁に訪れ、声を掛け、タッチをするとロボット100のユーザAに対する親密度は徐々に上昇し、ロボット100はユーザAに対して人見知り行動(離脱行動)をしなくなる。ユーザAも自分にロボット100が馴染んできてくれたことを感じ取ることで、ロボット100に対する愛着を抱くことができる。 On the other hand, when the user A who is a visitor frequently visits, speaks, and touches, the degree of intimacy of the robot 100 with respect to the user A gradually increases, and the robot 100 does not perform a shyness action (leave action) with respect to the user A. .. The user A can also have an attachment to the robot 100 by feeling that the user 100 is familiar with the robot 100.

なお、以上の行動選択は、常に実行されるとは限らない。たとえば、ロボット100の好奇心を示す内部パラメータが高くなっているときには、好奇心を満たす場所を求める行動マップが重視されるため、ロボット100は親密度に影響された行動を選択しない可能性もある。また、玄関に設置されている外部センサ114がユーザの帰宅を検知した場合には、ユーザのお出迎え行動を最優先で実行するかもしれない。 The above action selection is not always executed. For example, when the internal parameter indicating the curiosity of the robot 100 is high, the behavior map that seeks a place satisfying the curiosity is emphasized, and thus the robot 100 may not select the behavior influenced by the intimacy. .. Further, when the external sensor 114 installed at the entrance detects the user's return home, the user's welcome action may be executed with the highest priority.

(装身具140)
装身具140(リストバンド)は、不特定多数のロボット100に対して動作命令を送信可能なアクセサリである。装身具140は、送信部144、受信部170および指示選択部172を含む。送信部144および受信部170は、IrDA(登録商標)(第2の無線通信方式)によりロボット100と通信する。受信部170は、ロボット100の送信部162から後述のロボット情報を受信する。送信部144は、ロボット100に対して動作命令を送信する。装身具140の動作命令については図10に関連して後述する。指示選択部172は、ユーザからの指示にしたがって動作命令を選択する。装身具140には、あらかじめ複数の動作命令が登録されている。ユーザは装身具140のボタン(不図示)を操作することにより、送信すべき動作命令を選択できる。
(Accessory 140)
The accessory 140 (wristband) is an accessory that can transmit operation commands to an unspecified number of robots 100. The accessory 140 includes a transmission unit 144, a reception unit 170, and an instruction selection unit 172. The transmission unit 144 and the reception unit 170 communicate with the robot 100 by IrDA (registered trademark) (second wireless communication method). The receiving unit 170 receives robot information described below from the transmitting unit 162 of the robot 100. The transmission unit 144 transmits an operation command to the robot 100. The operation command of the accessory 140 will be described later with reference to FIG. The instruction selection unit 172 selects an operation instruction according to an instruction from the user. A plurality of operation commands are registered in advance in the accessory 140. The user can select an operation command to be transmitted by operating a button (not shown) of the accessory 140.

図7は、ツノ112の外観拡大図である。
ツノ112には、通信機配置面Gが形成される。通信機配置面Gには、IrDA(登録商標)の送信機および受信機が設置される。IrDA(登録商標)は、指向性が強く、通信範囲が0.3〜1.0メートル程度と短い。IrDA(登録商標)の通信範囲は、一般的な無線通信と比べると近距離に限定される。また、IrDA(登録商標)は、送信機と受信機の間に紙などの簡単な非透過の遮蔽物があるだけでも通信できなくなるため、近距離であるだけでなく、視認可能な状態にある相手としか通信できない。いいかえれば、相手を視覚的に認識可能な状態にあるときに限り送受信が可能であるため、人が内緒話をするような極めて自然でセキュアな通信が可能となる。
FIG. 7 is an enlarged view of the outer appearance of the horn 112.
A communication device placement surface G is formed on the horn 112. An IrDA (registered trademark) transmitter and receiver are installed on the communication device placement surface G. IrDA (registered trademark) has strong directivity and has a short communication range of about 0.3 to 1.0 meters. The communication range of IrDA (registered trademark) is limited to a short distance as compared with general wireless communication. In addition, IrDA (registered trademark) is in a state that it is not only a short distance but also visible because it cannot communicate even if there is a simple non-transparent shield such as paper between the transmitter and the receiver. Can only communicate with the other party. In other words, transmission and reception are possible only when the other party is visually recognizable, which enables extremely natural and secure communication such as a person telling a secret story.

図8は、通信機配置面Gの上面図である。
円形の通信機配置面Gには、8つの第2通信機304(第2通信機304a〜304h)が環状に配置される。図8は図面上方がロボット100の前方(前頭部側)、図面下方がロボット100の後方(後頭部側)に対応する。第2通信機304は、送信機158と受信機168を1つずつ含む。このため、通信機配置面Gには送信機158と受信機168が8個ずつ交互に配列されることになる。8つの第2通信機304(送信機158と受信機168)にはそれぞれ、下記のように位置コード(ID)が設定されている。
第2通信機304a(前方)の位置コード:F
第2通信機304b(左前方)の位置コード:FL
第2通信機304c(左方)の位置コード:L
第2通信機304d(左後方)の位置コード:BL
第2通信機304e(後方)の位置コード:B
第2通信機304f(右後方)の位置コード:BR
第2通信機304g(右方)の位置コード:R
第2通信機304h(右前方)の位置コード:FR
8つの送信機158(送信機158a〜158h)が図6の送信部162に対応し、8つの受信機(受信機168a〜168h)が受信部164に対応する。
FIG. 8 is a top view of the communication device placement surface G.
On the circular communication device placement surface G, eight second communication devices 304 (second communication devices 304a to 304h) are annularly arranged. In FIG. 8, the upper part of the drawing corresponds to the front of the robot 100 (frontal head side), and the lower part of the drawing corresponds to the rear of the robot 100 (occipital part side). The second communication device 304 includes one transmitter 158 and one receiver 168. Therefore, eight transmitters 158 and eight receivers 168 are alternately arranged on the communication device arrangement surface G. A position code (ID) is set in each of the eight second communication devices 304 (transmitter 158 and receiver 168) as described below.
Position code of the second communication device 304a (front): F
Position code of second communication device 304b (left front): FL
Position code of second communication device 304c (left side): L
Position code of the second communication device 304d (left rear): BL
Position code of the second communication device 304e (rear): B
Position code of second communication device 304f (right rear): BR
Position code of the second communication device 304g (right side): R
Position code of second communication device 304h (front right): FR
The eight transmitters 158 (transmitters 158a to 158h) correspond to the transmitting unit 162 in FIG. 6, and the eight receivers (receivers 168a to 168h) correspond to the receiving unit 164.

送信機158は、IrDA(登録商標)にて「ロボット情報」および動作命令を送信する。IrDA(登録商標)は指向性を有するため、ロボット情報等の信号は8つの送信機158により8方向に定期的かつ一斉に送信される。ロボット情報には、ロボット100を識別する「ロボットID」と第2通信機304(送信機158)を識別する位置コード(送信機ID)が含まれる。たとえば、送信機158aはロボットIDと位置コード(F)を送信し、送信機158bはロボットIDと位置コード(FL)を送信する。ロボットIDは、MACアドレス(Media Access Control address)や製造番号など、ロボット100を一意に識別する情報であればよい。 The transmitter 158 transmits “robot information” and operation commands by IrDA (registered trademark). Since IrDA (registered trademark) has directivity, signals such as robot information are periodically and simultaneously transmitted in eight directions by eight transmitters 158. The robot information includes a “robot ID” for identifying the robot 100 and a position code (transmitter ID) for identifying the second communication device 304 (transmitter 158). For example, the transmitter 158a transmits the robot ID and the position code (F), and the transmitter 158b transmits the robot ID and the position code (FL). The robot ID may be information that uniquely identifies the robot 100, such as a MAC address (Media Access Control address) or a manufacturing number.

受信機168は、他のロボット100からロボット情報および動作命令を受信する。受信機168は、装身具140からも動作命令を受信する。 The receiver 168 receives robot information and operation commands from another robot 100. The receiver 168 also receives an operation command from the accessory 140.

第1のロボット100から第2のロボット100にロボット情報が送信されたとき、第2のロボット100はロボット情報により送信源の種別、位置、向き、距離を特定できる。第2のロボット100は、まず、ロボットIDにより送信源である第1のロボット100を特定する。ここで、第2のロボット100の左方の受信機168c(位置コード:L)が、第1のロボット100から「位置コード:F」を含むロボット情報を受信したとする。このとき、第2のロボット100のロボット検出部152は、第1のロボット100が第2のロボット100の左方に位置し、かつ、第1のロボット100は第2のロボット100の方を向いていると判定する。これは第2のロボット100の左方の受信機168c(位置コード:L)が第1のロボット100の前方の送信機158a(位置コード:F)からロボット情報を受信したためである。 When the robot information is transmitted from the first robot 100 to the second robot 100, the second robot 100 can identify the type, position, orientation, and distance of the transmission source from the robot information. The second robot 100 first identifies the first robot 100 that is the transmission source by the robot ID. Here, it is assumed that the receiver 168c (position code: L) on the left side of the second robot 100 receives the robot information including the "position code: F" from the first robot 100. At this time, the robot detection unit 152 of the second robot 100 determines that the first robot 100 is located to the left of the second robot 100, and the first robot 100 faces the second robot 100. It is determined that This is because the receiver 168c (position code: L) on the left side of the second robot 100 has received robot information from the transmitter 158a (position code: F) in front of the first robot 100.

より厳密には、第2のロボット100のロボット検出部152は、複数の受信機168それぞれにおけるロボット情報の受信強度により、第1のロボット100の存在方向を特定する。たとえば、受信機168c(左方)の受信強度が他の受信機168のいずれの受信強度よりも大きければ、第1のロボット100が第2のロボット100の左方に存在すると特定できる。更に、受信強度により、ロボット検出部152は外部ロボット100との距離も特定する。また、第1のロボット100の送信機158aからの信号の受信強度が他の送信機からの信号の受信強度より大きいとき、第1のロボット100は第2のロボット100の方を向いていると判定できる。 More strictly, the robot detection unit 152 of the second robot 100 specifies the direction in which the first robot 100 exists based on the reception intensity of the robot information in each of the plurality of receivers 168. For example, if the reception intensity of the receiver 168c (on the left side) is higher than the reception intensity of any of the other receivers 168, it can be specified that the first robot 100 exists on the left side of the second robot 100. Furthermore, the robot detection unit 152 also specifies the distance from the external robot 100 based on the reception intensity. When the reception intensity of the signal from the transmitter 158a of the first robot 100 is higher than the reception intensity of the signal from another transmitter, the first robot 100 is facing the second robot 100. You can judge.

次に、IrDA(登録商標)に基づく近距離無線通信にともなうロボット100の動作について説明する。
上述したように、送信機158は1メートル程度の狭いエリアにしかロボット情報を送信できない。このため、IrDA(登録商標)による近距離無線通信は他のロボット100(以下、「外部ロボット100」とよぶ)が至近距離に存在するときにしか成立しない。サーバ200は、外部ロボット100のロボットIDを「ロボットリスト」に登録している。以下、ロボットIDを登録済み(認識済み)の外部ロボット100のことを「登録ロボット100」、未登録の外部ロボット100のことを「未登録ロボット100」ともよぶ。ロボットリストはサーバ200とロボット100により共有される。認識される側の外部ロボット100に対し、認識する側のロボット100のことを「自ロボット100」ともよぶことにする。
Next, the operation of the robot 100 associated with the short-range wireless communication based on IrDA (registered trademark) will be described.
As described above, the transmitter 158 can transmit the robot information only to a narrow area of about 1 meter. For this reason, the short-range wireless communication by IrDA (registered trademark) is established only when the other robot 100 (hereinafter, referred to as “external robot 100”) is in a close range. The server 200 registers the robot ID of the external robot 100 in the “robot list”. Hereinafter, the external robot 100 whose robot ID has been registered (recognized) is also referred to as “registered robot 100”, and the unregistered external robot 100 is also referred to as “unregistered robot 100”. The robot list is shared by the server 200 and the robot 100. With respect to the recognized external robot 100, the robot 100 on the recognizing side will also be referred to as “self robot 100”.

自ロボット100が搭載する複数の受信機168のいずれかが外部ロボット100からロボット情報を受信したとき、認識部156はロボットリストを参照することにより外部ロボット100を判別する。ロボットリストに存在しないロボットIDを受信した場合、その外部ロボット100は未登録ロボット100である。この場合には、自ロボット100は、ロボットIDをサーバ200に送信し、サーバ200の認識部212は新たに検出されたロボットIDをロボットリストに登録する。登録ロボット100は、自ロボット100が知っている、いいかえれば、関わったことのある外部ロボット100を意味する。 When any of the plurality of receivers 168 mounted on the own robot 100 receives the robot information from the external robot 100, the recognition unit 156 determines the external robot 100 by referring to the robot list. When the robot ID that does not exist in the robot list is received, the external robot 100 is an unregistered robot 100. In this case, the robot 100 itself transmits the robot ID to the server 200, and the recognition unit 212 of the server 200 registers the newly detected robot ID in the robot list. The registered robot 100 means an external robot 100 that the robot 100 itself knows, in other words, has been involved with.

動作制御部150は、外部ロボット100のロボットIDが検出されたとき、「ロボットIDの新規検出」というイベントE1に対応づけられる複数種類のモーションからいずれかのモーションを選択する。具体的には、振り向く、近寄る、離れる、などさまざまなモーションが考えられる。動作制御部150は、イベントE1に対応して、実行中のモーションを停止させる、モーションのインターバルを変化させる、モーションの実行速度を変化させるなどにより、外部ロボット100を認識したことを行動表現してもよい。 When the robot ID of the external robot 100 is detected, the operation control unit 150 selects any one of a plurality of types of motion associated with the event E1 of “new detection of robot ID”. Specifically, various motions such as turning around, approaching, and leaving can be considered. In response to the event E1, the motion control unit 150 expresses the action of the recognition of the external robot 100 by stopping the motion being executed, changing the motion interval, changing the motion execution speed, or the like. Good.

特に、動作制御部150は、未登録のロボットIDが検出されたときには、「未登録のロボットIDの検出」というイベントE2に対応づけられる複数種類のモーションからいずれかのモーションを選択する。具体的には、振り向く、近寄る、首をかしげるなどさまざまなモーションが考えられる。動作制御部150は、イベントE2に対応して、実行中のモーションを停止させる、モーションの実行速度を落とすなど、見知らぬロボット100を見つけたことによる好奇心や警戒心を行動表現してもよい。 In particular, when the unregistered robot ID is detected, the operation control unit 150 selects any one of a plurality of types of motion associated with the event E2 of “detection of unregistered robot ID”. Specifically, various motions such as turning around, approaching, and tilting the head are possible. In response to the event E2, the operation control unit 150 may express a curiosity or a vigilance by finding a strange robot 100, such as stopping a motion being executed or reducing the execution speed of the motion.

動作制御部150は、外部ロボット100が存在する方向に応じて、ロボット100の行動特性を変化させる。たとえば、背後に外部ロボット100が存在するときには外部ロボット100から離れるモーションを実行してもよい。いいかえれば、「背後に位置する受信機168e(位置コード:B)によりロボットIDを検出」というイベントE3が発生したときには、動作制御部150は自ロボット100の移動目標地点を前方に設定することで、背後に現れたロボット100に驚いて逃げる、という行動を表現する。動作制御部150は、ロボット100を回転させることで後ろを振り向くモーションを実行してもよい。同様にして、自ロボット100の前方に外部ロボット100が存在するときには、動作制御部150は外部ロボット100に近づくモーションを実行してもよい。 The motion control unit 150 changes the action characteristic of the robot 100 according to the direction in which the external robot 100 is present. For example, when the external robot 100 is behind, the motion of leaving the external robot 100 may be executed. In other words, when the event E3 of "detect the robot ID by the receiver 168e (position code: B) located behind" occurs, the operation control unit 150 sets the movement target point of the robot 100 to the front. , Expresses an action of being surprised by the robot 100 appearing behind and escaping. The motion control unit 150 may rotate the robot 100 to execute a motion of turning around. Similarly, when the external robot 100 is present in front of the self robot 100, the operation control unit 150 may execute a motion of approaching the external robot 100.

ロボット100の送信部162は、外部ロボット100に動作命令を送信する。動作命令は、実行させたいモーションのモーションIDを含む。ロボット100は、任意のタイミング、たとえば、ランダムなタイミングにて任意の動作命令を送信してもよいし、外部ロボット100を検出したときなどイベントの発生時に動作命令を送信してもよい。たとえば、ロボット100Pがロボット100Qに対して、追従動作を指示する動作命令X1を送信したときには、ロボット100Qの動作制御部150は送信元のロボット100Pの後ろに移動し、以後、ロボット100Pに追従移動してもよい。追従動作については、図9に関連して更に詳述する。 The transmission unit 162 of the robot 100 transmits an operation command to the external robot 100. The operation instruction includes the motion ID of the motion to be executed. The robot 100 may transmit an arbitrary operation command at an arbitrary timing, for example, a random timing, or may transmit the operation command when an event occurs such as when the external robot 100 is detected. For example, when the robot 100P transmits an operation command X1 that instructs the robot 100Q to perform a follow-up operation, the operation control unit 150 of the robot 100Q moves behind the robot 100P that is the transmission source, and then follows the robot 100P. You may. The follow-up operation will be described in further detail with reference to FIG.

ロボット100Qは、ロボット100Pから動作命令Xを受信したとき、動作命令Xにしたがってもよいし、したがわなくてもよい。ロボット100Qは、所定の確率にて動作命令Xにしたがうとしてもよい。 When the robot 100Q receives the operation command X from the robot 100P, the robot 100Q may or may not follow the operation command X. The robot 100Q may follow the operation command X with a predetermined probability.

動作制御部150が自ロボット100のモーションを選択したとき、命令選択部166は選択したモーションに対応づけられる動作命令を選択してもよい。たとえば、「手106を挙げる」というモーションM1には、「手106を挙げろ」という動作命令X2と「止まれ」という動作命令X3が対応づけられるとする。ロボット100PがモーションM1を選択したとき、ロボット100Pの命令選択部166は動作命令X2、X3のいずれかをランダムに選択する。仮に動作命令X2が選択されたとする。ロボット100Pの送信部162(送信機158a〜158h)は、動作命令X2をロボット100Q(外部ロボット100)に送信する。このような制御方法によれば、ロボット100Pが手106を挙げると(モーションM1)、別のロボット100Qもそれに合わせて手106を挙げるという行動連鎖が実現される。他の例として、「移動する」というモーションM2に対して「追従動作」を指示する動作命令X1が選択されたときには、ロボット100Pが動くと別のロボット100Qが合わせて動き出すという行動連鎖が実現される。 When the motion control unit 150 selects a motion of the robot 100, the command selection unit 166 may select a motion command associated with the selected motion. For example, it is assumed that the motion M1 “raise the hand 106” is associated with the motion command X2 “raise the hand 106” and the motion command X3 “stop”. When the robot 100P selects the motion M1, the command selection unit 166 of the robot 100P randomly selects one of the motion commands X2 and X3. It is assumed that the operation command X2 is selected. The transmitter 162 (transmitters 158a to 158h) of the robot 100P transmits the operation command X2 to the robot 100Q (external robot 100). According to such a control method, when the robot 100P raises the hand 106 (motion M1), another robot 100Q also raises the hand 106 accordingly. As another example, when the motion command X1 for instructing the “following motion” for the motion M2 of “move” is selected, when the robot 100P moves, another robot 100Q also starts to move and a behavior chain is realized. It

上述したように、親密度管理部220は、ユーザだけではなく、外部ロボット100に対する親密度も管理する。親密度管理部220は、近距離無線通信に応じて外部ロボット100に対する親密度を変化させる。たとえば、自ロボット100は、外部ロボット100のロボットIDを検出したとき、その外部ロボット100に対する親密度を加算する。 As described above, the closeness management unit 220 manages not only the user but also the closeness to the external robot 100. The intimacy degree management unit 220 changes the intimacy degree with respect to the external robot 100 according to the short-range wireless communication. For example, when the robot ID of the external robot 100 is detected, the self robot 100 adds the intimacy degree to the external robot 100.

また、自ロボット100から外部ロボット100に動作命令を送信したとき、外部ロボット100が動作命令を実行するか否かを確率判定する。外部ロボット100が動作命令Xを実行するとき、いいかえれば、動作命令Xを受諾するとき、外部ロボット100の送信部162は「受諾信号」を送信元の自ロボット100に返信する。自ロボット100は受諾信号を受信したとき、外部ロボット100に対する親密度を加算する。外部ロボット100は動作命令Xにしたがってモーション選択を行う。 Further, when the operation command is transmitted from the own robot 100 to the external robot 100, it is probabilistically determined whether or not the external robot 100 executes the operation command. When the external robot 100 executes the operation command X, in other words, when it accepts the operation command X, the transmission unit 162 of the external robot 100 returns an “acceptance signal” to the transmission source self robot 100. When the self robot 100 receives the acceptance signal, the self robot 100 adds the intimacy degree to the external robot 100. The external robot 100 selects a motion according to the operation command X.

外部ロボット100が動作命令Xを拒否するときには、外部ロボット100は「拒否信号」を送信元の自ロボット100に返信する。自ロボット100は拒否信号を受信したとき、外部ロボット100に対する親密度を減算する。このような制御方法によれば、動作命令にしたがった外部ロボット100に対して親密度(好感度)を高め、動作命令にしたがわない外部ロボット100に対しては親密度(好感度)を下げる、いいかえれば、命令を聞いてくれるロボット100を好きになり、命令を聞いてくれないロボット100を嫌いになるという生物的特性をロボット100にもたせることができる。 When the external robot 100 rejects the operation command X, the external robot 100 returns a "rejection signal" to the transmission source self robot 100. When the self robot 100 receives the refusal signal, the self robot 100 subtracts the degree of intimacy with the external robot 100. According to such a control method, the intimacy degree (favorability) is increased for the external robot 100 according to the operation command, and the intimacy degree (favorability) is decreased for the external robot 100 not complying with the operation command. In other words, it is possible to give the robot 100 the biological characteristic that it likes the robot 100 who listens to commands and dislikes the robot 100 who does not listen to commands.

自ロボット100は、外部ロボット100に対する親密度を時間とともに減算してもよい。このような制御方法によれば、関わりの薄くなった外部ロボット100に対しては親近感(親密度)が徐々に低下する、という生物的特性を表現できる。 The self robot 100 may subtract the intimacy degree with respect to the external robot 100 with time. According to such a control method, it is possible to express the biological characteristic that the familiarity (intimacy) gradually decreases with respect to the external robot 100 that has become less involved.

ロボット100Qがロボット100Pからの動作命令Xにしたがうか否かは、ロボットQのロボットPに対する親密度に影響される。具体的には、ロボット100Qがロボット100Pからロボット情報とともに動作命令Xを受信したとする。ロボット100Qの動作制御部150はロボットIDを第1通信部142からサーバ200に送信し、ロボット100Pに対するロボット100Qの親密度を問い合わせる。ロボット100Qの動作制御部150は、親密度が70以上であれば90%の確率にて動作命令Xを受諾し、親密度が30以上70未満のときには50%の確率にて動作命令Xを受諾する。一方、親密度が30未満のときには動作命令Xを受諾する確率は5%である。 Whether or not the robot 100Q follows the operation command X from the robot 100P is influenced by the degree of closeness of the robot Q to the robot P. Specifically, it is assumed that the robot 100Q receives the operation command X together with the robot information from the robot 100P. The operation control unit 150 of the robot 100Q transmits the robot ID from the first communication unit 142 to the server 200 to inquire about the degree of closeness of the robot 100Q to the robot 100P. The operation control unit 150 of the robot 100Q accepts the operation command X with a probability of 90% if the intimacy degree is 70 or more, and accepts the operation command X with a probability of 50% when the intimacy degree is 30 or more and less than 70. To do. On the other hand, when the degree of intimacy is less than 30, the probability of accepting the operation command X is 5%.

このような制御方法によれば、親密度の高いロボット100の動作命令にはしたがいやすいが、親密度の低いロボット100からの動作命令にはしたがいにくいという行動特性を実現できる。ロボット100Pとロボット100Qの互いに対する親密度が高まると、一方のロボット100が動作命令Xを送信すると他方のロボット100が動作命令Xに応えてモーションを変化させるため、複数のロボット100が仲良くなっていっしょに遊んでいるかのような、いいかえれば、友だち同士であるかのような行動表現が可能となる。特に、親密度が高いロボット100同士の場合には、一方のロボット100がモーション選択するとともに動作命令を送信し、それに対して他方のロボット100が動作命令にしたがってモーション選択するとともに新たに動作命令を送信する、という行動連鎖が長く継続する。 According to such a control method, it is possible to realize a behavior characteristic that it is easy to follow the operation command of the robot 100 having high intimacy, but it is hard to follow the operation command from the robot 100 having low intimacy. When the intimacy of the robots 100P and 100Q with respect to each other increases, when one of the robots 100 transmits the operation command X, the other robot 100 changes the motion in response to the operation command X, so that the plurality of robots 100 become friends. This makes it possible to express actions as if you were playing together, in other words, as if you were friends. In particular, in the case of robots 100 having a high degree of intimacy, one of the robots 100 selects a motion and transmits a motion command, while the other robot 100 selects a motion according to the motion command and newly issues a motion command. The action chain of sending continues for a long time.

ロボット100は、親密度に応じて行動特性を変化させてもよい。自ロボット100は、外部ロボット100のロボットIDを受信したとき、外部ロボット100の親密度を確認する。たとえば、自ロボット100の動作制御部150は外部ロボット100の親密度が70以上であれば外部ロボット100に近づき、親密度が30以上70未満のときには外部ロボット100の方向に体を向けて着座する。また、外部ロボット100の親密度が30未満のときには、動作制御部150は外部ロボット100から離れるように駆動機構120に指示してもよい。このような制御方法によれば、親しいロボット100に近づき、親しくないロボット100からは離れるという行動特性を表現できる。 The robot 100 may change the behavior characteristic according to the degree of intimacy. When receiving the robot ID of the external robot 100, the self robot 100 confirms the intimacy degree of the external robot 100. For example, the operation control unit 150 of the robot 100 approaches the external robot 100 when the intimacy degree of the external robot 100 is 70 or more, and sits with the body facing the external robot 100 when the intimacy degree is 30 or more and less than 70. .. When the intimacy degree of the external robot 100 is less than 30, the operation control unit 150 may instruct the drive mechanism 120 to move away from the external robot 100. According to such a control method, it is possible to express the behavior characteristic that the robot 100 approaches the familiar robot 100 and moves away from the robot 100 which is not familiar.

図9は、複数のロボット100が隊列を組む様子を示す模式図である。
図9においては、先頭のロボット100Pが「追従動作」を指示する動作命令X1を送信している。ロボット100Pが搭載する複数の送信機158は、全方向に動作命令X1を送信する。ロボット100Qは、ロボット100Pから動作命令X1を受信する。ロボット100Qは、ロボット100Pが搭載する複数の送信機158のうち、ロボット100Pの後部の送信機158eを、ロボット情報に含まれる位置コード(B)により識別する。ロボット100Qの動作制御部150は、ロボット100Pの後部に移動し、ロボット100Pに追従する。具体的には、ロボット100Qは、ロボット100Qの受信機168a(前方)が他の受信機168よりも大きな受信強度にて、ロボット100Pの送信機158e(後方)からのロボット情報を受信可能な位置に移動する。このように、ロボット100Qは、ロボット100Pの後部の送信機158eからロボット情報を受信可能な位置に移動し、その後はロボット100Pに追従することにより、ロボット100Qがロボット100Pの後ろをついていくという行動表現が可能となる。
FIG. 9 is a schematic diagram showing how a plurality of robots 100 form a line.
In FIG. 9, the head robot 100P transmits an operation command X1 instructing a “following operation”. The plurality of transmitters 158 mounted on the robot 100P transmit the operation command X1 in all directions. The robot 100Q receives the operation command X1 from the robot 100P. The robot 100Q identifies the transmitter 158e at the rear of the robot 100P among the plurality of transmitters 158 mounted on the robot 100P by the position code (B) included in the robot information. The operation control unit 150 of the robot 100Q moves to the rear part of the robot 100P and follows the robot 100P. Specifically, the robot 100Q has a position where the receiver 168a (front) of the robot 100Q can receive the robot information from the transmitter 158e (rear) of the robot 100P with a higher reception intensity than the other receivers 168. Move to. In this way, the robot 100Q moves to a position where robot information can be received from the transmitter 158e at the rear of the robot 100P, and then follows the robot 100P, so that the robot 100Q follows the robot 100P. Can be expressed.

動作命令X1の受信強度に基づいて、ロボット100Qの動作制御部150はロボット100Pとの距離が所定範囲内となるように移動速度を調整する。ロボット100Qは、ロボット100Pの複数の送信機158のうち、後部の送信機158e(位置コード:B)からの動作命令X1の受信強度が所定範囲となる距離を維持する。なお、追従に際しては、ロボット100Qはロボット100Pに対してロボットIDとともに受諾信号を返信する。 Based on the reception intensity of the operation command X1, the operation control unit 150 of the robot 100Q adjusts the moving speed so that the distance from the robot 100P is within a predetermined range. The robot 100Q maintains a distance such that the reception intensity of the operation command X1 from the rear transmitter 158e (position code: B) of the plurality of transmitters 158 of the robot 100P falls within a predetermined range. At the time of tracking, the robot 100Q returns an acceptance signal together with the robot ID to the robot 100P.

ロボット100Qは、更に、動作命令X1を送信(リレー)する。なお、動作命令X1を送信したロボット100Pは動作制御部150により「命令モード」に設定される。命令モードに設定されたロボット100は他のロボット100からの動作命令を受け付けなくなる。したがって、図9において、ロボット100Pはロボット100Qの動作命令X1には反応しない。一方、命令モードに入っていないロボット100Rは、ロボット100Qから動作命令X1を受信し、ロボット100Qに追従する。このような制御方法によれば、ロボット100Pからの動作命令X1の発信を契機として、複数のロボット100に隊列行動をとらせることができる。動作制御部150は、所定時間の経過後に命令モードを解除する。 The robot 100Q further transmits (relays) the operation command X1. The robot 100P that has transmitted the motion command X1 is set to the “command mode” by the motion control unit 150. The robot 100 set to the command mode will not accept operation commands from other robots 100. Therefore, in FIG. 9, the robot 100P does not react to the operation command X1 of the robot 100Q. On the other hand, the robot 100R not in the command mode receives the operation command X1 from the robot 100Q and follows the robot 100Q. According to such a control method, it is possible to cause a plurality of robots 100 to take a platooning action triggered by the transmission of the operation command X1 from the robot 100P. The operation control unit 150 releases the command mode after the elapse of a predetermined time.

追従動作は、後方からの追従だけでなく、側方からの追従も可能である。たとえば、ロボット100Pが左右にロボット100Qとロボット100Rをしたがえて移動することも可能である。この場合には、ロボット100Qはロボット100Pの右方の送信機158g(位置コード:R)から動作命令X1を受信し、ロボット100Rはロボット100Pの左方の送信機158c(位置コード:L)から動作命令X1を受信する位置に移動すればよい。このような制御方法によれば、体育館などの大きなイベント会場に多数のロボット100が集結するとき、これらのロボット100に対して一斉行動をとらせることができる。追従動作に限らず、一斉に手106を挙げる、一斉に首をかしげるなどさまざまな行動連鎖が可能である。行動連鎖は、オーナーがロボット100を持ち寄って交流させる楽しさを提供できる。 The following operation can be performed not only from the rear but also from the side. For example, the robot 100P can move left and right according to the robot 100Q and the robot 100R. In this case, the robot 100Q receives the operation command X1 from the transmitter 158g (position code: R) on the right side of the robot 100P, and the robot 100R receives the operation command X1 from the transmitter 158c (position code: L) on the left side of the robot 100P. It is sufficient to move to a position where the operation command X1 is received. According to such a control method, when a large number of robots 100 gather in a large event venue such as a gymnasium, it is possible to cause the robots 100 to take simultaneous actions. Not limited to the follow-up motion, various action chains such as raising the hands 106 all at once and raising the head all at once are possible. The action chain can provide the enjoyment of the owner bringing the robot 100 and interacting with it.

図10は、装身具140によるロボット100への行動指示を示す模式図である。
装身具140(リストバンド)は、図8に示した通信機配置面Gと同様、複数の送信機158と複数の受信機168を含む。送信機158の集合が送信部144に該当し、受信機168の集合が受信部170に該当する。装身具140の送信機158および受信機168も位置コードにより識別される。装身具140の送信部144は、定期的に動作命令Xを送信する。送信到達領域190は、装身具140の動作命令Xが届く範囲を示す。
FIG. 10 is a schematic diagram showing an action instruction to the robot 100 by the accessory 140.
The accessory 140 (wristband) includes a plurality of transmitters 158 and a plurality of receivers 168, similar to the communication device placement surface G shown in FIG. The set of transmitters 158 corresponds to the transmitter 144, and the set of receivers 168 corresponds to the receiver 170. The transmitter 158 and receiver 168 of the jewelery 140 are also identified by the position code. The transmission unit 144 of the accessory 140 periodically transmits the operation command X. The transmission reach area 190 indicates a range where the operation command X of the accessory 140 reaches.

装身具140(リストバンド)を着用するユーザは、指示選択部172を介して送信対象となる動作命令を切り替えることができる。装身具140が「進入禁止領域180への進入を禁じる」という動作命令X5を送信したとする。進入禁止領域180は、ロボット100が装身具140を視認可能な範囲として設定されてもよいし、動作命令X5の受信強度が所定の閾値以上となるほど装身具140に近い範囲として設定されてもよい。図10においては、ロボット100Sは動作命令X5を受信したため、装身具140に近づきながらも進入禁止領域180に入ることなく離れている。動作命令X5により、装身具140によりロボット100を近寄らせないという動作指示が可能となる。 The user wearing the accessory 140 (wristband) can switch the operation command to be transmitted via the instruction selection unit 172. It is assumed that the accessory 140 has transmitted an operation command X5 “prohibit entry into the entry-prohibited area 180”. The entry prohibition region 180 may be set as a range in which the robot 100 can visually recognize the accessory 140, or may be set as a range closer to the accessory 140 as the reception intensity of the operation command X5 becomes a predetermined threshold value or more. In FIG. 10, since the robot 100S receives the operation command X5, the robot 100S moves away from the accessory 140 without approaching the entry prohibition region 180. The operation command X5 enables the operation instruction to keep the robot 100 away from the accessory 140.

ユーザが勉強や仕事のためにロボット100と関わりたくないときには、装身具140(リストバンド)を着用して動作命令X5を送信しておけば、ユーザはロボット100に邪魔されることなく作業に集中できる。進入禁止領域180は、円形でなくてもよい。進入禁止領域180は楕円形など他の形状であってもよいし、定期的に大きさや形状を変化させてもよい。ロボット100は、動作命令を受信したときには、受諾または拒否を確率判定し、判定結果を示す受諾信号または拒否信号を装身具140に返信する。ただし、動作命令X5のような一部の「強い動作命令」については、動作拒否できないとしてもよい。 When the user does not want to be associated with the robot 100 for study or work, if the user wears the accessory 140 (wristband) and transmits the operation command X5, the user can concentrate on the work without being disturbed by the robot 100. .. The prohibited area 180 does not have to be circular. The entry-prohibited area 180 may have another shape such as an ellipse, or may change its size or shape periodically. When the robot 100 receives the operation command, the robot 100 makes a probability determination of acceptance or rejection and returns an acceptance signal or a rejection signal indicating the determination result to the accessory 140. However, the operation may not be rejected for some "strong operation instructions" such as the operation instruction X5.

また、装身具140が「着座せよ」という動作命令X4を送信したとする。送信到達領域190内に位置するロボット100Tは動作命令X4を受信すると、前輪102を収納して着座する。ロボット100Tの命令選択部166は動作命令X4を選択し、動作命令X4を送信(リレー)する。ロボット100Uがロボット100Tから動作命令X4を受信すると、ロボット100Tも着座する。 It is also assumed that the accessory 140 has transmitted an operation command X4 of “sit down”. When the robot 100T located in the transmission arrival area 190 receives the operation command X4, it accommodates the front wheel 102 and sits down. The command selection unit 166 of the robot 100T selects the motion command X4 and transmits (relays) the motion command X4. When the robot 100U receives the operation command X4 from the robot 100T, the robot 100T also sits down.

ロボット100Uは送信到達領域190の外にいるため、装身具140の動作命令X4を受信していないが、ロボット100Tによる動作命令X4の中継により着座することになる。このような制御方法によれば、装身具140の送信到達領域190に制約されることなく、装身具140の動作命令Xを多くのロボット100にリレーさせることができる。たとえば、多数のロボット100が存在するときに装身具140から動作命令X4を送信すれば、装身具140の近くにいるロボット100から多数のロボット100を次々に、いわば、「ドミノ倒し」のように着座させることができる。 Since the robot 100U is outside the transmission reach area 190, the robot 100U does not receive the operation command X4 of the accessory 140, but is seated by the relay of the operation command X4 by the robot 100T. According to such a control method, the operation command X of the accessory 140 can be relayed to many robots 100 without being restricted by the transmission reach area 190 of the accessory 140. For example, when the accessory 140 transmits the operation command X4 when there are many robots 100, the robots 100 near the accessory 140 cause the multiple robots 100 to be seated one after another, so to speak, like "domino defeat". be able to.

なお、装身具140の送信部144は、ロボット100からロボット情報を受信したことを条件として動作命令Xを送信してもよい。このような制御方法によれば、ロボット100が周りにいないときには動作命令Xを送信しなくなるため、送信部144の電力消費を抑制できる。また、送信部144は、動作命令Xだけではなく、ロボット100と同様、装身具140を識別する装身具IDや送信機IDを送信してもよい。 The transmitter 144 of the accessory 140 may transmit the operation command X on condition that the robot information is received from the robot 100. According to such a control method, since the operation command X is not transmitted when the robot 100 is not around, the power consumption of the transmitting unit 144 can be suppressed. Further, the transmitting unit 144 may transmit not only the motion command X but also the accessory ID or the transmitter ID for identifying the accessory 140, as in the robot 100.

装身具140は、送信到達領域190内に存在する複数のロボット100に対して一斉に動作命令Xを送信できる。このため、装身具140のユーザは複数のロボット100に対して同時に命令をする感覚を楽しむことができる。たとえば、「近寄れ」を意味する動作命令X6を送信することにより、複数のロボット100を自分の周りに集結させ、次に、「着座」を意味する動作命令X4を送信すれば集まったロボット100を一斉に着座させることができる。このほかにも、手106を振る、首をかしげるなどさまざまな動作命令を定義可能である。ロボット100の目110にはモニタが設置されるため、目110の表情を動作命令により制御してもよい。たとえば、ロボット100の目110を一斉に赤く光らせる動作命令も考えられる。 The accessory 140 can simultaneously transmit the operation command X to the plurality of robots 100 existing in the transmission reach area 190. For this reason, the user of the accessory 140 can enjoy the sensation of instructing a plurality of robots 100 at the same time. For example, a plurality of robots 100 are gathered around themselves by transmitting a motion command X6 that means “approach”, and next, a motion command X4 that means “seated” is transmitted to collect the collected robots 100. Can be seated all at once. Other than this, it is possible to define various operation commands such as shaking the hand 106 and bending the head. Since a monitor is installed in the eye 110 of the robot 100, the facial expression of the eye 110 may be controlled by an operation command. For example, an operation command that causes the eyes 110 of the robot 100 to simultaneously glow red is considered.

図11は、ホスト・ロボット100Vによるゲスト・ロボット100Wの認証過程を説明するための模式図である。
サーバ200およびホスト・ロボット100Vを含むロボットシステム300は、新たなゲスト・ロボット100Wを受け入れることができる。ホスト・ロボット100Vはサーバ200により行動支援を受けるロボット100である。ここでいう「受け入れる」とは、外来者であるゲスト・ロボット100Wが、サーバ200に接続し、サーバ200が管理するリソース(ハードウェア、ソフトウェアおよびデータ)にアクセスすることでサーバ200からの行動支援を受けることが可能となることをいう。以後、サーバ200は、ホスト・ロボット100Vおよびゲスト・ロボット100Wの2つのロボット100の行動を支援することになる。
FIG. 11 is a schematic diagram for explaining an authentication process of the guest robot 100W by the host robot 100V.
The robot system 300 including the server 200 and the host robot 100V can accept a new guest robot 100W. The host robot 100V is the robot 100 that receives action support from the server 200. The term "accept" here means that the guest robot 100W, which is an alien, connects to the server 200 and accesses resources (hardware, software, and data) managed by the server 200 to support the action from the server 200. It means that it is possible to receive. After that, the server 200 will support the actions of the two robots 100, the host robot 100V and the guest robot 100W.

以下においては、ロボットシステム300(サーバ200およびホスト・ロボット100V)の拠点となる家に、ゲスト・ロボット100Wが連れて来られた状況を前提として説明する。ゲスト・ロボット100Wはホスト・ロボット100Vからアクセス情報を受け取ることにより、サーバ200と接続可能となる。ここでいう「アクセス情報」とは、サーバ200が接続される無線LAN(Local Area Network)のアクセスキー、サーバ200のIPアドレス、ポート番号、パスワード等である。 In the following, description will be made on the assumption that the guest robot 100W is brought to the home that is the base of the robot system 300 (server 200 and host robot 100V). The guest robot 100W can be connected to the server 200 by receiving the access information from the host robot 100V. The “access information” mentioned here is an access key of a wireless LAN (Local Area Network) to which the server 200 is connected, an IP address of the server 200, a port number, a password, and the like.

ホスト・ロボット100Vの第1通信部142は、Wi-Fi(登録商標)によりサーバ200と接続する。より具体的には、ホスト・ロボット100Vの通信接続部138は、Wi-Fi(登録商標)のアクセス情報を用いてサーバ200の所属する無線LAN(無線環境)に接続し、無線でサーバ200と通信をおこなう。サーバ200のリソースを利用するために、ホスト・ロボット100Vは、サーバ200の認証を受ける。一方、ゲスト・ロボット100Wはサーバ200のアクセス情報を知らない。ホスト・ロボット100Vは、ゲスト・ロボット100Wからロボット情報を受信すると、ゲスト・ロボット100Wに対してIrDA(登録商標)にてアクセス情報を送信する(S1)。このとき、ホスト・ロボット100Vの通信接続部138はゲスト・パスワードを生成し、ホスト・ロボット100Vの送信部162はゲスト・パスワードもゲスト・ロボット100Wに通知する。 The first communication unit 142 of the host robot 100V connects to the server 200 via Wi-Fi (registered trademark). More specifically, the communication connection unit 138 of the host robot 100V connects to the wireless LAN (wireless environment) to which the server 200 belongs by using the access information of Wi-Fi (registered trademark), and wirelessly communicates with the server 200. Communicate. To utilize the resources of the server 200, the host robot 100V is authenticated by the server 200. On the other hand, the guest robot 100W does not know the access information of the server 200. When the host robot 100V receives the robot information from the guest robot 100W, the host robot 100V transmits the access information by IrDA (registered trademark) to the guest robot 100W (S1). At this time, the communication connection unit 138 of the host robot 100V generates a guest password, and the transmission unit 162 of the host robot 100V notifies the guest robot 100W of the guest password as well.

ホスト・ロボット100Vは、ゲスト・ロボット100WのロボットIDとゲスト・パスワードをサーバ200に送信する(S2)。サーバ200は、ゲスト・ロボット100WのロボットIDおよびゲスト・パスワードを登録する。 The host robot 100V transmits the robot ID of the guest robot 100W and the guest password to the server 200 (S2). The server 200 registers the robot ID and guest password of the guest robot 100W.

ゲスト・ロボット100Wの通信接続部138は、ホスト・ロボット100Vから受け取ったアクセス情報およびゲスト・パスワードに基づいて、無線LANに接続し、無線を介してサーバ200に接続する(S3)。サーバ200はホスト・ロボット100Vから通知されたロボットIDとゲスト・パスワードをゲスト・ロボット100Wから通知されたものと照合した上で、ゲスト・ロボット100Wとの接続を許可する。 The communication connection unit 138 of the guest robot 100W connects to the wireless LAN and wirelessly connects to the server 200 based on the access information and the guest password received from the host robot 100V (S3). The server 200 checks the robot ID and the guest password notified from the host robot 100V with the one notified from the guest robot 100W, and then permits the connection with the guest robot 100W.

このようにホスト・ロボット100Vは、未登録ロボット100を検出したとき、アクセス情報等を未登録ロボット100(ゲスト・ロボット100W)に渡すことでゲスト・ロボット100Wのサーバ200への接続を支援する。無指向性で通信範囲の広い通信方式でアクセス情報を送信する場合、アクセス情報を傍受されるリスクがある。IrDA(登録商標)は上述したように指向性が強く通信範囲も限られるため、傍受されるリスクが低い。なお、未登録のロボット100に限らず、外部ロボット100を検出したときにはアクセス情報を送信するとしてもよい。このようにアクセス情報を提供することで、人手を介することなくゲスト・ロボット100Wをネットワークにアクセスさせることができる。 As described above, when the host robot 100V detects the unregistered robot 100, the host robot 100V supports the connection of the guest robot 100W to the server 200 by passing the access information and the like to the unregistered robot 100 (guest robot 100W). When the access information is transmitted by a communication method that is omnidirectional and has a wide communication range, there is a risk that the access information will be intercepted. IrDA (registered trademark) has a strong directivity as described above and has a limited communication range, and thus has a low risk of being intercepted. Note that the access information may be transmitted when the external robot 100 is detected, not limited to the unregistered robot 100. By providing the access information in this way, the guest robot 100W can access the network without human intervention.

図12は、充電ステーション250の外観図である。
充電ステーション250(充電ステーション250aと充電ステーション250b)は、ロボット100の充電器であり、ロボット100を収容する内部スペースを有する。ロボット100が充電ステーション250(充電器)に進入して所定の姿勢となることにより、充電が開始される。充電ステーション250とロボット100は1対1にて対応づけられている。充電ステーション250は通信機252を内蔵する。通信機252は、IrDA(登録商標)にて対応するロボット100のロボットIDを定期的に送信する。
FIG. 12 is an external view of the charging station 250.
The charging station 250 (charging station 250a and charging station 250b) is a charger for the robot 100 and has an internal space for housing the robot 100. When the robot 100 enters the charging station 250 (charger) and takes a predetermined posture, charging is started. The charging station 250 and the robot 100 are in one-to-one correspondence. The charging station 250 has a communication device 252 built therein. The communication device 252 periodically transmits the robot ID of the corresponding robot 100 by IrDA (registered trademark).

充電ステーション250は、テーブル260、テーブル260の上面と床面Fとを滑らかに架け渡すスロープ262、およびテーブル260の周囲に設けられたフレーム254を備える。テーブル260の中央には、ロボット100が充電ステーション250へ進入する際に目印とするマーカMが付されている。マーカMは、テーブル260と異なる色で着色された円形状の領域である。 The charging station 250 includes a table 260, a slope 262 that smoothly bridges the upper surface of the table 260 and the floor surface F, and a frame 254 provided around the table 260. A marker M, which serves as a mark when the robot 100 enters the charging station 250, is attached to the center of the table 260. The marker M is a circular area colored with a color different from that of the table 260.

フレーム254は、テーブル260の周囲を取り囲む装飾部材256を含む。装飾部材256は、木の葉をモチーフとした装飾片を多数重ねて得られ、垣根をイメージさせるものである。テーブル260において中心マーカMからややオフセットした位置には、給電用の接続端子258が設けられる。 The frame 254 includes a decoration member 256 surrounding the table 260. The decorative member 256 is obtained by stacking a large number of decorative pieces having a leaf motif as an image, and is an image of a hedge. A connection terminal 258 for power feeding is provided at a position slightly offset from the center marker M on the table 260.

ロボット100の充電監視部154は、バッテリー118の電池残量を監視する。電池残量(充電量)が所定の閾値以下、たとえば、充電率が30%以下となると、ロボット100は、充電ステーション250に向かう。ロボット100は、充電ステーション250が内蔵する通信機252からロボットIDを受信する。ロボット100は、自らのロボットIDを送信する充電ステーション250を移動目標地点として設定する。図12においては、ロボット100は充電ステーション250aに入庫している。 The charge monitoring unit 154 of the robot 100 monitors the remaining battery level of the battery 118. When the battery remaining amount (charge amount) is less than or equal to a predetermined threshold value, for example, the charging rate is 30% or less, the robot 100 moves to the charging station 250. The robot 100 receives the robot ID from the communication device 252 incorporated in the charging station 250. The robot 100 sets the charging station 250 that transmits its own robot ID as the movement target point. In FIG. 12, the robot 100 is stored in the charging station 250a.

ロボット100は、充電ステーション250aへの進入に際してマーカMを撮像し、マーカMを目印としてその進行方向を制御する。充電ステーション250aへの進入後、接続端子258は、ロボット100の底部に設けられた接続端子と接続される。それにより、ロボット100と充電ステーション250の互いの充電回路が導通状態となる。動作制御部150は、充電ステーション250aへの進入に際し、受信機168a(前方)が他の受信機168よりも高い受信強度にてロボットIDを受信できるようにロボット100の向きを調整する。 The robot 100 captures an image of the marker M when entering the charging station 250a, and controls the traveling direction with the marker M as a mark. After entering the charging station 250a, the connection terminal 258 is connected to the connection terminal provided on the bottom of the robot 100. As a result, the charging circuits of the robot 100 and the charging station 250 are brought into conduction. When entering the charging station 250a, the operation control unit 150 adjusts the orientation of the robot 100 so that the receiver 168a (front) can receive the robot ID with a higher reception intensity than the other receivers 168.

このような制御方法によれば、複数の充電ステーション250が設置されるときでも、ロボット100は「自分用の充電ステーション250」を見分けて充電できる。このため、帰巣本能に似た生物的特性をロボット100において行動表現できる。 According to such a control method, the robot 100 can distinguish and charge the “own charging station 250” even when a plurality of charging stations 250 are installed. Therefore, the biological characteristics similar to the homing instinct can be expressed in the robot 100.

以上、実施形態に基づいてロボット100およびロボット100を含むロボットシステム300について説明した。
ロボット100の外観には大きな違いがない。このため、外部ロボット100を画像認識により識別することは難しい。本実施形態においては、ロボットIDをIrDA(登録商標)により送信されるロボットIDにより外部ロボット100を認識するため、外部ロボット100を簡易に識別できる。
The robot 100 and the robot system 300 including the robot 100 have been described above based on the embodiment.
There is no big difference in the appearance of the robot 100. Therefore, it is difficult to identify the external robot 100 by image recognition. In the present embodiment, since the external robot 100 is recognized by the robot ID transmitted by IrDA (registered trademark), the external robot 100 can be easily identified.

画像認識の場合、鏡に映る自ロボット100を外部ロボット100だと誤解してしまう可能性があるが、ロボットIDによる識別方法(以下、「ID識別方式」とよぶ)であればこのような誤認識が生じない。たとえば、ロボットID=01のロボット100が、鏡で反射したロボットID=01を受信したとき、鏡に映るロボット100が自ロボット100であって外部ロボット100ではないことを認識できる。ID識別方式は、画像認識に比べて処理負担が軽いというメリットもある。 In the case of image recognition, there is a possibility of misunderstanding that the robot 100 reflected in the mirror is the external robot 100. However, if the identification method based on the robot ID (hereinafter referred to as “ID identification method”) is such an error. No recognition occurs. For example, when the robot 100 having the robot ID=01 receives the robot ID=01, which is reflected by the mirror, it can be recognized that the robot 100 reflected in the mirror is the own robot 100 and not the external robot 100. The ID identification method also has an advantage that the processing load is lighter than that of image recognition.

ロボット検出部152は、複数の受信機168のうちのいずれが最大の受信強度にて外部ロボット100からの信号を受信したかにより、ロボット100の存在する方向を簡易に特定できる。また、ロボット検出部152は、外部ロボット100から送信される「送信機158の位置コード」により、外部ロボット100の自ロボット100に対する向きも特定できる。 The robot detection unit 152 can easily identify the direction in which the robot 100 is present, depending on which of the plurality of receivers 168 receives the signal from the external robot 100 with the maximum reception intensity. Further, the robot detection unit 152 can also identify the orientation of the external robot 100 with respect to the own robot 100 by the “position code of the transmitter 158” transmitted from the external robot 100.

自ロボット100が外部ロボット100のロボットIDを受信可能な距離が、自ロボット100が外部ロボット100を認識できる距離である。ロボット100の受信能力が低いときには、近くにいる外部ロボット100しか認識できない。いいかえれば、ロボット100の受信能力により、ロボット100の「視力(認識可能範囲)」を表現できる。 The distance at which the robot 100 can receive the robot ID of the external robot 100 is the distance at which the robot 100 can recognize the external robot 100. When the receiving ability of the robot 100 is low, only the external robot 100 in the vicinity can be recognized. In other words, the "visual acuity (recognizable range)" of the robot 100 can be expressed by the receiving ability of the robot 100.

外部ロボット100のロボットIDを検出したとき、自ロボット100は行動特性を変化させる。このような制御方法によれば、外部ロボット100(他者)の存在を意識して自ロボット100の行動が変化したかのような行動表現が可能となる。特に、未登録ロボットを検出したときには、外部ロボット100に近づくモーションを選択して「好奇心」を行動表現してもよいし、頭をそむけたり、外部ロボット100から離れることで「警戒心」を行動表現してもよい。 When the robot ID of the external robot 100 is detected, the self robot 100 changes the behavior characteristic. According to such a control method, it becomes possible to express an action as if the action of the robot 100 itself has changed in consideration of the presence of the external robot 100 (another person). In particular, when an unregistered robot is detected, "curiosity" may be expressed by selecting a motion that approaches the external robot 100, or "vigilance" may be given by turning away from the head or leaving the external robot 100. You may express an action.

ロボット100のロボット100に対する親密度を管理することにより、ロボット100の間での好き嫌いを表現できる。たとえば、ロボット100Pはロボット100Qを好きだが、ロボット100Qはロボット100Pのことをあまり好きではない、といった「人間関係」に似た関係性をロボット100の間で表現することも可能となる。いいかえれば、ロボット100同士の「社会性」を表現できる。 By managing the degree of closeness of the robot 100 to the robot 100, likes and dislikes among the robots 100 can be expressed. For example, it is also possible to express a relationship between the robots 100, which is similar to a “human relationship” such that the robot 100P likes the robot 100Q, but the robot 100Q does not like the robot 100P very much. In other words, the “sociality” between the robots 100 can be expressed.

本実施形態によれば、ロボット100Pがロボット100Qに動作命令Xを送信し、ロボット100Qがその動作命令Xを別のロボット100Rに伝えることにより、多数のロボットによる行動連鎖を実現できる。装身具140が動作命令Xを送信する場合も同様である。このような制御方法によれば、単体のロボット100としての行動特性だけではなく、群れとしての行動特性についても多様な表現が可能となる。 According to the present embodiment, the robot 100P transmits the operation command X to the robot 100Q, and the robot 100Q transmits the operation command X to another robot 100R, so that an action chain of many robots can be realized. The same applies when the accessory 140 transmits the operation command X. According to such a control method, not only the behavioral characteristics of the single robot 100 but also the behavioral characteristics of the group can be expressed in various ways.

なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。 It should be noted that the present invention is not limited to the above-described embodiments and modifications, and the constituent elements can be modified and embodied without departing from the scope of the invention. Various inventions may be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments and modifications. In addition, some constituent elements may be deleted from all the constituent elements shown in the above-described embodiments and modifications.

1つのロボット100と1つのサーバ200、複数の外部センサ114によりロボットシステム300が構成されるとして説明したが、ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部がロボット100に割り当てられてもよい。1つのサーバ200が複数のロボット100をコントロールしてもよいし、複数のサーバ200が協働して1以上のロボット100をコントロールしてもよい。 The description has been given assuming that the robot system 300 is configured by one robot 100, one server 200, and a plurality of external sensors 114, but some of the functions of the robot 100 may be realized by the server 200, or the functions of the server 200. Part or all of the above may be assigned to the robot 100. One server 200 may control a plurality of robots 100, or a plurality of servers 200 may cooperate to control one or more robots 100.

ロボット100やサーバ200以外の第3の装置が、機能の一部を担ってもよい。図6において説明したロボット100の各機能とサーバ200の各機能の集合体は大局的には1つの「ロボット」として把握することも可能である。1つまたは複数のハードウェアに対して、本発明を実現するために必要な複数の機能をどのように配分するかは、各ハードウェアの処理能力やロボットシステム300に求められる仕様等に鑑みて決定されればよい。 A third device other than the robot 100 and the server 200 may take a part of the function. The aggregate of the functions of the robot 100 and the functions of the server 200 described with reference to FIG. 6 can be grasped as one “robot” in a broad sense. How to distribute the plurality of functions required to implement the present invention to one or more pieces of hardware is determined in consideration of the processing capability of each piece of hardware and the specifications required for the robot system 300. It may be decided.

上述したように、「狭義におけるロボット」とはサーバ200を含まないロボット100のことであるが、「広義におけるロボット」はロボットシステム300のことである。サーバ200の機能の多くは、将来的にはロボット100に統合されていく可能性も考えられる。 As described above, the “robot in the narrow sense” is the robot 100 that does not include the server 200, but the “robot in the broad sense” is the robot system 300. Many of the functions of the server 200 may possibly be integrated into the robot 100 in the future.

ロボット100の行動制御プログラムは、所定のサーバからインターネットを介して提供されてもよいし、CD−ROMなどの固定の記録媒体により提供されてもよい。いずれにしてもロボット100の行動制御プログラムは、ロボット100とは異なる記録媒体(サーバ、CD−ROMなど)から提供されることにより、ロボット100にインストールされてもよい。 The action control program of the robot 100 may be provided from a predetermined server via the Internet, or may be provided by a fixed recording medium such as a CD-ROM. In any case, the behavior control program of the robot 100 may be installed in the robot 100 by being provided from a recording medium (server, CD-ROM, etc.) different from the robot 100.

動作命令Xは、複数のロボット100によるゲームを実行するための行動指示であってもよい。一例として、複数のロボット100による「鬼ごっこ」を想定する。ロボット100Pは、まず、「鬼ごっこをやりたい」という動作命令X7を送信し、仲間を集める。動作命令X7を承諾したロボット100は鬼ごっこに参加する。3つのロボット100P〜100Rが鬼ごっこに参加したとする。サーバ200の状態管理部244は、まず、ロボット100Pを「鬼」として登録する。サーバ200の通信部204は、ロボット100P〜100Rに対して、ロボット100Pが「鬼」である旨を通知する。 The operation instruction X may be an action instruction for executing a game by the plurality of robots 100. As an example, "game of tag" by a plurality of robots 100 is assumed. The robot 100P first transmits an operation command X7 "I want to play tag" to collect friends. The robot 100 that has accepted the motion command X7 participates in tag playing. It is assumed that the three robots 100P to 100R participate in tag playing. The state management unit 244 of the server 200 first registers the robot 100P as a "demon". The communication unit 204 of the server 200 notifies the robots 100P to 100R that the robot 100P is a "demon".

鬼役のロボット100Pはロボット100Qとロボット100Rを追いかけ、ロボット100Qとロボット100Rはロボット100P(鬼)から逃げる。ロボット100P(鬼)がロボット100Qに接触すると、ロボット100Qはロボット情報の受信とタッチセンサの検出信号により「鬼」にタッチされたことを認識し、タッチされたことをサーバ200に通知する。サーバ200は、ロボット100Qを「鬼」として設定する。このような制御方法により、複数のロボット100が集まったときにロボット100だけで鬼ごっこをして遊ぶという行動表現が可能となる。 The robot 100P acting as a demon pursues the robot 100Q and the robot 100R, and the robot 100Q and the robot 100R escape from the robot 100P (demon). When the robot 100P (oni) touches the robot 100Q, the robot 100Q recognizes that the "oni" is touched by receiving the robot information and the detection signal of the touch sensor, and notifies the server 200 of the touch. The server 200 sets the robot 100Q as a "demon". With such a control method, when a plurality of robots 100 gather, it is possible to express the action of playing tag while playing with the robots 100 alone.

動作命令Xは、モーションを直接指定するだけでなく、外部ロボット100が搭載するさまざまな行動制御プログラム(アプリケーション・プログラム)の起動命令であってもよい。たとえば、「鬼ごっこ」を実行するための行動制御プログラム(以下、「鬼ごっこアプリケーション」とよぶ)を搭載する外部ロボット100に対して、鬼ごっこアプリケーションの起動を指示することにより、複数のロボット100による鬼ごっこが実行されてよい。「鬼ごっこ」に限らず、図9に関連して説明した「追従動作」、2つのロボット100が手106を触れ合わせる「手遊び」などさまざまな行動制御プログラムが考えられる。これらの行動制御プログラムは、アプリケーションIDにより識別される。第1のロボット100は、第2のロボット100に対してアプリケーションIDを指定した動作命令Xを送信することにより、第2のロボット100に起動すべき行動制御プログラムを指示してもよい。そして、第2のロボット100が受諾信号を返信したときには、第1のロボット100も同じ行動制御プログラムを起動すればよい。このように、ロボット100は、基本となるモーションだけでなく、特定のルールのもとでの行動選択方法を定義する行動選択プログラム(アプリケーション・プログラム)を搭載し、一方から他方への起動指示(遊びの誘い)としての動作命令を送信してもよい。 The motion command X may be a command for starting various action control programs (application programs) installed in the external robot 100, instead of directly specifying a motion. For example, by instructing an external robot 100 equipped with an action control program for executing "game of tag" (hereinafter referred to as "game of tag") to start the tag game, the tag of multiple robots 100 can be played. May be performed. Not limited to "game of tag", various action control programs such as "following motion" described with reference to FIG. These behavior control programs are identified by the application ID. The first robot 100 may instruct the second robot 100 which action control program to start by transmitting an operation command X specifying an application ID to the second robot 100. Then, when the second robot 100 returns the acceptance signal, the first robot 100 may also start the same action control program. As described above, the robot 100 is equipped with an action selection program (application program) that defines an action selection method based on a specific rule as well as a basic motion, and a start instruction from one to another ( An operation command as an invitation for play) may be transmitted.

装身具140と、行動選択プログラムはセット販売されてもよい。たとえば、装身具140にアプリケーションIDを対応づけておき、装身具140の購入者が所定のサーバにアクセスしてアプリケーションIDを入力すると、このサーバからロボット100にアプリケーションIDに対応する行動選択プログラムがダウンロードされるとしてもよい。このような態様によれば、装身具140を購入することでロボット100の行動パターンを豊かにできるため、装身具140を集めてロボット100にいろいろな行動を覚えさせる楽しみを提供できる。 The accessory 140 and the action selection program may be sold as a set. For example, when the accessory 140 is associated with the application ID and the purchaser of the accessory 140 accesses a predetermined server and inputs the application ID, the action selection program corresponding to the application ID is downloaded from the server to the robot 100. May be According to this aspect, since the behavior pattern of the robot 100 can be enriched by purchasing the accessory 140, it is possible to collect the accessory 140 and provide the robot 100 with the joy of learning various behaviors.

ロボット100は、外部ロボット100を視認できたときに限り、外部ロボット100との近距離無線通信を実行してもよい。具体的には、ロボット100のロボット検出部152は、カメラにより外部ロボット100を撮像し、外部ロボット100を画像認識できた状態にて、外部ロボット100からロボット情報等を受信したときに限り、外部ロボット100の位置および向きを特定してもよい。また、動作制御部150は、外部ロボット100を画像認識できたときに限り、外部ロボット100から動作命令Xを受け入れるとしてもよい。動作制御部150はカメラにより認識した外部ロボット100の存在する方向と、第2通信部134により認識した外部ロボット100の存在する方向が一致しなければ、外部ロボット100からの動作命令Xを無視するとしてもよい。このような制御方法によれば、自ロボット100は、視認できた外部ロボット100のみと近距離無線通信を行うため、外部ロボット100以外からの近距離無線通信に対して不必要・不自然な反応行動を実行しなくなる。ロボット100は、装身具140についても、装身具140の視認を条件として装身具140からの動作命令Xを受け入れるとしてもよい。動作命令は、ロボット100の間のいわば「テレパシー」のように機能する。上記制御方法によれば、目の前にいる外部ロボット100からの動作命令(テレパシー)しか受け入れない、というより堅実な行動特性を表現できる。 The robot 100 may perform short-range wireless communication with the external robot 100 only when the external robot 100 can be visually recognized. Specifically, the robot detection unit 152 of the robot 100 captures an image of the external robot 100 with a camera, and only when the robot information is received from the external robot 100 in a state where the external robot 100 can be image-recognized. The position and orientation of the robot 100 may be specified. Further, the motion control unit 150 may accept the motion command X from the external robot 100 only when the external robot 100 can be image-recognized. If the direction in which the external robot 100 recognized by the camera exists and the direction in which the external robot 100 recognized by the second communication unit 134 does not match, the operation control unit 150 ignores the operation command X from the external robot 100. May be According to such a control method, the own robot 100 performs short-distance wireless communication only with the visible external robot 100, and thus unnecessary and unnatural reaction to short-distance wireless communication from other than the external robot 100. Stop taking action. Regarding the accessory 140, the robot 100 may accept the operation command X from the accessory 140 on condition that the accessory 140 is visually recognized. The operation command functions like “telepathy” between the robots 100. According to the control method, it is possible to express a more solid behavior characteristic that only the operation command (telepathy) from the external robot 100 in front of the user is accepted.

動作制御部150は、外部ロボット100を画像認識したときには外部ロボット100に近づき、近距離無線通信によりロボットIDを確認してもよい。ロボット100は、通常、IrDA(登録商標)の通信範囲外から外部ロボット100を視認できる。このような制御方法によれば、遠方から外部ロボット100を確認し、近づいてその素性を確かめるという行動特性を表現できる。 When the image of the external robot 100 is recognized, the operation control unit 150 may approach the external robot 100 and confirm the robot ID by short-range wireless communication. The robot 100 can normally see the external robot 100 from outside the communication range of IrDA (registered trademark). According to such a control method, it is possible to express an action characteristic of confirming the external robot 100 from a distance and confirming its identity by approaching.

本実施形態においては、ロボット情報および動作命令をIrDA(登録商標)により送受信するとして説明した。変形例として、第2通信部134は、超音波通信やNFC (Near Field Communication)、ブルートゥース(登録商標)など他の近距離無線通信方式により、外部ロボット100や装身具140と通信してもよい。 In this embodiment, the robot information and the operation command are described as being transmitted and received by IrDA (registered trademark). As a modification, the second communication unit 134 may communicate with the external robot 100 or the accessory 140 by another short-range wireless communication method such as ultrasonic communication, NFC (Near Field Communication), or Bluetooth (registered trademark).

ロボット100は、IrDA信号等により、室内にある家電をコントロールしてもよい。たとえば、ロボット100はユーザから「エアコン・オン」という音声指示を受けたとき、エア・コンディショナーに対して電源投入信号を送信することにより、ユーザの代わりにエア・コンディショナーの起動を指示してもよい。 The robot 100 may control home electric appliances in the room by an IrDA signal or the like. For example, when the robot 100 receives a voice instruction “air conditioner on” from the user, the robot 100 may send a power-on signal to the air conditioner to instruct activation of the air conditioner on behalf of the user. ..

装身具140は、ユーザが携帯可能な物品(携帯品)であればよい。たとえば、装身具140は、ピアス、携帯電話、スマートフォン、ストラップ、キーホルダー、指輪、お守りなどであってもよい。装身具140は、同時に複数の動作命令を送信してもよい。たとえば、進入禁止命令と着座命令を同時に送信してもよい。装身具140は、動作命令を複数方向に同時に送信してもよいし、無指向性の電波にて動作命令を送信してもよい。 The accessory 140 may be an article (portable item) that the user can carry. For example, the accessory 140 may be a piercing, a mobile phone, a smartphone, a strap, a key chain, a ring, an amulet, or the like. The accessory 140 may transmit a plurality of operation commands at the same time. For example, the entry prohibition command and the sitting command may be transmitted at the same time. The accessory 140 may transmit an operation command in a plurality of directions at the same time, or may transmit the operation command by an omnidirectional radio wave.

本実施形態においては、送信機158と受信機168は、ツノ112に設置されるとして説明した。変形例として、送信機158と受信機168はロボット100の頭部に設置されてもよいし、胸部や腹部に設置されてもよい。いずれにしても、通信機配置面GはFに対して略水平(Fに対する傾斜角が30度以内)であることが望ましい。 In the present embodiment, the transmitter 158 and the receiver 168 have been described as being installed in the horn 112. As a modification, the transmitter 158 and the receiver 168 may be installed on the head of the robot 100, or may be installed on the chest or abdomen. In any case, it is desirable that the communication device placement surface G be substantially horizontal with respect to F (the inclination angle with respect to F is within 30 degrees).

(装身具140に関する第1変形例)
装身具140は、ロボット100との通信機能を備える誘導装置として、たとえば、魔法の杖あるいは指揮棒を模した棒状物として形成されてもよい。具体的には、装身具140は、ユーザが把持・操作する部位である把持部と、把持部に連結されるスティック(延伸部材)を備える。スティックの先端には発光部が取り付けられる。
(First modified example of accessory 140)
The accessory 140 may be formed as a guide device having a communication function with the robot 100, for example, a stick-shaped object imitating a magic wand or a baton. Specifically, the accessory 140 includes a grip portion that is a portion that the user grips and operates, and a stick (stretching member) that is connected to the grip portion. A light emitting unit is attached to the tip of the stick.

把持部はスイッチを備える。また、把持部にはバッテリーが内蔵される。ユーザはスイッチを操作することで、複数のモードからいずれかを選択する。複数のモードは、たとえば、離れた場所にいるロボットを呼び寄せるモード(以下、「呼び寄せモード」とよぶ)、スティックを使いロボットを動かして遊ぶモード(以下、「誘導モード」とよぶ)、あたかもロボットにリード(ひも)をつなげているように散歩するモード(以下、「散歩モード」とよぶ)などである。指示選択部172は、スイッチの操作に応じて、これらのモードおよびその時のスティックの動かし方に応じて動作命令を選択する。 The grip part includes a switch. Further, a battery is built in the grip portion. A user operates a switch to select one of a plurality of modes. The multiple modes are, for example, a mode in which a robot at a remote place is called (hereinafter called "calling mode"), a mode in which the robot is moved by using a stick (hereinafter called "guidance mode"), For example, there is a mode for taking a walk as if leads (strings) are connected (hereinafter referred to as "walking mode"). The instruction selection unit 172 selects an operation instruction in accordance with these modes and how to move the stick at that time in response to the switch operation.

発光部(先端部)は、通信に用いる赤外線LEDにより発光可能に形成される。発光部は、赤外線を通信に用いる送信部144および受信部170を内蔵する。発光部(先端部)には、先端部の動きを計測するための加速度センサ、および、可視光のLEDも設けられる。また、装身具140には固有の識別番号が付与され、識別番号は装身具140の内蔵メモリに登録される。 The light emitting portion (tip portion) is formed to be able to emit light by an infrared LED used for communication. The light emitting unit includes a transmitter 144 and a receiver 170 that use infrared rays for communication. The light emitting portion (tip portion) is also provided with an acceleration sensor for measuring the movement of the tip portion and a visible light LED. A unique identification number is given to the accessory 140, and the identification number is registered in the built-in memory of the accessory 140.

装身具140は、リンク形成部を含む。このリンク形成部は、装身具140の識別番号をロボット100に通知し、ロボット100との接続を確立する。以下、ロボット100が装身具140の識別番号を通知された上で、その装身具140との接続が確立した状態を「リンク状態」とよぶ。ロボット100がリンク状態にあるとき、リンク対象となる装身具140からの動作命令を受け付け可能となる。装身具140は、ロボット100と接続が確立された後、各種動作命令とともにその識別番号も送信する。ロボット100は、動作命令とともに受信した識別番号が、リンク対象の装身具140の識別番号(リンク先として登録済みの識別番号)と一致したとき、動作命令にしたがう。動作命令とともに受信した識別番号が、リンク対象の装身具140の識別番号と異なるときには、動作命令を無視する。リンクするとは、ロボット100が装身具140からの指示にしたがうことを意味する。 The accessory 140 includes a link forming portion. The link forming unit notifies the robot 100 of the identification number of the accessory 140 and establishes a connection with the robot 100. Hereinafter, the state in which the robot 100 is notified of the identification number of the accessory 140 and the connection with the accessory 140 is established is referred to as a “link state”. When the robot 100 is in the linked state, it is possible to receive an operation command from the accessory 140 to be linked. After the connection with the robot 100 is established, the accessory 140 also transmits its identification number together with various operation commands. The robot 100 follows the operation command when the identification number received together with the operation command matches the identification number of the accessory 140 to be linked (the identification number registered as the link destination). When the identification number received together with the operation command is different from the identification number of the accessory 140 to be linked, the operation command is ignored. Linking means that the robot 100 follows an instruction from the accessory 140.

リンク形成部は、NFCなどの近距離無線通信を用いてロボット100と通信する。たとえば、装身具140をロボット100に接触させることで互いの近距離無線通信手段を用いてリンクを確立してもよい。また、リンクの確立後、装身具140をロボット100に再接触させたとき、ロボット100はリンク対象の装身具140の登録されている識別番号を消去し、これによりリンク状態を解消してもよい。また、既にリンク状態にあるロボット100は、リンク対象ではない別の装身具140に接触された場合、この新たな装身具140の識別番号を上書き登録する。このとき、既存のリンク状態は解消され、新たに接触された装身具140とのリンクが確立される。ロボット100は、所定の期間が経過した後、リンク状態を自動的に解消してもよい。ロボット100は、装身具140から最後に動作命令を受信した時点から、所定の期間が経過した後、リンク状態を自動的に解消してもよい。 The link forming unit communicates with the robot 100 using short-range wireless communication such as NFC. For example, the accessory 140 may be brought into contact with the robot 100 to establish a link using mutual short-range wireless communication means. When the accessory 140 is brought into contact with the robot 100 again after the link is established, the robot 100 may delete the registered identification number of the accessory 140 to be linked, thereby canceling the linked state. When the robot 100 already in the linked state is contacted with another accessory 140 that is not a link target, the robot 100 overwrites and registers the identification number of the new accessory 140. At this time, the existing link state is canceled and the link with the accessory 140 newly contacted is established. The robot 100 may automatically cancel the link state after a predetermined period has elapsed. The robot 100 may automatically cancel the link state after a predetermined period has elapsed from the time when the operation instruction was last received from the accessory 140.

発光部(先端部)に内蔵される加速度センサは、先端部の動き(速度、加速度および移動方向)を検出する。誘導モードにおいては、ユーザがスティックを動かすことで、先端部の軌跡に応じた動作命令が選択される。たとえば、スティックをロボットの周りで円を描くように動かせば、その動きを追うように指示する動作命令が選択される。また、スティックを手前から目的の方向に振れば、振られた方向に移動させる動作命令が選択される。 An acceleration sensor built in the light emitting portion (tip portion) detects movement of the tip portion (speed, acceleration and moving direction). In the guidance mode, the user moves the stick to select an operation command according to the trajectory of the tip. For example, if the stick is moved in a circle around the robot, a motion command instructing to follow the motion is selected. If the stick is shaken in the desired direction from the front side, an operation command for moving in the shaken direction is selected.

呼び寄せモードの場合、装身具140は、送信部144の通信可能範囲よりも遠くまで無線通信ができる通信手段を用いて、リンクが確立されているロボット100に「探索」を指示する。たとえば、装身具140は、Bluetooth(登録商標)によるブロードキャストにより探索指示を送信し、更に発光部から赤外線通信を使って装身具140に近づくように指示する動作命令をロボット100に送信する。ロボット100が、装身具140の近くに到達すると、ロボット100は装身具140の受信部170に向けて到達を意味する信号(「到達通知」とよぶ)を送信する。到達通知を受信した後、装身具140は、呼び寄せが完了したとして、探索指示の送信を停止する。 In the call-in mode, the accessory 140 uses the communication means capable of wireless communication farther than the communicable range of the transmitter 144 to instruct the robot 100 having a link to “search”. For example, the accessory 140 transmits a search instruction by broadcasting by Bluetooth (registered trademark), and further transmits an operation command for instructing the robot 100 to approach the accessory 140 using infrared communication from the light emitting unit. When the robot 100 reaches the vicinity of the accessory 140, the robot 100 transmits a signal indicating arrival (called “arrival notification”) to the receiving unit 170 of the accessory 140. After receiving the arrival notification, the accessory 140 determines that the calling has been completed and stops transmitting the search instruction.

装身具140は、NFCなどの極めて近い範囲の無線通信手段(以下、「第1無線通信手段」とよぶ)と、第1無線通信手段より通信範囲が広い近距離の無線通信手段(以下、「第2無線通信手段」とよぶ)と、第2無線通信手段より通信範囲が広い無線通信手段とを備える。装身具140は、モードに応じて、適切な通信手段を切り替えてロボット100と通信する。 The accessory 140 includes a wireless communication means in an extremely close range such as NFC (hereinafter referred to as “first wireless communication means”) and a short-range wireless communication means having a wider communication range than the first wireless communication means (hereinafter, referred to as “first wireless communication means”). and referred to as a second wireless communication unit "), and a communication range is wide wireless a communication vehicle than the second wireless communication means. The accessory 140 switches an appropriate communication means according to the mode and communicates with the robot 100.

散歩モードの場合、装身具140は発光部から「追従」を指示するための動作命令をロボット100に送信する。装身具140とロボット100の距離は比較的近いので、第2無線通信手段が用いられる。追従を指示する動作命令を受信すると、ロボット100は、その装身具140との距離をほぼ一定に保ちながらユーザ(装身具140)に追従して移動する。装身具140の把持部は、ロボット100が見えないリードで装身具140と繋がっているかのような触覚を実現するための触覚実現部(バイブレータなど)を備える。 In the walk mode, the accessory 140 transmits an operation command for instructing “follow” from the light emitting unit to the robot 100. Since the distance between the accessory 140 and the robot 100 is relatively short, the second wireless communication means is used. Upon receiving the operation command instructing the follow-up, the robot 100 moves following the user (the accessory 140) while keeping the distance to the accessory 140 substantially constant. The grip of the accessory 140 includes a tactile sense realizing unit (a vibrator or the like) for realizing a tactile sensation as if the robot 100 is connected to the accessory 140 by a lead that cannot be seen.

触覚実現部は、触覚技術やハプティクスと呼ばれる技術により、ユーザの手の触覚を刺激する。触覚実現部は、ロボット100の追従状態に連動して、ロボット100に引っ張られている触覚や、ロボット100が左右に動いている触覚を実現する。たとえば、ロボット100が右に反れるような動きをした際、それに連動して、触覚実現部が右に引っ張られる触覚を実現する。ロボット100の通信部は、追従状態を変化するタイミングで、その変化の内容を特定する情報(以下、「運動情報」とよぶ)を、装身具140に向けて送信する。触覚実現部は、運動情報に応じて、触覚を実現する。運動情報が「右へ移動」を意味するものであれば、触覚実現部は右へ引っ張られているような感覚が得られるように把持部を介してユーザの手を刺激する。 The tactile sense realization unit stimulates the tactile sense of the user's hand using a tactile technique or a technique called haptics. The tactile sense realizing unit realizes a tactile sense that is pulled by the robot 100 and a tactile sense that the robot 100 is moving left and right in association with the following state of the robot 100. For example, when the robot 100 moves to the right, the tactile sense realizing unit realizes a tactile sense that is pulled to the right in conjunction with the movement. The communication unit of the robot 100 transmits information specifying the content of the change (hereinafter referred to as “exercise information”) toward the accessory 140 at the timing of changing the tracking state. The tactile sense realization unit realizes a tactile sense according to the motion information. If the motion information means “move to the right”, the tactile sense realization unit stimulates the user's hand via the gripping unit so as to obtain the sensation of being pulled to the right.

スイッチが操作されていない場合、ロボット100は、リンク状態であっても、自律的に動作できる。装身具140とロボット100のリンクが確立したとき、触覚実現部および可視光LEDはリンクの確立をユーザに通知してもよい。たとえば、リンクが確立したとき、触覚実現部は特定の振動パターンにて把持部を振動させてもよいし、可視光LEDは特定色にて点灯・点滅をしてもよい。同様にして、触覚実現部および可視光LEDの双方または一方は、装身具140の電源のオン・オフ、動作命令の送信、送信した動作命令の種類等の各種情報をユーザに通知してもよい。 When the switch is not operated, the robot 100 can operate autonomously even in the linked state. When the link between the accessory 140 and the robot 100 is established, the haptic realization unit and the visible light LED may notify the user of the establishment of the link. For example, when the link is established, the haptic realization unit may vibrate the gripping unit in a specific vibration pattern, or the visible light LED may be lit/blinking in a specific color. Similarly, one or both of the tactile sense realizing unit and the visible light LED may notify the user of various information such as power on/off of the accessory 140, transmission of an operation command, and type of the transmitted operation command.

(装身具140に関する第2変形例)
把持部のスイッチが押されたとき、発光部(先端部)に内蔵される送信部144は、指向性のあるリンク信号を送信してもよい。ユーザが、装身具140の発光部(先端部)を操作対象のロボット100に向けてリンク信号を送信し、ロボット100がリンク信号を受信したとき、ロボットは「リンク状態」となる。リンク状態となったロボット100は、以後、装身具140から送信される動作命令にしたがう。ユーザはロボット100をリンクさせたあと、装身具140の発光部(先端部)を動かすことでロボット100を催眠術にかけたかのようにコントロールできる。
(Second modified example of accessory 140)
When the switch of the grip portion is pressed, the transmitter 144 incorporated in the light emitting portion (tip portion) may transmit a directional link signal. When the user transmits a link signal by directing the light emitting portion (tip portion) of the accessory 140 toward the operation target robot 100 and the robot 100 receives the link signal, the robot is in the “link state”. The robot 100 in the linked state subsequently follows the operation command transmitted from the accessory 140. After linking the robot 100, the user can control the robot 100 as if it had been subjected to hypnosis by moving the light emitting portion (tip portion) of the accessory 140.

たとえば、スイッチを押した状態で装身具140の発光部(先端部)を空中で周回させると、指示選択部172は発光部(先端部)に内蔵される加速度センサにより周回運動および速度を検出し、ロボット100に対して円運動を指示する動作命令を送信する。リンク状態にあるロボット100は動作命令を受信したとき、地上を周回する。ロボット100の周回半径および移動速度は、装身具140の周回半径と周回速度に連動する。動作命令には、周回半径および周回速度を指定する情報が含まれる。 For example, when the light emitting part (tip part) of the accessory 140 is circulated in the air while the switch is pressed, the instruction selection part 172 detects the orbital motion and speed by the acceleration sensor built in the light emitting part (tip part), An operation command for instructing a circular motion is transmitted to the robot 100. When the robot 100 in the linked state receives the operation command, it orbits the ground. The orbiting radius and moving speed of the robot 100 are linked to the orbiting radius and the orbiting speed of the accessory 140. The operation command includes information designating the orbiting radius and the orbiting speed.

また、ユーザがスイッチを押していない状態で装身具140を持って動くと、リンク状態にあるロボット100は装身具140(ユーザ)を追いかける。スイッチが押されていないとき、送信部144は、定期的に「追従」を指示する動作信号をリンク対象のロボット100に送信する。 When the user holds the accessory 140 while not pressing the switch, the robot 100 in the linked state follows the accessory 140 (user). When the switch is not pressed, the transmission unit 144 periodically transmits an operation signal instructing "following" to the link target robot 100.

発光部(先端部)は、スティックの軸方向にリンク信号を送信する送信部144と、半径方向に動作信号を送信する複数の送信部144を内蔵してもよい。追従動作中においては、ロボット100は一定距離を保ちながらユーザ(装身具140)を追いかける。このとき、ロボット100は、内蔵の赤外線LEDを発光させることにより、「リードによって連れて行かれている」状態にあることを表現してもよい。発光部は、ロボットとリンクしているとき、あるいは、スイッチが押されているときに発光するとしてもよい。 The light emitting part (tip part) may include a transmitter 144 for transmitting a link signal in the axial direction of the stick and a plurality of transmitters 144 for transmitting an operation signal in the radial direction. During the following operation, the robot 100 follows the user (accessories 140) while keeping a certain distance. At this time, the robot 100 may express that the robot 100 is in the "accompanied by the lead" state by causing the built-in infrared LED to emit light. The light emitting unit may emit light when linked to the robot or when a switch is pressed.

ユーザは、送信部144により1つのロボット100をコントロールしてもよいし、複数のロボット100をまとめてコントロールしてもよい。たとえば、ユーザは、操作対象となる複数のロボット100に対して順次リンクを確立することにより、複数のロボット100をリンク状態にしてもよい。このとき、ユーザは、不特定多数のロボット100に対してまとめて動作命令の送信を指示してもよい。 The user may control one robot 100 by the transmission unit 144, or may collectively control a plurality of robots 100. For example, the user may set the plurality of robots 100 in the linked state by sequentially establishing links to the plurality of robots 100 to be operated. At this time, the user may instruct the unspecified number of robots 100 to collectively transmit the operation command.

Claims (16)

他のロボットから所定の近距離無線通信方式を介して受信した信号に基づいて、前記他
のロボットのIDおよび前記他のロボットの自ロボットに対する向きを認識するロボット
検出部と、
前記受信されたIDにより、前記他のロボットを判別する認識部と、を備えることを特
徴とするロボット。
A robot detection unit that recognizes the ID of the other robot and the direction of the other robot with respect to the own robot based on a signal received from the other robot via a predetermined short-range wireless communication system,
And a recognition unit that discriminates the other robot based on the received ID.
ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、を更に備えること
を特徴とする請求項1に記載のロボット。
A motion control unit that selects the motion of the robot,
The robot according to claim 1, further comprising: a drive mechanism that executes a motion selected by the motion control unit.
前記動作制御部は、前記IDが受信されたとき、自ロボットの行動特性を変化させるこ
とを特徴とする請求項2に記載のロボット。
The robot according to claim 2, wherein the operation control unit changes the behavior characteristic of the robot itself when the ID is received.
前記動作制御部は、前記受信されたIDが未登録IDであることを条件として、前記未
登録IDの検出事象に対応づけられる所定のモーションを選択することを特徴とする請求
項3に記載のロボット。
The said operation control part selects the predetermined motion matched with the detection event of the said unregistered ID on condition that the received ID is an unregistered ID. robot.
前記ロボット検出部は、さらに、複数の前記信号に基づいて、前記他のロボットが存在
する方向を特定
前記動作制御部は、前記他のロボットのIDが検出されたとき、前記特定された方向に
応じて自ロボットの行動特性を変化させることを特徴とする請求項3に記載のロボット。
The robot detection unit further based on the plurality of front relaxin No. to identify the direction in which the other robot exists,
The robot according to claim 3, wherein, when the ID of the other robot is detected, the motion control unit changes the action characteristic of the robot itself according to the specified direction.
前記他のロボットから、動作命令を受信する受信機を備え、
前記動作制御部は、前記動作命令が受信されたとき、前記動作命令に対応づけられる所
定のアプリケーション・プログラムを起動することを特徴とする請求項2に記載のロボッ
ト。
From the other robots, comprising a receiver for receiving the operation instruction,
The robot according to claim 2, wherein, when the operation command is received, the operation control unit activates a predetermined application program associated with the operation command.
他のロボットに対する親密度を管理する親密度管理部、を更に備え、
前記親密度管理部は、前記IDが受信されたとき、前記他のロボットの親密度を更新す
ることを特徴とする請求項2に記載のロボット。
The robot further includes an intimacy management unit that manages intimacy with other robots,
The robot according to claim 2, wherein the intimacy degree management unit updates the intimacy degree of the other robot when the ID is received.
前記動作制御部は、前記親密度が所定の閾値以下の他のロボットからIDが受信された
とき、前記他のロボットから離れる方向への移動を前記駆動機構に指示することを特徴と
する請求項7に記載のロボット。
The operation control unit may instruct the drive mechanism to move in a direction away from the other robot when an ID is received from the other robot whose intimacy degree is equal to or lower than a predetermined threshold value. The robot according to 7.
ユーザの携帯品から所定の近距離無線通信方式にしたがって送信される動作命令を受信
する受信機を備え、
前記動作制御部は、前記動作命令が受信されたとき、前記動作命令に対応するモーショ
ンを選択することを特徴とする請求項2に記載のロボット。
Receives operation commands transmitted from the user's mobile device according to a specified short-range wireless communication method
Equipped with a receiver to
The robot according to claim 2, wherein the motion control unit selects a motion corresponding to the motion command when the motion command is received.
前記動作命令が受信されたとき、前記動作命令を他のロボットに向けて送信する送信機
、を更に備えることを特徴とする請求項9に記載のロボット。
The robot according to claim 9, further comprising a transmitter that transmits the operation command to another robot when the operation command is received.
自ロボットのIDを前記近距離無線通信方式にしたがって送信する送信機、を更に備え
ることを特徴とする請求項1に記載のロボット。
The robot according to claim 1, further comprising: a transmitter that transmits the ID of the robot itself according to the short-range wireless communication system.
請求項9に記載のロボットに対して、当該携帯品のIDを送信することにより、ロボッ
トとのリンクを確立するリンク形成部と、
リンクの確立後、所定の近距離無線通信方式にしたがって、リンク先のロボットに動作
命令を送信する送信機と、を備えることを特徴とする携帯品。
A link forming unit that establishes a link with the robot by transmitting the ID of the portable item to the robot according to claim 9.
A portable article, comprising: a transmitter that transmits an operation command to a linked robot after a link is established according to a predetermined short-range wireless communication method.
請求項9に記載のロボットから、前記ロボットのIDを受信する受信機、を更に備え、
前記送信機は、前記ロボットのIDを受信したことを条件として前記動作命令を送信す
ることを特徴とする請求項12に記載の携帯品。
A receiver for receiving the ID of the robot from the robot according to claim 9, further comprising:
The portable device according to claim 12, wherein the transmitter transmits the operation command on condition that the ID of the robot is received.
前記送信機は、前記近距離無線通信方式にしたがって、前記動作命令を所定範囲内にお
いて複数方向に送信することを特徴とする請求項12に記載の携帯品。
The portable device according to claim 12, wherein the transmitter transmits the operation command in a plurality of directions within a predetermined range according to the short-range wireless communication system.
前記リンク形成部は、携帯品とロボットが接触したことを条件として当該携帯品のID
を送信することにより、ロボットとのリンクを確立することを特徴とする請求項12に記
載の携帯品。
The link forming unit determines the ID of the portable item on condition that the portable item and the robot are in contact with each other.
13. The portable item according to claim 12, wherein a link with the robot is established by transmitting the message.
他のロボットから、所定の近距離無線通信方式を介して受信した信号に基づいて、前記
他のロボットのIDおよび前記他のロボットの自ロボットに対する向きを認識する機能と、
前記受信されたIDにより、前記他のロボットを判別する機能と、をコンピュータに発
揮させることを特徴とするロボット制御プログラム。
A function of recognizing an ID of the other robot and a direction of the other robot with respect to the own robot based on a signal received from the other robot via a predetermined short-range wireless communication system;
A robot control program for causing a computer to exhibit the function of discriminating the other robot based on the received ID.
JP2019517713A 2017-05-11 2018-05-11 Robots, portable items and robot control programs Active JP6734607B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017094435 2017-05-11
JP2017094435 2017-05-11
PCT/JP2018/018287 WO2018207908A1 (en) 2017-05-11 2018-05-11 Autonomous behavior-type robot, accessory, and robot control program

Publications (2)

Publication Number Publication Date
JPWO2018207908A1 JPWO2018207908A1 (en) 2019-11-07
JP6734607B2 true JP6734607B2 (en) 2020-08-05

Family

ID=64104804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019517713A Active JP6734607B2 (en) 2017-05-11 2018-05-11 Robots, portable items and robot control programs

Country Status (2)

Country Link
JP (1) JP6734607B2 (en)
WO (1) WO2018207908A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210026595A (en) * 2019-08-30 2021-03-10 엘지전자 주식회사 Method of moving in administrator mode and robot of implementing thereof
TWI742644B (en) * 2020-05-06 2021-10-11 東元電機股份有限公司 Following mobile platform and method thereof
CN112677161A (en) * 2020-12-14 2021-04-20 西安新程万创信息技术有限公司 A intelligent robot for financial consultation uses
KR20230012124A (en) * 2021-07-14 2023-01-26 엘지전자 주식회사 Moving robot, docking station and robot system including the same

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2679346B2 (en) * 1990-03-28 1997-11-19 神鋼電機株式会社 Charging control method for mobile robot system
JP2001179665A (en) * 1999-12-24 2001-07-03 Toshiba Corp Intelligent robot
JP2001212782A (en) * 2000-01-31 2001-08-07 Sony Corp Robot device and control method for robot device
JP4505998B2 (en) * 2001-02-02 2010-07-21 ソニー株式会社 Mobile robot and data communication control method between mobile robots
JP2003140710A (en) * 2001-10-29 2003-05-16 Sony Corp Information home electrical appliance control system, database server, information home electrical appliance, and information home electrical appliance control method
JP2007160473A (en) * 2005-12-15 2007-06-28 Fujitsu Ltd Interactive object identifying method in robot and robot
JP2009050970A (en) * 2007-08-28 2009-03-12 Nec Access Technica Ltd Robot system and rescue robot
JP5282457B2 (en) * 2008-06-23 2013-09-04 富士通株式会社 Rescue robot system, rescue method, and rescue robot

Also Published As

Publication number Publication date
JPWO2018207908A1 (en) 2019-11-07
WO2018207908A1 (en) 2018-11-15

Similar Documents

Publication Publication Date Title
JP6884401B2 (en) Autonomous robot wearing clothes
JP6734607B2 (en) Robots, portable items and robot control programs
JP6467674B2 (en) Autonomous robot that understands skinship
JP6402320B2 (en) An autonomous behavioral robot
JP6472113B2 (en) Autonomous robots and programs that maintain a natural sense of distance
WO2017169826A1 (en) Autonomous behavior robot that performs welcoming behavior
WO2018012446A1 (en) Autonomous acting robot of which activity is controlled
WO2018043235A1 (en) Autonomous behavior type robot recognizing direction of sound source
JP7236142B2 (en) Autonomous action robot
JP6671577B2 (en) An autonomous robot that identifies people
JP6409209B2 (en) Autonomous robot for coolness
JP7055402B2 (en) Autonomous behavior robot that accepts guests
JP2018192559A (en) Autonomous mobile robot detecting touch to body of curved surface shape

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190604

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190604

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190604

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200707

R150 Certificate of patent or registration of utility model

Ref document number: 6734607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RG99 Written request for provisional registration

Free format text: JAPANESE INTERMEDIATE CODE: R313G99

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250