JP2013099800A - Robot, method for controlling robot, and control program - Google Patents

Robot, method for controlling robot, and control program Download PDF

Info

Publication number
JP2013099800A
JP2013099800A JP2011243570A JP2011243570A JP2013099800A JP 2013099800 A JP2013099800 A JP 2013099800A JP 2011243570 A JP2011243570 A JP 2011243570A JP 2011243570 A JP2011243570 A JP 2011243570A JP 2013099800 A JP2013099800 A JP 2013099800A
Authority
JP
Japan
Prior art keywords
robot
person
motor
human
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011243570A
Other languages
Japanese (ja)
Inventor
Toshitomo Kaneoka
利知 金岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011243570A priority Critical patent/JP2013099800A/en
Publication of JP2013099800A publication Critical patent/JP2013099800A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To use a 'call', a 'behavior' and the like for drawing person's attention and interest to a robot to suppress enforcement feeling that a human feels.SOLUTION: The robot includes: a robot body with a torso and a head to which a visual sensor is installed; a first detection unit for detecting a person around the robot body based on information obtained by the visual sensor; a first movement module for making the torso move to first movement; and a second movement module that stops the first movement for a predetermined time and makes the head move to a second movement so that the visual sensor follows the person when the first detection unit detects the person during making the torso move to the first movement.

Description

開示の技術は、人間にサービスを提供するロボット、ロボットの制御方法及び制御プログラムに関する。   The disclosed technology relates to a robot that provides services to humans, a robot control method, and a control program.

例えば、生物的態様のロボットと人間との間で親和的関係を構築するために、ロボットに、ロボットの本能や内部状態から発生する生物感を想起させる自発的な振る舞いや、人間もしくは物体を追従する視線追従を実行させることで、ロボットを擬人化する試みがなされている。   For example, in order to build an affinity relationship between a robot in a biological form and a human, the robot follows a spontaneous behavior that reminds the robot's instinct and the biological feeling that arises from the internal state, or follows a human or an object Attempts have been made to anthropomorphize the robot by performing line-of-sight tracking.

ロボットと人間との親和性を活用したサービスでは、人間の注意や興味をロボットに引き付けることが重要となる。このため、ロボットに、自身の存在に気付かせるための「呼びかけ」や「しぐさ」を実行させる技術が開発されている。   In services that utilize the affinity between robots and humans, it is important to attract human attention and interest to the robots. For this reason, technologies have been developed that allow robots to execute “calls” and “gestures” to make them aware of their existence.

特開2008−18529JP2008-18529

ところで、人間の注意や興味を引き付けるための「呼びかけ」や「しぐさ」は、人間に強制感を与え、時として人間に迷惑・邪魔といった心理を与えることがある。   By the way, “calling” and “behavior” for attracting attention and interest of human beings sometimes give humans a sense of compulsion and sometimes give humans psychology such as inconvenience and distraction.

開示の技術は、注意や興味を引き付けるための「呼びかけ」や「しぐさ」等により人間が感じる強制感を抑制するロボット装置、ロボットの制御方法及び制御プログラムを提供する。   The disclosed technology provides a robot apparatus, a robot control method, and a control program that suppress a sense of compulsion felt by a human by “calling” or “gesture” for attracting attention and interest.

開示の技術の一観点によれば、胴体部と、視覚センサが搭載される頭部と、を有するロボット本体と、前記視覚センサにより取得された情報に基づき、前記ロボット本体の周囲の人物を検知する第1の検知部と、前記胴体部に第1の動作を実行させる第1の動作モジュールと、前記胴体部に前記第1の動作を実行させているときに、前記第1の検知部が前記人物を検知した場合、事前に決められた時間だけ前記第1の動作を停止させ、かつ、前記視覚センサが前記人物を追従する様に、前記頭部に第2の動作を実行させる第2の動作モジュールと、を備えるロボットが提供される。   According to one aspect of the disclosed technology, a robot body having a body part and a head on which a visual sensor is mounted, and a person around the robot body is detected based on information acquired by the visual sensor. The first detection unit, the first operation module for causing the body part to execute a first operation, and the body part for executing the first operation. When the person is detected, the first action is stopped for a predetermined time, and the head is caused to execute the second action so that the visual sensor follows the person. And an operation module.

開示の技術によれば、ロボットに注意や興味を引き付けるための「呼びかけ」や「しぐさ」により人間が感じる強制感を抑制することができる。   According to the disclosed technology, it is possible to suppress a sense of compulsion felt by human beings by “calling” or “gesture” for attracting attention and interest to the robot.

第1の実施形態にかかるロボットの概略図である。1 is a schematic diagram of a robot according to a first embodiment. 第1の実施形態にかかるロボットのハードウェアの構成図である。It is a block diagram of the hardware of the robot concerning 1st Embodiment. 第1の実施形態にかかるコントローラの機能ブロック図である。It is a functional block diagram of the controller concerning a 1st embodiment. 第1の実施形態にかかる優先度テーブルの概略図である。It is the schematic of the priority table concerning 1st Embodiment. 第1の実施形態にかかるコントローラによる処理のフローチャートである。It is a flowchart of the process by the controller concerning 1st Embodiment. 第1の実施形態にかかるモータの動作状態を説明する概略図である。It is the schematic explaining the operation state of the motor concerning a 1st embodiment. 第1の実施形態の変形例にかかるモータの動作状態を説明する概略図である。It is the schematic explaining the operation state of the motor concerning the modification of 1st Embodiment. 第2の実施形態にかかるコントローラの機能ブロック図である。It is a functional block diagram of the controller concerning a 2nd embodiment. 第2の実施形態にかかるコントローラによる処理のフローチャートである。It is a flowchart of the process by the controller concerning 2nd Embodiment. 第3の実施形態にかかるコントローラによる処理のフローチャートである。It is a flowchart of the process by the controller concerning 3rd Embodiment. 第4の実施形態にかかるコントローラの機能ブロック図である。It is a functional block diagram of the controller concerning a 4th embodiment. 第4の実施形態にかかるコントローラによる処理のフローチャートである。It is a flowchart of the process by the controller concerning 4th Embodiment.

[第1の実施形態]
以下、図1−図6を参照しながら、第1の実施形態を説明する。
[First Embodiment]
The first embodiment will be described below with reference to FIGS.

例えば介護ロボットや教育ロボット等の、人間とのインタラクションをはかる動物型のコミュニケーションロボットは、生き物らしさ(即ち、機械的ではない動作)や、人間との触れ合い感を表現することが望まれる。   For example, animal-type communication robots that interact with humans, such as nursing robots and educational robots, are desired to express the character of creatures (that is, non-mechanical movements) and the feeling of touch with humans.

本実施形態では、これを実現するために、ロボットのアーキテクチャとして、いわゆる包摂アーキテクチャ(Subsumption Architecure)を採用する。包摂アーキテクチャは、複数の動作モジュールからの制御コマンド、例えばモータコマンドを調停して、コミュニケーションロボットに自然な動作を表現させるものである。但し、本発明は、これに限定されるものはなく、あらゆるロボットアーキテクチャにより実現しても良い。又、以下の説明は、本発明を実施するための一例に過ぎず、具体的な実施形態は、種々の態様をとりうるものとする。   In the present embodiment, in order to realize this, a so-called inclusion architecture is adopted as the robot architecture. The inclusion architecture mediates control commands from a plurality of motion modules, for example, motor commands, and causes a communication robot to express natural motion. However, the present invention is not limited to this, and may be realized by any robot architecture. The following description is only an example for carrying out the present invention, and specific embodiments can take various forms.

(ロボット10の概略構成)
図1は、第1の実施形態にかかるロボットの概略図であって、(a)はロボット10の正面、(b)はロボット10の側面、をそれぞれ示している。
(Schematic configuration of the robot 10)
1A and 1B are schematic views of the robot according to the first embodiment, in which FIG. 1A shows the front surface of the robot 10 and FIG. 1B shows the side surface of the robot 10.

図1に示すように、本実施形態にかかるロボット10は、クマ型のインタラクションロボットであって、頭11、胴体12、目13、瞼14、鼻15、口16、耳17、腕18、足19を備える。なお、頭11、目13、瞼14、鼻15、口16、耳17をまとめて頭部と呼称し、胴体12、腕18、足19をまとめて胴体部と呼称する。   As shown in FIG. 1, a robot 10 according to the present embodiment is a bear-type interaction robot, and includes a head 11, a torso 12, eyes 13, a heel 14, a nose 15, a mouth 16, ears 17, arms 18, and feet. 19 is provided. The head 11, eyes 13, heel 14, nose 15, mouth 16, and ear 17 are collectively referred to as a head, and the trunk 12, arms 18, and legs 19 are collectively referred to as a trunk.

頭11、胴体12、目13、瞼14、鼻15、口16、耳17、腕18、足19(以下、これらをまとめてロボット10の各部と呼称する)は、モータ23a、23b、23c…(後述する)の駆動力に基づき、個別に動作することができる。ロボット10の各部の動作態様は、特に限定されるものではないが、例えば、頭11は、モータ23aにより胴体12の体軸Cを中心として左右方向に回転する。   Head 11, body 12, eyes 13, eyelid 14, nose 15, mouth 16, ear 17, arm 18, leg 19 (hereinafter collectively referred to as each part of robot 10) are motors 23a, 23b, 23c,. Based on the driving force (described later), it is possible to operate individually. Although the operation mode of each part of the robot 10 is not particularly limited, for example, the head 11 is rotated in the left-right direction around the body axis C of the body 12 by the motor 23a.

(ロボット10のハードウェア)
図2は、第1の実施形態にかかるロボット10のハードウェアの構成図である。
(Robot 10 hardware)
FIG. 2 is a hardware configuration diagram of the robot 10 according to the first embodiment.

図2に示すように、本実施形態にかかるロボット10は、コントローラ21と、メモリ22と、複数のモータ23a、23b、23c…と、撮像カメラ(視覚センサ)24と、タッチセンサ25と、フラッシュメモリ26と、を備える。   As shown in FIG. 2, the robot 10 according to the present embodiment includes a controller 21, a memory 22, a plurality of motors 23a, 23b, 23c, an imaging camera (visual sensor) 24, a touch sensor 25, and a flash. And a memory 26.

コントローラ21、メモリ22、モータ23a、23b、23c…、撮像カメラ24、タッチセンサ25、フラッシュメモリ26は、例えばバス27により相互に接続されている。   The controller 21, the memory 22, the motors 23 a, 23 b, 23 c..., The imaging camera 24, the touch sensor 25, and the flash memory 26 are connected to each other by a bus 27, for example.

コントローラ21は、フラッシュメモリ26に格納された各種プログラムを読み出して、メモリ22に展開するとともに、該メモリ22に展開された各種プログラムを実行することで、後述する各種機能を実現する。   The controller 21 reads out various programs stored in the flash memory 26 and develops them in the memory 22, and implements various functions described later by executing the various programs developed in the memory 22.

メモリ22は、コントローラ21によりフラッシュメモリ26から読み出された各種プログラム、コントローラ21により各種機能が実行されるときに使用されるデータ、撮像カメラ24により取得された画像データ、などを記憶する。   The memory 22 stores various programs read from the flash memory 26 by the controller 21, data used when various functions are executed by the controller 21, image data acquired by the imaging camera 24, and the like.

モータ23a、23b、23c…は、それぞれロボット10に内蔵され、例えば頭11、胴体12、目13、瞼14、鼻15、口16、耳17、腕18、足19などを動作させる。モータ23a、23b、23c…の種類は、特に限定されるものではないが、本実施形態では、サーボモータを使用している。このため、頭11、胴体12、目13、瞼14、鼻15、口16、耳17、腕18、足19は、それぞれ指定された方向に、指定された角度だけ、指定された時間をかけて動作することができる。   The motors 23a, 23b, 23c... Are built in the robot 10 and operate, for example, the head 11, the torso 12, the eyes 13, the eyelids 14, the nose 15, the mouth 16, the ears 17, the arms 18, the legs 19, and the like. Although the kind of motor 23a, 23b, 23c ... is not specifically limited, In this embodiment, the servomotor is used. For this reason, the head 11, the torso 12, the eyes 13, the heel 14, the nose 15, the mouth 16, the ears 17, the arms 18, and the legs 19 respectively take a specified time in a specified direction by a specified angle. Can work.

なお、本実施形態では、3つのモータ23a、23b、23c…のみを図示しているが、ロボット10は、頭11、胴体12、目13、瞼14、鼻15、口16、耳17、腕18、足19などを動作させるために必要な個数のモータを備える。   In the present embodiment, only three motors 23a, 23b, 23c... Are shown. However, the robot 10 has a head 11, a torso 12, eyes 13, a heel 14, a nose 15, a mouth 16, an ear 17, an arm. 18 and the number of motors necessary for operating the legs 19 and the like are provided.

撮像カメラ24は、ロボット10の鼻15に内蔵され、鼻15の前方を撮影する。撮像カメラ24としては、例えばCCD(Charge Coupled Device Image Sensor)を用いても良い。撮像カメラ24により撮像された画像データは、それぞれの撮像時刻と対応づけられて、例えばメモリ22もしくはフラッシュメモリ26に格納される。   The imaging camera 24 is built in the nose 15 of the robot 10 and images the front of the nose 15. For example, a CCD (Charge Coupled Device Image Sensor) may be used as the imaging camera 24. Image data captured by the imaging camera 24 is associated with each imaging time and stored in, for example, the memory 22 or the flash memory 26.

タッチセンサ25は、例えばロボット10の胴体12の表面、即ち体表に相当する位置に配置され、例えば人間によりタッチされたことを検知する。タッチセンサ25としては、例えば圧力センサを用いても良い。   The touch sensor 25 is disposed, for example, at a position corresponding to the surface of the body 12 of the robot 10, that is, the body surface, and detects that it is touched by, for example, a human. For example, a pressure sensor may be used as the touch sensor 25.

フラッシュメモリ26は、ロボット10の動作を制御するための各種プログラムを記憶する。なお、本実施形態では、フラッシュメモリ26を使用しているが、各種プログラムを記憶できる不揮発性メモリであれば、これに限定されるものではない。   The flash memory 26 stores various programs for controlling the operation of the robot 10. Although the flash memory 26 is used in the present embodiment, the present invention is not limited to this as long as it is a nonvolatile memory that can store various programs.

(コントローラ21の機能ブロック図)
図3は、第1の実施形態にかかるコントローラ21の機能ブロック図である。
(Functional block diagram of controller 21)
FIG. 3 is a functional block diagram of the controller 21 according to the first embodiment.

図3に示すように、本実施形態にかかるコントローラ21は、第1の動作モジュール211と、第2の動作モジュール212と、第3の動作モジュール213と、第4の動作モジュール214と、モータ駆動部(動作駆動部)215と、モータコマンド制御部(動作制御部)216と、顔検知部(第1の検知部)217と、注意/興味判断部(第2の検知部)218と、接触検知部219と、時刻管理部220と、電源管理部221と、目的設定部222と、を備える。   As shown in FIG. 3, the controller 21 according to the present embodiment includes a first operation module 211, a second operation module 212, a third operation module 213, a fourth operation module 214, and a motor drive. Unit (motion drive unit) 215, motor command control unit (motion control unit) 216, face detection unit (first detection unit) 217, attention / interest judgment unit (second detection unit) 218, contact A detection unit 219, a time management unit 220, a power management unit 221, and a purpose setting unit 222 are provided.

第1の動作モジュール211、第2の動作モジュール212、第3の動作モジュール213、第4の動作モジュール214、モータ駆動部215、モータコマンド制御部216、顔検知部217、注意/興味判断部218、接触検知部219、時刻管理部220、電源管理部221、目的設定部222は、何れもメモリ22に展開された制御プログラムに基づき、コントローラ21により実現される。   First operation module 211, second operation module 212, third operation module 213, fourth operation module 214, motor drive unit 215, motor command control unit 216, face detection unit 217, attention / interest determination unit 218 The contact detection unit 219, the time management unit 220, the power management unit 221, and the purpose setting unit 222 are all realized by the controller 21 based on a control program developed in the memory 22.

第1の動作モジュール211は、電源管理部221から電源投入情報が通知された場合、ロボット10に、いわゆる自発動作を実行させるための第1のモータコマンドを生成する。   When the power-on information is notified from the power management unit 221, the first motion module 211 generates a first motor command for causing the robot 10 to execute a so-called spontaneous operation.

自発動作は、人間がロボット10の周囲に来訪するまでの待機時間に実行される、例えば生き物らしさや、人間との触れ合いを演出するための動作である。自発動作の態様は、特に限定されるものではないが、少なくとも頭11、胴体12、目13、瞼14、鼻15、口16、耳17、腕18、足19の少なくとも1つを動作させる態様とされる。   Spontaneous movement is performed during the waiting time until a human visits the surroundings of the robot 10, for example, an action for directing the appearance of living creatures or human contact. The mode of spontaneous movement is not particularly limited, but is a mode in which at least one of head 11, body 12, eyes 13, eyelid 14, nose 15, mouth 16, ear 17, arm 18, and foot 19 is operated. It is said.

第1のモータコマンドは、事前に設定された自発動作の動作シーケンス(以下、第1の動作シーケンスとする)を実現する複数のモータコマンドを含み、複数のモータコマンドを、それぞれの開始時刻順にモータ駆動部215からモータ23a、23b、23c…に通知することで、ロボット10に自発動作を実行させる。   The first motor command includes a plurality of motor commands that realize a preset operation sequence of spontaneous operation (hereinafter referred to as a first operation sequence), and the plurality of motor commands are arranged in the order of their start times. By notifying the motors 23a, 23b, 23c,... From the drive unit 215, the robot 10 is caused to perform a spontaneous operation.

なお、第1の動作モジュール211は、ロボット10の内部状態もしくは撮像カメラ24により取得された画像データ等に基づき、自発動作のタイプを決定し、該タイプに対応する第1のモータコマンドを生成しても良い。   The first operation module 211 determines the type of spontaneous operation based on the internal state of the robot 10 or image data acquired by the imaging camera 24, and generates a first motor command corresponding to the type. May be.

第2の動作モジュール212は、顔検知部217によりロボット10の周囲に人間がいることが検知された場合、即ち顔検知部217から人物検知情報が通知された場合、ロボット10に、いわゆる引き付け動作を実行させるための第2のモータコマンドを生成する。   When the face detection unit 217 detects that there is a human around the robot 10, that is, when the person detection information is notified from the face detection unit 217, the second operation module 212 is a so-called attracting operation. To generate a second motor command.

引き付け動作は、人間の注意や興味をロボット10に引き付ける動作であって、例えば静止動作及び追従動作を含む。   The attraction action is an action that attracts human attention and interest to the robot 10, and includes, for example, a stationary action and a follow-up action.

静止動作は、それまで実行されていたロボット10の自発動作を停止させる動作である。例えば、自発動作として、腕18及び足19を動作させていた場合、腕18及び足19の動作を、事前に決められた第1の時間(後述する)だけ停止させる。   The stationary operation is an operation for stopping the spontaneous operation of the robot 10 that has been executed. For example, when the arm 18 and the foot 19 are operated as the spontaneous operation, the operation of the arm 18 and the foot 19 is stopped for a predetermined first time (described later).

追従動作は、静止動作の終了後に連続的に実行され、例えば頭11を胴体12の体軸Cを中心に回転させて、左右の目13により、例えば人間を追従する動作である。このとき、ロボット10の頭11以外の部位は、静止状態を継続する。従って、追従動作を実行しているときは、頭11だけが動作することになる。なお、本実施形態では、頭11を胴体12の体軸Cを中心に回転させているが、例えば左右の目13を動作させることで、例えば歩行中の人間を追従しても良い。   The following operation is continuously executed after the end of the stationary operation, for example, an operation of rotating the head 11 about the body axis C of the trunk 12 and following, for example, a human by the left and right eyes 13. At this time, the parts other than the head 11 of the robot 10 remain stationary. Therefore, only the head 11 moves when performing the follow-up operation. In the present embodiment, the head 11 is rotated around the body axis C of the body 12. However, for example, by moving the left and right eyes 13, for example, a human being walking may be followed.

第2のモータコマンドは、事前に設定された静止動作及び追従動作の動作シーケンス(以下、第2の動作シーケンスとする)を実現する複数のモータコマンドを含み、複数のモータコマンドを、それぞれの開始時刻順にモータ駆動部215からモータ23a、23b、23c…に通知することで、ロボット10に静止動作及追従動作を実行させる。   The second motor command includes a plurality of motor commands for realizing a preset motion sequence of a stationary motion and a follow-up motion (hereinafter referred to as a second motion sequence). By notifying the motors 23a, 23b, 23c,... From the motor driving unit 215 in order of time, the robot 10 is caused to perform a stationary operation and a follow-up operation.

詳細には、第2の動作シーケンスは、事前に決められた第1の時間(後述する)だけ静止動作を実行する複数のモータコマンドと、静止動作の終了後、追従動作を実現する複数のモータコマンドと、を含み、これらのモータコマンドが、それぞれの開始時刻順にモータ駆動部215からモータ23a、23b、23c…に通知することで、ロボット10が静止動作及び追従動作を連続的に実行するのである。   Specifically, the second operation sequence includes a plurality of motor commands for executing a stationary operation only for a predetermined first time (described later), and a plurality of motors for realizing a tracking operation after the stationary operation is completed. Since these motor commands are notified from the motor drive unit 215 to the motors 23a, 23b, 23c,... In the order of their start times, the robot 10 continuously executes the stationary operation and the following operation. is there.

第2の動作シーケンスに於いて、静止動作を継続する時間は、時刻管理部220により管理される。即ち、顔検知部217によりロボット10の周囲の人間を検知された時刻を始点としてタイムカウントを開始し、タイムカウント値が、事前に決められた第1の時間(後述する)を超えた時点で静止動作が終了する。   In the second operation sequence, the time management unit 220 manages the time for which the stationary operation is continued. That is, the time count is started from the time when the person around the robot 10 is detected by the face detection unit 217, and when the time count value exceeds a predetermined first time (described later). Quiesce operation ends.

第3の動作モジュール213は、ロボット10が人間の注意もしくは興味を引き付けた場合、即ち注意/興味判断部218(後述する)から注意/興味検知情報が通知された場合、ロボット10に、いわゆる提供動作を実行させるための第3のモータコマンドを生成する。   The third motion module 213 provides a so-called provision to the robot 10 when the robot 10 attracts human attention or interest, that is, when attention / interest detection information is notified from the attention / interest determination unit 218 (described later). A third motor command for executing the operation is generated.

提供動作は、人間に提供すべきサービスごとに定められている。提供動作の態様は、特に限定されるものではないが、例えば近所のスーパーの安売り情報や、急激な天候変化に関する情報などを提示する場合には、腕18や足19を動かすような態様としても良い。   The providing operation is determined for each service to be provided to humans. The mode of the providing operation is not particularly limited. For example, when presenting information on bargain sales at a nearby supermarket or information on a sudden weather change, the mode of moving the arm 18 or the foot 19 may be used. good.

第3のモータコマンドは、事前に設定された提供動作の動作シーケンス(以下、第3の動作シーケンスとする)を実現する複数のモータコマンドを含み、複数のモータコマンドを、それぞれの開始時刻順にモータ駆動部215からモータ23a、23b、23c…に通知することで、ロボット10に提供動作を実行させる。   The third motor command includes a plurality of motor commands for realizing a preset operation sequence of the provided operation (hereinafter referred to as a third operation sequence), and the plurality of motor commands are arranged in the order of their start times. By notifying the motors 23a, 23b, 23c,...

第4の動作モジュール214は、接触検知部219により生成された接触検知情報が通知された場合、ロボット10に、いわゆる反応動作を実行させるための第4のモータコマンドを生成する。反応動作の態様は、特に限定されるものではないが、例えば腕18や足19を動かして、まるで触れられて喜んでいる様な態様としても良い。   When the contact detection information generated by the contact detection unit 219 is notified, the fourth operation module 214 generates a fourth motor command for causing the robot 10 to execute a so-called reaction operation. The mode of the reaction operation is not particularly limited. For example, it may be a mode in which the arm 18 or the foot 19 is moved and the user is happy to be touched.

第4のモータコマンドは、事前に設定された反応動作の動作シーケンス(以下、第4の動作シーケンスとする)を実現する複数のモータコマンドを含み、複数のモータコマンドを、それぞれの開始時刻順にモータ駆動部215からモータ23a、23b、23c…に通知することで、ロボット10に反応動作を実行させる。   The fourth motor command includes a plurality of motor commands for realizing a reaction operation sequence set in advance (hereinafter referred to as a fourth operation sequence), and the plurality of motor commands are arranged in the order of their start times. By notifying the motors 23a, 23b, 23c,... From the drive unit 215, the robot 10 is caused to perform a reaction operation.

モータ駆動部215は、コマンド格納部231a、231b、231c、231d(後述する)に格納されたモータコマンドを受け取り、それぞれのモータコマンドに対応するモータ23a、23b、23c…を駆動する。このとき、モータ駆動部215は、動作調停情報管理部232の優先度テーブル(後述する)に基づき、優先度が高い動作モジュールにより生成されたモータコマンドを優先的に実行する。   The motor drive unit 215 receives motor commands stored in the command storage units 231a, 231b, 231c, and 231d (described later), and drives the motors 23a, 23b, 23c... Corresponding to the respective motor commands. At this time, the motor drive unit 215 preferentially executes a motor command generated by an operation module having a high priority based on a priority table (described later) of the operation arbitration information management unit 232.

なお、モータコマンドは、駆動すべき対象のモータ23a、23b、23c…のモータID、モータ軸の回転方向、モータ軸の目標角度、目標角度に到達するまでの時間、などの制御情報を含む。このため、モータ駆動部215は、モータ格納部231a、231b、231c、231dから取得したモータコマンドに基づき、駆動すべきモータ23a、23b、23c…の駆動軸を、指定された回転方向に、指定された目標角度まで、指定された時間をかけて、回転させる。   The motor command includes control information such as the motor ID of the motors 23a, 23b, 23c... To be driven, the rotation direction of the motor shaft, the target angle of the motor shaft, and the time to reach the target angle. Therefore, the motor drive unit 215 designates the drive shafts of the motors 23a, 23b, 23c... To be driven in the designated rotation direction based on the motor commands acquired from the motor storage units 231a, 231b, 231c, 231d. Rotate to specified target angle over specified time.

モータコマンド制御部216は、コマンド受信部230と、コマンド格納部231a、231b、231c、231dと、動作調停情報管理部232と、を備える。   The motor command control unit 216 includes a command reception unit 230, command storage units 231a, 231b, 231c, and 231d, and an operation arbitration information management unit 232.

コマンド受信部230は、第1、第2、第3、第4の動作モジュール211、212、213、214により生成されたモータコマンドを受け取り、それぞれのモータコマンドを生成した動作モジュールに対応するコマンド格納部231a、231b、231c、231dに振り分ける。例えば、第1の動作モジュール211により生成されたモータコマンドは、第1の動作モジュール211に対応するコマンド格納部231aに振り分けられる。   The command receiving unit 230 receives the motor commands generated by the first, second, third, and fourth operation modules 211, 212, 213, and 214, and stores commands corresponding to the operation modules that generated the respective motor commands. It distributes to the part 231a, 231b, 231c, 231d. For example, the motor command generated by the first operation module 211 is distributed to the command storage unit 231 a corresponding to the first operation module 211.

コマンド格納部231a、231b、231c、231dは、それぞれ動作モジュール211、212、213、214ごとに用意されている。コマンド格納部231a、231b、231c、231dは、コマンド受信部230により振り分けられたモータコマンドを、それぞれの開始時刻に対応づけて記憶している。   Command storage units 231a, 231b, 231c, and 231d are prepared for the respective operation modules 211, 212, 213, and 214, respectively. The command storage units 231a, 231b, 231c, and 231d store the motor commands distributed by the command receiving unit 230 in association with the respective start times.

コマンド格納部231a、231b、231c、231dに格納されたモータコマンドは、それぞれ動作調停情報管理部232に管理されている優先度テーブル(後述する)に基づき、優先度の高い動作モジュールにより生成されたモータコマンドから順番に、それぞれのモータ23a、23b、23c…に通知される。従って、全てのコマンド格納部231a、231b、231c、231dにモータコマンドが格納されている場合、優先度が最も高い動作モジュールによる動作シーケンスが実行される。   The motor commands stored in the command storage units 231a, 231b, 231c, and 231d are generated by an operation module having a high priority based on a priority table (described later) managed by the operation arbitration information management unit 232, respectively. Each motor 23a, 23b, 23c... Is notified in order from the motor command. Therefore, when motor commands are stored in all command storage units 231a, 231b, 231c, and 231d, an operation sequence by the operation module having the highest priority is executed.

動作調停情報管理部232は、第1、第2、第3、第4の動作モジュール211、212、213、214と、それぞれの優先度P4、P3、P2、P1と、を対応づける優先度テーブルを管理している。このため、コマンド格納部231a、231b、231c、231dのそれぞれに、第1、第2、第3、第4の動作モジュール211、212、213、214により生成されたモータコマンドが格納されていても、モータ駆動部215は、優先的に実行すべきモータコマンドを特定することができる。さらに、動作調停情報管理部232は、第1、第2、第3、第4の動作モジュール211、212、213、214の実行状況を管理する。但し、第1、第2、第3、第4の動作モジュール211、212、213、214の実行状況は、動作調停情報管理部232とは異なる実行状況管理部(図示しない)により管理しても良い。   The operation arbitration information management unit 232 associates the first, second, third, and fourth operation modules 211, 212, 213, and 214 with respective priorities P4, P3, P2, and P1. Is managing. For this reason, even if the command storage units 231a, 231b, 231c, and 231d store motor commands generated by the first, second, third, and fourth operation modules 211, 212, 213, and 214, respectively. The motor drive unit 215 can specify a motor command to be executed with priority. Furthermore, the operation arbitration information management unit 232 manages the execution status of the first, second, third, and fourth operation modules 211, 212, 213, and 214. However, the execution status of the first, second, third, and fourth operation modules 211, 212, 213, and 214 may be managed by an execution status management unit (not shown) different from the operation arbitration information management unit 232. good.

図4は、第1の実施形態にかかる優先度テーブルの概念図である。   FIG. 4 is a conceptual diagram of a priority table according to the first embodiment.

図4に示すように、本実施形態にかかる優先度テーブルは、第1の動作モジュール211に優先度P4(P4:priority 4)が対応づけられ、第2の動作モジュール212に優先度P3(P3:priority 3)が対応づけられ、第3の動作モジュール213に優先度P2(P2:priority 2)、第4の動作モジュール214に優先度P1(P1:priority 1)、がそれぞれ対応づけられている。   As shown in FIG. 4, in the priority table according to the present embodiment, the priority P4 (P4: priority 4) is associated with the first operation module 211, and the priority P3 (P3) is associated with the second operation module 212. : Priority 3), the priority P2 (P2: priority 2) is associated with the third operation module 213, and the priority P1 (P1: priority 1) is associated with the fourth operation module 214. .

従って、例えばコマンド格納部231aに、第1の動作モジュール211により生成されたモータコマンドが格納され、コマンド格納部231bに、第2の動作モジュール212により生成されたモータコマンドが格納されている場合、モータ駆動部215は、優先度が高い第2の動作モジュール212により生成されたモータコマンドを実行する。さらに、第1の動作モジュール211により生成されたモータコマンドが実行されているときに、コマンド格納部231bに、第2の動作モジュール212により生成されたモータコマンドが格納されると、モータ駆動部215は、動作調停情報管理部232に管理されている優先度テーブルに基づき、第1の動作モジュール211による第1の動作シーケンスの実行を停止して、代わりに、第2の動作モジュール212による第2の動作シーケンスの実行を開始する。   Therefore, for example, when the motor command generated by the first operation module 211 is stored in the command storage unit 231a and the motor command generated by the second operation module 212 is stored in the command storage unit 231b, The motor driving unit 215 executes the motor command generated by the second operation module 212 having a high priority. Furthermore, when the motor command generated by the second operation module 212 is stored in the command storage unit 231b while the motor command generated by the first operation module 211 is being executed, the motor drive unit 215 is stored. Stops execution of the first operation sequence by the first operation module 211 based on the priority table managed by the operation arbitration information management unit 232, and instead the second operation module 212 performs the second operation by the second operation module 212. The execution of the operation sequence is started.

顔検知部217は、撮像カメラ24により取得された画像データに基づき、ロボット10の周囲の人間を検知する。さらに、顔検知部217は、ロボット10の周囲に人間の顔を検知した場合、人物を検知したことを意味する人物検知情報を生成して、該人物検知情報を第1、第2、第3、第4の動作モジュール211、212、213、214に通知する。顔検知法としては、例えば公知の顔認識技術を使用すれば良い。なお、顔検知部217は、撮像カメラ24により逐次取得される画像データごとに、ロボット10の周囲の人間を検知しても良い。   The face detection unit 217 detects a person around the robot 10 based on the image data acquired by the imaging camera 24. Further, when detecting a human face around the robot 10, the face detection unit 217 generates person detection information indicating that a person has been detected, and the person detection information is first, second, and third. , Notify the fourth operation module 211, 212, 213, 214. For example, a known face recognition technique may be used as the face detection method. Note that the face detection unit 217 may detect a person around the robot 10 for each image data sequentially acquired by the imaging camera 24.

注意/興味判断部218は、撮像カメラ24により取得された画像データに基づき、ロボット10及び人間の視線一致度を算出する。視線一致度の算出法は、公知の視線確認法を使用すれば良い。ロボット10及び人間の視線一致度が閾値を超えた場合、注意/興味判断部218は、ロボット10及び人間の視線が一致したことを意味する視線一致情報を生成して、該視線一致情報を第1、第2、第3、第4の動作モジュール211、212、213、214に通知する。   The attention / interest determination unit 218 calculates the line-of-sight coincidence between the robot 10 and the human based on the image data acquired by the imaging camera 24. A known gaze confirmation method may be used as the gaze coincidence calculation method. When the robot 10 and human eye gaze coincidence exceeds the threshold, the attention / interest determination unit 218 generates gaze coincidence information that means that the robot 10 and human gaze coincide with each other, and the gaze coincidence information is generated. The first, second, third, and fourth operation modules 211, 212, 213, and 214 are notified.

接触検知部219は、タッチセンサ25がロボット10への接触を検知した場合、ロボット10が接触されたことを意味する接触検知情報を生成して、該接触検知情報を第1、第2、第3、第4の動作モジュール211、212、213、214に通知する。   When the touch sensor 25 detects contact with the robot 10, the contact detection unit 219 generates contact detection information that means that the robot 10 has been touched, and the contact detection information is first, second, and second. 3. Notify the fourth operation modules 211, 212, 213, and 214.

時刻管理部220は、第1、第2、第3、第4の動作モジュール211、212、213、214が第1、第2、第3、第4の動作シーケンスを実行するための時間を管理している。例えば、時刻管理部220は、顔検知部217によりロボット10の周囲の人間が検知されたことをトリガとしてタイムカウントを開始して、タイムカウント値が、事前に決められた第1の時間もしくは第2の時間を超えたかどうか判断する。第1の時間は、第2の動作モジュール212による静止動作の継続時間の閾値である。第2の時間は、注意/興味判断部218による、人間の注意や興味をロボット10に引き付けるまでの経過時間の閾値である。   The time management unit 220 manages the time for the first, second, third, and fourth operation modules 211, 212, 213, and 214 to execute the first, second, third, and fourth operation sequences. doing. For example, the time management unit 220 starts a time count triggered by the detection of a person around the robot 10 by the face detection unit 217, and the time count value is set to a predetermined first time or first time. Judge whether the time of 2 has been exceeded. The first time is a threshold value for the duration of the stationary motion by the second motion module 212. The second time is a threshold of elapsed time until the attention / interest determination unit 218 attracts human attention and interest to the robot 10.

電源管理部221は、電源スイッチ(図示しない)のON/OFFを管理していて、例えば電源スイッチが投入されると、第1、第2、第3、第4の動作モジュール211、212、213、214に、電源が投入されたことを意味する電源投入情報を通知する。   The power management unit 221 manages ON / OFF of a power switch (not shown). For example, when the power switch is turned on, the first, second, third, and fourth operation modules 211, 212, and 213 are used. , 214 is notified of power-on information indicating that power is turned on.

目的設定部222は、例えば人間に提供すべきサービスに関する情報(以下、サービス情報とする)をサーバSから受け取り、該サービス情報をメモリ22に記憶させる。ロボット10は、該サービスを人間に提供する、という目的のために、人間の注意や興味を引き付けるのである。サービスは、特に限定されるものではないが、例えば、近所のスーパーの安売り情報や急激な天候変化に関する情報など、利用者に有益と思われる情報の提供を想定している。又、サービスとして、人間を元気づけるための踊りの披露を用いても良い。なお、目的設定部222は、定期的にサーバSにアクセスして、利用者に有益なサービス情報の発生の有無を確認しても良い。又、サービス情報が発生するたびに、サーバSから目的設定部222に、サービス情報の発生を通知する仕組みとしても良い。さらに、目的設定部222は、例えばサーバSからのサービス情報をメモリ22に記憶させた場合、ロボット10に目的を設定したことを意味する目的設定情報を生成して、該目的設定情報を第1、第2、第3、第4の動作モジュール211、212、213、214に通知する。   The purpose setting unit 222 receives, for example, information related to services to be provided to humans (hereinafter referred to as service information) from the server S, and stores the service information in the memory 22. The robot 10 attracts human attention and interest for the purpose of providing the service to humans. Although the service is not particularly limited, for example, it is assumed to provide information that may be useful to the user, such as information on the sale of a nearby supermarket or information on a sudden change in weather. Moreover, you may use the performance of the dance for encouraging a person as a service. The purpose setting unit 222 may periodically access the server S to check whether service information useful for the user has been generated. Alternatively, the service S may be notified from the server S to the purpose setting unit 222 every time service information is generated. Further, for example, when the service information from the server S is stored in the memory 22, the purpose setting unit 222 generates purpose setting information that means that the purpose is set in the robot 10, and the purpose setting information is stored in the first purpose setting information. The second, third, and fourth operation modules 211, 212, 213, and 214 are notified.

(コントローラ21による処理フロー)
図5は、第1の実施形態にかかるコントローラ21による処理のフローチャートである。図6は、第1の実施形態にかかるモータの動作状態を説明する概略図である。なお、図6中の曲線は、それぞれ、図中左側に記載されている耳17、瞼14、口15、頭11、右腕18、左腕18、右足19、左足19を駆動するためのモータに対応している。又、図6中の横軸は時間、縦軸はモータの動作量(電流値)、をそれぞれ示している。
(Processing flow by the controller 21)
FIG. 5 is a flowchart of processing by the controller 21 according to the first embodiment. FIG. 6 is a schematic diagram for explaining the operating state of the motor according to the first embodiment. The curves in FIG. 6 correspond to the motors for driving the ear 17, the heel 14, the mouth 15, the head 11, the right arm 18, the left arm 18, the right leg 19, and the left leg 19 shown on the left side in the figure, respectively. doing. In FIG. 6, the horizontal axis represents time, and the vertical axis represents the motor operation amount (current value).

本実施形態にかかるコントローラ21による処理フローは、電源スイッチ(図示しない)が投入されて、第1の動作モジュール211に電源管理部221から電源投入情報が通知された時点で開始される。   The processing flow by the controller 21 according to the present embodiment is started when a power switch (not shown) is turned on and power-on information is notified from the power management unit 221 to the first operation module 211.

本実施形態にかかる処理フローが開始したら、図5に示すように、目的設定部222は、例えばサーバSからサービス情報を取得して、該サービス情報をメモリ22に記憶させる(ステップS101)。但し、サーバSにサービス情報が存在しない場合、目的設定部222は、必ずしもサービス情報を取得しなくても良い。   When the processing flow according to the present embodiment is started, the purpose setting unit 222 acquires service information from, for example, the server S and stores the service information in the memory 22 as illustrated in FIG. 5 (step S101). However, when the service information does not exist in the server S, the purpose setting unit 222 does not necessarily acquire the service information.

次に、第1の動作モジュール211は、ロボット10に自発動作を実行させるための第1のモータコマンドを生成する。コマンド受信部230は、第1の動作モジュール211により生成された第1のモータコマンドを受け取り、コマンド格納部231aに格納する。モータ駆動部215は、動作調停情報管理部232により管理されている優先度テーブルに基づき、コマンド格納部231a、231b、231c、231dの何れかに格納されたモータコマンドを、ロボット10のモータ23a、23b、23c…に通知する。ここでは、コマンド格納部231aは、第1の動作モジュール211により生成された第1のモータコマンドを格納しているが、コマンド格納部231b、231c、231dは、何れもモータコマンドを格納していない。従って、モータ駆動部215は、動作調停情報管理部232により管理された優先度テーブルに基づき、コマンド格納部231aに格納された第1のモータコマンドを、ロボット10のモータ23a、23b、23c…に通知する。これにより、ロボット10は、第1の動作シーケンスに従い、自発動作を開始する(ステップS102)。なお、図6に示すように、ロボット10の自発動作時には、ロボット10の各部を動作させる複数のモータが動作していることがわかる(図中の「自発動作状態」参照)。   Next, the first operation module 211 generates a first motor command for causing the robot 10 to execute a spontaneous operation. The command receiving unit 230 receives the first motor command generated by the first operation module 211 and stores it in the command storage unit 231a. Based on the priority table managed by the operation arbitration information management unit 232, the motor drive unit 215 sends the motor command stored in one of the command storage units 231a, 231b, 231c, and 231d to the motor 23a of the robot 10, To 23b, 23c. Here, the command storage unit 231a stores the first motor command generated by the first operation module 211, but none of the command storage units 231b, 231c, and 231d stores the motor command. . Therefore, the motor drive unit 215 sends the first motor command stored in the command storage unit 231a to the motors 23a, 23b, 23c... Of the robot 10 based on the priority table managed by the operation arbitration information management unit 232. Notice. Thereby, the robot 10 starts a spontaneous operation according to the first operation sequence (step S102). As shown in FIG. 6, it can be seen that a plurality of motors that operate each part of the robot 10 are operating during the spontaneous operation of the robot 10 (see “spontaneous operation state” in the figure).

次に、顔検知部217は、撮像カメラ24により取得された画像データに基づき、ロボット10の周囲に人間が存在するか判断する(ステップS103)。このとき、顔検知部217は、公知の顔認識技術を利用して、ロボット10から所定距離内に存在する人間だけを検知しても良い。   Next, the face detection unit 217 determines whether a human is present around the robot 10 based on the image data acquired by the imaging camera 24 (step S103). At this time, the face detection unit 217 may detect only a person existing within a predetermined distance from the robot 10 using a known face recognition technique.

顔検知部217によりロボット10の周囲に人間が存在すると判断されたら(ステップS103のYes)、第2の動作モジュール212は、静止動作及び追従動作を実行させるための第2のモータコマンドを生成する。コマンド受信部230は、第2の動作モジュール212により生成された第2のモータコマンドを受け取り、コマンド格納部231bに格納する。モータ駆動部215は、動作調停情報管理部232により管理されている優先度テーブルに基づき、コマンド格納部231a、231b、231c、231dの何れかに格納されたモータコマンドを、ロボット10のモータ23a、23b、23c…に通知する。ここでは、コマンド格納部231aは、第1の動作モジュール211により生成された第1のモータコマンドを、コマンド格納部231bは、第2の動作モジュール212により生成された第2のモータコマンドを、それぞれ格納している。しかし、コマンド格納部231c、231dは、何れもモータコマンドを格納していない。従って、モータ駆動部215は、コマンド格納部231aに格納された第1のモータコマンド及びコマンド格納部231bに格納された第2のモータコマンドのうち、優先度が高い第2のモータコマンドを、ロボット10のモータ23a、23b、23c…に通知する。これにより、ロボット10は、第2の動作シーケンスに従い、引き付け動作を実行する(ステップS104)。引き付け動作は、静止動作(ステップS104a)及び追従動作(ステップS104b)を含み、人間の注意や興味をロボット10に引き付けるための動作である。   If the face detection unit 217 determines that a human is present around the robot 10 (Yes in step S103), the second motion module 212 generates a second motor command for executing a stationary motion and a follow-up motion. . The command receiving unit 230 receives the second motor command generated by the second operation module 212 and stores it in the command storage unit 231b. Based on the priority table managed by the operation arbitration information management unit 232, the motor drive unit 215 sends the motor command stored in one of the command storage units 231a, 231b, 231c, and 231d to the motor 23a of the robot 10, To 23b, 23c. Here, the command storage unit 231a displays the first motor command generated by the first operation module 211, and the command storage unit 231b stores the second motor command generated by the second operation module 212, respectively. Storing. However, neither of the command storage units 231c and 231d stores a motor command. Accordingly, the motor drive unit 215 sends the second motor command having a higher priority among the first motor command stored in the command storage unit 231a and the second motor command stored in the command storage unit 231b to the robot. 10 motors 23a, 23b, 23c... Thereby, the robot 10 performs the attracting operation according to the second operation sequence (step S104). The attraction operation includes a stationary operation (step S104a) and a follow-up operation (step S104b), and is an operation for attracting human attention and interest to the robot 10.

即ち、第2のモータコマンドによりモータ23a、23b、23c…を駆動することで、ロボット10は、事前に決められた第1の時間だけ、該ロボット10の部位の動作を静止させる静止動作を実行するとともに、静止動作の終了時を始点として、例えば頭11を胴体12の体軸Cを中心に回転させて、左右の目13により人間を追従する追従動作を実行する。なお、図6に示すように、ロボット10の引き付け動作時には、耳17、瞼14、15、頭11を動作させるためのモータだけが動作し、右腕18、左腕18、右足19、左足19を動作させるためのモータが停止していることがわかる(図中の「引き付け動作状態」参照)。   That is, by driving the motors 23a, 23b, 23c... By the second motor command, the robot 10 performs a stationary operation that stops the operation of the part of the robot 10 for a predetermined first time. At the same time, starting from the end of the stationary motion, for example, the head 11 is rotated around the body axis C of the body 12, and a follow-up motion that follows the human by the left and right eyes 13 is executed. As shown in FIG. 6, when the robot 10 is attracted, only the motors for operating the ears 17, the heels 14, 15, and the head 11 are operated, and the right arm 18, the left arm 18, the right foot 19, and the left foot 19 are operated. It can be seen that the motor to be stopped is stopped (see “attraction operation state” in the figure).

又、顔検知部217によりロボット10の周囲に人間が存在すると判断されたら(ステップS103のYes)、時刻管理部220は、人間が検知されたことをトリガとして、タイムカウントを開始する。   If it is determined by the face detection unit 217 that a human is present around the robot 10 (Yes in step S103), the time management unit 220 starts time counting with the detection of a human being as a trigger.

一方、顔検知部217によりロボット10の周囲に人間が存在すると判断されなければ(ステップS103のNo)、目的設定部222は、再度、例えばサーバSからサービス情報を取得して、該サービス情報をメモリ22に記憶させる(ステップS101)。   On the other hand, if it is not determined by the face detection unit 217 that a human is present around the robot 10 (No in step S103), the purpose setting unit 222 obtains service information from the server S again, for example, and obtains the service information. It memorize | stores in the memory 22 (step S101).

次に、注意/興味判断部218は、人間の注意や興味をロボット10に引き付けたかどうか判断する(ステップS105)。例えば、人間の注意や興味を引き付けたかどうかの判断では、例えばロボット10及び人間の視線一致度と、事前に決められた閾値と、を比較して、視線一致度が閾値を超えた場合に、人間の注意や興味をロボット10に引き付けたと判断すれば良い。さらに、ロボット10及び人間の距離、即ちロボット10への人間の接近の程度に基づき、人間の注意や興味を引き付けたかどうか判断しても良い。   Next, the attention / interest determination unit 218 determines whether or not human attention or interest has been attracted to the robot 10 (step S105). For example, in the determination of whether or not the attention and interest of a person are attracted, for example, when the eye-gaze coincidence of the robot 10 and the person is compared with a predetermined threshold, and the eye-gaze coincidence exceeds the threshold, What is necessary is just to judge that the attention and interest of human beings were attracted to the robot 10. Further, based on the distance between the robot 10 and the human, that is, the degree of human approach to the robot 10, it may be determined whether or not the attention or interest of the human has been attracted.

人間の注意や興味をロボット10に引き付けたと判断されたら(ステップS105のYes)、第3の動作モジュール213は、メモリ22に記憶されたサービス情報に基づき、人間にサービスを提供、即ち目的動作を実行する(ステップS106)。サービスとして、近所のスーパーの安売り情報や気象情報の提供が設定されている場合、ロボット10は、例えばスピーカ(図示しない)を利用して、これらの情報を通知しても良い。又、サービスとして、人間を元気づけるための踊りの披露が設定されている場合、ロボット10の各部を動作させて、踊りを実演させても良い。なお、図6に示すように、ロボット10の目的動作時には、ロボット10の各部を動作させる複数のモータが動作していることがわかる(図中の「目的動作状態」参照)。ここでは、「目的動作」として、踊りの実演が設定されているときのモータの動作量を示している。   If it is determined that human attention or interest has been attracted to the robot 10 (Yes in step S105), the third operation module 213 provides a service to the human based on the service information stored in the memory 22, that is, performs the target operation. Execute (Step S106). When provision of bargain information and weather information of a nearby supermarket is set as a service, the robot 10 may notify such information using, for example, a speaker (not shown). Moreover, when the performance of dancing for encouraging humans is set as a service, each part of the robot 10 may be operated to perform the dancing. As shown in FIG. 6, it can be seen that a plurality of motors that operate each part of the robot 10 are operating during the target operation of the robot 10 (see “target operation state” in the figure). Here, as the “target motion”, the amount of motion of the motor when a dance performance is set is shown.

次に、動作調停情報管理部232は、モータ駆動部215が目的動作の実行を完了させたかどうか判断する(ステップS107)。動作調停情報管理部232により目的動作の実行が完了したと判断されたら(ステップS107のYes)、処理フローが終了する。一方、動作調停情報管理部232により目的動作の遂行が完了したと判断されなければ(ステップS107のNo)、再度、目的設定部222は、例えばサーバSからサービス情報を取得して、該サービス情報をメモリ22に記憶させる(ステップS101)。   Next, the operation arbitration information management unit 232 determines whether or not the motor driving unit 215 has completed the execution of the target operation (step S107). If the operation arbitration information management unit 232 determines that the execution of the target operation has been completed (Yes in step S107), the processing flow ends. On the other hand, if it is not determined by the operation arbitration information management unit 232 that the execution of the target operation has been completed (No in step S107), the purpose setting unit 222 again acquires service information from the server S, for example, Is stored in the memory 22 (step S101).

一方、人間の注意や興味をロボット10に引き付けたと判断されなければ(ステップS105のNo)、時刻管理部220は、顔検知部217によりロボット10の周囲に存在する人間が検知されてからの経過時間が、事前に決められた第2の時間を超えたかどうか判断する(ステップS108)。   On the other hand, if it is not determined that human attention or interest has been attracted to the robot 10 (No in step S105), the time management unit 220 has elapsed since the human being present around the robot 10 was detected by the face detection unit 217. It is determined whether the time has exceeded a predetermined second time (step S108).

経過時間が第2の時間を超えたと判断されたら(ステップS108のYes)、再度、目的設定部222は、例えばサーバSからサービス情報を取得して、該サービス情報をメモリ22に記憶させる(ステップS101)。   If it is determined that the elapsed time has exceeded the second time (Yes in Step S108), the purpose setting unit 222 again acquires service information from the server S, for example, and stores the service information in the memory 22 (Step S108). S101).

一方、経過時間が第2の時間を超えたと判断されなければ(ステップS108のNo)、再度、注意/興味判断部218は、人間の注意や興味をロボット10に引き付けたかどうかの判断を継続する(ステップS105)。   On the other hand, if it is not determined that the elapsed time has exceeded the second time (No in step S108), the attention / interest determination unit 218 again determines whether or not human attention or interest has been attracted to the robot 10. (Step S105).

以上の処理フローを繰り返すことにより、ロボット10の周囲に来訪する人間に、それぞれの来訪のタイミングに最適なサービスを提供することができる。   By repeating the above processing flow, it is possible to provide a person who visits the surroundings of the robot 10 with an optimal service at the timing of each visit.

本実施形態によれば、顔検知部217によりロボット10の周囲の人物が検知された場合に、それまで第1の動作モジュール211により実行していた自発動作を、事前に決められた第1の時間だけ停止させるとともに、頭11を胴体12の体軸Cを中心に回転させて、左右の目13により人間を追従させる。   According to the present embodiment, when a person around the robot 10 is detected by the face detection unit 217, the spontaneous operation that has been executed by the first operation module 211 until then is determined in advance. While stopping for only time, the head 11 is rotated about the body axis C of the body 12 so that the left and right eyes 13 follow the human.

即ち、本実施形態では、ロボット10に、例えば人間を発見したときに停止するとともに両目で人間を追従する猫の行動と類似の動作を実行させている。このため、猫に追従されている人間が自然と猫の存在に気づくように、ロボット10に追従されている人間は、自然とロボット10の存在に気づくことになる。これにより、例えばロボット10の存在に気づいていない人間の注意や興味をロボット10に引き付けることができる。   That is, in the present embodiment, the robot 10 is caused to stop when, for example, a person is found, and to perform an action similar to the action of a cat that follows the person with both eyes. For this reason, the human being followed by the robot 10 naturally notices the existence of the robot 10 as the human being followed by the cat notices the presence of the cat naturally. Thereby, for example, the attention and interest of a human who is not aware of the presence of the robot 10 can be attracted to the robot 10.

又、本実施形態によれば、人間の注意や興味がロボット10に引き付けられたことを確認してから、人間にサービスを提供している。このため、ロボット10に注意や興味を引き付けられていない人間に、即ちロボット10に気づいていない人間に、突然サービスを提供して、人間に不快感を与えることを抑制することができる。   Further, according to the present embodiment, after confirming that the attention and interest of the human being are attracted to the robot 10, the service is provided to the human being. For this reason, it is possible to prevent the human being unpleasant by providing a service suddenly to a person who is not attracting attention or interest to the robot 10, that is, a human who is not aware of the robot 10.

なお、本実施形態では、ロボット10前方の情報を取得するために、撮像カメラ24を使用しているが、本発明は、これに限定されるものではない。例えば移動物体を検知する赤外線センサ等を使用しても良い。但し、赤外線センサ等を使用する場合、顔検知部217の代わりに、赤外線センサ等の検出情報に基づき、移動物体を検知する物体検知部(図示しない)を、コントローラ21及び制御プログラムにより実現すれば良い。   In this embodiment, the imaging camera 24 is used to acquire information in front of the robot 10, but the present invention is not limited to this. For example, an infrared sensor that detects a moving object may be used. However, when an infrared sensor or the like is used, instead of the face detection unit 217, an object detection unit (not shown) that detects a moving object based on detection information from the infrared sensor or the like is realized by the controller 21 and the control program. good.

さらに、本実施形態にかかるロボット10は、該ロボット10への接触を検知するためのタッチセンサ25を備えるが、例えば聴覚センサ等を備えても良い。   Furthermore, although the robot 10 according to the present embodiment includes the touch sensor 25 for detecting contact with the robot 10, for example, an audio sensor may be included.

また、本実施形態では、ロボット10は、第1、第2、第3、第4の動作モジュール211、212、213、214を備えるが、本発明は、これに限定されるものではなく、さらに動作モジュールを追加しても良い。動作モジュールが追加される場合、本実施形態にかかる電源投入情報、人物検知情報、注意/興味検知情報、視線一致情報、接触検知情報、目的設定情報は、該動作モジュールにも通知される。   In the present embodiment, the robot 10 includes the first, second, third, and fourth operation modules 211, 212, 213, and 214. However, the present invention is not limited to this, and further An operation module may be added. When an operation module is added, power-on information, person detection information, attention / interest detection information, line-of-sight matching information, contact detection information, and purpose setting information according to the present embodiment are also notified to the operation module.

[変形例]
以下、図7を参照しながら、第1の実施形態の変形例を説明する。但し、第1の実施形態と同等の構成や処理については、説明を省略することとする。
[Modification]
Hereinafter, a modification of the first embodiment will be described with reference to FIG. However, descriptions of configurations and processes equivalent to those of the first embodiment will be omitted.

本変形例にかかる第2の動作モジュール212は、引き付け動作(静止動作及び追従動作)だけでなく、引き付け動作の前に、さらに初期位置動作を実行させるための第2のモータコマンドを生成する。   The second operation module 212 according to the present modification generates a second motor command for causing the initial position operation to be executed before the attraction operation as well as the attraction operation (stationary operation and follow-up operation).

初期位置動作は、それぞれのモータ23a、23b、23c…の駆動軸を、事前に決められた初期位置に移動させる動作である。従って、モータ駆動部215が、第2の動作シーケンスに従い、コマンド格納部231bに格納された第2のモータコマンドを、それぞれのモータ23a、23b、23c…に通知すると、最初にモータ23a、23b、23c…の駆動軸の位置が初期化され、続いて静止動作が開始される。   The initial position operation is an operation for moving the drive shafts of the respective motors 23a, 23b, 23c... To a predetermined initial position. Therefore, when the motor driving unit 215 notifies the respective motors 23a, 23b, 23c,... Of the second motor command stored in the command storage unit 231b according to the second operation sequence, the motors 23a, 23b, The positions of the drive shafts 23c... Are initialized, and then a stationary operation is started.

図7は、第1の実施形態の変形例にかかるモータの動作状態を説明する概略図である。なお、図7中の曲線は、それぞれ、図中左側に記載されている耳17、瞼14、口15、頭11、右腕18、左腕18、右足19、左足19を駆動するためのモータに対応している。又、図7中の横軸は時間、縦軸はモータの動作量(電流値)、をそれぞれ示している。   FIG. 7 is a schematic diagram for explaining an operation state of the motor according to the modification of the first embodiment. The curves in FIG. 7 correspond to the motors for driving the ear 17, the heel 14, the mouth 15, the head 11, the right arm 18, the left arm 18, the right leg 19, and the left leg 19 shown on the left side in the figure, respectively. doing. Further, the horizontal axis in FIG. 7 represents time, and the vertical axis represents the motor operation amount (current value).

図7に示すように、顔検知部217により人間が検知された後も、右腕18、左腕18、右足19、左足19を駆動するためのモータが動作を続け、その後、それぞれのモータの動作量が0、即ちそれぞれのモータ駆動軸が初期位置に移動していることがわかる(図中の範囲A参照)。   As shown in FIG. 7, the motors for driving the right arm 18, the left arm 18, the right foot 19, and the left foot 19 continue to operate even after the human being is detected by the face detection unit 217, and then the operation amount of each motor. 0, that is, each motor drive shaft is moved to the initial position (see range A in the figure).

第1の実施形態では、人間が検知されたときのモータ駆動軸の位置を維持させているが、即ち人間が検知されたときのロボット10の各部の位置(姿勢)を維持させているが、本変形例のように、ロボット10の周辺の人間が検知された場合に、ロボット10の各部の位置(姿勢)を初期位置に移動させても良い。   In the first embodiment, the position of the motor drive shaft when a person is detected is maintained, that is, the position (posture) of each part of the robot 10 when a person is detected is maintained. As in this modification, when a person around the robot 10 is detected, the position (posture) of each part of the robot 10 may be moved to the initial position.

[第2の実施形態]
以下、図8、図9を参照しながら、第2の実施形態を説明する。但し、第1の実施形態と同等の構成や処理については、説明を省略することとする。
[Second Embodiment]
Hereinafter, the second embodiment will be described with reference to FIGS. 8 and 9. However, descriptions of configurations and processes equivalent to those of the first embodiment will be omitted.

第2の実施形態は、顔検知部217がロボット10の周囲に存在する人間を検知した場合に、ロボット10に、人間を検知したことを表現するための表情動作を実行させる点で、第1の実施形態と相違する。   In the second embodiment, when the face detection unit 217 detects a human existing around the robot 10, the robot 10 executes a facial expression operation for expressing that the human is detected. This is different from the embodiment.

(コントローラ21の機能ブロック図)
図8は、第2の実施形態にかかるコントローラ21の機能ブロック図である。
(Functional block diagram of controller 21)
FIG. 8 is a functional block diagram of the controller 21 according to the second embodiment.

図8に示すように、本実施形態にかかるコントローラ21は、さらに、第5の動作モジュール240と、コマンド格納部231eと、を備える。   As shown in FIG. 8, the controller 21 according to the present embodiment further includes a fifth operation module 240 and a command storage unit 231e.

第5の動作モジュール240は、第1の動作モジュール211よりも優先度が高く、顔検知部217から人物検知情報が通知された場合、ロボット10に、いわゆる表情動作を実行させるための第5のモータコマンドを生成する。   The fifth motion module 240 has a higher priority than the first motion module 211, and when the person detection information is notified from the face detection unit 217, the fifth motion module 240 causes the robot 10 to execute a so-called facial expression motion. Generate motor commands.

表情動作は、ロボット10の周囲に来訪した人間に、表情の変化を提示する動作である。表情動作の態様は、特に限定されるものではないが、例えば瞼14を開き、耳17を立て、口16を開閉させる態様としても良い。   The facial expression motion is an operation of presenting a change in facial expression to a person who has visited the robot 10. The manner of facial expression movement is not particularly limited. For example, the facial movement may be opened, the ear 17 is raised, and the mouth 16 is opened and closed.

第5のモータコマンドは、事前に設定された表情動作の動作シーケンス(以下、第5の動作シーケンスとする)を実現する複数のモータコマンドを含み、複数のモータコマンドを、それぞれの開始時刻順にモータ駆動部215からモータ23a、23b、23c…に通知することで、ロボット10に表情動作を実行させる。   The fifth motor command includes a plurality of motor commands for realizing a preset motion sequence of facial expression motion (hereinafter referred to as a fifth motion sequence), and the plurality of motor commands are motorized in the order of their start times. By notifying the motors 23a, 23b, 23c,... From the drive unit 215, the robot 10 is caused to perform facial expression movements.

コマンド格納部231eは、第5の動作モジュール240により生成されて、コマンド受信部230により振り分けられるモータコマンドを、それぞれの開始時刻に対応づけて格納している。   The command storage unit 231e stores motor commands generated by the fifth operation module 240 and distributed by the command reception unit 230 in association with the respective start times.

(コントローラ21による処理フロー)
図9は、第2の実施形態にかかるコントローラ21による処理のフローチャートである。
(Processing flow by the controller 21)
FIG. 9 is a flowchart of processing by the controller 21 according to the second embodiment.

図9に示すように、本実施形態にかかる処理フローでは、顔検知部217によりロボット10の周囲に人間が存在すると判断されたら(ステップS103のYes)、ロボット10に引き付け動作を実行させる前に(ステップS104)、第5の動作モジュール240は、表情動作を実行させるための第5のモータコマンドを生成する。コマンド受信部230は、第5の動作モジュール240により生成された第5のモータコマンドを受け取り、コマンド格納部231eに格納する。モータ駆動部215は、動作調停情報管理部232により管理された優先度テーブルに基づき、コマンド格納部231a、231b、231c、231d、231eの何れかに格納されたモータコマンドを、ロボット10のモータ23a、23b、23c…に通知する。このとき、コマンド格納部231aは、第1の動作モジュール211により生成された第1のモータコマンドを、コマンド格納部231eは、第5の動作モジュールにより生成された第1のモータコマンドを、それぞれ格納している。しかし、コマンド格納部231b、231c、231dは、何れもモータコマンドを格納していない。従って、モータ駆動部215は、第1のモータコマンド及び第5のモータコマンドのうち、優先度が高い第5のモータコマンドを、ロボット10のモータ23a、23b、23c…に通知する。これにより、ロボット10は、第5の動作シーケンスに従い、表情動作を実行する(ステップS201)。   As shown in FIG. 9, in the processing flow according to the present embodiment, if the face detection unit 217 determines that a human is present around the robot 10 (Yes in step S103), before the robot 10 performs an attraction operation. (Step S104), the fifth motion module 240 generates a fifth motor command for executing the facial expression motion. The command receiving unit 230 receives the fifth motor command generated by the fifth operation module 240 and stores it in the command storage unit 231e. Based on the priority table managed by the operation arbitration information management unit 232, the motor drive unit 215 converts the motor command stored in any of the command storage units 231a, 231b, 231c, 231d, and 231e into the motor 23a of the robot 10. , 23b, 23c... At this time, the command storage unit 231a stores the first motor command generated by the first operation module 211, and the command storage unit 231e stores the first motor command generated by the fifth operation module. doing. However, none of the command storage units 231b, 231c, and 231d stores motor commands. Therefore, the motor driving unit 215 notifies the motors 23a, 23b, 23c,... Of the robot 10 of the fifth motor command having the highest priority among the first motor command and the fifth motor command. Thereby, the robot 10 performs a facial expression motion according to the fifth motion sequence (step S201).

本実施形態によれば、顔検知部217によりロボット10の周囲に存在する人間が検知された場合、ロボット10に引き付け動作を実行させる前に、表情動作を実行させている。このため、ロボット10に気づいていないものの、ロボット10の付近に視線を向けている人間の注意や興味を、より低い刺激でロボット10に引き付けることができる。   According to the present embodiment, when the human being around the robot 10 is detected by the face detection unit 217, the facial expression operation is executed before the robot 10 performs the attraction operation. For this reason, although not aware of the robot 10, it is possible to attract the attention and interest of a human who is looking at the vicinity of the robot 10 to the robot 10 with a lower stimulus.

[第3の実施形態]
以下、図10を参照しながら、第3の実施形態を説明する。但し、第1の実施形態と同等の構成や処理については、説明を省略することとする。
[Third Embodiment]
Hereinafter, the third embodiment will be described with reference to FIG. However, descriptions of configurations and processes equivalent to those of the first embodiment will be omitted.

第3の実施形態は、顔検知部217により検知されていた人間が消失した場合に、ロボット10に、それまで実行していた引き付け動作を中止させる点で、第1の実施形態と相違する。   The third embodiment is different from the first embodiment in that when the human being detected by the face detection unit 217 disappears, the robot 10 stops the attracting operation that has been performed so far.

(コントローラ21による処理フロー)
図10は、第3の実施形態にかかるコントローラ21による処理のフローチャートである。
(Processing flow by the controller 21)
FIG. 10 is a flowchart of processing by the controller 21 according to the third embodiment.

図10に示すように、注意/興味判断部218により人間の注意や興味をロボット10に引き付けたと判断されなければ(ステップS105のNo)、顔検知部217は、撮像カメラ24により逐次取得される画像データに基づき、それまで検知されていた人間が消失したかどうか判断する(ステップS301)。   As illustrated in FIG. 10, if the attention / interest determination unit 218 does not determine that the human attention or interest has been attracted to the robot 10 (No in step S105), the face detection unit 217 is sequentially acquired by the imaging camera 24. Based on the image data, it is determined whether the human being detected so far has disappeared (step S301).

それまで検知されていた人間が消失したと判断されなければ(ステップS301のNo)、再度、注意/興味判断部218は、人間の注意や興味をロボット10に引き付けたかどうかの判断を継続する(ステップS105)。   If it is not determined that the human being detected so far has disappeared (No in step S301), the attention / interest determination unit 218 again determines whether or not the human attention or interest has been attracted to the robot 10 ( Step S105).

一方、それまで検知されていた人間が消失したと判断されたら(ステップS301のYes)、ロボット10に実行させていた引き付け動作を中止させ、再度、目的設定部222は、例えばサーバSからサービス情報を取得して、メモリ22に該サービス情報を記憶させる(ステップS101)。   On the other hand, if it is determined that the human being detected so far has disappeared (Yes in step S301), the attracting operation performed by the robot 10 is stopped, and the purpose setting unit 222 again receives service information from the server S, for example. And the service information is stored in the memory 22 (step S101).

本実施形態によれば、それまで顔検知部217により検知されていた人間が消失した場合に、ロボット10に実行させていた追従動作を中止させ、再度、目的設定をする。このため、サービスを提供すべき人間が消失したら、即座に、次にロボット10の周囲に来訪する人間へのインタラクションを準備することができる。   According to the present embodiment, when the human being detected by the face detection unit 217 disappears, the follow-up operation that has been performed by the robot 10 is stopped, and the objective setting is performed again. For this reason, when the person who should provide the service disappears, it is possible to immediately prepare an interaction with the person who visits the robot 10 next.

[第4の実施形態]
以下、図11を参照しながら、第4の実施形態を説明する。但し、第1の実施形態と同等の構成や処理については、説明を省略することとする。
[Fourth Embodiment]
Hereinafter, the fourth embodiment will be described with reference to FIG. However, descriptions of configurations and processes equivalent to those of the first embodiment will be omitted.

第4の実施形態は、例えばサーバSからのサービス情報がメモリ22に記憶されてないときに、ロボット10の周囲に人間が来訪した場合を想定している。このため、第4の実施形態は、顔検知部217がロボット10の周囲に存在する人間を検知してから、ロボット10が引き付け動作を実行するまでの間に、ロボット10に自発追従動作を実行させ、かつ、目的設定部222にサービス情報がメモリ22に記憶されているか判断させる点で、第1の実施形態と相違する。これに付随して、処理フローの開始後の目的設定が省略されている。   In the fourth embodiment, for example, a case where a person visits the robot 10 when service information from the server S is not stored in the memory 22 is assumed. For this reason, in the fourth embodiment, after the face detection unit 217 detects a human present around the robot 10 and before the robot 10 performs the attracting operation, the robot 10 performs the spontaneous tracking operation. In addition, the second embodiment is different from the first embodiment in that the purpose setting unit 222 determines whether the service information is stored in the memory 22. Along with this, the purpose setting after the start of the processing flow is omitted.

(コントローラ21の機能ブロック図)
図11は、第4の実施形態にかかるコントローラ21の機能ブロック図である。
(Functional block diagram of controller 21)
FIG. 11 is a functional block diagram of the controller 21 according to the fourth embodiment.

図11に示すように、本実施形態にかかるコントローラ21は、さらに、第6の動作モジュール250と、コマンド格納部231fと、を備える。   As shown in FIG. 11, the controller 21 according to the present embodiment further includes a sixth operation module 250 and a command storage unit 231f.

第6の動作モジュール250は、第1の動作モジュール211よりも優先度が高く、顔検知部217から人物検知情報が通知され、かつ、目的設定部222から目的設定情報が通知されない場合、ロボット10に、いわゆる自発追従動作を実行させるための第6のモータコマンドを生成する。   The sixth motion module 250 has a higher priority than the first motion module 211, and when the person detection information is notified from the face detection unit 217 and the purpose setting information is not notified from the purpose setting unit 222, the robot 10 In addition, a sixth motor command for executing a so-called spontaneous tracking operation is generated.

自発追従動作は、人間の注意や興味をロボット10に引き付ける予備的な動作であって、例えば、自発動作及び追従動作を含む。   The spontaneous tracking operation is a preliminary operation that attracts human attention and interest to the robot 10, and includes, for example, a spontaneous operation and a tracking operation.

自発動作は、人間がロボット10の周囲に来訪するまでの待機時間に実行される、例えば生き物らしさや、人間との触れ合いを演出するための動作である。自発動作の態様は、特に限定されるものではないが、少なくとも頭11、胴体12、目13、瞼14、鼻15、口16、耳17、腕18、足19の少なくとも1つを動作させる態様とされる。   Spontaneous movement is performed during the waiting time until a human visits the surroundings of the robot 10, for example, an action for directing the appearance of living creatures or human contact. The mode of spontaneous movement is not particularly limited, but is a mode in which at least one of head 11, body 12, eyes 13, eyelid 14, nose 15, mouth 16, ear 17, arm 18, and foot 19 is operated. It is said.

追従動作は、自発動作と同時に実行され、例えば頭11を胴体12の体軸Cを中心に回転させて、左右の目13により、例えば人間を追従する動作である。なお、本実施形態では、頭11を胴体12の体軸Cを中心に回転させているが、例えば左右の目13を動作させることで、例えば歩行中の人間を追従しても良い。   The following operation is performed simultaneously with the spontaneous operation, for example, an operation in which the head 11 is rotated about the body axis C of the body 12 and the human eyes 13 are followed by the left and right eyes 13, for example. In the present embodiment, the head 11 is rotated around the body axis C of the body 12. However, for example, by moving the left and right eyes 13, for example, a human being walking may be followed.

第6のモータコマンドは、事前に設定された自発動作及び追従動作の動作シーケンス(以下、第6の動作シーケンスとする)を実現する複数のモータコマンドを含み、複数のモータコマンドを、それぞれの開始時刻順にモータ駆動部215からモータ23a、23b、23c…に通知することで、ロボット10に自発動作及追従動作を実行させる。   The sixth motor command includes a plurality of motor commands for realizing an operation sequence (hereinafter referred to as a sixth operation sequence) of a spontaneous operation and a follow-up operation set in advance, and each of the plurality of motor commands is started. By notifying the motors 23a, 23b, 23c,... From the motor drive unit 215 in order of time, the robot 10 is caused to perform a spontaneous operation and a follow-up operation.

コマンド格納部231fは、第6の動作モジュール250により生成されて、コマンド受信部230により振り分けられるモータコマンドを、それぞれの開始時刻に対応づけて格納している。   The command storage unit 231f stores motor commands generated by the sixth operation module 250 and distributed by the command reception unit 230 in association with respective start times.

(コントローラ21による処理フロー)
図12は、第4の実施形態にかかるコントローラ21による処理のフローチャートである。
(Processing flow by the controller 21)
FIG. 12 is a flowchart of processing by the controller 21 according to the fourth embodiment.

本実施形態にかかる処理フローが開始したら、図12に示すように、ロボット10は、第1の動作シーケンスに従い、自発動作を開始する(ステップS102)。   When the processing flow according to the present embodiment is started, as shown in FIG. 12, the robot 10 starts a spontaneous operation according to the first operation sequence (step S102).

次に、顔検知部217は、撮像カメラ24により取得された画像データに基づき、ロボット10の周囲に人間が存在するか判断する(ステップS103)。顔検知部217によりロボット10の周囲に人間が存在すると判断されたら(ステップS103のYes)、第6の動作モジュール250は、自発追従動作、即ち自発動作及び追従動作を実行させるための第6のモータコマンドを生成する。コマンド受信部230は、第6の動作モジュール250により生成された第6のモータコマンドを受け取り、コマンド格納部231fに格納する。モータ駆動部215は、動作調停情報管理部232により管理されている優先度テーブルに基づき、コマンド格納部231a、231b、231c、231d、231fの何れかに格納されたモータコマンドを、ロボット10のモータ23a、23b、23c…に通知する。ここでは、コマンド格納部231aは、第1の動作モジュール211により生成された第1のモータコマンドを格納している。しかし、コマンド格納部231b、231c、231dは、何れもモータコマンドを格納していない。従って、モータ駆動部215は、コマンド格納部231aに格納された第1のモータコマンド及びコマンド格納部231fに格納された第6のモータコマンドのうち、優先度が高い第6のモータコマンドを、ロボット10のモータ23a、23b、23c…に通知する。これにより、ロボット10は、第6の動作シーケンスに従い、自発追従動作を実行する(ステップS401)。自発追従動作は、自発動作(ステップS401a)及び追従動作(ステップS401b)を含み、人間の注意や興味をロボット10に引き付けるための予備的な動作である。一方、顔検知部217によりロボット10の周囲に人間が存在すると判断されなければ(ステップS103のNo)、ロボット10は、再度、第1の動作シーケンスに従い、自発動作を開始する(ステップS102)。   Next, the face detection unit 217 determines whether a human is present around the robot 10 based on the image data acquired by the imaging camera 24 (step S103). If it is determined by the face detection unit 217 that a human is present around the robot 10 (Yes in step S103), the sixth operation module 250 performs a sixth operation for executing the spontaneous tracking operation, that is, the spontaneous motion and the tracking motion. Generate motor commands. The command receiving unit 230 receives the sixth motor command generated by the sixth operation module 250 and stores it in the command storage unit 231f. Based on the priority table managed by the operation arbitration information management unit 232, the motor drive unit 215 sends the motor command stored in any of the command storage units 231a, 231b, 231c, 231d, and 231f to the motor of the robot 10. To 23a, 23b, 23c. Here, the command storage unit 231a stores the first motor command generated by the first operation module 211. However, none of the command storage units 231b, 231c, and 231d stores motor commands. Therefore, the motor drive unit 215 sends the sixth motor command having a higher priority among the first motor command stored in the command storage unit 231a and the sixth motor command stored in the command storage unit 231f to the robot. 10 motors 23a, 23b, 23c... Thereby, the robot 10 performs a spontaneous tracking operation according to the sixth operation sequence (step S401). The spontaneous tracking operation includes a spontaneous operation (step S401a) and a tracking operation (step S401b), and is a preliminary operation for attracting human attention and interest to the robot 10. On the other hand, if it is not determined by the face detection unit 217 that a human is present around the robot 10 (No in step S103), the robot 10 starts a spontaneous operation again according to the first operation sequence (step S102).

次に、目的設定部222は、例えばサーバSからのサービス情報がメモリ22に記憶されているか判断する(ステップS402)。例えばサーバSからのサービス情報がメモリ22に記憶されていると判断されたら(ステップS402のYes)、ロボット10は、第2の動作シーケンスに従い、引き付け動作を実行する(ステップS104)。引き付け動作は、静止動作(ステップS104a)及び追従動作(ステップS104b)を含み、人間の注意や興味をロボット10に引き付けるための動作である。一方、例えばサーバSからのサービス情報がメモリ22に記憶されていると判断されたら(ステップS402のNo)、ロボット10は、再度、第6の動作シーケンスに従い、自発追従動作を実行する(ステップS401)。又、例えばサーバSからのサービス情報がメモリ22に記憶されていると判断されたら(ステップS402のYes)、時刻管理部220は、サービス情報がメモリ22に記憶されていると判断されたことをトリガとして、タイムカウントを開始する。   Next, the purpose setting unit 222 determines whether service information from the server S is stored in the memory 22 (step S402). For example, if it is determined that the service information from the server S is stored in the memory 22 (Yes in Step S402), the robot 10 performs an attracting operation according to the second operation sequence (Step S104). The attraction operation includes a stationary operation (step S104a) and a follow-up operation (step S104b), and is an operation for attracting human attention and interest to the robot 10. On the other hand, for example, if it is determined that the service information from the server S is stored in the memory 22 (No in step S402), the robot 10 executes the following operation again according to the sixth operation sequence (step S401). ). For example, if it is determined that service information from the server S is stored in the memory 22 (Yes in step S402), the time management unit 220 determines that the service information is stored in the memory 22. Time counting is started as a trigger.

次に、注意/興味判断部218は、人間の注意や興味をロボット10に引き付けたかどうか判断する(ステップS105)。人間の注意や興味をロボット10に引き付けたと判断されたら(ステップS105のYes)、第3の動作モジュール213は、メモリ22に記憶されたサービス情報に基づき、人間にサービスを提供、即ち目的動作を実行する(ステップS106)。   Next, the attention / interest determination unit 218 determines whether or not human attention or interest has been attracted to the robot 10 (step S105). If it is determined that human attention or interest has been attracted to the robot 10 (Yes in step S105), the third operation module 213 provides a service to the human based on the service information stored in the memory 22, that is, performs the target operation. Execute (Step S106).

次に、動作調停情報管理部232は、モータ駆動部215が目的動作の実行を完了させたかどうか判断する(ステップS107)。動作調停情報管理部232により目的動作の実行が完了したと判断されたら(ステップS107のYes)、処理フローが終了する。一方、動作調停情報管理部232により目的動作の遂行が完了したと判断されなければ(ステップS107のNo)、再度、ロボット10は、第1の動作シーケンスに従い、自発動作を開始する(ステップS102)。   Next, the operation arbitration information management unit 232 determines whether or not the motor driving unit 215 has completed the execution of the target operation (step S107). If the operation arbitration information management unit 232 determines that the execution of the target operation has been completed (Yes in step S107), the processing flow ends. On the other hand, if it is not determined by the operation arbitration information management unit 232 that the execution of the target operation has been completed (No in step S107), the robot 10 again starts a spontaneous operation according to the first operation sequence (step S102). .

一方、人間の注意や興味をロボット10に引き付けたと判断されなければ(ステップS105のNo)、時刻管理部220は、顔検知部217によりロボット10の周囲に存在する人間が検知されてからの経過時間が、事前に決められた第3の時間を超えたかどうか判断する(ステップS108)。第3の時間は、目的設定部222が、例えばサーバSからのサービス情報がメモリ22に記憶してから、注意/興味判断部218が、人間の注意や興味をロボット10に引き付けるまでの経過時間の閾値である。   On the other hand, if it is not determined that human attention or interest has been attracted to the robot 10 (No in step S105), the time management unit 220 has elapsed since the human being present around the robot 10 was detected by the face detection unit 217. It is determined whether the time has exceeded a predetermined third time (step S108). The third time is an elapsed time from when the purpose setting unit 222 stores service information from the server S in the memory 22 until the attention / interest determination unit 218 attracts human attention and interest to the robot 10. Is the threshold value.

経過時間が第3の時間を超えたと判断されたら(ステップS108のYes)、ロボット10は、再度、第2の動作シーケンスに従い、引き付け動作を実行する(ステップS104)。一方、経過時間が第3の時間を超えたと判断されなければ(ステップS108のNo)、ロボット10は、再度、第2の動作シーケンスに従い、引き付け動作を実行する(ステップS104)。   If it is determined that the elapsed time has exceeded the third time (Yes in step S108), the robot 10 performs the attracting operation again according to the second operation sequence (step S104). On the other hand, if it is not determined that the elapsed time has exceeded the third time (No in step S108), the robot 10 performs the attracting operation again according to the second operation sequence (step S104).

本実施形態によれば、例えばサーバSからのサービス情報がメモリ22に記憶されてないときに、ロボット10の周囲に人間が来訪しても、その後、例えばサーバSからのサービス情報がメモリ22に記憶された時点で、人間の注意や興味をロボット10に引き付け、ロボット10の周囲に来訪する人間に、それぞれの来訪のタイミングに最適なサービスを提供することができる。   According to the present embodiment, for example, when service information from the server S is not stored in the memory 22, even if a person visits the robot 10, service information from the server S is subsequently stored in the memory 22. At the time of storage, it is possible to attract the attention and interest of human beings to the robot 10, and provide a person who visits the surroundings of the robot 10 with the optimum service for each visit timing.

10:ロボット
11:頭
12:胴体
18:腕
19:足
24:撮像カメラ
211:第1の動作モジュール
212:第2の動作モジュール
213:第3の動作モジュール
214:第4の動作モジュール
215:モータ駆動部
216:モータコマンド制御部
217:顔検知部
218:注意/興味判断部
219:接触検知部
222:目的設定部
231a:コマンド格納部
231b:コマンド格納部
231c:コマンド格納部
231d:コマンド格納部
231e:コマンド格納部
231f:コマンド格納部
240:第5の動作モジュール
250:第6の動作モジュール
10: Robot 11: Head 12: Body 18: Arm 19: Foot 24: Imaging camera 211: First operation module 212: Second operation module 213: Third operation module 214: Fourth operation module 215: Motor Drive unit 216: Motor command control unit 217: Face detection unit 218: Attention / interest determination unit 219: Contact detection unit 222: Purpose setting unit 231a: Command storage unit 231b: Command storage unit 231c: Command storage unit 231d: Command storage unit 231e: Command storage unit 231f: Command storage unit 240: Fifth operation module 250: Sixth operation module

Claims (6)

胴体部と、視覚センサが搭載される頭部と、を有するロボット本体と、
前記視覚センサにより取得された情報に基づき、前記ロボット本体の周囲の人物を検知する第1の検知部と、
前記胴体部に第1の動作を実行させる第1の動作モジュールと、
前記胴体部に前記第1の動作を実行させているときに、前記第1の検知部が前記人物を検知した場合、事前に決められた時間だけ前記第1の動作を停止させ、かつ、前記視覚センサが前記人物を追従する様に、前記頭部に第2の動作を実行させる第2の動作モジュールと、
を備えるロボット。
A robot body having a body part and a head on which a visual sensor is mounted;
A first detection unit for detecting a person around the robot body based on information acquired by the visual sensor;
A first motion module that causes the body portion to perform a first motion;
When the first detection unit detects the person when the body unit performs the first operation, the first operation is stopped for a predetermined time, and the A second motion module that causes the head to perform a second motion so that a visual sensor follows the person;
Robot equipped with.
請求項1に記載のロボットに於いて、
前記胴体部は、胴体と上肢又は下肢とを含み、
前記第1の動作モジュールは、前記胴体と前記上肢又は下肢と、のうち少なくとも1つに前記第1の動作を実行させるロボット。
The robot according to claim 1, wherein
The torso part includes a torso and an upper limb or a lower limb,
The first motion module is a robot that causes at least one of the body and the upper limb or the lower limb to execute the first motion.
請求項1又は2に記載のロボットに於いて、さらに、
前記人物の興味を引き付けたことを検知する第2の検知部と、
前記第2の検知部が前記人物の興味を引き付けたことを検知した場合、前記胴体部及び前記頭部の少なくとも1つに、前記人物にサービスを提供する第3の動作を実行させる第3の動作モジュールと、
を備えるロボット。
The robot according to claim 1, further comprising:
A second detection unit for detecting that the person's interest has been attracted;
When the second detection unit detects that the person's interest has been attracted, a third operation for causing the at least one of the body part and the head to provide a service to the person is performed. An operation module;
Robot equipped with.
請求項1乃至3の何れかに記載のロボットに於いて、
前記第1の検知部は、第1の時刻に前記人物を検知する第1の検知と、前記第1の時刻よりも遅い第2の時刻に前記人物を検知する第2の検知と、を実行し、
さらに、前記第1の検知により検知された前記人物が前記第2の検知により検知されない場合に、前記第2の動作を停止させ、かつ、前記第1の動作を実行させる第4の動作モジュールを備えるロボット。
In the robot according to any one of claims 1 to 3,
The first detection unit performs a first detection for detecting the person at a first time and a second detection for detecting the person at a second time later than the first time. And
A fourth operation module for stopping the second operation and executing the first operation when the person detected by the first detection is not detected by the second detection; Robot with
胴体部と、視覚センサが搭載される頭部と、を有するロボットの制御方法に於いて、
前記視覚センサにより取得された情報に基づき、前記ロボット本体の周囲の人物を検知する工程と、
前記胴体部に第1の動作を実行させる工程と、
前記胴体部に前記第1の動作を実行させているときに、前記人物が検知された場合、プロセッサにより、事前に決められた時間だけ前記第1の動作を停止させ、かつ、前記視覚センサが前記人物を追従する様に、前記頭部に第2の動作を実行させる工程と、
を備えるロボットの制御方法。
In a control method of a robot having a body part and a head on which a visual sensor is mounted,
Detecting a person around the robot body based on information acquired by the visual sensor;
Causing the body portion to perform a first operation;
If the person is detected while the body part is performing the first action, the processor stops the first action for a predetermined time by the processor, and the visual sensor Causing the head to perform a second action to follow the person;
A method for controlling a robot comprising:
胴体部と、視覚センサが搭載される頭部と、を有するロボットを制御する制御プログラムに於いて、前記プログラムは、コンピュータに、
前記視覚センサにより取得された情報に基づき、前記ロボット本体の周囲の人物を検知するステップと、
前記胴体部に第1の動作を実行させるステップと、
前記胴体部に前記第1の動作を実行させているときに、前記人物が検知された場合、事前に決められた時間だけ前記第1の動作を停止させ、かつ、前記視覚センサが前記人物を追従する様に、前記頭部に第2の動作を実行させるステップと、
を実行させる制御プログラム。
In a control program for controlling a robot having a body part and a head on which a visual sensor is mounted, the program is stored in a computer.
Detecting a person around the robot body based on information acquired by the visual sensor;
Causing the body portion to perform a first operation;
If the person is detected while the body part is performing the first action, the first action is stopped for a predetermined time, and the visual sensor Causing the head to perform a second action to follow,
Control program to execute
JP2011243570A 2011-11-07 2011-11-07 Robot, method for controlling robot, and control program Pending JP2013099800A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011243570A JP2013099800A (en) 2011-11-07 2011-11-07 Robot, method for controlling robot, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011243570A JP2013099800A (en) 2011-11-07 2011-11-07 Robot, method for controlling robot, and control program

Publications (1)

Publication Number Publication Date
JP2013099800A true JP2013099800A (en) 2013-05-23

Family

ID=48620977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011243570A Pending JP2013099800A (en) 2011-11-07 2011-11-07 Robot, method for controlling robot, and control program

Country Status (1)

Country Link
JP (1) JP2013099800A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017029309A (en) * 2015-07-30 2017-02-09 富士通株式会社 toy
US9919429B2 (en) 2013-09-27 2018-03-20 Nec Corporation Robot, control method, and program
JP2020049648A (en) * 2018-09-26 2020-04-02 ディズニー エンタープライジーズ インコーポレイテッド Interactive autonomous robot configured for programmatic interpretation of social cues
WO2020100488A1 (en) * 2018-11-13 2020-05-22 株式会社日立製作所 Communication robot
US11000952B2 (en) 2017-06-23 2021-05-11 Casio Computer Co., Ltd. More endearing robot, method of controlling the same, and non-transitory recording medium
JP2022087019A (en) * 2020-11-30 2022-06-09 ネイバーラボス コーポレーション Method and cloud server for controlling robot providing service in connection with service application

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001300148A (en) * 2000-04-18 2001-10-30 Casio Comput Co Ltd Action response system and program recording medium therefor
JP2002120182A (en) * 2000-10-11 2002-04-23 Sony Corp Robot device and control method for it
JP2004034274A (en) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd Conversation robot and its operation method
JP2007216363A (en) * 2006-02-20 2007-08-30 Saitama Univ Communication robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001300148A (en) * 2000-04-18 2001-10-30 Casio Comput Co Ltd Action response system and program recording medium therefor
JP2002120182A (en) * 2000-10-11 2002-04-23 Sony Corp Robot device and control method for it
JP2004034274A (en) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd Conversation robot and its operation method
JP2007216363A (en) * 2006-02-20 2007-08-30 Saitama Univ Communication robot

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015018171; Bennewitz, M. ;Faber, F. ; Joho, D. ; Behnke, S.: 'Fritz - A Humanoid Communication Robot' Robot and Human interactive Communication, 2007. RO-MAN 2007. The 16th IEEE International Symposium , 20070826, pp.1072 - 1077 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9919429B2 (en) 2013-09-27 2018-03-20 Nec Corporation Robot, control method, and program
JP2017029309A (en) * 2015-07-30 2017-02-09 富士通株式会社 toy
US11000952B2 (en) 2017-06-23 2021-05-11 Casio Computer Co., Ltd. More endearing robot, method of controlling the same, and non-transitory recording medium
JP2020049648A (en) * 2018-09-26 2020-04-02 ディズニー エンタープライジーズ インコーポレイテッド Interactive autonomous robot configured for programmatic interpretation of social cues
US11890747B2 (en) 2018-09-26 2024-02-06 Disney Enterprises, Inc. Interactive autonomous robot configured with in-character safety response protocols
WO2020100488A1 (en) * 2018-11-13 2020-05-22 株式会社日立製作所 Communication robot
JP2020078448A (en) * 2018-11-13 2020-05-28 株式会社日立製作所 Communication robot
CN112912152A (en) * 2018-11-13 2021-06-04 株式会社日立制作所 AC robot
CN112912152B (en) * 2018-11-13 2022-07-22 株式会社日立制作所 AC robot
JP7253900B2 (en) 2018-11-13 2023-04-07 株式会社日立製作所 communication robot
JP2022087019A (en) * 2020-11-30 2022-06-09 ネイバーラボス コーポレーション Method and cloud server for controlling robot providing service in connection with service application
JP7353341B2 (en) 2020-11-30 2023-09-29 ネイバーラボス コーポレーション A method for controlling a robot that provides services in conjunction with a service application and a cloud server

Similar Documents

Publication Publication Date Title
JP6940879B2 (en) Robot control systems, machine control systems, robot control methods, machine control methods, and computer programs
JP6572943B2 (en) Robot, robot control method and program
JP2013099800A (en) Robot, method for controlling robot, and control program
CN110024000B (en) Behavior autonomous robot for changing pupil
CN106794579B (en) humanoid robot with independent living ability
JP7128842B2 (en) Entertainment systems, robotic devices and server devices
JP6678897B2 (en) robot
CN117001687A (en) Robot and behavior autonomous robot
CN113164822B (en) Robot for wearing clothes
JP2020000279A (en) Autonomously acting type robot assuming virtual character
JP7288686B2 (en) A robot with a flexible outer skin
CN113165177B (en) Information processing apparatus, method for processing information, and program
JP2024045566A (en) Robot that houses the moving mechanism
CN110382181B (en) Joint structure suitable for joint of robot
JP2024009862A (en) Information processing apparatus, information processing method, and program
JP7320240B2 (en) robot
JP7139643B2 (en) Robot, robot control method and program
JP2007130691A (en) Communication robot
Balaji et al. Smart phone accelerometer sensor based wireless robot for physically disabled people
JP6568601B2 (en) Robot, robot control method, and program
JP4878462B2 (en) Communication robot
WO2024071169A1 (en) Robot, control method, and program
JP2023141743A (en) Robot system and method for controlling robot
JP7190919B2 (en) Image analysis system
WO2024071171A1 (en) Robot, learning device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151027