JP2019010708A - Communication device, communication method and program - Google Patents

Communication device, communication method and program Download PDF

Info

Publication number
JP2019010708A
JP2019010708A JP2017129005A JP2017129005A JP2019010708A JP 2019010708 A JP2019010708 A JP 2019010708A JP 2017129005 A JP2017129005 A JP 2017129005A JP 2017129005 A JP2017129005 A JP 2017129005A JP 2019010708 A JP2019010708 A JP 2019010708A
Authority
JP
Japan
Prior art keywords
result
instruction
robot
user
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017129005A
Other languages
Japanese (ja)
Inventor
辰徳 高木
Tatsunori Takagi
辰徳 高木
広城 渥美
Hiroki Atsumi
広城 渥美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017129005A priority Critical patent/JP2019010708A/en
Publication of JP2019010708A publication Critical patent/JP2019010708A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a communication device, a communication method and a program excellent in affinity with human beings.SOLUTION: An instruction reception part 1100 receives an input from a user as an instruction to a communication device 1000. An instruction operation execution part 1001 executes an operation corresponding to the instruction received by the instruction reception part 1100 as an instruction operation. An outcome detection part 1002 detects an outcome of the instruction operation as outcome information. An outcome expression operation execution part 1003 executes an operation including a feeling expression operation which is assumed that the operation applies a good affection to a feeling of a user who observes an outcome of the instruction operation, as an outcome expression operation, based on the outcome information detected by the outcome detection part 1002.SELECTED DRAWING: Figure 4

Description

本発明は人間と機械がコミュニケーションをとる技術に関する。   The present invention relates to a technology in which a human and a machine communicate with each other.

ユーザと自然なコミュニケーションを行うことができ、人間との親和性に優れたロボットの需要が高まっている。そのため、ユーザの感情を考慮したコミュニケーションを実行するロボットが提案されている。   There is an increasing demand for robots that can communicate naturally with users and have excellent human compatibility. Therefore, a robot that performs communication in consideration of the user's emotion has been proposed.

特許文献1には、ユーザの発話に基づいてユーザの感情を推定し、推定した感情に基づいて応答する対話処理装置に係る技術が開示されている。   Patent Document 1 discloses a technology related to a dialogue processing apparatus that estimates a user's emotion based on the user's utterance and responds based on the estimated emotion.

特開2006−178063号公報JP 2006-178063 A

しかし、特許文献1に記載の対話処理装置はユーザの発話を待って応答するため、この対話処理装置を適用したロボットでは、ユーザが発話をする前にロボットが発話をすべき場合には対応できない。よって、特許文献1に記載の対話処理装置を適用したロボットでは人間との親和性が十分とはいえない。   However, since the dialogue processing device described in Patent Document 1 responds after waiting for the user's utterance, the robot to which the dialogue processing device is applied cannot cope with the case where the robot should speak before the user speaks. . Therefore, the robot to which the dialogue processing device described in Patent Document 1 is applied does not have sufficient affinity with humans.

本発明の目的は、上記の事情に鑑み、人間との親和性に優れたコミュニケーション装置、コミュニケーション方法及びプログラムを提供することにある。   In view of the above circumstances, an object of the present invention is to provide a communication device, a communication method, and a program excellent in affinity with humans.

上記の目的を達成するために、本発明に係るコミュニケーション装置は、
外部からの指示に基づく動作を指示動作として実行する指示動作実行部と、
前記指示動作実行部が実行した指示動作の成果を成果情報として検出する成果検出部と、
前記成果検出部が検出した成果情報に基づいて、前記指示動作実行部が実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行部と、
を備える。
In order to achieve the above object, a communication device according to the present invention includes:
An instruction operation execution unit that executes an operation based on an instruction from the outside as an instruction operation;
A result detection unit that detects a result of the instruction operation executed by the instruction operation execution unit as result information;
Based on the result information detected by the result detection unit, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who viewed the instruction operation performed by the instruction operation execution unit is executed as a result expression operation. The result expression operation execution unit
Is provided.

本発明によれば、人間との親和性に優れたコミュニケーションをすることができる。   According to the present invention, communication excellent in affinity with humans can be performed.

(a)は、実施の形態1に係るロボットの左側面図であり、(b)は、実施の形態1に係るロボットの正面図であり、(c)は、実施の形態1に係るロボットの背面図である。(A) is a left side view of the robot according to the first embodiment, (b) is a front view of the robot according to the first embodiment, and (c) is a diagram of the robot according to the first embodiment. It is a rear view. 実施の形態1に係るロボットのハードウェア構成図である。2 is a hardware configuration diagram of a robot according to Embodiment 1. FIG. (a)は、実施の形態1に係るロボットが安定した床面上で直立していることを示す図であり、(b)は、実施の形態1に係るロボットが不安定な床面上で傾斜して立っていることを示す図である。(A) is a figure which shows that the robot which concerns on Embodiment 1 stands upright on the stable floor surface, (b) is on the floor surface where the robot which concerns on Embodiment 1 is unstable. It is a figure which shows being inclined and standing. 実施の形態1に係る、コミュニケーション装置としてのロボットのブロック図である。1 is a block diagram of a robot as a communication device according to Embodiment 1. FIG. 実施の形態1に係るロボットの動作の流れを示すフローチャートである。3 is a flowchart showing a flow of operations of the robot according to the first embodiment. 実施の形態1に係るロボットが移動をするよう指示を受けたときの指示動作に係るフローチャートである。6 is a flowchart relating to an instruction operation when the robot according to the first embodiment receives an instruction to move. 実施の形態1に係るロボットが一芸をするよう指示を受けたときの指示動作に係るフローチャートである。4 is a flowchart relating to an instruction operation when the robot according to the first embodiment receives an instruction to perform a trick. 実施の形態1に係るロボットが実行する成果表現動作の具体例を示す図である。It is a figure which shows the specific example of the result expression operation | movement which the robot which concerns on Embodiment 1 performs. (a)は、実施の形態2に係るロボットの左側面図であり、(b)は、実施の形態2に係るロボットの背面図である。(A) is a left side view of the robot according to the second embodiment, and (b) is a rear view of the robot according to the second embodiment. 実施の形態3に係るロボットの左側面図である。FIG. 10 is a left side view of the robot according to the third embodiment. 実施の形態3に係るロボットが安定した床面上で直立していることを示す図である。It is a figure which shows that the robot which concerns on Embodiment 3 is standing upright on the stable floor surface.

以下、本発明を実施するための形態に係るコミュニケーション装置を図面を参照しながら説明する。   Hereinafter, a communication apparatus according to an embodiment for carrying out the present invention will be described with reference to the drawings.

(実施の形態1)
実施の形態1に係るロボット1(コミュニケーション装置)は、図1に示すように、ペット型ロボットであり、屋内での使用が想定されている。ロボット1はユーザとコミュニケーションをすることができる。また、ロボット1はユーザの指示に反応して、車輪による走行、一芸の披露などの動作を行うことができる。
(Embodiment 1)
As shown in FIG. 1, the robot 1 (communication device) according to the first embodiment is a pet-type robot and is assumed to be used indoors. The robot 1 can communicate with the user. In addition, the robot 1 can perform operations such as traveling by wheels and performing a performance in response to a user instruction.

ロボット1は、図1に示すように、胴体部10と頭部20とを備える。頭部20は胴体部10と一体的に成形されているが、頭部20と胴体部10とを別パーツとして成形し、首関節パーツにより接続してもよい。   As shown in FIG. 1, the robot 1 includes a body part 10 and a head part 20. Although the head 20 is formed integrally with the body part 10, the head 20 and the body part 10 may be formed as separate parts and connected by neck joint parts.

胴体部10は、前輪11と後輪12と尻尾13とを備える。前輪11は胴体部10の前方側に、左右1つずつ設けられ、後輪12は胴体部10の後方側に、左右1つずつ設けられている。尻尾13は胴体部10と一体的に成形されているが、尻尾13を別パーツとして成形して胴体部10と接続してもよい。図2に示すように、前輪11と後輪12は、ともに後述の駆動部120と接続され、駆動部120が駆動することにより車輪が回転する。   The body part 10 includes a front wheel 11, a rear wheel 12, and a tail 13. The front wheel 11 is provided on the front side of the body part 10 one by one on the left and the right, and the rear wheel 12 is provided on the rear side of the body part 10 one by one on the left and right. Although the tail 13 is formed integrally with the body portion 10, the tail 13 may be formed as a separate part and connected to the body portion 10. As shown in FIG. 2, both the front wheels 11 and the rear wheels 12 are connected to a drive unit 120 described later, and the wheels rotate when the drive unit 120 is driven.

頭部20は、目21と口22と耳23とを備える。目21と耳23はともに、左右1つずつ設けられている。   The head 20 includes eyes 21, a mouth 22, and ears 23. Both the eyes 21 and the ears 23 are provided one on the left and one on the right.

目21の内部には、測域センサ211と人感センサ212とが設けられている。測域センサ211は後述の障害物検知、環境地図作成、自己位置推定に用いられる。人感センサ212はユーザの存在検知に用いられる。なお、人感センサ212を設けず、測域センサ211を利用してユーザの存在を検知する構成としてもよい。   A range sensor 211 and a human sensor 212 are provided inside the eye 21. The range sensor 211 is used for obstacle detection, environment map creation, and self-position estimation described later. The human sensor 212 is used to detect the presence of the user. In addition, it is good also as a structure which does not provide the human sensor 212 but detects presence of a user using the range sensor 211. FIG.

口22の内部には、衝撃センサ221と重力センサ222とスピーカ223とが設けられている。衝撃センサ221は、ロボット1が障害物に衝突したことの検知、ロボット1が転倒したことの検知、ユーザがロボット1の頭部20を叩いたことの検知、などに用いられる。重力センサ222は、傾いている状態、転倒している状態などロボット1の体勢の検知に用いられる。スピーカ223は合成音声によるユーザとのコミュニケーションに用いられる。   Inside the mouth 22, an impact sensor 221, a gravity sensor 222, and a speaker 223 are provided. The impact sensor 221 is used for detecting that the robot 1 has collided with an obstacle, detecting that the robot 1 has fallen, detecting that the user has hit the head 20 of the robot 1, and the like. The gravity sensor 222 is used to detect the posture of the robot 1 such as a tilted state or a falling state. The speaker 223 is used for communication with the user by synthetic voice.

耳23の内部には、カメラ231とマイク232とが設けられている。カメラ231はロボット1の周囲を撮像して画像データとして出力する。撮像した画像データは障害物検知、自己位置推定、後述の動作成果判定などに用いられる。カメラ231には、ロボット1の周囲全方向について撮像可能な全方位カメラを採用することが好ましい。マイク232は周囲の音声を音声データとして出力する。音声データは後述の制御部110が実行する指示認識プログラム101の音声認識機能により、ロボット1に対する指示として認識される。   A camera 231 and a microphone 232 are provided inside the ear 23. The camera 231 images the surroundings of the robot 1 and outputs it as image data. The captured image data is used for obstacle detection, self-position estimation, operation result determination described later, and the like. The camera 231 is preferably an omnidirectional camera that can capture images in all directions around the robot 1. The microphone 232 outputs surrounding sound as sound data. The voice data is recognized as an instruction to the robot 1 by a voice recognition function of an instruction recognition program 101 executed by the control unit 110 described later.

胴体部10の内部には、記憶部100と制御部110と駆動部120とが設けられている。また、図示しない電源も設けられている。   Inside the body unit 10, a storage unit 100, a control unit 110, and a drive unit 120 are provided. A power supply (not shown) is also provided.

記憶部100は、フラッシュメモリ等の記録媒体を備え、制御部110によって実行される各種プログラム、各種データを記憶する。具体的には、記憶部100は、指示認識プログラム101、動作制御プログラム102、地図作成プログラム103、成果判定プログラム104、地図データ105及び成果データ106を記憶する。   The storage unit 100 includes a recording medium such as a flash memory, and stores various programs executed by the control unit 110 and various data. Specifically, the storage unit 100 stores an instruction recognition program 101, an operation control program 102, a map creation program 103, a result determination program 104, map data 105, and result data 106.

指示認識プログラム101は、ユーザの入力をロボット1に対する指示として認識するためのプログラムである。発話すること、ロボット1の頭を軽く叩くこと、などがユーザの入力に該当する。指示認識プログラム101は、マイク232から取得した音声データ及び衝撃センサ221から取得した衝撃データに基づいてユーザの入力を認識する。指示認識プログラム101は、取得した音声データをテキストデータに変換する音声認識機能を有する。指示認識プログラム101は、取得した衝撃データに基づいて、ユーザがロボット1を叩いたことを判定する。例えば、0.5秒の間だけ衝撃データの値が一定値以上だった場合に、ユーザがロボット1を叩いたと判定する。指示認識プログラム101は、音声認識機能により取得したテキストデータと、ユーザがロボット1を叩いたことを判定した結果と、に基づいてユーザの入力をロボット1に対する指示として認識する。そして指示認識プログラムは、認識した指示を示す情報を動作制御プログラム102に受け渡す。   The instruction recognition program 101 is a program for recognizing a user input as an instruction for the robot 1. Speaking and tapping the head of the robot 1 correspond to user input. The instruction recognition program 101 recognizes a user input based on the voice data acquired from the microphone 232 and the impact data acquired from the impact sensor 221. The instruction recognition program 101 has a voice recognition function for converting acquired voice data into text data. The instruction recognition program 101 determines that the user has hit the robot 1 based on the acquired impact data. For example, it is determined that the user has hit the robot 1 when the value of the impact data is equal to or greater than a certain value for 0.5 seconds. The instruction recognition program 101 recognizes the user's input as an instruction to the robot 1 based on the text data acquired by the voice recognition function and the result of determining that the user has hit the robot 1. Then, the instruction recognition program delivers information indicating the recognized instruction to the operation control program 102.

例えば、ユーザが「部屋の入り口まで移動して」と発話し、続けてロボット1の頭を2回叩くことが、ロボット1を部屋の入り口まで移動させる指示に対応するものとして、指示認識プログラム101に認識させる場合を考える。まず、指示認識プログラム101はマイク232からユーザの発話に係る音声データを取得して音声認識機能によりテキストデータに変換する。変換結果が「部屋の入り口まで移動して」を表すデータであるかを判定する。「部屋の入り口まで移動して」を表すデータであることを判定した場合、続いて指示認識プログラム101は、衝撃センサ221から衝撃データを取得する。指示認識プログラム101は、取得した衝撃データに基づき、一定時間内に2回ロボット1が叩かれたことを判定すると、ユーザの入力が、ロボット1を部屋の入り口まで移動させる指示であることを認識する。そして指示認識プログラム101は、ロボット1を部屋の入り口まで移動させる指示を示す情報を動作制御プログラム102に受け渡す。   For example, if the user speaks “move to the entrance of the room” and subsequently hits the head of the robot 1 twice, the instruction recognition program 101 assumes that the instruction to move the robot 1 to the entrance of the room corresponds to the instruction. Consider the case where you want to recognize. First, the instruction recognition program 101 acquires voice data related to the user's utterance from the microphone 232 and converts it into text data by the voice recognition function. It is determined whether the conversion result is data representing “moving to the entrance of the room”. When it is determined that the data represents “move to the entrance of the room”, the instruction recognition program 101 subsequently acquires impact data from the impact sensor 221. When the instruction recognition program 101 determines that the robot 1 has been hit twice within a predetermined time based on the acquired impact data, the instruction recognition program 101 recognizes that the user input is an instruction to move the robot 1 to the entrance of the room. To do. The instruction recognition program 101 delivers information indicating an instruction to move the robot 1 to the entrance of the room to the operation control program 102.

動作制御プログラム102は、指示認識プログラム101から受け取った情報に対応して、指示に基づいたロボット1の動作を制御する。目的地まで移動すること、一芸を行うこと、などが指示に基づいたロボット1の動作に該当する。動作制御プログラム102は、頭部20内の各種機器から取得した情報に基づいてロボット1の動作を制御する。ロボット1の移動を制御する際には適宜、地図データ105にも基づいて制御する。また、動作制御プログラム102は、成果判定プログラム104の判定結果に基づいて、指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作をロボット1に実行させる制御も行う。成果については後述する。指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作に該当する例として、よい成果があげられずユーザが負の感情を生じると想定されるときには、ユーザに対して合成音声で謝罪をしてユーザの負の感情を緩和すること、優れた成果をあげてユーザが正の感情を生じると想定されるときには、ユーザに対して音声と動きで喜びを表現してユーザの正の感情を増幅すること、などが挙げられる。なお、正の感情、負の感情としては、例えば感情地図(『感覚・感情とロボット』福田収一(監修)光吉俊二他(著)工業調査会(日本機械学会編集), pp. 275-308, 2008年)を利用することができる。   The operation control program 102 controls the operation of the robot 1 based on the instruction in response to the information received from the instruction recognition program 101. Moving to the destination, performing a performance, etc. correspond to the operation of the robot 1 based on the instruction. The motion control program 102 controls the motion of the robot 1 based on information acquired from various devices in the head 20. When the movement of the robot 1 is controlled, it is controlled based on the map data 105 as appropriate. Further, the operation control program 102 also performs control for causing the robot 1 to perform an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who viewed the instruction operation based on the determination result of the result determination program 104. Do. The results will be described later. As an example of an emotion expression that is expected to have a positive effect on the emotion of the user who saw the pointing action, it is synthesized for the user when the outcome is not good and the user is expected to produce a negative emotion. Apologize with voice to alleviate the negative emotions of the user, and when it is assumed that the user will produce positive emotions with excellent results, express joy to the user with voice and movement. Amplifying positive emotions. Positive emotions and negative emotions include, for example, emotion maps ("Senses / Emotions and Robots" Shuichi Fukuda (supervised), Shunji Mitsuyoshi et al. (Author), Industrial Research Committee (edited by the Japan Society of Mechanical Engineers), pp. 275-308 , 2008).

地図作成プログラム103は、頭部20内の各種機器、特に測域センサ211、衝撃センサ221、カメラ231から取得した情報に基づいて環境地図情報を作成し、地図データ105として記憶部100に記憶する。地図作成プログラム103は、動作制御プログラム102と並列に実行されるものとしてもよいし、動作制御プログラム102から地図作成プログラム103が呼び出されることにより、動作制御プログラム102の一機能として実行されるものとしてもよい。   The map creation program 103 creates environmental map information based on information acquired from various devices in the head 20, particularly the range sensor 211, the impact sensor 221, and the camera 231, and stores the map information 105 in the storage unit 100. . The map creation program 103 may be executed in parallel with the operation control program 102, or executed as a function of the operation control program 102 when the map creation program 103 is called from the operation control program 102. Also good.

成果判定プログラム104は、頭部20内の各種機器から取得した情報に基づいてロボット1の動作の成果に関する情報を作成し、成果データ106として記憶部100に記憶する。ロボット1の動作の成果には、移動の際の経路、移動に要した時間、障害物に衝突した回数、一芸が成功したか否か、などが該当する。これらの情報が成果データ106として時系列的に記憶される。また成果判定プログラム104は、成果データ106に基づいて、動作の成功・失敗、成果の善し悪し、目標の達成度合いなどを判定する。判定の際には適宜、成果データ106のうち過去のデータと比較して判定を行う。例えば、移動に要する時間が過去のものより優れていた場合、以前よりも優れた成果をあげた、と判定する。成果判定プログラム104は、動作制御プログラム102と並列に実行されるものとしてもよいし、動作制御プログラム102から成果判定プログラム104が呼び出されることにより、動作制御プログラム102の一機能として実行されるものとしてもよい。   The result determination program 104 creates information related to the result of the operation of the robot 1 based on information acquired from various devices in the head 20 and stores the information as result data 106 in the storage unit 100. The result of the operation of the robot 1 includes a route during the movement, a time required for the movement, the number of times of collision with an obstacle, whether or not the success is successful, and the like. These pieces of information are stored as result data 106 in time series. Further, the result determination program 104 determines the success / failure of the operation, the quality of the result, the achievement degree of the target, and the like based on the result data 106. In the determination, the determination is appropriately made by comparing with the past data in the result data 106. For example, if the time required for movement is better than that of the past, it is determined that the result is better than before. The result determination program 104 may be executed in parallel with the operation control program 102, or may be executed as a function of the operation control program 102 when the result determination program 104 is called from the operation control program 102. Also good.

制御部110は、プロセッサとメインメモリとインタフェースとリアルタイムクロックとを備える。制御部110は、インタフェースを介して記憶部100と接続されている。プロセッサが、記憶部100内の各種プログラムを、メインメモリに読み込んで実行する。プロセッサがプログラムを実行することにより、記憶部100内の各種データの読み書きを行う。また、制御部110は、駆動部120及び頭部20内の各種機器とインタフェースを介して接続され、プロセッサがプログラムを実行することによりこれらを制御する。リアルタイムクロックは、制御タイミングの調整、動作に要した時間の記録、処理を行った日時の記録、などに用いられる。制御部110は、例えばマイクロコントローラにより構成される。   The control unit 110 includes a processor, a main memory, an interface, and a real time clock. The control unit 110 is connected to the storage unit 100 via an interface. The processor reads various programs in the storage unit 100 into the main memory and executes them. Various data in the storage unit 100 are read and written by the processor executing the program. In addition, the control unit 110 is connected to the drive unit 120 and various devices in the head 20 via an interface, and controls them by a processor executing a program. The real time clock is used for adjustment of control timing, recording of time required for operation, recording of date and time of processing, and the like. The control unit 110 is configured by a microcontroller, for example.

駆動部120は電動モータを備え、制御部110の制御に基づいて前輪11及び後輪12を駆動する。各車輪に対応した、合計4つの電動モータが備えられている。駆動部120が各車輪を同程度の出力で駆動することにより、ロボットは前方向または後方向に直進することができる。左右の車輪に対して、駆動部120が異なる出力により駆動することによって、ロボット1は右折、左折、旋回などをすることができる。また、ロボット1が後方向に直進しているときに、駆動部120が後輪12に急ブレーキをかけることにより、図3(a)に示すように、ロボット1を直立させることができる。尻尾13はロボット1を直立させる際に支えとして機能する。この直立する動作が、ロボット1が一芸として行う動作である。そして、ロボット1が直立した状態で、駆動部120が後輪12を前方向に回転させることにより、ロボット1が前方向に倒れ込み、ロボット1を水平状態に戻すことができる。   The drive unit 120 includes an electric motor, and drives the front wheels 11 and the rear wheels 12 based on the control of the control unit 110. A total of four electric motors corresponding to each wheel are provided. When the driving unit 120 drives each wheel with the same level of output, the robot can go straight forward or backward. When the drive unit 120 drives the left and right wheels with different outputs, the robot 1 can make a right turn, a left turn, a turn, and the like. Further, when the robot 1 is traveling straight backward, the drive unit 120 applies a sudden brake to the rear wheel 12, whereby the robot 1 can be brought upright as shown in FIG. The tail 13 functions as a support when the robot 1 is upright. This upright operation is an operation performed by the robot 1 as a stage. Then, with the robot 1 standing upright, the driving unit 120 rotates the rear wheel 12 forward, so that the robot 1 falls forward and the robot 1 can be returned to the horizontal state.

ロボット1は、制御部110が記憶部100内の各種プログラムを実行することにより、コミュニケーション装置1000として機能する。図4を参照しながら、コミュニケーション装置1000としてのロボット1の各機能を説明する。   The robot 1 functions as the communication device 1000 when the control unit 110 executes various programs in the storage unit 100. Each function of the robot 1 as the communication apparatus 1000 will be described with reference to FIG.

指示受付部1100は、ユーザからの入力を指示として受け付ける。制御部110が指示認識プログラム101を実行することにより、制御部110と指示認識プログラム101と頭部20内の各種機器とが協働して、指示受付部1100の機能を実現する。   The instruction receiving unit 1100 receives an input from the user as an instruction. When the control unit 110 executes the instruction recognition program 101, the control unit 110, the instruction recognition program 101, and various devices in the head 20 cooperate to realize the function of the instruction reception unit 1100.

指示動作実行部1001は、指示受付部1100が受け付けた指示に基づいて動作を実行する。以下、この動作を指示動作と呼ぶ。動作制御プログラム102の機能のうち、指示認識プログラム101が認識した指示に基づいてロボット1の動作を制御する機能が、指示動作実行部1001の機能の一部となる。制御部110が動作制御プログラム102を実行することにより、制御部110と動作制御プログラム102と駆動部120と頭部20内の各種機器とが協働して、指示動作実行部1001の機能を実現する。   The instruction operation execution unit 1001 executes an operation based on the instruction received by the instruction reception unit 1100. Hereinafter, this operation is referred to as an instruction operation. Of the functions of the operation control program 102, a function for controlling the operation of the robot 1 based on an instruction recognized by the instruction recognition program 101 is a part of the function of the instruction operation execution unit 1001. When the control unit 110 executes the operation control program 102, the control unit 110, the operation control program 102, the drive unit 120, and various devices in the head 20 cooperate to realize the function of the instruction operation execution unit 1001. To do.

地図作成部1020は、指示動作実行部1001が指示動作を実行するのと並行して、若しくは指示動作実行部1001の機能の一部として、環境地図情報を作成して記憶する。制御部110が地図作成プログラム103を実行することにより、制御部110と地図作成プログラム103と頭部20内の各種機器、特に測域センサ211、衝撃センサ221及びカメラ231とが協働して、環境地図情報を作成する機能を実現する。また、記憶した環境地図情報は指示動作実行部1001に参照される。以上より、制御部110が地図作成プログラム103及び動作制御プログラム102を実行することにより、制御部110と地図作成プログラム103と動作制御プログラム102と地図データ105を有する記憶部100と頭部20内の各種機器とが協働して、地図作成部1020の機能を実現する。   The map creating unit 1020 creates and stores environmental map information in parallel with the instruction operation executing unit 1001 executing the instruction operation or as part of the function of the instruction operation executing unit 1001. When the control unit 110 executes the map creation program 103, the control unit 110, the map creation program 103, and various devices in the head 20, in particular, the range sensor 211, the impact sensor 221 and the camera 231 cooperate, Realize the function to create environmental map information. The stored environment map information is referred to the instruction operation execution unit 1001. As described above, when the control unit 110 executes the map creation program 103 and the operation control program 102, the control unit 110, the map creation program 103, the operation control program 102, the storage unit 100 including the map data 105, and the head 20 The functions of the map creation unit 1020 are realized in cooperation with various devices.

成果検出部1002は、指示動作実行部1001が実行する指示動作の成果を成果情報として検出する。また、成果検出部1002は、検出した成果情報を成果記憶部1010に記憶させる。成果記憶部1010の機能は成果データ106を有する記憶部100により実現される。成果判定プログラム104の機能のうち、頭部20内の各種機器から取得した情報に基づいて指示動作の成果に関する情報を作成し、成果データ106として記憶する機能が成果検出部1002の機能の一部となる。制御部110が成果判定プログラム104を実行することにより、制御部110と成果判定プログラム104と成果データ106を有する記憶部100と頭部20内の各種機器とが協働して、成果検出部1002の機能を実現する。   The result detection unit 1002 detects the result of the instruction operation executed by the instruction operation execution unit 1001 as result information. Further, the result detection unit 1002 stores the detected result information in the result storage unit 1010. The function of the result storage unit 1010 is realized by the storage unit 100 having the result data 106. Among the functions of the result determination program 104, the function of creating information on the result of the instruction operation based on information acquired from various devices in the head 20 and storing it as the result data 106 is a part of the function of the result detection unit 1002 It becomes. When the control unit 110 executes the result determination program 104, the control unit 110, the result determination program 104, the storage unit 100 having the result data 106, and various devices in the head 20 cooperate, and the result detection unit 1002. Realize the function.

成果表現動作実行部1003は、成果検出部1002が検出する成果情報に基づいて、指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を実行する。以下、この動作を成果表現動作と呼ぶ。成果表現動作の具体例については後述する。また、成果記憶部1010が記憶する過去の成果情報も適宜参照し、これらにも基づいて成果表現動作を実行する。成果判定プログラム104の機能のうち、成果データ106に基づいて、成果の善し悪し、目標の達成度合いなどを判定する機能が、成果表現動作実行部1003の機能の一部となる。また、動作制御プログラム102の機能のうち、成果判定プログラム104の判定結果に基づいて、成果表現動作をロボット1に実行させる機能が、成果表現動作実行部1003の機能の一部となる。制御部110が成果判定プログラム104及び動作制御プログラム102を実行することにより、制御部110と成果判定プログラム104と動作制御プログラム102と成果データ106を有する記憶部100と駆動部120と頭部20内の各種機器とが協働して、成果表現動作実行部1003の機能を実現する。   Based on the result information detected by the result detection unit 1002, the result expression operation execution unit 1003 executes an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who viewed the instruction operation. Hereinafter, this operation is referred to as a result expression operation. A specific example of the result expression operation will be described later. Further, past result information stored in the result storage unit 1010 is also referred to as appropriate, and the result expression operation is executed based on these information. Among the functions of the result determination program 104, a function for determining whether the result is good or bad and the achievement level of the target based on the result data 106 is a part of the function of the result expression operation execution unit 1003. In addition, among the functions of the operation control program 102, a function that causes the robot 1 to execute the result expression operation based on the determination result of the result determination program 104 is a part of the function of the result expression operation execution unit 1003. When the control unit 110 executes the result determination program 104 and the operation control program 102, the control unit 110, the result determination program 104, the operation control program 102, the storage unit 100 including the result data 106, the drive unit 120, and the head 20 The functions of the result expression operation execution unit 1003 are realized in cooperation with various devices.

次に、成果及び成果表現動作の具体例について図8を参照しながら説明する。動作の具体例はいずれも、制御部110がスピーカ223を制御してロボット1から合成音声を発話させるものである。説明の順序は図8に示す一覧の上から下への並びと対応する。   Next, a specific example of the result and the result expression operation will be described with reference to FIG. In any specific example of the operation, the control unit 110 controls the speaker 223 to make the synthesized speech from the robot 1. The order of explanation corresponds to the arrangement from the top to the bottom of the list shown in FIG.

まずは移動指示がされた場合について説明する。ロボット1が、移動中に室内の障害物に衝突し、そのまま障害物を押して引きずってしまったことを、衝撃センサ221、測域センサ211及びカメラ231から取得した情報に基づいて制御部110が検知した場合、その時点でロボット1は、物をひきずってしまったことについて謝罪の言葉を発する。謝罪をすることにより、物をひきずったことを見たユーザに生じると想定される負の感情を緩和することができる。   First, a case where a movement instruction is given will be described. Based on information acquired from the impact sensor 221, the range sensor 211, and the camera 231, the control unit 110 detects that the robot 1 has collided with an obstacle in the room while moving and has pushed and dragged the obstacle. If so, the robot 1 will apologize for dragging things. By apologizing, it is possible to relieve negative feelings that are expected to occur for users who have seen things pulled.

移動中にロボット1が転倒したことを重力センサ222及び衝撃センサ221から取得情報に基づいて制御部110が検知した場合、その時点でロボット1は、転倒してしまったので助けがほしいことをユーザに求める。助けをユーザに求めることにより、転倒するさまを見たユーザの同情を誘うことができる。   When the control unit 110 detects that the robot 1 has fallen during the movement based on the acquired information from the gravity sensor 222 and the impact sensor 221, the user knows that the robot 1 has fallen at that time and needs help. Ask for. By asking the user for help, the user's sympathy can be invited.

特段問題なくロボット1が移動を完了したことを制御部110が判断した場合、ロボット1は、無事に移動が完了したことの喜びを表す言葉を発する。喜びを表現することにより、移動完了を見て喜んでいると想定されるユーザが有する正の感情を増幅することができる。   When the control unit 110 determines that the movement of the robot 1 has been completed without any particular problem, the robot 1 emits a word that expresses joy that the movement has been completed successfully. By expressing joy, it is possible to amplify the positive feelings of a user who is assumed to be happy to see the completion of movement.

移動は完了したものの、ロボット1が障害物と衝突した回数が多いと制御部110が判断した場合、ロボット1は、衝突が多いことについて謝罪の言葉を発する。謝罪をすることにより、何度も障害物と衝突したことを見たユーザに生じると想定される負の感情を緩和することができる。なお、衝突回数が多いか否かの判断は成果判定プログラム104の機能として設ける。具体的な回数は例えば5回以上である。障害物と衝突したことの検知には衝撃センサ221の検知情報を用いればよい。   If the control unit 110 determines that the movement has been completed but the robot 1 has collided with an obstacle many times, the robot 1 issues an apology for the many collisions. By apologizing, it is possible to relieve negative emotions that are expected to occur for users who have seen many collisions with obstacles. Note that whether or not the number of collisions is large is provided as a function of the result determination program 104. The specific number of times is, for example, 5 times or more. Detection information of the impact sensor 221 may be used to detect that the vehicle has collided with an obstacle.

移動が完了し、成果データ106として記憶された前回の成果情報と比較して、今回のほうが早く移動が完了したと制御部110が判断した場合、ロボット1は、前回より早く移動が完了したことの喜びを表す言葉を発する。前回より早く移動が完了したことの喜びを表現することにより、移動が完了したところを見て喜んでいると想定されるユーザの正の感情を増幅することができる。   When the control unit 110 determines that the movement has been completed earlier than the previous time when the movement has been completed and compared with the previous result information stored as the result data 106, the robot 1 has completed the movement earlier than the previous time. Words that express the joy of By expressing the joy of completing the movement earlier than the previous time, it is possible to amplify the positive emotion of the user who is assumed to be happy to see the movement completed.

移動が完了し、成果データ106として記憶された前回の成果情報と比較して今回のほうが遅いと制御部110が判断した場合、ロボット1は、前回より遅いことについての原因と謝罪を表す言葉を発する。前回より遅いことについての原因と謝罪を表現することにより、移動完了が遅いことを見たユーザに生じると想定される負の感情を緩和できる。例えば遅くなった原因が、障害物が前回より多く置かれていた場合、制御部110は、成果データ106として記憶された前回の経路情報と、今回の経路情報とを比較して、今回が前回と比べて遠回りしていることを判断する。   When the control unit 110 determines that the movement is completed and this time is later than the previous result information stored as the result data 106, the robot 1 uses a word indicating the cause and apology for being later than the previous time. To emit. By expressing the cause and apology for being slower than the previous time, it is possible to relieve the negative emotion that is assumed to occur for the user who sees that the movement is completed late. For example, when the cause of the delay is that there are more obstacles than the previous time, the control unit 110 compares the previous route information stored as the result data 106 with the current route information. Judge that you are making a detour compared to.

次に、一芸指示がされた場合について説明する。立ち上がることすらできずに転倒したと制御部110が判断した場合、ロボット1は、一芸が失敗したことの悲しみを表す言葉を発する。一芸が失敗したことの悲しみを表現することにより、転倒するさまを見たユーザの同情を誘うことができる。一芸が成功したか否かの判断については後述の動作の流れで説明する。   Next, a case where a trick instruction is given will be described. When the control unit 110 determines that the robot has fallen without being able to stand up, the robot 1 emits a word representing sadness that the performance has failed. By expressing the sadness of the failure of a single performance, it is possible to invite the sympathy of the user who saw the fall. The determination as to whether or not the success was successful will be described in the later-described operation flow.

特段問題なく一芸が成功し、直立したと制御部110が判断した場合、ロボット1は、一芸が成功したことの喜びを表す言葉を発する。一芸が成功したことの喜びを表現することにより、一芸の成功を見て喜んでいると想定されるユーザの正の感情を増幅できる。   If the controller 110 determines that the trick was successful and upright without any particular problem, the robot 1 emits a word representing the joy that the trick was successful. By expressing the joy of success, it is possible to amplify the positive feelings of the user who is expected to see the success.

図3(b)に示すような、足場が不安定でロボット1が傾いている状況であっても、ロボット1の重量・重心、ロボット1が底面に対してなす角度などによっては傾いた状態のままロボット1がぐらつかずに安定する場合がある。そこで、足場が不安定な状態にも関わらずロボット1が安定した状態にあると制御部110が判断した場合、ロボット1は、不利な環境下で一芸が成功したことの喜びを表す言葉を発する。不利な環境下で一芸が成功したことの喜びを表現することにより、不利な環境下での一芸の成功を見て喜び、かつ驚いていると想定されるユーザの正の感情と驚きを増幅できる。足場が不安定であることの検知は、重力センサ222の検知情報に基づいて、ロボット1が底面に対してなす角度が垂直ではなく、かつ十分に立ち上がっているといえる角度であることを判断すればよい。十分に立ち上がっているといえる角度とは例えば75度である。   Even if the scaffold is unstable and the robot 1 is tilted as shown in FIG. 3B, the robot 1 is tilted depending on the weight / center of gravity of the robot 1 and the angle formed by the robot 1 with respect to the bottom surface. In some cases, the robot 1 may remain stable without shaking. Therefore, when the control unit 110 determines that the robot 1 is in a stable state despite the unstable scaffolding, the robot 1 emits a word that expresses the joy of success in an unfavorable environment. . Expressing the joy of success in an unfavorable environment can amplify the positive emotions and surprises of users who are happy and surprised to see the success of the performance in an adverse environment . Based on the detection information of the gravity sensor 222, the detection that the scaffold is unstable is determined that the angle formed by the robot 1 with respect to the bottom surface is not vertical and can be said to be a sufficient angle. That's fine. The angle that can be said to have risen sufficiently is, for example, 75 degrees.

一芸が成功した後、特段問題なくロボット1が水平状態に戻ったと制御部110が判断した場合、ロボット1は、無事に動作を終えた喜びを表す言葉を発する。無事に動作を終えた喜びを表現することにより、動作終了を見たユーザに生じると想定される正の感情を増幅できる。ロボット1が水平状態に戻ったことの判断は、重力センサ222の検知情報に基づいて、ロボット1が底面に対してなす角度を求めればよい。   If the control unit 110 determines that the robot 1 has returned to the horizontal state without any particular problem after the successful show, the robot 1 emits a word representing the pleasure of successfully completing the operation. By expressing the joy of successfully completing the motion, it is possible to amplify the positive emotion that is expected to occur for the user who has viewed the motion. The determination that the robot 1 has returned to the horizontal state may be made by determining the angle that the robot 1 makes with the bottom surface based on the detection information of the gravity sensor 222.

一芸が成功した後、ロボット1が水平状態に正常に戻れず転倒したと制御部110が判断した場合、ロボット1は、一芸は実質成功したと言い張って笑いを誘う言葉を発する。笑いを誘うことにより、転倒するさまを見たユーザに生じると想定される負の感情を正の感情に転換できる。   If the controller 110 determines that the robot 1 has not returned to the horizontal state and has fallen down after the success of the first stage, the robot 1 insists that the first stage has succeeded and issues a word that invites laughter. By inviting laughter, it is possible to convert negative emotions assumed to occur to the user who saw the person falling down into positive emotions.

このように、成果表現動作として主に、指示動作を見たユーザに正の感情が生じると想定されるときには正の感情を増幅させる動作が、指示動作を見たユーザに負の感情が生じると想定されるときには負の感情を緩和させる動作が、それぞれ採用されている。   As described above, when it is assumed that a positive emotion is generated in the user who has viewed the instruction operation as a result expression operation, an operation to amplify the positive emotion is a negative emotion in the user who has viewed the instruction operation. When it is assumed, an action to alleviate negative emotions is adopted.

次に、コミュニケーション装置1000として機能するロボット1の動作の流れの一例を説明する。   Next, an example of the operation flow of the robot 1 functioning as the communication device 1000 will be described.

まず、ロボット1に対して、目的地への移動を指示される場合の例を挙げつつ、図5及び図6を参照しながら動作の流れを説明する。   First, the flow of the operation will be described with reference to FIGS. 5 and 6, giving an example in which the robot 1 is instructed to move to the destination.

指示受付部1100がユーザからの入力を待ち(ステップS1−1)、ユーザからの入力をロボット1に対する指示として認識できるかを判定する(ステップS1−2)。指示受付部1100が入力を指示として認識できない場合(ステップS1−2:No)、ステップS1−1に戻り再びユーザからの入力を待つ。   The instruction receiving unit 1100 waits for an input from the user (step S1-1), and determines whether the input from the user can be recognized as an instruction to the robot 1 (step S1-2). When the instruction receiving unit 1100 cannot recognize an input as an instruction (step S1-2: No), the process returns to step S1-1 and waits for an input from the user again.

指示受付部1100が入力を指示として認識できる場合(ステップS1−2:Yes)、指示動作実行部1001は指示に基づいた指示動作を、図5に示す動作の流れと並列に実行する(ステップS1−3)。本例では指示動作が目的地への移動であるため、図6に示す動作の流れを並列に実行する。   When the instruction receiving unit 1100 can recognize the input as an instruction (step S1-2: Yes), the instruction operation executing unit 1001 executes the instruction operation based on the instruction in parallel with the operation flow shown in FIG. 5 (step S1). -3). In this example, since the instruction operation is movement to the destination, the operation flow shown in FIG. 6 is executed in parallel.

以下、図6を参照しながら目的地移動の場合の指示動作の流れを説明する。制御部110は、測域センサ211、人感センサ212、カメラ231から周辺環境の環境情報を検知し(ステップS2−1)、障害物の有無、ロボット1の存在位置推定、ユーザの位置推定などを行う。制御部110は検知した環境情報に基づいて、ロボット1の進行方向を決定する(ステップS2−2)。地図データ105としての環境地図情報が存在する場合、それにも基づいて進行方向を決定する。これにより、障害物を回避する経路、所要時間が少ない経路などを経由することが期待できる。   Hereinafter, the flow of the instruction operation in the case of destination movement will be described with reference to FIG. The control unit 110 detects environmental information of the surrounding environment from the range sensor 211, the human sensor 212, and the camera 231 (step S2-1), and the presence / absence of an obstacle, the presence position of the robot 1, the user's position estimation, etc. I do. The control unit 110 determines the traveling direction of the robot 1 based on the detected environment information (step S2-2). When the environmental map information as the map data 105 exists, the traveling direction is determined based on it. As a result, it can be expected that a route that avoids an obstacle, a route that requires less time, and the like are routed.

制御部110は、駆動部120を制御して、ステップS2−2で決定した進行方向に向けてロボット1を移動させる(ステップS2−3)。制御部110は移動の際、進路上の障害物の有無を検知する(ステップS2−4)。進路上の障害物の検知は、測域センサ211、カメラ231によるもののほか、これらでは検知できないまま移動して障害物と衝突した場合に、ロボット1に発生した衝撃を衝撃センサ221で検知することを含む。   The control unit 110 controls the drive unit 120 to move the robot 1 in the traveling direction determined in step S2-2 (step S2-3). When moving, the control unit 110 detects the presence or absence of an obstacle on the route (step S2-4). The obstacle on the route is detected by the range sensor 211 and the camera 231. In addition, the impact sensor 221 detects the impact generated in the robot 1 when the obstacle moves and cannot collide with the obstacle. including.

制御部110は、ステップS2−1及びS2−4の検知結果に基づいて、ロボット1の現在位置周辺の環境情報を、地図データ105の一部として記憶させる(ステップS2−5)。制御部110は、ロボット1が移動続行可能かを確認する(ステップ2−6)。移動続行が不可能な場合とは、重力センサ222の検知結果からロボット1が転倒して移動不可能と判断できる場合、各種機器の検知結果からロボット1が故障していると自己判断できる場合などである。移動続行不可能な場合(ステップS2−6:No)、制御部110は指示動作の実行を終了する。   Based on the detection results of steps S2-1 and S2-4, the control unit 110 stores environment information around the current position of the robot 1 as a part of the map data 105 (step S2-5). The control unit 110 confirms whether the robot 1 can continue to move (step 2-6). The case where the movement cannot be continued is a case where it can be determined from the detection result of the gravity sensor 222 that the robot 1 has fallen and cannot be moved, or a case where the robot 1 can be determined as having failed from the detection results of various devices. It is. When the movement cannot be continued (step S2-6: No), the control unit 110 ends the execution of the instruction operation.

移動続行可能な場合(ステップS2−6:Yes)、制御部110は、目的地まで到達して移動完了したかを確認する(ステップS2−7)。移動が完了していない場合(ステップS2−7:No)、ステップS2−1に戻り周辺環境の検知からの流れを繰り返す。移動が完了している場合(ステップS2−7:Yes)、制御部110は指示動作の実行を終了する。   When the movement can be continued (step S2-6: Yes), the control unit 110 confirms whether the movement has been completed after reaching the destination (step S2-7). If the movement has not been completed (step S2-7: No), the process returns to step S2-1 to repeat the flow from the detection of the surrounding environment. When the movement has been completed (step S2-7: Yes), the control unit 110 ends the execution of the instruction operation.

再び図5を参照しながら動作の流れを説明する。ステップS1−3の後、成果検出部1002が、指示動作実行部1001が並列して実行する指示動作の成果を成果情報として検出し、成果情報を成果記憶部1010に記憶する(ステップS1−4)。本例の場合、成果情報としては目的地到達、障害物衝突、転倒、所要時間、経路などに関する情報が挙げられる。   The operation flow will be described with reference to FIG. 5 again. After step S1-3, the result detection unit 1002 detects the result of the instruction operation executed by the instruction operation execution unit 1001 in parallel as result information, and stores the result information in the result storage unit 1010 (step S1-4). ). In the case of this example, the result information includes information on destination arrival, obstacle collision, falling, required time, route, and the like.

成果表現動作実行部1003は、成果検出部1002が検出した成果情報を参照し、成果表現動作が可能かを判断する(ステップS1−5)。成果表現動作が不可能な場合とは、例えば、成果情報に多少の経路情報しか含まれておらず、実行すべき成果表現動作を特定するのに十分な成果を得るに至っていない状態が該当する。本例の場合、移動を開始してから数センチメートルしか移動していない場合が該当する。この場合、図8に挙げるいずれの成果にも該当しないため、対応する成果表現動作が存在しない。   The result expression operation execution unit 1003 refers to the result information detected by the result detection unit 1002 and determines whether the result expression operation is possible (step S1-5). The case where the result expression operation is impossible corresponds to, for example, a state in which the result information includes only a small amount of route information, and the result expression operation to be executed has not yet been obtained. . In the case of this example, it corresponds to the case where only a few centimeters have moved since the start of the movement. In this case, since it does not correspond to any result shown in FIG. 8, there is no corresponding result expression operation.

また、成果表現動作実行部1003は適宜、成果記憶部1010が記憶する過去の成果情報も参照して成果表現動作が可能かを判断する。成果記憶部1010が記憶する過去の成果情報も参照して判断をする場合とは、例えば、目的地到達までの所要時間を前回の所要時間と比較する場合が該当する。   Further, the result expression operation execution unit 1003 appropriately refers to past result information stored in the result storage unit 1010 and determines whether the result expression operation is possible. The case where the determination is made with reference to the past result information stored in the result storage unit 1010 corresponds to, for example, the case where the required time to reach the destination is compared with the previous required time.

成果表現動作が可能であると判断した場合(ステップS1−5:Yes)、成果表現動作実行部1003は成果表現動作を実行し(ステップS1−6)、ステップS1−7に進む。成果表現動作により、ロボット1は指示動作を見たユーザの感情に良い影響を与える。本例において、例えばロボット1が特段問題なく目的地に到達した場合、図8に示すように、制御部110がスピーカ223を制御することにより、「きちんと移動できました!」とロボット1が合成音声による発話をする。この発話により、ロボット1が問題なく目的地に到達したところを見て喜んでいるユーザに生じると想定される正の感情を増幅することができる。また例えば、ロボット1が移動中であり、障害物に衝突して障害物を引きずってしまった場合、「ひきずってしまいました、すみません」とロボット1が合成音声による発話をする。この発話により、ロボット1が障害物を引きずっているところを見たユーザに生じると想定される負の感情を緩和することができる。   When it is determined that the result expression operation is possible (step S1-5: Yes), the result expression operation execution unit 1003 executes the result expression operation (step S1-6), and proceeds to step S1-7. By the result expressing operation, the robot 1 has a good influence on the emotion of the user who saw the instruction operation. In this example, for example, when the robot 1 arrives at the destination without any particular problem, the control unit 110 controls the speaker 223 as shown in FIG. Speak by voice. By this utterance, it is possible to amplify a positive emotion that is assumed to occur in a user who is happy to see the robot 1 reaching the destination without any problem. Also, for example, when the robot 1 is moving and collides with an obstacle and drags the obstacle, the robot 1 utters a synthesized voice saying “I'm sorry, I'm sorry”. By this utterance, it is possible to relieve negative emotions that are assumed to occur in the user who has seen the robot 1 dragging an obstacle.

成果表現動作が不可能であると判断した場合(ステップS1−5:No)、ステップS1−6を実行せずにステップS1−7に進む。   When it is determined that the result expression operation is impossible (step S1-5: No), the process proceeds to step S1-7 without executing step S1-6.

並列実行する指示動作が終了済みかを判断し(ステップS1−7)、終了済みでなければ(ステップS1−7:No)ステップS1−4に戻り成果検出からの流れを繰り返す。指示動作が終了済みであれば(ステップS1−7:Yes)ステップS1−1に戻り入力待ちからの流れを繰り返す。なお、指示動作の終了には指示動作が完遂した場合だけではなく、ロボット1の転倒、故障などの原因により指示動作の続行が不可能となった場合も含む。   It is determined whether the instruction operations to be executed in parallel have been completed (step S1-7). If not completed (step S1-7: No), the process returns to step S1-4 and the flow from the result detection is repeated. If the instruction operation has been completed (step S1-7: Yes), the process returns to step S1-1 and repeats the flow from waiting for input. Note that the completion of the instruction operation includes not only the case where the instruction operation is completed, but also the case where the instruction operation cannot be continued due to a cause such as a fall of the robot 1 or a failure.

次に、図5及び図7を参照しながら、ロボット1が一芸を行う指示をされた場合の一例について説明する。前述したとおり、ロボット1が行う一芸とは、直立する動作のことである。なお、移動指示と共通する点については説明を省略する。   Next, an example in which the robot 1 is instructed to perform a trick will be described with reference to FIGS. 5 and 7. As described above, the trick performed by the robot 1 is an upright operation. Note that description of points common to the movement instruction is omitted.

ステップS1−1〜S1−3については、ステップS1−3において並列実行する指示動作が異なる点以外は、本例においても前述の場合と共通であるため、説明を省略する。以下図7を参照しながら一芸の場合の指示動作の流れを説明する。   Steps S1-1 to S1-3 are the same as those described above in the present example except that the instruction operation to be executed in parallel in step S1-3 is different, and thus the description thereof is omitted. Hereinafter, the flow of the instruction operation in the case of the first stage will be described with reference to FIG.

制御部110は、ロボット1が水平な場所にいるかを判断し、現在いる場所が水平でない場合、水平な場所までロボット1を移動させる(ステップS3−1)。現在いる場所が水平かどうかは重力センサ222の検知情報により判断する。   The control unit 110 determines whether the robot 1 is in a horizontal place. If the current place is not horizontal, the control unit 110 moves the robot 1 to a horizontal place (step S3-1). Whether the current location is horizontal is determined based on detection information of the gravity sensor 222.

制御部110は駆動部120を制御して、ロボット1を後方向に直進させる(ステップS3−2)。後方向に直進中に、制御部110は、駆動部120を制御して後輪12に急ブレーキをかける(ステップS3−3)。急ブレーキにより後輪12がロックされ、胴体部10が後方向に回転し、ロボット1が起き上がる。   The control unit 110 controls the drive unit 120 to move the robot 1 straight backward (step S3-2). While traveling straight in the rearward direction, the control unit 110 controls the drive unit 120 to suddenly brake the rear wheel 12 (step S3-3). The rear wheel 12 is locked by the sudden braking, the body part 10 rotates rearward, and the robot 1 gets up.

制御部110は、ロボット1が十分に起き上がりこれ以上傾きに変化がない安定状態であるかを判断する(ステップS3−4)。この判断には重力センサ222の検知情報を用いる。ステップS3−1にてロボット1を水平な場所に移動させた場合であっても、その場所が布団の上など、底面が変動しやすい場所の場合、図3(b)に示すとおり、直立するには不安定な環境となる。   The control unit 110 determines whether or not the robot 1 is in a stable state in which the robot 1 is sufficiently raised and has no further change in inclination (step S3-4). For this determination, detection information of the gravity sensor 222 is used. Even when the robot 1 is moved to a horizontal place in step S3-1, if the place is a place where the bottom face is likely to fluctuate, such as on a futon, the robot 1 stands upright as shown in FIG. It becomes an unstable environment.

安定状態でないと判断した場合(ステップS3−4:No)、制御部110はロボット1が転倒してしまったかを判断する(ステップS3−5)。この判断には衝撃センサ221の検知情報、重力センサ222の検知情報に基づいて算出したロボット1の傾きの急激な変化、などを利用する。ロボット1が転倒してしまったと判断した場合(ステップS3−5:Yes)、制御部110は指示動作の実行を終了する。ロボット1が転倒していないと判断した場合(ステップS3−5:No)、ステップS3−4に戻り安定状態の判断からの流れを繰り返す。   When it is determined that the state is not stable (step S3-4: No), the control unit 110 determines whether the robot 1 has fallen (step S3-5). For this determination, the detection information of the impact sensor 221 or the rapid change in the tilt of the robot 1 calculated based on the detection information of the gravity sensor 222 is used. When it is determined that the robot 1 has fallen (step S3-5: Yes), the control unit 110 ends the execution of the instruction operation. If it is determined that the robot 1 has not fallen (step S3-5: No), the process returns to step S3-4 to repeat the flow from the determination of the stable state.

ステップS3−4にて安定状態であると判断した場合(ステップS3−4:Yes)、ロボット1は一芸に成功したといえるので、一芸の成功に対応して並列に実行される成果表現動作が完了するまで待機する(ステップS3−6)。   If it is determined in step S3-4 that the robot is in a stable state (step S3-4: Yes), it can be said that the robot 1 has succeeded in one performance. Wait until completion (step S3-6).

成果表現動作が完了したら、制御部110は、駆動部120を制御して後輪12を前方向に回転させ、ロボット1を水平状態に戻し(ステップS3−7)、指示動作の実行を終了する。   When the result expression operation is completed, the control unit 110 controls the drive unit 120 to rotate the rear wheel 12 forward, return the robot 1 to the horizontal state (step S3-7), and finish the execution of the instruction operation. .

再び図5を参照しながら動作の流れを説明する。ステップS1−4において、例えば直立に成功したことを成果情報として検出した場合、その時点では図8に示すとおり、対応する成果表現動作が存在するので(ステップS1−5:Yes)、「うまく立ち上がれました!」とロボット1が合成音声による発話をすることにより成果表現動作を実行する(ステップS1−6)。この発話により、ロボット1が問題なく一芸を成功したことを見て喜んでいるユーザに生じると想定される正の感情を増幅することができる。   The operation flow will be described with reference to FIG. 5 again. In step S1-4, for example, when success information is detected as result information, as shown in FIG. 8, there is a corresponding result expression operation (step S1-5: Yes). The robot 1 utters speech with synthesized speech and executes a result expression operation (step S1-6). By this utterance, it is possible to amplify a positive emotion that is assumed to occur in a user who is happy to see that the robot 1 has succeeded in making a success.

次に、指示動作が終了済みかを判定する(ステップS1−7)。本例において、一芸が成功した後にはロボット1を水平状態に戻す動作を行う必要があるので、一芸が成功した時点では指示動作は終了していない(ステップS1−7:No)。よってステップS1−4に戻り成果検出からの流れを繰り返す。   Next, it is determined whether the instruction operation has been completed (step S1-7). In this example, since it is necessary to perform an operation to return the robot 1 to the horizontal state after the success of the first stage, the instruction operation is not completed when the first stage is successful (step S1-7: No). Therefore, it returns to step S1-4 and the flow from result detection is repeated.

その後ステップS1−4にて、例えばロボット1が水平状態に戻れず転倒したことを検知した場合、その時点では図8に示すとおり、対応する成果表現動作が存在するので(ステップS1−5:Yes)、「ちゃんと立ったし!倒れたのも芸の一環だし!」とロボット1が合成音声による発話をすることにより成果表現動作を実行する(ステップS1−6)。この発話により、ロボット1が最後の最後に転倒したところを見たユーザの笑いを誘い、ユーザに生じると想定される負の感情を緩和することができる。   Thereafter, in step S1-4, for example, when it is detected that the robot 1 has fallen without returning to the horizontal state, there is a corresponding result expression operation as shown in FIG. 8 (step S1-5: Yes). ) The robot 1 utters speech with synthesized speech saying “Stand up! It's part of the trick!” (Step S1-6). By this utterance, it is possible to invite the laughter of the user who has seen the robot 1 toppling over at the end, and to relieve the negative emotion that is assumed to occur in the user.

以上、本発明の実施の形態1に係るロボットについて説明をした。ロボット1は、指示された動作を指示動作として実行し、指示動作の成果をロボット1自身で判定し、判定した成果に基づいて、指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する。それにより、ユーザの正の感情を増幅する、負の感情を緩和する、などの効果を生じ、結果としてユーザとの親和性に優れたコミュニケーションをすることができる。   The robot according to Embodiment 1 of the present invention has been described above. It is assumed that the robot 1 executes the instructed operation as an instruction operation, determines the result of the instruction operation by the robot 1 itself, and positively affects the emotion of the user who viewed the instruction operation based on the determined result. The action including the emotion expression action is executed as the result expression action. As a result, effects such as amplifying the user's positive emotion and relieving the negative emotion can be produced, and as a result, communication excellent in affinity with the user can be performed.

(実施の形態2)
本発明に係るロボットは、ロボットに指示を与えるユーザと指示動作を見るユーザとが別の者であってもよい。以下に説明する、本発明の実施の形態2に係るロボットはその一例である。図面を参照しながら本発明の実施の形態2に係るロボットについて説明する。
(Embodiment 2)
In the robot according to the present invention, the user who gives an instruction to the robot and the user who sees the instruction operation may be different. The robot according to Embodiment 2 of the present invention described below is an example. A robot according to Embodiment 2 of the present invention will be described with reference to the drawings.

図9(a)及び図9(b)はロボット1Aの外観を示す図である。ロボット1Aは小さな荷物を同フロア内で配達することが可能なペット型ロボットであり、屋内での使用が想定されている。ロボット1Aはユーザとコミュニケーションをすることができる。また、ロボット1Aはユーザの指示に反応して、車輪による走行により配達を行うことができる。   FIG. 9A and FIG. 9B are views showing the appearance of the robot 1A. The robot 1A is a pet-type robot capable of delivering small packages within the same floor, and is assumed to be used indoors. The robot 1A can communicate with the user. In addition, the robot 1 </ b> A can perform delivery by running on wheels in response to a user instruction.

図9、図2及び図4を参照しながら、ロボット1Aの構成を説明する。なおロボット1Aの構成において、実施の形態1のロボット1の構成と共通する構成要素については同一の符号を付して説明を省略する。   The configuration of the robot 1A will be described with reference to FIG. 9, FIG. 2, and FIG. In the configuration of the robot 1A, the same components as those in the configuration of the robot 1 according to the first embodiment are denoted by the same reference numerals and description thereof is omitted.

図9(a)及び図9(b)に示すとおり、ロボット1Aは実施の形態1のロボット1と比較すると、尻尾13を有さず、また胴体部10Aの背面部分には荷台スペース14Aが設けられている。荷台スペース14Aには小さな荷物を置くことが可能であり、ロボット1Aによる配達が可能である。   As shown in FIG. 9A and FIG. 9B, the robot 1A does not have the tail 13 as compared with the robot 1 of the first embodiment, and a loading space 14A is provided on the back portion of the body portion 10A. It has been. A small luggage can be placed in the loading space 14A, and delivery by the robot 1A is possible.

ハードウェア構成は図2に示す実施の形態1のロボット1とほぼ同様である。記憶部100内の各種プログラムもおおよそ同様だが、一芸に関する機能は有さない。制御部110が記憶部100内の各種プログラムを実行することにより実現される、コミュニケーション装置1000としての図4に示す各機能部についても実施の形態1のロボット1とほぼ同様だが、やはり一芸に関する機能は有さない。   The hardware configuration is almost the same as that of the robot 1 according to the first embodiment shown in FIG. The various programs in the storage unit 100 are roughly the same, but do not have a function related to art. Each of the functional units shown in FIG. 4 as the communication device 1000 realized by the control unit 110 executing various programs in the storage unit 100 is substantially the same as the robot 1 of the first embodiment, but is also a function related to art. I do not have.

動作についてもおおよそ実施の形態1と同様だが、配達指示を与えるユーザ(以下ユーザ甲とする)と配達を受けるユーザ(以下ユーザ乙とする)とが別の者である点が実施の形態1と異なる。配達が完了した際に行う成果表現動作は、配達完了を見る者であるユーザ乙に対して行う。ただし、例えばユーザ甲がロボット1を見ているときにロボット1Aが転倒した場合、ロボット1Aはユーザ甲に対して転倒に対応する成果表現動作を実行してもよい。   The operation is roughly the same as in the first embodiment, but the user who gives a delivery instruction (hereinafter referred to as user A) and the user who receives the delivery (hereinafter referred to as user B) are different from those in the first embodiment. Different. The result expression operation performed when the delivery is completed is performed on the user B who is the person who sees the completion of the delivery. However, for example, when the robot 1A falls while the user A is looking at the robot 1, the robot 1A may execute a result expressing operation corresponding to the user A on the user.

以上、本発明の実施の形態2に係るロボットについて説明をした。ロボット1Aは、指示を与えるユーザと、指示動作を見るユーザとが別の者であっても、指示動作を見たユーザに対して成果表現動作を実行することができる。   The robot according to the second embodiment of the present invention has been described above. The robot 1 </ b> A can execute the result expression operation on the user who has seen the instruction operation, even if the user who gives the instruction and the user who sees the instruction operation are different persons.

(実施の形態3)
本発明に係るロボットは、自律移動が不可能であってもよい。以下に説明する、本発明の実施の形態3に係るロボットはその一例である。図面を参照しながら本発明の実施の形態3に係るロボットについて説明する。
(Embodiment 3)
The robot according to the present invention may not be capable of autonomous movement. The robot according to Embodiment 3 of the present invention described below is an example. A robot according to Embodiment 3 of the present invention will be described with reference to the drawings.

図10はロボット1Bの外観を示す図である。一芸が可能なペット型ロボットであり、屋内での使用が想定されている。ロボット1Bはユーザとコミュニケーションをすることができる。また、ロボット1Bはユーザの指示に反応して、一芸として直立をすることができる。   FIG. 10 is a diagram showing an appearance of the robot 1B. It is a pet-type robot that can be used for a single performance, and is expected to be used indoors. The robot 1B can communicate with the user. In addition, the robot 1B can stand upright as a stage in response to a user instruction.

図10、図2及び図4を参照しながら、ロボット1Bの構成を説明する。なおロボット1Bの構成において、実施の形態1のロボット1の構成と共通する構成要素については同一の符号を付して説明を省略する。   The configuration of the robot 1B will be described with reference to FIG. 10, FIG. 2, and FIG. In the configuration of the robot 1B, the same components as those in the configuration of the robot 1 according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

図10に示すとおり、ロボット1Bは実施の形態1のロボット1と比較すると、前輪11及び後輪12を有さず、代わりに前足15B及び後足16Bを備える。前足15Bは胴体部10Bと固定されており、動かすことができない。後足16Bは胴体部10Bと回転軸17Bを介して接続され、駆動部120が胴体部10Bを回転させる際に、後足16Bが支点となる。駆動部120が胴体部10Bを後方向に回転させることにより、図11に示すとおり、ロボット1Bが直立する。そして、ロボット1Bが直立した状態で、駆動部120が胴体部10Bを前方向に回転させることにより、ロボット1Bを水平状態に戻すことができる。   As shown in FIG. 10, the robot 1B does not have the front wheel 11 and the rear wheel 12, but includes a front foot 15B and a rear foot 16B, as compared with the robot 1 of the first embodiment. The forefoot 15B is fixed to the body portion 10B and cannot be moved. The rear foot 16B is connected to the body portion 10B via the rotating shaft 17B, and the rear foot 16B serves as a fulcrum when the drive unit 120 rotates the body portion 10B. When the drive unit 120 rotates the body unit 10B in the backward direction, the robot 1B stands upright as shown in FIG. Then, with the robot 1B standing upright, the drive unit 120 can return the robot 1B to a horizontal state by rotating the body unit 10B forward.

ハードウェア構成は図2に示す実施の形態1のロボット1とほぼ同様であるが、ロボット1Bは移動が不可能であるため、測域センサ211は備えない構成としてもよい。記憶部100内の各種プログラム及び各種データもおおよそ同様だが、移動に関する機能は有さず、よって地図作成プログラム103及び地図データ105はいずれも有さない。制御部110が記憶部100内の各種プログラムを実行することにより実現される、コミュニケーション装置1000としての図4に示す各機能部についても実施の形態1のロボット1とほぼ同様だが、やはり移動に関する機能は有さず、よって地図作成部1020は有さない。駆動部120は前輪11及び後輪12に代えて回転軸17Bを駆動し、胴体部10Bを回転させる。   The hardware configuration is almost the same as that of the robot 1 according to the first embodiment shown in FIG. 2, but the robot 1B cannot move, so that the range sensor 211 may not be provided. The various programs and various data in the storage unit 100 are roughly the same, but have no function relating to movement, and therefore neither the map creation program 103 nor the map data 105. Each of the functional units shown in FIG. 4 as the communication apparatus 1000, which is realized by the control unit 110 executing various programs in the storage unit 100, is substantially the same as the robot 1 of the first embodiment. Therefore, the map creation unit 1020 is not provided. The drive unit 120 drives the rotary shaft 17B instead of the front wheels 11 and the rear wheels 12, and rotates the body unit 10B.

動作についてもおおよそ実施の形態1と同様だが、移動が不可能であるため、図7に示すステップS3−1の、水平な場所に移動するステップは行わない。水平でない場所にロボット1Bがいる場合、そのまま一芸を試みるか、水平な場所へ移動させるべきことをユーザに報知する。また、ステップS3−2に示す後方向への直進は行わず、ステップS3−3及びステップS3−7に示す後輪12の急ブレーキ及び回転に代えて回転軸17Bの回転を行う。   Although the operation is approximately the same as that of the first embodiment, since the movement is impossible, the step of moving to a horizontal place in step S3-1 shown in FIG. 7 is not performed. When the robot 1B is in a place that is not horizontal, the user is informed that it is necessary to try the game as it is or move it to a horizontal place. Further, the straight forward movement shown in step S3-2 is not performed, and the rotating shaft 17B is rotated instead of the sudden braking and rotation of the rear wheel 12 shown in steps S3-3 and S3-7.

以上、本発明の実施の形態3に係るロボットについて説明をした。ロボット1Bは、自律移動が不可能であるが、指示動作を見たユーザに対して成果表現動作を実行することができる。   The robot according to the third embodiment of the present invention has been described above. Although the robot 1B cannot autonomously move, the robot 1B can execute the result expression operation on the user who has seen the instruction operation.

(変形例)
実施の形態1〜3において、目21、口22、耳23の内部に各種機器を備える構成としたが、各種機器が設けられる場所はこれらの箇所に限られない。例えば尻尾13の先端に重力センサ222を設けてもよいし、胴体部10の内部に衝撃センサ221を設けてもよい。
(Modification)
In the first to third embodiments, various devices are provided inside the eyes 21, the mouth 22, and the ears 23, but the place where the various devices are provided is not limited to these locations. For example, the gravity sensor 222 may be provided at the tip of the tail 13, or the impact sensor 221 may be provided inside the body part 10.

実施の形態1〜3においては、「ペットらしさ」の実現のため、ユーザがロボットに対して指示を入力する方法として、音声による入力方法と頭を叩く方法を示したが、入力方法はこれらに限られない。例えば胴体部10の背中部分にタッチパネルを設け、これによりロボットに対する指示を入力可能としてもよい。   In the first to third embodiments, a voice input method and a head hitting method have been shown as methods for a user to input an instruction to the robot in order to realize “pet-likeness”. Not limited. For example, a touch panel may be provided on the back portion of the body 10 so that an instruction for the robot can be input.

実施の形態1及び2に係るロボットは環境地図情報を作成する機能を有するが、この機能を備えない構成としてもよい。環境地図情報を用いなくとも指示動作の実行により一定の成果を得ることができるからである。同様に、指示動作の実行により一定の成果を得ることができ、その成果に係る成果表現動作を実行可能であれば、実施の形態1〜3に係るロボットから一部の機能を省略した構成としてもよい。   The robot according to Embodiments 1 and 2 has a function of creating environmental map information, but may be configured without this function. This is because a certain result can be obtained by executing the instruction operation without using environmental map information. Similarly, as long as a certain result can be obtained by executing the instruction operation and the result expression operation related to the result can be executed, a configuration in which some functions are omitted from the robot according to the first to third embodiments is used. Also good.

実施の形態1で例示した成果表現動作は、ユーザの正の感情を増幅させるもの、ユーザの負の感情を緩和させるものを主としたが、成果表現動作として採用可能な動作はこれらに限られない。例えば近年、人間に多少の負の感情を与える、いわゆる「ウザキャラ」が台頭しており、ペット型ロボットの性格付けをこのようなキャラクタとすることが考えられる。その場合、ユーザに生じた正の感情を増幅させる動作に、あえてユーザに負の感情を生じさせると想定される動作を混ぜて実行することにより、「ウザキャラ」としてのキャラクタ付けが強調され、人間との親和性の向上を図ることができる。また、同様に、ユーザに生じた負の感情を緩和させる動作に、ユーザに正の感情を生じさせると想定される動作を混ぜて実行することによっても、特定のキャラクタ付けをすることができる。   Although the result expression operation exemplified in the first embodiment is mainly the one that amplifies the user's positive emotion and the one that alleviates the user's negative emotion, the operations that can be adopted as the result expression operation are limited to these. Absent. For example, in recent years, so-called “Uza-chara” that gives some negative feelings to humans has emerged, and it is conceivable that the personality of a pet-type robot is such a character. In that case, characterizing as “Uza-chara” is emphasized by executing the operation that amplifies the positive emotion generated in the user and the operation that is supposed to generate a negative emotion in the user. The affinity with can be improved. Similarly, a specific character can be attached by executing an operation that alleviates a negative emotion generated in the user and an operation that is assumed to generate a positive emotion in the user.

ロボットの動作は、図5、図6及び図7で例示したものに限られず、適宜変更が可能である。例えば各ステップの順序を適宜変更してもよい。   The operation of the robot is not limited to those illustrated in FIGS. 5, 6, and 7, and can be changed as appropriate. For example, the order of each step may be changed as appropriate.

実施の形態1では、制御部110が記憶部100内の各種プログラムを実行することでロボット1がコミュニケーション装置1000として機能することを示した。この場合において、制御部110がOS(Operating System)のプログラムを実行しているときは、記憶部100内の各種プログラムの機能の一部をOSの機能により代替してもよい。OSのプログラムは記憶部100内に記憶してもよいし、制御部110にROM(Read Only Memory)を設け、ROM内に記憶してもよい。また、記憶部100内に各種プログラムを記憶する代わりに、制御部110にネットワーク通信機能を設け、ネットワーク上のプログラム配信サーバから各種プログラムを取得して実行する形態としてもよい。   In the first embodiment, it is shown that the robot 1 functions as the communication device 1000 when the control unit 110 executes various programs in the storage unit 100. In this case, when the control unit 110 is executing an OS (Operating System) program, some of the functions of various programs in the storage unit 100 may be replaced by the OS function. The OS program may be stored in the storage unit 100, or a ROM (Read Only Memory) may be provided in the control unit 110 and stored in the ROM. Instead of storing various programs in the storage unit 100, the control unit 110 may be provided with a network communication function to acquire and execute various programs from a program distribution server on the network.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the specific embodiments, and the present invention includes the invention described in the claims and the equivalent scope thereof. included. Hereinafter, the invention described in the scope of claims of the present application will be appended.

(付記)
(付記1)
外部からの指示に基づく動作を指示動作として実行する指示動作実行部と、
前記指示動作実行部が実行した指示動作の成果を成果情報として検出する成果検出部と、
前記成果検出部が検出した成果情報に基づいて、前記指示動作実行部が実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行部と、
を備えるコミュニケーション装置。
(Appendix)
(Appendix 1)
An instruction operation execution unit that executes an operation based on an instruction from the outside as an instruction operation;
A result detection unit that detects a result of the instruction operation executed by the instruction operation execution unit as result information;
Based on the result information detected by the result detection unit, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who viewed the instruction operation performed by the instruction operation execution unit is executed as a result expression operation. The result expression operation execution unit
A communication device comprising:

(付記2)
前記成果検出部が検出する成果情報を時系列的に記憶する成果記憶部を更に備え、
前記成果表現動作実行部は、前記成果記憶部がこれまでに記憶した成果情報を参照して前記成果表現動作を実行する、
ことを特徴とする付記1に記載のコミュニケーション装置。
(Appendix 2)
A result storage unit that stores the result information detected by the result detection unit in a time series;
The result expression operation executing unit executes the result expression operation with reference to the result information stored by the result storage unit so far.
The communication apparatus according to Supplementary Note 1, wherein

(付記3)
前記指示動作実行部は、自装置を移動させる動作を実行し、
前記成果検出部は、前記外部からの指示が目的地へ移動する指示であるとき、自装置が前記目的地への移動を完了するまでに要した時間を前記成果情報として検出する、
ことを特徴とする付記1または2に記載のコミュニケーション装置。
(Appendix 3)
The instruction operation execution unit executes an operation of moving the own device,
The result detection unit detects, as the result information, the time required for the device to complete the movement to the destination when the instruction from the outside is an instruction to move to the destination.
The communication apparatus according to appendix 1 or 2, characterized in that:

(付記4)
周囲の環境を環境情報として検知し、前記環境情報に基づいて環境地図情報を作成する地図作成部を更に備え、
前記外部からの指示が目的地へ移動する指示であるとき、前記指示動作実行部は、前記環境地図情報に基づいて自装置を移動させ、
前記成果検出部は、自装置が前記目的地への移動を完了するまでに経た経路を前記成果情報として検出する、
ことを特徴とする付記1または2に記載のコミュニケーション装置。
(Appendix 4)
A map creation unit that detects surrounding environment as environment information and creates environment map information based on the environment information;
When the instruction from the outside is an instruction to move to a destination, the instruction operation execution unit moves the own apparatus based on the environmental map information,
The result detection unit detects, as the result information, a route taken until the device completes moving to the destination.
The communication apparatus according to appendix 1 or 2, characterized in that:

(付記5)
前記成果表現動作実行部は、前記指示動作実行部が実行した指示動作の成果が前記ユーザに正の感情を生じさせると想定されるときには、前記成果表現動作として、前記ユーザに生じた正の感情を増幅させる動作を実行する、
ことを特徴とする付記1から4のいずれか1つに記載のコミュニケーション装置。
(Appendix 5)
When it is assumed that the result of the instruction operation executed by the instruction operation execution unit causes the user to produce a positive emotion, the result expression operation execution unit performs positive emotion generated on the user as the result expression operation. Execute the operation to amplify,
5. The communication device according to any one of supplementary notes 1 to 4, wherein

(付記6)
前記成果表現動作実行部は、前記ユーザに生じた正の感情を増幅させる動作に前記ユーザに負の感情を生じさせると想定される動作を混ぜることにより、特定のキャラクタ付けを実行する、
ことを特徴とする付記5に記載のコミュニケーション装置。
(Appendix 6)
The result expression operation execution unit executes specific characterization by mixing an operation that amplifies a positive emotion generated in the user with an operation that is assumed to generate a negative emotion in the user.
The communication device according to appendix 5, characterized in that:

(付記7)
前記成果表現動作実行部は、前記指示動作実行部が実行した指示動作の成果が前記ユーザに負の感情を生じさせると想定されるときには、前記成果表現動作として、前記ユーザに生じた負の感情を緩和させる動作を実行する、
ことを特徴とする付記1から6のいずれか1つに記載のコミュニケーション装置。
(Appendix 7)
When the result of the instruction operation executed by the instruction operation execution unit is assumed to cause a negative emotion for the user, the result expression operation execution unit is configured to output a negative emotion generated for the user as the result expression operation. Perform actions to mitigate,
The communication device according to any one of supplementary notes 1 to 6, wherein:

(付記8)
前記成果表現動作実行部は、前記ユーザに生じた負の感情を緩和させる動作に前記ユーザに正の感情を生じさせると想定される動作を混ぜることにより、特定のキャラクタ付けを実行する、
ことを特徴とする付記7に記載のコミュニケーション装置。
(Appendix 8)
The result expression operation execution unit executes specific characterization by mixing an operation that is assumed to cause a positive emotion in the user into an operation that alleviates the negative emotion generated in the user,
The communication device according to appendix 7, characterized by:

(付記9)
外部からの指示に基づく動作を指示動作として実行する指示動作実行ステップと、
前記指示動作実行ステップで実行した指示動作の成果を成果情報として検出する成果検出ステップと、
前記成果検出ステップで検出した成果情報に基づいて、前記指示動作実行ステップで実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行ステップと、
を備えるコミュニケーション方法。
(Appendix 9)
An instruction operation execution step for executing an operation based on an instruction from the outside as an instruction operation;
A result detection step of detecting the result of the instruction operation executed in the instruction operation execution step as result information;
Based on the result information detected in the result detection step, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who has seen the instruction operation executed in the instruction operation execution step is executed as a result expression operation. A performance expression action execution step,
A communication method comprising:

(付記10)
コンピュータに、
外部からの指示に基づく動作を指示動作として実行する指示動作実行ステップと、
前記指示動作実行ステップで実行した指示動作の成果を成果情報として検出する成果検出ステップと、
前記成果検出ステップで検出した成果情報に基づいて、前記指示動作実行ステップで実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行ステップと、
を実行させるプログラム。
(Appendix 10)
On the computer,
An instruction operation execution step for executing an operation based on an instruction from the outside as an instruction operation;
A result detection step of detecting the result of the instruction operation executed in the instruction operation execution step as result information;
Based on the result information detected in the result detection step, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who has seen the instruction operation executed in the instruction operation execution step is executed as a result expression operation. A performance expression action execution step,
A program that executes

1、1A、1B…ロボット、10、10A、10B…胴体部、11…前輪、12…後輪、13…尻尾、14A…荷台スペース、15B…前足、16B…後足、17B…回転軸、20…頭部、21…目、22…口、23…耳、100…記憶部、101…指示認識プログラム、102…動作制御プログラム、103…地図作成プログラム、104…成果判定プログラム、105…地図データ、106…成果データ、110…制御部、120…駆動部、211…測域センサ、212…人感センサ、221…衝撃センサ、222…重力センサ、223…スピーカ、231…カメラ、232…マイク、1000…コミュニケーション装置、1001…指示動作実行部、1002…成果検出部、1003…成果表現動作実行部、1010…成果記憶部、1020…地図作成部、1100…指示受付部 DESCRIPTION OF SYMBOLS 1, 1A, 1B ... Robot 10, 10A, 10B ... Body part, 11 ... Front wheel, 12 ... Rear wheel, 13 ... Tail, 14A ... Loading platform space, 15B ... Front foot, 16B ... Rear foot, 17B ... Rotating shaft, 20 ... head, 21 ... eye, 22 ... mouth, 23 ... ear, 100 ... storage unit, 101 ... instruction recognition program, 102 ... motion control program, 103 ... map creation program, 104 ... result determination program, 105 ... map data, 106 ... result data, 110 ... control unit, 120 ... drive unit, 211 ... range sensor, 212 ... human sensor, 221 ... impact sensor, 222 ... gravity sensor, 223 ... speaker, 231 ... camera, 232 ... microphone, 1000 ... Communication device, 1001 ... Instruction operation execution unit, 1002 ... Result detection unit, 1003 ... Result expression operation execution unit, 1010 ... Result storage unit, 1 20 ... map creation unit, 1100 ... instruction receiving unit

Claims (10)

外部からの指示に基づく動作を指示動作として実行する指示動作実行部と、
前記指示動作実行部が実行した指示動作の成果を成果情報として検出する成果検出部と、
前記成果検出部が検出した成果情報に基づいて、前記指示動作実行部が実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行部と、
を備えるコミュニケーション装置。
An instruction operation execution unit that executes an operation based on an instruction from the outside as an instruction operation;
A result detection unit that detects a result of the instruction operation executed by the instruction operation execution unit as result information;
Based on the result information detected by the result detection unit, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who viewed the instruction operation performed by the instruction operation execution unit is executed as a result expression operation. The result expression operation execution unit
A communication device comprising:
前記成果検出部が検出する成果情報を時系列的に記憶する成果記憶部を更に備え、
前記成果表現動作実行部は、前記成果記憶部がこれまでに記憶した成果情報を参照して前記成果表現動作を実行する、
ことを特徴とする請求項1に記載のコミュニケーション装置。
A result storage unit that stores the result information detected by the result detection unit in a time series;
The result expression operation executing unit executes the result expression operation with reference to the result information stored by the result storage unit so far.
The communication device according to claim 1.
前記指示動作実行部は、自装置を移動させる動作を実行し、
前記成果検出部は、前記外部からの指示が目的地へ移動する指示であるとき、自装置が前記目的地への移動を完了するまでに要した時間を前記成果情報として検出する、
ことを特徴とする請求項1または2に記載のコミュニケーション装置。
The instruction operation execution unit executes an operation of moving the own device,
The result detection unit detects, as the result information, the time required for the device to complete the movement to the destination when the instruction from the outside is an instruction to move to the destination.
The communication apparatus according to claim 1 or 2, wherein
周囲の環境を環境情報として検知し、前記環境情報に基づいて環境地図情報を作成する地図作成部を更に備え、
前記外部からの指示が目的地へ移動する指示であるとき、前記指示動作実行部は、前記環境地図情報に基づいて自装置を移動させ、
前記成果検出部は、自装置が前記目的地への移動を完了するまでに経た経路を前記成果情報として検出する、
ことを特徴とする請求項1または2に記載のコミュニケーション装置。
A map creation unit that detects surrounding environment as environment information and creates environment map information based on the environment information;
When the instruction from the outside is an instruction to move to a destination, the instruction operation execution unit moves the own apparatus based on the environmental map information,
The result detection unit detects, as the result information, a route taken until the device completes moving to the destination.
The communication apparatus according to claim 1 or 2, wherein
前記成果表現動作実行部は、前記指示動作実行部が実行した指示動作の成果が前記ユーザに正の感情を生じさせると想定されるときには、前記成果表現動作として、前記ユーザに生じた正の感情を増幅させる動作を実行する、
ことを特徴とする請求項1から4のいずれか1項に記載のコミュニケーション装置。
When it is assumed that the result of the instruction operation executed by the instruction operation execution unit causes the user to produce a positive emotion, the result expression operation execution unit performs positive emotion generated on the user as the result expression operation. Execute the operation to amplify,
The communication apparatus according to any one of claims 1 to 4, wherein:
前記成果表現動作実行部は、前記ユーザに生じた正の感情を増幅させる動作に前記ユーザに負の感情を生じさせると想定される動作を混ぜることにより、特定のキャラクタ付けを実行する、
ことを特徴とする請求項5に記載のコミュニケーション装置。
The result expression operation execution unit executes specific characterization by mixing an operation that amplifies a positive emotion generated in the user with an operation that is assumed to generate a negative emotion in the user.
The communication device according to claim 5.
前記成果表現動作実行部は、前記指示動作実行部が実行した指示動作の成果が前記ユーザに負の感情を生じさせると想定されるときには、前記成果表現動作として、前記ユーザに生じた負の感情を緩和させる動作を実行する、
ことを特徴とする請求項1から6のいずれか1項に記載のコミュニケーション装置。
When the result of the instruction operation executed by the instruction operation execution unit is assumed to cause a negative emotion for the user, the result expression operation execution unit is configured to output a negative emotion generated for the user as the result expression operation. Perform actions to mitigate,
The communication apparatus according to any one of claims 1 to 6, wherein
前記成果表現動作実行部は、前記ユーザに生じた負の感情を緩和させる動作に前記ユーザに正の感情を生じさせると想定される動作を混ぜることにより、特定のキャラクタ付けを実行する、
ことを特徴とする請求項7に記載のコミュニケーション装置。
The result expression operation execution unit executes specific characterization by mixing an operation that is assumed to cause a positive emotion in the user into an operation that alleviates the negative emotion generated in the user,
The communication apparatus according to claim 7.
外部からの指示に基づく動作を指示動作として実行する指示動作実行ステップと、
前記指示動作実行ステップで実行した指示動作の成果を成果情報として検出する成果検出ステップと、
前記成果検出ステップで検出した成果情報に基づいて、前記指示動作実行ステップで実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行ステップと、
を備えるコミュニケーション方法。
An instruction operation execution step for executing an operation based on an instruction from the outside as an instruction operation;
A result detection step of detecting the result of the instruction operation executed in the instruction operation execution step as result information;
Based on the result information detected in the result detection step, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who has seen the instruction operation executed in the instruction operation execution step is executed as a result expression operation. A performance expression action execution step,
A communication method comprising:
コンピュータに、
外部からの指示に基づく動作を指示動作として実行する指示動作実行ステップと、
前記指示動作実行ステップで実行した指示動作の成果を成果情報として検出する成果検出ステップと、
前記成果検出ステップで検出した成果情報に基づいて、前記指示動作実行ステップで実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行ステップと、
を実行させるプログラム。
On the computer,
An instruction operation execution step for executing an operation based on an instruction from the outside as an instruction operation;
A result detection step of detecting the result of the instruction operation executed in the instruction operation execution step as result information;
Based on the result information detected in the result detection step, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who has seen the instruction operation executed in the instruction operation execution step is executed as a result expression operation. A performance expression action execution step,
A program that executes
JP2017129005A 2017-06-30 2017-06-30 Communication device, communication method and program Pending JP2019010708A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017129005A JP2019010708A (en) 2017-06-30 2017-06-30 Communication device, communication method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017129005A JP2019010708A (en) 2017-06-30 2017-06-30 Communication device, communication method and program

Publications (1)

Publication Number Publication Date
JP2019010708A true JP2019010708A (en) 2019-01-24

Family

ID=65227188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017129005A Pending JP2019010708A (en) 2017-06-30 2017-06-30 Communication device, communication method and program

Country Status (1)

Country Link
JP (1) JP2019010708A (en)

Similar Documents

Publication Publication Date Title
US7689319B2 (en) Communication robot control system
US11338429B2 (en) Robot
JP5366048B2 (en) Information provision system
JP4239635B2 (en) Robot device, operation control method thereof, and program
JP7180139B2 (en) Robot, robot control method and program
JP2009025898A (en) Route planning device, route planning method and traveling object
JP2011000681A (en) Communication robot
US20180329409A1 (en) Portable mobile robot and operation thereof
JP6565853B2 (en) Communication device
WO2018020889A1 (en) Robot
US20220097230A1 (en) Robot control device, robot control method, and program
US11780098B2 (en) Robot, robot control method, and recording medium
US11969876B2 (en) Robot and control method of robot
JP6893630B2 (en) Service provision robot system
JP7139643B2 (en) Robot, robot control method and program
JP2019010708A (en) Communication device, communication method and program
JP5324956B2 (en) Road guidance robot
JP2019193705A (en) Game program and game device
CN111195902B (en) Main control unit based on modular robot and modular robot
JP2005335001A (en) Robot control device and method, recording medium, and program
JP2020179005A (en) Robot and method
JP7258438B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
JP2020156607A (en) Control device, robot, control method, and program
CN111421557B (en) Electronic device and control method thereof
JP7133840B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD