JP4555039B2 - Robot, robot control method, robot control program - Google Patents

Robot, robot control method, robot control program Download PDF

Info

Publication number
JP4555039B2
JP4555039B2 JP2004274201A JP2004274201A JP4555039B2 JP 4555039 B2 JP4555039 B2 JP 4555039B2 JP 2004274201 A JP2004274201 A JP 2004274201A JP 2004274201 A JP2004274201 A JP 2004274201A JP 4555039 B2 JP4555039 B2 JP 4555039B2
Authority
JP
Japan
Prior art keywords
information
robot
thinking
output
external
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004274201A
Other languages
Japanese (ja)
Other versions
JP2005313308A (en
Inventor
友人 安藤
信行 山下
俊広 西沢
和義 割田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
NEC Solution Innovators Ltd
Original Assignee
NEC Corp
NEC System Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, NEC System Technologies Ltd filed Critical NEC Corp
Priority to JP2004274201A priority Critical patent/JP4555039B2/en
Publication of JP2005313308A publication Critical patent/JP2005313308A/en
Application granted granted Critical
Publication of JP4555039B2 publication Critical patent/JP4555039B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボットおよびロボットを制御する方法、プログラムに関するものである。 The present invention relates to a method for controlling a robot and a robot, are those concerning the program.

近年、ユーザを認識したり、ユーザと対話したり、自律的に行動したりするロボットが開発されている(たとえば特許文献1、特許文献2、特許文献3)。このようなロボットは、人間や生物と同じように振る舞うことを目指して設計されており、ロボットに性格情報や感情情報等の内部状態に関する情報を持たせ、内部状態に応じた振る舞いをさせることで、人間や生物と同じように振る舞うような制御が行われている。
特開2000−326274号公報 WO00/015396号公報 特開2002−283261号公報
In recent years, robots that recognize a user, interact with the user, and act autonomously have been developed (for example, Patent Document 1, Patent Document 2, and Patent Document 3). Such robots are designed to behave in the same way as humans and organisms. By giving robots information on internal states such as personality information and emotion information, they can behave according to internal states. Control that behaves in the same way as humans and living things is performed.
JP 2000-326274 A WO00 / 015396 JP 2002-283261 A

しかし、実際の人間や生物の性格や感情のような内部状態のモデルは完全には解明されておらず、ロボットの外部状態は、開発者の主観によって設計開発されているのが現状である。そのため、ロボットの振る舞いがユーザにとって直感にあわず、ロボットの行動を理解できないということも多い。また、ロボットの認識能力等が充分でないために、ロボットがユーザの所望の行動を行わず、ユーザがロボットとのコミュニケーションを図りにくいという問題もあった。   However, models of internal states such as actual human and biological characters and emotions have not been fully elucidated, and the external states of robots are currently designed and developed by the subjectivity of developers. For this reason, the behavior of the robot is not intuitive to the user, and it is often impossible to understand the robot's behavior. In addition, since the robot's recognition ability is not sufficient, the robot does not perform the user's desired action, and there is a problem that it is difficult for the user to communicate with the robot.

本発明は上記事情を踏まえてなされたものであり、本発明は、ユーザにロボットのことを理解してもらい、親しみを持ってもらうようにする技術を提供するものである。   The present invention has been made in view of the above circumstances, and the present invention provides a technique for allowing a user to understand a robot and to have familiarity with it.

本発明によれば、思考を行い、該思考に基づいて行動するロボットであって、当該ロボットの外部状態に関する外部情報を取得する外部情報取得手段と、取得した外部情報を保有する外部状態管理手段と、取得した外部情報を契機として変化する当該ロボットの内部状態に関する内部情報を保有する内部状態管理手段と、少なくとも外部情報を契機として思考を展開し、該思考の結果に基づいて、取るべき行動を決定する思考手段と、思考手段による思考過程そのものや思考過程の根拠となる外部情報や内部情報等からなる情報を出力する出力手段と、を備え、思考過程は、多段にわたるものであり、出力手段は、出力する情報の少なくとも一部として多段にわたる思考過程の少なくとも一部を画面表示することを特徴とするロボットが提供される。 According to the present invention, a robot that performs thinking and acts based on the thought, the external information acquisition unit that acquires external information related to the external state of the robot, and the external state management unit that holds the acquired external information And internal state management means holding internal information about the internal state of the robot that changes with the acquired external information as a trigger, and at least the external information as a trigger to develop thoughts , and actions to be taken based on the results of the thought comprising a thought means for determining, and an output means for outputting the information consisting of external information and internal information such as the basis for thinking over extent itself and thought process by thinking means, and thought processes are those over multistage , output means, robot provided, which comprises at least a portion the screen display of the multi-stage over thought process as at least a part of the output information It is.

このロボットにおいて、前記思考手段は、前記外部情報および前記内部情報に基づいて思考を行う構成としてもよい。 In this robot, before Symbol thinking means it may be configured to perform thinking based on the external information and the internal information.

また、前記出力手段は、思考過程を表す前記情報として、前記外部情報または前記内部情報の少なくとも一部を出力するようにしてもよい。   The output means may output at least a part of the external information or the internal information as the information representing a thought process.

さらに、出力方法決定手段は、たとえば、前記外部情報または内部情報を考慮して出力方法を決定するように構成することができる。 Furthermore, the output method determining means, for example, can be configured to determine an output method in consideration of the external information or internal information.

また、前記外部情報はユーザから発せられた情報を含み、前記出力方法決定手段は、ユーザから発せられた前記情報を考慮して前記思考過程を表す前記情報の出力方法を決定するようにしてもよい。   The external information includes information issued from a user, and the output method determination means determines an output method of the information representing the thought process in consideration of the information issued from the user. Good.

前記出力手段は、ロボットの行動、ロボットの発声または表示を介して情報を出力する複数の出力部を含み、前記出力方法決定手段は、複数の前記出力部のいずれかを選択し、前記出力方法決定手段によって選択された出力部を介して思考過程を表す前記情報が出力されるように構成することもできる。   The output means includes a plurality of output units that output information via a robot action, robot utterance or display, and the output method determination means selects any of the plurality of output units, and the output method The information representing the thought process may be output via the output unit selected by the determining means.

外部情報と出力方法決定手段については種々の態様を採用することができる。以下はその例示である。
(i)前記外部情報は、周囲の環境の騒がしさに関する情報を含み、前記出力方法決定手段は、騒がしさに関する前記情報を考慮し、周囲が騒がしければ画面表示を前記出力方法とし、周囲が静かであれば発声または発音を前記出力方法とする。
(ii)前記外部情報は、画像を投影し得る箇所の存否に関する情報を含み、前記出力方法決定手段は、画像を投影する前記箇所が存在するとき、前記箇所への画面表示を前記出力方法とする。
(iii)前記外部情報は、ユーザの年齢層に関する情報を含み、前記出力方法決定手段は、ユーザの年齢層を考慮して前記出力方法を決定する。
Various modes can be adopted for the external information and the output method determining means. The following is an example.
(i) The external information includes information related to noise in the surrounding environment, and the output method determination means considers the information related to noise, and if there is noise in the surroundings, the screen display is set as the output method. If quiet, utterance or pronunciation is used as the output method.
(ii) The external information includes information regarding the presence or absence of a location where an image can be projected, and the output method determination means displays the screen display at the location as the output method when the location where the image is projected exists. To do.
(iii) The external information includes information related to the user's age group, and the output method determining means determines the output method in consideration of the user's age group.

ここで、前記思考過程の提示に関しては、種々の態様をとることができる。以下はその例示である。
(i)前記思考過程提示方法管理手段は、自分の声で発声する方法、第三者の声で発声する方法、効果音で発音する方法、の何れか一の方法により思考過程を提示する。
(ii)前記思考過程提示方法管理手段は、手や足や耳などを動かす方法、目や口などのランプを点灯させる方法、の何れか一の方法により思考過程を提示する。
(iii)前記思考過程提示方法管理手段は、グラフ構造、テキスト、表、時系列チャート、カメラ画像、ロボット図、の何れか一の方法により思考過程を提示する。
Here, with respect to the presentation of prior Ki思 considered process can take various forms. The following is an example.
(i) The thought process presentation method management means presents the thought process by any one of a method of uttering with one's own voice, a method of uttering with a third party's voice, and a method of sounding with sound effects.
(ii) The thought process presentation method management means presents the thought process by any one of a method of moving hands, feet, ears, and the like, and a method of lighting lamps such as eyes and mouth.
(iii) The thinking process presentation method management means presents the thinking process by any one of a graph structure, text, table, time series chart, camera image, and robot diagram.

本発明によれば、ロボットを制御する方法であって、該ロボットに対し、当該ロボットの外部状態に関する外部情報を取得する第1ステップと、取得した外部情報を保有する第2ステップと、取得した外部情報を契機として変化する当該ロボットの内部状態に関する内部情報を保有する第3ステップと、少なくとも外部情報を契機として思考を行い、該思考の結果に基づいて、取るべき行動を決定する第4ステップと、第4ステップにおける思考過程そのものや思考過程の根拠となる外部情報や内部情報等からなる情報を出力する第5ステップと、を実行させ、思考過程は、多段にわたるものであり、第5ステップで、出力する情報の少なくとも一部として多段にわたる思考過程の少なくとも一部を画面表示することを特徴とするロボット制御方法が提供される。 According to the present invention, there is provided a method for controlling a robot, the first step of acquiring external information related to the external state of the robot with respect to the robot, and the second step of storing the acquired external information, a third step of carrying internal information about the internal state of the robot which changes the external information as a trigger, performs thought triggered at least external information, a fourth scan based on the result of the thinking, determines the action to be taken a step, a fifth step of outputting the fourth information comprising an external information and internal information such as the basis for thinking over extent itself and thought process in step is executed, the thinking process, are those over multistage in the fifth step, the robot system, which comprises at least a portion the screen display of the multi-stage over thought process as at least a part of the output information A method is provided.

このロボット制御方法において、前記第2ステップにおいて、前記外部情報および前記内部情報に基づいて思考を行うように制御する構成としてもよい。 In this robot control method, before Symbol second step, thinking may be used as the configuration of the row Uyo urchin control based on the external information and the internal information.

本発明によれば、ロボットを制御するプログラムであって、該ロボットに対し、当該ロボットの外部状態に関する外部情報を取得する第1ステップと、取得した外部情報を保有する第2ステップと、取得した外部情報を契機として変化する当該ロボットの内部状態に関する内部情報を保有する第3ステップと、少なくとも外部情報を契機として思考を行い、該思考の結果に基づいて、取るべき行動を決定する第4ステップと、第4ステップにおける思考過程そのものや思考過程の根拠となる外部情報や内部情報等からなる情報を出力する第5ステップと、を実行させ、思考過程は、多段にわたるものであり、第5ステップで、出力する情報の少なくとも一部として多段にわたる思考過程の少なくとも一部を画面表示することを特徴とするロボット制御プログラムが提供される。 According to the present invention, there is provided a program for controlling a robot, the first step for acquiring external information related to the external state of the robot with respect to the robot, and the second step for storing the acquired external information. a third step of carrying internal information about the internal state of the robot which changes the external information as a trigger, performs thought triggered at least external information, a fourth scan based on the result of the thinking, determines the action to be taken a step, a fifth step of outputting the fourth information comprising an external information and internal information such as the basis for thinking over extent itself and thought process in step is executed, the thinking process, are those over multistage in the fifth step, Robo, characterized in that the screen displaying at least a portion of the multi-stage over thought process as at least a part of the output information Door control program is provided.

このロボット制御プログラムにおいて、前記第2ステップにおいて、前記外部情報および前記内部情報に基づいて思考を行うように制御するように構成してもよい。 In this robot control program, before Symbol second step, thinking may be configured to line Uyo urchin controlled based on the external information and the internal information.

本発明は、従来のロボット装置のように、人間や生物の振る舞いを模擬し、人間とロボットとの関係として人間と人間や生物との関係を目指すのでなく、人間とロボットとの新しい関係を構築することで、解決する。   The present invention simulates the behavior of humans and organisms as in conventional robotic devices, and does not aim for the relationship between humans and humans and organisms as the relationship between humans and robots, but builds new relationships between humans and robots. To solve it.

とくに、従来のロボット装置では、ユーザにとってロボットの考えていることがわかりにくいことが、ユーザがロボットに親しみを持つ上での障害になっていた。たとえば、ロボットの機嫌が悪い、という状態であることは、ロボットの口調や振る舞いから見て取ることができるが、なぜ機嫌が悪いのか、ということはわからなかった。   In particular, in the conventional robot apparatus, the fact that it is difficult for the user to understand what the robot thinks is an obstacle to the user's familiarity with the robot. For example, it can be seen from the tone and behavior of the robot that the robot is in a bad mood, but I did not know why it was bad.

そこで、本発明においては、思考過程を表す情報を出力する構成を採用している。「思考過程を表す情報」とは、思考過程そのもの、または、思考過程の根拠となる外部情報や内部情報等をいう。本発明によれば、上記構成を採用しているため、ユーザは、ロボットが行動を起こしたとき、なぜそのような行動をとるのかを理解することが可能となる。   Therefore, in the present invention, a configuration for outputting information representing a thought process is employed. “Information representing a thinking process” refers to the thinking process itself, or external information or internal information that is the basis of the thinking process. According to the present invention, since the above configuration is adopted, the user can understand why the robot takes such action when the robot takes action.

また、ロボットがユーザの所望の行動を行わなかったとき、その理由を知ることができる。このように本発明によれば、ユーザとロボットとの間のコミュニケーションを良好にすることができ、ユーザにロボットのことを理解させ、親しみを持たせるようにすることができる。  Further, when the robot does not perform the user's desired action, the reason can be known. As described above, according to the present invention, communication between the user and the robot can be improved, and the user can be made to understand the robot and become familiar.

本発明において、外部情報や内部情報をロボット内部に保有し、これに基づいて思考を行う構成とすることができる。このようにすれば、外部情報や内部情報を利用して思考過程を表現することが可能となり、思考過程を表す情報を好適に出力できる。なお、「保有」とは、少なくとも一時的にロボット内部に保有されることを意味し、思考を完了する時点まで保有する態様や、思考過程を表す情報を出力した時点まで保有する態様を含む。   In this invention, it can be set as the structure which holds external information and internal information inside a robot, and thinks based on this. If it does in this way, it will become possible to express a thought process using external information or internal information, and the information showing a thought process can be outputted suitably. Note that “holding” means that the robot is held at least temporarily inside the robot, and includes a mode of holding until the point of completion of thinking and a mode of holding until the point of time when information indicating the thinking process is output.

本発明において、ロボットの外部状態な内部状態等に応じて思考過程を表す情報の出力方法を決定し、決定された方法にしたがって出力がなされるように構成してもよい。このようにすれば、ユーザが理解しやすい形で上記情報が出力されるので、ロボットとユーザとの間のコミュニケーションをより一層良好なものとすることができる。   In the present invention, an output method of information representing a thought process may be determined in accordance with an internal state or the like of the external state of the robot, and output may be performed according to the determined method. In this way, since the information is output in a form that is easy for the user to understand, the communication between the robot and the user can be further improved.

出力方法の決定は、たとえば、外部情報や内部情報を考慮して行うことができる。たとえば、ロボットの置かれた環境がどのような環境であるか、ロボットに対してアクションを起こした相手(ユーザ)がどのような者であるか、現在の日時がいつであるか、等を考慮して出力方法を適宜決めることができる。出力方法としては、行動・発声・表示等があり、これらを適宜組み合わせてもよい。   The output method can be determined in consideration of, for example, external information or internal information. For example, what kind of environment the robot is placed in, what kind of person (user) who took action against the robot is, and when is the current date and time, etc. Thus, the output method can be determined as appropriate. As an output method, there are action, utterance, display, and the like, and these may be appropriately combined.

以上、本発明の構成について説明したが、上記構成要素の任意の組合せ、本発明の表現を方法、装置の間で変換したものもまた、本発明の態様として有効である。   Although the configuration of the present invention has been described above, any combination of the above-described components, and a conversion of the expression of the present invention between methods and apparatuses are also effective as an aspect of the present invention.

以上説明したように、本発明によれば、思考過程を表す情報を出力する構成を採用しているため、ユーザにロボットのことをより良く理解してもらい、親しみを持ってもらうようにすることができる。   As described above, according to the present invention, the configuration that outputs information representing the thinking process is adopted, so that the user can understand the robot better and have a friendship. Can do.

次に、本発明の実施の形態について図面を参照して詳細に説明する。以下の説明では、ロボットの構成と機能を中心に説明するが、本発明は、かかるロボットのみならず、ロボットを制御する方法、プログラムをも開示するものである。なお、以下の説明では、思考過程を表す情報のことを、適宜、「思考過程」と表現する。   Next, embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the configuration and function of the robot will be mainly described. However, the present invention discloses not only such a robot but also a method and a program for controlling the robot. In the following description, information indicating a thought process is appropriately expressed as a “thinking process”.

図1は、本実施の形態におけるロボット装置の一例を示す外観構成図である。このロボット装置は、思考を行い、該思考に基づいて行動するロボットであって、以下の構成を備えている。
(i)ロボットの外部状態に関する外部情報を取得する外部情報取得手段(外部状態入力部102)
(ii)外部情報を保有する外部状態管理手段(外部状態管理部103)
(iii)取得した外部情報を契機として変化するロボットの内部状態に関する内部情報を保有する内部状態管理手段(内部状態管理部104)
(iv)外部情報および内部情報に基づいて思考を行い、思考の結果に基づいて、取るべき行動を決定する思考手段(思考部105)
FIG. 1 is an external configuration diagram illustrating an example of a robot apparatus according to the present embodiment. This robot apparatus is a robot that performs thinking and acts based on the thinking, and has the following configuration.
(i) External information acquisition means (external state input unit 102) for acquiring external information related to the external state of the robot
(ii) External state management means holding external information (external state management unit 103)
(iii) Internal state management means (internal state management unit 104) that holds internal information about the internal state of the robot that changes with the acquired external information as a trigger
(iv) Thinking means (thinking unit 105) that thinks based on external information and internal information and decides an action to be taken based on the result of thinking

ロボット装置101は、たとえば、胴体部1および頭部2が連結されることにより構成される。胴体部1の下部には左右にそれぞれ車輪3Aおよび車輪3Bが取り付けられており、これらの車輪は、独立に前後に回転することができる。   The robot apparatus 101 is configured, for example, by connecting the body 1 and the head 2. A wheel 3A and a wheel 3B are attached to the lower part of the body part 1 on the left and right, respectively, and these wheels can rotate back and forth independently.

頭部2は、胴体部1に垂直に取り付けられた垂直軸とその垂直軸に対して90度の角度で設置された水平軸に関して決められた範囲で回転することができる。垂直軸は頭部2の中心を通るように設置されており、水平軸は胴体1と頭部2が正面を向いた状態で頭部2の中心を通りかつ左右方向に水平に設置されている。つまり、頭部2は左右と上下の2自由度で、決められた範囲内で回転することができる。   The head 2 can rotate within a predetermined range with respect to a vertical axis that is vertically attached to the body 1 and a horizontal axis that is installed at an angle of 90 degrees with respect to the vertical axis. The vertical axis is installed so as to pass through the center of the head 2, and the horizontal axis is installed horizontally through the center of the head 2 with the body 1 and the head 2 facing the front and in the left-right direction. . That is, the head 2 can rotate within a predetermined range with two degrees of freedom, left and right and up and down.

胴体部1の表面には、スピーカ12および投影部15等が設けられる。また、頭部2の表面には、CCDカメラ21AおよびCCDカメラ21B、音声認識マイク13、ならびに頭スイッチ14等が設けられる。   A speaker 12, a projection unit 15, and the like are provided on the surface of the body unit 1. Further, on the surface of the head 2, a CCD camera 21A and a CCD camera 21B, a voice recognition microphone 13, a head switch 14, and the like are provided.

図2は、本実施の形態におけるロボット装置101の構成を示すブロック図である。
ロボット装置101は、外部状態入力部102、外部状態管理部103、内部状態管理部104、思考部105、思考過程提示処理部106(出力方法決定部)、および出力処理部110を含む。
FIG. 2 is a block diagram illustrating a configuration of the robot apparatus 101 according to the present embodiment.
The robot apparatus 101 includes an external state input unit 102, an external state management unit 103, an internal state management unit 104, a thinking unit 105, a thought process presentation processing unit 106 (output method determining unit), and an output processing unit 110.

外部状態入力部102は、ロボット装置101の周囲の外部状態を入力する。外部状態入力部102は、たとえば、CCDカメラ21AやCCDカメラ21B、音声認識マイク13等のマイク、障害物センサ、モータ、スイッチ、ケーブル、ジャイロ、外部信号入力部等の入力機器とすることができる。障害物センサには、超音波センサや赤外線センサ等のセンサが含まれる。また、外部信号入力部は、監視カメラ、携帯電話、他のロボット等の外部機器や、IDタグ等のメディアからの信号を入力することもできる。   The external state input unit 102 inputs an external state around the robot apparatus 101. The external state input unit 102 may be an input device such as a CCD camera 21A, a CCD camera 21B, a microphone such as the voice recognition microphone 13, an obstacle sensor, a motor, a switch, a cable, a gyro, or an external signal input unit. . The obstacle sensor includes a sensor such as an ultrasonic sensor or an infrared sensor. The external signal input unit can also input signals from external devices such as surveillance cameras, mobile phones, other robots, and media such as ID tags.

外部状態管理部103は、ロボットの外部状態を関する外部情報を保有する。すなわち、外部状態入力部102が外部から取得した情報に基づき、ロボット装置101の外部状態を認識する。外部状態管理部103は、たとえば、外部状態入力部102が取得した画像情報に基づき、色、形、顔等を認識する。また、外部状態管理部103は、たとえば外部状態入力部102が取得した音声情報に基づき、音源方向、物音、人の声、声の抑揚等を認識する。また、外部状態管理部103は、たとえば、外部状態入力部102が取得した障害物情報に基づき、障害物の有無、距離等を認識する。また、外部状態管理部103は、たとえば、外部状態入力部102が取得した圧力情報に基づき、撫でられた、叩かれた、押された、障害物に当たった等の事象を認識する。また、外部状態管理部103は、充電中、姿勢、現在位置等の情報を認識する。   The external state management unit 103 holds external information relating to the external state of the robot. In other words, the external state input unit 102 recognizes the external state of the robot apparatus 101 based on information acquired from the outside. The external state management unit 103 recognizes colors, shapes, faces, and the like based on image information acquired by the external state input unit 102, for example. Further, the external state management unit 103 recognizes a sound source direction, a sound, a human voice, a voice inflection, and the like based on the audio information acquired by the external state input unit 102, for example. In addition, the external state management unit 103 recognizes the presence / absence of an obstacle, a distance, and the like based on the obstacle information acquired by the external state input unit 102, for example. Also, the external state management unit 103 recognizes an event such as stroking, hitting, pressing, or hitting an obstacle based on the pressure information acquired by the external state input unit 102, for example. In addition, the external state management unit 103 recognizes information such as the posture and the current position during charging.

内部状態管理部104は、内部状態記憶部107および内部状態取得部108を含む。内部状態記憶部107は、ロボットの内部状態を表す情報を記憶する。具体的には、ロボット装置101の動作モード(状態)情報、性格情報、性格タイプ情報、機嫌情報、感情情報、欲求情報、成長ステージ情報、履歴DB情報等の内部状態に関する内部情報等を記憶する。ここで、動作モード(状態)情報は、対話モードや自律行動モード等を含む。性格情報は、積極性、協調性、勤勉性、知性、情緒安定性等を定義づけるものである。性格タイプ情報とは、ものしり、ダンス好き、ゲーム好き、ぐうたら等を定義づけるものである。機嫌情報とは、機嫌がよい、機嫌が普通、機嫌が悪い等を定義づけるものである。感情情報とは、喜び、怒り、悲しみ等を定義づけるものである。欲求情報とは、食欲、睡眠欲、活動欲、親和欲等を定義づけるものである。成長ステージ情報とは、幼児期、少年期、成人期等を定義づけるものである。履歴DB情報とは、機能毎・ユーザ毎の実行回数、機能毎・ユーザ毎の褒められた回数等を定義づけるものである。   The internal state management unit 104 includes an internal state storage unit 107 and an internal state acquisition unit 108. The internal state storage unit 107 stores information representing the internal state of the robot. Specifically, it stores internal information relating to the internal state such as operation mode (state) information, personality information, personality type information, mood information, emotion information, desire information, growth stage information, history DB information, etc. . Here, the operation mode (state) information includes a dialogue mode, an autonomous action mode, and the like. Personality information defines positiveness, cooperation, diligence, intelligence, emotional stability, and so on. Personality type information defines things such as things, dance enthusiasts, game enthusiasts, guttara, and the like. The mood information defines that the mood is good, the mood is normal, the mood is bad. Emotion information defines joy, anger, sadness, and the like. The desire information defines appetite, sleep desire, activity desire, affinity desire, and the like. Growth stage information defines childhood, boyhood, adulthood, and the like. The history DB information defines the number of executions for each function / user, the number of times given up for each function / user, and the like.

図3は、内部状態記憶部107の内部構成の一部の一例を示す図である。ここでは、性格タイプ情報を例に挙げて説明する。性格タイプ情報には、「ものしり」、「ダンス好き」、「ゲーム好き」、「ぐうたら」が含まれる。各性格タイプには、それぞれの性格タイプの傾向を示す数値が対応づけて記憶される。たとえば、「ものしり」は「0.5」、「ダンス好き」は「1」、「ゲーム好き」は「0.8」、「ぐうたら」は「0.2」となっている。このロボット装置101は、「ダンス好き」の性格タイプが最も高く、「ゲーム好き」、「ものしり」、「ぐうたら」の順で性格タイプが低くなっている。   FIG. 3 is a diagram illustrating an example of a part of the internal configuration of the internal state storage unit 107. Here, personality type information will be described as an example. The personality type information includes “monogatari”, “dance lover”, “game lover”, and “guuta”. Each personality type is associated with a numerical value indicating the tendency of the personality type and stored. For example, “Monoshiri” is “0.5”, “Dancing Love” is “1”, “Game Love” is “0.8”, and “Gutara” is “0.2”. The robot apparatus 101 has the highest personality type of “dance lover”, and the personality types are lower in the order of “game lover”, “monolith”, and “guuta”.

図2に戻り、内部状態取得部108は、内部状態記憶部107から適宜必要な内部状態に関する情報を取得し、思考部105に送出する。内部状態取得部108は、外部状態管理部103が認識した外部状態に基づき、その外部状態に関連する内部状態に関する情報(内部情報)を内部状態記憶部107から読み出すこともできる。たとえば、外部状態管理部103が、外部状態入力部102が入力した画像に基づき、ユーザを認証した場合、外部状態管理部103は、認証したユーザを識別する情報を内部状態取得部108に送出する。内部状態取得部108は、外部状態管理部103から送出されたユーザの識別情報に基づき、内部状態記憶部107の履歴DB情報を参照し、そのユーザに関する履歴を読み出す。   Returning to FIG. 2, the internal state acquisition unit 108 acquires information on the necessary internal state from the internal state storage unit 107 as appropriate, and sends it to the thinking unit 105. Based on the external state recognized by the external state management unit 103, the internal state acquisition unit 108 can also read out information (internal information) related to the internal state from the internal state storage unit 107. For example, when the external state management unit 103 authenticates the user based on the image input by the external state input unit 102, the external state management unit 103 sends information identifying the authenticated user to the internal state acquisition unit 108. . Based on the user identification information sent from the external state management unit 103, the internal state acquisition unit 108 refers to the history DB information in the internal state storage unit 107 and reads the history related to the user.

また、内部状態取得部108は、外部状態管理部103が認識した外部状態に基づき、内部状態記憶部107の情報を更新することができる。たとえば、外部状態管理部103が、ユーザから褒められたことを認識した場合、内部状態取得部108は、内部状態記憶部107の感情情報の「喜び」の傾向を示す数値が高くなるように設定することができる。このように内部状態記憶部107の情報を逐次更新することにより、内部状態記憶部107に現在のロボット装置101の内部状態を的確に記憶しておくことができる。   Further, the internal state acquisition unit 108 can update information in the internal state storage unit 107 based on the external state recognized by the external state management unit 103. For example, when the external state management unit 103 recognizes that the user has been praised, the internal state acquisition unit 108 sets the numerical value indicating the tendency of “joy” in the emotion information in the internal state storage unit 107 to be high. can do. Thus, by sequentially updating the information in the internal state storage unit 107, the current internal state of the robot apparatus 101 can be accurately stored in the internal state storage unit 107.

思考部105は、外部情報を契機として思考を展開し、思考の結果に基づいてロボットの取るべき行動を決定する。思考部105は、行動決定部109および処理手順記憶部115を含む。行動決定部109は、外部状態や内部状態に基づき、ロボット装置101が次に取るべき行動を決定する。処理手順記憶部115は、行動決定部109がロボット装置101の行動を決定するための処理手順を記憶する。処理手順記憶部115は、たとえば、ニューラルネットワーク、ベイジアンネットワーク、状態遷移モデル、ルールベース、フローチャート、プログラミング言語等を記憶する。本実施の形態において、行動決定部109は、外部状態管理部103や内部状態管理部104から取得したロボット装置101の内部状態や外部状態(外部情報や内部情報)をパラメータとして、処理手順記憶部115に記憶された処理手順に従い、ロボット装置101が次に取るべき行動を決定する。
以下に各例を示す。
The thinking unit 105 develops thinking using external information as a trigger, and determines an action to be taken by the robot based on the result of the thinking. The thinking unit 105 includes an action determining unit 109 and a processing procedure storage unit 115. The action determination unit 109 determines the action to be taken next by the robot apparatus 101 based on the external state and the internal state. The processing procedure storage unit 115 stores a processing procedure for the behavior determination unit 109 to determine the behavior of the robot apparatus 101. The processing procedure storage unit 115 stores, for example, a neural network, a Bayesian network, a state transition model, a rule base, a flowchart, a programming language, and the like. In the present embodiment, the action determination unit 109 uses the internal state and external state (external information and internal information) of the robot apparatus 101 acquired from the external state management unit 103 and the internal state management unit 104 as parameters, and a processing procedure storage unit. In accordance with the processing procedure stored in 115, the action to be taken next by the robot apparatus 101 is determined.
Each example is shown below.

<ベイジアンネットワーク>
ベイジアンネットワークとは、人工知能の分野でよく知られた方法であるため詳細な説明は省略するが、事象についての確率を単位としてネットワークを構成した確率推論モデルである。入力情報を発火非発火のパターンとして与えて伝播計算すると、出力情報としての発火非発火のパターンを得ることができる。たとえば、ロボット装置101の内部状態や外部状態に関する種々の情報のそれぞれをノードに割り当て、ベイジアンネットワークの伝播計算をすることで、ロボット装置101が次に取るべき行動を決定することができる。
<Bayesian network>
A Bayesian network is a well-known method in the field of artificial intelligence, and will not be described in detail. However, a Bayesian network is a probability inference model in which a network is configured with the probability of an event as a unit. If input information is given as a non-ignition pattern and propagation calculation is performed, a non-ignition pattern can be obtained as output information. For example, it is possible to determine the action to be taken next by the robot apparatus 101 by assigning each of various kinds of information related to the internal state and the external state of the robot apparatus 101 to the node and performing propagation calculation of the Bayesian network.

図4は、ロボット装置101が取るべき行動を決定するためのベイジアンネットワークの一例を示す図である。
ここで、各ノードは確率値を持っている。各ノードの中で、たとえば、成立している事象の確率は「1」、成立していない事象の確率は「0」、観測できない事象の確率は「0」から「1」の間の値をとる。ノードとノードを結ぶリンクは、それらのノード間で確率に依存関係があることを意味し、たとえば、「人物識別(久しぶりに会った)」の確率が高い場合、「嬉しい」の確率が高まる。確率の依存関係はCPT(Conditional Probability Table)と呼ばれる表によって管理されており、入力リンクのあるノードの真偽の組合せに応じて、その確率が定義されている。ここで、「あいさつされた」、「人物識別(久しぶりに会った)」、「人物識別(頻繁に会っている)」、「頭撫でられた」、「頭叩かれた」等は、ロボット装置101の外部状態に基づき成立の有無が判断される。また、「ダンスが好き」や「ものしり屋」等は、ロボット装置101の内部状態に基づき成立の有無が判断される。
FIG. 4 is a diagram illustrating an example of a Bayesian network for determining an action to be taken by the robot apparatus 101.
Here, each node has a probability value. Within each node, for example, the probability of an established event is “1”, the probability of an unsatisfied event is “0”, and the probability of an unobservable event is a value between “0” and “1”. Take. A link connecting nodes means that there is a dependency relationship between the nodes. For example, when the probability of “person identification (I met after a long time)” is high, the probability of “happy” increases. Probability dependency is managed by a table called CPT (Conditional Probability Table), and the probability is defined according to the true / false combination of nodes with input links. Here, “I was greeted”, “Person identification (I met for a long time)”, “Person identification (I met frequently)”, “I was struck by a head”, “He was struck”, etc. Whether or not it is established is determined based on the external state 101. Also, whether or not “I like dancing”, “Monodashiya”, etc. is established based on the internal state of the robot apparatus 101 is determined.

ベイジアンネットワークの一番右の列は、ロボット装置101の行動を表す。ロボット装置101の外部状態と内部状態に基づき、各ノードの確率が決定され、最終的に最も高い確率値を持った行動が、ロボット装置101が次に取るべき行動として選択される。   The rightmost column of the Bayesian network represents the behavior of the robot apparatus 101. Based on the external state and internal state of the robot apparatus 101, the probability of each node is determined, and the action having the highest probability value is finally selected as the action to be taken next by the robot apparatus 101.

図5は、図4に示したベイジアンネットワークにより、ロボット装置101が次に取るべき行動が選択される過程を示す図である。ここでは、たとえば「頭撫でられた」、「好きな人物」、「嬉しい」、「ダンス好き」の確率が高く、最終的にロボット装置101が次に取るべき行動として「ダンスをする」が選択されている。   FIG. 5 is a diagram illustrating a process in which an action to be taken next by the robot apparatus 101 is selected by the Bayesian network illustrated in FIG. 4. Here, for example, there is a high probability of “headed”, “favorite person”, “happy”, “dancing lover”, and finally “dancing” is selected as the action that the robot apparatus 101 should take next. Has been.

<ニューラルネットワーク>
ニューラルネットワークとは、人工知能の分野でよく知られた方法であるため詳細な説明は省略するが、人間の脳を模したニューロンを単位としてネットワークを構成したモデルであり、入力情報を発火非発火のパターンとして与えて伝播計算すると、出力情報としての発火非発火のパターンを得ることができる。ロボット装置101の内部状態や外部状態に関する種々の情報のそれぞれをノードに割り当て、ベイジアンネットワークの伝播計算をすることで、ロボット装置101が次に取るべき行動を決定することができる。
<Neural network>
A neural network is a well-known method in the field of artificial intelligence, and will not be described in detail. However, a neural network is a model that consists of neurons simulating the human brain, and the input information is not ignited. If the propagation calculation is given as a pattern, it is possible to obtain a non-firing pattern as output information. By assigning each of various types of information related to the internal state and external state of the robot apparatus 101 to a node and performing propagation calculation of the Bayesian network, it is possible to determine the action that the robot apparatus 101 should take next.

図6は、ロボット装置101が取るべき行動を選択するためのニューラルネットの一例を示す図である。
ここで、各ノードは活性値を持っている。各ノードの活性値は、たとえば、各入力ノードの活性値に係数をかけた和をシグモイド関数で0から1の値に正規化するという方法により計算することができる。ニューラルネットワークにおいても、上述したベイジアンネットワークの場合と同様、ロボット装置101の行動の中で、最も高い活性値を持った行動が選択される。
FIG. 6 is a diagram illustrating an example of a neural network for selecting an action to be taken by the robot apparatus 101.
Here, each node has an activation value. The activation value of each node can be calculated, for example, by a method of normalizing the sum of the activation value of each input node by a coefficient from 0 to 1 with a sigmoid function. Also in the neural network, as in the case of the Bayesian network described above, the action having the highest activity value is selected from the actions of the robot apparatus 101.

<状態遷移モデル>
状態遷移モデルとは、情報処理の分野でよく知られた方法であるため詳細な説明は省略するが、ロボットの状態を分類・列挙し、各状態の意味や挙動について定義し、状態間の遷移する条件やタイミング等を定義することで、状態遷移モデルが定義される。ここでは、ネットワークで示したものをとくに状態遷移ネットワークと呼ぶ。
<State transition model>
Since the state transition model is a well-known method in the field of information processing, detailed explanations are omitted, but the states of robots are classified and enumerated, the meaning and behavior of each state are defined, and transitions between states The state transition model is defined by defining the conditions and timing to be performed. Here, what is shown as a network is called a state transition network.

<ルールベース>
ルールベースとは、情報処理の分野でよく知られた方法であるため詳細な説明は省略するが、どういう条件のときに何を行う、というようなルールを、多数用意したものであり、データベースやif文等で実現される。
<Rule base>
The rule base is a well-known method in the field of information processing, and will not be described in detail. However, there are many rules such as what to do under what conditions. This is realized by an if sentence or the like.

<フローチャート>
フローチャートとは、情報処理の分野でよく知られた方法であるため詳細な説明は省略するが、主に手続き型言語を図で記述したものである。
<Flowchart>
Since a flowchart is a method well known in the field of information processing, detailed description thereof is omitted, but a procedural language is mainly described by diagrams.

<プログラミング言語>
プログラミング言語とは、情報処理の分野でよく知られた方法であるため詳細な説明は省略するが、手続き型言語やオブジェクト指向言語、関数型言語、論理型言語等がある。
<Programming language>
The programming language is a well-known method in the field of information processing, and thus detailed description thereof is omitted, but there are a procedural language, an object-oriented language, a functional language, a logical language, and the like.

図2に戻り、出力処理部110は、思考部105による思考過程を出力する処理を行う。出力処理部110は、行動手段111、音声出力手段112、表示手段113、および外部出力手段114を含む。出力処理部110は、思考部105における思考過程を、思考過程提示処理部106によって決定された方法にしたがって出力する。すなわち、出力処理部110は、思考過程提示処理部106の指示に基づき、行動決定部109がロボット装置101の行動を選択するまでの思考過程を提示する。思考過程(思考過程を表す情報)は、ロボットの外部状態や内部状態を示す情報や、その情報に基づく思考等をいう。なお、思考過程提示処理部106の機能については後述する。   Returning to FIG. 2, the output processing unit 110 performs a process of outputting the thinking process by the thinking unit 105. The output processing unit 110 includes an action unit 111, an audio output unit 112, a display unit 113, and an external output unit 114. The output processing unit 110 outputs the thinking process in the thinking unit 105 according to the method determined by the thinking process presentation processing unit 106. That is, the output processing unit 110 presents a thought process until the behavior determination unit 109 selects an action of the robot apparatus 101 based on an instruction from the thought process presentation processing unit 106. The thinking process (information indicating the thinking process) refers to information indicating the external state or internal state of the robot, thinking based on the information, and the like. The function of the thought process presentation processing unit 106 will be described later.

行動手段111は、行動決定部109により決定された行動を行う。行動手段111は、図1に示した車輪3Aや車輪3B等を駆動するアクチュエータ等により実現される。本実施の形態において、行動手段111は、ダンスをする、音楽を流す、怒る、人を探す、人に近づく等の行動を行う。   The behavior unit 111 performs the behavior determined by the behavior determination unit 109. The action unit 111 is realized by an actuator or the like that drives the wheel 3A, the wheel 3B, or the like shown in FIG. In the present embodiment, the action unit 111 performs actions such as dancing, playing music, getting angry, searching for a person, approaching a person, and the like.

音声出力手段112は、ロボット装置101の音声を出力する。音声出力手段112は、図1に示したスピーカ12等により実現される。音声出力手段112は、行動決定部109により決定された行動に応じて音声を出力する。本実施の形態において、音声出力手段112は、あいさつをする、伝言をする、情報を伝える等の発音・発声を行う。   The voice output unit 112 outputs the voice of the robot apparatus 101. The audio output means 112 is realized by the speaker 12 shown in FIG. The voice output unit 112 outputs a voice according to the action determined by the action determination unit 109. In the present embodiment, the audio output means 112 performs pronunciation and utterance such as greeting, giving a message, and conveying information.

表示手段113は、情報を表示する。表示手段113は、たとえばロボット装置101に内蔵されたモニタ画面(不図示)とすることができる。また、表示手段113は、図1に示した投影部15により構成することもできる。投影部15からスクリーンに向けて、情報を投影することができる。本実施の形態において、表示手段113は、設定画面を表示する、ロボットの見ている画像を表示する等の表示を行う。   The display means 113 displays information. The display means 113 can be a monitor screen (not shown) built in the robot apparatus 101, for example. Further, the display means 113 can be configured by the projection unit 15 shown in FIG. Information can be projected from the projection unit 15 toward the screen. In the present embodiment, the display unit 113 performs display such as displaying a setting screen or displaying an image viewed by the robot.

外部出力手段114は、情報を外部の端末に出力する。外部の端末は、たとえばテレビ等の表示装置や、音声出力装置、他のロボット装置、携帯型端末等とすることができる。   The external output unit 114 outputs information to an external terminal. The external terminal can be a display device such as a television, an audio output device, another robot device, a portable terminal, or the like.

思考過程提示処理部106は、ロボット装置101の思考過程の出力方法を決定し、当該思考過程を出力処理部110に提示させる処理を行う。出力方法としては、行動・発声・表示等がある。思考過程提示処理部106は、出力処理部110を構成する一または二以上の各手段を選択し、選択した手段に対して思考過程を出力するよう指示する。
ここで、ロボット装置101の思考過程とは、たとえば、思考部105におけるロボット装置101の行動を決定する過程、ロボット装置101の内部状態や外部状態等である。思考過程提示処理部106は、ロボット装置101の思考過程を提示する手段、タイミング、内容等を管理する。
思考過程提示処理部106は、外部状態管理部103によって一時的に保有された外部状態に関する情報(外部情報)や、内部状態記憶部107に記憶された内部状態に関する情報(内部情報)等を参照し、これらに基づいて思考過程の出力方法を決定する。これにより、状況に応じて適切な出力方法が選択されるので、ロボットとユーザとの間のコミュニケーションをより一層良好なものとすることができる。
思考過程提示処理部106による思考過程の提示に関しては、種々の態様をとることができる。以下はその例示である。
(i)外部情報は、周囲の環境の騒がしさに関する情報を含み、思考過程提示処理部106は、騒がしさに関する情報を考慮し、周囲が騒がしければ画面表示を出力方法とし、周囲が静かであれば発声または発音を出力方法とする。
(ii)外部情報は、画像を投影し得る箇所の存否に関する情報を含み、思考過程提示処理部106は、画像を投影する箇所が存在するとき、箇所への画面表示を出力方法とする。たとえば、スクリーン投影できる場所があれば、スクリーン投影を行う等である。
(iii)外部情報は、ユーザの年齢層に関する情報を含み、思考過程提示処理部106は、ユーザの年齢層を考慮して出力方法を決定する。たとえばユーザが子供であれば、子供に理解できる提示形態とする。
The thought process presentation processing unit 106 determines a method for outputting the thought process of the robot apparatus 101 and performs a process of causing the output processing unit 110 to present the thought process. Examples of the output method include action, utterance, and display. The thought process presentation processing unit 106 selects one or more means constituting the output processing unit 110 and instructs the selected means to output the thought process.
Here, the thinking process of the robot apparatus 101 is, for example, a process of determining an action of the robot apparatus 101 in the thinking unit 105, an internal state or an external state of the robot apparatus 101, and the like. The thought process presentation processing unit 106 manages means, timing, contents, and the like for presenting the thought process of the robot apparatus 101.
The thought process presentation processing unit 106 refers to information (external information) on the external state temporarily held by the external state management unit 103, information on the internal state (internal information) stored in the internal state storage unit 107, and the like. Based on these, the output method of the thinking process is determined. Thereby, since an appropriate output method is selected according to the situation, communication between the robot and the user can be further improved.
Regarding the presentation of the thought process by the thought process presentation processing unit 106, various modes can be taken. The following is an example.
(i) The external information includes information related to the noise of the surrounding environment, and the thought process presentation processing unit 106 considers the information related to the noise, and uses the screen display as an output method if the surroundings are noisy. If so, utterance or pronunciation is used as the output method.
(ii) The external information includes information regarding the presence / absence of a location where an image can be projected, and the thinking process presentation processing unit 106 uses a screen display at the location as an output method when there is a location where an image is projected. For example, if there is a place where screen projection is possible, screen projection is performed.
(iii) External information includes information related to the user's age group, and the thought process presentation processing unit 106 determines an output method in consideration of the user's age group. For example, if the user is a child, the presentation form can be understood by the child.

以下に、思考過程提示処理部106の処理を説明する。   Below, the process of the thought process presentation process part 106 is demonstrated.

<手段>
ロボット装置101の思考過程を提示する方法としては、たとえば音声出力や画面表示等がある。
<Means>
Examples of a method for presenting the thinking process of the robot apparatus 101 include voice output and screen display.

思考過程提示処理部106は、音声出力手段112や外部出力手段114を介して接続された音声出力装置等にロボット装置101の思考過程を音声出力させることができる。この際、思考過程提示処理部106は、ロボット装置101の思考過程と、通常のロボット装置101の発話とを区別するために、音声出力手段112に、ロボット装置101の声とは異なる第三者の声でロボット装置101の思考過程を音声出力させる。   The thought process presentation processing unit 106 can cause the voice output device or the like connected via the voice output unit 112 or the external output unit 114 to output the thought process of the robot apparatus 101 by voice. At this time, in order to distinguish the thinking process of the robot apparatus 101 and the normal utterance of the robot apparatus 101, the thinking process presentation processing unit 106 sends a third party different from the voice of the robot apparatus 101 to the voice output unit 112. The voice of the thinking process of the robot apparatus 101 is output by voice.

思考過程提示処理部106は、表示手段113や、外部出力手段114を介して接続された表示装置等にロボット装置101の思考過程を画面表示させることもできる。   The thinking process presentation processing unit 106 can display the thinking process of the robot apparatus 101 on the display unit 113 or a display device connected via the external output unit 114.

画面表示の例としては、グラフ構造、テキスト、表、時系列チャート、カメラ画像、ロボット図等がある。これらの詳細は後述する。   Examples of screen displays include graph structures, text, tables, time series charts, camera images, robot diagrams, and the like. Details of these will be described later.

また、思考過程提示処理部106は、ロボットの思考過程を、音声出力と画面表示の組合せで提示させることもできる。   The thinking process presentation processing unit 106 can also present the robot's thinking process by a combination of voice output and screen display.

<タイミング>
思考過程提示処理部106は、ロボット装置101の思考過程を、たとえばユーザの指示に基づき提示することができる。思考過程提示処理部106は、たとえば、ユーザが「どうして××しているの?」とか「何を考えているの?」等の問いかけをした場合に、ロボット装置101の思考過程を提示する。この場合、外部状態入力部102の一つである音声認識マイク13(図1参照)等によりユーザの声が音声波形情報として入力される。外部状態管理部103は、外部状態入力部102が入力した音声波形情報に基づき、ユーザから思考の提示指示があったことを認識する。外部状態管理部103は、ユーザからの指示を思考過程提示処理部106に通知する。思考過程提示処理部106は、外部状態管理部103からの通知に基づき、思考部105からロボット装置101の思考過程を取得し、出力処理部110に提示させる。
<Timing>
The thought process presentation processing unit 106 can present the thought process of the robot apparatus 101 based on a user instruction, for example. The thinking process presentation processing unit 106 presents the thinking process of the robot apparatus 101 when the user asks, for example, “Why are you doing xx?” Or “What are you thinking?” In this case, the voice of the user is input as voice waveform information by the voice recognition microphone 13 (see FIG. 1) which is one of the external state input units 102. The external state management unit 103 recognizes that the user has given a thought presentation instruction based on the speech waveform information input by the external state input unit 102. The external state management unit 103 notifies the thinking process presentation processing unit 106 of an instruction from the user. The thinking process presentation processing unit 106 acquires the thinking process of the robot apparatus 101 from the thinking unit 105 based on the notification from the external state management unit 103 and causes the output processing unit 110 to present it.

また、思考過程提示処理部106は、常時ロボット装置101の思考過程を出力処理部110に提示させておくこともできる。ユーザは、ロボット装置101の思考過程を常時提示させておく設定を予めしておくことができる。また、思考過程提示処理部106は、所定のタイミングでロボット装置101の思考過程を出力処理部110に提示させることもできる。ここで、所定のタイミングとは、イベント発生時、行動選択時、行動実行時、定期的等である。   Further, the thinking process presentation processing unit 106 can always cause the output processing unit 110 to present the thinking process of the robot apparatus 101. The user can set in advance the setting for always presenting the thinking process of the robot apparatus 101. The thinking process presentation processing unit 106 can also cause the output processing unit 110 to present the thinking process of the robot apparatus 101 at a predetermined timing. Here, the predetermined timing is when an event occurs, when an action is selected, when an action is executed, or periodically.

イベント発生時とは、たとえば、所定のボタンを押された、バッテリが規定の残量より少なくなった、食欲が閾値を超えた、物音がした、人を見つけた等の、ロボット装置101の外部状態や内部状態が変化したときとすることができる。   When an event occurs, for example, when a predetermined button is pressed, the battery is less than a specified remaining amount, the appetite exceeds a threshold, a noise is heard, a person is found, etc. It can be when the state or internal state changes.

行動選択時とは、思考部105がロボット装置101が次に取るべき行動を決定しているときのことである。思考過程提示処理部106は、思考部105が、ロボット装置101が次に取るべき行動としてたとえば「ダンスをする」という行動を決定した段階で、ロボット装置101の思考過程を提示させることができる。   The action selection time is when the thinking unit 105 determines the action that the robot apparatus 101 should take next. The thinking process presentation processing unit 106 can present the thinking process of the robot device 101 when the thinking unit 105 determines, for example, “dancing” as the next action that the robot device 101 should take.

行動実行時とは、ロボット装置101が、思考部105により決定された行動を実行しているときのことである。思考過程提示処理部106は、たとえばロボット装置101が実際にダンスをしている間に、ロボット装置101の思考過程を提示させることができる。   The action execution time is when the robot apparatus 101 is executing an action determined by the thinking unit 105. The thinking process presentation processing unit 106 can cause the thinking process of the robot apparatus 101 to be presented while the robot apparatus 101 is actually dancing, for example.

また、思考過程提示処理部106は、イベント発生等に関係なく、たとえば所定間隔でロボット装置101の思考過程を提示させることもできる。また、思考過程提示処理部106は、所定間隔ではなく、状況に応じて間隔を変えたり、フラクタルや乱数等によって不確定な間隔でロボット装置101の思考過程を提示させてもよい。   The thinking process presentation processing unit 106 can also present the thinking process of the robot apparatus 101 at a predetermined interval, for example, regardless of the occurrence of an event. The thinking process presentation processing unit 106 may change the interval according to the situation instead of the predetermined interval, or may cause the thinking process of the robot apparatus 101 to be presented at an uncertain interval by a fractal, a random number, or the like.

<内容>
思考過程提示処理部106は、ロボットの思考過程が多段にわたるときに、そのうちの一段階ずつを提示させてもよく、まとめて提示させてもよい。
<Contents>
The thinking process presentation processing unit 106 may present each step of the robot when the thinking process of the robot has multiple stages, or may present them collectively.

また、思考過程提示処理部106は、外部状態管理部103が取得したロボット装置101の外部状態等に応じて、どの手段でロボット装置101の思考過程を提示するかや、どのような内容を提示するかを判断することができる。たとえば、外部状態管理部103が、ユーザが子供であることを認識した場合、思考過程提示処理部106は、音声出力させたり、わかりやすい表現で思考過程を出力させるようにすることができる。また、周囲がうるさい場合、思考過程提示処理部106は、思考過程を画面表示させるようにすることができる。一方、周囲が静かな場合、思考過程提示処理部106は、思考過程を音声出力させるようにすることができる。また、たとえば外部状態管理部103が、無地の壁等スクリーンになり得るようなものを周囲に認識した場合、思考過程提示処理部106は、ロボット装置101の投影部15により、スクリーンに思考過程を提示させるようにすることもできる。   Further, the thinking process presentation processing unit 106 presents the thinking process of the robot apparatus 101 and what kind of content is presented according to the external state of the robot apparatus 101 acquired by the external state management unit 103. You can decide what to do. For example, when the external state management unit 103 recognizes that the user is a child, the thinking process presentation processing unit 106 can output the sound or output the thinking process with easy-to-understand expressions. When the surroundings are noisy, the thought process presentation processing unit 106 can display the thought process on the screen. On the other hand, when the surroundings are quiet, the thinking process presentation processing unit 106 can output the thinking process by voice. Also, for example, when the external state management unit 103 recognizes something that can be a screen such as a plain wall in the surroundings, the thinking process presentation processing unit 106 performs a thinking process on the screen by the projection unit 15 of the robot apparatus 101. It can also be made to present.

図17は、ロボット装置101の思考過程を提示する処理手順を示すフローチャートである。
ユーザから思考過程の提示指示があったり、何らかのイベントが発声したり、常時思考過程を提示するよう設定されている場合(S100のYES)、外部状態管理部103は、外部状態入力部102が入力した外部状態を認識する(S102)。思考過程提示処理部106は、外部状態入力部102が認識した外部状態に応じて、提示内容と提示手段を決定する(S104)。具体的には、思考過程提示処理部106は、ロボット装置101の思考過程を提示する対象のユーザの種類、周囲の環境等に応じて、提示内容と提示手段を決定する。つづいて、思考過程提示処理部106は、ステップS104で決定した思考過程の内容を所定の手段に提示させる(S106)。つづいて、この提示を終了するか否かを判断し(S108)、提示を終了する場合(S108のYES)は、ステップS100に戻り、次の提示のタイミングを待つこの処理を終了する。
FIG. 17 is a flowchart illustrating a processing procedure for presenting the thinking process of the robot apparatus 101.
When an instruction to present a thought process is given from the user, a certain event is uttered, or a setting is made to always present a thought process (YES in S100), the external state input unit 102 inputs the external state management unit 103. The external state is recognized (S102). The thinking process presentation processing unit 106 determines the presentation contents and the presentation means according to the external state recognized by the external state input unit 102 (S104). Specifically, the thought process presentation processing unit 106 determines the presentation contents and the presentation means according to the type of the target user who presents the thought process of the robot apparatus 101, the surrounding environment, and the like. Subsequently, the thought process presentation processing unit 106 causes a predetermined means to present the content of the thought process determined in step S104 (S106). Next, it is determined whether or not to end the presentation (S108). When the presentation is to be ended (YES in S108), the process returns to step S100, and the process of waiting for the next presentation timing is ended.

以下に、出力処理部110に提示されるロボット装置101の思考過程の例を示す。
(例1)画面表示:グラフ構造
グラフ構造とは、ノードとエッジ(またはリンク)からなる構造である。
グラフ構造でロボット装置101の思考過程を提示する場合は、UML(Unified Modeling Language:統一モデリング言語)のアクティビティ図、UMLのクラス図、UMLのステートチャート図、UMLのシーケンス図、UMLのコラボレーション図、リンクのないノードのみの図等で示すことができる。UMLは情報処理の分野でよく知られた方法であるため、ここでは簡単な説明のみ行う。
Hereinafter, an example of the thinking process of the robot apparatus 101 presented to the output processing unit 110 will be shown.
(Example 1) Screen display: graph structure The graph structure is a structure composed of nodes and edges (or links).
When presenting the thinking process of the robot apparatus 101 in a graph structure, an activity diagram of UML (Unified Modeling Language), a UML class diagram, a UML state chart diagram, a UML sequence diagram, a UML collaboration diagram, It can be shown in a diagram only of nodes without links. Since UML is a well-known method in the field of information processing, only a brief description will be given here.

UMLのアクティビティ図とは、アクティビティのフローを表現するための図で、システムの動的側面を具体的に記述するときに使用される。フローチャートやデータフロー図はアクティビティ図の一種である。ロボット装置101の思考過程を提示する際には、ニューラルネットワークやベイジアンネットワークもこの図を用いて表現することができる。   The UML activity diagram is a diagram for representing the flow of activity, and is used when the dynamic aspects of the system are specifically described. A flowchart or data flow diagram is a kind of activity diagram. When presenting the thinking process of the robot apparatus 101, a neural network or a Bayesian network can also be expressed using this figure.

上述した図5は、ベイジアンネットワークのそれぞれの事象をそれぞれノードに割り当て、事象に依存関係のあるものをエッジで関連付けることにより、ベイジアンネットワークをグラフとして表現したものである。図5を参照すると、四角がそれぞれノードであり、ノードを結ぶ線がエッジである。厳密には、この図ではエッジが矢印になっているので、有向グラフに分類される。ここでは、ロボット装置101が次に取るべき行動として「ダンスをする」が選択されているが、この行動が選択されたロボット装置101の思考過程が強調表示されている。   FIG. 5 described above represents the Bayesian network as a graph by assigning each event of the Bayesian network to each node and associating the events having a dependency relationship with the edges. Referring to FIG. 5, each square is a node, and a line connecting the nodes is an edge. Strictly speaking, since the edge is an arrow in this figure, it is classified into a directed graph. Here, “dancing” is selected as the action to be taken next by the robot apparatus 101, but the thinking process of the robot apparatus 101 in which this action is selected is highlighted.

ロボット装置101の思考過程をわかりやすく表示するためには、各ノードの確率値に応じて、色を協調表示させたり、値の高いノードのみを残すようにフィルタする等の処理を行うことができる。以下に、ロボット装置101の思考過程を画面表示で提示する場合の強調提示方法を例示する。拡大表示で強調提示する方法、枠の表示で強調提示する方法、枠を目立たせて強調提示する方法、リンクの線を目立たせて強調提示する方法、注釈をつけて強調提示する方法、がある。   In order to display the thinking process of the robot apparatus 101 in an easy-to-understand manner, it is possible to perform processing such as displaying colors in a coordinated manner or filtering so as to leave only high-value nodes according to the probability value of each node. . Below, the emphasis presentation method in the case of presenting the thinking process of the robot apparatus 101 by a screen display is illustrated. There is a method of emphasizing and displaying in an enlarged display, a method of emphasizing and displaying in a frame display, a method of emphasizing and emphasizing a frame, a method of emphasizing and highlighting a link line, and a method of emphasizing and displaying an annotation. .

(a)色の変化で強調提示する:たとえば、通常白で表示されるところを強調部分だけ赤で表示する、通常薄い青で表示されるところを強調部分だけ濃い青で表示する、通常白で表示されるところを強調部分だけ赤→青→緑→赤というように頻繁に色を変えて表示する、等の処理を行う。 (A) Emphasize presentation by color change: For example, the portion that is usually displayed in white is displayed in red only in the emphasized portion, the portion that is usually displayed in light blue is displayed in dark blue only in the emphasized portion, usually in white Only the highlighted part is displayed in a red, blue, green, red, and so on.

(b)点滅で強調提示する:たとえば、通常点灯で表示されるところを強調部分だけ点滅で表示する、通常消灯で表示されるところを強調部分だけ点滅で表示する、通常ゆっくり点滅で表示されるところを強調部分だけ早い点滅で表示する、等の処理を行う。 (B) Emphasize by blinking: For example, the part that is normally lit is displayed with only the highlighted part blinking, the part that is normally displayed with the unlit part blinks only, and the part that is normally highlighted is blinking. However, processing such as displaying only the highlighted portion with a fast blink is performed.

(c)明度の変化で強調提示する:たとえば、通常明度が10の明るさで表示されるところを強調部分だけ明度20の明るさで表示する、強調部分だけ明度を10から20の間で明るくしたり暗くしたりを繰り返す、等の処理を行う。 (C) Emphasize presentation with a change in brightness: For example, a place where normal brightness is displayed at a brightness of 10 is displayed only at an emphasized portion at a brightness of 20 brightness, and only the emphasized portion is brightened between 10 and 20 Repeat the process of darkening or darkening.

(d)表示非表示の変化で強調提示する:たとえば、強調提示したい部分のみを表示しそれ以外の部分を非表示にする、強調提示したい部分のみを表示しそれ以外の部分を非表示にしたあと、表示されているものを画面のサイズに合わせて表示する、等のように、強調提示する部分を残してフィルタをかける処理を行う。 (D) Emphasize presentation by change of display non-display: For example, only the part to be emphasized is displayed and the other part is hidden, only the part to be emphasized is displayed and the other part is not displayed After that, a process of applying a filter is performed while leaving a portion to be highlighted and displayed, such as displaying the displayed item in accordance with the size of the screen.

(e)拡大表示で強調提示する:たとえば、強調提示したい部分を拡大表示しそれ以外の部分を縮小表示する、強調提示したい部分を中心に拡大表示しそれ以外の部分が画面の外に消えて表示される、強調提示したい部分を詳細表示しそれ以外の部分を概要表示する、等のように、強調提示する部分をズームする処理を行う。
(f)枠の表示で強調提示する:たとえば、強調提示したい部分を囲う枠を表示する等により、強調提示する部分をマーキングする処理を行う。
(E) Enhancing and presenting in an enlarged display: For example, an enlarged part to be emphasized is displayed and the other parts are reduced and displayed, an enlarged display is performed around the part to be emphasized and the other parts disappear from the screen. The process of zooming the portion to be highlighted is performed, such as displaying in detail the portion to be highlighted and displaying the other portion in outline.
(F) Emphasizing by displaying the frame: For example, a process of marking the portion to be emphasized is performed by displaying a frame surrounding the portion to be emphasized.

(g)枠を目立たせて強調提示する:たとえば、強調提示したい部分の枠をより目立たせるように色を変えたり太さを変えて表示する、とくにグラフ表示であれば、ノードの周りの枠を目立たせるように色を変えたり太さを変えて表示する、等のように、強調提示する部分を目立たせる処理を行う。 (G) Highlight the frame and highlight it: for example, change the color or thickness so that the frame of the part you want to emphasize and highlight is displayed, especially if it is a graph display, the frame around the node The process of making the highlighted part stand out, such as changing the color or changing the thickness so as to make it stand out, is performed.

(h)リンクの線を目立たせて強調提示する:たとえば、強調提示したい線をより目立たせるように色を変えたり太さを変えて表示する、データの流れにそって色を流れているように変化させて表示する、等のように、強調提示する部分を目立たせる処理を行う。 (H) Emphasize and highlight the link line: For example, the color is changed according to the data flow so that the line to be emphasized is displayed more prominently or with different thickness. The process of making the highlighted part stand out, such as changing the display to, etc., is performed.

(i)注釈をつけて強調提示する:たとえば、強調提示したい部分をさすようにテキストを表示する、あるいは、強調提示したい部分に星型のような目立つ形を表示する、等のように、強調提示する部分をマーキングする処理を行う。 (I) Annotate with emphasis: For example, display text to point to the part you want to emphasize, or display a star-like shape on the part you want to emphasize Process to mark the part to be presented.

以上で説明した各種の強調処理は、以下の他の画面表示の例にも適用可能である。また、強調提示させる部分は、たとえば、該当箇所、該当箇所に関連する箇所、該当箇所までの経路とすることができる。グラフ構造の場合、該当箇所はノード、該当箇所に関連する箇所は、該当ノードに結ばれている関連ノードやその関連ノードに結ばれている関連ノード等、該当箇所までの経路は、該当ノードに結ばれている関連ノードやその関連ノードに結ばれている関連ノード、およびノード間を結んでいる関連エッジである。このとき、たとえば、エッジの向きを考慮して、流れるように色を変化させることで、思考経路の向きを強調提示することもできる。   The various emphasis processes described above can be applied to the following other screen display examples. Moreover, the part to be highlighted can be, for example, a corresponding part, a part related to the corresponding part, and a route to the corresponding part. In the case of a graph structure, the corresponding part is a node, the part related to the relevant part is a related node connected to the relevant node or a related node connected to the relevant node, etc. The related nodes connected to each other, the related nodes connected to the related nodes, and the related edges connecting the nodes. At this time, for example, the direction of the thought path can be emphasized by changing the color so as to flow in consideration of the direction of the edge.

UMLのクラス図とは、主にオブジェクト指向クラス間の構造を表現するための図で、クラス、インタフェースとそれらの関係から構成される。カテゴライズ階層関係を持つロボットモデル等は、この図を用いて表現できる。   The UML class diagram is a diagram for mainly expressing the structure between object-oriented classes, and is composed of classes, interfaces, and their relationships. A robot model or the like having a categorized hierarchical relationship can be expressed using this diagram.

図7は、ロボット装置101の思考過程をクラス図で示す図である。ここでは、ノードとして、「入力」、「音声認識」、「画像認識」、「命令」、「あいさつ」、「人物検出」、「人物識別」、「伝言」、「ゲーム」、「ニュース」、「出力」、「対話」、「自律」、「機能」、「あいさつ」、「人を探す」、「散歩する」「伝言」、「ゲーム」、「ニュース」、が用意されており、階層関係がエッジで示されている。この図では、たとえば、「入力」には「音声認識」と「画像認識」が、「音声認識」には「命令」と「あいさつ」が、「命令」には「伝言」と「ゲーム」と「ニュース」がそれぞれ含まれる。このようなクラス図をロボット装置101の思考過程の提示に用いることによって、提示に必要な情報の抽象化を行うことができる。   FIG. 7 is a diagram illustrating the thinking process of the robot apparatus 101 in a class diagram. Here, as nodes, “input”, “voice recognition”, “image recognition”, “command”, “greeting”, “person detection”, “person identification”, “message”, “game”, “news”, “Output”, “Dialogue”, “Autonomous”, “Function”, “Greeting”, “Find people”, “Walk”, “Message”, “Game”, “News” are prepared, and hierarchical relationship Is shown with an edge. In this figure, for example, “input” includes “voice recognition” and “image recognition”, “voice recognition” includes “command” and “greeting”, and “command” includes “message” and “game”. “News” is included. By using such a class diagram for presenting the thinking process of the robot apparatus 101, it is possible to abstract information necessary for presentation.

たとえば、ユーザが「伝言して」と発話し、ロボット装置101がその音声を認識した場合、思考過程提示処理部106は、「伝言」を強調表示することができる。このとき、関連する親の階層である「命令」、「音声認識」、「入力」も同時に強調表示することにより、ロボット装置101の思考過程を把握することができる。   For example, when the user speaks “message” and the robot apparatus 101 recognizes the voice, the thought process presentation processing unit 106 can highlight “message”. At this time, it is possible to grasp the thinking process of the robot apparatus 101 by simultaneously highlighting “instructions”, “speech recognition”, and “input” which are related parent levels.

UMLのステートチャート図とは、いわゆる状態遷移図であり、状態の遷移を表現するために使用される。状態遷移型のロボットモデル等は、この図を用いて表現できる。   The UML state chart diagram is a so-called state transition diagram, and is used to express a state transition. A state transition type robot model or the like can be expressed using this diagram.

図8は、ロボット装置101の思考過程をステートチャート図で示す図である。ここでは、ノードとして、「御用聞きモード」、「お散歩モード」、「伝言モード」、「遊びモード」、「人探しモード」のような状態が用意されており、状態の遷移関係がエッジで示されている。この図では、ロボット装置101が、たとえば、「御用聞きモード」状態で「伝言して」という音声を認識すると「伝言モード」状態に遷移し、「人探しモード」状態で人物検出すると「御用聞きモード」に遷移することが示されている。このように、全体のトポロジーを地図のように表示した上で、ロボット装置101の現在状態を強調表示することによって、ユーザがロボット装置101の現在の状態を把握することができ、ロボット装置101をある状態にしたい場合にどのようにロボット装置101に接していけばよいかの指針とすることができる。   FIG. 8 is a diagram showing a thinking process of the robot apparatus 101 in a state chart diagram. In this case, states such as “listening mode”, “walk mode”, “message mode”, “play mode”, and “person search mode” are prepared as nodes, and the state transition relationship is an edge. It is shown. In this figure, for example, when the robot apparatus 101 recognizes the voice “message” in the “listening mode” state, the robot apparatus 101 transitions to the “message mode” state, and when a person is detected in the “person search mode” state, Transition to “mode” is shown. Thus, by displaying the entire topology like a map and highlighting the current state of the robot apparatus 101, the user can grasp the current state of the robot apparatus 101. It can be used as a guide for how to contact the robot apparatus 101 when it is desired to be in a certain state.

UMLのシーケンス図とは、オブジェクト間を流れるメッセージのシーケンスを表現する図であり、オブジェクト間のインタラクションを時間的な観点で表現するために使用される。   The UML sequence diagram is a diagram representing a sequence of messages flowing between objects, and is used to represent an interaction between objects from a temporal viewpoint.

UMLのコラボレーション図とは、オブジェクト間のインタラクションを空間的な観点で表現するために使用される。ロボット以外の構成要素を持つ分散環境で用いられるロボットや、ロボット内部の並列動作処理を行うロボットのロボットモデルは、この図を用いて表現できる。   The UML collaboration diagram is used to express the interaction between objects from a spatial viewpoint. A robot model used in a distributed environment having components other than the robot and a robot that performs parallel operation processing inside the robot can be expressed using this diagram.

また、リンクのないノードのみの図でも、ロボットモデルを表現することができる。たとえば、論理型言語で記述されたロボットについて、論理式をノードとして割り当て、エッジを使わなくてもよい。このような場合、発火している論理式のみを表示したり強調表示したりすることによって、ロボットの思考過程を提示することができる。   Moreover, a robot model can be expressed even in a diagram with only nodes without links. For example, for a robot described in a logical language, a logical expression may be assigned as a node and an edge may not be used. In such a case, the thought process of the robot can be presented by displaying or highlighting only the igniting logical expression.

(例2)画面表示:テキスト
テキストとは、文字である。テキストで思考過程を提示する場合は、音声認識結果やセンサ結果等のイベントの詳細を大量に表示したり、要点のみを表示したりする方法がある。
(Example 2) Screen display: Text Text is a character. When presenting a thought process in text, there are methods of displaying a large amount of details of events such as speech recognition results and sensor results, or displaying only the main points.

(例3)画面表示:表
表とは行と列からなるセルの集合であり、たとえば、ロボットの思考ルールを表にまとめることで、テキストのみの場合よりも一覧性をあげることができる。現在の状態に対応するセルを強調表示することによって、文脈を提示する際の補助となる。
(Example 3) Screen display: table A table is a set of cells composed of rows and columns. For example, by summarizing the robot's thinking rules in a table, the list can be improved as compared with the case of text alone. Highlighting the cell corresponding to the current state helps in presenting the context.

(例4)画面表示:時系列チャート
時系列チャートとは、時間の流れに沿って、動作の有無や動作の種類をマッピングしたものである。図9は、時系列チャートを示す図である。ここでは、動作の種類として、「頭の向き」、「右足」、「左足」、「口LED」、「頬LED」、「音声」が用意されており、横軸に時間軸が配置されており、太線か細線かで、動作の有無を表現している。縦線は現在の時間を意味しており、時間の経過にしたがって右にずれていく。時系列チャートで思考過程を提示する場合は、さらに、稼動中の動作を強調表示したり、過去や将来の動作の有無や特性を太さや色で表示することができる。
(Example 4) Screen display: time-series chart A time-series chart is obtained by mapping the presence or absence of an operation and the type of operation along the flow of time. FIG. 9 is a diagram showing a time series chart. Here, “head orientation”, “right foot”, “left foot”, “mouth LED”, “cheek LED”, and “voice” are prepared as types of motion, and a time axis is arranged on the horizontal axis. The presence or absence of motion is expressed by a thick line or a thin line. The vertical line means the current time, and shifts to the right as time passes. When presenting a thought process in a time-series chart, it is possible to highlight an operation that is in operation, and to display the presence and characteristics of past and future operations in thickness and color.

(例5)画面表示:カメラ画像
カメラ画像とは、CCDカメラ21AやCCDカメラ21Bで撮像した画像である。図10は、ロボット装置101の思考過程をカメラ画像で示す図である。ここでは、画面の左側にカメラ画像が、右側にテキストが表示されている。テキストには、ユーザの発話の音声認識結果が示されている。カメラ画像には、CCDカメラ21AやCCDカメラ21Bが取得した画像とともに、その画像の認識結果や、認識した結果に対する内部状態を示す情報がテキストで表示されている。画像の認識結果として「人物名:あっちゃん」、「好感度:高い」であることが示されている。また、音声の認識結果として、「こんにちは」と「ダンスして」であることが示されている。
(Example 5) Screen display: camera image A camera image is an image captured by the CCD camera 21A or the CCD camera 21B. FIG. 10 is a diagram illustrating the thinking process of the robot apparatus 101 as a camera image. Here, the camera image is displayed on the left side of the screen, and the text is displayed on the right side. The text indicates the speech recognition result of the user's utterance. In the camera image, along with the image acquired by the CCD camera 21A and the CCD camera 21B, the recognition result of the image and information indicating the internal state with respect to the recognition result are displayed in text. As a result of image recognition, “person name: Achan” and “favorability: high” are shown. In addition, as a recognition result of the speech, it has been shown that it is a "Hello", "dancing".

カメラ画像で思考過程を提示する場合は、このように、カメラ画像とともに、ロボット装置101の認識結果やその認識結果に対する内部状態を示す情報とを提示することが好ましい。   When presenting a thought process with a camera image, it is preferable to present a recognition result of the robot apparatus 101 and information indicating an internal state with respect to the recognition result together with the camera image.

(例6)画面表示:ロボット図
ロボット図とは、ロボットの外見図や設計図、部分構成図等であり、静止画であっても動画であってもよい。図11は、ロボット装置101の思考過程をロボット図で示す図である。ロボット図を中心に配置し、その脇に各部分の説明を表示し、その状態を表示している。たとえばこのロボットは、「頭スイッチ(頭叩かれ検出スイッチ)」、「音声認識マイク」、「カメラ」、「口・頬・耳・目LED」、「頭スイッチ(頭撫で検出センサ)」、「音源検出マイク」、「スピーカ」、「超音波センサ」、「段差センサ」、「車輪」、「リモコン送信」、のような部品から構成され、それぞれの部分を指し示している。また、その状態を「On」、「Off」、「Activate」のように示している。
(Example 6) Screen display: robot diagram A robot diagram is an appearance diagram, a design diagram, a partial configuration diagram, or the like of a robot, and may be a still image or a moving image. FIG. 11 is a diagram illustrating the thinking process of the robot apparatus 101 as a robot diagram. The robot diagram is placed at the center, the description of each part is displayed beside it, and the state is displayed. For example, this robot is composed of “head switch (head tapping detection switch)”, “voice recognition microphone”, “camera”, “mouth / cheek / ear / eye LED”, “head switch (detection sensor with headlid)”, “ Components such as “sound source detection microphone”, “speaker”, “ultrasonic sensor”, “step sensor”, “wheel”, “remote control transmission”, and the like are indicated. In addition, the state is indicated as “On”, “Off”, “Activate”.

ロボット図で思考過程を提示する場合は、さらに、注目すべき場所を強調表示することによって、ユーザに理解を促す。たとえば、ここでは爆発形の印をつけることによって、注目すべき点を強調表示している。強調表示の方法は、このようにテキスト側につける方法と、ロボット図の中につける方法があり、ロボット図の中につける場合は、対応する部分の色を変えたり、対応する部分を四角等の目印で囲んだりすることによって、強調表示を行える。たとえば、右超音波センサで障害物を検出したことが原因でロボット装置101が何らか行動を行っている場合は、右超音波センサを強調提示することができる。また、周囲の音がうるさくて声が聞き取れない等の場合に、耳のランプを点滅させるようにすることができる。   When presenting a thought process with a robot diagram, the user is further understood by highlighting a place to be noted. For example, here, a point of interest is highlighted by marking an explosion. There are two methods of highlighting: attaching to the text side and attaching to the robot diagram. When attaching to the robot diagram, change the color of the corresponding part or change the corresponding part to a square, etc. Highlighting can be performed by surrounding with a mark. For example, when the robot apparatus 101 is performing some action because an obstacle is detected by the right ultrasonic sensor, the right ultrasonic sensor can be highlighted. In addition, the ear lamp can be blinked when the surrounding sounds are loud and the voice cannot be heard.

(例7)画面表示:組合せ
図12は、上述した画像表示方法を組み合わせて示す図である。ここでは、カメラ画像、ロボット図、グラフ構造、時系列チャートが一画面に表示されている。このように複数の表示方法を組み合わせることにより、多くの情報をわかりやすくユーザに提供することができる。
(Example 7) Screen display: combination FIG. 12 is a diagram showing a combination of the above-described image display methods. Here, a camera image, a robot diagram, a graph structure, and a time series chart are displayed on one screen. By combining a plurality of display methods in this way, a large amount of information can be provided to the user in an easy-to-understand manner.

(例8)画面表示:投影
図13は、ロボット装置101の投影部15からスクリーン200に向けて、ロボット装置101の思考過程を示す画像201を投影させる例を模式的に示す図である。ここで、スクリーン200としては、無地の壁等を用いることができる。思考過程提示処理部106は、画像を投影できるスクリーンを検出すると、投影部15にそのスクリーンに向けて、ロボット装置101の思考過程を示す画像を表示させることができる。
(Example 8) Screen Display: Projection FIG. 13 is a diagram schematically illustrating an example in which an image 201 indicating the thinking process of the robot apparatus 101 is projected from the projection unit 15 of the robot apparatus 101 toward the screen 200. Here, a plain wall or the like can be used as the screen 200. When the thinking process presentation processing unit 106 detects a screen on which an image can be projected, the thinking process presentation processing unit 106 can cause the projecting unit 15 to display an image indicating the thinking process of the robot apparatus 101 toward the screen.

(例9)音声出力
たとえば、ロボット装置101がユーザに「遊んで」といった場合に、ユーザが「忙しいから後でね」等の応答をすると、内部状態記憶部107のロボット装置101の感情情報が書き換えられる。思考過程提示処理部106は、たとえば音声出力手段112に、ロボット装置101の通常の声とは異なる声で「かまってもらえないので機嫌が悪くなりました」という音声を出力させる。これにより、ユーザは、ロボット装置101の機嫌が悪くなったことを把握することができる。また、思考過程提示処理部106は、このとき、ロボット装置101がユーザにして欲しかったことをよりよく示すために、「頭ボタンを押して欲しいと思っていたようです」等の音声を出力させることができる。また、頭のランプを点滅させることにより、頭ボタンを押してかまってもらいたかったということを示すこともできる。これにより、ユーザが次回から、どのようにすればロボット装置101が喜ぶかを把握することができ、ユーザとロボット装置101とのコミュニケーションを促すことができる。
(Example 9) Voice output For example, when the robot apparatus 101 “plays” to the user, if the user responds “because it is busy”, the emotion information of the robot apparatus 101 in the internal state storage unit 107 is displayed. Rewritten. For example, the thought process presentation processing unit 106 causes the voice output unit 112 to output a voice that is different from the normal voice of the robot apparatus 101 and that the voice is “I feel bad because I can't cover it”. Thereby, the user can grasp that the mood of the robot apparatus 101 has deteriorated. At this time, the thought process presentation processing unit 106 outputs a voice such as “It seems that he wanted to press the head button” in order to better indicate that the robot apparatus 101 wanted the user. Can do. In addition, by flashing the head lamp, it is possible to indicate that the head button was pushed and wanted to be bitten. Thereby, it is possible to grasp how the robot apparatus 101 is pleased from the next time, and communication between the user and the robot apparatus 101 can be promoted.

(例10)音声出力
たとえば、ロボット装置101が踊っている場合に、ユーザが「上手だね」と褒めた場合、ロボット装置101はユーザに褒められたことを認識すると、内部状態記憶部107の性格タイプ情報の「ダンス好き」の「ダンスが好き」に対応づけられた数値が高まる。このとき、思考過程提示処理部106は、たとえば音声出力手段112に、ロボット装置101の通常の声とは異なる声で「ダンスがいっそう好きになりました」という音声を出力させる。これにより、ユーザは、ダンスを褒めることにより、ロボット装置101がダンス好きになるということを把握することができる。
(Example 10) Audio output For example, when the robot device 101 is dancing, if the user gives up “good”, the robot device 101 recognizes that the user has given up, and the internal state storage unit 107 The number associated with “I like dance” in the personality type information increases. At this time, the thought process presentation processing unit 106 causes, for example, the voice output unit 112 to output a voice “I like dance more” with a voice different from the normal voice of the robot apparatus 101. Thereby, the user can grasp | ascertain that the robot apparatus 101 will like dancing by giving up dancing.

(例11)音声出力
また、たとえばユーザから「伝言して」と依頼された場合、ロボット装置101が伝言が好きな場合は、たとえば「ピポピポ音」等、うれしいことを示す音声を出力することができる。このとき、思考過程提示処理部106は、ロボット装置101の通常の声とは異なる声で「喜んでいます」等の音声を出力させる。これにより、ユーザは、ロボット装置101が喜んでいること、およびロボット装置101が喜んだときにピポピポ音が出力させることを把握することができる。これにより、次回からは、「喜んでいます」という音声の出力がなくても、ロボット装置101が伝言を頼まれて喜んでいることを把握することができる。思考過程提示処理部106は、ユーザを認識して、過去にそのユーザに説明を行ったか否かを判断して、過去に説明をしていないユーザの場合にのみ、「喜んでいます」という音声を出力するようにすることができる。
(Example 11) Voice output For example, when the user requests “message”, and the robot apparatus 101 likes a message, for example, a “pip-pip sound” or the like may be output. it can. At this time, the thought process presentation processing unit 106 outputs a voice such as “I am delighted” with a voice different from the normal voice of the robot apparatus 101. Thereby, the user can grasp that the robot apparatus 101 is pleased and that the beep sound is output when the robot apparatus 101 is pleased. Thus, from the next time, it is possible to grasp that the robot apparatus 101 is pleased to ask for a message even if there is no voice output of “I am happy”. The thought process presentation processing unit 106 recognizes a user, determines whether or not an explanation has been given to the user in the past, and is said to be “happy” only for a user who has not explained in the past. Audio can be output.

(例12)履歴
行動決定部109は、内部状態記憶部107に記憶されたユーザの過去の履歴を考慮して、ロボット装置101の次の行動を決定することができる。たとえば、外部状態管理部103が、ユーザを認識すると、内部状態取得部108は、内部状態記憶部107からそのユーザが過去にロボット装置101に対して話しかけた内容や、ロボット装置101と行った行動等の履歴を読み出す。行動決定部109は、内部状態取得部108が読み出した情報に基づき、ロボット装置101の行動を決定し、ロボット装置101に行動させる。思考過程提示処理部106は、これら一連の処理手順の過程をロボット装置101の思考過程として提示させる。
(Example 12) History The action determination unit 109 can determine the next action of the robot apparatus 101 in consideration of the user's past history stored in the internal state storage unit 107. For example, when the external state management unit 103 recognizes the user, the internal state acquisition unit 108 causes the internal state storage unit 107 to talk to the robot device 101 in the past and the actions performed with the robot device 101. Etc. are read. The behavior determination unit 109 determines the behavior of the robot device 101 based on the information read by the internal state acquisition unit 108 and causes the robot device 101 to act. The thinking process presentation processing unit 106 presents a series of processing procedures as a thinking process of the robot apparatus 101.

図14は、ロボット装置101がダンスをしている場合に、思考過程提示処理部106により提示されるロボット装置101の思考過程の一例を示す画面である。
ここでは、外部状態の認識結果としてユーザが「あっちゃん」で、発話がないことが示されている。「あっちゃん」に関する内部状態の履歴として、「ダンスを踊ったら褒めてくれた」という情報が示されている。これらの外部状態と内部状態とに基づき、思考部105は、「また褒めて欲しい」という感想を持ち、「ダンスを踊ったらまた褒めてくれる」という予想をした結果、ロボット装置101に「ダンスを踊る」という行動を実行させる。これらの情報がユーザに提示されるので、ユーザはロボットの感想や予想を知ることができ、たとえばまたロボット装置101を褒めることができる。これにより、ロボット装置101の「あっちゃん」に対する好感度があがり、ユーザとロボットとの関係を良好にすることができる。
FIG. 14 is a screen showing an example of a thought process of the robot apparatus 101 presented by the thought process presentation processing unit 106 when the robot apparatus 101 is dancing.
Here, the recognition result of the external state indicates that the user is “Achan” and there is no utterance. As the history of the internal state of “Achan”, the information “I gave up after dancing” is shown. Based on these external state and internal state, the thinking unit 105 has an impression that “I want you to give up again”. The action of “dancing” is executed. Since these pieces of information are presented to the user, the user can know the impression and expectation of the robot, for example, can give up the robot apparatus 101 again. As a result, the favorable sensitivity of the robot apparatus 101 to “Achan” is increased, and the relationship between the user and the robot can be improved.

図15は、ロボット装置101がユーザに「1チャンネルつけてもいい?」と問いかけた場合に、思考過程提示処理部106により提示されるロボット装置101の思考過程の一例を示す画面である。
ここでは、外部状態の認識結果としてユーザが「あっちゃん」で、発話がないこと、および現在の時刻が日曜日の20時55分であることが示されている。また、「あっちゃん」に関する内部状態の履歴として、「よく日曜日の21時から1チャンネルのテレビを見ている」という情報が示されている。これらの外部状態と内部状態とに基づき、思考部105は、「きっと今日もテレビを見る」という予想をした結果、ロボット装置101に「1チャンネルつけてもいい?」と発話させる。これらの情報がユーザに提示されるので、ユーザはロボットがどうしてそのような発話をしたのかの原因を知ることができ、ユーザとロボット装置101との関係を良好にすることができる。
FIG. 15 is a screen showing an example of the thought process of the robot apparatus 101 presented by the thought process presentation processing unit 106 when the robot apparatus 101 asks the user “Can I add one channel?”.
Here, the recognition result of the external state indicates that the user is “Achan”, there is no utterance, and the current time is 20:55 on Sunday. In addition, as the history of the internal state regarding “Achan”, information that “I often watch TV of 1 channel from 21:00 on Sunday” is shown. Based on these external state and internal state, the thinking unit 105 causes the robot apparatus 101 to speak "Can I have 1 channel?" Since these pieces of information are presented to the user, the user can know the reason why the robot made such an utterance, and the relationship between the user and the robot apparatus 101 can be improved.

図16は、ロボット装置101がユーザに「神経衰弱ゲームやろうよ」と問いかけた場合に、思考過程提示処理部106により提示されるロボット装置101の思考過程の一例を示す画面である。   FIG. 16 is a screen showing an example of the thinking process of the robot apparatus 101 presented by the thinking process presentation processing unit 106 when the robot apparatus 101 asks the user “Let's play a nervous breakdown game”.

ここでは、外部状態の認識結果としてユーザが「あっちゃん」で、発話がないことが示されている。また、「あっちゃん」に関する内部状態の履歴として、「昨日神経衰弱ゲームに負けた」という情報が示されている。これらの外部状態と内部状態とに基づき、思考部105は、「悔しい、もう一度やりたい」という感想を持った結果、ロボット装置101に「神経衰弱ゲームやろうよ」と発話させる。これにより、ユーザはロボット装置101の感情を知ることができ、ロボット装置101に親しみを持つことができる。   Here, the recognition result of the external state indicates that the user is “Achan” and there is no utterance. In addition, as the history of the internal state regarding “Achan”, information that “I lost the nerve weakness game yesterday” is shown. Based on the external state and the internal state, the thinking unit 105 causes the robot apparatus 101 to speak “Let's play a nervous breakdown game” as a result of having an impression that it is “regrettable and wants to do it again”. Thus, the user can know the emotion of the robot apparatus 101 and can become familiar with the robot apparatus 101.

(例13)ロボット装置101が応答しない場合
ロボット装置101は、ユーザを認識したり、ユーザからの指示を認識することにより、それに応じた行動を行うよう設定されている。しかし、ユーザが認識できなかったり、ユーザからの指示を認識できない場合、ユーザが何か指示をしても、ロボット装置101が応答しないこともある。このような場合、ユーザはロボット装置101がどうして応答しないのか把握することができず、面倒に感じてしまうことがある。思考過程提示処理部106は、外部状態管理部103の認識結果や、内部状態取得部108が読み出した内部状態に関する情報等をロボット装置101の思考過程として提示させる。
(Example 13) When the robot apparatus 101 does not respond The robot apparatus 101 is set to recognize the user or perform an action according to the instruction from the user. However, if the user cannot recognize or the instruction from the user cannot be recognized, the robot apparatus 101 may not respond even if the user gives an instruction. In such a case, the user may not understand why the robot apparatus 101 does not respond, and may feel troublesome. The thought process presentation processing unit 106 presents the recognition result of the external state management unit 103, information about the internal state read by the internal state acquisition unit 108, and the like as the thought process of the robot apparatus 101.

たとえば、ユーザが「時間を教えて」とロボット装置101に問いかけてもロボット装置101が応答しない場合、思考過程提示処理部106は、外部状態管理部103が認識した音声等を画面表示させる。   For example, when the robot apparatus 101 does not respond even if the user asks the robot apparatus 101 “Tell me the time,” the thought process presentation processing unit 106 displays the voice and the like recognized by the external state management unit 103 on the screen.

たとえば、「認識結果:「じかがいて」、音声レベルOK、対応する言葉がない」という情報が表示された場合、ユーザは、ロボット装置101が「じかんをおしえて」という言葉を正しく認識していないためにロボット装置101が応答しないということを把握することができる。また、音声レベルはOKとなっているので、声の大きさはいいが、しゃべり方が悪いと言うことも把握でき、次にはっきりとした口調で「時間を教えて」と言い直すことにより、ロボット装置101が応答するだろうということを予想することができる。   For example, when the information “recognition result:“ it is right ”, the voice level is OK, and there is no corresponding word” is displayed, the user correctly recognizes the word “please tell me”. Therefore, it can be understood that the robot apparatus 101 does not respond. In addition, since the voice level is OK, it is possible to grasp that the loudness of the voice is good, but the way of speaking is bad, and then the robot says by saying “tell time” with a clear tone. It can be expected that the device 101 will respond.

また、「認識結果:「じかがいて」、音声レベル低、対応する言葉がない」という情報が表示された場合、ユーザは、ロボット装置101が「じかんをおしえて」という言葉を正しく認識していないこと、声が小さかったこと等を把握することができ、次に大きい声ではっきりとした口調で「時間を教えて」と言い直すことにより、ロボット装置101が応答するだろうということを予想することができる。   In addition, when the information “Recognition result:“ Jigakute ”, voice level is low, and there is no corresponding word” is displayed, the user correctly recognizes the word “Give me the word”. The robot device 101 will respond by re-phrasing “tell time” in a clear tone with the next loudest voice. can do.

また、「認識結果:「じかんをおしえて」、音声レベルOK、対応する言葉がない」という情報が表示された場合、ユーザは、ロボット装置101に時間を教える機能がないということを把握することができる。   In addition, when the information “Recognition result:“ Give me a message ”, voice level OK, no corresponding word” is displayed, the user understands that the robot apparatus 101 does not have a function of teaching time. Can do.

このようにすれば、ロボット装置101が応答しない場合に、ロボット装置101がユーザの音声を正しく認識していないために応答しないのか、ロボット装置101に機能がないためにロボット装置101が応答しないのか等を把握することができ、ロボット装置101が応答しない場合でも、次に有効な対処を行うことができる。   In this way, when the robot apparatus 101 does not respond, whether the robot apparatus 101 does not respond because the robot apparatus 101 does not recognize the user's voice correctly, or whether the robot apparatus 101 does not respond because the robot apparatus 101 has no function. Etc., and even when the robot apparatus 101 does not respond, the next effective countermeasure can be taken.

また、たとえば、ユーザが「私の名前を呼んで」と言ってもロボットが応答してくれない場合に、思考過程提示処理部106は、外部状態管理部103が認識した音声、外部状態管理部103が認識したユーザに関する情報、内部状態記憶部107の情報等を画面表示させる。   In addition, for example, when the user says “call my name” and the robot does not respond, the thought process presentation processing unit 106 uses the voice recognized by the external state management unit 103, the external state management unit Information on the user recognized by the user 103, information in the internal state storage unit 107, and the like are displayed on the screen.

たとえば、「音声認識「わたしのなまえをよんで」、画像認識「該当する顔画像データなし」」という情報が表示された場合、ユーザは、ロボット装置101が「わたしのなまえをよんで」という言葉を正しく認識したが、自分の顔画像データが照合されていないためにロボット装置101が応答しないということを把握することができる。この場合、ユーザは、ロボット装置101に、「ぼくの名前はタロウだよ、顔と名前を登録して」等の指示を問いかけたり、「ぼくは登録されているはずだよ、もう一度よく見て」等の問いかけを行うことができる。   For example, when the information “speech recognition“ call my name ”, image recognition“ no corresponding face image data ”” is displayed, the user says that the robot apparatus 101 reads “call my name”. Is recognized correctly, but it can be understood that the robot apparatus 101 does not respond because its face image data is not collated. In this case, the user asks the robot apparatus 101 for an instruction such as “My name is Taro, register my face and name”, or “I should have been registered. Can be asked.

また、たとえば、「音声認識「わたしのなまえをよんで」、画像認識「該当する顔画像データあり」、名前の登録なし」という情報が表示された場合、ユーザは、ロボット装置101が「わたしのなまえをよんで」という言葉を正しく認識しており、自分の顔画像データも照合されたが、名前が登録されていないためにロボット装置101が応答しないということを把握することができる。この場合、ユーザは、ロボットに、「ぼくの名前はタロウだよ、登録して」等の指示を行うことができる。   Further, for example, when information such as “voice recognition“ call my name ”, image recognition“ with corresponding face image data ”, no name registered” is displayed, the user can confirm that the robot apparatus 101 is “my name”. It is possible to grasp that the robot device 101 does not respond because the name “has been called” is correctly recognized and its own face image data is also collated, but the name is not registered. In this case, the user can instruct the robot such as “My name is Taro, register”.

また、たとえば、「音声認識「わのなまえおよ」、音声レベルOK、対応する言葉がない」という情報が表示された場合、ユーザは、ロボット装置101がユーザの指示を正しく認識できなかったために応答しないということを把握することができる。この場合、ユーザは、はっきりした口調で「なまえをよんで」と言い直すことにより、ロボット装置101が応答するだろうということを予測することができる。   Further, for example, when the information “speech recognition“ wananoname and voice level OK, no corresponding word ”is displayed, the user has not correctly recognized the user's instruction by the robot apparatus 101. You can see that you are not responding. In this case, the user can predict that the robot apparatus 101 will respond by rephrasing “call the name” with a clear tone.

以上の実施の形態で説明したロボット装置101の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。実施の形態で説明した各図は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。   Each component of the robot apparatus 101 described in the above embodiments includes a CPU, a memory of any computer, a program that realizes the components shown in the figure loaded in the memory, and a storage unit such as a hard disk that stores the program. It is realized by an arbitrary combination of hardware and software, centering on a network connection interface. It will be understood by those skilled in the art that there are various modifications to the implementation method and apparatus. Each of the drawings described in the embodiments shows a functional unit block, not a hardware unit configuration.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。   As mentioned above, although embodiment of this invention was described with reference to drawings, these are the illustrations of this invention, Various structures other than the above are also employable.

以上の実施の形態においては、図1に示したように、ロボット装置101の前面に投影部15が設けられた例を示したが、他の例において、たとえばロボット装置101の背面に投影部15を設け、ロボット装置101の背後にロボット装置101の思考過程が表示されるようにすることもできる。この場合、スクリーン検出用のCCDカメラ等をロボット装置101の背面に設けてもよい。これにより、ユーザは、ロボット装置101と向き合って対話等しながら、ロボット装置101の思考過程をスクリーンで見ることができ、ロボット装置101とのコミュニケーションを円滑に進めることができる。また、投影部15の配置場所は、適宜設定することができ、たとえば図1でCCDカメラ21AやCCDカメラ21Bが設けられている場所に投影部15を設けることもできる。   In the above embodiment, as shown in FIG. 1, an example in which the projection unit 15 is provided on the front surface of the robot apparatus 101 has been described. However, in another example, for example, the projection unit 15 is disposed on the back surface of the robot apparatus 101. The thinking process of the robot apparatus 101 can be displayed behind the robot apparatus 101. In this case, a CCD camera or the like for screen detection may be provided on the back surface of the robot apparatus 101. Accordingly, the user can see the thinking process of the robot apparatus 101 on the screen while facing the robot apparatus 101 and interacting with the robot apparatus 101, and can smoothly communicate with the robot apparatus 101. The location of the projection unit 15 can be set as appropriate. For example, the projection unit 15 can be provided at a location where the CCD camera 21A or the CCD camera 21B is provided in FIG.

本発明は、以下の態様も含む。
(1)行動を決定する過程を行動・発声・表示のような手段で提示する方法を管理する思考過程提示方法管理手段を備えたことを特徴とするロボット。
The present invention also includes the following aspects.
(1) A robot comprising a thought process presentation method management means for managing a method for presenting a process for determining an action by means such as action, utterance, and display.

(2)外部状態を入力する外部状態入力手段と、
前記外部状態入力手段で得られた情報を管理する外部状態管理手段と、
少なくとも前記外部状態に基づいて変化する内部状態を管理する内部状態管理手段と、
前記外部状態や内部状態の情報をもとに、行動を決定する思考手段と、
行動を決定する過程を行動・発声・表示のような手段で提示する方法を管理する思考過程提示方法管理手段と、
行動・発声・表示のようなロボット外部への出力を行うロボット出力手段と、
を備えたことを特徴とするロボット。
(2) an external state input means for inputting an external state;
External state management means for managing information obtained by the external state input means;
Internal state management means for managing an internal state that changes based on at least the external state;
A thinking means for determining an action based on the information on the external state and the internal state;
A thought process presentation method managing means for managing a method for presenting a process for determining an action by means such as action, utterance, and display;
Robot output means for outputting to the outside of the robot such as action, utterance, display,
A robot characterized by comprising

(3)前記思考過程提示方法管理手段は、
自分の声で発声する方法、第三者の声で発声する方法、効果音で発音する方法、の何れか一の方法、すなわち発音・発声、により思考過程を提示することを特徴とする上記(1)または(2)に記載のロボット。
(3) The thought process presentation method management means includes:
The method of presenting a thought process by any one of the method of uttering with one's own voice, the method of uttering with the voice of a third party, or the method of sounding with a sound effect, that is, pronunciation and utterance (above) The robot according to 1) or (2).

(4)前記思考過程提示方法管理手段は、
手や足や耳等を動かす方法、目や口等のランプを点灯させる方法、の何れか一の方法、すなわちロボット動作、により思考過程を提示することを特徴とする上記(1)または(2)に記載のロボット。
(4) The thought process presentation method management means includes:
(1) or (2), wherein the thinking process is presented by any one of a method of moving a hand, a foot, an ear, or the like, or a method of turning on a lamp such as an eye or a mouth, that is, a robot operation. The robot described in).

(5)前記思考過程提示方法管理手段は、
グラフ構造、テキスト、表、時系列チャート、カメラ画像、ロボット図、の何れか一の方法、すなわち画面表示、により思考過程を提示することを特徴とする上記(1)または(2)に記載のロボット。
(5) The thought process presentation method management means includes:
(1) or (2), wherein the thought process is presented by any one of a graph structure, text, table, time series chart, camera image, and robot diagram, that is, a screen display. robot.

(6)前記思考過程提示方法管理手段は、
前記発音・発声と前記ロボット動作とにより思考過程を提示することを特徴とする上記(1)または(2)に記載のロボット。
(6) The thought process presentation method management means includes:
The robot according to (1) or (2), wherein a thinking process is presented by the pronunciation / speech and the robot motion.

(7)前記思考過程提示方法管理手段は、
前記発音・発声と前記画面表示とにより思考過程を提示することを特徴とする上記(1)または(2)に記載のロボット。
(7) The thought process presentation method management means includes:
The robot according to (1) or (2), wherein a thinking process is presented by the pronunciation / speech and the screen display.

(8)前記思考過程提示方法管理手段は、
前記ロボット動作と前記画面表示とにより思考過程を提示することを特徴とする上記(1)または(2)に記載のロボット。
(8) The thought process presentation method management means includes:
The robot according to (1) or (2), wherein a thinking process is presented by the robot operation and the screen display.

(9)前記思考過程提示方法管理手段は、
質問されたときに思考過程を提示することを特徴とする上記(1)から(8)の何れか一に記載のロボット。
(9) The thought process presentation method management means includes:
The robot according to any one of (1) to (8) above, wherein a thinking process is presented when a question is asked.

(10)行動を決定する過程を行動・発声・表示のような手段で提示する方法を管理する手段である思考過程提示方法管理ステップ、を備えたことを特徴とするロボットの制御方法。 (10) A robot control method comprising: a thought process presentation method management step which is a means for managing a method for presenting a process for determining an action by means such as action, utterance, and display.

(11)ロボット装置が外部状態を入力する外部状態入力ステップと、
外部状態入力手段で得られた情報を管理する外部状態管理ステップと、
少なくとも外部状態に基づいて変化する内部状態を管理する内部状態管理ステップと、
外部状態や内部状態の情報をもとに、行動を決定する思考ステップと、
行動を決定する過程を行動・発声・表示のような手段で提示する方法を管理する思考過程提示方法管理ステップと、
行動・発声・表示のようなロボット外部への出力を行うロボット出力ステップと、
を備えたことを特徴とするロボットの制御方法。
(11) an external state input step in which the robot apparatus inputs an external state;
An external state management step for managing information obtained by the external state input means;
An internal state management step for managing an internal state that changes based on at least the external state;
Thinking steps that determine actions based on external and internal information,
A thought process presentation method management step for managing a method for presenting a process for determining an action by means such as action, utterance, and display;
A robot output step for outputting to the outside of the robot such as actions, utterances, and displays;
A method for controlling a robot, comprising:

(12)前記思考過程提示方法管理ステップは、
自分の声で発声する方法、第三者の声で発声する方法、効果音で発音する方法、の何れか一の方法、すなわち発音・発声、により思考過程を提示することを特徴とする上記(10)または(11)に記載のロボットの制御方法。
(12) The thought process presentation method management step includes:
The method of presenting a thought process by any one of the method of uttering with one's own voice, the method of uttering with the voice of a third party, or the method of sounding with a sound effect, that is, pronunciation and utterance (above) The robot control method according to 10) or (11).

(13)前記思考過程提示方法管理ステップは、
手や足や耳等を動かす方法、目や口等のランプを点灯させる方法、の何れか一の方法、すなわちロボット動作、により思考過程を提示することを特徴とする上記(10)または(11)に記載のロボットの制御方法。
(13) The thought process presentation method management step includes:
(10) or (11), wherein the thinking process is presented by any one of a method of moving a hand, a foot, an ear, or the like, or a method of turning on a lamp such as an eye or a mouth, that is, a robot operation. The robot control method described in (1).

(14)前記思考過程提示方法管理ステップは、グラフ構造、テキスト、表、時系列チャート、カメラ画像、ロボット図、の何れか一の方法、すなわち画面表示、により思考過程を提示することを特徴とする上記(10)または(11)に記載のロボットの制御方法。 (14) The thinking process presentation method management step is characterized by presenting a thinking process by any one method of graph structure, text, table, time series chart, camera image, and robot diagram, that is, screen display. The robot control method according to (10) or (11) above.

(15)前記思考過程提示方法管理ステップは、
前記発音・発声と前記ロボット動作とにより思考過程を提示することを特徴とする上記(10)または(11)に記載のロボットの制御方法。
(15) The thought process presentation method management step includes:
The robot control method according to (10) or (11), wherein a thought process is presented by the pronunciation / speech and the robot motion.

(16)前記思考過程提示方法管理ステップは、
前記発音・発声と前記画面表示とにより思考過程を提示することを特徴とする上記(10)または(11)に記載のロボットの制御方法。
(16) The thought process presentation method management step includes:
The robot control method according to (10) or (11), wherein a thought process is presented by the pronunciation / speech and the screen display.

(17)前記思考過程提示方法管理ステップは、
前記ロボット動作と前記画面表示とにより思考過程を提示することを特徴とする上記(10)または(11)に記載のロボットの制御方法。
(17) The thought process presentation method management step includes:
The robot control method according to (10) or (11), wherein a thought process is presented by the robot operation and the screen display.

(18)前記思考過程提示方法管理ステップは、
質問されたときに思考過程を提示することを特徴とする上記(10)から(17)の何れか一に記載のロボットの制御方法。
(18) The thought process presentation method management step includes:
The robot control method according to any one of (10) to (17), wherein a thought process is presented when a question is asked.

(19)ロボットの制御をコンピュータ・システム上で実行するように記述されたコンピュータ・ソフトウェアのプログラムであって、
行動を決定する過程を行動・発声・表示のような手段で提示する方法を管理する思考過程提示方法管理ステップ、を含むことを特徴とするロボットの制御用プログラム。
(19) A computer software program written to execute control of a robot on a computer system,
A program for controlling a robot, comprising: a thought process presentation method management step for managing a method for presenting a process for determining an action by means such as action, utterance, and display.

(20)思考過程を提示する方法を管理する手段である思考過程提示方法管理手段を備えたことを特徴とする思考装置。 (20) A thinking device comprising a thinking process presentation method managing means that is a means for managing a method for presenting a thinking process.

(21)状態を管理する手段である状態管理手段と、
前記状態をもとに、行動を決定する手段である思考手段と、
前記思考の過程を提示する方法を管理する手段である思考過程提示方法管理手段と、
を備えたことを特徴とする思考装置。
(21) state management means that is means for managing the state;
Based on the state, a thinking means that is a means for determining an action;
A thought process presentation method management means which is a means for managing the method of presenting the thought process;
A thinking device characterized by comprising:

(22)前記思考過程提示方法管理手段は、
自分の声で発声する方法、第三者の声で発声する方法、効果音で発音する方法、の何れか一の方法、すなわち発音・発声、により思考過程を提示することを特徴とする上記(20)または(21)に記載の思考装置。
(22) The thought process presentation method management means includes:
The method of presenting a thought process by any one of the method of uttering with one's own voice, the method of uttering with the voice of a third party, or the method of sounding with a sound effect, that is, pronunciation and utterance (above) The thinking device according to 20) or (21).

(23)前記思考過程提示方法管理手段は、
手や足や耳等を動かす方法、目や口等のランプを点灯させる方法、の何れか一の方法、すなわちロボット動作、により思考過程を提示することを特徴とする上記(20)または(21)に記載の思考装置。
(23) The thought process presentation method management means includes:
(20) or (21), wherein the thinking process is presented by any one of a method of moving a hand, a foot, an ear, or the like, or a method of turning on a lamp such as an eye or a mouth, that is, a robot operation. ) Thinking device.

(24)前記思考過程提示方法管理手段は、
グラフ構造、テキスト、表、時系列チャート、カメラ画像、ロボット図、の何れか一の方法、すなわち画面表示、により思考過程を提示する上記(20)または(21)に記載の思考装置。
(24) The thought process presentation method management means includes:
The thinking device according to (20) or (21), wherein the thinking process is presented by any one of a graph structure, a text, a table, a time series chart, a camera image, and a robot diagram, that is, a screen display.

(25)前記思考過程提示方法管理手段は、
前記発音・発声と前記ロボット動作とにより思考過程を提示することを特徴とする上記(20)または(21)に記載の思考装置。
(25) The thought process presentation method management means includes:
The thinking device according to (20) or (21), wherein a thinking process is presented by the pronunciation / speech and the robot motion.

(26)前記思考過程提示方法管理手段は、
前記発音・発声と前記画面表示とにより思考過程を提示することを特徴とする請求項20または上記(21)に記載の思考装置。
(26) The thought process presentation method management means includes:
The thinking device according to claim 20 or (21), wherein a thinking process is presented by the pronunciation / speech and the screen display.

(27)前記思考過程提示方法管理手段は、
前記ロボット動作と前記画面表示とにより思考過程を提示することを特徴とする請求項20または上記(21)に記載の思考装置。
(27) The thought process presentation method management means includes:
The thinking device according to claim 20 or (21), wherein a thinking process is presented by the robot operation and the screen display.

(28)前記思考過程提示方法管理手段は、
質問されたときに思考過程を提示することを特徴とする上記(20)から(27)の何れか一に記載の思考装置。
(28) The thought process presentation method management means includes:
The thinking device according to any one of (20) to (27), wherein a thinking process is presented when a question is asked.

実施の形態におけるロボット装置の一例を示す外観構成図である。It is an external appearance block diagram which shows an example of the robot apparatus in embodiment. 実施の形態におけるロボット装置の構成を示すブロック図である。It is a block diagram which shows the structure of the robot apparatus in embodiment. 内部状態記憶部の内部構成の一部の一例を示す図である。It is a figure which shows an example of a part of internal structure of an internal state memory | storage part. ロボット装置が取るべき行動を決定するためのベイジアンネットワークの一例を示す図である。It is a figure which shows an example of the Bayesian network for determining the action which a robot apparatus should take. 図4に示したベイジアンネットワークにより、ロボット装置が次に取るべき行動が選択される過程を示す図である。FIG. 5 is a diagram illustrating a process in which an action to be taken next by the robot apparatus is selected by the Bayesian network illustrated in FIG. 4. ロボット装置が取るべき行動を選択するためのニューラルネットの一例を示す図である。It is a figure which shows an example of the neural network for selecting the action which a robot apparatus should take. ロボット装置の思考過程をクラス図で示す図である。It is a figure which shows the thinking process of a robot apparatus with a class diagram. ロボット装置の思考過程をステートチャート図で示す図である。It is a figure which shows the thinking process of a robot apparatus with a state chart figure. ロボット装置の思考過程を時系列チャートで示す図である。It is a figure which shows the thinking process of a robot apparatus with a time series chart. ロボット装置の思考過程をカメラ画像で示す図である。It is a figure which shows the thinking process of a robot apparatus with a camera image. ロボット装置の思考過程をロボット図で示す図である。It is a figure which shows the thinking process of a robot apparatus with a robot figure. 上述した画像表示方法を組み合わせて示す図である。It is a figure which shows combining the image display method mentioned above. ロボット装置の投影部からスクリーンに向けて、ロボット装置の思考過程を示す画像を投影させる例を模式的に示す図である。It is a figure which shows typically the example which projects the image which shows the thinking process of a robot apparatus toward the screen from the projection part of a robot apparatus. ロボット装置の思考過程の一例を示す画面を示す画面である。It is a screen which shows the screen which shows an example of the thought process of a robot apparatus. ロボット装置の思考過程の一例を示す画面を示す画面である。It is a screen which shows the screen which shows an example of the thought process of a robot apparatus. ロボット装置の思考過程の一例を示す画面を示す画面である。It is a screen which shows the screen which shows an example of the thought process of a robot apparatus. ロボット装置の思考過程を提示する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which presents the thinking process of a robot apparatus.

符号の説明Explanation of symbols

1 胴体部
2 頭部
3A 車輪
3B 車輪
12 スピーカ
13 音声認識マイク
14 頭スイッチ
15 投影部
21A CCDカメラ
21B CCDカメラ
101 ロボット装置
102 外部状態入力部
103 外部状態管理部
104 内部状態管理部
105 思考部
106 思考過程提示処理部
107 内部状態記憶部
108 内部状態取得部
109 行動決定部
110 出力処理部
111 行動手段
112 音声出力手段
113 表示手段
114 外部出力手段
115 処理手順記憶部
200 スクリーン
201 画像
DESCRIPTION OF SYMBOLS 1 Body part 2 Head 3A Wheel 3B Wheel 12 Speaker 13 Voice recognition microphone 14 Head switch 15 Projection part 21A CCD camera 21B CCD camera 101 Robot apparatus 102 External state input part 103 External state management part 104 Internal state management part 105 Thinking part 106 Thought process presentation processing unit 107 internal state storage unit 108 internal state acquisition unit 109 action determination unit 110 output processing unit 111 action unit 112 voice output unit 113 display unit 114 external output unit 115 processing procedure storage unit 200 screen 201 image

Claims (13)

思考を行い、該思考に基づいて行動するロボットであって、
当該ロボットの外部状態に関する外部情報を取得する外部情報取得手段と、
取得した前記外部情報を保有する外部状態管理手段と、
取得した前記外部情報を契機として変化する当該ロボットの内部状態に関する内部情報を保有する内部状態管理手段と、
少なくとも前記外部情報を契機として思考を展開し、該思考の結果に基づいて、取るべき行動を決定する思考手段と、
前記思考手段による思考過程そのものや前記思考過程の根拠となる前記外部情報や前記内部情報等からなる情報を出力する出力手段と、を備え、
前記思考過程は、多段にわたるものであり、
前記出力手段は、出力する前記情報の少なくとも一部として多段にわたる前記思考過程の少なくとも一部を画面表示することを特徴とするロボット。
A robot that performs thoughts and acts based on the thoughts,
External information acquisition means for acquiring external information related to the external state of the robot;
An external state management means for holding the acquired external information;
Internal state management means for holding internal information about the internal state of the robot that changes with the acquired external information as a trigger;
Thinking means that develops thinking with at least the external information as a trigger , and determines an action to be taken based on the result of the thinking;
And an output means for outputting the information consisting of the external information and the internal information such as the basis for thinking over extent itself and the thought process by the thinking means,
The thought process is multistage,
The output means displays on the screen at least a part of the thinking process in multiple stages as at least a part of the information to be output .
請求項1に記載のロボットにおいて、
前記出力手段は、前記情報を出力する複数の出力部を含み、
前記思考過程を表す前記情報の出力方法を決定する出力方法決定手段を、さらに備え、
前記出力方法決定手段は、前記外部情報または前記内部情報を考慮して前記思考過程の前記出力方法を決定し、複数の前記出力部から少なくとも一つを選択し、
選択された前記出力部により前記情報が出力されるロボット。
The robot according to claim 1, wherein
The output means includes a plurality of output units for outputting the information,
An output method determining means for determining an output method of the information representing the thought process;
The output method determining means determines the output method of the thinking process in consideration of the external information or the internal information, and selects at least one from the plurality of output units,
A robot in which the information is output by the selected output unit.
請求項1または2に記載のロボットにおいて
記思考手段は、前記外部情報および前記内部情報に基づいて思考を行うことを特徴とするロボット。
The robot according to claim 1 or 2 ,
Before SL thinking means, robot and performs thinking based on the external information and the internal information.
請求項1ないし3の何れか一項に記載のロボットにおいて、
前記出力手段は、思考過程を表す前記情報として、前記外部情報または前記内部情報の少なくとも一部を出力することを特徴とするロボット。
The robot according to any one of claims 1 to 3 ,
The output means outputs at least a part of the external information or the internal information as the information representing a thought process.
請求項1ないし4の何れか一項に記載のロボットにおいて、
前記外部情報はユーザから発せられた情報を含み、前記出力方法決定手段は、ユーザから発せられた前記情報を考慮して思考過程を表す前記情報の出力方法を決定することを特徴とするロボット。
The robot according to any one of claims 1 to 4 , wherein
The external information includes information issued from a user, and the output method determining means determines an output method of the information representing a thought process in consideration of the information issued from the user.
請求項1ないし5の何れか一項に記載のロボットにおいて、
前記出力手段は、ロボットの行動、ロボットの発声または表示を介して情報を出力する複数の出力部を含み、
前記出力方法決定手段は、複数の前記出力部のいずれかを選択し、
前記出力方法決定手段によって選択された出力部を介して思考過程を表す前記情報が出力されるように構成されたことを特徴とするロボット。
The robot according to any one of claims 1 to 5 ,
The output means includes a plurality of output units that output information via robot behavior, robot utterance or display,
The output method determining means selects any of the plurality of output units,
A robot configured to output the information representing a thought process through an output unit selected by the output method determining means.
請求項1ないし6の何れか一項に記載のロボットにおいて、
前記外部情報は、周囲の環境の騒がしさに関する情報を含み、前記出力方法決定手段は、騒がしさに関する前記情報を考慮し、周囲が騒がしければ画面表示を前記出力方法とし、周囲が静かであれば発声または発音を前記出力方法とすることを特徴とするロボット。
The robot according to any one of claims 1 to 6 ,
The external information includes information related to noise in the surrounding environment, and the output method determining means considers the information related to noise, and if the surroundings are noisy, the screen display is used as the output method, and the surroundings should be quiet. A robot characterized in that speech or pronunciation is used as the output method.
請求項1ないし7の何れか一項に記載のロボットにおいて、
前記外部情報は、画像を投影し得る箇所の存否に関する情報を含み、
前記出力方法決定手段は、画像を投影する前記箇所が存在するとき、前記箇所への画面表示を前記出力方法とすることを特徴とするロボット。
The robot according to any one of claims 1 to 7 ,
The external information includes information regarding the presence or absence of a location where an image can be projected,
The said output method determination means uses the screen display to the said location as the said output method, when the said location which projects an image exists.
請求項1ないし8の何れか一項に記載のロボットにおいて、
前記外部情報は、ユーザの年齢層に関する情報を含み、
前記出力方法決定手段は、ユーザの年齢層を考慮して前記出力方法を決定することを特徴とするロボット。
The robot according to any one of claims 1 to 8 ,
The external information includes information regarding the user's age group,
The output method determining means determines the output method in consideration of a user's age group.
ロボットを制御する方法であって、該ロボットに対し、
当該ロボットの外部状態に関する外部情報を取得する第1ステップと、
取得した前記外部情報を保有する第2ステップと、
取得した前記外部情報を契機として変化する当該ロボットの内部状態に関する内部情報を保有する第3ステップと、
少なくとも前記外部情報を契機として思考を行い、該思考の結果に基づいて、取るべき行動を決定する第4ステップと、
前記第4ステップにおける思考過程そのものや前記思考過程の根拠となる前記外部情報や前記内部情報等からなる情報を出力する第5ステップと、を実行させ、
前記思考過程は、多段にわたるものであり、
前記第5ステップで、出力する前記情報の少なくとも一部として多段にわたる前記思考過程の少なくとも一部を画面表示することを特徴とするロボット制御方法。
A method of controlling a robot, wherein the robot
A first step of acquiring external information relating to the external state of the robot;
A second step of holding the acquired external information;
A third step of holding internal information about the internal state of the robot that changes with the acquired external information as a trigger;
It performed Thinking in response at least the external information, a fourth step based on the result of the thinking, determines the action to be taken,
A fifth step of outputting the information consisting of the external information and the internal information such as the basis of the fourth degree thinking over in step itself and the thought process, is executed,
The thought process is multistage,
In the fifth step, at least a part of the thinking process in multiple stages is displayed on a screen as at least a part of the information to be output .
請求項10に記載のロボット制御方法において、
前記第4ステップにおいて、前記外部情報および前記内部情報に基づいて思考を行うように制御することを特徴とするロボット制御方法。
The robot control method according to claim 10 , wherein
The robot control method according to the fourth step , wherein control is performed so as to think based on the external information and the internal information.
ロボットを制御するプログラムであって、該ロボットに対し、
当該ロボットの外部状態に関する外部情報を取得する第1ステップと、
取得した前記外部情報を保有する第2ステップと、
取得した前記外部情報を契機として変化する当該ロボットの内部状態に関する内部情報を保有する第3ステップと、
少なくとも前記外部情報を契機として思考を行い、該思考の結果に基づいて、取るべき行動を決定する第4ステップと、
前記第4ステップにおける思考過程そのものや前記思考過程の根拠となる前記外部情報や前記内部情報等からなる情報を出力する第5ステップと、を実行させ、
前記思考過程は、多段にわたるものであり、
前記第5ステップで、出力する前記情報の少なくとも一部として多段にわたる前記思考過程の少なくとも一部を画面表示することを特徴とするロボット制御プログラム。
A program for controlling a robot,
A first step of acquiring external information relating to the external state of the robot;
A second step of holding the acquired external information;
A third step of holding internal information about the internal state of the robot that changes with the acquired external information as a trigger;
Performed thought as a trigger at least said external information, a fourth step based on the result of the thinking, determines the action to be taken,
A fifth step of outputting the information consisting of the external information and the internal information such as the basis of the fourth degree thinking over in step itself and the thought process, is executed,
The thought process is multistage,
In the fifth step, at least a part of the thinking process in multiple stages is displayed on a screen as at least a part of the information to be output .
請求項12に記載のロボット制御プログラムにおいて、
前記第4ステップにおいて、前記外部情報および前記内部情報に基づいて思考を行うように制御することを特徴とするロボット制御プログラム。
The robot control program according to claim 12 ,
The robot control program according to the fourth step , wherein control is performed so as to think based on the external information and the internal information.
JP2004274201A 2004-03-30 2004-09-21 Robot, robot control method, robot control program Expired - Lifetime JP4555039B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004274201A JP4555039B2 (en) 2004-03-30 2004-09-21 Robot, robot control method, robot control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004099581 2004-03-30
JP2004274201A JP4555039B2 (en) 2004-03-30 2004-09-21 Robot, robot control method, robot control program

Publications (2)

Publication Number Publication Date
JP2005313308A JP2005313308A (en) 2005-11-10
JP4555039B2 true JP4555039B2 (en) 2010-09-29

Family

ID=35441258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004274201A Expired - Lifetime JP4555039B2 (en) 2004-03-30 2004-09-21 Robot, robot control method, robot control program

Country Status (1)

Country Link
JP (1) JP4555039B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110125955A (en) * 2018-02-09 2019-08-16 发那科株式会社 Control device and machine learning device

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8180486B2 (en) 2006-10-02 2012-05-15 Honda Motor Co., Ltd. Mobile robot and controller for same
JP4658891B2 (en) * 2006-10-02 2011-03-23 本田技研工業株式会社 Robot control device
KR100909532B1 (en) 2007-02-07 2009-07-27 삼성전자주식회사 Method and device for learning behavior of software robot
US7984013B2 (en) 2007-02-07 2011-07-19 Samsung Electronics Co., Ltd Method and apparatus for learning behavior in software robot
JP4989532B2 (en) * 2007-03-30 2012-08-01 成均館大学校産学協力団 Central information processing system for mobile service robot, information processing method for mobile service robot, and computer-readable recording medium recording information processing method for mobile service robot
JP5515173B2 (en) * 2010-02-22 2014-06-11 株式会社国際電気通信基礎技術研究所 Head movement control information generator
US10613538B2 (en) 2015-04-22 2020-04-07 Sony Corporation Mobile body control system, control method, and storage medium
JP6494062B2 (en) 2016-08-29 2019-04-03 Groove X株式会社 Autonomous robot that recognizes the direction of the sound source
JP7031603B2 (en) * 2016-11-29 2022-03-08 ソニーグループ株式会社 Information processing equipment and information processing method
WO2018123431A1 (en) * 2016-12-28 2018-07-05 パナソニックIpマネジメント株式会社 Interactive robot
JP6814089B2 (en) * 2017-05-02 2021-01-13 株式会社ソニー・インタラクティブエンタテインメント Object control system and object control method
JP7139643B2 (en) 2018-03-23 2022-09-21 カシオ計算機株式会社 Robot, robot control method and program
JP6990461B2 (en) * 2020-06-23 2022-01-12 株式会社ユピテル Systems and programs
WO2023188341A1 (en) * 2022-03-31 2023-10-05 日本電気株式会社 Behavioral assessment presentation system, behavioral assessment presentation method, and behavioral assessment presentation device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001212780A (en) * 2000-01-31 2001-08-07 Sony Corp Behavior controller, behavior control method, and recording medium
JP2003271923A (en) * 2002-03-15 2003-09-26 Sony Corp Recorder and recording method, and robot device
JP2003285285A (en) * 2002-03-27 2003-10-07 Nec Corp Robot unit having software agent, control method thereof and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001212780A (en) * 2000-01-31 2001-08-07 Sony Corp Behavior controller, behavior control method, and recording medium
JP2003271923A (en) * 2002-03-15 2003-09-26 Sony Corp Recorder and recording method, and robot device
JP2003285285A (en) * 2002-03-27 2003-10-07 Nec Corp Robot unit having software agent, control method thereof and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110125955A (en) * 2018-02-09 2019-08-16 发那科株式会社 Control device and machine learning device
CN110125955B (en) * 2018-02-09 2021-09-24 发那科株式会社 Control device and machine learning device

Also Published As

Publication number Publication date
JP2005313308A (en) 2005-11-10

Similar Documents

Publication Publication Date Title
JP4555039B2 (en) Robot, robot control method, robot control program
KR101336641B1 (en) Emotional Sympathy Robot Service System and Method of the Same
US11548147B2 (en) Method and device for robot interactions
JP2018180523A (en) Managing agent engagement in a man-machine dialog
CN112262024B (en) System and method for dynamic robot configuration for enhanced digital experience
JP2019521449A (en) Persistent Companion Device Configuration and Deployment Platform
CN111801730A (en) System and method for artificial intelligence driven automated companion
CN1372660A (en) Method for interacting with a consumer electronics system
JP6067905B1 (en) Robot control program generation system
US20200133239A1 (en) Communication robot and control program of communication robot
KR20200143764A (en) Emotional Sympathy Service System and Method of the Same
JP2019124855A (en) Apparatus and program and the like
US20230306666A1 (en) Sound Based Modification Of A Virtual Environment
JP2007030050A (en) Robot control device, robot control system, robot device and robot control method
US20070078563A1 (en) Interactive system and method for controlling an interactive system
Platz Design Beyond Devices: Creating Multimodal, Cross-device Experiences
JP3891020B2 (en) Robot equipment
KR20200077936A (en) Electronic device for providing reaction response based on user status and operating method thereof
WO2024190616A1 (en) Action control system and program
JP7202836B2 (en) communication system
WO2024190445A1 (en) Behavior control system and program
Pereira ISR-RobotHead v2. 0: New hardware and software modules
JP2024159563A (en) Behavior Control System
EP3772735A1 (en) Assistance system and method for providing information to a user using speech output
JP2024159728A (en) Electronics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100715

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4555039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350