JP4555039B2 - Robot, robot control method, robot control program - Google Patents
Robot, robot control method, robot control program Download PDFInfo
- Publication number
- JP4555039B2 JP4555039B2 JP2004274201A JP2004274201A JP4555039B2 JP 4555039 B2 JP4555039 B2 JP 4555039B2 JP 2004274201 A JP2004274201 A JP 2004274201A JP 2004274201 A JP2004274201 A JP 2004274201A JP 4555039 B2 JP4555039 B2 JP 4555039B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- robot
- thinking
- output
- external
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 401
- 230000008569 process Effects 0.000 claims description 245
- 230000009471 action Effects 0.000 claims description 75
- 238000012545 processing Methods 0.000 description 75
- 238000010586 diagram Methods 0.000 description 58
- 210000003128 head Anatomy 0.000 description 18
- 230000006399 behavior Effects 0.000 description 14
- 230000007704 transition Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 241000282412 Homo Species 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 230000008451 emotion Effects 0.000 description 7
- 230000036651 mood Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 244000205754 Colocasia esculenta Species 0.000 description 2
- 235000006481 Colocasia esculenta Nutrition 0.000 description 2
- 241000257465 Echinoidea Species 0.000 description 2
- 230000036528 appetite Effects 0.000 description 2
- 235000019789 appetite Nutrition 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 208000020016 psychiatric disease Diseases 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 206010027940 Mood altered Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- PVFZKRMYBKEXBN-UHFFFAOYSA-N piperidine;piperidine-1-carbodithioic acid Chemical compound C1CCNCC1.SC(=S)N1CCCCC1 PVFZKRMYBKEXBN-UHFFFAOYSA-N 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、ロボットおよびロボットを制御する方法、プログラムに関するものである。 The present invention relates to a method for controlling a robot and a robot, are those concerning the program.
近年、ユーザを認識したり、ユーザと対話したり、自律的に行動したりするロボットが開発されている(たとえば特許文献1、特許文献2、特許文献3)。このようなロボットは、人間や生物と同じように振る舞うことを目指して設計されており、ロボットに性格情報や感情情報等の内部状態に関する情報を持たせ、内部状態に応じた振る舞いをさせることで、人間や生物と同じように振る舞うような制御が行われている。
しかし、実際の人間や生物の性格や感情のような内部状態のモデルは完全には解明されておらず、ロボットの外部状態は、開発者の主観によって設計開発されているのが現状である。そのため、ロボットの振る舞いがユーザにとって直感にあわず、ロボットの行動を理解できないということも多い。また、ロボットの認識能力等が充分でないために、ロボットがユーザの所望の行動を行わず、ユーザがロボットとのコミュニケーションを図りにくいという問題もあった。 However, models of internal states such as actual human and biological characters and emotions have not been fully elucidated, and the external states of robots are currently designed and developed by the subjectivity of developers. For this reason, the behavior of the robot is not intuitive to the user, and it is often impossible to understand the robot's behavior. In addition, since the robot's recognition ability is not sufficient, the robot does not perform the user's desired action, and there is a problem that it is difficult for the user to communicate with the robot.
本発明は上記事情を踏まえてなされたものであり、本発明は、ユーザにロボットのことを理解してもらい、親しみを持ってもらうようにする技術を提供するものである。 The present invention has been made in view of the above circumstances, and the present invention provides a technique for allowing a user to understand a robot and to have familiarity with it.
本発明によれば、思考を行い、該思考に基づいて行動するロボットであって、当該ロボットの外部状態に関する外部情報を取得する外部情報取得手段と、取得した外部情報を保有する外部状態管理手段と、取得した外部情報を契機として変化する当該ロボットの内部状態に関する内部情報を保有する内部状態管理手段と、少なくとも外部情報を契機として思考を展開し、該思考の結果に基づいて、取るべき行動を決定する思考手段と、思考手段による思考過程そのものや思考過程の根拠となる外部情報や内部情報等からなる情報を出力する出力手段と、を備え、思考過程は、多段にわたるものであり、出力手段は、出力する情報の少なくとも一部として多段にわたる思考過程の少なくとも一部を画面表示することを特徴とするロボットが提供される。 According to the present invention, a robot that performs thinking and acts based on the thought, the external information acquisition unit that acquires external information related to the external state of the robot, and the external state management unit that holds the acquired external information And internal state management means holding internal information about the internal state of the robot that changes with the acquired external information as a trigger, and at least the external information as a trigger to develop thoughts , and actions to be taken based on the results of the thought comprising a thought means for determining, and an output means for outputting the information consisting of external information and internal information such as the basis for thinking over extent itself and thought process by thinking means, and thought processes are those over multistage , output means, robot provided, which comprises at least a portion the screen display of the multi-stage over thought process as at least a part of the output information It is.
このロボットにおいて、前記思考手段は、前記外部情報および前記内部情報に基づいて思考を行う構成としてもよい。 In this robot, before Symbol thinking means it may be configured to perform thinking based on the external information and the internal information.
また、前記出力手段は、思考過程を表す前記情報として、前記外部情報または前記内部情報の少なくとも一部を出力するようにしてもよい。 The output means may output at least a part of the external information or the internal information as the information representing a thought process.
さらに、出力方法決定手段は、たとえば、前記外部情報または内部情報を考慮して出力方法を決定するように構成することができる。 Furthermore, the output method determining means, for example, can be configured to determine an output method in consideration of the external information or internal information.
また、前記外部情報はユーザから発せられた情報を含み、前記出力方法決定手段は、ユーザから発せられた前記情報を考慮して前記思考過程を表す前記情報の出力方法を決定するようにしてもよい。 The external information includes information issued from a user, and the output method determination means determines an output method of the information representing the thought process in consideration of the information issued from the user. Good.
前記出力手段は、ロボットの行動、ロボットの発声または表示を介して情報を出力する複数の出力部を含み、前記出力方法決定手段は、複数の前記出力部のいずれかを選択し、前記出力方法決定手段によって選択された出力部を介して思考過程を表す前記情報が出力されるように構成することもできる。 The output means includes a plurality of output units that output information via a robot action, robot utterance or display, and the output method determination means selects any of the plurality of output units, and the output method The information representing the thought process may be output via the output unit selected by the determining means.
外部情報と出力方法決定手段については種々の態様を採用することができる。以下はその例示である。
(i)前記外部情報は、周囲の環境の騒がしさに関する情報を含み、前記出力方法決定手段は、騒がしさに関する前記情報を考慮し、周囲が騒がしければ画面表示を前記出力方法とし、周囲が静かであれば発声または発音を前記出力方法とする。
(ii)前記外部情報は、画像を投影し得る箇所の存否に関する情報を含み、前記出力方法決定手段は、画像を投影する前記箇所が存在するとき、前記箇所への画面表示を前記出力方法とする。
(iii)前記外部情報は、ユーザの年齢層に関する情報を含み、前記出力方法決定手段は、ユーザの年齢層を考慮して前記出力方法を決定する。
Various modes can be adopted for the external information and the output method determining means. The following is an example.
(i) The external information includes information related to noise in the surrounding environment, and the output method determination means considers the information related to noise, and if there is noise in the surroundings, the screen display is set as the output method. If quiet, utterance or pronunciation is used as the output method.
(ii) The external information includes information regarding the presence or absence of a location where an image can be projected, and the output method determination means displays the screen display at the location as the output method when the location where the image is projected exists. To do.
(iii) The external information includes information related to the user's age group, and the output method determining means determines the output method in consideration of the user's age group.
ここで、前記思考過程の提示に関しては、種々の態様をとることができる。以下はその例示である。
(i)前記思考過程提示方法管理手段は、自分の声で発声する方法、第三者の声で発声する方法、効果音で発音する方法、の何れか一の方法により思考過程を提示する。
(ii)前記思考過程提示方法管理手段は、手や足や耳などを動かす方法、目や口などのランプを点灯させる方法、の何れか一の方法により思考過程を提示する。
(iii)前記思考過程提示方法管理手段は、グラフ構造、テキスト、表、時系列チャート、カメラ画像、ロボット図、の何れか一の方法により思考過程を提示する。
Here, with respect to the presentation of prior Ki思 considered process can take various forms. The following is an example.
(i) The thought process presentation method management means presents the thought process by any one of a method of uttering with one's own voice, a method of uttering with a third party's voice, and a method of sounding with sound effects.
(ii) The thought process presentation method management means presents the thought process by any one of a method of moving hands, feet, ears, and the like, and a method of lighting lamps such as eyes and mouth.
(iii) The thinking process presentation method management means presents the thinking process by any one of a graph structure, text, table, time series chart, camera image, and robot diagram.
本発明によれば、ロボットを制御する方法であって、該ロボットに対し、当該ロボットの外部状態に関する外部情報を取得する第1ステップと、取得した外部情報を保有する第2ステップと、取得した外部情報を契機として変化する当該ロボットの内部状態に関する内部情報を保有する第3ステップと、少なくとも外部情報を契機として思考を行い、該思考の結果に基づいて、取るべき行動を決定する第4ステップと、第4ステップにおける思考過程そのものや思考過程の根拠となる外部情報や内部情報等からなる情報を出力する第5ステップと、を実行させ、思考過程は、多段にわたるものであり、第5ステップで、出力する情報の少なくとも一部として多段にわたる思考過程の少なくとも一部を画面表示することを特徴とするロボット制御方法が提供される。 According to the present invention, there is provided a method for controlling a robot, the first step of acquiring external information related to the external state of the robot with respect to the robot, and the second step of storing the acquired external information, a third step of carrying internal information about the internal state of the robot which changes the external information as a trigger, performs thought triggered at least external information, a fourth scan based on the result of the thinking, determines the action to be taken a step, a fifth step of outputting the fourth information comprising an external information and internal information such as the basis for thinking over extent itself and thought process in step is executed, the thinking process, are those over multistage in the fifth step, the robot system, which comprises at least a portion the screen display of the multi-stage over thought process as at least a part of the output information A method is provided.
このロボット制御方法において、前記第2ステップにおいて、前記外部情報および前記内部情報に基づいて思考を行うように制御する構成としてもよい。 In this robot control method, before Symbol second step, thinking may be used as the configuration of the row Uyo urchin control based on the external information and the internal information.
本発明によれば、ロボットを制御するプログラムであって、該ロボットに対し、当該ロボットの外部状態に関する外部情報を取得する第1ステップと、取得した外部情報を保有する第2ステップと、取得した外部情報を契機として変化する当該ロボットの内部状態に関する内部情報を保有する第3ステップと、少なくとも外部情報を契機として思考を行い、該思考の結果に基づいて、取るべき行動を決定する第4ステップと、第4ステップにおける思考過程そのものや思考過程の根拠となる外部情報や内部情報等からなる情報を出力する第5ステップと、を実行させ、思考過程は、多段にわたるものであり、第5ステップで、出力する情報の少なくとも一部として多段にわたる思考過程の少なくとも一部を画面表示することを特徴とするロボット制御プログラムが提供される。 According to the present invention, there is provided a program for controlling a robot, the first step for acquiring external information related to the external state of the robot with respect to the robot, and the second step for storing the acquired external information. a third step of carrying internal information about the internal state of the robot which changes the external information as a trigger, performs thought triggered at least external information, a fourth scan based on the result of the thinking, determines the action to be taken a step, a fifth step of outputting the fourth information comprising an external information and internal information such as the basis for thinking over extent itself and thought process in step is executed, the thinking process, are those over multistage in the fifth step, Robo, characterized in that the screen displaying at least a portion of the multi-stage over thought process as at least a part of the output information Door control program is provided.
このロボット制御プログラムにおいて、前記第2ステップにおいて、前記外部情報および前記内部情報に基づいて思考を行うように制御するように構成してもよい。 In this robot control program, before Symbol second step, thinking may be configured to line Uyo urchin controlled based on the external information and the internal information.
本発明は、従来のロボット装置のように、人間や生物の振る舞いを模擬し、人間とロボットとの関係として人間と人間や生物との関係を目指すのでなく、人間とロボットとの新しい関係を構築することで、解決する。 The present invention simulates the behavior of humans and organisms as in conventional robotic devices, and does not aim for the relationship between humans and humans and organisms as the relationship between humans and robots, but builds new relationships between humans and robots. To solve it.
とくに、従来のロボット装置では、ユーザにとってロボットの考えていることがわかりにくいことが、ユーザがロボットに親しみを持つ上での障害になっていた。たとえば、ロボットの機嫌が悪い、という状態であることは、ロボットの口調や振る舞いから見て取ることができるが、なぜ機嫌が悪いのか、ということはわからなかった。 In particular, in the conventional robot apparatus, the fact that it is difficult for the user to understand what the robot thinks is an obstacle to the user's familiarity with the robot. For example, it can be seen from the tone and behavior of the robot that the robot is in a bad mood, but I did not know why it was bad.
そこで、本発明においては、思考過程を表す情報を出力する構成を採用している。「思考過程を表す情報」とは、思考過程そのもの、または、思考過程の根拠となる外部情報や内部情報等をいう。本発明によれば、上記構成を採用しているため、ユーザは、ロボットが行動を起こしたとき、なぜそのような行動をとるのかを理解することが可能となる。 Therefore, in the present invention, a configuration for outputting information representing a thought process is employed. “Information representing a thinking process” refers to the thinking process itself, or external information or internal information that is the basis of the thinking process. According to the present invention, since the above configuration is adopted, the user can understand why the robot takes such action when the robot takes action.
また、ロボットがユーザの所望の行動を行わなかったとき、その理由を知ることができる。このように本発明によれば、ユーザとロボットとの間のコミュニケーションを良好にすることができ、ユーザにロボットのことを理解させ、親しみを持たせるようにすることができる。 Further, when the robot does not perform the user's desired action, the reason can be known. As described above, according to the present invention, communication between the user and the robot can be improved, and the user can be made to understand the robot and become familiar.
本発明において、外部情報や内部情報をロボット内部に保有し、これに基づいて思考を行う構成とすることができる。このようにすれば、外部情報や内部情報を利用して思考過程を表現することが可能となり、思考過程を表す情報を好適に出力できる。なお、「保有」とは、少なくとも一時的にロボット内部に保有されることを意味し、思考を完了する時点まで保有する態様や、思考過程を表す情報を出力した時点まで保有する態様を含む。 In this invention, it can be set as the structure which holds external information and internal information inside a robot, and thinks based on this. If it does in this way, it will become possible to express a thought process using external information or internal information, and the information showing a thought process can be outputted suitably. Note that “holding” means that the robot is held at least temporarily inside the robot, and includes a mode of holding until the point of completion of thinking and a mode of holding until the point of time when information indicating the thinking process is output.
本発明において、ロボットの外部状態な内部状態等に応じて思考過程を表す情報の出力方法を決定し、決定された方法にしたがって出力がなされるように構成してもよい。このようにすれば、ユーザが理解しやすい形で上記情報が出力されるので、ロボットとユーザとの間のコミュニケーションをより一層良好なものとすることができる。 In the present invention, an output method of information representing a thought process may be determined in accordance with an internal state or the like of the external state of the robot, and output may be performed according to the determined method. In this way, since the information is output in a form that is easy for the user to understand, the communication between the robot and the user can be further improved.
出力方法の決定は、たとえば、外部情報や内部情報を考慮して行うことができる。たとえば、ロボットの置かれた環境がどのような環境であるか、ロボットに対してアクションを起こした相手(ユーザ)がどのような者であるか、現在の日時がいつであるか、等を考慮して出力方法を適宜決めることができる。出力方法としては、行動・発声・表示等があり、これらを適宜組み合わせてもよい。 The output method can be determined in consideration of, for example, external information or internal information. For example, what kind of environment the robot is placed in, what kind of person (user) who took action against the robot is, and when is the current date and time, etc. Thus, the output method can be determined as appropriate. As an output method, there are action, utterance, display, and the like, and these may be appropriately combined.
以上、本発明の構成について説明したが、上記構成要素の任意の組合せ、本発明の表現を方法、装置の間で変換したものもまた、本発明の態様として有効である。 Although the configuration of the present invention has been described above, any combination of the above-described components, and a conversion of the expression of the present invention between methods and apparatuses are also effective as an aspect of the present invention.
以上説明したように、本発明によれば、思考過程を表す情報を出力する構成を採用しているため、ユーザにロボットのことをより良く理解してもらい、親しみを持ってもらうようにすることができる。 As described above, according to the present invention, the configuration that outputs information representing the thinking process is adopted, so that the user can understand the robot better and have a friendship. Can do.
次に、本発明の実施の形態について図面を参照して詳細に説明する。以下の説明では、ロボットの構成と機能を中心に説明するが、本発明は、かかるロボットのみならず、ロボットを制御する方法、プログラムをも開示するものである。なお、以下の説明では、思考過程を表す情報のことを、適宜、「思考過程」と表現する。 Next, embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the configuration and function of the robot will be mainly described. However, the present invention discloses not only such a robot but also a method and a program for controlling the robot. In the following description, information indicating a thought process is appropriately expressed as a “thinking process”.
図1は、本実施の形態におけるロボット装置の一例を示す外観構成図である。このロボット装置は、思考を行い、該思考に基づいて行動するロボットであって、以下の構成を備えている。
(i)ロボットの外部状態に関する外部情報を取得する外部情報取得手段(外部状態入力部102)
(ii)外部情報を保有する外部状態管理手段(外部状態管理部103)
(iii)取得した外部情報を契機として変化するロボットの内部状態に関する内部情報を保有する内部状態管理手段(内部状態管理部104)
(iv)外部情報および内部情報に基づいて思考を行い、思考の結果に基づいて、取るべき行動を決定する思考手段(思考部105)
FIG. 1 is an external configuration diagram illustrating an example of a robot apparatus according to the present embodiment. This robot apparatus is a robot that performs thinking and acts based on the thinking, and has the following configuration.
(i) External information acquisition means (external state input unit 102) for acquiring external information related to the external state of the robot
(ii) External state management means holding external information (external state management unit 103)
(iii) Internal state management means (internal state management unit 104) that holds internal information about the internal state of the robot that changes with the acquired external information as a trigger
(iv) Thinking means (thinking unit 105) that thinks based on external information and internal information and decides an action to be taken based on the result of thinking
ロボット装置101は、たとえば、胴体部1および頭部2が連結されることにより構成される。胴体部1の下部には左右にそれぞれ車輪3Aおよび車輪3Bが取り付けられており、これらの車輪は、独立に前後に回転することができる。
The
頭部2は、胴体部1に垂直に取り付けられた垂直軸とその垂直軸に対して90度の角度で設置された水平軸に関して決められた範囲で回転することができる。垂直軸は頭部2の中心を通るように設置されており、水平軸は胴体1と頭部2が正面を向いた状態で頭部2の中心を通りかつ左右方向に水平に設置されている。つまり、頭部2は左右と上下の2自由度で、決められた範囲内で回転することができる。
The
胴体部1の表面には、スピーカ12および投影部15等が設けられる。また、頭部2の表面には、CCDカメラ21AおよびCCDカメラ21B、音声認識マイク13、ならびに頭スイッチ14等が設けられる。
A
図2は、本実施の形態におけるロボット装置101の構成を示すブロック図である。
ロボット装置101は、外部状態入力部102、外部状態管理部103、内部状態管理部104、思考部105、思考過程提示処理部106(出力方法決定部)、および出力処理部110を含む。
FIG. 2 is a block diagram illustrating a configuration of the
The
外部状態入力部102は、ロボット装置101の周囲の外部状態を入力する。外部状態入力部102は、たとえば、CCDカメラ21AやCCDカメラ21B、音声認識マイク13等のマイク、障害物センサ、モータ、スイッチ、ケーブル、ジャイロ、外部信号入力部等の入力機器とすることができる。障害物センサには、超音波センサや赤外線センサ等のセンサが含まれる。また、外部信号入力部は、監視カメラ、携帯電話、他のロボット等の外部機器や、IDタグ等のメディアからの信号を入力することもできる。
The external state input unit 102 inputs an external state around the
外部状態管理部103は、ロボットの外部状態を関する外部情報を保有する。すなわち、外部状態入力部102が外部から取得した情報に基づき、ロボット装置101の外部状態を認識する。外部状態管理部103は、たとえば、外部状態入力部102が取得した画像情報に基づき、色、形、顔等を認識する。また、外部状態管理部103は、たとえば外部状態入力部102が取得した音声情報に基づき、音源方向、物音、人の声、声の抑揚等を認識する。また、外部状態管理部103は、たとえば、外部状態入力部102が取得した障害物情報に基づき、障害物の有無、距離等を認識する。また、外部状態管理部103は、たとえば、外部状態入力部102が取得した圧力情報に基づき、撫でられた、叩かれた、押された、障害物に当たった等の事象を認識する。また、外部状態管理部103は、充電中、姿勢、現在位置等の情報を認識する。
The external
内部状態管理部104は、内部状態記憶部107および内部状態取得部108を含む。内部状態記憶部107は、ロボットの内部状態を表す情報を記憶する。具体的には、ロボット装置101の動作モード(状態)情報、性格情報、性格タイプ情報、機嫌情報、感情情報、欲求情報、成長ステージ情報、履歴DB情報等の内部状態に関する内部情報等を記憶する。ここで、動作モード(状態)情報は、対話モードや自律行動モード等を含む。性格情報は、積極性、協調性、勤勉性、知性、情緒安定性等を定義づけるものである。性格タイプ情報とは、ものしり、ダンス好き、ゲーム好き、ぐうたら等を定義づけるものである。機嫌情報とは、機嫌がよい、機嫌が普通、機嫌が悪い等を定義づけるものである。感情情報とは、喜び、怒り、悲しみ等を定義づけるものである。欲求情報とは、食欲、睡眠欲、活動欲、親和欲等を定義づけるものである。成長ステージ情報とは、幼児期、少年期、成人期等を定義づけるものである。履歴DB情報とは、機能毎・ユーザ毎の実行回数、機能毎・ユーザ毎の褒められた回数等を定義づけるものである。
The internal
図3は、内部状態記憶部107の内部構成の一部の一例を示す図である。ここでは、性格タイプ情報を例に挙げて説明する。性格タイプ情報には、「ものしり」、「ダンス好き」、「ゲーム好き」、「ぐうたら」が含まれる。各性格タイプには、それぞれの性格タイプの傾向を示す数値が対応づけて記憶される。たとえば、「ものしり」は「0.5」、「ダンス好き」は「1」、「ゲーム好き」は「0.8」、「ぐうたら」は「0.2」となっている。このロボット装置101は、「ダンス好き」の性格タイプが最も高く、「ゲーム好き」、「ものしり」、「ぐうたら」の順で性格タイプが低くなっている。
FIG. 3 is a diagram illustrating an example of a part of the internal configuration of the internal
図2に戻り、内部状態取得部108は、内部状態記憶部107から適宜必要な内部状態に関する情報を取得し、思考部105に送出する。内部状態取得部108は、外部状態管理部103が認識した外部状態に基づき、その外部状態に関連する内部状態に関する情報(内部情報)を内部状態記憶部107から読み出すこともできる。たとえば、外部状態管理部103が、外部状態入力部102が入力した画像に基づき、ユーザを認証した場合、外部状態管理部103は、認証したユーザを識別する情報を内部状態取得部108に送出する。内部状態取得部108は、外部状態管理部103から送出されたユーザの識別情報に基づき、内部状態記憶部107の履歴DB情報を参照し、そのユーザに関する履歴を読み出す。
Returning to FIG. 2, the internal
また、内部状態取得部108は、外部状態管理部103が認識した外部状態に基づき、内部状態記憶部107の情報を更新することができる。たとえば、外部状態管理部103が、ユーザから褒められたことを認識した場合、内部状態取得部108は、内部状態記憶部107の感情情報の「喜び」の傾向を示す数値が高くなるように設定することができる。このように内部状態記憶部107の情報を逐次更新することにより、内部状態記憶部107に現在のロボット装置101の内部状態を的確に記憶しておくことができる。
Further, the internal
思考部105は、外部情報を契機として思考を展開し、思考の結果に基づいてロボットの取るべき行動を決定する。思考部105は、行動決定部109および処理手順記憶部115を含む。行動決定部109は、外部状態や内部状態に基づき、ロボット装置101が次に取るべき行動を決定する。処理手順記憶部115は、行動決定部109がロボット装置101の行動を決定するための処理手順を記憶する。処理手順記憶部115は、たとえば、ニューラルネットワーク、ベイジアンネットワーク、状態遷移モデル、ルールベース、フローチャート、プログラミング言語等を記憶する。本実施の形態において、行動決定部109は、外部状態管理部103や内部状態管理部104から取得したロボット装置101の内部状態や外部状態(外部情報や内部情報)をパラメータとして、処理手順記憶部115に記憶された処理手順に従い、ロボット装置101が次に取るべき行動を決定する。
以下に各例を示す。
The thinking unit 105 develops thinking using external information as a trigger, and determines an action to be taken by the robot based on the result of the thinking. The thinking unit 105 includes an
Each example is shown below.
<ベイジアンネットワーク>
ベイジアンネットワークとは、人工知能の分野でよく知られた方法であるため詳細な説明は省略するが、事象についての確率を単位としてネットワークを構成した確率推論モデルである。入力情報を発火非発火のパターンとして与えて伝播計算すると、出力情報としての発火非発火のパターンを得ることができる。たとえば、ロボット装置101の内部状態や外部状態に関する種々の情報のそれぞれをノードに割り当て、ベイジアンネットワークの伝播計算をすることで、ロボット装置101が次に取るべき行動を決定することができる。
<Bayesian network>
A Bayesian network is a well-known method in the field of artificial intelligence, and will not be described in detail. However, a Bayesian network is a probability inference model in which a network is configured with the probability of an event as a unit. If input information is given as a non-ignition pattern and propagation calculation is performed, a non-ignition pattern can be obtained as output information. For example, it is possible to determine the action to be taken next by the
図4は、ロボット装置101が取るべき行動を決定するためのベイジアンネットワークの一例を示す図である。
ここで、各ノードは確率値を持っている。各ノードの中で、たとえば、成立している事象の確率は「1」、成立していない事象の確率は「0」、観測できない事象の確率は「0」から「1」の間の値をとる。ノードとノードを結ぶリンクは、それらのノード間で確率に依存関係があることを意味し、たとえば、「人物識別(久しぶりに会った)」の確率が高い場合、「嬉しい」の確率が高まる。確率の依存関係はCPT(Conditional Probability Table)と呼ばれる表によって管理されており、入力リンクのあるノードの真偽の組合せに応じて、その確率が定義されている。ここで、「あいさつされた」、「人物識別(久しぶりに会った)」、「人物識別(頻繁に会っている)」、「頭撫でられた」、「頭叩かれた」等は、ロボット装置101の外部状態に基づき成立の有無が判断される。また、「ダンスが好き」や「ものしり屋」等は、ロボット装置101の内部状態に基づき成立の有無が判断される。
FIG. 4 is a diagram illustrating an example of a Bayesian network for determining an action to be taken by the
Here, each node has a probability value. Within each node, for example, the probability of an established event is “1”, the probability of an unsatisfied event is “0”, and the probability of an unobservable event is a value between “0” and “1”. Take. A link connecting nodes means that there is a dependency relationship between the nodes. For example, when the probability of “person identification (I met after a long time)” is high, the probability of “happy” increases. Probability dependency is managed by a table called CPT (Conditional Probability Table), and the probability is defined according to the true / false combination of nodes with input links. Here, “I was greeted”, “Person identification (I met for a long time)”, “Person identification (I met frequently)”, “I was struck by a head”, “He was struck”, etc. Whether or not it is established is determined based on the
ベイジアンネットワークの一番右の列は、ロボット装置101の行動を表す。ロボット装置101の外部状態と内部状態に基づき、各ノードの確率が決定され、最終的に最も高い確率値を持った行動が、ロボット装置101が次に取るべき行動として選択される。
The rightmost column of the Bayesian network represents the behavior of the
図5は、図4に示したベイジアンネットワークにより、ロボット装置101が次に取るべき行動が選択される過程を示す図である。ここでは、たとえば「頭撫でられた」、「好きな人物」、「嬉しい」、「ダンス好き」の確率が高く、最終的にロボット装置101が次に取るべき行動として「ダンスをする」が選択されている。
FIG. 5 is a diagram illustrating a process in which an action to be taken next by the
<ニューラルネットワーク>
ニューラルネットワークとは、人工知能の分野でよく知られた方法であるため詳細な説明は省略するが、人間の脳を模したニューロンを単位としてネットワークを構成したモデルであり、入力情報を発火非発火のパターンとして与えて伝播計算すると、出力情報としての発火非発火のパターンを得ることができる。ロボット装置101の内部状態や外部状態に関する種々の情報のそれぞれをノードに割り当て、ベイジアンネットワークの伝播計算をすることで、ロボット装置101が次に取るべき行動を決定することができる。
<Neural network>
A neural network is a well-known method in the field of artificial intelligence, and will not be described in detail. However, a neural network is a model that consists of neurons simulating the human brain, and the input information is not ignited. If the propagation calculation is given as a pattern, it is possible to obtain a non-firing pattern as output information. By assigning each of various types of information related to the internal state and external state of the
図6は、ロボット装置101が取るべき行動を選択するためのニューラルネットの一例を示す図である。
ここで、各ノードは活性値を持っている。各ノードの活性値は、たとえば、各入力ノードの活性値に係数をかけた和をシグモイド関数で0から1の値に正規化するという方法により計算することができる。ニューラルネットワークにおいても、上述したベイジアンネットワークの場合と同様、ロボット装置101の行動の中で、最も高い活性値を持った行動が選択される。
FIG. 6 is a diagram illustrating an example of a neural network for selecting an action to be taken by the
Here, each node has an activation value. The activation value of each node can be calculated, for example, by a method of normalizing the sum of the activation value of each input node by a coefficient from 0 to 1 with a sigmoid function. Also in the neural network, as in the case of the Bayesian network described above, the action having the highest activity value is selected from the actions of the
<状態遷移モデル>
状態遷移モデルとは、情報処理の分野でよく知られた方法であるため詳細な説明は省略するが、ロボットの状態を分類・列挙し、各状態の意味や挙動について定義し、状態間の遷移する条件やタイミング等を定義することで、状態遷移モデルが定義される。ここでは、ネットワークで示したものをとくに状態遷移ネットワークと呼ぶ。
<State transition model>
Since the state transition model is a well-known method in the field of information processing, detailed explanations are omitted, but the states of robots are classified and enumerated, the meaning and behavior of each state are defined, and transitions between states The state transition model is defined by defining the conditions and timing to be performed. Here, what is shown as a network is called a state transition network.
<ルールベース>
ルールベースとは、情報処理の分野でよく知られた方法であるため詳細な説明は省略するが、どういう条件のときに何を行う、というようなルールを、多数用意したものであり、データベースやif文等で実現される。
<Rule base>
The rule base is a well-known method in the field of information processing, and will not be described in detail. However, there are many rules such as what to do under what conditions. This is realized by an if sentence or the like.
<フローチャート>
フローチャートとは、情報処理の分野でよく知られた方法であるため詳細な説明は省略するが、主に手続き型言語を図で記述したものである。
<Flowchart>
Since a flowchart is a method well known in the field of information processing, detailed description thereof is omitted, but a procedural language is mainly described by diagrams.
<プログラミング言語>
プログラミング言語とは、情報処理の分野でよく知られた方法であるため詳細な説明は省略するが、手続き型言語やオブジェクト指向言語、関数型言語、論理型言語等がある。
<Programming language>
The programming language is a well-known method in the field of information processing, and thus detailed description thereof is omitted, but there are a procedural language, an object-oriented language, a functional language, a logical language, and the like.
図2に戻り、出力処理部110は、思考部105による思考過程を出力する処理を行う。出力処理部110は、行動手段111、音声出力手段112、表示手段113、および外部出力手段114を含む。出力処理部110は、思考部105における思考過程を、思考過程提示処理部106によって決定された方法にしたがって出力する。すなわち、出力処理部110は、思考過程提示処理部106の指示に基づき、行動決定部109がロボット装置101の行動を選択するまでの思考過程を提示する。思考過程(思考過程を表す情報)は、ロボットの外部状態や内部状態を示す情報や、その情報に基づく思考等をいう。なお、思考過程提示処理部106の機能については後述する。
Returning to FIG. 2, the
行動手段111は、行動決定部109により決定された行動を行う。行動手段111は、図1に示した車輪3Aや車輪3B等を駆動するアクチュエータ等により実現される。本実施の形態において、行動手段111は、ダンスをする、音楽を流す、怒る、人を探す、人に近づく等の行動を行う。
The behavior unit 111 performs the behavior determined by the
音声出力手段112は、ロボット装置101の音声を出力する。音声出力手段112は、図1に示したスピーカ12等により実現される。音声出力手段112は、行動決定部109により決定された行動に応じて音声を出力する。本実施の形態において、音声出力手段112は、あいさつをする、伝言をする、情報を伝える等の発音・発声を行う。
The
表示手段113は、情報を表示する。表示手段113は、たとえばロボット装置101に内蔵されたモニタ画面(不図示)とすることができる。また、表示手段113は、図1に示した投影部15により構成することもできる。投影部15からスクリーンに向けて、情報を投影することができる。本実施の形態において、表示手段113は、設定画面を表示する、ロボットの見ている画像を表示する等の表示を行う。
The display means 113 displays information. The display means 113 can be a monitor screen (not shown) built in the
外部出力手段114は、情報を外部の端末に出力する。外部の端末は、たとえばテレビ等の表示装置や、音声出力装置、他のロボット装置、携帯型端末等とすることができる。
The
思考過程提示処理部106は、ロボット装置101の思考過程の出力方法を決定し、当該思考過程を出力処理部110に提示させる処理を行う。出力方法としては、行動・発声・表示等がある。思考過程提示処理部106は、出力処理部110を構成する一または二以上の各手段を選択し、選択した手段に対して思考過程を出力するよう指示する。
ここで、ロボット装置101の思考過程とは、たとえば、思考部105におけるロボット装置101の行動を決定する過程、ロボット装置101の内部状態や外部状態等である。思考過程提示処理部106は、ロボット装置101の思考過程を提示する手段、タイミング、内容等を管理する。
思考過程提示処理部106は、外部状態管理部103によって一時的に保有された外部状態に関する情報(外部情報)や、内部状態記憶部107に記憶された内部状態に関する情報(内部情報)等を参照し、これらに基づいて思考過程の出力方法を決定する。これにより、状況に応じて適切な出力方法が選択されるので、ロボットとユーザとの間のコミュニケーションをより一層良好なものとすることができる。
思考過程提示処理部106による思考過程の提示に関しては、種々の態様をとることができる。以下はその例示である。
(i)外部情報は、周囲の環境の騒がしさに関する情報を含み、思考過程提示処理部106は、騒がしさに関する情報を考慮し、周囲が騒がしければ画面表示を出力方法とし、周囲が静かであれば発声または発音を出力方法とする。
(ii)外部情報は、画像を投影し得る箇所の存否に関する情報を含み、思考過程提示処理部106は、画像を投影する箇所が存在するとき、箇所への画面表示を出力方法とする。たとえば、スクリーン投影できる場所があれば、スクリーン投影を行う等である。
(iii)外部情報は、ユーザの年齢層に関する情報を含み、思考過程提示処理部106は、ユーザの年齢層を考慮して出力方法を決定する。たとえばユーザが子供であれば、子供に理解できる提示形態とする。
The thought process
Here, the thinking process of the
The thought process
Regarding the presentation of the thought process by the thought process
(i) The external information includes information related to the noise of the surrounding environment, and the thought process
(ii) The external information includes information regarding the presence / absence of a location where an image can be projected, and the thinking process
(iii) External information includes information related to the user's age group, and the thought process
以下に、思考過程提示処理部106の処理を説明する。
Below, the process of the thought process
<手段>
ロボット装置101の思考過程を提示する方法としては、たとえば音声出力や画面表示等がある。
<Means>
Examples of a method for presenting the thinking process of the
思考過程提示処理部106は、音声出力手段112や外部出力手段114を介して接続された音声出力装置等にロボット装置101の思考過程を音声出力させることができる。この際、思考過程提示処理部106は、ロボット装置101の思考過程と、通常のロボット装置101の発話とを区別するために、音声出力手段112に、ロボット装置101の声とは異なる第三者の声でロボット装置101の思考過程を音声出力させる。
The thought process
思考過程提示処理部106は、表示手段113や、外部出力手段114を介して接続された表示装置等にロボット装置101の思考過程を画面表示させることもできる。
The thinking process
画面表示の例としては、グラフ構造、テキスト、表、時系列チャート、カメラ画像、ロボット図等がある。これらの詳細は後述する。 Examples of screen displays include graph structures, text, tables, time series charts, camera images, robot diagrams, and the like. Details of these will be described later.
また、思考過程提示処理部106は、ロボットの思考過程を、音声出力と画面表示の組合せで提示させることもできる。
The thinking process
<タイミング>
思考過程提示処理部106は、ロボット装置101の思考過程を、たとえばユーザの指示に基づき提示することができる。思考過程提示処理部106は、たとえば、ユーザが「どうして××しているの?」とか「何を考えているの?」等の問いかけをした場合に、ロボット装置101の思考過程を提示する。この場合、外部状態入力部102の一つである音声認識マイク13(図1参照)等によりユーザの声が音声波形情報として入力される。外部状態管理部103は、外部状態入力部102が入力した音声波形情報に基づき、ユーザから思考の提示指示があったことを認識する。外部状態管理部103は、ユーザからの指示を思考過程提示処理部106に通知する。思考過程提示処理部106は、外部状態管理部103からの通知に基づき、思考部105からロボット装置101の思考過程を取得し、出力処理部110に提示させる。
<Timing>
The thought process
また、思考過程提示処理部106は、常時ロボット装置101の思考過程を出力処理部110に提示させておくこともできる。ユーザは、ロボット装置101の思考過程を常時提示させておく設定を予めしておくことができる。また、思考過程提示処理部106は、所定のタイミングでロボット装置101の思考過程を出力処理部110に提示させることもできる。ここで、所定のタイミングとは、イベント発生時、行動選択時、行動実行時、定期的等である。
Further, the thinking process
イベント発生時とは、たとえば、所定のボタンを押された、バッテリが規定の残量より少なくなった、食欲が閾値を超えた、物音がした、人を見つけた等の、ロボット装置101の外部状態や内部状態が変化したときとすることができる。 When an event occurs, for example, when a predetermined button is pressed, the battery is less than a specified remaining amount, the appetite exceeds a threshold, a noise is heard, a person is found, etc. It can be when the state or internal state changes.
行動選択時とは、思考部105がロボット装置101が次に取るべき行動を決定しているときのことである。思考過程提示処理部106は、思考部105が、ロボット装置101が次に取るべき行動としてたとえば「ダンスをする」という行動を決定した段階で、ロボット装置101の思考過程を提示させることができる。
The action selection time is when the thinking unit 105 determines the action that the
行動実行時とは、ロボット装置101が、思考部105により決定された行動を実行しているときのことである。思考過程提示処理部106は、たとえばロボット装置101が実際にダンスをしている間に、ロボット装置101の思考過程を提示させることができる。
The action execution time is when the
また、思考過程提示処理部106は、イベント発生等に関係なく、たとえば所定間隔でロボット装置101の思考過程を提示させることもできる。また、思考過程提示処理部106は、所定間隔ではなく、状況に応じて間隔を変えたり、フラクタルや乱数等によって不確定な間隔でロボット装置101の思考過程を提示させてもよい。
The thinking process
<内容>
思考過程提示処理部106は、ロボットの思考過程が多段にわたるときに、そのうちの一段階ずつを提示させてもよく、まとめて提示させてもよい。
<Contents>
The thinking process
また、思考過程提示処理部106は、外部状態管理部103が取得したロボット装置101の外部状態等に応じて、どの手段でロボット装置101の思考過程を提示するかや、どのような内容を提示するかを判断することができる。たとえば、外部状態管理部103が、ユーザが子供であることを認識した場合、思考過程提示処理部106は、音声出力させたり、わかりやすい表現で思考過程を出力させるようにすることができる。また、周囲がうるさい場合、思考過程提示処理部106は、思考過程を画面表示させるようにすることができる。一方、周囲が静かな場合、思考過程提示処理部106は、思考過程を音声出力させるようにすることができる。また、たとえば外部状態管理部103が、無地の壁等スクリーンになり得るようなものを周囲に認識した場合、思考過程提示処理部106は、ロボット装置101の投影部15により、スクリーンに思考過程を提示させるようにすることもできる。
Further, the thinking process
図17は、ロボット装置101の思考過程を提示する処理手順を示すフローチャートである。
ユーザから思考過程の提示指示があったり、何らかのイベントが発声したり、常時思考過程を提示するよう設定されている場合(S100のYES)、外部状態管理部103は、外部状態入力部102が入力した外部状態を認識する(S102)。思考過程提示処理部106は、外部状態入力部102が認識した外部状態に応じて、提示内容と提示手段を決定する(S104)。具体的には、思考過程提示処理部106は、ロボット装置101の思考過程を提示する対象のユーザの種類、周囲の環境等に応じて、提示内容と提示手段を決定する。つづいて、思考過程提示処理部106は、ステップS104で決定した思考過程の内容を所定の手段に提示させる(S106)。つづいて、この提示を終了するか否かを判断し(S108)、提示を終了する場合(S108のYES)は、ステップS100に戻り、次の提示のタイミングを待つこの処理を終了する。
FIG. 17 is a flowchart illustrating a processing procedure for presenting the thinking process of the
When an instruction to present a thought process is given from the user, a certain event is uttered, or a setting is made to always present a thought process (YES in S100), the external state input unit 102 inputs the external
以下に、出力処理部110に提示されるロボット装置101の思考過程の例を示す。
(例1)画面表示:グラフ構造
グラフ構造とは、ノードとエッジ(またはリンク)からなる構造である。
グラフ構造でロボット装置101の思考過程を提示する場合は、UML(Unified Modeling Language:統一モデリング言語)のアクティビティ図、UMLのクラス図、UMLのステートチャート図、UMLのシーケンス図、UMLのコラボレーション図、リンクのないノードのみの図等で示すことができる。UMLは情報処理の分野でよく知られた方法であるため、ここでは簡単な説明のみ行う。
Hereinafter, an example of the thinking process of the
(Example 1) Screen display: graph structure The graph structure is a structure composed of nodes and edges (or links).
When presenting the thinking process of the
UMLのアクティビティ図とは、アクティビティのフローを表現するための図で、システムの動的側面を具体的に記述するときに使用される。フローチャートやデータフロー図はアクティビティ図の一種である。ロボット装置101の思考過程を提示する際には、ニューラルネットワークやベイジアンネットワークもこの図を用いて表現することができる。
The UML activity diagram is a diagram for representing the flow of activity, and is used when the dynamic aspects of the system are specifically described. A flowchart or data flow diagram is a kind of activity diagram. When presenting the thinking process of the
上述した図5は、ベイジアンネットワークのそれぞれの事象をそれぞれノードに割り当て、事象に依存関係のあるものをエッジで関連付けることにより、ベイジアンネットワークをグラフとして表現したものである。図5を参照すると、四角がそれぞれノードであり、ノードを結ぶ線がエッジである。厳密には、この図ではエッジが矢印になっているので、有向グラフに分類される。ここでは、ロボット装置101が次に取るべき行動として「ダンスをする」が選択されているが、この行動が選択されたロボット装置101の思考過程が強調表示されている。
FIG. 5 described above represents the Bayesian network as a graph by assigning each event of the Bayesian network to each node and associating the events having a dependency relationship with the edges. Referring to FIG. 5, each square is a node, and a line connecting the nodes is an edge. Strictly speaking, since the edge is an arrow in this figure, it is classified into a directed graph. Here, “dancing” is selected as the action to be taken next by the
ロボット装置101の思考過程をわかりやすく表示するためには、各ノードの確率値に応じて、色を協調表示させたり、値の高いノードのみを残すようにフィルタする等の処理を行うことができる。以下に、ロボット装置101の思考過程を画面表示で提示する場合の強調提示方法を例示する。拡大表示で強調提示する方法、枠の表示で強調提示する方法、枠を目立たせて強調提示する方法、リンクの線を目立たせて強調提示する方法、注釈をつけて強調提示する方法、がある。
In order to display the thinking process of the
(a)色の変化で強調提示する:たとえば、通常白で表示されるところを強調部分だけ赤で表示する、通常薄い青で表示されるところを強調部分だけ濃い青で表示する、通常白で表示されるところを強調部分だけ赤→青→緑→赤というように頻繁に色を変えて表示する、等の処理を行う。 (A) Emphasize presentation by color change: For example, the portion that is usually displayed in white is displayed in red only in the emphasized portion, the portion that is usually displayed in light blue is displayed in dark blue only in the emphasized portion, usually in white Only the highlighted part is displayed in a red, blue, green, red, and so on.
(b)点滅で強調提示する:たとえば、通常点灯で表示されるところを強調部分だけ点滅で表示する、通常消灯で表示されるところを強調部分だけ点滅で表示する、通常ゆっくり点滅で表示されるところを強調部分だけ早い点滅で表示する、等の処理を行う。 (B) Emphasize by blinking: For example, the part that is normally lit is displayed with only the highlighted part blinking, the part that is normally displayed with the unlit part blinks only, and the part that is normally highlighted is blinking. However, processing such as displaying only the highlighted portion with a fast blink is performed.
(c)明度の変化で強調提示する:たとえば、通常明度が10の明るさで表示されるところを強調部分だけ明度20の明るさで表示する、強調部分だけ明度を10から20の間で明るくしたり暗くしたりを繰り返す、等の処理を行う。 (C) Emphasize presentation with a change in brightness: For example, a place where normal brightness is displayed at a brightness of 10 is displayed only at an emphasized portion at a brightness of 20 brightness, and only the emphasized portion is brightened between 10 and 20 Repeat the process of darkening or darkening.
(d)表示非表示の変化で強調提示する:たとえば、強調提示したい部分のみを表示しそれ以外の部分を非表示にする、強調提示したい部分のみを表示しそれ以外の部分を非表示にしたあと、表示されているものを画面のサイズに合わせて表示する、等のように、強調提示する部分を残してフィルタをかける処理を行う。 (D) Emphasize presentation by change of display non-display: For example, only the part to be emphasized is displayed and the other part is hidden, only the part to be emphasized is displayed and the other part is not displayed After that, a process of applying a filter is performed while leaving a portion to be highlighted and displayed, such as displaying the displayed item in accordance with the size of the screen.
(e)拡大表示で強調提示する:たとえば、強調提示したい部分を拡大表示しそれ以外の部分を縮小表示する、強調提示したい部分を中心に拡大表示しそれ以外の部分が画面の外に消えて表示される、強調提示したい部分を詳細表示しそれ以外の部分を概要表示する、等のように、強調提示する部分をズームする処理を行う。
(f)枠の表示で強調提示する:たとえば、強調提示したい部分を囲う枠を表示する等により、強調提示する部分をマーキングする処理を行う。
(E) Enhancing and presenting in an enlarged display: For example, an enlarged part to be emphasized is displayed and the other parts are reduced and displayed, an enlarged display is performed around the part to be emphasized and the other parts disappear from the screen. The process of zooming the portion to be highlighted is performed, such as displaying in detail the portion to be highlighted and displaying the other portion in outline.
(F) Emphasizing by displaying the frame: For example, a process of marking the portion to be emphasized is performed by displaying a frame surrounding the portion to be emphasized.
(g)枠を目立たせて強調提示する:たとえば、強調提示したい部分の枠をより目立たせるように色を変えたり太さを変えて表示する、とくにグラフ表示であれば、ノードの周りの枠を目立たせるように色を変えたり太さを変えて表示する、等のように、強調提示する部分を目立たせる処理を行う。 (G) Highlight the frame and highlight it: for example, change the color or thickness so that the frame of the part you want to emphasize and highlight is displayed, especially if it is a graph display, the frame around the node The process of making the highlighted part stand out, such as changing the color or changing the thickness so as to make it stand out, is performed.
(h)リンクの線を目立たせて強調提示する:たとえば、強調提示したい線をより目立たせるように色を変えたり太さを変えて表示する、データの流れにそって色を流れているように変化させて表示する、等のように、強調提示する部分を目立たせる処理を行う。 (H) Emphasize and highlight the link line: For example, the color is changed according to the data flow so that the line to be emphasized is displayed more prominently or with different thickness. The process of making the highlighted part stand out, such as changing the display to, etc., is performed.
(i)注釈をつけて強調提示する:たとえば、強調提示したい部分をさすようにテキストを表示する、あるいは、強調提示したい部分に星型のような目立つ形を表示する、等のように、強調提示する部分をマーキングする処理を行う。 (I) Annotate with emphasis: For example, display text to point to the part you want to emphasize, or display a star-like shape on the part you want to emphasize Process to mark the part to be presented.
以上で説明した各種の強調処理は、以下の他の画面表示の例にも適用可能である。また、強調提示させる部分は、たとえば、該当箇所、該当箇所に関連する箇所、該当箇所までの経路とすることができる。グラフ構造の場合、該当箇所はノード、該当箇所に関連する箇所は、該当ノードに結ばれている関連ノードやその関連ノードに結ばれている関連ノード等、該当箇所までの経路は、該当ノードに結ばれている関連ノードやその関連ノードに結ばれている関連ノード、およびノード間を結んでいる関連エッジである。このとき、たとえば、エッジの向きを考慮して、流れるように色を変化させることで、思考経路の向きを強調提示することもできる。 The various emphasis processes described above can be applied to the following other screen display examples. Moreover, the part to be highlighted can be, for example, a corresponding part, a part related to the corresponding part, and a route to the corresponding part. In the case of a graph structure, the corresponding part is a node, the part related to the relevant part is a related node connected to the relevant node or a related node connected to the relevant node, etc. The related nodes connected to each other, the related nodes connected to the related nodes, and the related edges connecting the nodes. At this time, for example, the direction of the thought path can be emphasized by changing the color so as to flow in consideration of the direction of the edge.
UMLのクラス図とは、主にオブジェクト指向クラス間の構造を表現するための図で、クラス、インタフェースとそれらの関係から構成される。カテゴライズ階層関係を持つロボットモデル等は、この図を用いて表現できる。 The UML class diagram is a diagram for mainly expressing the structure between object-oriented classes, and is composed of classes, interfaces, and their relationships. A robot model or the like having a categorized hierarchical relationship can be expressed using this diagram.
図7は、ロボット装置101の思考過程をクラス図で示す図である。ここでは、ノードとして、「入力」、「音声認識」、「画像認識」、「命令」、「あいさつ」、「人物検出」、「人物識別」、「伝言」、「ゲーム」、「ニュース」、「出力」、「対話」、「自律」、「機能」、「あいさつ」、「人を探す」、「散歩する」「伝言」、「ゲーム」、「ニュース」、が用意されており、階層関係がエッジで示されている。この図では、たとえば、「入力」には「音声認識」と「画像認識」が、「音声認識」には「命令」と「あいさつ」が、「命令」には「伝言」と「ゲーム」と「ニュース」がそれぞれ含まれる。このようなクラス図をロボット装置101の思考過程の提示に用いることによって、提示に必要な情報の抽象化を行うことができる。
FIG. 7 is a diagram illustrating the thinking process of the
たとえば、ユーザが「伝言して」と発話し、ロボット装置101がその音声を認識した場合、思考過程提示処理部106は、「伝言」を強調表示することができる。このとき、関連する親の階層である「命令」、「音声認識」、「入力」も同時に強調表示することにより、ロボット装置101の思考過程を把握することができる。
For example, when the user speaks “message” and the
UMLのステートチャート図とは、いわゆる状態遷移図であり、状態の遷移を表現するために使用される。状態遷移型のロボットモデル等は、この図を用いて表現できる。 The UML state chart diagram is a so-called state transition diagram, and is used to express a state transition. A state transition type robot model or the like can be expressed using this diagram.
図8は、ロボット装置101の思考過程をステートチャート図で示す図である。ここでは、ノードとして、「御用聞きモード」、「お散歩モード」、「伝言モード」、「遊びモード」、「人探しモード」のような状態が用意されており、状態の遷移関係がエッジで示されている。この図では、ロボット装置101が、たとえば、「御用聞きモード」状態で「伝言して」という音声を認識すると「伝言モード」状態に遷移し、「人探しモード」状態で人物検出すると「御用聞きモード」に遷移することが示されている。このように、全体のトポロジーを地図のように表示した上で、ロボット装置101の現在状態を強調表示することによって、ユーザがロボット装置101の現在の状態を把握することができ、ロボット装置101をある状態にしたい場合にどのようにロボット装置101に接していけばよいかの指針とすることができる。
FIG. 8 is a diagram showing a thinking process of the
UMLのシーケンス図とは、オブジェクト間を流れるメッセージのシーケンスを表現する図であり、オブジェクト間のインタラクションを時間的な観点で表現するために使用される。 The UML sequence diagram is a diagram representing a sequence of messages flowing between objects, and is used to represent an interaction between objects from a temporal viewpoint.
UMLのコラボレーション図とは、オブジェクト間のインタラクションを空間的な観点で表現するために使用される。ロボット以外の構成要素を持つ分散環境で用いられるロボットや、ロボット内部の並列動作処理を行うロボットのロボットモデルは、この図を用いて表現できる。 The UML collaboration diagram is used to express the interaction between objects from a spatial viewpoint. A robot model used in a distributed environment having components other than the robot and a robot that performs parallel operation processing inside the robot can be expressed using this diagram.
また、リンクのないノードのみの図でも、ロボットモデルを表現することができる。たとえば、論理型言語で記述されたロボットについて、論理式をノードとして割り当て、エッジを使わなくてもよい。このような場合、発火している論理式のみを表示したり強調表示したりすることによって、ロボットの思考過程を提示することができる。 Moreover, a robot model can be expressed even in a diagram with only nodes without links. For example, for a robot described in a logical language, a logical expression may be assigned as a node and an edge may not be used. In such a case, the thought process of the robot can be presented by displaying or highlighting only the igniting logical expression.
(例2)画面表示:テキスト
テキストとは、文字である。テキストで思考過程を提示する場合は、音声認識結果やセンサ結果等のイベントの詳細を大量に表示したり、要点のみを表示したりする方法がある。
(Example 2) Screen display: Text Text is a character. When presenting a thought process in text, there are methods of displaying a large amount of details of events such as speech recognition results and sensor results, or displaying only the main points.
(例3)画面表示:表
表とは行と列からなるセルの集合であり、たとえば、ロボットの思考ルールを表にまとめることで、テキストのみの場合よりも一覧性をあげることができる。現在の状態に対応するセルを強調表示することによって、文脈を提示する際の補助となる。
(Example 3) Screen display: table A table is a set of cells composed of rows and columns. For example, by summarizing the robot's thinking rules in a table, the list can be improved as compared with the case of text alone. Highlighting the cell corresponding to the current state helps in presenting the context.
(例4)画面表示:時系列チャート
時系列チャートとは、時間の流れに沿って、動作の有無や動作の種類をマッピングしたものである。図9は、時系列チャートを示す図である。ここでは、動作の種類として、「頭の向き」、「右足」、「左足」、「口LED」、「頬LED」、「音声」が用意されており、横軸に時間軸が配置されており、太線か細線かで、動作の有無を表現している。縦線は現在の時間を意味しており、時間の経過にしたがって右にずれていく。時系列チャートで思考過程を提示する場合は、さらに、稼動中の動作を強調表示したり、過去や将来の動作の有無や特性を太さや色で表示することができる。
(Example 4) Screen display: time-series chart A time-series chart is obtained by mapping the presence or absence of an operation and the type of operation along the flow of time. FIG. 9 is a diagram showing a time series chart. Here, “head orientation”, “right foot”, “left foot”, “mouth LED”, “cheek LED”, and “voice” are prepared as types of motion, and a time axis is arranged on the horizontal axis. The presence or absence of motion is expressed by a thick line or a thin line. The vertical line means the current time, and shifts to the right as time passes. When presenting a thought process in a time-series chart, it is possible to highlight an operation that is in operation, and to display the presence and characteristics of past and future operations in thickness and color.
(例5)画面表示:カメラ画像
カメラ画像とは、CCDカメラ21AやCCDカメラ21Bで撮像した画像である。図10は、ロボット装置101の思考過程をカメラ画像で示す図である。ここでは、画面の左側にカメラ画像が、右側にテキストが表示されている。テキストには、ユーザの発話の音声認識結果が示されている。カメラ画像には、CCDカメラ21AやCCDカメラ21Bが取得した画像とともに、その画像の認識結果や、認識した結果に対する内部状態を示す情報がテキストで表示されている。画像の認識結果として「人物名:あっちゃん」、「好感度:高い」であることが示されている。また、音声の認識結果として、「こんにちは」と「ダンスして」であることが示されている。
(Example 5) Screen display: camera image A camera image is an image captured by the
カメラ画像で思考過程を提示する場合は、このように、カメラ画像とともに、ロボット装置101の認識結果やその認識結果に対する内部状態を示す情報とを提示することが好ましい。
When presenting a thought process with a camera image, it is preferable to present a recognition result of the
(例6)画面表示:ロボット図
ロボット図とは、ロボットの外見図や設計図、部分構成図等であり、静止画であっても動画であってもよい。図11は、ロボット装置101の思考過程をロボット図で示す図である。ロボット図を中心に配置し、その脇に各部分の説明を表示し、その状態を表示している。たとえばこのロボットは、「頭スイッチ(頭叩かれ検出スイッチ)」、「音声認識マイク」、「カメラ」、「口・頬・耳・目LED」、「頭スイッチ(頭撫で検出センサ)」、「音源検出マイク」、「スピーカ」、「超音波センサ」、「段差センサ」、「車輪」、「リモコン送信」、のような部品から構成され、それぞれの部分を指し示している。また、その状態を「On」、「Off」、「Activate」のように示している。
(Example 6) Screen display: robot diagram A robot diagram is an appearance diagram, a design diagram, a partial configuration diagram, or the like of a robot, and may be a still image or a moving image. FIG. 11 is a diagram illustrating the thinking process of the
ロボット図で思考過程を提示する場合は、さらに、注目すべき場所を強調表示することによって、ユーザに理解を促す。たとえば、ここでは爆発形の印をつけることによって、注目すべき点を強調表示している。強調表示の方法は、このようにテキスト側につける方法と、ロボット図の中につける方法があり、ロボット図の中につける場合は、対応する部分の色を変えたり、対応する部分を四角等の目印で囲んだりすることによって、強調表示を行える。たとえば、右超音波センサで障害物を検出したことが原因でロボット装置101が何らか行動を行っている場合は、右超音波センサを強調提示することができる。また、周囲の音がうるさくて声が聞き取れない等の場合に、耳のランプを点滅させるようにすることができる。
When presenting a thought process with a robot diagram, the user is further understood by highlighting a place to be noted. For example, here, a point of interest is highlighted by marking an explosion. There are two methods of highlighting: attaching to the text side and attaching to the robot diagram. When attaching to the robot diagram, change the color of the corresponding part or change the corresponding part to a square, etc. Highlighting can be performed by surrounding with a mark. For example, when the
(例7)画面表示:組合せ
図12は、上述した画像表示方法を組み合わせて示す図である。ここでは、カメラ画像、ロボット図、グラフ構造、時系列チャートが一画面に表示されている。このように複数の表示方法を組み合わせることにより、多くの情報をわかりやすくユーザに提供することができる。
(Example 7) Screen display: combination FIG. 12 is a diagram showing a combination of the above-described image display methods. Here, a camera image, a robot diagram, a graph structure, and a time series chart are displayed on one screen. By combining a plurality of display methods in this way, a large amount of information can be provided to the user in an easy-to-understand manner.
(例8)画面表示:投影
図13は、ロボット装置101の投影部15からスクリーン200に向けて、ロボット装置101の思考過程を示す画像201を投影させる例を模式的に示す図である。ここで、スクリーン200としては、無地の壁等を用いることができる。思考過程提示処理部106は、画像を投影できるスクリーンを検出すると、投影部15にそのスクリーンに向けて、ロボット装置101の思考過程を示す画像を表示させることができる。
(Example 8) Screen Display: Projection FIG. 13 is a diagram schematically illustrating an example in which an
(例9)音声出力
たとえば、ロボット装置101がユーザに「遊んで」といった場合に、ユーザが「忙しいから後でね」等の応答をすると、内部状態記憶部107のロボット装置101の感情情報が書き換えられる。思考過程提示処理部106は、たとえば音声出力手段112に、ロボット装置101の通常の声とは異なる声で「かまってもらえないので機嫌が悪くなりました」という音声を出力させる。これにより、ユーザは、ロボット装置101の機嫌が悪くなったことを把握することができる。また、思考過程提示処理部106は、このとき、ロボット装置101がユーザにして欲しかったことをよりよく示すために、「頭ボタンを押して欲しいと思っていたようです」等の音声を出力させることができる。また、頭のランプを点滅させることにより、頭ボタンを押してかまってもらいたかったということを示すこともできる。これにより、ユーザが次回から、どのようにすればロボット装置101が喜ぶかを把握することができ、ユーザとロボット装置101とのコミュニケーションを促すことができる。
(Example 9) Voice output For example, when the
(例10)音声出力
たとえば、ロボット装置101が踊っている場合に、ユーザが「上手だね」と褒めた場合、ロボット装置101はユーザに褒められたことを認識すると、内部状態記憶部107の性格タイプ情報の「ダンス好き」の「ダンスが好き」に対応づけられた数値が高まる。このとき、思考過程提示処理部106は、たとえば音声出力手段112に、ロボット装置101の通常の声とは異なる声で「ダンスがいっそう好きになりました」という音声を出力させる。これにより、ユーザは、ダンスを褒めることにより、ロボット装置101がダンス好きになるということを把握することができる。
(Example 10) Audio output For example, when the
(例11)音声出力
また、たとえばユーザから「伝言して」と依頼された場合、ロボット装置101が伝言が好きな場合は、たとえば「ピポピポ音」等、うれしいことを示す音声を出力することができる。このとき、思考過程提示処理部106は、ロボット装置101の通常の声とは異なる声で「喜んでいます」等の音声を出力させる。これにより、ユーザは、ロボット装置101が喜んでいること、およびロボット装置101が喜んだときにピポピポ音が出力させることを把握することができる。これにより、次回からは、「喜んでいます」という音声の出力がなくても、ロボット装置101が伝言を頼まれて喜んでいることを把握することができる。思考過程提示処理部106は、ユーザを認識して、過去にそのユーザに説明を行ったか否かを判断して、過去に説明をしていないユーザの場合にのみ、「喜んでいます」という音声を出力するようにすることができる。
(Example 11) Voice output For example, when the user requests “message”, and the
(例12)履歴
行動決定部109は、内部状態記憶部107に記憶されたユーザの過去の履歴を考慮して、ロボット装置101の次の行動を決定することができる。たとえば、外部状態管理部103が、ユーザを認識すると、内部状態取得部108は、内部状態記憶部107からそのユーザが過去にロボット装置101に対して話しかけた内容や、ロボット装置101と行った行動等の履歴を読み出す。行動決定部109は、内部状態取得部108が読み出した情報に基づき、ロボット装置101の行動を決定し、ロボット装置101に行動させる。思考過程提示処理部106は、これら一連の処理手順の過程をロボット装置101の思考過程として提示させる。
(Example 12) History The
図14は、ロボット装置101がダンスをしている場合に、思考過程提示処理部106により提示されるロボット装置101の思考過程の一例を示す画面である。
ここでは、外部状態の認識結果としてユーザが「あっちゃん」で、発話がないことが示されている。「あっちゃん」に関する内部状態の履歴として、「ダンスを踊ったら褒めてくれた」という情報が示されている。これらの外部状態と内部状態とに基づき、思考部105は、「また褒めて欲しい」という感想を持ち、「ダンスを踊ったらまた褒めてくれる」という予想をした結果、ロボット装置101に「ダンスを踊る」という行動を実行させる。これらの情報がユーザに提示されるので、ユーザはロボットの感想や予想を知ることができ、たとえばまたロボット装置101を褒めることができる。これにより、ロボット装置101の「あっちゃん」に対する好感度があがり、ユーザとロボットとの関係を良好にすることができる。
FIG. 14 is a screen showing an example of a thought process of the
Here, the recognition result of the external state indicates that the user is “Achan” and there is no utterance. As the history of the internal state of “Achan”, the information “I gave up after dancing” is shown. Based on these external state and internal state, the thinking unit 105 has an impression that “I want you to give up again”. The action of “dancing” is executed. Since these pieces of information are presented to the user, the user can know the impression and expectation of the robot, for example, can give up the
図15は、ロボット装置101がユーザに「1チャンネルつけてもいい?」と問いかけた場合に、思考過程提示処理部106により提示されるロボット装置101の思考過程の一例を示す画面である。
ここでは、外部状態の認識結果としてユーザが「あっちゃん」で、発話がないこと、および現在の時刻が日曜日の20時55分であることが示されている。また、「あっちゃん」に関する内部状態の履歴として、「よく日曜日の21時から1チャンネルのテレビを見ている」という情報が示されている。これらの外部状態と内部状態とに基づき、思考部105は、「きっと今日もテレビを見る」という予想をした結果、ロボット装置101に「1チャンネルつけてもいい?」と発話させる。これらの情報がユーザに提示されるので、ユーザはロボットがどうしてそのような発話をしたのかの原因を知ることができ、ユーザとロボット装置101との関係を良好にすることができる。
FIG. 15 is a screen showing an example of the thought process of the
Here, the recognition result of the external state indicates that the user is “Achan”, there is no utterance, and the current time is 20:55 on Sunday. In addition, as the history of the internal state regarding “Achan”, information that “I often watch TV of 1 channel from 21:00 on Sunday” is shown. Based on these external state and internal state, the thinking unit 105 causes the
図16は、ロボット装置101がユーザに「神経衰弱ゲームやろうよ」と問いかけた場合に、思考過程提示処理部106により提示されるロボット装置101の思考過程の一例を示す画面である。
FIG. 16 is a screen showing an example of the thinking process of the
ここでは、外部状態の認識結果としてユーザが「あっちゃん」で、発話がないことが示されている。また、「あっちゃん」に関する内部状態の履歴として、「昨日神経衰弱ゲームに負けた」という情報が示されている。これらの外部状態と内部状態とに基づき、思考部105は、「悔しい、もう一度やりたい」という感想を持った結果、ロボット装置101に「神経衰弱ゲームやろうよ」と発話させる。これにより、ユーザはロボット装置101の感情を知ることができ、ロボット装置101に親しみを持つことができる。
Here, the recognition result of the external state indicates that the user is “Achan” and there is no utterance. In addition, as the history of the internal state regarding “Achan”, information that “I lost the nerve weakness game yesterday” is shown. Based on the external state and the internal state, the thinking unit 105 causes the
(例13)ロボット装置101が応答しない場合
ロボット装置101は、ユーザを認識したり、ユーザからの指示を認識することにより、それに応じた行動を行うよう設定されている。しかし、ユーザが認識できなかったり、ユーザからの指示を認識できない場合、ユーザが何か指示をしても、ロボット装置101が応答しないこともある。このような場合、ユーザはロボット装置101がどうして応答しないのか把握することができず、面倒に感じてしまうことがある。思考過程提示処理部106は、外部状態管理部103の認識結果や、内部状態取得部108が読み出した内部状態に関する情報等をロボット装置101の思考過程として提示させる。
(Example 13) When the
たとえば、ユーザが「時間を教えて」とロボット装置101に問いかけてもロボット装置101が応答しない場合、思考過程提示処理部106は、外部状態管理部103が認識した音声等を画面表示させる。
For example, when the
たとえば、「認識結果:「じかがいて」、音声レベルOK、対応する言葉がない」という情報が表示された場合、ユーザは、ロボット装置101が「じかんをおしえて」という言葉を正しく認識していないためにロボット装置101が応答しないということを把握することができる。また、音声レベルはOKとなっているので、声の大きさはいいが、しゃべり方が悪いと言うことも把握でき、次にはっきりとした口調で「時間を教えて」と言い直すことにより、ロボット装置101が応答するだろうということを予想することができる。
For example, when the information “recognition result:“ it is right ”, the voice level is OK, and there is no corresponding word” is displayed, the user correctly recognizes the word “please tell me”. Therefore, it can be understood that the
また、「認識結果:「じかがいて」、音声レベル低、対応する言葉がない」という情報が表示された場合、ユーザは、ロボット装置101が「じかんをおしえて」という言葉を正しく認識していないこと、声が小さかったこと等を把握することができ、次に大きい声ではっきりとした口調で「時間を教えて」と言い直すことにより、ロボット装置101が応答するだろうということを予想することができる。
In addition, when the information “Recognition result:“ Jigakute ”, voice level is low, and there is no corresponding word” is displayed, the user correctly recognizes the word “Give me the word”. The
また、「認識結果:「じかんをおしえて」、音声レベルOK、対応する言葉がない」という情報が表示された場合、ユーザは、ロボット装置101に時間を教える機能がないということを把握することができる。
In addition, when the information “Recognition result:“ Give me a message ”, voice level OK, no corresponding word” is displayed, the user understands that the
このようにすれば、ロボット装置101が応答しない場合に、ロボット装置101がユーザの音声を正しく認識していないために応答しないのか、ロボット装置101に機能がないためにロボット装置101が応答しないのか等を把握することができ、ロボット装置101が応答しない場合でも、次に有効な対処を行うことができる。
In this way, when the
また、たとえば、ユーザが「私の名前を呼んで」と言ってもロボットが応答してくれない場合に、思考過程提示処理部106は、外部状態管理部103が認識した音声、外部状態管理部103が認識したユーザに関する情報、内部状態記憶部107の情報等を画面表示させる。
In addition, for example, when the user says “call my name” and the robot does not respond, the thought process
たとえば、「音声認識「わたしのなまえをよんで」、画像認識「該当する顔画像データなし」」という情報が表示された場合、ユーザは、ロボット装置101が「わたしのなまえをよんで」という言葉を正しく認識したが、自分の顔画像データが照合されていないためにロボット装置101が応答しないということを把握することができる。この場合、ユーザは、ロボット装置101に、「ぼくの名前はタロウだよ、顔と名前を登録して」等の指示を問いかけたり、「ぼくは登録されているはずだよ、もう一度よく見て」等の問いかけを行うことができる。
For example, when the information “speech recognition“ call my name ”, image recognition“ no corresponding face image data ”” is displayed, the user says that the
また、たとえば、「音声認識「わたしのなまえをよんで」、画像認識「該当する顔画像データあり」、名前の登録なし」という情報が表示された場合、ユーザは、ロボット装置101が「わたしのなまえをよんで」という言葉を正しく認識しており、自分の顔画像データも照合されたが、名前が登録されていないためにロボット装置101が応答しないということを把握することができる。この場合、ユーザは、ロボットに、「ぼくの名前はタロウだよ、登録して」等の指示を行うことができる。
Further, for example, when information such as “voice recognition“ call my name ”, image recognition“ with corresponding face image data ”, no name registered” is displayed, the user can confirm that the
また、たとえば、「音声認識「わのなまえおよ」、音声レベルOK、対応する言葉がない」という情報が表示された場合、ユーザは、ロボット装置101がユーザの指示を正しく認識できなかったために応答しないということを把握することができる。この場合、ユーザは、はっきりした口調で「なまえをよんで」と言い直すことにより、ロボット装置101が応答するだろうということを予測することができる。
Further, for example, when the information “speech recognition“ wananoname and voice level OK, no corresponding word ”is displayed, the user has not correctly recognized the user's instruction by the
以上の実施の形態で説明したロボット装置101の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。実施の形態で説明した各図は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。
Each component of the
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。 As mentioned above, although embodiment of this invention was described with reference to drawings, these are the illustrations of this invention, Various structures other than the above are also employable.
以上の実施の形態においては、図1に示したように、ロボット装置101の前面に投影部15が設けられた例を示したが、他の例において、たとえばロボット装置101の背面に投影部15を設け、ロボット装置101の背後にロボット装置101の思考過程が表示されるようにすることもできる。この場合、スクリーン検出用のCCDカメラ等をロボット装置101の背面に設けてもよい。これにより、ユーザは、ロボット装置101と向き合って対話等しながら、ロボット装置101の思考過程をスクリーンで見ることができ、ロボット装置101とのコミュニケーションを円滑に進めることができる。また、投影部15の配置場所は、適宜設定することができ、たとえば図1でCCDカメラ21AやCCDカメラ21Bが設けられている場所に投影部15を設けることもできる。
In the above embodiment, as shown in FIG. 1, an example in which the
本発明は、以下の態様も含む。
(1)行動を決定する過程を行動・発声・表示のような手段で提示する方法を管理する思考過程提示方法管理手段を備えたことを特徴とするロボット。
The present invention also includes the following aspects.
(1) A robot comprising a thought process presentation method management means for managing a method for presenting a process for determining an action by means such as action, utterance, and display.
(2)外部状態を入力する外部状態入力手段と、
前記外部状態入力手段で得られた情報を管理する外部状態管理手段と、
少なくとも前記外部状態に基づいて変化する内部状態を管理する内部状態管理手段と、
前記外部状態や内部状態の情報をもとに、行動を決定する思考手段と、
行動を決定する過程を行動・発声・表示のような手段で提示する方法を管理する思考過程提示方法管理手段と、
行動・発声・表示のようなロボット外部への出力を行うロボット出力手段と、
を備えたことを特徴とするロボット。
(2) an external state input means for inputting an external state;
External state management means for managing information obtained by the external state input means;
Internal state management means for managing an internal state that changes based on at least the external state;
A thinking means for determining an action based on the information on the external state and the internal state;
A thought process presentation method managing means for managing a method for presenting a process for determining an action by means such as action, utterance, and display;
Robot output means for outputting to the outside of the robot such as action, utterance, display,
A robot characterized by comprising
(3)前記思考過程提示方法管理手段は、
自分の声で発声する方法、第三者の声で発声する方法、効果音で発音する方法、の何れか一の方法、すなわち発音・発声、により思考過程を提示することを特徴とする上記(1)または(2)に記載のロボット。
(3) The thought process presentation method management means includes:
The method of presenting a thought process by any one of the method of uttering with one's own voice, the method of uttering with the voice of a third party, or the method of sounding with a sound effect, that is, pronunciation and utterance (above) The robot according to 1) or (2).
(4)前記思考過程提示方法管理手段は、
手や足や耳等を動かす方法、目や口等のランプを点灯させる方法、の何れか一の方法、すなわちロボット動作、により思考過程を提示することを特徴とする上記(1)または(2)に記載のロボット。
(4) The thought process presentation method management means includes:
(1) or (2), wherein the thinking process is presented by any one of a method of moving a hand, a foot, an ear, or the like, or a method of turning on a lamp such as an eye or a mouth, that is, a robot operation. The robot described in).
(5)前記思考過程提示方法管理手段は、
グラフ構造、テキスト、表、時系列チャート、カメラ画像、ロボット図、の何れか一の方法、すなわち画面表示、により思考過程を提示することを特徴とする上記(1)または(2)に記載のロボット。
(5) The thought process presentation method management means includes:
(1) or (2), wherein the thought process is presented by any one of a graph structure, text, table, time series chart, camera image, and robot diagram, that is, a screen display. robot.
(6)前記思考過程提示方法管理手段は、
前記発音・発声と前記ロボット動作とにより思考過程を提示することを特徴とする上記(1)または(2)に記載のロボット。
(6) The thought process presentation method management means includes:
The robot according to (1) or (2), wherein a thinking process is presented by the pronunciation / speech and the robot motion.
(7)前記思考過程提示方法管理手段は、
前記発音・発声と前記画面表示とにより思考過程を提示することを特徴とする上記(1)または(2)に記載のロボット。
(7) The thought process presentation method management means includes:
The robot according to (1) or (2), wherein a thinking process is presented by the pronunciation / speech and the screen display.
(8)前記思考過程提示方法管理手段は、
前記ロボット動作と前記画面表示とにより思考過程を提示することを特徴とする上記(1)または(2)に記載のロボット。
(8) The thought process presentation method management means includes:
The robot according to (1) or (2), wherein a thinking process is presented by the robot operation and the screen display.
(9)前記思考過程提示方法管理手段は、
質問されたときに思考過程を提示することを特徴とする上記(1)から(8)の何れか一に記載のロボット。
(9) The thought process presentation method management means includes:
The robot according to any one of (1) to (8) above, wherein a thinking process is presented when a question is asked.
(10)行動を決定する過程を行動・発声・表示のような手段で提示する方法を管理する手段である思考過程提示方法管理ステップ、を備えたことを特徴とするロボットの制御方法。 (10) A robot control method comprising: a thought process presentation method management step which is a means for managing a method for presenting a process for determining an action by means such as action, utterance, and display.
(11)ロボット装置が外部状態を入力する外部状態入力ステップと、
外部状態入力手段で得られた情報を管理する外部状態管理ステップと、
少なくとも外部状態に基づいて変化する内部状態を管理する内部状態管理ステップと、
外部状態や内部状態の情報をもとに、行動を決定する思考ステップと、
行動を決定する過程を行動・発声・表示のような手段で提示する方法を管理する思考過程提示方法管理ステップと、
行動・発声・表示のようなロボット外部への出力を行うロボット出力ステップと、
を備えたことを特徴とするロボットの制御方法。
(11) an external state input step in which the robot apparatus inputs an external state;
An external state management step for managing information obtained by the external state input means;
An internal state management step for managing an internal state that changes based on at least the external state;
Thinking steps that determine actions based on external and internal information,
A thought process presentation method management step for managing a method for presenting a process for determining an action by means such as action, utterance, and display;
A robot output step for outputting to the outside of the robot such as actions, utterances, and displays;
A method for controlling a robot, comprising:
(12)前記思考過程提示方法管理ステップは、
自分の声で発声する方法、第三者の声で発声する方法、効果音で発音する方法、の何れか一の方法、すなわち発音・発声、により思考過程を提示することを特徴とする上記(10)または(11)に記載のロボットの制御方法。
(12) The thought process presentation method management step includes:
The method of presenting a thought process by any one of the method of uttering with one's own voice, the method of uttering with the voice of a third party, or the method of sounding with a sound effect, that is, pronunciation and utterance (above) The robot control method according to 10) or (11).
(13)前記思考過程提示方法管理ステップは、
手や足や耳等を動かす方法、目や口等のランプを点灯させる方法、の何れか一の方法、すなわちロボット動作、により思考過程を提示することを特徴とする上記(10)または(11)に記載のロボットの制御方法。
(13) The thought process presentation method management step includes:
(10) or (11), wherein the thinking process is presented by any one of a method of moving a hand, a foot, an ear, or the like, or a method of turning on a lamp such as an eye or a mouth, that is, a robot operation. The robot control method described in (1).
(14)前記思考過程提示方法管理ステップは、グラフ構造、テキスト、表、時系列チャート、カメラ画像、ロボット図、の何れか一の方法、すなわち画面表示、により思考過程を提示することを特徴とする上記(10)または(11)に記載のロボットの制御方法。 (14) The thinking process presentation method management step is characterized by presenting a thinking process by any one method of graph structure, text, table, time series chart, camera image, and robot diagram, that is, screen display. The robot control method according to (10) or (11) above.
(15)前記思考過程提示方法管理ステップは、
前記発音・発声と前記ロボット動作とにより思考過程を提示することを特徴とする上記(10)または(11)に記載のロボットの制御方法。
(15) The thought process presentation method management step includes:
The robot control method according to (10) or (11), wherein a thought process is presented by the pronunciation / speech and the robot motion.
(16)前記思考過程提示方法管理ステップは、
前記発音・発声と前記画面表示とにより思考過程を提示することを特徴とする上記(10)または(11)に記載のロボットの制御方法。
(16) The thought process presentation method management step includes:
The robot control method according to (10) or (11), wherein a thought process is presented by the pronunciation / speech and the screen display.
(17)前記思考過程提示方法管理ステップは、
前記ロボット動作と前記画面表示とにより思考過程を提示することを特徴とする上記(10)または(11)に記載のロボットの制御方法。
(17) The thought process presentation method management step includes:
The robot control method according to (10) or (11), wherein a thought process is presented by the robot operation and the screen display.
(18)前記思考過程提示方法管理ステップは、
質問されたときに思考過程を提示することを特徴とする上記(10)から(17)の何れか一に記載のロボットの制御方法。
(18) The thought process presentation method management step includes:
The robot control method according to any one of (10) to (17), wherein a thought process is presented when a question is asked.
(19)ロボットの制御をコンピュータ・システム上で実行するように記述されたコンピュータ・ソフトウェアのプログラムであって、
行動を決定する過程を行動・発声・表示のような手段で提示する方法を管理する思考過程提示方法管理ステップ、を含むことを特徴とするロボットの制御用プログラム。
(19) A computer software program written to execute control of a robot on a computer system,
A program for controlling a robot, comprising: a thought process presentation method management step for managing a method for presenting a process for determining an action by means such as action, utterance, and display.
(20)思考過程を提示する方法を管理する手段である思考過程提示方法管理手段を備えたことを特徴とする思考装置。 (20) A thinking device comprising a thinking process presentation method managing means that is a means for managing a method for presenting a thinking process.
(21)状態を管理する手段である状態管理手段と、
前記状態をもとに、行動を決定する手段である思考手段と、
前記思考の過程を提示する方法を管理する手段である思考過程提示方法管理手段と、
を備えたことを特徴とする思考装置。
(21) state management means that is means for managing the state;
Based on the state, a thinking means that is a means for determining an action;
A thought process presentation method management means which is a means for managing the method of presenting the thought process;
A thinking device characterized by comprising:
(22)前記思考過程提示方法管理手段は、
自分の声で発声する方法、第三者の声で発声する方法、効果音で発音する方法、の何れか一の方法、すなわち発音・発声、により思考過程を提示することを特徴とする上記(20)または(21)に記載の思考装置。
(22) The thought process presentation method management means includes:
The method of presenting a thought process by any one of the method of uttering with one's own voice, the method of uttering with the voice of a third party, or the method of sounding with a sound effect, that is, pronunciation and utterance (above) The thinking device according to 20) or (21).
(23)前記思考過程提示方法管理手段は、
手や足や耳等を動かす方法、目や口等のランプを点灯させる方法、の何れか一の方法、すなわちロボット動作、により思考過程を提示することを特徴とする上記(20)または(21)に記載の思考装置。
(23) The thought process presentation method management means includes:
(20) or (21), wherein the thinking process is presented by any one of a method of moving a hand, a foot, an ear, or the like, or a method of turning on a lamp such as an eye or a mouth, that is, a robot operation. ) Thinking device.
(24)前記思考過程提示方法管理手段は、
グラフ構造、テキスト、表、時系列チャート、カメラ画像、ロボット図、の何れか一の方法、すなわち画面表示、により思考過程を提示する上記(20)または(21)に記載の思考装置。
(24) The thought process presentation method management means includes:
The thinking device according to (20) or (21), wherein the thinking process is presented by any one of a graph structure, a text, a table, a time series chart, a camera image, and a robot diagram, that is, a screen display.
(25)前記思考過程提示方法管理手段は、
前記発音・発声と前記ロボット動作とにより思考過程を提示することを特徴とする上記(20)または(21)に記載の思考装置。
(25) The thought process presentation method management means includes:
The thinking device according to (20) or (21), wherein a thinking process is presented by the pronunciation / speech and the robot motion.
(26)前記思考過程提示方法管理手段は、
前記発音・発声と前記画面表示とにより思考過程を提示することを特徴とする請求項20または上記(21)に記載の思考装置。
(26) The thought process presentation method management means includes:
The thinking device according to claim 20 or (21), wherein a thinking process is presented by the pronunciation / speech and the screen display.
(27)前記思考過程提示方法管理手段は、
前記ロボット動作と前記画面表示とにより思考過程を提示することを特徴とする請求項20または上記(21)に記載の思考装置。
(27) The thought process presentation method management means includes:
The thinking device according to claim 20 or (21), wherein a thinking process is presented by the robot operation and the screen display.
(28)前記思考過程提示方法管理手段は、
質問されたときに思考過程を提示することを特徴とする上記(20)から(27)の何れか一に記載の思考装置。
(28) The thought process presentation method management means includes:
The thinking device according to any one of (20) to (27), wherein a thinking process is presented when a question is asked.
1 胴体部
2 頭部
3A 車輪
3B 車輪
12 スピーカ
13 音声認識マイク
14 頭スイッチ
15 投影部
21A CCDカメラ
21B CCDカメラ
101 ロボット装置
102 外部状態入力部
103 外部状態管理部
104 内部状態管理部
105 思考部
106 思考過程提示処理部
107 内部状態記憶部
108 内部状態取得部
109 行動決定部
110 出力処理部
111 行動手段
112 音声出力手段
113 表示手段
114 外部出力手段
115 処理手順記憶部
200 スクリーン
201 画像
DESCRIPTION OF
Claims (13)
当該ロボットの外部状態に関する外部情報を取得する外部情報取得手段と、
取得した前記外部情報を保有する外部状態管理手段と、
取得した前記外部情報を契機として変化する当該ロボットの内部状態に関する内部情報を保有する内部状態管理手段と、
少なくとも前記外部情報を契機として思考を展開し、該思考の結果に基づいて、取るべき行動を決定する思考手段と、
前記思考手段による思考過程そのものや前記思考過程の根拠となる前記外部情報や前記内部情報等からなる情報を出力する出力手段と、を備え、
前記思考過程は、多段にわたるものであり、
前記出力手段は、出力する前記情報の少なくとも一部として多段にわたる前記思考過程の少なくとも一部を画面表示することを特徴とするロボット。 A robot that performs thoughts and acts based on the thoughts,
External information acquisition means for acquiring external information related to the external state of the robot;
An external state management means for holding the acquired external information;
Internal state management means for holding internal information about the internal state of the robot that changes with the acquired external information as a trigger;
Thinking means that develops thinking with at least the external information as a trigger , and determines an action to be taken based on the result of the thinking;
And an output means for outputting the information consisting of the external information and the internal information such as the basis for thinking over extent itself and the thought process by the thinking means,
The thought process is multistage,
The output means displays on the screen at least a part of the thinking process in multiple stages as at least a part of the information to be output .
前記出力手段は、前記情報を出力する複数の出力部を含み、
前記思考過程を表す前記情報の出力方法を決定する出力方法決定手段を、さらに備え、
前記出力方法決定手段は、前記外部情報または前記内部情報を考慮して前記思考過程の前記出力方法を決定し、複数の前記出力部から少なくとも一つを選択し、
選択された前記出力部により前記情報が出力されるロボット。 The robot according to claim 1, wherein
The output means includes a plurality of output units for outputting the information,
An output method determining means for determining an output method of the information representing the thought process;
The output method determining means determines the output method of the thinking process in consideration of the external information or the internal information, and selects at least one from the plurality of output units,
A robot in which the information is output by the selected output unit.
前記思考手段は、前記外部情報および前記内部情報に基づいて思考を行うことを特徴とするロボット。 The robot according to claim 1 or 2 ,
Before SL thinking means, robot and performs thinking based on the external information and the internal information.
前記出力手段は、思考過程を表す前記情報として、前記外部情報または前記内部情報の少なくとも一部を出力することを特徴とするロボット。 The robot according to any one of claims 1 to 3 ,
The output means outputs at least a part of the external information or the internal information as the information representing a thought process.
前記外部情報はユーザから発せられた情報を含み、前記出力方法決定手段は、ユーザから発せられた前記情報を考慮して思考過程を表す前記情報の出力方法を決定することを特徴とするロボット。 The robot according to any one of claims 1 to 4 , wherein
The external information includes information issued from a user, and the output method determining means determines an output method of the information representing a thought process in consideration of the information issued from the user.
前記出力手段は、ロボットの行動、ロボットの発声または表示を介して情報を出力する複数の出力部を含み、
前記出力方法決定手段は、複数の前記出力部のいずれかを選択し、
前記出力方法決定手段によって選択された出力部を介して思考過程を表す前記情報が出力されるように構成されたことを特徴とするロボット。 The robot according to any one of claims 1 to 5 ,
The output means includes a plurality of output units that output information via robot behavior, robot utterance or display,
The output method determining means selects any of the plurality of output units,
A robot configured to output the information representing a thought process through an output unit selected by the output method determining means.
前記外部情報は、周囲の環境の騒がしさに関する情報を含み、前記出力方法決定手段は、騒がしさに関する前記情報を考慮し、周囲が騒がしければ画面表示を前記出力方法とし、周囲が静かであれば発声または発音を前記出力方法とすることを特徴とするロボット。 The robot according to any one of claims 1 to 6 ,
The external information includes information related to noise in the surrounding environment, and the output method determining means considers the information related to noise, and if the surroundings are noisy, the screen display is used as the output method, and the surroundings should be quiet. A robot characterized in that speech or pronunciation is used as the output method.
前記外部情報は、画像を投影し得る箇所の存否に関する情報を含み、
前記出力方法決定手段は、画像を投影する前記箇所が存在するとき、前記箇所への画面表示を前記出力方法とすることを特徴とするロボット。 The robot according to any one of claims 1 to 7 ,
The external information includes information regarding the presence or absence of a location where an image can be projected,
The said output method determination means uses the screen display to the said location as the said output method, when the said location which projects an image exists.
前記外部情報は、ユーザの年齢層に関する情報を含み、
前記出力方法決定手段は、ユーザの年齢層を考慮して前記出力方法を決定することを特徴とするロボット。 The robot according to any one of claims 1 to 8 ,
The external information includes information regarding the user's age group,
The output method determining means determines the output method in consideration of a user's age group.
当該ロボットの外部状態に関する外部情報を取得する第1ステップと、
取得した前記外部情報を保有する第2ステップと、
取得した前記外部情報を契機として変化する当該ロボットの内部状態に関する内部情報を保有する第3ステップと、
少なくとも前記外部情報を契機として思考を行い、該思考の結果に基づいて、取るべき行動を決定する第4ステップと、
前記第4ステップにおける思考過程そのものや前記思考過程の根拠となる前記外部情報や前記内部情報等からなる情報を出力する第5ステップと、を実行させ、
前記思考過程は、多段にわたるものであり、
前記第5ステップで、出力する前記情報の少なくとも一部として多段にわたる前記思考過程の少なくとも一部を画面表示することを特徴とするロボット制御方法。 A method of controlling a robot, wherein the robot
A first step of acquiring external information relating to the external state of the robot;
A second step of holding the acquired external information;
A third step of holding internal information about the internal state of the robot that changes with the acquired external information as a trigger;
It performed Thinking in response at least the external information, a fourth step based on the result of the thinking, determines the action to be taken,
A fifth step of outputting the information consisting of the external information and the internal information such as the basis of the fourth degree thinking over in step itself and the thought process, is executed,
The thought process is multistage,
In the fifth step, at least a part of the thinking process in multiple stages is displayed on a screen as at least a part of the information to be output .
前記第4ステップにおいて、前記外部情報および前記内部情報に基づいて思考を行うように制御することを特徴とするロボット制御方法。 The robot control method according to claim 10 , wherein
The robot control method according to the fourth step , wherein control is performed so as to think based on the external information and the internal information.
当該ロボットの外部状態に関する外部情報を取得する第1ステップと、
取得した前記外部情報を保有する第2ステップと、
取得した前記外部情報を契機として変化する当該ロボットの内部状態に関する内部情報を保有する第3ステップと、
少なくとも前記外部情報を契機として思考を行い、該思考の結果に基づいて、取るべき行動を決定する第4ステップと、
前記第4ステップにおける思考過程そのものや前記思考過程の根拠となる前記外部情報や前記内部情報等からなる情報を出力する第5ステップと、を実行させ、
前記思考過程は、多段にわたるものであり、
前記第5ステップで、出力する前記情報の少なくとも一部として多段にわたる前記思考過程の少なくとも一部を画面表示することを特徴とするロボット制御プログラム。 A program for controlling a robot,
A first step of acquiring external information relating to the external state of the robot;
A second step of holding the acquired external information;
A third step of holding internal information about the internal state of the robot that changes with the acquired external information as a trigger;
Performed thought as a trigger at least said external information, a fourth step based on the result of the thinking, determines the action to be taken,
A fifth step of outputting the information consisting of the external information and the internal information such as the basis of the fourth degree thinking over in step itself and the thought process, is executed,
The thought process is multistage,
In the fifth step, at least a part of the thinking process in multiple stages is displayed on a screen as at least a part of the information to be output .
前記第4ステップにおいて、前記外部情報および前記内部情報に基づいて思考を行うように制御することを特徴とするロボット制御プログラム。 The robot control program according to claim 12 ,
The robot control program according to the fourth step , wherein control is performed so as to think based on the external information and the internal information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004274201A JP4555039B2 (en) | 2004-03-30 | 2004-09-21 | Robot, robot control method, robot control program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004099581 | 2004-03-30 | ||
JP2004274201A JP4555039B2 (en) | 2004-03-30 | 2004-09-21 | Robot, robot control method, robot control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005313308A JP2005313308A (en) | 2005-11-10 |
JP4555039B2 true JP4555039B2 (en) | 2010-09-29 |
Family
ID=35441258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004274201A Expired - Lifetime JP4555039B2 (en) | 2004-03-30 | 2004-09-21 | Robot, robot control method, robot control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4555039B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110125955A (en) * | 2018-02-09 | 2019-08-16 | 发那科株式会社 | Control device and machine learning device |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8180486B2 (en) | 2006-10-02 | 2012-05-15 | Honda Motor Co., Ltd. | Mobile robot and controller for same |
JP4658891B2 (en) * | 2006-10-02 | 2011-03-23 | 本田技研工業株式会社 | Robot control device |
KR100909532B1 (en) | 2007-02-07 | 2009-07-27 | 삼성전자주식회사 | Method and device for learning behavior of software robot |
US7984013B2 (en) | 2007-02-07 | 2011-07-19 | Samsung Electronics Co., Ltd | Method and apparatus for learning behavior in software robot |
JP4989532B2 (en) * | 2007-03-30 | 2012-08-01 | 成均館大学校産学協力団 | Central information processing system for mobile service robot, information processing method for mobile service robot, and computer-readable recording medium recording information processing method for mobile service robot |
JP5515173B2 (en) * | 2010-02-22 | 2014-06-11 | 株式会社国際電気通信基礎技術研究所 | Head movement control information generator |
US10613538B2 (en) | 2015-04-22 | 2020-04-07 | Sony Corporation | Mobile body control system, control method, and storage medium |
JP6494062B2 (en) | 2016-08-29 | 2019-04-03 | Groove X株式会社 | Autonomous robot that recognizes the direction of the sound source |
JP7031603B2 (en) * | 2016-11-29 | 2022-03-08 | ソニーグループ株式会社 | Information processing equipment and information processing method |
WO2018123431A1 (en) * | 2016-12-28 | 2018-07-05 | パナソニックIpマネジメント株式会社 | Interactive robot |
JP6814089B2 (en) * | 2017-05-02 | 2021-01-13 | 株式会社ソニー・インタラクティブエンタテインメント | Object control system and object control method |
JP7139643B2 (en) | 2018-03-23 | 2022-09-21 | カシオ計算機株式会社 | Robot, robot control method and program |
JP6990461B2 (en) * | 2020-06-23 | 2022-01-12 | 株式会社ユピテル | Systems and programs |
WO2023188341A1 (en) * | 2022-03-31 | 2023-10-05 | 日本電気株式会社 | Behavioral assessment presentation system, behavioral assessment presentation method, and behavioral assessment presentation device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001212780A (en) * | 2000-01-31 | 2001-08-07 | Sony Corp | Behavior controller, behavior control method, and recording medium |
JP2003271923A (en) * | 2002-03-15 | 2003-09-26 | Sony Corp | Recorder and recording method, and robot device |
JP2003285285A (en) * | 2002-03-27 | 2003-10-07 | Nec Corp | Robot unit having software agent, control method thereof and program |
-
2004
- 2004-09-21 JP JP2004274201A patent/JP4555039B2/en not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001212780A (en) * | 2000-01-31 | 2001-08-07 | Sony Corp | Behavior controller, behavior control method, and recording medium |
JP2003271923A (en) * | 2002-03-15 | 2003-09-26 | Sony Corp | Recorder and recording method, and robot device |
JP2003285285A (en) * | 2002-03-27 | 2003-10-07 | Nec Corp | Robot unit having software agent, control method thereof and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110125955A (en) * | 2018-02-09 | 2019-08-16 | 发那科株式会社 | Control device and machine learning device |
CN110125955B (en) * | 2018-02-09 | 2021-09-24 | 发那科株式会社 | Control device and machine learning device |
Also Published As
Publication number | Publication date |
---|---|
JP2005313308A (en) | 2005-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4555039B2 (en) | Robot, robot control method, robot control program | |
KR101336641B1 (en) | Emotional Sympathy Robot Service System and Method of the Same | |
US11548147B2 (en) | Method and device for robot interactions | |
JP2018180523A (en) | Managing agent engagement in a man-machine dialog | |
CN112262024B (en) | System and method for dynamic robot configuration for enhanced digital experience | |
JP2019521449A (en) | Persistent Companion Device Configuration and Deployment Platform | |
CN111801730A (en) | System and method for artificial intelligence driven automated companion | |
CN1372660A (en) | Method for interacting with a consumer electronics system | |
JP6067905B1 (en) | Robot control program generation system | |
US20200133239A1 (en) | Communication robot and control program of communication robot | |
KR20200143764A (en) | Emotional Sympathy Service System and Method of the Same | |
JP2019124855A (en) | Apparatus and program and the like | |
US20230306666A1 (en) | Sound Based Modification Of A Virtual Environment | |
JP2007030050A (en) | Robot control device, robot control system, robot device and robot control method | |
US20070078563A1 (en) | Interactive system and method for controlling an interactive system | |
Platz | Design Beyond Devices: Creating Multimodal, Cross-device Experiences | |
JP3891020B2 (en) | Robot equipment | |
KR20200077936A (en) | Electronic device for providing reaction response based on user status and operating method thereof | |
WO2024190616A1 (en) | Action control system and program | |
JP7202836B2 (en) | communication system | |
WO2024190445A1 (en) | Behavior control system and program | |
Pereira | ISR-RobotHead v2. 0: New hardware and software modules | |
JP2024159563A (en) | Behavior Control System | |
EP3772735A1 (en) | Assistance system and method for providing information to a user using speech output | |
JP2024159728A (en) | Electronics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100609 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100706 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100715 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130723 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4555039 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |