JP2004195636A - Interaction control device and method and robot device - Google Patents

Interaction control device and method and robot device Download PDF

Info

Publication number
JP2004195636A
JP2004195636A JP2003270836A JP2003270836A JP2004195636A JP 2004195636 A JP2004195636 A JP 2004195636A JP 2003270836 A JP2003270836 A JP 2003270836A JP 2003270836 A JP2003270836 A JP 2003270836A JP 2004195636 A JP2004195636 A JP 2004195636A
Authority
JP
Japan
Prior art keywords
conversation
topic
item
value
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003270836A
Other languages
Japanese (ja)
Other versions
JP2004195636A5 (en
Inventor
Kazumi Aoyama
一美 青山
Yukiko Yoshiike
由紀子 吉池
Nobuya Otani
伸弥 大谷
Rika Horinaka
里香 堀中
Hideki Shimomura
秀樹 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003270836A priority Critical patent/JP2004195636A/en
Publication of JP2004195636A publication Critical patent/JP2004195636A/en
Publication of JP2004195636A5 publication Critical patent/JP2004195636A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an entertainment robot capable of performing an interaction specialized in a user. <P>SOLUTION: This interaction control device stores various kinds of information attached to an object as a value of an item corresponding to the object, selects a topic related to a topic used in a conversation just before, and generates an acquiring conversation for acquiring a value of an item in the selected topic or a utilizing conversation utilizing a value of an item in an already stored topic as a next conversation. At this time, a value acquired by the acquiring conversation is stored as a value of a corresponding item. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

本発明は、対話制御装置及び方法並びにロボット装置に関し、例えばエンターテインメントロボットに適用して好適なものである。   The present invention relates to a dialog control device and method, and a robot device, and is suitably applied to, for example, an entertainment robot.

近年、一般家庭向けのエンターテインメントロボットが数多く商品化されている。このようなエンターテインメントロボットでは、家庭内でユーザと生活を共にする場面を想定した場合、ユーザから与えられたタスク、例えば『ボールを蹴って』という指示があったときの『ボールを蹴る』というタスクを達成するための行動のほかに、自発的にバラエティに富んだ行動を起こすことで、一方的なコミュニケーションを避け、かつ当該エンターテインメントロボットと毎日インタラクションしても飽きないようにする必要がある。   In recent years, many entertainment robots for general households have been commercialized. In such an entertainment robot, a task given by the user, for example, a task of "kicking a ball" when there is an instruction of "kicking a ball", when assuming a scene of living with the user at home. In addition to the action to achieve the goal, it is necessary to avoid a one-sided communication by spontaneously performing a variety of actions, and not to get tired of interacting with the entertainment robot every day.

従来の音声対話システムは,例えばビデオの録画予約や、電話番号案内など、あるタスクを達成することを目的としたものがほとんどである(例えば非特許文献1参照)。また、対話の応答生成のアルゴリズムとしてはこの他に、イライザ(Eliza)に代表されるような単純な応答文生成システムがある(例えば非特許文献2参照)。   Most of conventional voice dialogue systems aim at accomplishing a certain task such as video recording reservation and telephone number guidance (for example, see Non-Patent Document 1). In addition, there is a simple response sentence generation system typified by an Eliza as an algorithm for generating a response to a dialogue (for example, see Non-Patent Document 2).

しかしながら、自発的にバラエティに富んだ行動を起こさせるためには、エンターテインメントロボットに予め各種インタラクションのためのバラエティに富んだ数多くの知識や行動パターンに関するデータを与えておく必要があるが、現実的な問題として、エンターテインメントロボットにもたせ得るデータ量には限界がある。   However, in order to spontaneously perform a variety of actions, it is necessary to provide the entertainment robot with a variety of knowledge and data on various action patterns for various interactions in advance. As a problem, there is a limit to the amount of data that can be provided to an entertainment robot.

またロボットを作成する際に、そのロボットのユーザ個人個人に合わせたデータを作成することは大変な労力を必要とするため、どのロボットでも予め同じ知識をもたせることになるが、それではユーザに「自分だけのロボット」といった親密さを感じさせることが難しい。しかし、家庭の中で人間とともに生活するロボットには、そのユーザにとって面白い、といったパーソナライズされた行動ができることが求められる。   Also, when creating a robot, creating data that is tailored to the individual user of the robot requires a great deal of effort, so that any robot will be given the same knowledge in advance. It is difficult to feel the intimacy of "a robot only." However, robots living with humans in the home are required to be able to perform personalized actions such as being interesting for the user.

そこで、ユーザの名前や誕生日、性別、好きなものあるいは嫌いなもの等の情報をそのユーザとのインタラクションを通して能動的又は受動的に獲得し、その情報を用いてそのユーザとの会話を行い得るようなロボットを構築できれば、上述のような問題を生じさせることなく、ユーザの満足を得られるものと考えられる。   Thus, information such as a user's name, birthday, gender, likes or dislikes can be actively or passively acquired through interaction with the user, and the information can be used to converse with the user. If such a robot can be constructed, it is considered that the satisfaction of the user can be obtained without causing the above-described problem.

また、この際、ユーザとの会話を通してロボットが覚えるプロセスをユーザに見せることで、学習経験を共有でき、またロボットが教えたことをしゃべることで、そのロボットに対する親近感を沸かせるといった効果も期待できる。
情報処理学会研究会報告、音声言語情報処理22−8(1998.7.24)p.41−42 身体性とコンピュータ、共立出版、p.258−268
Also, at this time, it is possible to share the learning experience by showing the user the process that the robot learns through the conversation with the user, and it is also expected to have the effect of raising the feeling of familiarity with the robot by talking what the robot taught it can.
IPSJ SIG Report, Spoken Language Information Processing 22-8 (July 24, 1998) p. 41-42 Physicality and Computer, Kyoritsu Shuppan, p. 258-268

ところが、ユーザについての情報を用いてロボットが会話することの一例として、人や物(対象物)に付随する情報、例えばユーザの名前や誕生日、性別、好きなものあるいは嫌いなものなどを能動的又は受動的に獲得し、それらを記憶という形で格納し、その記憶を利用して対話することを考えたときに、いくつかの問題点があげられる。   However, as an example of a robot having a conversation using information about a user, information associated with a person or an object (object), such as a user's name, birthday, gender, a favorite or a dislike, is actively used. There are a number of problems when considering acquiring them passively or passively, storing them in the form of a memory, and interacting with the memory.

第1に、ユーザに特化した記憶をどのように獲得するのか、という問題が挙げられる。ロボットは記憶容量に限界があり、さらに記憶するための枠組みもあらかじめ決まっているため、会話中に出てきたことを何でも記憶しておくことは出来ない。また、ユーザからの任意のタイミングでの任意の発話を適切に処理して記憶装置に記憶することは現状の技術では難しい。   First, there is a problem of how to acquire a memory specialized for a user. Since the robot has a limited storage capacity and a predetermined framework for storing it, it is not possible to store anything that comes out during a conversation. Further, it is difficult with the current technology to appropriately process an arbitrary utterance from the user at an arbitrary timing and store the utterance in a storage device.

ただし、この問題は、ロボットが「〇〇のお友達の名前を教えて!」のように、ロボットが記憶を獲得するための発話を行い、ユーザに働きかけることでロボットが記憶できるものをユーザに開示し、ユーザにその値を教えてもらうという手法を採用することにより解決でき、このようにロボットからの働きかけで記憶を取得することで、情報が集めやすいようにユーザに働きかけることが可能となる。   However, the problem is that the robot speaks to get the memory like "Tell me the name of your friend!" It can be solved by adopting a method of disclosing and having the user tell the value, and by acquiring the memory by acting from the robot in this way, it is possible to encourage the user to gather information easily .

第2に、獲得した記憶をどのように発話として利用するのか、という問題があげられる。獲得した記憶をランダムに利用して発話していたのでは、何の脈絡もない話題遷移が発生してしまい、ユーザに戸惑いを与えてしまう。このため、ロボットの獲得した記憶の中で、関連のあるものを次の発話に利用する仕組み(連想)が必要になる。また、獲得した記憶をそのまま出力しているだけでは、ひとつの記憶内容について1対1でしか発話を対応付けることができないために、インタラクションのバリエーションには限度がある。   Second, there is the problem of how to use the acquired memory as speech. If the utterance is made using the acquired memory at random, a topic transition having no context occurs, which gives the user embarrassment. For this reason, a mechanism (association) for using a related one of the memories acquired by the robot for the next utterance is required. Further, if the acquired memory is simply output as it is, only one-to-one correspondence can be made between the utterances of one stored content, so that the variation of the interaction is limited.

第3に、いつ記憶を獲得して、いつ会話に利用するのか、という問題が挙げられる。まず、その対象に付随する情報が全くない状況で、記憶を利用しようとする行動が出現してしまったり、情報がすべて獲得されている状況で記憶を獲得しようとする行動が出現してしまうといった状態を避ける必要があり、そのための仕組みが必要である。また、ある記憶を獲得した直後にその記憶を利用して行動していたのでは、ロボットが記憶装置をもって覚えているようにはユーザには見えないし、またロボットの行動としても知的に見えず、そのために面白みにかける問題もある。   Third, there is the problem of when to acquire memory and use it for conversation. First, in the situation where there is no information attached to the object, an action trying to use memory appears, or an action trying to acquire memory appears in a situation where all information is acquired. It is necessary to avoid the state, and a mechanism for that is necessary. In addition, if a user acted using the memory immediately after acquiring a certain memory, the user would not see the robot as if he / she remembered it with the storage device, and would not look intelligent as the behavior of the robot. However, there is also a problem of interest for that.

本発明は以上の点を考慮してなされたもので、エンターテインメント性を向上させ得る対話制御装置及び方法並びにロボット装置を提案しようとするものである。   The present invention has been made in view of the above points, and an object of the present invention is to propose a dialogue control device and method, and a robotic device capable of improving entertainment.

かかる課題を解決するため本発明においては、対話制御装置において、対象物に付随する各種情報を、当該対象物の対応する項目の値として記憶する記憶手段と、対象物の項目を話題と定義したときに、直前の会話で使用した話題と関連のある話題を選択し、当該選択した話題における項目の値を獲得するための獲得会話又は記憶手段が既に記憶している当該話題における項目の値を利用した利用会話を、次の会話として生成する会話生成手段とを設け、会話生成手段が、獲得会話により獲得した値を、対応する項目の値として記憶手段に記憶させるようにした。   In order to solve such a problem, in the present invention, in the dialogue control device, storage means for storing various information associated with an object as a value of a corresponding item of the object, and the item of the object as a topic are defined. Sometimes, a topic related to the topic used in the immediately preceding conversation is selected, and an acquired conversation for acquiring the value of the item in the selected topic or the value of the item in the topic already stored in the storage means is obtained. Conversation generating means for generating the used conversation as the next conversation is provided, and the conversation generating means stores the value acquired by the acquired conversation as the value of the corresponding item in the storage means.

この結果、この対話制御装置は、対象物となるユーザに特化した会話を当該ユーザと行うことができる。   As a result, the dialogue control device can have a conversation with the user as the target object.

また本発明においては、対話制御方法において、対象物に付随する各種情報を、当該対象物の対応する項目の値として記憶する第1のステップと、対象物の項目を話題と定義したときに、直前の会話で使用した話題と関連のある話題を選択し、当該選択した話題における項目の値を獲得するための獲得会話又は既に記憶している当該話題における項目の値を利用した利用会話を、次の会話として生成する第2のステップとを設け、第2のステップでは、獲得会話により獲得した値を、対応する項目の値として記憶するようにした。   Further, in the present invention, in the interaction control method, a first step of storing various information associated with an object as a value of a corresponding item of the object, and defining the item of the object as a topic, Select a topic that is related to the topic used in the previous conversation, and use the acquired conversation to acquire the value of the item in the selected topic or the use conversation that has already been stored using the item value in the topic, And a second step for generating a next conversation. In the second step, a value acquired by the acquired conversation is stored as a value of a corresponding item.

この結果、この対話制御方法によれば、対象物となるユーザに特化した会話を当該ユーザと行うことができる。   As a result, according to this interaction control method, a conversation specialized for the user as the target object can be performed with the user.

さらに本発明においては、ロボット装置において、対象物に付随する各種情報を、当該対象物の対応する項目の値として記憶する記憶手段と、対象物の項目を話題と定義したときに、直前の会話で使用した話題と関連のある話題を選択し、当該選択した話題における項目の値を獲得するための獲得会話又は記憶手段が既に記憶している当該話題における項目の値を利用した利用会話を、次の会話として生成する会話生成手段とを設け、会話生成手段が、獲得会話により獲得した値を、対応する項目の値として記憶手段に記憶させるようにした。   Further, in the present invention, in the robot apparatus, a storage means for storing various information associated with the object as a value of a corresponding item of the object, and a dialog for immediately preceding conversation when the item of the object is defined as a topic. A topic related to the topic used in is selected, and an acquisition conversation for acquiring the value of the item in the selected topic or a use conversation using the value of the item in the topic already stored in the storage unit is performed. A conversation generating means for generating the next conversation is provided, and the conversation generating means stores the value acquired by the acquired conversation as the value of the corresponding item in the storage means.

この結果、このロボット装置は、対象物となるユーザに特化した会話を当該ユーザと行うことができる。   As a result, the robot apparatus can have a conversation with the user as a target object.

上述のように本発明によれば、対話制御装置において、対象物に付随する各種情報を、当該対象物の対応する項目の値として記憶する記憶手段と、対象物の項目を話題と定義したときに、直前の会話で使用した話題と関連のある話題を選択し、当該選択した話題における項目の値を獲得するための獲得会話又は記憶手段が既に記憶している当該話題における項目の値を利用した利用会話を、次の会話として生成する会話生成手段とを設け、会話生成手段が、獲得会話により獲得した値を、対応する項目の値として記憶手段に記憶させるようにしたことにより、対象物となるユーザに特化した会話を当該ユーザと行うことができ、かくしてエンターテインメント性を向上させ得る対話制御装置を実現できる。   As described above, according to the present invention, in a dialogue control device, a storage unit that stores various information associated with an object as a value of a corresponding item of the object, and a case where the item of the object is defined as a topic Then, a topic related to the topic used in the immediately preceding conversation is selected, and an acquired conversation for acquiring the value of the item in the selected topic or the value of the item in the topic already stored in the storage means is used. Conversation generating means for generating the used conversation as the next conversation, and the conversation generating means stores the value acquired by the acquired conversation in the storage means as the value of the corresponding item, thereby making the object In this way, it is possible to realize a conversation control device capable of performing a conversation specialized for the user to be performed with the user, and thus improving the entertainment property.

また本発明によれば、対話制御方法において、対象物に付随する各種情報を、当該対象物の対応する項目の値として記憶する第1のステップと、対象物の項目を話題と定義したときに、直前の会話で使用した話題と関連のある話題を選択し、当該選択した話題における項目の値を獲得するための獲得会話又は既に記憶している当該話題における項目の値を利用した利用会話を、次の会話として生成する第2のステップとを設け、第2のステップでは、獲得会話により獲得した値を、対応する項目の値として記憶するようにしたことにより、対象物となるユーザに特化した会話を当該ユーザと行うことができ、かくしてエンターテインメント性を向上させ得る対話制御方法を実現できる。   According to the present invention, in the dialogue control method, a first step of storing various information associated with an object as a value of a corresponding item of the object, and a step of defining the item of the object as a topic , Selecting a topic related to the topic used in the immediately preceding conversation, and acquiring conversation for acquiring the value of the item in the selected topic or using conversation using the item value in the topic already stored. And a second step for generating a next conversation. In the second step, the value acquired by the acquired conversation is stored as the value of the corresponding item, so that the user who is the target Thus, a conversation can be performed with the user, and thus a conversation control method capable of improving the entertainment property can be realized.

さらに本発明によれば、ロボット装置において、対象物に付随する各種情報を、当該対象物の対応する項目の値として記憶する記憶手段と、対象物の項目を話題と定義したときに、直前の会話で使用した話題と関連のある話題を選択し、当該選択した話題における項目の値を獲得するための獲得会話又は記憶手段が既に記憶している当該話題における項目の値を利用した利用会話を、次の会話として生成する会話生成手段とを設け、会話生成手段が、獲得会話により獲得した値を、対応する項目の値として記憶手段に記憶させるようにしたことにより、対象物となるユーザに特化した会話を当該ユーザと行うことができ、かくしてエンターテインメント性を向上させ得るロボット装置を実現できる。   Further, according to the present invention, in the robot apparatus, storage means for storing various information associated with the object as a value of a corresponding item of the object, and when the item of the object is defined as a topic, A topic related to the topic used in the conversation is selected, and an acquired conversation for acquiring the value of the item in the selected topic or a use conversation using the value of the item in the topic already stored in the storage unit is performed. A conversation generating means for generating the next conversation, and the conversation generating means stores the value acquired by the acquired conversation in the storage means as the value of the corresponding item, thereby providing A specialized conversation can be performed with the user, and thus a robot device that can improve entertainment can be realized.

以下図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)本実施の形態によるロボット1の構成
(1−1)ロボット1のハードウェア構成
図1は、本実施の形態によるロボット1の機能構成を模式的に示したものである。この図1に示すように、ロボット1は、全体の動作の統括的制御やその他のデータ処理を行う制御ユニット2と、入出力部3と、駆動部4と、電源部5とで構成される。
(1) Configuration of Robot 1 According to the Present Embodiment (1-1) Hardware Configuration of Robot 1 FIG. 1 schematically illustrates a functional configuration of the robot 1 according to the present embodiment. As shown in FIG. 1, the robot 1 includes a control unit 2 that performs overall control of the entire operation and other data processing, an input / output unit 3, a driving unit 4, and a power supply unit 5. .

入出力部3は、入力部としてロボット1の目に相当するCCD(Charge Coupled Device)カメラ10や、耳に相当するマイクロホン11、頭部や背中などの部位に配設されてユーザの接触を感知するタッチセンサ12、あるいは五感に相当するその他の各種のセンサを含む。また、出力部として、口に相当するスピーカ13、あるいは点滅の組み合わせや点灯のタイミングにより顔の表情を形成するLEDインジケータ(目ランプ)14などを装備している。これら出力部は、音声やランプの点滅など、脚などによる機械運動パターン以外の形式でもロボット1からのユーザ・フィードバックを表現することができる。   The input / output unit 3 is provided as an input unit in a CCD (Charge Coupled Device) camera 10 corresponding to the eyes of the robot 1, a microphone 11 corresponding to an ear, and a part such as a head and a back to detect a user's contact. Touch sensor 12 or other various sensors corresponding to the five senses. The output unit is provided with a speaker 13 corresponding to a mouth, an LED indicator (eye lamp) 14 for forming a facial expression by a combination of blinking and lighting timing. These output units can express the user feedback from the robot 1 in a form other than the mechanical movement pattern by the legs or the like, such as voice or blinking of a lamp.

駆動部4は、制御ユニット2が指令する所定の運動パターンに従ってロボット1の機体動作を実現する機能ブロックであり、行動制御による制御対象物である。駆動部4は、ロボット1の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど各軸毎に設けられた複数の駆動ユニット151〜15nで構成される。各駆動ユニット151〜15nは、所定軸回りの回転動作を行うモータ161〜16nと、モータ161〜16nの回転位置を検出するエンコーダ171〜17nと、エンコーダ171〜17nの出力に基づいてモータ161〜16nの回転位置や回転速度を適応的に制御するドライバ181〜18nの組み合わせで構成される。   The drive unit 4 is a functional block that implements the body operation of the robot 1 according to a predetermined movement pattern instructed by the control unit 2, and is a control target by behavior control. The drive unit 4 is a functional module for realizing a degree of freedom at each joint of the robot 1, and includes a plurality of drive units 151 to 15n provided for each axis such as roll, pitch, and yaw at each joint. You. Each of the drive units 151 to 15n includes a motor 161 to 16n for performing a rotation operation around a predetermined axis, an encoder 171 to 17n for detecting a rotational position of the motor 161 to 16n, and a motor 161, based on an output of the encoder 171 to 17n. It is composed of a combination of drivers 181 to 18n that adaptively control the rotation position and rotation speed of 16n.

駆動ユニットの組み合わせ方によって、ロボット1を例えば2足歩行又は4足歩行などの脚式移動ロボットとして構成することができる。   Depending on how the drive units are combined, the robot 1 can be configured as a legged mobile robot, for example, for bipedal walking or quadrupedal walking.

電源部5は、その字義通り、ロボット1内に各電気回路などに対して給電を行う機能モジュールである。本実施形態に係るロボット1は、バッテリを用いた自律駆動式であり、電源部5は、充電バッテリ19と、充電バッテリ20の充放電状態を管理する充放電制御部31とで構成される。   The power supply unit 5 is a functional module that supplies power to each electric circuit and the like in the robot 1 as the name implies. The robot 1 according to the present embodiment is of an autonomous driving type using a battery, and the power supply unit 5 includes a charge battery 19 and a charge / discharge control unit 31 that manages a charge / discharge state of the charge battery 20.

充電バッテリ19は、例えば、複数本のリチウムイオン2次電池セルをカートリッジ式にパッケージ化した「バッテリ・パック」の形態で構成される。   The charging battery 19 is configured, for example, in the form of a “battery pack” in which a plurality of lithium ion secondary battery cells are packaged in a cartridge type.

また、充放電制御部20は、バッテリ19の端子電圧や充電/放電電流量、バッテリ19の周囲温度などを測定することでバッテリ19の残存容量を把握し、充電の開始時期や終了時期などを決定する。充放電制御部20が決定する充電の開始及び終了時期は制御ユニット2に通知され、ロボット1が充電オペレーションを開始及び終了するためのトリガとなる。   Further, the charge / discharge control unit 20 grasps the remaining capacity of the battery 19 by measuring the terminal voltage and the amount of charge / discharge current of the battery 19, the ambient temperature of the battery 19, and determines the start time and end time of charging. decide. The start and end timings of charging determined by the charge / discharge control unit 20 are notified to the control unit 2 and serve as a trigger for the robot 1 to start and end the charging operation.

制御ユニット2は、「頭脳」に相当し、例えばロボット1の機体頭部あるいは胴体部に搭載されている。   The control unit 2 corresponds to a “brain”, and is mounted on, for example, the head or torso of the robot 1.

制御ユニット2においては、図2に示すように、メイン・コントローラとしてのCPU(Central Processing Unit)21が、メモリやその他の各回路コンポーネントや周辺機器とバス接続された構成となっている。バス27は、データ・バス、アドレス・バス、コントロール・バスなどを含む共通信号伝送路である。バス27上の各装置にはそれぞれに固有のアドレス(メモリ・アドレス又はI/Oアドレス)が割り当てられている。CPU21は、アドレスを指定することによってバス27上の特定の装置と通信することができる。   As shown in FIG. 2, the control unit 2 has a configuration in which a CPU (Central Processing Unit) 21 as a main controller is bus-connected to a memory, other circuit components, and peripheral devices. The bus 27 is a common signal transmission path including a data bus, an address bus, a control bus, and the like. Each device on the bus 27 is assigned a unique address (memory address or I / O address). The CPU 21 can communicate with a specific device on the bus 27 by specifying an address.

RAM(Read Access Memory)22は、DRAM(Dynamic RAM)などの揮発性メモリで構成された書き込み可能メモリであり、CPU21が実行するプログラム・コードをロードしたり、実行プログラムによる作業データの一時的な保存のために使用される。   A RAM (Read Access Memory) 22 is a writable memory composed of a volatile memory such as a DRAM (Dynamic RAM), and loads a program code to be executed by the CPU 21 and temporarily stores work data by the execution program. Used for preservation.

ROM(Read Only Memory)23は、プログラムやデータを恒久的に格納する読み出し専用メモリである。ROM23に格納されるプログラム・コードには、ロボット1の電源投入時に実行する自己診断テスト・プログラムや、ロボット1の動作を規定する制御プログラムなどが挙げられる。   The ROM (Read Only Memory) 23 is a read-only memory that stores programs and data permanently. The program code stored in the ROM 23 includes a self-diagnosis test program executed when the power of the robot 1 is turned on, a control program for defining the operation of the robot 1, and the like.

ロボット1の制御プログラムには、CCDカメラ10やマイクロホン11などのセンサ入力を処理してシンボルとして認識する「センサ入力・認識処理プログラム」、短期記憶や長期記憶などの記憶動作を司りながらセンサ入力と所定の行動制御モデルとに基づいてロボット1の行動を制御する「行動制御プログラム」、行動制御モデルに従って各関節モータの駆動やスピーカ12の音声出力などを制御する「駆動制御プログラム」などが含まれる。   The control program of the robot 1 includes a “sensor input / recognition processing program” that processes sensor inputs such as the CCD camera 10 and the microphone 11 and recognizes the symbols as symbols. A “behavior control program” that controls the behavior of the robot 1 based on a predetermined behavior control model, a “drive control program” that controls the drive of each joint motor, the audio output of the speaker 12, and the like according to the behavior control model are included. .

不揮発性メモリ24は、例えばEEPROM(Electrically
Erasable and Programmable ROM)のように電気的に消去再書き込みが可能なメモリ素子で構成され、逐次更新すべきデータを不揮発的に保持するために使用される。逐次更新すべきデータには、暗記鍵やその他のセキュリティ情報、出荷後にインストールすべき装置制御プログラムなどが挙げられる。
The non-volatile memory 24 is, for example, an EEPROM (Electrically
It is composed of a memory element that can be electrically erased and rewritten, such as an Erasable and Programmable ROM, and is used to hold data to be sequentially updated in a nonvolatile manner. The data to be sequentially updated includes a memory key and other security information, a device control program to be installed after shipment, and the like.

インターフェース25は、制御ユニット2外の機器と相互接続し、データ交換を可能にするための装置である。インターフェース25は、例えば、入出力部3内のカメラ10やマイクロホン11、スピーカ12との間でデータ入出力を行う。また、インターフェース25は、駆動部4内の各ドライバ181〜18nとの間でデータやコマンドの入出力を行う。   The interface 25 is a device for interconnecting with devices outside the control unit 2 and enabling data exchange. The interface 25 performs data input / output with the camera 10, the microphone 11, and the speaker 12 in the input / output unit 3, for example. The interface 25 inputs and outputs data and commands to and from each of the drivers 181 to 18n in the drive unit 4.

また、インターフェース25は、RS(Recommended
Standard)−232Cなどのシリアル・インターフェース、IEEE(Institute of Electrical and Electronics Engineers )1284などのパラレル・インターフェース、USB(Universal Serial Bus)インターフェース、i−Link(IEEE1394)インターフェース、SCSI(Small
Computer System Interface )インターフェース、PCカードやメモリ・スティックを受容するメモリ・カードインターフェース(カードスロット)などのような、コンピュータの周辺機器接続用の汎用インターフェースを備え、ローカル接続された外部機器との間でプログラムやデータの移動を行い得るようにしてもよい。
Further, the interface 25 is provided with an RS (Recommended
Standard) -232C, serial interface such as IEEE (Institute of Electrical and Electronics Engineers) 1284, USB (Universal Serial Bus) interface, i-Link (IEEE1394) interface, SCSI (Small)
It has a general-purpose interface for connecting computer peripheral devices, such as a computer system interface), a memory card interface (card slot) that accepts PC cards and memory sticks, etc., and can be connected to external devices that are locally connected. A program or data may be moved.

また、インターフェース25の他の例として、赤外線通信(IrDA)インターフェースを備え、外部機器と無線通信を行うようにしてもよい。   As another example of the interface 25, an infrared communication (IrDA) interface may be provided to perform wireless communication with an external device.

さらに、制御ユニット2は、無線通信インターフェース26やネットワーク・インターフェース・カード(NIC)28などを含み、Bluetoothのような近接無線データ通信や、IEEE802.11bのような無線ネットワーク、あるいはインターネットなどの高域ネットワークを経由して、外部のさまざなホスト・コンピュータとデータ通信を行うことができる。   Further, the control unit 2 includes a wireless communication interface 26, a network interface card (NIC) 28, and the like, and performs near field wireless data communication such as Bluetooth, a wireless network such as IEEE802.11b, or a high frequency band such as the Internet. Data communication can be performed with various external host computers via the network.

このようなロボット1とホスト・コンピュータ間におけるデータ通信により、遠隔のコンピュータ資源を用いて、ロボット1の複雑な動作制御を演算したり、リモート・コントロールすることができる。   By such data communication between the robot 1 and the host computer, complicated operation control of the robot 1 can be calculated or remotely controlled using a remote computer resource.

(1−2)ロボット1のソフトウェア構成
図3は、ROM23に格納された制御プログラム群により構成されるロボット1の行動制御システム30の機能構成を模式的に示したものである。ロボット1は、外部刺激の認識結果や内部状態の変化に応じて行動制御を行うことができる。さらには、長期記憶機能を備え、外部刺激から内部状態の変化を連想記憶することにより、外部刺激の認識結果や内部状態の変化に応じて行動制御を行うことができる。
(1-2) Software Configuration of Robot 1 FIG. 3 schematically illustrates a functional configuration of the behavior control system 30 of the robot 1 configured by a control program group stored in the ROM 23. The robot 1 can perform behavior control according to the recognition result of the external stimulus and a change in the internal state. Furthermore, by providing a long-term memory function and associatively storing the change in the internal state from the external stimulus, the behavior control can be performed according to the recognition result of the external stimulus and the change in the internal state.

この行動制御システム30は、オブジェクト指向プログラミングを採り入れて実装されている。この場合、各ソフトウェアは、データとそのデータに対する処理手続きとを一体化させた「オブジェクト」というモジュール単位で扱われる。また、各オブジェクトは、メッセージ通信と共有メモリを使ったオブジェクト間通信方法によりデータの受け渡しとInvokeを行うことができる。   This behavior control system 30 is implemented using object-oriented programming. In this case, each software is handled in a module unit called an “object” that integrates data and a processing procedure for the data. Further, each object can perform data transfer and Invoke by a message communication and an inter-object communication method using a shared memory.

行動制御システム30は、入出力部3におけるCCDカメラ10、マイクロホン11及びタッチセンサ13の各センサ出力に基づいて外部環境を認識するために、視覚認識機能部31と、聴覚認識機能部32と、接触認識機能部33を備えている。   The behavior control system 30 includes a visual recognition function unit 31, a hearing recognition function unit 32, and a visual recognition function unit 31 for recognizing an external environment based on sensor outputs of the CCD camera 10, the microphone 11, and the touch sensor 13 in the input / output unit 3. The contact recognition unit 33 is provided.

視覚認識機能部31は、CCDカメラ10のセンサ出力でなる画像信号に基づいて顔認識や色認識などの画像認識処理や特徴抽出を実行する。そして視覚認識機能部31は、かかる顔認識結果であるその人物に固有の顔ID(識別子)や、顔画像領域の位置及び大きさなどの情報と、色認識結果である色領域の位置や大きさ、特徴量などの情報とを出力する。   The visual recognition function unit 31 executes image recognition processing such as face recognition and color recognition and feature extraction based on an image signal formed by the sensor output of the CCD camera 10. Then, the visual recognition function unit 31 obtains information such as a face ID (identifier) unique to the person as the face recognition result, the position and size of the face image area, and the position and size of the color area as the color recognition result Then, information such as the feature amount is output.

聴覚認識機能部32は、マイクロホン11のセンサ出力でなる音声信号に基づいて音声認識や話者認識などの各種音に関する認識処理を実行する。そして聴覚認識機能部部32は、かかる音声認識結果である認識した単語の文字列情報と、音響的特徴等に基づく話者認識処理結果であるその話者に固有の話者ID情報となどを出力する。   The auditory recognition function unit 32 performs recognition processing on various sounds, such as voice recognition and speaker recognition, based on a voice signal that is a sensor output of the microphone 11. Then, the auditory recognition function unit 32 converts the character string information of the recognized word, which is the result of the speech recognition, and the speaker ID information unique to the speaker, which is the result of the speaker recognition processing based on the acoustic features and the like. Output.

接触認識機能部33は、タッチセンサ13のセンサ出力でなる圧力検出信号に基づいて「なでられた」、「叩かれた」という外部刺激を認識し、認識結果を出力する。   The contact recognition function unit 33 recognizes an external stimulus such as “patched” or “hit” based on a pressure detection signal that is a sensor output of the touch sensor 13 and outputs a recognition result.

内部状態管理部34は、本能や感情といった数種類の情動を数式モデル化して管理しており、視覚認識機能部31と、聴覚認識機能部32と、接触認識機能部33によって認識された外部刺激に応じてロボット1の本能や情動といった内部状態を管理する。   The internal state management unit 34 manages several types of emotions, such as instinct and emotion, by mathematical modeling and manages the emotions by the visual recognition function unit 31, the auditory recognition function unit 32, and the contact recognition function unit 33. The internal state such as the instinct and emotion of the robot 1 is managed accordingly.

一方、行動制御システム30においては、外部刺激の認識結果や内部状態の変化に応じて行動制御を行うために、時間の経過とともに失われる短期的な記憶を行う短期記憶部35と、情報を比較的長期間保持するための長期記憶部36を備えている。短期記憶と長期記憶という記憶メカニズムの分類は神経心理学に依拠する。   On the other hand, the behavior control system 30 compares information with a short-term storage unit 35 that performs short-term storage lost over time in order to perform behavior control according to the recognition result of an external stimulus or a change in an internal state. A long-term storage unit 36 is provided for long-term storage. The classification of short-term memory and long-term memory depends on neuropsychology.

短期記憶部35は、視覚認識機能部31と、聴覚認識機能部32と、接触認識機能部33によって認識されたターゲットやイベントを短期間保持する機能モジュールである。例えば、CCDカメラ10からの入力画像を約15秒程度の短い期間だけ記憶する。   The short-term storage unit 35 is a functional module that holds a target or an event recognized by the visual recognition function unit 31, the auditory recognition function unit 32, and the contact recognition function unit 33 for a short time. For example, the input image from the CCD camera 10 is stored for a short period of about 15 seconds.

また長期記憶部36は、物の名前など学習により得られた情報を長期間保持するために使用されるものであり、制御ユニット2(図2)内のRAM22や不揮発性メモリ24が利用される。   The long-term storage unit 36 is used to hold information obtained by learning, such as the name of an object, for a long time, and the RAM 22 and the nonvolatile memory 24 in the control unit 2 (FIG. 2) are used. .

さらに行動制御システム30により生成されるロボット1の行動は、反射行動部39によって実現される「反射行動」と、状況依存行動階層38によって実現される「状況依存行動」と、熟考行動階層37によって実現される「熟考行動」に大別される。   Furthermore, the behavior of the robot 1 generated by the behavior control system 30 includes “reflex behavior” realized by the reflex behavior unit 39, “situation-dependent behavior” realized by the context-dependent behavior hierarchy 38, and It is broadly divided into "consideration actions" that are realized.

反射的行動部39は、視覚認識機能31と、聴覚認識機能部32と、積極認識機能部33によって認識された外部刺激に応じて反射的な機体動作を実現する機能モジュールである。   The reflexive action unit 39 is a functional module that implements a reflexive body operation in response to an external stimulus recognized by the visual recognition function 31, the auditory recognition function unit 32, and the positive recognition function unit 33.

反射行動とは、基本的にセンサ入力された外部情報の認識結果を直接受けて、これを分類して、出力行動を直接決定する行動のことである。例えば、人間の顔を追いかけたり、うなずくといった振る舞いは反射行動として実装することが好ましい。   The reflex action is basically an action of directly receiving a recognition result of external information input from a sensor, classifying the recognition result, and directly determining an output action. For example, it is preferable to implement a behavior such as chasing or nodding a human face as a reflex action.

状況依存行動階層38は、短期記憶部35並びに長期記憶部36の記憶内容や、内部状態管理部34によって管理される内部状態を基に、ロボット1が現在置かれている状況に即応した行動を制御する。   The situation-dependent behavior hierarchy 38 performs an action immediately corresponding to the situation where the robot 1 is currently placed, based on the storage contents of the short-term storage unit 35 and the long-term storage unit 36 and the internal state managed by the internal state management unit 34. Control.

状況依存行動階層38は、各行動毎にステートマシンを用意しており、それ以前の行動や状況に依存して、センサ入力された外部情報の認識結果を分類して、行動を機体上で発現する。また、状況依存行動階層38は、内部状態をある範囲に保つための行動(「ホメオスタシス行動」とも呼ぶ)も実現し、内部状態が指定した範囲内を超えた場合には、その内部状態を当該範囲内に戻すための行動が出現し易くなるようにその行動を活性化させる(実際には、内部状態と外部環境の両方を考慮した形で行動が選択される)。状況依存行動は、反射行動に比し、反応時間が遅い。   The situation-dependent action hierarchy 38 prepares a state machine for each action, classifies the recognition result of the external information input from the sensor depending on the action or situation before that, and expresses the action on the aircraft. I do. The context-dependent behavior hierarchy 38 also implements an action for keeping the internal state within a certain range (also referred to as “homeostasis action”). When the internal state exceeds a specified range, the internal state is regarded as the relevant state. The action is activated so that the action for returning to the range easily appears (actually, the action is selected in consideration of both the internal state and the external environment). Situation-dependent behavior has a slower reaction time than reflex behavior.

熟考行動階層37は、短期記憶部35並びに長期記憶部36の記憶内容に基づいて、ロボット1の比較的長期にわたる行動計画などを行う。   The reflection behavior hierarchy 37 performs a relatively long-term action plan of the robot 1 based on the storage contents of the short-term storage unit 35 and the long-term storage unit 36.

熟考行動とは、与えられた状況あるいは人間からの命令により、推論やそれを実現するための計画を立てて行われる行動のことである。例えば、ロボットの位置と目標の位置から経路を検索することは熟考行動に相当する。このような推論や計画は、ロボット1がインタラクションを保つための反応時間よりも処理時間や計算負荷を要する(すなわち処理時間がかかる)可能性があるので、かかる反射行動や状況依存行動がリアルタイムで反応を返しながら、熟考行動は推論や計画を行う。   Reflection behavior is behavior that is performed based on a given situation or a command from a human, based on reasoning and planning to realize it. For example, searching for a route from the position of the robot and the position of the target is equivalent to deliberate behavior. Such inferences and plans may require more processing time and computational load (that is, more processing time) than reaction time for the robot 1 to maintain interaction, and such reflexive behavior and situation-dependent behavior may be performed in real time. While responding, the contemplation conducts reasoning and planning.

熟考行動階層37や状況依存行動階層38、反射行動部39は、ロボット1のハードウェア構成に非依存の上位のアプリケーション・プログラムとして記述することができる。これに対し、ハードウェア依存層制御部40は、これら上位アプリケーションからの命令に応じて、入出力部3のスピーカ12を介して音声を出力させたり、LED14を所定パターンで点滅駆動したり、駆動部4の対応する駆動ユニット151〜15nを駆動させる。   The reflection behavior hierarchy 37, the situation-dependent behavior hierarchy 38, and the reflex behavior unit 39 can be described as a higher-level application program independent of the hardware configuration of the robot 1. In response to this, the hardware-dependent layer control unit 40 outputs sound through the speaker 12 of the input / output unit 3, blinks the LED 14 in a predetermined pattern, The corresponding drive units 151 to 15n of the unit 4 are driven.

(1−3)内部状態管理部34の構成
ここで、かかる行動制御システム30の構成要素のうち、後述する対話制御機能に直接関連する内部状態管理部34の構成について説明する。
(1-3) Configuration of Internal State Management Unit 34 Here, the configuration of the internal state management unit 34, which is directly related to a later-described interaction control function, among the components of the behavior control system 30 will be described.

内部状態管理部34は、上述のように数式モデル化された本能及び感情を管理しており、これら本能及び感情の状態を視覚認識機能部31、聴覚認識機能部32及び接触認識機能部33によって認識された外部刺激に応じて変化させている。   The internal state management unit 34 manages the instinct and emotion modeled as described above, and the state of the instinct and emotion is determined by the visual recognition function unit 31, the auditory recognition function unit 32, and the contact recognition function unit 33. It changes according to the recognized external stimulus.

この場合、かかる本能を構成する本能的要素としては、疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、排泄(elimination)及び性欲(sexual)等といった9個の本能的要素があり、かかる感情を構成する情動的要素として、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警告(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)及び嫉妬(jealousy)等といった18個の情動的要素がある。   In this case, instinct elements that constitute such instinct include fatigue, heat or temperature, pain, appetite or hunger, thirst, affection, and curiosity. There are nine instinct elements such as heart, elimination, and sexuality, and the emotional elements that make up such feelings are happiness, sadness, anger, and anger. Surprise, disgust, fear, frustration, boredom, sleep (somnolence), sociability (gregariousness), patience, tension, relaxed There are 18 emotional elements such as, alertness, guilt, spite, loyalty, submission, and jealousy.

そして内部状態管理部34は、これら各本能的要素及び各情動的要素をそれぞれその要素の強さを表すパラメータとして保持しており、これら各要素のパラメータ値を視覚認識機能部31、聴覚認識機能部32及び接触認識機能部33の認識結果と、経過時間となどに基づいて周期的に更新することにより、ロボット1の本能及び感情を時々刻々と変化させている。   The internal state management unit 34 holds the instinct element and the emotion element as parameters representing the strength of the element, and stores the parameter value of each element in the visual recognition function unit 31 and the auditory recognition function. The instinct and emotion of the robot 1 are changed every moment by periodically updating based on the recognition result of the unit 32 and the contact recognition function unit 33, the elapsed time, and the like.

具体的に、内部状態管理部34は、各本能的要素について、視覚認識機能部31、聴覚認識機能部32及び接触認識機能部33の認識結果と、経過時間となどに基づいて所定の演算式により算出されるそのときのその本能的要素の変動量をΔI〔k〕、現在のその本能的要素のパラメータ値をI〔k〕、その本能的要素の感度を表す係数をkiとして、所定周期で次式   Specifically, the internal state management unit 34 determines a predetermined arithmetic expression for each instinct element based on the recognition results of the visual recognition function unit 31, the auditory recognition function unit 32, and the contact recognition function unit 33, the elapsed time, and the like. The variation amount of the instinct element at the time calculated by ΔI [k], the current parameter value of the instinct element is I [k], and the coefficient representing the sensitivity of the instinct element is ki And the following equation

Figure 2004195636
Figure 2004195636

を用いて次の周期におけるその本能的要素のパラメータ値I〔k+1〕を算出し、この演算結果を現在のその本能的要素のパラメータ値I〔k〕と置き換えるようにしてその本能的要素のパラメータ値を更新する。 Is used to calculate the parameter value I [k + 1] of the instinct element in the next cycle, and replace the result of this operation with the parameter value I [k] of the present instinct element so that the parameter of the instinct element Update the value.

また内部状態管理部34は、各情動的要素について、視覚認識機能部31、聴覚認識機能部32及び接触認識機能部33の認識結果と、そのときのロボット1の行動と、前回更新してからの経過時間となどに基づき所定の演算式により算出されるそのときのその情動的要素の変動量をΔE〔t〕、現在のその情動的要素のパラメータ値をE〔t〕、その情動的要素の感度を表す係数をkeとして、次式   The internal state management unit 34 also determines, for each emotional element, the recognition results of the visual recognition function unit 31, the auditory recognition function unit 32, and the contact recognition function unit 33, the behavior of the robot 1 at that time, ΔE [t], the current parameter value of the emotion element is E [t], which is calculated by a predetermined arithmetic expression based on the elapsed time of the emotion element and the like. Let ke be a coefficient representing the sensitivity of

Figure 2004195636
Figure 2004195636

を用いて次の周期におけるその情動的要素のパラメータ値E〔t+1〕を算出し、これを現在のその情動的要素のパラメータ値と置き換えるようにしてその情動的要素のパラメータ値を更新する。 Is used to calculate the parameter value E [t + 1] of the emotional element in the next cycle, and replace this with the current parameter value of the emotional element to update the parameter value of the emotional element.

なお、視覚認識機能部31、聴覚認識機能部32及び接触認識機能部33の認識結果等が各本能的要素や各情動的要素にどのような影響を与えるかは予め定められており、例えば接触認識機能部33による「撫でられた」という認識結果は本能的要素のうちの「愛情」のパラメータ値の変動量ΔI〔k〕と、情動的要素の「幸せ」のパラメータ値の変動量ΔE〔t〕とに大きな影響を与えるようになされている。   Note that how the recognition results of the visual recognition function unit 31, the auditory recognition function unit 32, and the contact recognition function unit 33 affect each instinct element and each emotion element is determined in advance. The recognition result of “stroke” by the recognition function unit 33 is based on the variation ΔI [k] of the parameter value of “affection” of the instinct element and the variation ΔE [k] of the parameter value of “happy” of the emotional element. t].

(2)ロボット1における対話制御機能
(2−1)ロボット1における対話制御機能
次に、このロボット1に搭載された対話制御機能について説明する。
(2) Dialogue Control Function in Robot 1 (2-1) Dialogue Control Function in Robot 1 Next, a dialogue control function mounted on the robot 1 will be described.

このロボット1には、ユーザとの対話を通じてそのユーザや他の対象物(以下、これをまとめてユーザ等と呼ぶ)の名前や誕生日、好きなもの等の予め定められた幾つかの項目に関する情報(以下、これをその項目の値と呼ぶ)を獲得し、これを例えば図4に示す所定フォーマットで記憶すると共に、これら記憶している各項目の値を利用しながらそのユーザと対話を行い得る対話制御機能が搭載されている。   The robot 1 has a predetermined number of items such as the name, birthday, and favorite items of the user and other objects (hereinafter collectively referred to as a user) through dialogue with the user. Information (hereinafter referred to as the value of the item) is obtained and stored in, for example, a predetermined format shown in FIG. 4, and the user interacts with the user while using the stored value of each item. It is equipped with a dialogue control function to obtain.

なお、図4において、列は、予め定められた各項目(「名前(Name)」、「種類(Kind)」、「顔ID(FaceID)」、「話者ID(SpeakerID)」、「誕生日(BIRTHDAY)」、「好きなもの(Favorite)」及び「友人(Friend)」)に対する値(「ゆきこ」、「人間」、「0」、「1」、「73/5/2」、「紅茶」、「かずみ」等)を示し、行は、1つの対象物について獲得した各項目の値を示す。また各行の最初の数字は、その対象物を最初に登録する際に付与されるその対象物のID(対象物ID)を示す。   In FIG. 4, columns include predetermined items (“Name”, “Kind”, “Face ID (FaceID)”, “Speaker ID (SpeakerID)”, “Birthday” (BIRTHDAY) "," Favorite "and" Friend ") (" Yukiko "," Human "," 0 "," 1 "," 73/5/2 "," Tea " , "Kazumi" etc.), and the row indicates the value of each item obtained for one object. The first number in each row indicates the ID (object ID) of the object given when the object is first registered.

この図4では、既に各対象物に関する全ての項目の値が獲得された後の状態を示しているが、各項目のうち、「名前(Name)」、「話者ID(SpeakerID)」「誕生日(BIRTHDAY)」、「好きなもの(Favorite)」及び「友人(Friend)」については、ユーザとの対話時における聴覚認識機能部32の各種音声認識処理により獲得され、「顔ID(FaceID)」及び「種類(Kind)」については、ユーザとの対話時における視覚認識機能部31の各種画像認識処理等により獲得されて、記憶されることとなる。   FIG. 4 shows a state after the values of all items for each object have already been acquired. Among the items, “Name”, “Speaker ID”, “Birth” "BIRTHDAY", "Favorite" and "Friend" are obtained by various voice recognition processes of the hearing recognition function unit 32 at the time of dialogue with the user, and the "face ID (FaceID)" is obtained. "And" Kind "are obtained and stored by various image recognition processes of the visual recognition function unit 31 at the time of dialogue with the user, and are stored.

またこの図4において、各値の左側に記述された数値はその値に対する印象度を表す。この印象度はロボット1がその話題を今後会話に利用しても良いか否かの尺度となるものであり、例えば図4の例では、この印象度が高いほど印象が良く(次に話したくなる)、低いほど印象が悪い(話したがらない)ことを表す。   In FIG. 4, the numerical value described to the left of each value represents the degree of impression for that value. This impression level serves as a measure of whether or not the robot 1 may use the topic for conversation in the future. For example, in the example of FIG. No), the lower the value, the worse the impression (not wanting to talk).

本実施の形態においては、印象度は、その項目の値を獲得する直前の内部状態管理部34における「愛情」のパラメータ値と、その項目の値を獲得した直後の当該「愛情」のパラメータ値との差分をとって付与する。   In the present embodiment, the impression degree is determined by the parameter value of “affection” in the internal state management unit 34 immediately before acquiring the value of the item and the parameter value of “affection” immediately after acquiring the value of the item. And the difference is given.

ここで、かかる対話制御機能は、主として図3について上述した行動制御システム30における状況依存行動階層38の処理により行われる。そして、この対話制御機能に関する状況依存行動階層38の処理内容を機能的に分類すると、図5に示すように、ユーザ等についての各項目の値を獲得するための会話(以下、これを獲得会話と呼ぶ)を生成する記憶獲得会話生成部50と、獲得したそのユーザ等についての各項目の値を利用した会話(以下、これを利用会話と呼ぶ)を生成する記憶利用会話生成部51と、これら記憶獲得会話生成部50及び記憶利用会話生成部51の制御を司る状況判断部52とに分けることができる。   Here, the interaction control function is mainly performed by the processing of the situation-dependent behavior hierarchy 38 in the behavior control system 30 described above with reference to FIG. Then, when the processing contents of the context-dependent behavior hierarchy 38 relating to the dialog control function are functionally classified, as shown in FIG. 5, a conversation for acquiring the value of each item for the user or the like (hereinafter referred to as an acquired conversation) A storage-based conversation generation unit 50 that generates a conversation (hereinafter, referred to as a usage conversation) using the acquired values of the respective items for the user and the like; It can be divided into a situation determination unit 52 that controls the storage acquisition conversation generation unit 50 and the storage use conversation generation unit 51.

この場合、状況判断部52は、短期記憶部35(図3)を介して得られる視覚認識機能部31の認識結果や聴覚認識機能部32の認識結果に基づいて、対話相手となり得るユーザの存在を認識すると、図6に示すように、このとき視覚認識機能部31や聴覚認識機能部32の認識結果として得られるそのユーザの顔IDや話者IDを記憶獲得会話生成部50及び記憶利用会話生成部51に送出すると共に、これら記憶獲得会話生成部50及び記憶利用会話生成部51のそれぞれに対して獲得会話又は利用会話の生成が可能か否かを問い合わせる(ステップSP1A、ステップSP1B)。   In this case, based on the recognition result of the visual recognition function unit 31 and the recognition result of the auditory recognition function unit 32 obtained via the short-term storage unit 35 (FIG. 3), the situation determination unit 52 determines the presence of a user who can be a conversation partner. As shown in FIG. 6, at this time, the user obtains the face ID and the speaker ID of the user obtained as the recognition results of the visual recognition function unit 31 and the auditory recognition function unit 32, and obtains the conversation ID. In addition to sending the generated conversation to the generation unit 51, the storage acquisition conversation generation unit 50 and the storage use conversation generation unit 51 are inquired as to whether an acquisition conversation or a use conversation can be generated (step SP1A, step SP1B).

このとき記憶獲得会話生成部50及び記憶利用会話生成部51は、予め定められた所定の話題生成ルール及び話題利用方法決定ルールに従って、話題の生成と、生成された話題をどのように利用して獲得会話又は利用会話を生成するかという話題の利用方法とを決定する会話生成処理を実行する(ステップSP2A、ステップSP2B)。   At this time, the memory acquisition conversation generation unit 50 and the memory use conversation generation unit 51 generate a topic and how to use the generated topic in accordance with a predetermined topic generation rule and topic usage method determination rule. A conversation generation process for determining a topic usage method of generating an acquired conversation or a use conversation is executed (step SP2A, step SP2B).

ここで、本実施の形態の場合、かかる話題生成ルールとして、6つのルールがある。   Here, in the case of the present embodiment, there are six rules as such topic generation rules.

第1の話題生成ルールは、直前の会話で使用した話題と同じ対象物の別の任意の項目を次の話題として選択するルールであり、本実施の形態においては、印象度が最も大きい項目から順に選択する。例えば図4において直前の会話の話題が『対象物ID1』の『誕生日(BIRTHDAY)』であった場合に、同じ『対象物ID1』の他の項目の中から印象度が最も大きい項目を次の会話の話題とする場合が該当する。   The first topic generation rule is a rule for selecting another arbitrary item of the same object as the topic used in the immediately preceding conversation as the next topic. In the present embodiment, the first topic generation rule starts with the item having the highest impression degree. Select in order. For example, in FIG. 4, when the topic of the immediately preceding conversation is “BIRTHDAY” of “Object ID1”, the item having the highest impression degree among the other items of the same “Object ID1” is next. This is the case for the topic of conversation.

また第2の話題生成ルールは、直前の会話で使用した話題と同じ対象物の関連のある項目を次の話題として選択するルールであり、例えば図4において直前の会話の話題が『対象物ID1』の『好きなもの(Favorite)』であった場合に、『対象物ID1』の『嫌いなもの(Dislike)』を次の会話の話題とする場合が該当する。   The second topic generation rule is a rule for selecting, as the next topic, an item that is related to the same object as the topic used in the immediately preceding conversation. For example, in FIG. , "Favorite" in "", and "Dislike" in "Object ID1" is the topic of the next conversation.

さらに第3の話題生成ルールは、直前の会話で使用した話題の項目の値から特定できる対象物の別のいずれかの項目を次の話題として選択するルールであり、本実施の形態においては、印象度が高い対象物から順に次の対象物とする。例えば図4において直前の会話の話題が『対象物ID1』の『友人(Friend)』であった場合に、その『友人(Friend)』である『対象物ID2』のいずれかの項目を次の会話の話題とする場合が該当する。   Further, the third topic generation rule is a rule for selecting another item of the object that can be specified from the value of the topic item used in the immediately preceding conversation as the next topic. In the present embodiment, The next object is set in order from the object having the highest impression degree. For example, in FIG. 4, when the topic of the immediately preceding conversation is “Friend” of “Object ID1”, one of the items of “Object ID2” that is “Friend” is changed to the following. This is the case for conversation topics.

一方、第4の話題生成ルールは、直前の会話で使用した話題と同じ対象物の同じ項目を次の話題として選択するルールであり、例えば図4において直前の会話の話題が『対象物ID1』の『誕生日(BIRTHDAY)』であった場合に、同じ『対象物ID1』の同じ『誕生日(BIRTHDAY)』を次の会話の話題とする場合が該当する。   On the other hand, the fourth topic generation rule is a rule for selecting the same item of the same object as the topic used in the immediately preceding conversation as the next topic. For example, in FIG. 4, the topic of the immediately preceding conversation is “object ID 1”. Is "Birthday", the case where the same "Birthday" of the same "Object ID1" is set as the topic of the next conversation corresponds to the case.

また第5の話題生成ルールは、直前の会話で使用した話題における項目の値と同じ値を有する別の対象物の同じ項目を次の話題として選択するルールであり、例えば図4において直前の会話の話題が『対象物ID1』の『好きなもの(Favorite)』であった場合に、『好きなもの(Favorite)』の値が同じ『紅茶』である『対象物ID3』の『好きなもの(Favorite)』を次の会話の話題とする場合が該当する。   The fifth topic generation rule is a rule for selecting the same item of another object having the same value as the value of the item in the topic used in the immediately preceding conversation as the next topic. For example, in FIG. Is "Favorite" of "Object ID1", and "Favorite" of "Object ID3" with the same "Favorite" value of "Tea" (Favorite)] is the topic of the next conversation.

さらに第6の話題生成ルールは、直前の会話で使用した話題における項目の上記値と関連のある値を有する別の対象物の項目を次の話題として選択するルールであり、例えば図4において直前の会話の話題が『対象物ID1』の『好きなもの(Favorite)』であった場合に、その『好きなもの(Favorite)』である『うま』から『競馬』を『好きなもの(Favorite)』の値とする『対象物ID6』を選択として、この『対象物ID6』の『好きなもの(Favorite)』を次の会話の話題とする場合が該当する。   Further, the sixth topic generation rule is a rule for selecting an item of another object having a value related to the above-mentioned value of the item in the topic used in the immediately preceding conversation as the next topic. If the conversation topic is “Favorite” of “Object ID1”, “horse racing” is changed from “Favorite” that is “Favorite” to “Favorite”. )) Is selected, and "Favorite" of the "object ID 6" is set as the topic of the next conversation.

さらに第7の話題生成ルールは、直前の会話で使用した話題と同じ項目で別の対象物を次の話題として選択するルールであり、例えば図4において直前の会話の話題が『対象物ID1』の『好きなもの(Favorite)』であった場合に、『対象物ID2』の『好きなもの(Favorite)』を次の会話の話題とする場合が該当する。   Further, the seventh topic generation rule is a rule for selecting another object as the next topic with the same item as the topic used in the immediately preceding conversation. For example, in FIG. 4, the topic of the immediately preceding conversation is “object ID 1”. , "Favorite" of "object ID2" is the topic of the next conversation.

なおこれら第1〜第7の話題生成ルールのうち、第1〜第3の話題生成ルールは獲得会話の生成時及び利用会話の生成時の双方において利用することができ、第3〜第7の話題生成ルールは獲得会話の生成時には利用できないが、利用会話の生成時には有効である。   Note that among these first to seventh topic generation rules, the first to third topic generation rules can be used both when generating the acquired conversation and when generating the use conversation. Topic generation rules cannot be used when generating acquired conversations, but are effective when generating used conversations.

従って、記憶獲得会話生成部50は、これら第1〜第3の話題生成ルールの中から1つをランダム(任意)に選択し、記憶利用会話生成部51は、これら第1〜第7の話題生成ルールの中から1つをランダムに選択して、当該選択した話題生成ルールに従って、例えば直前の会話の話題が『対象物ID1の好きなもの(Favorite)』であった場合に、『対象物ID1の友人(Friend)』、『対象物ID1の嫌いなもの(Dislike)』、『対象物ID2の誕生日(BIRTHDAY)』、『対象物ID1の誕生日(BIRTHDAY)』、『対象物ID3の好きなもの(Favorite)』又は『対象物ID6の好きなもの(Favorite)』というかたちで次の会話の話題を生成することとなる。   Therefore, the memory-acquired conversation generation unit 50 randomly (arbitrarily) selects one of the first to third topic generation rules, and the memory-based conversation generation unit 51 selects one of the first to seventh topic generation rules. One of the generation rules is randomly selected, and according to the selected topic generation rule, for example, when the topic of the immediately preceding conversation is “Favorite object ID 1 (Favorite)”, "Friend of ID1 (Friend)", "Dislike of object ID1 (Dislike)", "Birthday of object ID2 (BIRTHDAY)", "Birthday of object ID1 (BIRTHDAY)", "Object ID3 The topic of the next conversation is generated in the form of "Favorite" or "Favorite of the object ID6".

一方、本実施の形態においては、話題利用方法決定ルールとして、3つのルールがある。   On the other hand, in the present embodiment, there are three rules as topic usage method determination rules.

この場合、第1の話題利用方法決定ルールは、長期記憶部36が記憶している対応する項目の値をそのまま利用して発話を生成するルールであり、例えば話題として『対象物ID1の好きなもの(Favorite)』が生成された場合に、『ゆきこの好きなものって紅茶だよね。』や、『ゆきこの好きなものってなに?』といった発話を生成する場合が該当する。   In this case, the first topic use method determination rule is a rule that generates an utterance using the value of the corresponding item stored in the long-term storage unit 36 as it is. When "Favorite" is generated, "Yukiko's favorite thing is tea. And "What is Yukiko's favorite thing?" ] Is generated.

また第2の話題利用方法決定ルールは、長期記憶部36が記憶している対応する項目の値からデータベースを検索して関連する事項を読み出し、これを利用して発話を生成するルールであり、例えば話題として『対象物ID1の誕生日(BIRTHDAY)』が生成された場合に、その『誕生日(BIRTHDAY)』の値である『73/5/2』をキーワードとして記念日データベースを検索し、得られた『交通広告の日』という事項を利用して、『5月2日は交通広告の日なんだよ。』といった発話を生成する場合が該当する。   The second topic use method determination rule is a rule for searching the database from the value of the corresponding item stored in the long-term storage unit 36, reading out related items, and using this to generate an utterance, For example, if "Birthday of object ID1" is generated as a topic, the anniversary database is searched using "73/5/2", which is the value of "Birthday", as a keyword. Using the obtained "Travel Ad Day", "May 2 is a traffic ad day. ] Is generated.

さらに第3の話題利用方法決定ルールは、長期記憶部36が記憶している対応する項目の値から計算又は連想等される関連する値でデータベースを検索してさらに関連する事項を読み出し、これを利用して発話を生成するルールであり、例えば話題として『対象物ID1の誕生日(BIRTHDAY)』が生成された場合に、その『誕生日(BIRTHDAY)』の値である『73/5/2』から計算される『おうし座』をキーワードとして星占いデータベースを検索し、得られた『我慢強い』という事項を利用して『おうし座は我慢強い人なんだよ。』といった発話を生成する場合が該当する。   Further, the third topic use method determination rule reads the database with a related value calculated or associated from the value of the corresponding item stored in the long-term storage unit 36, reads out a related item, and reads this. This rule is used to generate an utterance. For example, when “birthday of object ID1 (BIRTHDAY)” is generated as a topic, the value of “birthday (BIRTHDAY)” is “73/5/2”. Searching the horoscope database using "Taurus" as a keyword calculated from "" and using the obtained "Patience" item, "Taurus is a patient. ] Is generated.

なおこれら第1〜第3の話題利用方法決定ルールのうち、第1の話題利用方法決定ルールは獲得会話の生成時及び利用会話の生成時の双方において利用することができ、第2及び第3の話題利用方法決定ルールは獲得会話の生成時には利用できないが、利用会話の生成時には有効である。   Note that, of these first to third topic use method determination rules, the first topic use method determination rule can be used both at the time of generation of the acquired conversation and at the time of generation of the use conversation. Although the topic usage method determination rule cannot be used when generating an acquired conversation, it is effective when generating a used conversation.

従って、記憶獲得会話生成部50は、第1の話題利用方法決定ルールを選択し、記憶利用会話生成部51は、第1〜第3の話題利用方法決定ルールの中から1つをランダムに選択して、当該選択した話題利用方法決定ルールに従って情報獲得のための発話や獲得した情報を利用した発話を生成することとなる。   Therefore, the memory acquisition conversation generation unit 50 selects the first topic use method determination rule, and the memory use conversation generation unit 51 randomly selects one from the first to third topic use method determination rules. Then, an utterance for acquiring information or an utterance using the acquired information is generated according to the selected topic use method determination rule.

そしてこれら記憶獲得会話生成部50及び記憶利用会話生成部51は、かかる話題生成処理により話題の生成及びその利用方法の決定が行えたときには、その旨並びにその話題及び利用方法を状況判断部52に通知する一方、かかる話題の生成等ができなかったときは、その旨を状況判断部52に通知する(ステップSP3A、ステップSP3B)。   When the memory generation conversation generation unit 50 and the memory use conversation generation unit 51 can generate a topic and determine a method of using the topic by such a topic generation process, the fact and the topic and the method of use are sent to the situation determination unit 52. On the other hand, if such a topic cannot be generated, the status determination unit 52 is notified of the fact (step SP3A, step SP3B).

一方、状況判断部52は、記憶獲得会話生成部50及び記憶利用会話生成部51の両方から話題の生成及びその利用方法の決定が行えた旨の通知が与えられたときには、そのときのその対話相手の全項目数に対する未だ値を獲得していない項目数の度合いでなる第1の度合いと、その対話相手の全項目数に対する既に値を獲得した項目数の度合いでなる第2の度合いとに基づいて、記憶獲得会話生成部50及び記憶利用会話生成部51のいずれか一方を選択する(ステップSP4)。   On the other hand, when both of the memory acquisition conversation generation unit 50 and the memory use conversation generation unit 51 are notified that the topic has been generated and the method of using the topic has been determined, the situation determination unit 52 performs the dialogue at that time. A first degree, which is the degree of the number of items that have not yet obtained a value with respect to the total number of items of the partner, and a second degree, which is the degree of the number of items that have already obtained a value with respect to the total number of items of the dialogue partner. Based on this, one of the memory acquisition conversation generation unit 50 and the memory use conversation generation unit 51 is selected (step SP4).

より具体的には、状況判断部52は、第1の度合いが第2の度合い以上のときには記憶獲得会話生成部50を選択し、第1の度合いが第2の度合いよりも小さいときには記憶利用会話生成部51を選択する。   More specifically, the situation determination unit 52 selects the memory acquisition conversation generation unit 50 when the first degree is equal to or higher than the second degree, and when the first degree is smaller than the second degree, the storage use conversation generation unit 50 is selected. The generation unit 51 is selected.

そして状況判断部52は、この後このようにしていずれか一方を選択すると、その選択した記憶獲得会話生成部50又は記憶利用会話生成部51に対し、その話題及び利用方法に基づいて獲得会話又は利用会話を生成する処理(以下、これを会話生成処理と呼ぶ)を開始するよう指示を与える(ステップSP5)。   Then, when the situation determination unit 52 selects one of them in this manner, the selected storage acquisition conversation generation unit 50 or the storage use conversation generation unit 51 receives the acquisition conversation or the storage use conversation generation unit 51 based on the topic and the use method. An instruction is given to start a process of generating a use conversation (hereinafter, this process is referred to as a conversation generation process) (step SP5).

また状況判断部52は、記憶獲得会話生成部50及び記憶利用会話生成部51のいずれか一方からのみ話題及びその利用方法の通知が与えられたときにも、その記憶獲得会話生成部50又は記憶利用会話生成部51に対し、その話題及び利用方法に基づいて会話生成処理を開始するよう指示を与える(ステップSP5)。   Also, when a notification of a topic and its use method is given from only one of the memory acquisition conversation generation unit 50 and the storage use conversation generation unit 51, the situation determination unit 52 or the storage acquisition conversation generation unit 50 or the storage The use conversation generation unit 51 is instructed to start a conversation generation process based on the topic and the method of use (step SP5).

かくして、かかる指示が与えられた記憶獲得会話生成部50又は記憶利用会話生成部51は、会話生成処理を開始し、まず内部状態管理部34にアクセスして本能的要素のうちの「愛情」のパラメータ値を取得し、この後上述のようにして決定した話題及びその利用方法に基づき生成される、情報を獲得するための発話(以下、これを獲得発話と呼ぶ)又は獲得した情報を利用した発話(以下、これを利用発話と呼ぶ)を含む一連の発話からなる獲得会話又は利用会話を行うための各発話内容の文字列データD1をハードウェア依存行動制御部40内の音声合成部53に順次送出する。   Thus, the memory acquisition conversation generation unit 50 or the storage use conversation generation unit 51 to which the instruction is given starts the conversation generation process, and first accesses the internal state management unit 34 to access the internal state management unit 34 for “love” of the instinct element. A parameter value is acquired, and thereafter, an utterance for acquiring information (hereinafter, referred to as an acquired utterance) or the acquired information is generated based on the topic determined as described above and the method of using the topic. The character string data D1 of the contents of each utterance for performing an acquired conversation or a series of utterances including utterances (hereinafter, referred to as usage utterances) is sent to the speech synthesis unit 53 in the hardware-dependent behavior control unit 40. Send out sequentially.

この結果、この文字列データD1に基づいて音声合成部53において音声信号S1が生成され、これがスピーカ12(図1)に与えられることにより、例えば『ゆきこの好きなものってなに?』といった獲得発話を含む一連の発話からなる獲得会話を形成する各発話内容の音声や、『ゆきこの好きなものって紅茶だよね!』といった利用発話を含む一連の発話からなる利用会話を形成する各発話内容の音声がスピーカ12から出力されることとなる(ステップSP6)。   As a result, an audio signal S1 is generated in the audio synthesizing section 53 based on the character string data D1, and is supplied to the speaker 12 (FIG. 1), so that, for example, "What is Yukiko's favorite thing?" ), And form a usage conversation consisting of a series of utterances that include a series of utterances that form a series of utterances that include the utterance utterances such as "Ukiko's favorite thing is tea!" The voice of each uttered content is output from the speaker 12 (step SP6).

そしてこのとき、その話題に対するユーザの応答がマイクロホン11により集音されて行動制御システム30(図3)の聴覚認識機能部32に与えられ、当該聴覚認識機能部32により音声認識される。   At this time, the user's response to the topic is collected by the microphone 11 and given to the auditory recognition function unit 32 of the behavior control system 30 (FIG. 3), and the voice is recognized by the auditory recognition function unit 32.

かくして、ステップSP4において選択されていたのが記憶獲得会話生成部50であった場合、当該記憶獲得会話生成部50は、この聴覚認識機能部32音声認識結果に基づいて、獲得発話に対するユーザの応答の中から当該獲得発話に基づく質問の答え(すなわち、そのとき獲得しようとしていた項目の値)を抽出し、これを例えば図4について上述したフォーマットで長期記憶部36に記憶させる(ステップSP6)。   Thus, when the memory acquisition conversation generation unit 50 is selected in step SP4, the memory acquisition conversation generation unit 50 responds to the acquired utterance by the user based on the audio recognition result of the auditory recognition function unit 32. Then, the answer to the question based on the acquired utterance (that is, the value of the item that was about to be acquired at that time) is extracted and stored in the long-term storage unit 36 in the format described above with reference to FIG. 4 (step SP6).

またこれと共に記憶獲得会話生成部50は、内部状態管理部34にアクセスしてこのときの「愛情」のパラメータ値を取得し、当該取得したパラメータ値と、会話の直前に取得した同じ「愛情」のパラメータ値との差分を計算し、当該計算結果をかかるユーザ等の上述のようにして獲得した項目の値の印象度として、当該値と対応付けて長期記憶部34に記憶させる(ステップSP6)。   At the same time, the memory acquisition conversation generation unit 50 accesses the internal state management unit 34 to acquire the parameter value of “affection” at this time, and the acquired parameter value and the same “affection” acquired immediately before the conversation. Is calculated, and the result of the calculation is stored in the long-term storage unit 34 in association with the calculated value as an impression degree of the value of the item obtained by the user or the like as described above (step SP6). .

一方、記憶獲得会話生成部50又は記憶利用会話生成部51は、獲得会話又は利用会話が終了すると、これを知らせる通知を状況判断部52に送出する(ステップSP7)。そして状況判断部52は、かかる通知を受け取ると、ステップSP4において選択した記憶獲得会話生成部50又は記憶利用会話生成部51からステップSP3A又はステップSP3Bにおいて通知された話題及びその利用方法を記憶獲得会話生成部50及び記憶利用会話生成部51にそれぞれ通知する(ステップSP8A、ステップSP8B)。   On the other hand, when the acquired conversation or the use conversation ends, the storage acquisition conversation generation unit 50 or the storage use conversation generation unit 51 sends a notification notifying this to the situation determination unit 52 (step SP7). Then, upon receiving the notification, the situation determination unit 52 stores the topic notified in step SP3A or step SP3B from the storage acquisition conversation generation unit 50 or the storage use conversation generation unit 51 selected in step SP4 and the method of using the topic. The notification is sent to the generation unit 50 and the storage use conversation generation unit 51 (step SP8A, step SP8B).

かくして記憶獲得会話生成部50及び記憶利用会話生成部51は、この通知された話題及びその利用法を会話履歴として記憶し(ステップSP9A、ステップSP9B)、この後同じ対話相手との1度の対話において、同じ話題を使用しないように、当該対話が終了するまで上述と同様にして順次獲得会話又は利用会話を生成する(ステップSP10A−ステップSP1A〜ステップSP10A、ステップSP10B−ステップSP1B〜ステップSP10B)。   Thus, the memory acquisition conversation generation unit 50 and the memory use conversation generation unit 51 store the notified topic and its usage as a conversation history (step SP9A, step SP9B), and thereafter perform a single conversation with the same conversation partner. In step (1), acquired conversations or use conversations are sequentially generated in the same manner as described above until the conversation is completed so as not to use the same topic (step SP10A-step SP1A-step SP10A, step SP10B-step SP1B-step SP10B).

このようにしてこのロボッ1トにおいては、ユーザに関する各種情報を自然なかたちで順次獲得すると共にこれを利用しつつ、自然な流れで話題を順次遷移させながら、そのユーザに特化した話題の対話を行い得るようになされている。   In this way, in this robot, while sequentially acquiring various kinds of information about the user in a natural manner and utilizing the information, while sequentially transiting the topics in a natural flow, the conversation of the topic specialized for the user is performed. Has been made possible.

(2−2)話題生成時における各会話生成部の具体的処理内容
次に、話題生成時における記憶獲得会話生成部50及び記憶利用会話生成部51の具体的処理内容について説明する。
(2-2) Specific Processing Contents of Each Conversation Generation Unit at the Time of Topic Generation Next, specific processing contents of the memory acquisition conversation generation unit 50 and the memory use conversation generation unit 51 at the time of topic generation will be described.

記憶獲得会話生成部50及び記憶利用会話生成部51は、図7に示す話題生成処理手順RT1に従って話題の生成及びその利用方法を決定する。   The storage acquisition conversation generation unit 50 and the storage use conversation generation unit 51 determine the generation of a topic and the method of using the topic in accordance with the topic generation processing procedure RT1 shown in FIG.

すなわち記憶獲得会話生成部50及び記憶利用会話生成部51は、図6のステップSP1A、ステップSP1Bにおいて状況判断部52から獲得会話又は利用会話の生成が可能か否かの問い合わせがあると、この話題生成処理手順RT1をステップSP20において開始し、続くステップSP21において、上述の第1〜第3又は第1〜第6の話題生成ルールの中から1つの話題生成ルールをランダムに選択する。   That is, the memory acquisition conversation generation unit 50 and the storage use conversation generation unit 51, when inquiring from the situation determination unit 52 in step SP1A and step SP1B of FIG. The generation processing procedure RT1 is started in step SP20, and in the following step SP21, one topic generation rule is randomly selected from the above-described first to third or first to sixth topic generation rules.

次いで、記憶獲得会話生成部50及び記憶利用会話生成部51は、ステップSP22に進んで、ステップSP1において選択した話題利用ルールに従って話題を生成する。これにより、例えば直前の会話の話題が『対象物ID1の好きなもの(Favorite)』であった場合には、『対象物ID1の友人(Friend)』、『対象物ID1の嫌いなもの(Dislike)』などのかたちで話題が生成される。   Next, the memory acquisition conversation generation unit 50 and the storage use conversation generation unit 51 proceed to step SP22, and generate a topic according to the topic use rule selected in step SP1. Thus, for example, when the topic of the immediately preceding conversation is “Favorite of the object ID 1”, “Friend of the object ID 1 (Friend)” and “Dislike of the object ID 1 (Dislike) )] ”And other topics are generated.

続いて、記憶獲得会話生成部50及び記憶利用会話生成部51は、ステップSP23に進んで、長期記憶部36における対象物IDの『名前(Name)』の欄に対応付けられた記憶領域のデータと、当該対象物IDの対応する項目の欄に対応付けられた記憶領域のデータとを読み出す。例えばステップSP21において選択した話題が『対象物ID1の友人(Friend)』であった場合には、図4における『対象物ID1』の『名前(Name)』の欄に対応付けられた長期記憶部36内の記憶領域のデータと、当該『対象物ID1』の『友人(Friend)』の欄に対応付けられた長期記憶部36内の記憶領域のデータとが読み出されることとなる。   Subsequently, the storage acquisition conversation generation unit 50 and the storage use conversation generation unit 51 proceed to step SP23, and the data of the storage area associated with the “Name” column of the object ID in the long-term storage unit 36 And the data of the storage area associated with the column of the item corresponding to the object ID. For example, if the topic selected in step SP21 is “Friend of the object ID1”, the long-term storage unit associated with the “Name” column of the “object ID1” in FIG. The data in the storage area in the long-term storage unit 36 associated with the “Friend” column of the “object ID1” is read out.

ただしこの場合、かかる対象物IDの『名前(Name)』の値や、当該対象物IDの対応する項目の値が未だ獲得されておらず、読み出された記憶領域内にデータが格納されていない場合もある。   However, in this case, the value of the “Name” of the object ID and the value of the corresponding item of the object ID have not been obtained yet, and the data is stored in the read storage area. Not always.

そこで、記憶獲得会話生成部50及び記憶利用会話生成部51は、続くステップSP24において、ステップSP23において読み出した各データに基づいて、獲得会話又は利用会話の生成が可能か否か、すなわち所望する項目の値が獲得されているか否かを判断する。   Therefore, in the succeeding step SP24, the storage acquisition conversation generation unit 50 and the storage use conversation generation unit 51 determine whether or not the acquisition conversation or the use conversation can be generated based on each data read in step SP23, that is, a desired item. It is determined whether or not the value of has been acquired.

そして、記憶獲得会話生成部50及び記憶利用会話生成部51は、このステップSP24において否定結果を得るとステップSP21に戻って、この後ステップSP24において肯定結果を得るまでステップSP21〜ステップSP24を繰り返す。   When the memory acquisition conversation generation unit 50 and the storage use conversation generation unit 51 obtain a negative result in step SP24, they return to step SP21, and thereafter repeat steps SP21 to SP24 until a positive result is obtained in step SP24.

これに対して、記憶獲得会話生成部50及び記憶利用会話生成部51は、このステップSP24において肯定結果を得ると、ステップSP25に進んで、記憶獲得会話生成部50は、話題利用方法決定ルールとして上述の第1の話題利用方法決定ルールを選択し、記憶利用会話生成部51は、上述の第1〜第3の話題利用方法決定ルールの中から1つの話題利用方法決定ルールをランダムに選択する。   On the other hand, if the storage acquisition conversation generation unit 50 and the storage use conversation generation unit 51 obtain a positive result in step SP24, the process proceeds to step SP25, where the storage acquisition conversation generation unit 50 sets the topic use method determination rule as The above-described first topic use method determination rule is selected, and the storage use conversation generation unit 51 randomly selects one topic use method determination rule from the above-described first to third topic use method determination rules. .

さらに記憶獲得会話生成部50及び記憶利用会話生成部51は、この後ステップSP26に進んで、そのとき蓄えている会話履歴をチェックすることにより、それまでのそのユーザとの一連の対話の中で、今回のステップSP21及びステップSP25においてそれぞれ選択した話題及びその利用方法の組み合わせと同じ組み合わせの会話を既に行ったか否かを判断する。   Further, the memory acquisition conversation generation unit 50 and the storage use conversation generation unit 51 thereafter proceed to step SP26, check the conversation history stored at that time, and perform a series of conversations with the user up to that point. Then, it is determined whether or not the conversation of the same combination as the combination of the topic selected in step SP21 and step SP25 in this time has already been performed.

そして、記憶獲得会話生成部50及び記憶利用会話生成部51は、このステップSP26において否定結果を得ると、ステップSP27に進んでこの話題生成処理手順RT1を終了し、この後状況判断部52に対して話題の生成及びその利用方法の決定が行えた旨を通知する(図6のステップSP3A、ステップSP3B)。   When the storage acquisition conversation generation unit 50 and the storage use conversation generation unit 51 obtain a negative result in step SP26, the process proceeds to step SP27, ends the topic generation processing procedure RT1, and thereafter, the situation determination unit 52 Notification that the topic has been generated and the method of using the topic has been determined (steps SP3A and SP3B in FIG. 6).

これに対して、記憶獲得会話生成部50及び記憶利用会話生成部51は、ステップSP26において肯定結果を得ると、ステップSP25に戻って新たな話題利用方法決定ルールを選択し、この後その話題に対して全ての話題利用方法決定ルールを組み合わせ終わるまで、又はステップSP26において肯定結果を得るまでステップSP25−SP26−SP25のループを繰り返す。   On the other hand, if the storage acquisition conversation generation unit 50 and the storage use conversation generation unit 51 obtain a positive result in step SP26, they return to step SP25, select a new topic use method determination rule, and thereafter, On the other hand, the loop of steps SP25-SP26-SP25 is repeated until all topic use method determination rules are combined or a positive result is obtained in step SP26.

そして、記憶獲得会話生成部50及び記憶利用会話生成部51は、この処理によりその話題に対して全ての話題利用方法決定ルールの組み合わせを終えたが、それでもなおステップSP27において否定結果が得られないことにより、選択可能な話題利用方法決定ルールが存在しないことを確認すると、ステップSP21に戻って新たな話題を生成し、この後ステップSP2以降を上述と同様に処理する。   Then, the memory acquisition conversation generation unit 50 and the storage use conversation generation unit 51 complete the combination of all topic use method determination rules for the topic by this processing, but still do not obtain a negative result in step SP27. Accordingly, when it is confirmed that there is no selectable topic use method determination rule, the process returns to step SP21 to generate a new topic, and thereafter, steps SP2 and thereafter are processed in the same manner as described above.

さらに、記憶獲得会話生成部50及び記憶利用会話生成部51は、ステップSP21〜ステップSP26までの処理を繰り返し行うことにより、全ての話題及び全ての利用方法の組み合わせによっても会話を生成できない(ステップSP27に到達し得ない)ことを確認すると、ステップSP28に進んでこの話題生成処理手順RT1を終了し、この後状況判断部52に対して話題の生成及びその利用方法の決定が行えなかった旨を通知する(図6のステップSP3A、ステップSP3B)。   Furthermore, the memory acquisition conversation generation unit 50 and the storage use conversation generation unit 51 cannot generate a conversation even by a combination of all topics and all use methods by repeatedly performing the processing from step SP21 to step SP26 (step SP27). Is reached, the process proceeds to step SP28, the topic generation processing procedure RT1 is terminated, and after that, the situation determination unit 52 is informed that generation of a topic and determination of a method of using the topic could not be performed. Notify (step SP3A, step SP3B in FIG. 6).

このようにして記憶獲得会話生成部50及び記憶利用会話生成部51は、話題の生成及びその利用方法の決定を行うようになされている。   In this way, the memory acquisition conversation generation unit 50 and the memory use conversation generation unit 51 generate topics and determine how to use them.

(2−3)会話生成処理時における各会話生成部の具体的処理
次に、会話生成処理時における記憶獲得会話生成部50及び記憶利用会話生成部51の具体的処理内容について説明する。
(2-3) Specific Processing of Each Conversation Generating Unit During Conversation Generation Processing Next, specific processing contents of the storage acquisition conversation generation unit 50 and the storage use conversation generation unit 51 during the conversation generation processing will be described.

記憶獲得会話生成部50及び記憶利用会話生成部51は、それぞれ図4について上述した各項目にそれぞれ対応させて、図8に示すように、その項目の値を獲得するための獲得発話や、その項目の値を利用した利用発話を生成するためのテンプレートを予め有している。   The memory acquisition conversation generation unit 50 and the memory use conversation generation unit 51 correspond to each item described above with reference to FIG. 4, respectively, as shown in FIG. A template for generating a use utterance using the value of the item is provided in advance.

そして、記憶獲得会話生成部50及び記憶利用会話生成部51は、会話生成処理時、対応する項目のテンプレートの対応する部分にそのときの話題となっている対象物の『名前(Name)』の値や、『好きなもの(Favorite)』の値を当てはめるようにしてその項目の値を獲得するための獲得発話やその項目の値を利用するための利用発話の文字列データD1を生成するようになされている。   At the time of the conversation generation processing, the memory acquisition conversation generation unit 50 and the memory use conversation generation unit 51 add the “Name” of the object that is the topic at that time to the corresponding part of the template of the corresponding item. A character string data D1 of an acquired utterance for acquiring the value of the item or a use utterance for using the value of the item by applying the value or the value of “Favorite” is applied. It has been made.

また、記憶獲得会話生成部50及び記憶利用会話生成部51は、図6のステップSP2A又はステップSP2Bにおいて決定した話題及びその利用方法に基づく獲得発話又は利用発話を含む一連の発話からなる獲得会話又は利用会話を生成するため、どのような内容の発話や処理をどのタイミングで行うかを予め規定した状態遷移モデルを利用方法ごと、つまり上述の第1〜第3の話題利用方法決定ルールごとに有している。   In addition, the memory acquisition conversation generation unit 50 and the memory use conversation generation unit 51 perform an acquisition conversation consisting of a series of utterances including an acquisition utterance or a use utterance based on the topic determined in step SP2A or step SP2B in FIG. In order to generate a use conversation, a state transition model in which what utterance and processing are to be performed and at what timing is used for each method of use, that is, for each of the above-described first to third topic use method determination rules. are doing.

この状態遷移モデルは、例えば図9に示すように、ノード(Node1〜Node6)と呼ばれる各状態間をアーク(Ac1〜Ac6)と呼ばれる経路で結び、各経路にそれぞれそのとき発話すべき発話内容や、そのとき行うべき処理内容が対応付けられたものである。   In this state transition model, for example, as shown in FIG. 9, each state called a node (Node1 to Node6) is connected by a path called an arc (Ac1 to Ac6), The processing contents to be performed at that time are associated with each other.

そして、記憶獲得会話生成部50及び記憶利用会話生成部51は、会話生成処理時、すなわち獲得会話又は利用会話の生成時には、対応する状態遷移モデルに従って、状態(ノードNode1〜Node6)を順次遷移させながら、そのとき通過する状態間の経路(アークAr1〜Ar7)にそれぞれ対応付けられた発話の文字列データD1を順次音声合成部53(図5)に送出することにより、所定内容の発話音声を所定の順番でスピーカ11から順次出力させる。   Then, at the time of the conversation generation process, that is, at the time of generation of the acquired conversation or the used conversation, the storage acquisition conversation generation unit 50 and the storage use conversation generation unit 51 sequentially transition the states (nodes Node1 to Node6) according to the corresponding state transition model. Meanwhile, by transmitting the character string data D1 of the utterances respectively associated with the paths (arcs Ar1 to Ar7) between the states that pass at that time to the sound synthesizing unit 53 (FIG. 5), the utterance sound of a predetermined content is output. The signals are sequentially output from the speakers 11 in a predetermined order.

このとき獲得発話や利用発話も各状態遷移モデルにおけるいずれかの経路に対応付けられており、記憶獲得会話生成部50及び記憶利用会話生成部51は、その経路を通過する際に上述のようにして獲得発話又は利用発話を生成し、その文字列データD1を音声合成部53に送出することにより、その獲得発話又は利用発話の音声をスピーカ11から出力させる。   At this time, the acquired utterance and the use utterance are also associated with one of the paths in each state transition model, and the stored acquisition conversation generation unit 50 and the storage use conversation generation unit 51 perform the processing as described above when passing through the path. By generating the acquired utterance or the use utterance, and transmitting the character string data D1 to the voice synthesizing unit 53, the voice of the obtained utterance or the use utterance is output from the speaker 11.

このようにして記憶獲得会話生成部50及び記憶利用会話生成部51は、図6のステップSP2A、ステップSP2Bにおいて決定した話題及びその利用方法に応じた獲得発話又は利用発話を含む一連の発話からなる獲得会話や利用会話を生成し得るようになされている。   In this way, the memory acquisition conversation generation unit 50 and the memory use conversation generation unit 51 are composed of a series of utterances including the acquisition utterance or the use utterance according to the topic determined in step SP2A and step SP2B in FIG. An acquisition conversation and a use conversation can be generated.

ここで図8及び図9は、記憶獲得会話生成部50の制御の下に行われるある項目の値を獲得するためのユーザとの会話(獲得会話)の具体例を示したものである。この具体例では、話題が『対象物ID1の好きなもの(Favorite)』であり、その利用方法として第1の話題利用方法決定ルールが選択されているものとする。   8 and 9 show a specific example of a conversation (acquired conversation) with a user for acquiring a value of a certain item under the control of the memory acquisition conversation generating unit 50. In this specific example, it is assumed that the topic is “Favorite of the object ID 1 (Favorite)” and the first topic use method determination rule is selected as the use method.

この場合、記憶獲得会話生成部50は、初期時、ノードNode1からノードNode2に状態遷移し、このときアークAc1に対応付けられた『ゆきこのこと、聞いていい?』という発話内容の文字列データD1を音声合成部53に出力することにより、ユーザに記憶を獲得しても良いかどうかの確認を行うと共に、内部状態管理部34(図5)にアクセスしてそのときの「愛情」のパラメータ値を取得する。   In this case, the memory acquisition conversation generation unit 50 makes a state transition from the node Node1 to the node Node2 at the initial stage. By outputting the character string data D1 of the utterance content to the speech synthesizing unit 53, it is confirmed whether or not the user can acquire the memory, and the internal state managing unit 34 (FIG. 5) is accessed. The parameter value of "affection" at that time is obtained.

次いで、記憶獲得会話生成部50は、ノードNode2において、ユーザからの『いいよ』との肯定的な応答があったことを聴覚認識機能部32(図5)の音声認識結果に基づき確認すると、ノードNode2からノードNode3に状態遷移し、このときアークAc2に対応付けられた獲得発話、この例では『ゆきこの好きなものってなに?』という発話内容の文字列データD1を音声合成部53に出力する。   Next, the memory acquisition conversation generation unit 50 confirms that there is a positive response of “good” from the user at the node Node2 based on the voice recognition result of the auditory recognition function unit 32 (FIG. 5). The state transitions from the node Node2 to the node Node3. At this time, the acquired utterance associated with the arc Ac2, in this example, "What is Yukiko's favorite thing? Is output to the speech synthesizer 53.

これに対して、記憶獲得会話生成部50は、ノードNode2において、ユーザからの『やだよ』といった否定的な応答があったことを聴覚認識機能部32の音声認識結果に基づき確認すると、ノードNode2からノードNode6に状態遷移し、このときアークAc6に対応付けられた『ごめんなさい』という発話内容の文字列データD1を音声合成部53に出力する。   On the other hand, when the memory acquisition conversation generation unit 50 confirms that a negative response such as “Yadayo” has been received from the user at the node Node2 based on the speech recognition result of the auditory recognition function unit 32, the node The state transitions from Node2 to Node6. At this time, the character string data D1 of the utterance content of “I'm sorry” associated with the arc Ac6 is output to the speech synthesis unit 53.

一方、記憶獲得会話生成部50は、ノードNode3において、ユーザから『好きなものは紅茶だよ』との応答があったことを聴覚認識機能部32の音声認識結果に基づき確認すると、ノードNode3からノードNode4に状態遷移し、このときアークAc3に対応付けられた『紅茶なんだね』という発話内容の文字列データD1を音声合成部53に出力する。   On the other hand, the memory acquisition conversation generation unit 50 confirms, based on the voice recognition result of the hearing recognition function unit 32, that the user has responded to the node Node3 that "I like tea is tea". The state transitions to the node Node4, and at this time, the character string data D1 of the utterance content of “tea” that is associated with the arc Ac3 is output to the speech synthesis unit 53.

続いて、記憶獲得会話生成部50は、ノードNode4において、ユーザからの『ちがうよ』といった否定的な応答があったことを聴覚認識機能部32の音声認識結果に基づき確認すると、ノードNode4からノードNode3に状態遷移し、このときアークAc7に対応付けられた獲得発話、この例では『ゆきこの好きなものってなに?』という発話内容の文字列データD1を音声合成部53に出力する。   Subsequently, the memory acquisition conversation generation unit 50 confirms, based on the voice recognition result of the auditory recognition function unit 32, that the user has received a negative response such as “no” from the user at the node Node4. The state transits to Node3, and at this time, the acquired utterance associated with the arc Ac7, in this example, "What is Yukiko's favorite thing? Is output to the speech synthesizer 53.

これに対して、記憶獲得会話生成部50は、ノードNode4において、ユーザからの『そうだよ』といった肯定的な応答があったことを聴覚認識機能部32の音声認識結果に基づき確認すると、ノードNode4からノードNode5に状態遷移し、このときアークAc4に対応付けられた『よし、覚えたよ』という発話内容の文字列データD1を音声合成部53に出力すると共に、内部状態管理部34(図5)にアクセスしてそのときの「愛情」のパラメータ値を取得し、当該取得した「愛情」のパラメータ値と、獲得発話の出力前に取得した「愛情」のパラメータ値との差分を計算する。   On the other hand, when the memory acquisition conversation generation unit 50 confirms that a positive response such as “yes” from the user has been received at the node Node4 based on the speech recognition result of the auditory recognition function unit 32, the node acquisition process proceeds to the node Node4. To the node Node5, and at this time, the character string data D1 of the utterance content of "Okay, I remembered" associated with the arc Ac4 is output to the speech synthesizer 53, and the internal state manager 34 (FIG. 5) To obtain the parameter value of “affection” at that time, and calculate the difference between the acquired parameter value of “affection” and the parameter value of “affection” acquired before the output of the acquired utterance.

さらに記憶獲得会話生成部50は、この後ノードNode5からノードNode6に状態遷移し、この際上述のようにして獲得したそのユーザの『すきなもの(Favorite)』という項目の値として『紅茶』を長期記憶部36(図5)に記憶させると共に、このとき上述のようにして計算した「愛情」のパラメータ値との差分をその値に対する印象度として、『紅茶』と対応付けて長期記憶部36に記憶させる。   Further, the memory acquisition conversation generation unit 50 thereafter makes a state transition from the node Node5 to the node Node6, and at this time, “tea” as the value of the item “Favorite” of the user acquired as described above. The long-term memory 36 is stored in the long-term memory 36 (FIG. 5). At this time, the difference between the parameter value of “affection” calculated as described above and the degree of impression for the value is associated with “tea” in the long-term memory 36. To memorize.

そして、記憶獲得会話生成部50は、ノードNode6に状態遷移すると、状況判断部52(図5)に一連の発話が終了したことを通知し、この後この回の獲得発話の生成処理を終了する。   Then, when the state transition to the node Node6 is made, the memory acquisition conversation generation unit 50 notifies the situation determination unit 52 (FIG. 5) that a series of utterances has ended, and thereafter ends the current acquisition utterance generation process. .

因みに、上述のような獲得会話に利用できるのは第1の話題利用方法決定ルールだけであるため、全ての獲得会話がこの1つの状態遷移モデルに従って同様に行われることとなる。   Incidentally, since only the first topic use method determination rule can be used for the acquired conversation as described above, all the acquired conversations are similarly performed in accordance with this one state transition model.

一方、図10及び図11は、記憶利用会話生成部51の制御の下に行われるある項目の値を利用したユーザとの会話(利用会話)の第1の具体例を示したものである。この例では、話題が『対象物ID1の誕生日(BIRTHDAY)』であり、その利用方法として第1の話題利用方法決定ルールが選択されているものとする。   On the other hand, FIGS. 10 and 11 show a first specific example of a conversation (use conversation) with a user using a value of an item performed under the control of the memory use conversation generation unit 51. In this example, it is assumed that the topic is "Birthday of the object ID1" and the first topic usage method determination rule is selected as the usage method.

この場合、記憶利用会話生成部51は、初期時、ノードNode10からノードNode11に状態遷移し、このときアークAc10に対応付けられた『ゆきこのこと、話していい?』という発話内容の文字列データD1を音声合成部53に出力することにより、そのユーザに関する話を良いかどうかの確認を行うと共に、内部状態管理部34(図5)にアクセスしてそのときの「愛情」のパラメータ値を取得する。   In this case, at the initial stage, the memory use conversation generation unit 51 makes a state transition from the node Node10 to the node Node11. By outputting the character string data D1 of the utterance content to the speech synthesizing unit 53, it is checked whether or not the user's talk is good, and the internal state management unit 34 (FIG. 5) is accessed to Get the parameter value of "love".

次いで、記憶利用会話生成部51は、ノードNode11において、ユーザからの『いいよ』との肯定的な応答があったことを聴覚認識機能部32(図5)の音声認識結果に基づき確認すると、ノードNode11からノードNode12に状態遷移し、このときアークAc11に対応付けられた利用発話、この例では『ゆきこの誕生日って73/5/2だよね!』という発話内容の文字列データD1を音声合成部53に出力する。また記憶利用会話生成部51は、この後さらにノードNode12からノードNode13に状態遷移する。   Next, the memory use conversation generation unit 51 confirms that the node Node 11 has received a positive response from the user to “good” based on the voice recognition result of the auditory recognition function unit 32 (FIG. 5). The state transitions from the node Node11 to the node Node12. At this time, the usage utterance associated with the arc Ac11, in this example, “Yukiko's birthday is 73/5/2! Is output to the speech synthesizer 53. After that, the storage use conversation generation unit 51 further makes a state transition from the node Node12 to the node Node13.

これに対して、記憶利用会話生成部51は、ノードNode11において、ユーザからの『やだよ』といった否定的な応答があったことを聴覚認識機能部32の音声認識結果に基づき確認すると、ノードNode11からノードNode13に状態遷移し、このときアークAc13に対応付けられた『ごめんなさい』という発話内容の文字列データD1を音声合成部53に出力する。   On the other hand, when the memory use conversation generation unit 51 confirms that a negative response such as “Yadayo” has been received from the user at the node Node11 based on the speech recognition result of the auditory recognition function unit 32, the node using the node The state transitions from Node 11 to Node 13, and at this time, the character string data D 1 of the utterance content “I'm sorry” associated with the arc Ac 13 is output to the speech synthesizer 53.

そして、記憶利用会話生成部51は、ノードNode13に状態遷移すると、状況判断部52(図5)に一連の発話が終了したことを通知し、この後この回の利用会話の生成処理を終了する。   Then, when the state transition to the node Node13 is made, the storage use conversation generation unit 51 notifies the situation determination unit 52 (FIG. 5) that a series of utterances has ended, and thereafter ends the current use conversation generation processing. .

他方、図12及び図13は、記憶利用会話生成部51の制御の下に行われるある項目の値を利用したユーザとの会話(利用会話)の第2の具体例を示したものである。この例では、話題が『対象物ID1の誕生日(BIRTHDAY)』であり、その利用方法として第2の話題利用方法決定ルールが選択されているものとする。   On the other hand, FIGS. 12 and 13 show a second specific example of a conversation (use conversation) with a user using a value of an item performed under the control of the memory use conversation generation unit 51. In this example, it is assumed that the topic is “Birthday of the object ID1” and the second topic usage method determination rule is selected as the usage method.

この場合、記憶利用会話生成部51は、初期時、ノードNode20からノードNode21に状態遷移し、このときアークAc20に対応付けられた『ゆきこのこと、話していい?』という発話内容の文字列データD1を音声合成部53に出力することにより、そのユーザに関する話を良いかどうかの確認を行うと共に、内部状態管理部34(図5)にアクセスしてそのときの「愛情」のパラメータ値を取得する。   In this case, the memory use conversation generation unit 51 makes a state transition from the node Node20 to the node Node21 at the initial stage, and at this time, the message "Yukikoko, do you want to talk?" By outputting the character string data D1 of the utterance content to the speech synthesizing unit 53, it is checked whether or not the user's talk is good, and the internal state management unit 34 (FIG. 5) is accessed to Get the parameter value of "love".

次いで、記憶利用会話生成部51は、ノードNode21において、ユーザからの『いいよ』との肯定的な応答があったことを聴覚認識機能部32(図5)の音声認識結果に基づき確認すると、ノードNode21からノードNode22に状態遷移し、このとき『対象物ID1』の『誕生日(BIRTHDAY)』の値を長期記憶部から読み出し、得られた値である『73/5/2』をキーワードとして、記念日データベースを検索する。そして記憶利用会話生成部51は、この検索の結果『交通広告の日』という事項が得られると、これを利用した発話、例えば『5月2日って交通広告の日なんだよ!』という発話内容の文字列データD1を音声合成部53に出力する。また記憶利用会話生成部51は、この後さらにノードNode22からノードNode23に状態遷移する。   Next, the memory use conversation generation unit 51 checks that the node Node 21 has received an affirmative response to the user from the user based on the voice recognition result of the auditory recognition function unit 32 (FIG. 5). The state transitions from the node Node21 to the node Node22. At this time, the value of "BIRTHDAY" of the "object ID1" is read from the long-term storage unit, and the obtained value "73/5/2" is used as a keyword. Search the anniversary database. Then, when the result of this search yields the item “traffic advertisement day”, the memory use conversation generation unit 51 uses the utterance, for example, “May 2 is a traffic advertisement day! Is output to the speech synthesizer 53. After that, the storage use conversation generation unit 51 further makes a state transition from the node Node22 to the node Node23.

これに対して、記憶利用会話生成部51は、ノードNode21において、ユーザからの『やだよ』といった否定的な応答があったことを聴覚認識機能部32の音声認識結果に基づき確認すると、ノードNode21からノードNode23に状態遷移し、このときアークAc23に対応付けられた『ごめんなさい』という発話内容の文字列データD1を音声合成部53に出力する。   On the other hand, when the memory use conversation generation unit 51 confirms that a negative response such as “Yadayo” has been received from the user at the node Node 21 based on the voice recognition result of the auditory recognition function unit 32, The state transitions from Node 21 to Node Node 23, and at this time, the character string data D1 of the utterance content of “I'm sorry” associated with the arc Ac23 is output to the speech synthesis unit 53.

そして、記憶利用会話生成部51は、ノードNode23に状態遷移すると、状況判断部52(図5)に一連の発話が終了したことを通知し、この後この回の利用会話の生成処理を終了する。   Then, when the state transition to the node Node23 is made, the storage use conversation generation unit 51 notifies the situation determination unit 52 (FIG. 5) that a series of utterances has ended, and thereafter ends the use conversation generation processing of this time. .

これに対して図14及び図15は、記憶利用会話生成部51の制御の下に行われるある項目の値を利用したユーザとの会話(利用会話)の第3の具体例を示したものである。この例では、話題が『対象物ID1の誕生日(BIRTHDAY)』であり、その利用方法として第3の話題利用方法決定ルールが選択されているものとする。   14 and 15 show a third specific example of a conversation (use conversation) with a user using a value of an item performed under the control of the memory use conversation generation unit 51. is there. In this example, it is assumed that the topic is “Birthday of the object ID1”, and the third topic usage method determination rule is selected as the usage method.

この場合、記憶利用会話生成部51は、初期時、ノードNode30からノードNode31に状態遷移し、このとき『対象物ID1』の『誕生日(BIRTHDAY)』の値を長期記憶部36(図5)から読み出し、これをキーワードとして星座を計算し、得られた『おうし座』という事項を用いて『ゆきこっておうし座だよね?』という発話内容の文字列データD1を生成してこれを音声合成部53(図5)に出力する。   In this case, the storage use conversation generation unit 51 transitions from the node Node 30 to the node Node 31 at the initial stage, and at this time, stores the value of “BIRTHDAY” of the “object ID 1” in the long-term storage unit 36 (FIG. 5). , Calculate the constellation using this as a keyword, and use the obtained "Taurus" item to say "Yukiko is Taurus, right?" Is generated and output to the speech synthesizer 53 (FIG. 5).

次いで、記憶利用会話生成部51は、ノードNode31において、ユーザからの『そうだよ』との肯定的な応答があったことを聴覚認識機能部32(図5)の音声認識結果に基づき確認すると、ノードNode31からノードNode32に状態遷移し、このとき『おうし座』をキーワードとして、星占いデータベースを検索する。そして記憶利用会話生成部51は、この検索の結果『我慢強い』という事項が得られると、これを利用した発話、例えば『おうし座の人って我慢強いんだって』という発話内容の文字列データD1を音声合成部53に出力する。また記憶利用会話生成部51は、この後さらにノードNode32からノードNode33に状態遷移する。   Next, the memory use conversation generation unit 51 checks that the node Node 31 has received a positive response from the user, “Yes,” based on the voice recognition result of the auditory recognition function unit 32 (FIG. 5). The state transitions from the node Node31 to the node Node32. At this time, the horoscope database is searched using "Taurus" as a keyword. When the result of this search shows that "patience" is obtained, the memory use conversation generation unit 51 uses the utterance using this, for example, the character string data D1 of the utterance content "Taurus is patient". Is output to the speech synthesizer 53. After that, the storage use conversation generation unit 51 further makes a state transition from the node Node32 to the node Node33.

これに対して、記憶利用会話生成部51は、ノードNode31において、ユーザからの『やだよ』といった否定的な応答があったことを聴覚認識機能部32の音声認識結果に基づき確認すると、ノードNode31からノードNode33に状態遷移し、このときアークAc33に対応付けられた『ごめんなさい』という発話内容の文字列データD1を音声合成部53に出力する。   On the other hand, when the memory use conversation generation unit 51 confirms that the node Node 31 has received a negative response such as “Yadayo” from the user based on the voice recognition result of the auditory recognition function unit 32, The state transitions from the node 31 to the node 33. At this time, the character string data D1 of the utterance content of “I'm sorry” associated with the arc Ac33 is output to the speech synthesizer 53.

そして、記憶利用会話生成部51は、ノードNode33に状態遷移すると、状況判断部52(図5)に一連の発話が終了したことを通知し、この後この回の利用会話の生成処理を終了する。   Then, when the state transition to the node Node33 is made, the storage use conversation generation unit 51 notifies the situation determination unit 52 (FIG. 5) that a series of utterances has ended, and thereafter ends the use conversation generation processing of this time. .

さらに、図16及び図17は、記憶利用会話生成部51の制御の下に行われるある項目の値を利用したユーザとの会話(利用会話)の第4の具体例を示したものである。この例では、話題が『対象物ID1の好きなもの(Favorite)』であり、その利用方法として第2の話題利用方法決定ルールが選択されているものとする。   FIGS. 16 and 17 show a fourth specific example of a conversation with a user (utilized conversation) using the value of a certain item under the control of the memory-based conversation generation unit 51. In this example, it is assumed that the topic is “Favorite of the object ID 1 (Favorite)” and the second topic use method determination rule is selected as the use method.

この場合、記憶利用会話生成部51は、初期時、ノードNode40からノードNode41に状態遷移し、このときアークAc40に対応付けられた『りかのこと、話していい?』という発話内容の文字列データD1を音声合成部53に出力することにより、そのユーザに関する話を良いかどうかの確認を行うと共に、内部状態管理部34(図5)にアクセスしてそのときの「愛情」のパラメータ値を取得する。   In this case, the memory use conversation generation unit 51 makes a state transition from the node Node 40 to the node Node 41 at the initial stage, and at this time, “Can you talk about Rika, which is associated with the arc Ac40? By outputting the character string data D1 of the utterance content to the speech synthesizing unit 53, it is checked whether or not the user's talk is good, and the internal state management unit 34 (FIG. 5) is accessed to Get the parameter value of "love".

次いで、記憶利用会話生成部51は、ノードNode41において、ユーザからの『いいよ』との肯定的な応答があったことを聴覚認識機能部32(図5)の音声認識結果に基づき確認すると、ノードNode41からノードNode42に状態遷移し、このとき『対象物ID1』の『好きなもの(Favorite)』の値を長期記憶部から読み出し、得られた値である『チューリップ』をキーワードとして、シナリオデータベースを検索する。そして記憶利用会話生成部51は、この検索の結果、『チューリップ』についてのシナリオIDで表される場所(図示せず)に格納されているシナリオ(台本や脚本を構成する複数の文章の集まり)を利用した発話、例えば、『チューリップの花言葉知ってる?それぞれ色によって違うんだよ。たくさんあるけど、たとえば、赤いチューリップは愛の告白、白のチューリップは失われた愛、黄色が望みのない恋、紫が不滅の愛、緑が美しい瞳、ピンクはお年頃。なんだって。暖かくなると、色々なところで見かけるよね。チューリップって、とても綺麗だから良いよね。私もすごく好きだよ。』という発話内容の文字列データD1を音声合成部53に出力する。また記憶利用会話生成部51は、この後さらにノードNode42からノードNode43に状態遷移する。   Next, the memory use conversation generation unit 51 checks that the node Node 41 has received an affirmative response to the user from the user based on the voice recognition result of the auditory recognition function unit 32 (FIG. 5). The state transitions from the node Node41 to the node Node42. At this time, the value of "Favorite" of the "object ID1" is read from the long-term storage unit, and the obtained value "tulip" is used as a keyword, and the scenario database is used. Search for. Then, as a result of this search, the storage-based conversation generation unit 51 uses the scenario (collection of a plurality of sentences forming a script or script) stored in a location (not shown) represented by a scenario ID for “tulip”. Utterances using, for example, "Do you know the flower language of tulips? Each one is different depending on the color. There are many, for example, red tulips are confession of love, white tulips are lost love, yellow is hopeless love, purple is immortal love, green is beautiful eyes, and pink is old age. What did you say. When it gets warm, you can see it in many places. Tulips are so beautiful that they are good. I really like it. Is output to the speech synthesizer 53. After that, the storage use conversation generation unit 51 further makes a state transition from the node Node42 to the node Node43.

これに対して、記憶利用会話生成部51は、ノードNode41において、ユーザからの『やだよ』といった否定的な応答があったことを聴覚認識機能部32の音声認識結果に基づき確認すると、ノードNode41からノードNode43に状態遷移し、このときアークAc43に対応付けられた『ごめんなさい』という発話内容の文字列データD1を音声合成部53に出力する。   On the other hand, when the memory use conversation generation unit 51 confirms that the node Node 41 has received a negative response such as “Yadayo” from the user based on the voice recognition result of the auditory recognition function unit 32, The state transitions from Node 41 to Node Node 43, and at this time, the character string data D 1 of the utterance content “I'm sorry” associated with the arc Ac 43 is output to the speech synthesis unit 53.

そして、記憶利用会話生成部51は、ノードNode43に状態遷移すると、状況判断部52(図5)に一連の発話が終了したことを通知し、この後この回の利用会話の生成処理を終了する。   When the state transition to the node Node 43 is made, the storage use conversation generation unit 51 notifies the situation determination unit 52 (FIG. 5) that a series of utterances has ended, and thereafter ends the use conversation generation processing of this time. .

また、図18及び図19は、記憶利用会話生成部51の制御の下に行われるある項目の値を利用したユーザとの会話(利用会話)の第5の具体例を示したものである。この例では、話題が『対象物ID1の好きなもの(Favorite)』であり、その利用方法として第2の話題利用方法決定ルールが選択されているものとする。   FIGS. 18 and 19 show a fifth specific example of a conversation (use conversation) with a user using a value of an item performed under the control of the memory use conversation generation unit 51. In this example, it is assumed that the topic is “Favorite of the object ID 1 (Favorite)” and the second topic use method determination rule is selected as the use method.

この場合、記憶利用会話生成部51は、初期時、ノードNode50からノードNode51に状態遷移し、このときアークAc50に対応付けられた『次郎のこと、話していい?』という発話内容の文字列データD1を音声合成部53に出力することにより、そのユーザに関する話を良いかどうかの確認を行うと共に、内部状態管理部34(図5)にアクセスしてそのときの「愛情」のパラメータ値を取得する。   In this case, the storage use conversation generation unit 51 makes a state transition from the node Node 50 to the node Node 51 at the initial stage, and at this time, "Can you talk about Jiro?" By outputting the character string data D1 of the utterance content to the speech synthesizing unit 53, it is checked whether or not the user's talk is good, and the internal state management unit 34 (FIG. 5) is accessed to Get the parameter value of "love".

次いで、記憶利用会話生成部51は、ノードNode51において、ユーザからの『いいよ』との肯定的な応答があったことを聴覚認識機能部32(図5)の音声認識結果に基づき確認すると、ノードNode51からノードNode52に状態遷移し、このとき『対象物ID1』の『好きなもの(Favorite)』の値を長期記憶部から読み出し、得られた値である『サッカー』をキーワードとして、スポーツデータベースを検索する。そして記憶利用会話生成部51は、この検索の結果『サッカーをしようかな?』及び『ボールを蹴る行動』という事項が得られると、これを利用した発話、例えば『そういえば、サッカーをしようかな?』という発話内容の文字列データD1をハードウェア依存層制御部40の音声合成部53に出力すると共に、『ボールを蹴る行動』を表す行動コマンドをハードウェア依存層制御部40の行動発現部(図示せず)に出力する。また記憶利用会話生成部51は、この後さらにノードNode52からノードNode53に状態遷移する。   Next, the memory use conversation generation unit 51 checks that the node Node 51 has received an affirmative response to the user from the user based on the voice recognition result of the auditory recognition function unit 32 (FIG. 5). The state transitions from the node Node51 to the node Node52. At this time, the value of "Favorite" of the "object ID1" is read from the long-term storage unit, and the obtained value "soccer" is used as a keyword, and the sports database is used. Search for. Then, as a result of this search, the memory-based conversation generation unit 51 asks, “Do you want to play soccer? ”And“ Behavior to kick ”are obtained, and utterances using these are obtained, for example,“ Speaking of which, should we play soccer? Is output to the voice synthesizing unit 53 of the hardware-dependent layer control unit 40, and an action command representing "ball kicking action" is output to the action expression unit ( (Not shown). After that, the storage use conversation generation unit 51 further makes a state transition from the node Node52 to the node Node53.

この結果ロボット1は、『そういえば、サッカーしたくなっちゃった!』といった発話をスピーカ12を介して音声出力させるのみならず、行動コマンドに基づいて駆動部4の対応する駆動ユニット151〜15nを駆動させるようにして、目の前にあるボールを蹴ったり、あたかもボールを蹴るかのような行動を発現させることができる。   As a result, the robot 1 said, "Speaking of which, I wanted to play soccer! Not only is output as a voice through the speaker 12 but also the corresponding drive units 151 to 15n of the drive unit 4 are driven based on the action command, so that the ball in front of the eyes is kicked or simulated. An action as if kicking a ball can be expressed.

これに対して、記憶利用会話生成部51は、ノードNode51において、ユーザからの『やだよ』といった否定的な応答があったことを聴覚認識機能部32の音声認識結果に基づき確認すると、ノードNode51からノードNode53に状態遷移し、このときアークAc53に対応付けられた『ごめんなさい』という発話内容の文字列データD1を音声合成部53に出力する。   On the other hand, when the memory use conversation generation unit 51 confirms that a negative response such as “Yadayo” has been received from the user at the node Node 51 based on the voice recognition result of the auditory recognition function unit 32, The state transitions from the node 51 to the node 53. At this time, the character string data D1 of the utterance content “I'm sorry” associated with the arc Ac53 is output to the speech synthesizer 53.

そして、記憶利用会話生成部51は、ノードNode53に状態遷移すると、状況判断部52(図5)に一連の発話が終了したことを通知し、この後この回の利用会話の生成処理を終了する。   Then, when the state transition to the node Node53 is made, the storage use conversation generation unit 51 notifies the situation determination unit 52 (FIG. 5) that a series of utterances has ended, and thereafter ends this use conversation generation processing. .

(3)本実施の形態の動作及び効果
以上の構成において、このロボット1では、ユーザとの会話(獲得会話)を通して当該ユーザに関する各種情報を獲得し、当該獲得した情報を項目に対する値として長期記憶部36(図5)に記憶すると共に、この長期記憶部36に記憶した各項目の値を利用してそのユーザと会話(利用会話)する。
(3) Operation and effect of the present embodiment In the above configuration, the robot 1 acquires various information about the user through a conversation (acquired conversation) with the user, and stores the acquired information as a value for an item for a long term. In addition to the storage in the storage unit 36 (FIG. 5), the user communicates with the user using the values of the items stored in the long-term storage unit 36 (use conversation).

従って、このロボット1は、ユーザとそのユーザ又はそのユーザに関連する内容の対話、すなわちそのユーザに特化した対話を行うことができ、またこのようにパーソナライズされる過程をユーザが実感することができるため、ユーザのロボット1に対する親近感を向上させることができる。   Therefore, the robot 1 can perform a dialogue between the user and the user or contents related to the user, that is, a dialogue specific to the user, and the user can feel the personalization process in this way. Therefore, the user's feeling of closeness to the robot 1 can be improved.

またこの場合において、このロボット1では、上述した第1〜第6の話題生成ルールに従って、次の会話における話題を直前の会話の話題から連想可能な範囲内で生成するようにしているため、対話の過程において話題が極端に遷移することがなく、さらには獲得したユーザ等に関する情報をそのまま利用するだけでなく、上述した第1〜第3の話題利用方法決定ルールに従って星占いや記念日検索等をも行いながら会話を行うため、ロボット1との対話の会話の面白みを向上させ、また会話のバリエーションを増やすことができる。   In this case, the robot 1 generates a topic in the next conversation within a range that can be associated with the topic of the immediately preceding conversation in accordance with the first to sixth topic generation rules described above. In the course of the process, the topic does not change extremely, and not only the information on the acquired user etc. is used as it is, but also the horoscope and the anniversary search etc. are performed according to the above-mentioned first to third topic use method determination rules. Therefore, the conversation with the robot 1 can be made more interesting and conversation variations can be increased.

さらにこのロボット1では、記憶獲得会話生成部50及び記憶利用会話生成部51が会話履歴をもち、当該会話履歴に基づいて、同じユーザとの一連の対話の中で同じ話題及びその利用方法の組み合わせの会話が生成されないようにしているため、ロボット1によって獲得されたそのユーザに付随する情報に関する発話がその獲得直後に出力されることがなく、面白みの減退を防止することができる。   Further, in the robot 1, the memory acquisition conversation generation unit 50 and the memory use conversation generation unit 51 have a conversation history, and based on the conversation history, a combination of the same topic and its use method in a series of conversations with the same user. Is not generated, the utterance relating to the information acquired by the robot 1 and associated with the user is not output immediately after the acquisition, and it is possible to prevent a decrease in interest.

これに加えてこのロボット1では、状況判断部52の制御のもとに、そのユーザに付随する情報の獲得状況に応じて獲得会話と利用会話の切り換えを行うようになされているため、そのユーザに付随する情報が全くない状況で記憶を利用とする行動の出現や、情報が全て獲得されている状況でさらに情報を獲得しようとする行動が出現することがなく、不自然な行動の出現を未然に防止することができる。   In addition, under the control of the situation determination unit 52, the robot 1 switches between the acquired conversation and the used conversation according to the acquisition state of the information accompanying the user. There is no appearance of behavior using memory when there is no information attached to the information, and no appearance of unnatural behavior appears in the situation where all information has been acquired. It can be prevented before it happens.

さらにこのロボット1では、ユーザ等についての各項目の値を印象度と共に長期記憶部36に記憶し、当該印象度に基づいて話題の選択を行うようにしているため、印象度に応じてその項目に関する話題の出現頻度を変化させることができ、ロボット1が話したいことを話し、話したくないことは話さないというエンターテインメント性の高いインタラクションをロボット1に行わせることもできる。   Further, in the robot 1, the value of each item for the user and the like is stored in the long-term storage unit 36 together with the impression degree, and the topic is selected based on the impression degree. It is possible to change the appearance frequency of topics related to the robot 1 and to cause the robot 1 to perform a highly entertaining interaction of speaking what the robot 1 wants to speak and not speaking what he does not want to speak.

以上の構成によれば、ロボット1が、ユーザとの会話を通して当該ユーザに関する各種情報を獲得し、当該獲得した情報を項目に対する値として長期記憶部36(図5)に記憶すると共に、この長期記憶部36に記憶した各項目の値を利用してそのユーザと会話するようにしたことにより、対象物となるユーザに特化した会話を当該ユーザと行うことができ、またこのようにパーソナライズされる過程をユーザが実感することができるため、ユーザのロボット1に対する親近感を向上させることができ、かくして一段とエンターテインメント性の高いロボットを実現できる。   According to the above configuration, the robot 1 acquires various information about the user through a conversation with the user, and stores the acquired information as a value for the item in the long-term storage unit 36 (FIG. 5). By using the value of each item stored in the unit 36 to converse with the user, a conversation specific to the user as the target object can be performed with the user, and personalized in this way. Since the user can feel the process, the user's familiarity with the robot 1 can be improved, and thus a robot with higher entertainment can be realized.

(4)他の実施の形態
なお上述の実施の形態においては、本発明を図1〜図3のように構成されたエンターテインメントロボットに適用するようにした場合について述べたが、本発明はこれに限らず、これ以外の構成を有するエンターテインメントロボットや、これ以外のロボット、ロボット以外の各種機器又はユーザとの対話制御を行うこの他種々の対話制御装置に広く適用することができる。また例えばテレビゲーム用のソフトウェア等など各種ソフトウェアにも広く応用することができる。
(4) Other Embodiments In the above-described embodiment, the case where the present invention is applied to the entertainment robot configured as shown in FIGS. 1 to 3 has been described, but the present invention is not limited to this. The present invention is not limited to this, and can be widely applied to entertainment robots having other configurations, other robots, various devices other than robots, and various other interaction control devices that perform interaction control with users. Further, the present invention can be widely applied to various software such as software for video games.

また上述の実施の形態においては、図4について上述した各項目の印象度をその項目の値を獲得する際に決定し、その後は更新しないようにした場合について述べたが、本発明はこれに限らず、印象度を更新するようにしても良い。このようにすることによって、各種話題の出現頻度をも変更することができ、その分そのときそのときの状況に応じた会話を行うことができるため、ロボット1のエンターテインメント性をより一層と向上させることができる。   Further, in the above-described embodiment, a case has been described in which the impression degree of each item described above with reference to FIG. 4 is determined at the time of acquiring the value of the item and is not updated thereafter. Not limited to this, the impression degree may be updated. By doing so, the appearance frequency of various topics can be changed, and a conversation corresponding to the situation at that time can be made accordingly, so that the entertainment performance of the robot 1 is further improved. be able to.

さらに上述の実施の形態においては、図4について上述した各項目の印象度を、その項目を獲得する前後の内部状態管理部34に保持された「愛情」のパラメータ値の差分により計算するようにした場合について述べたが、本発明はこれに限らず、内部状態管理部34に保持された他の本能的要素又は情動的要素のパラメータ値に基づいて計算するようにしても良く、これ以外の手法により得られるようにしても良い。   Further, in the above-described embodiment, the impression degree of each item described above with reference to FIG. 4 is calculated based on the difference between the parameter values of “affection” held in the internal state management unit 34 before and after acquiring the item. However, the present invention is not limited to this, and may be calculated based on the parameter values of other instinct elements or emotional elements held in the internal state management unit 34. It may be obtained by a technique.

さらに上述の実施の形態においては、対象物の各項目の値を記憶する記憶手段として制御ユニット2の内部メモリであるRAM22や不揮発性メモリ24(図2)を利用するようにした場合について述べたが、本発明はこれに限らず、これ以外の記憶媒体を利用するようにしても良く、また外部メモリ等の外部記憶媒体を利用するようにしても良い。   Further, in the above-described embodiment, a case has been described in which the RAM 22 or the non-volatile memory 24 (FIG. 2), which is an internal memory of the control unit 2, is used as storage means for storing the value of each item of the object. However, the present invention is not limited to this, and another storage medium may be used, or an external storage medium such as an external memory may be used.

さらに上述の実施の形態においては、直前の会話で使用した話題と関連のある話題を選択し、当該選択した話題における項目の値を獲得するための獲得会話又は長期記憶部36が既に記憶している当該話題における項目の値を利用した利用会話を、次の会話として生成する会話生成手段を、獲得会話を生成する記憶獲得会話生成手段としての記憶獲得会話生成部50と、利用会話を生成する記憶利用会話生成手段としての記憶利用会話生成部51と、記憶獲得会話生成部50及び記憶利用会話生成部51のいずれか一方を選択し、当該選択した記憶獲得会話生成部50又は記憶利用会話生成部51に次の会話を生成させる状況判断手段としての状況判断部52との3つのモジュールにより構成するようにした場合について述べたが、本発明はこれに限らず、会話生成手段の構成としてはこの他種々の構成を広く適用することができる。   Furthermore, in the above-described embodiment, a topic related to the topic used in the immediately preceding conversation is selected, and the acquired conversation or the long-term storage unit 36 for acquiring the value of the item in the selected topic has already been stored. A conversation generating means for generating a use conversation using the value of an item in the topic as the next conversation; a storage acquisition conversation generation unit 50 as a storage acquisition conversation generation means for generating an acquisition conversation; and a use conversation. The user selects one of the storage use conversation generation unit 51 as the storage use conversation generation unit and one of the storage acquisition conversation generation unit 50 and the storage use conversation generation unit 51, and selects the selected storage use conversation generation unit 50 or the storage use conversation generation unit. Although the description has been made of the case where the unit 51 is constituted by three modules of the situation determination unit 52 as the situation determination unit for generating the next conversation, the present invention Not limited to Les, the construction of the conversation generation means can be widely applied this various other configurations.

さらに上述の実施の形態においては、次の会話の話題の生成方法を規定した話題生成ルールとして上述の第1〜第7の話題生成ルールの6つのルールを用意するようにした場合について述べたが、本発明はこれに限らず、かかる話題生成ルールとしてはこの他種々のルールを広く適用することができる。またその数も7以外の数であっても良い。   Furthermore, in the above-described embodiment, a case has been described in which six rules of the above-described first to seventh topic generation rules are prepared as topic generation rules that define a method of generating a topic of the next conversation. However, the present invention is not limited to this, and various other rules can be widely applied as such topic generation rules. Also, the number may be a number other than 7.

同様に、上述の実施の形態においては、生成された話題の利用方法を規定した話題利用方法決定ルールとして上述の第1〜第3の話題利用方法決定ルールの3つのルールを用意するようにした場合について述べたが、本発明はこれに限らず、かかる話題利用方法決定ルールとしてはこの他種々のルールを広く適用することができる。またその数も3以外の数であっても良い。   Similarly, in the above-described embodiment, three rules of the above-described first to third topic use method determination rules are prepared as topic use method determination rules that define the use method of the generated topic. Although the case has been described, the present invention is not limited to this, and various other rules can be widely applied as such topic use method determination rules. Also, the number may be a number other than three.

さらに上述の実施の形態においては、図17及び図18のように、直前の会話で使用した話題の項目をキーワードとして、当該項目に関連のある次の話題を選択し、既に記憶している当該項目に対応するシナリオを利用して利用会話を生成するようにした場合について述べたが、本発明はこれに限らず、要は、会話をした後にキーワードを繋げていくことによって会話に一貫性をもたせることができれば、この他種々の具体例に適用することができる。また利用会話に対応する行動を発現するための行動コマンドを生成して、当該行動コマンドに応じた行動を発現させることができれば、会話に一貫性に加えてさらに広がりを持たせることもできる。   Further, in the above-described embodiment, as shown in FIGS. 17 and 18, the next topic related to the item is selected using the topic item used in the immediately preceding conversation as a keyword, and the previously stored relevant topic is selected. Although the case where the use conversation is generated using the scenario corresponding to the item has been described, the present invention is not limited to this, and the point is that the conversation is made consistent by connecting the keywords after the conversation. If it can be provided, it can be applied to various other specific examples. In addition, if an action command for expressing an action corresponding to a use conversation can be generated and an action corresponding to the action command can be expressed, the conversation can be further expanded in addition to consistency.

対話制御装置及び方法並びにロボット装置において、アミューズメントロボットや介護ロボットなどに適用することができる。   The interaction control device and method and the robot device can be applied to an amusement robot, a care robot, and the like.

本実施の形態によるロボットの機能構成を模式的に示したブロック図である。FIG. 2 is a block diagram schematically illustrating a functional configuration of the robot according to the present embodiment. 制御ユニットの構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of a control unit. ロボットのソフトウェア構成を示すブロック図である。FIG. 3 is a block diagram illustrating a software configuration of the robot. 獲得情報の記録フォーマットの説明に供する概念図である。It is a conceptual diagram provided for explanation of the recording format of acquisition information. 行動制御システムにおける対話制御機能に関する主要部の構成を示す概念図である。FIG. 2 is a conceptual diagram showing a configuration of a main part relating to a dialogue control function in the action control system. 会話生成手順の説明に供する概念図である。It is a conceptual diagram provided for explanation of a conversation generation procedure. 対話生成処理手順を示すフローチャートである。It is a flowchart which shows a dialog generation processing procedure. 会話生成処理時における記憶獲得会話生成部の具体的処理例の説明に供する概念図である。FIG. 14 is a conceptual diagram explaining a specific processing example of a memory acquisition conversation generation unit during a conversation generation process. 会話生成処理時における記憶獲得会話生成部の具体的処理例の説明に供する概念図である。FIG. 14 is a conceptual diagram explaining a specific processing example of a memory acquisition conversation generation unit during a conversation generation process. 会話生成処理時における記憶利用会話生成部の第1の具体的処理例の説明に供する概念図である。FIG. 10 is a conceptual diagram serving to explain a first specific processing example of a memory-based conversation generation unit during a conversation generation process. 会話生成処理時における記憶利用会話生成部の第1の具体的処理例の説明に供する概念図である。FIG. 10 is a conceptual diagram serving to explain a first specific processing example of a memory-based conversation generation unit during a conversation generation process. 会話生成処理時における記憶利用会話生成部の第2の具体的処理例の説明に供する概念図である。It is a conceptual diagram explaining the 2nd specific example of a process of the memory use conversation production | generation part at the time of a conversation production | generation process. 会話生成処理時における記憶利用会話生成部の第2の具体的処理例の説明に供する概念図である。It is a conceptual diagram explaining the 2nd specific example of a process of the memory use conversation production | generation part at the time of a conversation production | generation process. 会話生成処理時における記憶利用会話生成部の第3の具体的処理例の説明に供する概念図である。FIG. 18 is a conceptual diagram serving to explain a third specific processing example of the storage-based conversation generation unit during the conversation generation processing. 会話生成処理時における記憶利用会話生成部の第3の具体的処理例の説明に供する概念図である。FIG. 18 is a conceptual diagram serving to explain a third specific processing example of the storage-based conversation generation unit during the conversation generation processing. 会話生成処理時における記憶利用会話生成部の第4の具体的処理例の説明に供する概念図である。FIG. 18 is a conceptual diagram serving to explain a fourth specific processing example of the memory use conversation generation unit during the conversation generation processing. 会話生成処理時における記憶利用会話生成部の第4の具体的処理例の説明に供する概念図である。FIG. 18 is a conceptual diagram serving to explain a fourth specific processing example of the memory use conversation generation unit during the conversation generation processing. 会話生成処理時における記憶利用会話生成部の第5の具体的処理例の説明に供する概念図である。FIG. 21 is a conceptual diagram serving to explain a fifth specific processing example of the storage-based conversation generation unit during the conversation generation processing. 会話生成処理時における記憶利用会話生成部の第5の具体的処理例の説明に供する概念図である。FIG. 21 is a conceptual diagram serving to explain a fifth specific processing example of the storage-based conversation generation unit during the conversation generation processing.

符号の説明Explanation of reference numerals

1……ロボット、2……制御ユニット、10……CCDカメラ、11……マイクロホン、12……スピーカ、21……CPU、23……ROM、31……視覚認識機能部、32……聴覚認識機能部、34……内部状態管理部、36……長期記憶部、38……状況依存行動階層、50……記憶獲得会話生成部、51……記憶利用会話生成部、52……状況判断部、53……音声合成部、D1……文字列データ、RT1……話題生成処理手順。   DESCRIPTION OF SYMBOLS 1 ... Robot, 2 ... Control unit, 10 ... CCD camera, 11 ... Microphone, 12 ... Speaker, 21 ... CPU, 23 ... ROM, 31 ... Visual recognition function part, 32 ... Auditory recognition Functional unit 34 Internal state management unit 36 Long-term storage unit 38 Situation-dependent behavior hierarchy 50 Memory acquisition conversation generation unit 51 Memory use conversation generation unit 52 Situation determination unit , 53... Voice synthesis unit, D1... Character string data, RT1.

Claims (40)

対象物に付随する各種情報を、当該対象物の対応する項目の値として記憶する記憶手段と、
上記対象物の上記項目を話題と定義したときに、直前の会話で使用した上記話題と関連のある上記話題を選択し、当該選択した話題における上記項目の上記値を獲得するための獲得会話又は上記記憶手段が既に記憶している当該話題における上記項目の上記値を利用した利用会話を、次の会話として生成する会話生成手段と
を具え、
上記会話生成手段は、
上記獲得会話により獲得した上記値を、対応する上記項目の上記値として上記記憶手段に記憶させる
ことを特徴とする対話制御装置。
Storage means for storing various information associated with the object as a value of a corresponding item of the object;
When the item of the object is defined as a topic, the topic that is related to the topic used in the immediately preceding conversation is selected, and the acquired conversation for acquiring the value of the item in the selected topic or Conversation generating means for generating, as the next conversation, a use conversation using the value of the item in the topic already stored in the storage means,
The above conversation generation means,
A dialogue control device, wherein the value acquired by the acquired conversation is stored in the storage means as the value of the corresponding item.
上記会話生成手段は、
上記直前の会話で使用した上記話題と同じ上記対象物の別の任意の上記項目を次の上記話題として選択し、上記記憶手段が既に記憶している当該項目の上記値を利用して上記利用会話を生成する
ことを特徴とする請求項1に記載の対話制御装置。
The above conversation generating means,
Another optional item of the same object as the topic used in the immediately preceding conversation is selected as the next topic, and the storage unit uses the value of the item already stored and uses the item. The dialogue control device according to claim 1, wherein the conversation control device generates a conversation.
上記会話生成手段は、
上記直前の会話で使用した上記話題と同じ上記対象物の関連のある上記項目を次の上記話題として選択し、上記記憶手段が既に記憶している当該項目の上記値を利用して上記利用会話を生成する
ことを特徴とする請求項1に記載の対話制御装置。
The above conversation generation means,
The item related to the same object as the topic used in the immediately preceding conversation is selected as the next topic, and the value of the item already stored in the storage means is used for the use conversation. The dialogue control device according to claim 1, wherein:
上記会話生成手段は、
上記直前の会話で使用した上記話題の上記項目の上記値から特定できる上記対象物のいずれかの上記項目を次の上記話題として選択し、上記記憶手段が既に記憶している当該いずれかの項目の上記値を利用して上記利用会話を生成する
ことを特徴とする請求項1に記載の対話制御装置。
The above conversation generating means,
Selecting any of the items of the object that can be specified from the value of the item of the topic used in the immediately preceding conversation as the next topic, and any of the items already stored in the storage means; The dialogue control device according to claim 1, wherein the use conversation is generated by using the value of?.
上記会話生成手段は、
上記直前の会話で使用した上記話題と同じ上記対象物の同じ上記項目を次の上記話題として選択し、上記記憶手段が既に記憶している当該項目の上記値を利用して上記利用会話を生成する
ことを特徴とする請求項1に記載の対話制御装置。
The above conversation generation means,
The same topic of the same object as the topic used in the immediately preceding conversation is selected as the next topic, and the use conversation is generated using the value of the item already stored in the storage means. The interactive control device according to claim 1, wherein:
上記会話生成手段は、
上記直前の会話で使用した上記話題における上記項目の上記値と同じ上記値を有する別の上記対象物の同じ上記項目を次の上記話題として選択し、上記記憶手段が既に記憶している当該同じ項目の上記値を利用して上記利用会話を生成する
ことを特徴とする請求項1に記載の対話制御装置。
The above conversation generating means,
The same item of another object having the same value as the value of the item in the topic used in the previous conversation is selected as the next topic, and the same item already stored in the storage unit is selected. The interaction control device according to claim 1, wherein the use conversation is generated by using the value of the item.
上記会話生成手段は、
上記直前の会話で使用した上記話題における上記項目の上記値と関連のある上記値を有する別の上記対象物の上記項目を次の上記話題として選択し、上記記憶手段が既に記憶している当該関連のある値を利用して上記利用会話を生成する
ことを特徴とする請求項1に記載の対話制御装置。
The above conversation generating means,
The item of another object having the value related to the value of the item in the topic used in the immediately preceding conversation is selected as the next topic, and the item stored in the storage unit is selected. The interaction control device according to claim 1, wherein the use conversation is generated by using a related value.
上記会話生成手段は、
上記直前の会話で使用した上記話題の上記項目をキーワードとして、当該項目に関連のある次の上記話題を選択し、上記記憶手段が既に記憶している当該項目に対応するシナリオを利用して上記利用会話を生成する
ことを特徴とする請求項1に記載の対話制御装置。
The above conversation generation means,
Using the item of the topic used in the immediately preceding conversation as a keyword, selecting the next topic related to the item, and using the scenario corresponding to the item already stored in the storage means, The conversation control device according to claim 1, wherein the conversation control device generates a use conversation.
上記会話生成手段による生成された上記利用会話に対応する行動を発現するための行動コマンドを生成する行動生成手段
を具えることを特徴とする請求項8に記載の対話制御装置。
The interaction control device according to claim 8, further comprising: an action generation unit that generates an action command for expressing an action corresponding to the use conversation generated by the conversation generation unit.
上記会話生成手段は、
上記直前の会話で使用した上記話題と同じ上記対象物の別の任意の上記項目を次の上記話題として選択し、当該別の任意の項目の上記値を獲得するための上記獲得会話を生成する
ことを特徴とする請求項1に記載の対話制御装置。
The above conversation generating means,
Another optional item of the same object as the topic used in the immediately preceding conversation is selected as the next topic, and the acquired conversation for acquiring the value of the optional item is generated. The interactive control device according to claim 1, wherein:
上記会話生成手段は、
上記直前の会話で使用した上記話題と同じ上記対象物の関連のある上記項目を次の上記話題として選択し、当該関連のある項目の上記値を獲得するための上記獲得会話を生成する
ことを特徴とする請求項1に記載の対話制御装置。
The above conversation generating means,
Selecting the item related to the same object as the topic used in the immediately preceding conversation as the next topic, and generating the acquired conversation for acquiring the value of the related item. The dialogue control device according to claim 1, wherein:
上記会話生成手段は、
上記直前の会話で使用した上記話題における上記項目の上記値から特定できる上記対象物のいずれかの上記項目を次の上記話題として選択し、当該いずれかの項目の上記値を獲得するための上記獲得会話を生成する
ことを特徴とする請求項1に記載の対話制御装置。
The above conversation generation means,
Selecting one of the items of the object that can be identified from the value of the item in the topic used in the immediately preceding conversation as the next topic, and acquiring the value of the one of the items. The interaction control device according to claim 1, wherein the conversation control device generates an acquisition conversation.
上記会話生成手段は、
上記選択した上記話題における上記項目の上記値に基づき得られる事項を利用して上記利用会話を生成する
ことを特徴とする請求項1に記載の対話制御装置。
The above conversation generation means,
The interaction control device according to claim 1, wherein the use conversation is generated by using a matter obtained based on the value of the item in the selected topic.
上記会話生成手段は、
上記獲得会話を生成する記憶獲得会話生成手段と、
上記利用会話を生成する記憶利用会話生成手段と、
上記記憶獲得会話生成手段及び上記記憶利用会話生成手段のいずれか一方を選択し、当該選択した上記記憶獲得会話生成手段又は上記記憶利用会話生成手段に上記次の会話を生成させる状況判断手段と
を具えることを特徴とする請求項1に記載の対話制御装置。
The above conversation generation means,
Memory acquisition conversation generation means for generating the acquisition conversation;
Storage use conversation generation means for generating the use conversation,
Selecting one of the storage acquisition conversation generation means and the storage utilization conversation generation means, and causing the selected storage acquisition conversation generation means or the storage utilization conversation generation means to generate the next conversation. The interactive control device according to claim 1, further comprising:
上記状況判断手段は、
対話相手における全ての上記項目の数の合計値に対する上記値を獲得していない上記項目の数の度合いでなる第1の度合いと、上記対話相手における当該合計値に対する上記値を獲得した上記項目の数の度合いでなる第2の度合いとに基づいて、上記記憶獲得会話生成手段及び上記記憶利用会話生成手段のいずれに上記獲得会話又は上記利用会話を生成させるかを判断する
ことを特徴とする請求項14に記載の対話制御装置。
The situation determining means is as follows:
A first degree, which is the degree of the number of the items that have not obtained the value with respect to the total value of the items in the dialogue partner, and the first degree of the item that has obtained the value with respect to the total value in the dialogue partner; Determining which of the storage acquisition conversation generation means and the storage use conversation generation means should generate the acquisition conversation or the use conversation based on the second degree of the number. Item 15. The dialogue control device according to Item 14.
上記状況判断手段は、
上記第1の度合いが上記第2の度合い以上のときには、上記記憶獲得会話生成手段に上記獲得会話を生成させ、上記第1の度合いが上記第2の度合いよりも小さいときには、上記記憶利用会話生成手段に上記利用会話を生成させる
ことを特徴とする請求項14に記載の対話制御装置。
The situation determining means is as follows:
When the first degree is equal to or greater than the second degree, the storage-acquired conversation generation means is configured to generate the acquired conversation. When the first degree is smaller than the second degree, the storage-based conversation generation is performed. The dialogue control device according to claim 14, wherein said means generates said use conversation.
上記会話生成手段は、
使用した上記話題の履歴を保持し、当該履歴を参照しながら上記獲得会話又は上記利用会話を生成する
ことを特徴とする請求項1に記載の対話制御装置。
The above conversation generation means,
The interaction control device according to claim 1, wherein a history of the used topics is held, and the acquired conversation or the use conversation is generated while referring to the history.
上記会話生成手段は、
上記履歴を参照しながら、同じ対話相手との1度の対話において、同じ上記話題を使用しないように、上記獲得会話又は上記利用会話を生成する
ことを特徴とする請求項17に記載の対話制御装置。
The above conversation generation means,
The dialogue control according to claim 17, wherein the acquired conversation or the use conversation is generated so as not to use the same topic in one conversation with the same conversation partner while referring to the history. apparatus.
上記記憶手段は、
上記対象物の上記項目の上記値を、当該値を上記会話に利用しても良いか否かの尺度となる印象度と共に記憶し、
上記会話生成手段は、
当該印象度に基づいて上記次の会話に使用する上記話題を選択する
ことを特徴とする請求項1に記載の対話制御装置。
The storage means,
The value of the item of the object is stored together with the impression degree serving as a measure of whether the value may be used for the conversation,
The above conversation generation means,
The interaction control device according to claim 1, wherein the topic to be used in the next conversation is selected based on the impression degree.
内部状態を表すパラメータを保持し、当該パラメータ値を外部刺激に応じて変化させる内部状態管理手段
を具え、
上記印象度は、
対応する上記値を獲得した前後における上記内部状態管理手段により保持された所定の上記パラメータの上記パラメータ値の差分でなる
ことを特徴とする請求項19に記載の対話制御装置。
An internal state management means for holding a parameter representing an internal state and changing the parameter value according to an external stimulus;
The impression degree is
20. The dialogue control device according to claim 19, wherein the dialogue control device comprises a difference between the parameter value of the predetermined parameter held by the internal state management unit before and after the corresponding value is obtained.
対象物に付随する各種情報を、当該対象物の対応する項目の値として記憶する第1のステップと、
上記対象物の上記項目を話題と定義したときに、直前の会話で使用した上記話題と関連のある上記話題を選択し、当該選択した話題における上記項目の上記値を獲得するための獲得会話又は既に記憶している当該話題における上記項目の上記値を利用した利用会話を、次の会話として生成する第2のステップと
を具え、
上記第2のステップでは、
上記獲得会話により獲得した上記値を、対応する上記項目の上記値として記憶する
ことを特徴とする対話制御方法。
A first step of storing various information associated with the object as a value of a corresponding item of the object;
When the item of the object is defined as a topic, the topic that is related to the topic used in the immediately preceding conversation is selected, and the acquired conversation for acquiring the value of the item in the selected topic or A second step of generating, as the next conversation, a use conversation using the above-mentioned value of the item in the topic already stored,
In the second step,
A dialogue control method characterized by storing the value acquired by the acquired conversation as the value of the corresponding item.
上記第2のステップでは、
上記直前の会話で使用した上記話題と同じ上記対象物の別の任意の上記項目を次の上記話題として選択し、上記記憶手段が既に記憶している当該項目の上記値を利用して上記利用会話を生成する
ことを特徴とする請求項21に記載の対話制御方法。
In the second step,
Another optional item of the same object as the topic used in the immediately preceding conversation is selected as the next topic, and the storage unit uses the value of the item already stored and uses the item. The conversation control method according to claim 21, wherein a conversation is generated.
上記第2のステップでは、
上記直前の会話で使用した上記話題と同じ上記対象物の関連のある上記項目を次の上記話題として選択し、上記記憶手段が既に記憶している当該項目の上記値を利用して上記利用会話を生成する
ことを特徴とする請求項21に記載の対話制御方法。
In the second step,
The item related to the same object as the topic used in the immediately preceding conversation is selected as the next topic, and the value of the item already stored in the storage means is used for the use conversation. The interactive control method according to claim 21, wherein:
上記第2のステップでは、
上記直前の会話で使用した上記話題の上記項目の上記値から特定できる上記対象物のいずれかの上記項目を次の上記話題として選択し、上記記憶手段が既に記憶している当該いずれかの項目の上記値を利用して上記利用会話を生成する
ことを特徴とする請求項21に記載の対話制御方法。
In the second step,
Selecting any of the items of the object that can be specified from the value of the item of the topic used in the immediately preceding conversation as the next topic, and any of the items already stored in the storage means; 22. The interaction control method according to claim 21, wherein the use conversation is generated by using the value of?.
上記第2のステップでは、
上記直前の会話で使用した上記話題と同じ上記対象物の同じ上記項目を次の上記話題として選択し、上記記憶手段が既に記憶している当該項目の上記値を利用して上記利用会話を生成する
ことを特徴とする請求項21に記載の対話制御方法。
In the second step,
The same topic of the same object as the topic used in the immediately preceding conversation is selected as the next topic, and the use conversation is generated using the value of the item already stored in the storage means. The interactive control method according to claim 21, wherein:
上記第2のステップでは、
上記直前の会話で使用した上記話題における上記項目の上記値と同じ上記値を有する別の上記対象物の同じ上記項目を次の上記話題として選択し、上記記憶手段が既に記憶している当該同じ項目の上記値を利用して上記利用会話を生成する
ことを特徴とする請求項19に記載の対話制御方法。
In the second step,
The same item of another object having the same value as the value of the item in the topic used in the previous conversation is selected as the next topic, and the same item already stored in the storage unit is selected. 20. The interaction control method according to claim 19, wherein the use conversation is generated by using the value of the item.
上記第2のステップでは、
上記直前の会話で使用した上記話題における上記項目の上記値と関連のある上記値を有する別の上記対象物の上記項目を次の上記話題として選択し、上記記憶手段が既に記憶している当該関連のある値を利用して上記利用会話を生成する
ことを特徴とする請求項21に記載の対話制御方法。
In the second step,
The item of another object having the value related to the value of the item in the topic used in the immediately preceding conversation is selected as the next topic, and the item stored in the storage unit is selected. 22. The interaction control method according to claim 21, wherein the use conversation is generated using a related value.
上記第2のステップでは、
上記直前の会話で使用した上記話題の上記項目をキーワードとして、当該項目に関連のある次の上記話題を選択し、上記記憶手段が既に記憶している当該項目に対応するシナリオを利用して上記利用会話を生成する
ことを特徴とする請求項21に記載の対話制御方法。
In the second step,
Using the item of the topic used in the immediately preceding conversation as a keyword, selecting the next topic related to the item, and using the scenario corresponding to the item already stored in the storage means, 22. The interaction control method according to claim 21, wherein a use conversation is generated.
上記第2のステップでは、
上記生成された上記利用会話に対応する行動を発現するための行動コマンドを生成する
ことを特徴とする請求項28に記載の対話制御方法。
In the second step,
The interaction control method according to claim 28, wherein an action command for expressing an action corresponding to the generated use conversation is generated.
上記第2のステップでは、
上記直前の会話で使用した上記話題と同じ上記対象物の別の任意の上記項目を次の上記話題として選択し、当該別の任意の項目の上記値を獲得するための上記獲得会話を生成する
ことを特徴とする請求項21に記載の対話制御方法。
In the second step,
Another optional item of the same object as the topic used in the immediately preceding conversation is selected as the next topic, and the acquired conversation for acquiring the value of the optional item is generated. The interactive control method according to claim 21, wherein:
上記第2のステップでは、
上記直前の会話で使用した上記話題と同じ上記対象物の関連のある上記項目を次の上記話題として選択し、当該関連のある項目の上記値を獲得するための上記獲得会話を生成する
ことを特徴とする請求項21に記載の対話制御方法。
In the second step,
Selecting the item related to the same object as the topic used in the immediately preceding conversation as the next topic, and generating the acquired conversation for acquiring the value of the related item. The interactive control method according to claim 21, characterized in that:
上記第2のステップでは、
上記直前の会話で使用した上記話題における上記項目の上記値から特定できる上記対象物のいずれかの上記項目を次の上記話題として選択し、当該いずれかの項目の上記値を獲得するための上記獲得会話を生成する
ことを特徴とする請求項21に記載の対話制御方法。
In the second step,
Selecting one of the items of the object that can be identified from the value of the item in the topic used in the immediately preceding conversation as the next topic, and acquiring the value of the one of the items. The interaction control method according to claim 21, wherein an acquisition conversation is generated.
上記第2のステップでは、
上記選択した上記話題における上記項目の上記値に基づき得られる事項を利用して上記利用会話を生成する
ことを特徴とする請求項21に記載の対話制御方法。
In the second step,
22. The interaction control method according to claim 21, wherein the use conversation is generated using a matter obtained based on the value of the item in the selected topic.
上記第2のステップでは、
対話相手における全ての上記項目の数の合計値に対する上記値を獲得していない上記項目の数の度合いでなる第1の度合いと、上記対話相手における当該合計値に対する上記値を獲得した上記項目の数の度合いでなる第2の度合いとに基づいて、上記獲得会話又は上記利用会話のいずれを上記次の会話として生成するかを判断する
ことを特徴とする請求項21に記載の対話制御方法。
In the second step,
A first degree, which is the degree of the number of the items that have not obtained the value with respect to the total value of the items in the dialogue partner, and the first degree of the item that has obtained the value with respect to the total value in the dialogue partner; 22. The interaction control method according to claim 21, wherein it is determined whether the acquired conversation or the use conversation is to be generated as the next conversation based on a second degree of the number.
上記第2のステップでは、
上記第1の度合いが上記第2の度合い以上のときには上記獲得会話を生成し、上記第1の度合いが上記第2の度合いよりも小さいときには上記利用会話を生成する
ことを特徴とする請求項34に記載の対話制御方法。
In the second step,
35. The method according to claim 34, wherein the acquired conversation is generated when the first degree is equal to or higher than the second degree, and the use conversation is generated when the first degree is smaller than the second degree. 3. The interaction control method according to item 1.
上記第2のステップでは、
使用した上記話題の履歴を保持し、当該履歴を参照しながら上記獲得会話又は上記利用会話を生成する
ことを特徴とする請求項21に記載の対話制御方法。
In the second step,
22. The interaction control method according to claim 21, wherein a history of the used topics is retained, and the acquired conversation or the use conversation is generated while referring to the history.
上記第2のステップでは、
上記履歴を参照しながら、同じ対話相手との1度の対話において、同じ上記話題を使用しないように、上記獲得会話又は上記利用会話を生成する
ことを特徴とする請求項36に記載の対話制御方法。
In the second step,
37. The dialogue control according to claim 36, wherein the acquired conversation or the use conversation is generated so as not to use the same topic in one conversation with the same conversation partner while referring to the history. Method.
上記第1のステップでは、
上記対象物の上記項目の上記値を、当該値を上記会話に利用しても良いか否かの尺度となる印象度と共に記憶し、
上記第2のステップでは、
当該印象度に基づいて上記次の会話に使用する上記話題を選択する
ことを特徴とする請求項21に記載の対話制御方法。
In the first step,
The value of the item of the object is stored together with the impression degree serving as a measure of whether the value may be used for the conversation,
In the second step,
22. The interaction control method according to claim 21, wherein the topic to be used for the next conversation is selected based on the impression degree.
上記第1のステップでは、
内部状態を表すパラメータを保持し、当該パラメータ値を外部刺激に応じて変化させ、
上記印象度は、
対応する上記値を獲得した前後における上記内部状態管理手段により保持された所定の上記パラメータの上記パラメータ値の差分でなる
ことを特徴とする請求項38に記載の対話制御方法。
In the first step,
Holding a parameter representing the internal state, changing the parameter value according to the external stimulus,
The impression degree is
39. The interaction control method according to claim 38, comprising a difference between the parameter value of the predetermined parameter held by the internal state management unit before and after the acquisition of the corresponding value.
対象物に付随する各種情報を、当該対象物の対応する項目の値として記憶する記憶手段と、
上記対象物の上記項目を話題と定義したときに、直前の会話で使用した上記話題と関連のある上記話題を選択し、当該選択した話題における上記項目の上記値を獲得するための獲得会話又は上記記憶手段が既に記憶している当該話題における上記項目の上記値を利用した利用会話を、次の会話として生成する会話生成手段と
を具え、
上記会話生成手段は、
上記獲得会話により獲得した上記値を、対応する上記項目の上記値として上記記憶手段に記憶させる
ことを特徴とするロボット装置。
Storage means for storing various information associated with the object as a value of a corresponding item of the object;
When the item of the object is defined as a topic, the topic that is related to the topic used in the immediately preceding conversation is selected, and the acquired conversation for acquiring the value of the item in the selected topic or Conversation generating means for generating, as the next conversation, a use conversation using the value of the item in the topic already stored in the storage means,
The above conversation generating means,
The robot device according to claim 1, wherein the value acquired by the acquired conversation is stored in the storage unit as the value of the corresponding item.
JP2003270836A 2002-12-02 2003-07-03 Interaction control device and method and robot device Pending JP2004195636A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003270836A JP2004195636A (en) 2002-12-02 2003-07-03 Interaction control device and method and robot device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002350137 2002-12-02
JP2003270836A JP2004195636A (en) 2002-12-02 2003-07-03 Interaction control device and method and robot device

Publications (2)

Publication Number Publication Date
JP2004195636A true JP2004195636A (en) 2004-07-15
JP2004195636A5 JP2004195636A5 (en) 2006-08-17

Family

ID=32774987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003270836A Pending JP2004195636A (en) 2002-12-02 2003-07-03 Interaction control device and method and robot device

Country Status (1)

Country Link
JP (1) JP2004195636A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016536630A (en) * 2013-10-01 2016-11-24 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Method for dialogue between machine such as humanoid robot and human speaker, computer program product, and humanoid robot for executing the method
JP2018185561A (en) * 2017-04-24 2018-11-22 株式会社日立製作所 Dialogue support system, dialogue support method, and dialogue support program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016536630A (en) * 2013-10-01 2016-11-24 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Method for dialogue between machine such as humanoid robot and human speaker, computer program product, and humanoid robot for executing the method
US10127226B2 (en) 2013-10-01 2018-11-13 Softbank Robotics Europe Method for dialogue between a machine, such as a humanoid robot, and a human interlocutor utilizing a plurality of dialog variables and a computer program product and humanoid robot for implementing such a method
JP2018185561A (en) * 2017-04-24 2018-11-22 株式会社日立製作所 Dialogue support system, dialogue support method, and dialogue support program

Similar Documents

Publication Publication Date Title
KR101032176B1 (en) Dialogue control device and method, and robot device
US8538750B2 (en) Speech communication system and method, and robot apparatus
US11618170B2 (en) Control of social robot based on prior character portrayal
JP6984004B2 (en) Continuous selection of scenarios based on identification tags that describe the user&#39;s contextual environment for the user&#39;s artificial intelligence model to run through an autonomous personal companion.
WO2019169854A1 (en) Human-computer interaction method, and interactive robot
JP7260221B2 (en) Robot interaction method and device
CN111801730A (en) System and method for artificial intelligence driven automated companion
EP1256931A1 (en) Method and apparatus for voice synthesis and robot apparatus
CN112262024B (en) System and method for dynamic robot configuration for enhanced digital experience
US9796095B1 (en) System and method for controlling intelligent animated characters
CN112204563A (en) System and method for visual scene construction based on user communication
CN111417442A (en) Interactive game device
WO2010007336A1 (en) Interacting toys
JP7063230B2 (en) Communication device and control program for communication device
US20200143235A1 (en) System and method for providing smart objects virtual communication
WO2021049254A1 (en) Information processing method, information processing device, and program
JP2004195636A (en) Interaction control device and method and robot device
CN111949773A (en) Reading equipment, server and data processing method
JP2024505503A (en) Methods and systems that enable natural language processing, understanding and generation
KR20100070773A (en) Personality transition apparatus and method, and behavior diversification apparatus and method using that, and its robot system
JP7414735B2 (en) Method for controlling multiple robot effectors
JP7331349B2 (en) Conversation output system, server, conversation output method and program
WO2023212258A1 (en) Relationship graphs for artificial intelligence character models
JP2003200369A (en) Robot device, control method for the same, artificial agent, storage control device and storage control method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080703