JP2002169591A - Simulated conversation system and information storage medium - Google Patents

Simulated conversation system and information storage medium

Info

Publication number
JP2002169591A
JP2002169591A JP2000367594A JP2000367594A JP2002169591A JP 2002169591 A JP2002169591 A JP 2002169591A JP 2000367594 A JP2000367594 A JP 2000367594A JP 2000367594 A JP2000367594 A JP 2000367594A JP 2002169591 A JP2002169591 A JP 2002169591A
Authority
JP
Japan
Prior art keywords
word
registered
user
response
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000367594A
Other languages
Japanese (ja)
Other versions
JP3452257B2 (en
Inventor
Hideaki Yamamoto
秀明 山本
Tatsuya Yamazaki
龍也 山崎
Taisuke Tashiro
泰典 田代
Takashi Yamazaki
隆 山崎
Satoshi Yamamoto
聡 山本
Yoshihiro Nagasaki
良博 長崎
Mitsuru Ogata
満 緒方
Masahide Uchida
真英 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2000367594A priority Critical patent/JP3452257B2/en
Publication of JP2002169591A publication Critical patent/JP2002169591A/en
Application granted granted Critical
Publication of JP3452257B2 publication Critical patent/JP3452257B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily change a conversation according to a user. SOLUTION: A user information acquisition part 234 obtains the profile of a user and generates user data 516. A reply determination part 232 determines a simple response word and a next question for an adult or child according to the profile of the user. Then, a question for starting the conversation is outputted through a speaker 30 and when a voice to the outputted question is inputted, a voice recognition part 210 recognizes the voice (input word) (determines a registered word corresponding to the voice). The reply determination part 232 determines a simple response word and a next question according to the registered word in a determined simple reaction word group and a next question group and a voice synthesis part 220 synthesizes the voices of the determined simple response word and next question and outputs them through the speaker 30 to carry on the conversation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ユーザの入力した
言葉に対する返答を出力する模擬会話システム、及び情
報記憶媒体に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a simulated conversation system for outputting a response to a word input by a user, and an information storage medium.

【0002】[0002]

【従来の技術】従来、ユーザーが入力した音声に対して
返答を出力し、ユーザーと会話を行なう模擬会話システ
ムが知られている。このような模擬会話システムにおい
て、例えば、ユーザーが子供の場合と大人の場合とで
は、ユーザーが良く使う言葉も異なるし、それに対する
返答内容も異なる。そのため、従来の模擬会話システム
では、ユーザーのプロフィール(年齢や性別等)に従っ
て異なる言葉(ユーザーの音声を認識する際の登録語
や、登録語に対する返答文など)が登録されたカートリ
ッジやCD−ROM等を複数用意しておき、それぞれの
カートリッジやCD−ROMに登録された言葉に基づい
てユーザーの音声を認識したり、返答を出力すること
で、ユーザーのプロフィールに応じた会話を実現してい
た。
2. Description of the Related Art Conventionally, there has been known a simulated conversation system which outputs a response to a voice input by a user and has a conversation with the user. In such a simulated conversation system, for example, when the user is a child and when the user is an adult, the words frequently used by the user are different, and the contents of replies to the words are different. Therefore, in the conventional simulated conversation system, a cartridge or a CD-ROM in which different words (registered words for recognizing a user's voice, replies to the registered words, etc.) are registered according to the profile (age, gender, etc.) of the user. A plurality of such devices are prepared, and a voice corresponding to the user's profile is realized by recognizing the user's voice based on the words registered in each cartridge or CD-ROM and outputting a response. .

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
模擬会話システムにおいては、複数のカートリッジを用
意しておかなければならないといった問題があった。ま
た、ユーザーのプロフィールが変わる度に、カートリッ
ジを換えなければならず手間が掛かるといった問題があ
った。
However, the conventional simulated conversation system has a problem that a plurality of cartridges must be prepared. In addition, there is a problem that the cartridge has to be changed every time the user's profile changes, which is troublesome.

【0004】また、従来の模擬会話システムでは、一の
質問に対する各登録語毎に返答が設定されているため、
同じ質問に対して、同じ入力語を音声入力すれば、同じ
返答が出力されることとなり、何度も会話を行なってい
るユーザーは、先が読めてしまい、面白味が薄まり、飽
きやすいといった問題があった。
[0004] In the conventional simulated conversation system, since a reply is set for each registered word for one question,
If you input the same input words to the same question, the same answer will be output, and users who have many conversations will be able to read ahead, become less interesting, and get bored easily. there were.

【0005】本発明の課題は、ユーザーに応じて会話を
容易に変更することのできる模擬会話システムを実現す
ることである。
[0005] An object of the present invention is to realize a simulated conversation system that can easily change the conversation according to the user.

【0006】[0006]

【課題を解決するための手段】請求項1記載の発明の模
擬会話システム(例えば、図1に示す会話型玩具1)
は、複数の登録語を記憶するとともに、一の登録語に対
応する返答を複数記憶する記憶手段(例えば、図2に示
す記憶部500)と、ユーザーにより入力された言葉に
含まれる登録語を、前記記憶手段に記憶された登録語の
中から認識する認識手段(例えば、図2に示す音声認識
部210)と、前記認識手段によって認識された登録語
に対応する返答であって、所与の条件に応じた返答を前
記記憶手段に記憶された返答の中から決定する決定手段
(例えば、図2に示す返答決定部234)と、前記決定
手段により決定された返答を出力する出力手段(例え
ば、図2に示すスピーカ30)と、を備え、ユーザーに
よる言葉の入力、返答の決定及び出力の一連の処理を繰
り返し実行することによってユーザーとの模擬会話を行
なうとともに、ユーザーにより入力された言葉が同一で
あっても、前記決定手段が決定する返答は同一であると
は限らないことを特徴としている。
A simulated conversation system according to the present invention (for example, a conversational toy 1 shown in FIG. 1).
Stores a plurality of registered words and a plurality of replies corresponding to one registered word (for example, the storage unit 500 shown in FIG. 2), and stores the registered words included in the words input by the user. A recognizing means (for example, a voice recognition unit 210 shown in FIG. 2) for recognizing from the registered words stored in the storage means, and a reply corresponding to the registered word recognized by the recognizing means. Determining means (for example, a response determining unit 234 shown in FIG. 2) for determining a response according to the condition from among the responses stored in the storage means, and an output means for outputting the response determined by the determining means ( For example, a speaker 30) shown in FIG. 2 is provided, and a simulated conversation with the user is performed by repeatedly executing a series of processes of inputting a word, determining a response, and outputting by the user. Even the same words input by chromatography, replies the determining means determines is characterized in that not always the same.

【0007】請求項9記載の発明は、ユーザーによる言
葉の入力、返答の決定及び出力の一連の処理を繰り返し
実行することによってユーザーとの模擬会話を行なうた
めのコンピュータが実行可能なソフトウェアが記憶され
た情報記憶媒体(例えば、図2に示す記憶部500)で
あって、複数の登録語と、一の登録語に対応する複数の
返答と、ユーザーにより入力された言葉に含まれる登録
語を、前記複数の登録語の中から認識するための認識情
報と、認識された登録語に対応する複数の返答の中か
ら、所与の条件に応じた返答を決定するための決定情報
と、決定された返答を出力するための出力情報と、を含
み、ユーザーにより入力された言葉が同一であっても、
出力される返答が同一であるとは限らないようにするた
めの情報を記憶することを特徴としている。
According to a ninth aspect of the present invention, computer-executable software for performing a simulated conversation with a user by repeatedly executing a series of processes of inputting a word, determining a response, and outputting the word is stored. The information storage medium (for example, the storage unit 500 shown in FIG. 2) includes a plurality of registered words, a plurality of replies corresponding to one registered word, and a registered word included in the word input by the user. Recognition information for recognizing from the plurality of registered words, and determination information for determining a response according to a given condition from among a plurality of responses corresponding to the recognized registered words, And output information for outputting the reply, and even if the words input by the user are the same,
It is characterized by storing information for preventing the output response from being the same.

【0008】ここで、所与の条件としては、例えば、ユ
ーザーのプロフィール(年齢(年代別、大人か子供かな
どであっても良い。)、性別、会話を行なった回数、レ
ベル(上級、初級等)等)、仮想キャラクタのプロフィ
ール(年齢、性別等)、会話状況(会話の好感度、会話
時間、質疑応答のやり取り回数、入力された言葉の内の
不認識語の割合等)といった条件が挙げられる。また、
これらの条件を組み合せたものであっても良い。
Here, the given conditions include, for example, the profile of the user (age (may be age, adult or child), gender, number of conversations, level (advanced, elementary) Etc.), the profile of the virtual character (age, gender, etc.), the situation of conversation (favorable conversation, conversation time, the number of questions and answers exchanges, the percentage of unrecognized words in the input words, etc.) No. Also,
A combination of these conditions may be used.

【0009】請求項1または請求項9記載の発明によれ
ば、一の質問に対するユーザーの入力した言葉が同一で
あっても、出力される返答が同一であるとは限らないた
め、会話をより多彩なものとすることができる。そのた
め、何度も会話を行なったユーザーであっても、出力さ
れる返答が予測し難くなり、より面白味を増すととも
に、飽き難くさせることができる。
According to the first or ninth aspect of the present invention, even if the word input by the user for one question is the same, the output response is not necessarily the same, so that the conversation can be more effectively performed. It can be various. Therefore, even if the user has spoken many times, the output response is difficult to predict, which makes the user more interesting and hard to get tired of.

【0010】また、請求項2記載の発明のように、請求
項1記載の発明の模擬会話システムにおいて、前記返答
には質問が含まれ、前記模擬会話は質疑応答形式の模擬
会話であることとしても良い。
[0010] In the simulated conversation system according to the first aspect of the present invention, the reply includes a question, and the simulated conversation is a simulated conversation in a question-and-answer format. Is also good.

【0011】また、請求項10記載の発明のように、請
求項9記載の発明の情報記憶媒体において、前記返答に
は質問が含まれ、前記模擬会話は質疑応答形式の模擬会
話であることとしても良い。
[0011] In the information storage medium according to the ninth aspect of the present invention, the reply includes a question, and the simulated conversation is a simulated conversation in a question-and-answer format. Is also good.

【0012】請求項2または請求項10記載の発明によ
れば、質疑応答形式の会話であるため、返答に含まれる
質問を変更することにより、会話における話題を容易に
変更することができ、会話の展開をより様々に変化させ
ることができる。
According to the second or tenth aspect of the invention, since the conversation is in a question-and-answer format, the topic in the conversation can be easily changed by changing the question included in the reply. Can be changed in various ways.

【0013】また、請求項3記載の発明のように、請求
項2記載の発明の模擬会話システムにおいて、前記記憶
手段は、前記複数の登録語を、質問に基づいて分類され
る登録語群に区分して記憶し、前記認識手段は、前記出
力手段により前回出力された返答に含まれる質問に対応
する登録語群を前記記憶手段に記憶された登録語群から
選択し、その登録語群の中から、ユーザーにより入力さ
れた言葉に含まれる登録語を認識することとしても良
い。
According to a third aspect of the present invention, in the simulated conversation system according to the second aspect of the present invention, the storage means stores the plurality of registered words in a registered word group classified based on a question. The recognition means selects the registered word group corresponding to the question included in the answer previously output by the output means from the registered word group stored in the storage means, and stores the registered word group. From among them, the registered words included in the words input by the user may be recognized.

【0014】また、請求項11記載の発明のように、請
求項10記載の発明の情報記憶媒体において、前記複数
の登録語を、質問に基づいて分類される登録語群に区分
して記憶し、前記認識情報は、前回出力された返答に含
まれる質問に対応する登録語群を選択し、その登録語群
の中から、ユーザーにより入力された言葉に含まれる登
録語を認識するための情報を含むこととしても良い。
[0014] In the information storage medium according to the tenth aspect of the present invention, as in the eleventh aspect, the plurality of registered words are stored by being divided into registered word groups classified based on a question. The recognition information is information for selecting a registered word group corresponding to the question included in the previously output response and recognizing a registered word included in the word input by the user from the registered word group. May be included.

【0015】請求項3または請求項11記載の発明によ
れば、ユーザーにより入力された言葉に含まれる登録語
を認識する際に、前回出力された返答に含まれる質問に
対応する登録語群のみを対象として登録語を認識するこ
とができるため、入力された言葉の認識に掛かる時間を
短縮することができる。また、例えば、一の登録語を複
数の登録語群に含めて区分することにより、一の登録語
を複数の質問に対応させることができる。
According to the third or eleventh aspect of the present invention, when recognizing a registered word included in a word input by a user, only a registered word group corresponding to a question included in a previously output response is recognized. Since the registered word can be recognized with respect to, the time required for recognizing the input word can be reduced. Further, for example, by dividing one registered word into a plurality of registered word groups and dividing, one registered word can correspond to a plurality of questions.

【0016】また、請求項4記載の発明のように、請求
項1から3のいずれかに記載の発明の模擬会話システム
において、現在の模擬会話における会話状況の評価値を
判定する判定手段(例えば、図2に示す返答決定部23
2)を備え、前記記憶手段は、登録語として、肯定的応
答を意味する肯定登録語(例えば、図10に示す会話デ
ータ520cにおける登録語3−1(はい))と、否定
的応答を意味する否定登録語(例えば、図10に示す会
話データ520cにおける登録語3−2(いいえ))
と、肯定的または否定的の何れともとれる多義的な応答
を意味する多義的登録語(例えば、図10に示す会話デ
ータ520cにおける登録語3−3(いいよ))とを含
んで記憶し、前記決定手段は、前記認識手段が、ユーザ
ーにより入力された言葉に含まれる登録語を、前記多義
的登録語と認識した場合、前記判定手段により判定され
た評価値に応じて、その多義的登録語を前記肯定登録語
あるいは前記否定登録語とみなし、みなした肯定登録語
あるいは否定登録語に対応する返答を決定することとし
ても良い。
According to a fourth aspect of the present invention, in the simulated conversation system according to any one of the first to third aspects, the judging means for judging the evaluation value of the conversation situation in the current simulated conversation (for example, , The response determination unit 23 shown in FIG.
2), wherein the storage means includes, as registered words, an affirmative registered word meaning a positive response (for example, a registered word 3-1 (yes) in the conversation data 520c shown in FIG. 10) and a negative response Negative registered word (eg, registered word 3-2 (No) in conversation data 520c shown in FIG. 10)
And a polysemy registered word (for example, a registered word 3-3 (yes) in the conversation data 520c shown in FIG. 10) meaning an ambiguous response that can be either affirmative or negative, and stored. The determining means, when the recognizing means recognizes a registered word included in a word input by a user as the ambiguous registered word, according to the evaluation value determined by the determining means, A word may be regarded as the positive registered word or the negative registered word, and a response corresponding to the regarded positive registered word or negative registered word may be determined.

【0017】また、請求項12記載の発明のように、請
求項1から3のいずれかに記載の発明の情報記憶媒体に
おいて、現在の模擬会話における会話状況の評価値を判
定するための判定情報を記憶し、前記登録語として、肯
定的応答を意味する肯定登録語と、否定的応答を意味す
る否定登録語と、肯定的または否定的の何れともとれる
多義的な応答を意味する多義的登録語とを含んで記憶
し、前記決定情報は、前記認識情報によりユーザーによ
り入力された言葉に含まれる登録語を、前記多義的登録
語と認識した場合、前記判定情報により判定された評価
値に応じて、その多義的登録語を前記肯定登録語あるい
は前記否定登録語とみなし、みなした肯定登録語あるい
は否定登録語に対応する返答を決定するための情報を含
むこととしても良い。
According to a twelfth aspect of the present invention, in the information storage medium according to any one of the first to third aspects, determination information for determining an evaluation value of a conversation situation in a current simulated conversation is provided. As the registered words, a positive registered word meaning a positive response, a negative registered word meaning a negative response, and an ambiguous registration meaning an ambiguous response that can be either positive or negative. Word, and the decision information is, when the registered word included in the word input by the user with the recognition information is recognized as the ambiguous registered word, the evaluation value determined by the determination information Accordingly, the ambiguous registered word may be regarded as the positive registered word or the negative registered word, and information for determining a response corresponding to the regarded positive registered word or negative registered word may be included.

【0018】請求項4または請求項12記載の発明によ
れば、ユーザーにより入力された言葉が同一であって
も、その言葉の意味の解釈を会話状況に応じて変更し、
その解釈に応じて返答を変更することができる。即ち、
会話をより多彩なものとすることができる。そのため、
ユーザーが繰り返し会話を行なった場合であっても出力
される返答が予測し難なり、より飽き難くさせることが
できる。
According to the fourth or twelfth aspect of the present invention, even if the word input by the user is the same, the interpretation of the meaning of the word is changed according to the conversation situation.
The response can be changed according to the interpretation. That is,
Conversations can be more diverse. for that reason,
Even when the user has repeated conversations, the output response is difficult to predict and can be made more difficult to get tired of.

【0019】また、請求項5記載の発明のように、請求
項1から4のいずれかに記載の発明の模擬会話システム
において、ユーザーのプロフィール情報に基づいて、出
力する返答を決定することとしても良い。
In the simulated conversation system according to any one of the first to fourth aspects of the present invention, the response to be output may be determined based on the profile information of the user. good.

【0020】また、請求項13記載の発明のように、請
求項9から12のいずれかに記載の発明の情報記憶媒体
において、ユーザーのプロフィール情報と、前記ユーザ
ーのプロフィール情報に基づいて、出力する返答を決定
するための情報と、を記憶することとしても良い。
According to a thirteenth aspect of the present invention, in the information storage medium according to any one of the ninth to twelfth aspects, the information is output based on the profile information of the user and the profile information of the user. Information for determining a response may be stored.

【0021】請求項5または請求項13記載の発明によ
れば、ユーザーのプロフィールに応じた返答を出力する
ことができ、ユーザーに適した会話を容易に実現でき
る。
According to the fifth or thirteenth aspect of the present invention, a reply according to the user's profile can be output, and conversation suitable for the user can be easily realized.

【0022】また、請求項6記載の発明のように、請求
項5記載の発明の模擬会話システムにおいて、前記返答
は、プロフィールが仮想的に設定された仮想キャラクタ
(例えば、図1に示すロボット2)が発する言葉として
設定された返答であり、前記決定手段は、ユーザーのプ
ロフィール情報と前記仮想キャラクタのプロフィールの
差異に基づいて、出力する返答を決定することとしても
良い。
In the simulated conversation system according to the fifth aspect of the present invention, as in the sixth aspect of the present invention, the reply is a virtual character (for example, the robot 2 shown in FIG. 1) whose profile is virtually set. ) Is a response set as a word issued by the user, and the determining means may determine a response to be output based on a difference between the profile information of the user and the profile of the virtual character.

【0023】また、請求項14記載の発明のように、請
求項13記載の発明の情報記憶媒体において、前記返答
は、プロフィールが仮想的に設定された仮想キャラクタ
(例えば、図1に示すロボット2)が発する言葉として
設定された返答であり、前記決定情報は、ユーザーのプ
ロフィール情報と前記仮想キャラクタのプロフィールの
差異に基づいて、出力する返答を決定するための情報を
含むこととしても良い。
In the information storage medium according to the thirteenth aspect of the present invention, as in the fourteenth aspect, the reply is a virtual character (for example, the robot 2 shown in FIG. 1) whose profile is virtually set. ) Is a response set as a word issued, and the determination information may include information for determining a response to be output based on a difference between the profile information of the user and the profile of the virtual character.

【0024】ここで、ユーザーのプロフィール情報と、
仮想キャラクタのプロフィールの差異としては、例え
ば、年齢の差、男女の別などの差異である。
Here, the user profile information and
The differences in the profile of the virtual character include, for example, differences in age, gender, and the like.

【0025】請求項6または請求項14記載の発明によ
れば、ユーザーのプロフィールと、仮想キャラクタのプ
ロフィールとの差異に応じた返答を出力することができ
るため、例えば、同一のユーザーにより同一の言葉が入
力されても、会話を行なうキャラクタが異なれば、同一
の返答が出力されるとは限らないため、会話をより多彩
なものとすることができ、出力される返答を予測し難く
し、より飽き難くすることができ、ユーザーは、何度も
会話を楽しむことができる。
According to the sixth or fourteenth aspect of the present invention, it is possible to output a response according to the difference between the user's profile and the virtual character's profile. Even if is input, if the character performing the conversation is different, the same response is not always output, so the conversation can be made more diverse, making the output response difficult to predict, The user can be bored, and the user can enjoy the conversation many times.

【0026】また、請求項7記載の発明のように、請求
項5記載の発明の模擬会話システムにおいて、前記記憶
手段は、前記複数の返答を、想定されるユーザーのプロ
フィール情報に応じた返答群に分類して記憶し、前記決
定手段は、ユーザーのプロフィール情報に対応する返答
群を前記記憶手段に記憶された返答群から選択し、その
中から登録語に対応する返答を決定することとしても良
い。
According to a seventh aspect of the present invention, in the simulated conversation system according to the fifth aspect, the storage means stores the plurality of replies in a group of replies corresponding to the assumed profile information of the user. The determination means may select a response group corresponding to the user's profile information from the response group stored in the storage means, and determine a response corresponding to the registered word from the selected response group. good.

【0027】また、請求項15記載の発明のように、請
求項14記載の発明の情報記憶媒体において、前記複数
の返答を、想定されるユーザーのプロフィール情報に応
じた返答群に分類して記憶し、前記決定情報は、ユーザ
ーのプロフィール情報に対応する返答群の中から、登録
語に対応する返答を決定するための情報を含むこととし
ても良い。
In the information storage medium according to the present invention, the plurality of replies are stored by being classified into a group of replies corresponding to the assumed user profile information. The determination information may include information for determining a response corresponding to the registered word from a group of responses corresponding to the profile information of the user.

【0028】請求項7または請求項15記載の発明によ
れば、ユーザーのプロフィールに応じた返答を容易に決
定することができるため、ユーザーに適した会話を容易
に実現できる。
According to the seventh or fifteenth aspect of the present invention, since a reply according to the profile of the user can be easily determined, a conversation suitable for the user can be easily realized.

【0029】また、請求項8記載の発明のように、請求
項1から7のいずれかに記載の発明の模擬会話システム
において、前記模擬会話は音声による模擬会話であっ
て、前記認識手段は、ユーザーにより入力された音声デ
ータに含まれる登録語を前記記憶手段に記憶された登録
語の中から認識し、前記記憶手段は、前記返答として出
力する音声データを記憶し、前記出力手段は、前記返答
に対応する音声データを前記記憶手段から読み出して、
音声として出力することとしても良い。
In the simulated conversation system according to any one of the first to seventh aspects, the simulated conversation is a simulated conversation by voice, and the recognition means includes: The registered words included in the voice data input by the user are recognized from the registered words stored in the storage means, the storage means stores voice data to be output as the reply, and the output means, Reading voice data corresponding to the reply from the storage means,
It may be output as audio.

【0030】また、請求項16記載の発明のように、請
求項9から15のいずれかに記載の発明の情報記憶媒体
において、前記模擬会話は音声による模擬会話であっ
て、前記返答として出力する音声データを記憶し、前記
認識情報は、ユーザーにより入力された音声データに含
まれる登録語を前記複数の登録語の中から認識するため
の情報を含み、前記出力手段は、前記返答に対応する音
声データを読み出して、音声として出力するための情報
を含むこととしても良い。
In the information storage medium according to any one of the ninth to fifteenth aspects, as in the sixteenth aspect, the simulated conversation is a simulated conversation by voice and is output as the reply. Voice data, the recognition information includes information for recognizing a registered word included in the voice data input by the user from the plurality of registered words, and the output unit corresponds to the reply. It may include information for reading out audio data and outputting it as audio.

【0031】請求項8または請求項16記載の発明によ
れば、音声により会話を行なうことができるため、文字
の読み書きができなかったり、キーボードによる文字入
力ができないユーザーであっても、容易に会話を行なう
ことができる。また、音声による会話であるため、ユー
ザーが、例えば車の運転といった作業を行ないながらで
も楽しむことができる。
According to the invention described in claim 8 or claim 16, since conversation can be performed by voice, even a user who cannot read and write characters or cannot input characters using a keyboard can easily talk. Can be performed. Further, since the conversation is performed by voice, the user can enjoy the work while performing work such as driving a car.

【0032】[0032]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を参照して説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings.

【0033】図1は、本発明を会話型玩具1に適用した
場合の一例を示す外観図である。同図に示すように、会
話型玩具1は、ロボット2と、ロボット2を載置する台
座3とから構成され、ロボット2にユーザーが話し掛け
た音声をマイク4が検出し、検出されたユーザーの音声
に対する返答がスピーカ6から出力される。ユーザー
は、自分がロボット2に話し掛けた音声に対するロボッ
ト2からの返答を聞き、ロボット2との会話を楽しむ。
FIG. 1 is an external view showing an example in which the present invention is applied to a conversational toy 1. As shown in FIG. 1, the conversational toy 1 includes a robot 2 and a pedestal 3 on which the robot 2 is placed. The microphone 4 detects a voice spoken by the user to the robot 2, and the detected user's A response to the voice is output from the speaker 6. The user listens to a response from the robot 2 to the voice spoken to the robot 2 and enjoys a conversation with the robot 2.

【0034】図2は、本実施の形態における機能ブロッ
クの一例を示すブロック図である。同図に示すように、
本実施の形態の機能ブロックは、音声入力部10と、処
理部200と、スピーカ30と、記憶部500とから構
成される。
FIG. 2 is a block diagram showing an example of functional blocks according to the present embodiment. As shown in the figure,
The functional block according to the present embodiment includes a voice input unit 10, a processing unit 200, a speaker 30, and a storage unit 500.

【0035】音声入力部10は、図1に示すマイク4に
該当し、入力された音声を処理部200に出力する。
The voice input unit 10 corresponds to the microphone 4 shown in FIG. 1, and outputs the input voice to the processing unit 200.

【0036】処理部200は、音声を認識し、認識した
言葉に対する返答を決定し、当該返答の音声を合成する
処理等の処理を行なう。処理部200には、音声認識部
210、音声合成部220、返答決定部232、ユーザ
ー情報取得部234、履歴生成部236、時計240が
含まれる。
The processing section 200 recognizes the voice, determines a response to the recognized word, and performs processes such as a process of synthesizing the voice of the response. The processing unit 200 includes a voice recognition unit 210, a voice synthesis unit 220, a response determination unit 232, a user information acquisition unit 234, a history generation unit 236, and a clock 240.

【0037】音声認識部210は、音声入力部10から
入力された音声(入力語)と、音声認識用辞書530に
登録されている登録語の音声データとを比較し、入力さ
れた音声をいずれの登録語に該当するかを決定する。そ
の際に、音声認識部210は、後述する会話データ52
0において、その直前に出力された質問に対応して登録
された登録語の内のいずれに該当するかを決定する。即
ち、入力された音声は、音声認識用辞書530に登録さ
れている音声データの内、会話データ520中の直前に
出力された質問に対応する登録語の音声データと比較さ
れることにより、直前に出力された質問に対応する登録
語のいずれかとして認識される。また、音声認識部21
0は、入力語がその直前に出力された質問に対する登録
語でなかった場合、あるいは入力語が認識できなかった
場合には、入力語が不認識語であると決定する。
The voice recognition unit 210 compares the voice (input word) input from the voice input unit 10 with the voice data of the registered word registered in the voice recognition dictionary 530, and determines the input voice. To determine if it is a registered word. At this time, the speech recognition unit 210 transmits the conversation data 52 described later.
At 0, it is determined which of the registered words registered in response to the question output immediately before that. That is, the input voice is compared with the voice data of the registered word corresponding to the question output immediately before in the conversation data 520 among the voice data registered in the voice recognition dictionary 530, and Is recognized as one of the registered words corresponding to the question output to. Also, the voice recognition unit 21
0 determines that the input word is an unrecognized word if the input word is not a registered word for the question output immediately before or if the input word cannot be recognized.

【0038】なお、上記音声データの比較(認識)は、
従来技術であるワードスポッティング技術を用いて実現
する。このワードスポッティング技術とは、長い音声の
波形データの中に、検出したい短い音声の波形データが
含まれるか否かをパターンマッチングで検出する技術で
ある。この技術により、ユーザーが入力した登録語を含
む長い音声に、登録語が含まれるか否か、即ち、その入
力が登録語か否かを判別できる。
The comparison (recognition) of the voice data is performed as follows.
It is realized by using a word spotting technique which is a conventional technique. The word spotting technique is a technique for detecting, by pattern matching, whether or not waveform data of a short voice to be detected is included in waveform data of a long voice. According to this technique, it is possible to determine whether or not a long speech including a registered word input by a user includes a registered word, that is, whether or not the input is a registered word.

【0039】図3は、会話データ520の内、一の質問
に対するデータ構成の一例である会話データ520aを
示す図である。同図に示すように、質問に対して、登録
語が設定されており、各登録語に対応する好感度ポイン
トが設定されている。そして、各登録語に対して子供用
の相槌と次の質問、及び大人用の相槌と次の質問とが設
定されている。
FIG. 3 is a diagram showing conversation data 520a which is an example of a data structure for one question among the conversation data 520. As shown in the figure, a registered word is set for a question, and a favorable point corresponding to each registered word is set. Then, for each registered word, a child's hammer and the next question, and an adult's hammer and the next question are set.

【0040】図3においては、例えば、質問が質問1−
1(食べ物何が好き?)の場合を示しており、この場合
には、登録語として登録語1−1(チョコレート)、登
録語1−2(にんじん)、登録語1−3(焼き肉)、
…、など各種食べ物を示す語が登録されている(属性が
“食べ物”である登録語が設定されている。)。そし
て、各登録語に対して好感度ポイントが設定されてい
る。例えば、ロボット2のキャラクタに想定づける性格
等に応じて予め設定されている。図3においては、例え
ば、甘いものには高い好感度ポイントが設定され、野菜
には、低い好感度ポイントが設定されている。
In FIG. 3, for example, the question is question 1-
1 (what do you like food?), In this case, registered words 1-1 (chocolate), registered words 1-2 (carrots), registered words 1-3 (baked meat),
Words indicating various foods such as... Are registered (registered words having an attribute of “food” are set). Then, a favorable point is set for each registered word. For example, it is set in advance according to the character or the like assumed for the character of the robot 2. In FIG. 3, for example, a high liking point is set for sweet foods, and a low liking point is set for vegetables.

【0041】また、例えば、登録語1−1に対して子供
用の相槌は相槌b1(僕も好き、でも虫歯が心配)が設
定されており、大人用の相槌として相槌a1(僕も好
き、でも太るよね)が設定されている。また、登録語1
−1に対して子供用の次の質問は、質問1−2(ちゃん
と歯磨きしてる?)が設定されており、大人用の次の質
問は、質問1−5(○○さんは、太ってる?)が設定さ
れている。
For example, for a registered word 1-1, a child hammer b1 (I also like, but worry about tooth decay) is set, and as an adult hammer, a hammer a1 (I like, But it's fat). Also, registered word 1
As for the next question for children, question 1-2 (has you brushed your teeth properly) is set for the next question for children, and for the next question for adults, question 1-5 (who is fat?) ?) Is set.

【0042】音声認識用辞書530は、登録語とその音
声データとを対応づけている辞書である。例えば、会話
データ520には、質問に応じて登録語が設定されてい
るため、例えば、「食べ物何が好き?」といった質問に
対する登録語としては、属性が“食べ物”である登録語
が設定されており、登録語に「チョコレート」が含まれ
る。また、「嫌いな食べ物は何?」といった質問に対す
る登録語としても属性が“食べ物”である登録語が設定
されており、登録語に「チョコレート」が含まれる。こ
のように、会話データ520には、同じ登録語が複数の
質問に対して登録されているが、音声認識用辞書530
には、各登録語に対して一の音声データのみが格納され
る。このことにより、会話データ520に設定する登録
語は、音声データに対応する登録語のテキストデータ、
または登録語の識別番号で代替される。
The voice recognition dictionary 530 is a dictionary that associates registered words with their voice data. For example, since a registered word is set in the conversation data 520 in accordance with the question, for example, as a registered word for a question such as “What do you like about food?”, A registered word whose attribute is “food” is set. And the registered word includes "chocolate". In addition, a registered word whose attribute is “food” is set as a registered word for a question such as “What is the disliked food?”, And the registered word includes “chocolate”. As described above, in the conversation data 520, the same registered word is registered for a plurality of questions, but the speech recognition dictionary 530 is used.
Stores only one voice data for each registered word. Thus, the registered words set in the conversation data 520 are the text data of the registered words corresponding to the voice data,
Or, it is replaced with the identification number of the registered word.

【0043】また、例えば、「あのビルは80階建てな
んだよ。どう思う?」といった質問に対する登録語とし
ての「高いね」(高さ)や、「この服、10万円なん
だ。どう?」といった質問に対する登録語としての「高
いね」(値段)といったように意味の異なる場合であっ
ても、音声としては同じ「タカイネ」であるため、音声
認識用辞書530には、一つの音声データを登録してお
くだけで良い。
Also, for example, "Tall" (height) as a registered word for a question such as "Is that building 80 stories high? What do you think?" Or "This clothes is 100,000 yen. Even if the meaning is different, such as “expensive” (price) as a registered word for a question such as “?”, Since the voice is the same “takaine”, one voice is stored in the voice recognition dictionary 530. You only need to register the data.

【0044】ユーザー情報取得部234は、会話を開始
する際に、ユーザーのプロフィール(年齢、性別、レベ
ル(初級・上級)等)を取得し、ユーザーデータ516
を生成する処理を行なう。ユーザーのプロフィールを取
得する方法としては、例えば、会話開始時に、会話によ
り、ユーザーのプロフィールを尋ね、ユーザーが音声入
力したプロフィール情報を取得することとしても良い
し、また、会話開始前に予め、キー入力等により取得す
ることとしても良い。
When starting a conversation, the user information acquisition unit 234 acquires a user profile (age, gender, level (beginner / advanced), etc.) and acquires user data 516.
Is performed. As a method for acquiring the user's profile, for example, at the start of a conversation, the user may be asked for the profile of the user by conversation, and profile information obtained by voice input by the user may be acquired. It may be obtained by input or the like.

【0045】図4は、ユーザーデータ516のデータ構
成の一例を示す図である。同図に示すように、ユーザー
データとして、年齢、性別、レベルが設定されている。
図4においては、例えば、年齢として“10”、性別と
して“男”、レベルとして“初級”が設定されている。
FIG. 4 is a diagram showing an example of the data structure of the user data 516. As shown in the figure, age, gender, and level are set as user data.
In FIG. 4, for example, "10" is set as the age, "male" as the gender, and "elementary" as the level.

【0046】なお、年齢でなく、例えば、10代、20
代といった年代であっても良く、大人か子供かであって
も良い。
It is to be noted that not age, for example, teens, 20
It may be of the age of a teenager, and may be an adult or a child.

【0047】また、年齢、性別、レベルだけでなく、例
えば、会話を行なった回数などをプロフィールとして取
得することとしても良い。
In addition to the age, gender and level, for example, the number of conversations may be obtained as a profile.

【0048】返答決定部232は、会話が大人用か子供
用かをユーザーデータ516を参照して決定する。例え
ば、図4に示すようなユーザーデータ516の場合に
は、年齢が10であるため、子供用の会話を決定する。
The response determination unit 232 determines whether the conversation is for adults or children with reference to the user data 516. For example, in the case of the user data 516 as shown in FIG. 4, since the age is 10, a conversation for a child is determined.

【0049】また、返答決定部232は、質問に対して
入力され、音声認識部210が認識した入力語に対する
相槌及び質問を会話データ520を参照して決定する。
その際、会話が子供用と決定されていた場合には、子供
用の相槌及び次の質問を決定し、会話が大人用と決定さ
れていた場合には、大人用の相槌及び次の質問を決定す
る。
The answer determining unit 232 refers to the conversation data 520 to determine the answer and the question for the input word that is input for the question and recognized by the voice recognition unit 210.
At that time, if the conversation was determined to be for children, determine the child's hammer and the next question, and if the conversation was determined to be for adults, ask the adult's hammer and the next question. decide.

【0050】例えば、図3に示した会話データ520a
における質問1−1に対する入力語が登録語1−1に該
当し、ユーザーデータ516に設定されている年齢から
ユーザーが子供(例えば、年齢が“15”以下)である
場合には、返答決定部232は、子供用の相槌b1を登
録語1−1に対する相槌として決定し、次の質問として
質問1−2を決定する。ユーザーが大人(例えば、年齢
が“16”以上)である場合には、大人用の相槌a1を
登録語1−1に対する相槌として決定し、次の質問とし
て質問1−5を決定する。
For example, the conversation data 520a shown in FIG.
If the input word for the question 1-1 in the above corresponds to the registered word 1-1 and the user is a child (for example, the age is “15” or less) from the age set in the user data 516, the answer determination unit 232 determines the companion b1 for the child as the companion to the registered word 1-1, and determines the question 1-2 as the next question. If the user is an adult (for example, the age is “16” or more), the companion a1 for the adult is determined as the companion to the registered word 1-1, and the question 1-5 is determined as the next question.

【0051】また、返答決定部232は、次の質問にお
いて、接続詞+質問1−3のように、質問の前に接続詞
が設定されている場合には、接続詞データ518に設定
されている複数の接続詞の内、一の接続詞をランダムに
決定する。なお、次の質問に応じて接続詞を決定するこ
ととしても良い。本明細書において、接続詞とは、例え
ば、「ところで」、「そういえば」、「あっそうだ」、
「そうそう」、「あとね」、…などの会話において話題
を変える際に発せられる言葉を指す。
In the next question, if a connective is set before the question, as in the case of connective + question 1-3 in the next question, the response determiner 232 sets the plurality of connectives set in the connective data 518. One of the conjunctions is randomly determined. The conjunction may be determined according to the next question. In the present specification, the conjunctions are, for example, "by the way", "by the way", "it looks like",
Refers to words spoken when changing topics in conversations such as "yes", "later", ...

【0052】このように、相槌及び次の質問が大人用と
子供用とで異なるため、例えば、ユーザーが子供の場合
には、ドライブや酒・たばこなど、子供にそぐわない内
容の会話にならないように次の質問等を設定しておくこ
とができ、ユーザーのプロフィール(年齢)に応じた会
話の実現が可能となる。
As described above, since the hammer and the next question are different for adults and children, for example, if the user is a child, make sure that conversations such as driving and drinking / cigarettes are inappropriate for the child. The next question or the like can be set, and a conversation according to the user's profile (age) can be realized.

【0053】なお、会話データ520aにおいて子供用
と大人用の相槌及び次の質問が設定されていることとし
たが、例えば、相槌だけが大人用と子供用が用意され次
の質問は1つであっても良く、また、相槌は1つであ
り、次の質問のみ大人用と子供用とで分かれることとし
ても良い。
In the conversation data 520a, it is assumed that the child and adult socks and the next question are set, but, for example, only the soujin is prepared for adults and children and the next question is one. There may be one, and there is only one companion, and only the next question may be divided for adults and children.

【0054】また、大人用と子供用の2種類の相槌及び
次の質問を設定しておくこととしたが、例えば、10代
用、20代用、30代用、…、といった各年代毎や、或
いは、小学生用、中学生用、高校生用、大学生用、社会
人用の相槌及び次の質問を設定しておくこととしても良
く、更に、例えば、男性用、女性用といった性別毎の相
槌及び次の質問を設定しておくこととしても良い。
In addition, two types of hammering for adults and children and the following questions are set. For example, for each age such as 10s, 20s, 30s, etc., or For elementary school students, junior high school students, high school students, university students, adults, it is also possible to set a hammer and the next question, and further, for example, a gender hammer and the next question for men, women, etc. It may be set in advance.

【0055】また、例えば、レベル別(例えば、初級用
と上級用)に好感度ポイント、相槌及び次の質問を設定
しておくこととしても良い。例えば、会話データ520
aにおいて、初級用であれば、甘いものの登録語全てに
対して高い好感度ポイント(“+1”)が設定されると
ともに、好感度の高い(例えば、(僕も好き)といっ
た)相槌が設定される。一方、上級用の場合には、甘い
ものの内、例えば、登録語1−1(チョコレート)に対
してのみ高い好感度ポイントが設定されるとともに、好
感度の高い相槌が設定されるが、それ以外の甘いものの
登録語に対しては、普通の好感度ポイント(“0”)が
設定され、普通の(例えば、(そうなんだ)といった)
相槌が設定される。
Further, for example, it is also possible to set the liking point, the hammer, and the next question for each level (for example, for the elementary level and the advanced level). For example, conversation data 520
In a, for the elementary level, a high liking point (“+1”) is set for all registered sweet words, and a high liking (for example, (I also like)) is set. You. On the other hand, in the case of advanced use, a high likability point is set only for the registered word 1-1 (chocolate) and a high liking hammer is set. For a registered word of a sweet thing, a normal favorable point (“0”) is set, and a normal word (for example,
A companion is set.

【0056】即ち、上級用の会話では、ロボット2のキ
ャラクタに想定づける性格等に対してより的確な登録語
の入力が望まれることとなる。また、例えば、後述する
累積好感度ポイントデータ512に累積される累積好感
度ポイントが高い会話状況の場合には、会話を継続し、
累積好感度ポイントの低い会話状況の場合には、会話を
終了することとすれば、初級用と上級用とで会話の継続
の容易さを変更することもできる。
That is, in an advanced conversation, it is desired to input a registered word more accurately with respect to the character assumed for the character of the robot 2. Further, for example, in the case of a conversation situation in which the accumulated favorable points accumulated in the cumulative favorable point data 512 described later are high, the conversation is continued,
In the case of a conversation situation where the accumulated favorable liking point is low, if the conversation is ended, the continuity of the conversation can be changed between the elementary level and the advanced level.

【0057】このように、レベルに応じて、同一の登録
語に対する相槌や、会話の継続させやすさなどが変わる
ため、何度も会話を行なったユーザーであっても、飽き
難くさせることができる。
As described above, depending on the level, the hitting for the same registered word, the ease with which the conversation can be continued, and the like change, so that even a user who has spoken many times can be made less tired. .

【0058】また、例えば、ユーザーと会話を行なうロ
ボット2のキャラクタ(所与の性格付けがなされたキャ
ラクタ)を複数設定することとし、各キャラクタ毎に登
録語に対する好感度ポイント、相槌及び次の質問を設定
しておくこととしても良い。即ち、同じ質問に対する同
じ登録語が入力された場合であっても、ロボット2の外
形は同一であるが、会話をする対象となるキャラクタに
応じて、好感度ポイント、相槌、次の質問が変わること
となる。
Further, for example, a plurality of characters of the robot 2 (characters given a given character) for talking with the user are set, and for each character, the favorable points for the registered words, the so-called hammer and the next question May be set. In other words, even if the same registered word is input for the same question, the external shape of the robot 2 is the same, but the liking point, the companion, and the next question change according to the character to be spoken. It will be.

【0059】また、更に各キャラクタに想定するプロフ
ィールとして年齢、性別等を設定し、各キャラクタ毎に
年上用と年下用の相槌及び次の質問を設定しておき、会
話を行なうキャラクタの年齢とユーザーの年齢とを比較
し、ユーザーがキャラクタより年上である場合には、そ
のキャラクタに対応する年上用の相槌及び質問から入力
された登録語に応じた相槌及び次の質問を決定し、ユー
ザーが年下である場合には、年下用の相槌及び次の質問
から入力された登録語に応じた相槌及び質問を決定する
こととしても良い。
Further, age, gender, etc. are set as profiles assumed for each character, older and younger companions and the following questions are set for each character, and the age of the character performing the conversation is set. And the user's age, and if the user is older than the character, determine the older hammer and the next hammer and the next question corresponding to the registered word entered from the question. If the user is younger, it may be possible to determine a younger partner and a next agent based on the registered word input from the next question.

【0060】このように、一の質問に対して同一の登録
語が入力された場合であっても、ユーザーのプロフィー
ルやキャラクタの設定に応じて、出力される相槌及び次
の質問が変わり、会話の展開が変わる。そのため、会話
をより多彩なものとすることができ、ユーザーが繰り返
し会話を行なったとしても、その都度異なる会話を楽し
むことができる。
As described above, even when the same registered word is input for one question, the output of the hammer and the next question are changed according to the user's profile and character settings, and the conversation is performed. Changes. For this reason, conversations can be made more diverse, and even if the user has repeated conversations, different conversations can be enjoyed each time.

【0061】図5は、累積好感度ポイントデータ512
のデータ構成の一例を示す図である。累積好感度ポイン
トデータ512には、現在までに入力された入力語に対
して決定された登録語の好感度ポイントが加算された値
が格納されている。この累積好感度ポイントデータ51
2は、後述する履歴生成部236により更新される。
FIG. 5 shows the accumulated favorable liking point data 512.
FIG. 3 is a diagram showing an example of the data configuration of FIG. The accumulated favorable positivity point data 512 stores a value obtained by adding the favorable positivity points of the registered words determined for the input words input up to now. The accumulated favorable liking point data 51
2 is updated by the history generation unit 236 described later.

【0062】図6は、会話状況データ514のデータ構
成の一例を示す図である。同図に示すように、会話状況
データ514は、累積好感度ポイントの値に対応する会
話状況が設定されている。
FIG. 6 is a diagram showing an example of the data configuration of the conversation status data 514. As shown in the drawing, the conversation situation data 514 is set with the conversation situation corresponding to the value of the accumulated favorable liking point.

【0063】例えば、図5に示すように、累積好感度ポ
イントデータ512に格納されている累積好感度ポイン
トが+3の場合には、図6に示す会話状況データ514
において、累積好感度ポイント+3に対しては会話状況
として“B”が設定されているため、返答決定部232
は、会話状況を“B”と決定する。
For example, as shown in FIG. 5, when the cumulative favorable points stored in the cumulative favorable points data 512 is +3, the conversation status data 514 shown in FIG.
In the above, since "B" is set as the conversation status for the accumulated favorable liking point +3, the answer determination unit 232
Determines that the conversation status is “B”.

【0064】履歴生成部236は、入力語に対して決定
された登録語の好感度ポイントに基づいて、上述した累
積好感度ポイントデータ512を更新する。
The history generation unit 236 updates the above-described cumulative favorable liking point data 512 based on the favorable liking points of the registered word determined for the input word.

【0065】なお、履歴生成部236は、累積好感度ポ
イントデータ512のみならず、総会話時間や、会話の
やり取り回数、従前に入力された入力語の内の不認識語
(認識された入力語が登録語でなかった場合、あるいは
入力語が認識できなかった場合の入力語を不認識語とい
う。)の割合等の履歴データを生成、更新することとし
ても良い。また、会話状況データ514は、累積好感度
ポイント、総会話時間、会話のやり取り回数、入力語の
内の不認識語の割合等のいずれか一つ以上に応じて会話
状況を設定することとしても良い。なお、総会話時間
は、時計240から入力される計時信号に基づいて計測
される。
The history generation unit 236 generates not only the accumulated favorable liking point data 512 but also the total conversation time, the number of conversations, the unrecognized word (the recognized input word) among the previously input words. Is not a registered word, or an input word when an input word cannot be recognized is referred to as an unrecognized word.). Further, the conversation status data 514 may set the conversation status in accordance with any one or more of the accumulated favorable liking points, the total conversation time, the number of conversations exchanged, the ratio of unrecognized words in the input words, and the like. good. Note that the total conversation time is measured based on a clock signal input from the clock 240.

【0066】音声合成部220は、返答決定部232が
決定した相槌及び質問(接続詞を含む)の音声データを
合成し、D/A変換することによって、当該音声をスピ
ーカ30から出力させる処理を行なう。尚、相槌及び質
問の音声データは、記憶部500内に記憶することとし
ても良いし、音声合成部220内に保持することとして
も良い。
The voice synthesizing unit 220 synthesizes the voice data of the hammer and the question (including the conjunction) determined by the response determining unit 232 and performs D / A conversion to output the voice from the speaker 30. . Note that the voice data of the hammer and the question may be stored in the storage unit 500 or may be held in the voice synthesis unit 220.

【0067】上述した処理部200の機能は、CISC
型やRISC型のCPU、DSP等のハードウェアによ
り実現できる。
The function of the processing unit 200 described above is
And RISC type CPU, DSP, and other hardware.

【0068】スピーカ30は、音声合成部220が合成
した音声を出力する。スピーカ30は、図1に示すスピ
ーカ6に該当する。
The speaker 30 outputs the voice synthesized by the voice synthesizer 220. The speaker 30 corresponds to the speaker 6 shown in FIG.

【0069】記憶部500は、会話プログラム510、
上述した音声認識用辞書530、会話状況データ51
4、累積好感度ポイントデータ512、ユーザーデータ
516、接続詞データ518、会話データ520を記憶
している。この記憶部500の機能は、CD−ROM、
ICカード、MO、FD、DVD、ハードディスク、メ
モリなどのハードウェアにより実現できる。上述した通
り、処理部200は、この記憶部500に記憶されたプ
ログラムやデータ等に基づいて種々の処理を行なう。
The storage unit 500 stores a conversation program 510,
The voice recognition dictionary 530 and the conversation status data 51 described above.
4. Accumulated favorable point data 512, user data 516, conjunction data 518, and conversation data 520 are stored. The function of the storage unit 500 is a CD-ROM,
It can be realized by hardware such as an IC card, MO, FD, DVD, hard disk, and memory. As described above, the processing unit 200 performs various processes based on the programs, data, and the like stored in the storage unit 500.

【0070】次に、本実施の形態における会話処理に係
る動作を図7に示すフローチャートに基づいて説明す
る。
Next, the operation relating to the conversation processing in the present embodiment will be described with reference to the flowchart shown in FIG.

【0071】まず、ユーザー情報取得部234がユーザ
ーのプロフィールを取得し、ユーザーデータ516を生
成する(ステップS1)。そして、相槌群・次の質問群
をユーザーのプロフィールに応じて決定する(例えば、
大人用か子供用かを決定する。)(ステップS2)。次
いで、返答決定部232は、会話をスタートさせるため
の質問をスピーカ30により出力する(ステップS
3)。出力された質問に対する音声が入力されると、音
声認識部210は、その音声を認識する(その音声(入
力語)に該当する登録語を決定する)(ステップS
4)。
First, the user information acquisition section 234 acquires a user profile and generates user data 516 (step S1). Then, the hammer group / next question group is determined according to the user's profile (for example,
Decide whether it is for adults or children. (Step S2). Next, the response determination unit 232 outputs a question for starting conversation through the speaker 30 (step S).
3). When a voice corresponding to the output question is input, voice recognition unit 210 recognizes the voice (determines a registered word corresponding to the voice (input word)) (step S).
4).

【0072】そして、返答決定部232がステップS3
において決定された相槌群・次の質問群の中から登録語
に応じて相槌及び次の質問を決定し(ステップS5)、
音声合成部220が決定された相槌及び次の質問の音声
を合成しスピーカ30により当該音声を出力して(ステ
ップS6)、ステップS4に戻る。そして、ステップS
6において出力された質問に対して入力された音声を認
識し、以降の処理を繰り返すことにより会話を継続して
いく。
Then, the response determining unit 232 determines in step S3
The hammer and the next question are determined according to the registered word from the hammer group / next question group determined in (Step S5),
The voice synthesis unit 220 synthesizes the voices of the determined hammer and the next question, outputs the voice by the speaker 30 (step S6), and returns to step S4. And step S
The voice input for the question output in step 6 is recognized, and the subsequent processing is repeated to continue the conversation.

【0073】次に、本実施の形態を実現できるハードウ
ェアの構成の一例について図8を用いて説明する。同図
に示す装置では、CPU1000、ROM1002、R
AM1004、情報記憶媒体1006、音生成IC10
08、音声認識IC1012、I/Oポート1014、
時計1026が、システムバス1016により相互にデ
ータ入出力可能に接続されている。そして音生成IC1
008にはスピーカ1018が接続され、音声認識IC
1012にはマイク1020が接続され、I/Oポート
1014には通信装置1024が接続されている。
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the device shown in FIG.
AM1004, information storage medium 1006, sound generation IC10
08, voice recognition IC 1012, I / O port 1014,
Clocks 1026 are connected by a system bus 1016 so that data can be input and output to and from each other. And sound generation IC1
008, a speaker 1018 is connected, and a voice recognition IC
A microphone 1020 is connected to 1012, and a communication device 1024 is connected to the I / O port 1014.

【0074】情報記憶媒体1006は、プログラム、音
データ、プレイデータ等が主に格納されるものであり、
半導体メモリや、光学的あるいは磁気的記録媒体によっ
て構成される。この情報記憶媒体1006は図2におけ
る記憶部500に相当する。
The information storage medium 1006 mainly stores programs, sound data, play data, and the like.
It is composed of a semiconductor memory or an optical or magnetic recording medium. This information storage medium 1006 corresponds to the storage section 500 in FIG.

【0075】マイク1020は、図2における音声入力
部10に相当し、ユーザーの発した音声を検出する。音
声認識IC1012は、マイク1020が検出した音声
を認識するための集積回路である。具体的には、音声認
識IC1012は、従来技術として知られている連続音
声認識機能やワードスポッティング機能等を備えた認識
エンジン、認識エンジンに利用される認識辞書等を備
え、アナログの音声データをデジタルのテキストデータ
に変換するものである。従って、図3の登録語として
は、ワードスポッティングの機能によって固有名詞その
ものであっても良いし、文章の一部の言葉であっても良
い。
The microphone 1020 corresponds to the voice input unit 10 in FIG. 2, and detects a voice uttered by the user. The voice recognition IC 1012 is an integrated circuit for recognizing the voice detected by the microphone 1020. Specifically, the voice recognition IC 1012 includes a recognition engine having a continuous voice recognition function and a word spotting function known as a conventional technology, a recognition dictionary used for the recognition engine, and the like, and converts analog voice data into digital data. Is converted into text data. Therefore, the registered word in FIG. 3 may be a proper noun itself or a part of a sentence depending on the function of word spotting.

【0076】情報記憶媒体1006に格納されるプログ
ラム、ROM1002に格納されるシステムプログラ
ム、マイク1020から入力される音声等に従って、C
PU1000は装置全体の制御や各種データ処理を行
う。RAM1004はこのCPU1000の作業領域等
として用いられる記憶手段であり、情報記憶媒体100
6やROM1002の所与の内容、或いはCPU100
0の演算結果等が格納される。図2に示した記憶部50
0に格納されているデータの内、累積好感度ポイントデ
ータ512は、このRAM1002に格納されることと
しても良い。
According to the program stored in the information storage medium 1006, the system program stored in the ROM 1002, the voice input from the microphone 1020, etc.
The PU 1000 controls the entire apparatus and performs various data processing. The RAM 1004 is a storage unit used as a work area or the like of the CPU 1000.
6 or given contents of ROM 1002 or CPU 100
The operation result of 0 is stored. The storage unit 50 shown in FIG.
Of the data stored in 0, the accumulated favorable liking point data 512 may be stored in the RAM 1002.

【0077】音生成IC1008は情報記憶媒体100
6やROM1002に記憶される情報に基づいて音声を
生成する集積回路であり、生成された音声はスピーカ1
018によって出力される。
The sound generation IC 1008 is the information storage medium 100
6 is an integrated circuit that generates sound based on information stored in the ROM 1002.
018.

【0078】また通信装置1024は装置内部で利用さ
れる各種の情報を外部とやりとりするものであり、他の
装置と接続されて会話プログラム等に応じた所与の情報
を送受したり、通信回線を介して会話プログラムや、デ
ータ等の情報を送受すること等に利用される。
The communication device 1024 exchanges various kinds of information used inside the device with the outside. The communication device 1024 is connected to another device to send and receive given information according to a conversation program, etc. It is used for transmitting and receiving information such as a conversation program and data via the Internet.

【0079】時計1026は、現在時刻を計時し、計時
信号を随時CPU1000に出力するための時計回路で
ある。
The clock 1026 is a clock circuit for measuring the current time and outputting a clock signal to the CPU 1000 as needed.

【0080】そして、図1〜6を参照して説明した種々
の処理は、図7のフローチャートに示した処理等を行う
プログラムを格納した情報記憶媒体1006と、該プロ
グラムに従って動作するCPU1000、音生成IC1
008、音声認識IC1012等によって実現される。
なお音声認識IC1012等で行われる処理は、CPU
1000あるいは汎用のDSP等によりソフトウェア的
に行うこととしてもよい。
The various processes described with reference to FIGS. 1 to 6 include an information storage medium 1006 storing a program for performing the processes shown in the flowchart of FIG. 7, a CPU 1000 operating according to the program, and a sound generation device. IC1
008, the voice recognition IC 1012 and the like.
The processing performed by the voice recognition IC 1012 and the like is performed by the CPU.
It may be performed by software using a 1000 or a general-purpose DSP.

【0081】以上のように、本発明によれば、一の質問
に対するユーザーの入力した言葉が同一であっても、ユ
ーザーデータ516、会話データ520に従って、出力
される相槌及び次の質問が変化するため、会話をより多
彩なものとすることができ、何度も会話を行なったユー
ザーであっても、出力される返答を予測し難くし、より
面白味を増すことができる。
As described above, according to the present invention, even if the words input by the user for one question are the same, the output hammer and the next question change according to the user data 516 and the conversation data 520. Therefore, the conversation can be made more diverse, and even if the user has conducted the conversation many times, it is difficult to predict the response to be output, and the interest can be further increased.

【0082】なお、本発明は、上記実施の形態で説明し
たものに限らず、種々の変形実施が可能である。例え
ば、上記実施の形態においては、会話データ520にお
いて、ユーザーデータ516に応じた相槌及び次の質問
が設定されていることとしたが、例えば、会話データ5
20において、更に、会話状況に応じた相槌及び次の質
問を設定しておくこととしても良い。その場合には、返
答決定部232は、累積好感度ポイントデータ512及
び会話状況データ514を参照して、現在の会話状況を
判定し、当該会話状況に応じた相槌及び次の質問を決定
することとなる。
The present invention is not limited to those described in the above embodiment, but can be variously modified. For example, in the above-described embodiment, it is assumed that the conversation data 520 includes a hammer and the next question corresponding to the user data 516.
At 20, a hammer and the next question according to the conversation situation may be set. In that case, the response determination unit 232 refers to the accumulated favorable liking point data 512 and the conversation situation data 514 to determine the current conversation situation, and decides a companion and a next question according to the conversation situation. Becomes

【0083】図9は、会話状況毎に相槌及び次の質問が
設定された会話データ520bのデータ構成の一例を示
す図である。図9においては、子供用の相槌及び次の質
問について示しており、大人用については図示を省略し
ているが、子供用と同様に会話状況毎に相槌及び次の質
問が設定されることとなる。会話データ520bにおい
ては、質問に対して複数の登録語が設定されており、各
登録語に対して、好感度ポイントが設定されている。ま
た、各登録語に対して、子供用と大人用それぞれにおい
て、各会話状況毎の相槌及び次の質問が設定されてい
る。
FIG. 9 is a diagram showing an example of the data configuration of conversation data 520b in which a companion and the next question are set for each conversation situation. FIG. 9 shows a companion for the child and the next question, and the illustration for the adult is omitted, but the companion and the next question are set for each conversation situation as in the case of the child. Become. In the conversation data 520b, a plurality of registered words are set for a question, and a favorable impression point is set for each registered word. Further, for each registered word, a hammer and the next question are set for each conversation situation for children and adults.

【0084】例えば、図9は、質問2−1(海好き?)
に対する会話データ520bを示しており、質問2−1
に対する登録語として登録語2−1(好き)、登録語2
−2(嫌い)、登録語2−3(まあまあ)、…などとい
った言葉が設定されている。そして、会話状況が“A”
の場合、“B”の場合、“C”の場合の相槌及び次の質
問が設定されている。例えば、登録語2−2に対して
は、好感度ポイントが“−1”であり、会話状況が
“A”の場合の相槌は、相槌c2(残念)、次の質問
は、質問2−2(今度いっしょに行ってみようよ)であ
るが、同じ登録語2−2が入力された場合であっても、
会話状況が“C”の場合には、相槌は、相槌e2(気が
合わないね)、次の質問はなく、(さよなら)といった
終了の台詞が出力されることとなる。
For example, FIG. 9 shows a question 2-1 (sea lover?).
Data 520b with respect to the question 2-1.
Words 2-1 (like), registered words 2 as registered words for
-2 (dislike), registered words 2-3 (OK), ..., etc. are set. And the conversation situation is "A"
In the case of "B", in the case of "B", in the case of "C", the hammer and the next question are set. For example, with respect to the registered word 2-2, if the favorable impression point is "-1" and the conversation situation is "A", the companion is c2 (sorry), and the next question is the question 2-2. (Let's go together), but even if the same registered word 2-2 is entered,
If the conversation situation is "C", the souetsu will output a souvenir e2 (I'm not happy), no next question, and an end message (Goodbye).

【0085】また、例えば、会話データとして図10に
示す会話データ520cようなデータ構成であっても良
い。図10は、登録語として、複数の意味に解釈できる
(多義的な)言葉が登録されている場合の会話データ5
20cのデータ構成の一例を示す図である。
Further, for example, the conversation data may have a data structure such as conversation data 520c shown in FIG. FIG. 10 shows conversation data 5 in the case where words that can be interpreted in a plurality of meanings (ambiguous) are registered as registered words.
It is a figure showing an example of the data composition of 20c.

【0086】図10に示すように、登録語として、登録
語3−1(はい)、登録語3−2(やだ)、登録語3−
3(いいよ)、…、が設定されている場合、例えば、登
録語3−3(いいよ)は、肯定の意味(登録語3−1と
同じ意味)にも解釈できるし、また、否定の意味(登録
語3−2と同じ意味)にも解釈することができる。この
ような多義的な言葉が登録語に含まれる場合には、会話
状況に応じて解釈することとしても良い。
As shown in FIG. 10, registered words 3-1 (yes), registered words 3-2 (yada), registered words 3-
When 3 (good),... Are set, for example, the registered word 3-3 (good) can be interpreted as an affirmative meaning (the same meaning as the registered word 3-1), or a negative. (The same meaning as the registered word 3-2). When such ambiguous words are included in the registered words, they may be interpreted according to the conversation situation.

【0087】例えば、図10において、登録語3−3に
対して会話状況が“A”または“B”である場合には、
登録語3−1と同様の好感度ポイント、相槌、次の質問
が設定されており、会話状況が“C”である場合には、
登録語3−2と同様の好感度ポイント、相槌、次の質問
が設定されている。即ち、会話状況が“A”または
“B”である場合には、登録語3−3を肯定の意味(登
録語3−1)とみなし、会話状況が“C”である場合に
は、登録語3−3を否定の意味(登録語3−2)とみな
して、好感度ポイント、相槌、及び次の質問が決定され
ることとなる。即ち、ユーザーにより入力された言葉が
同一であっても、その言葉の意味の解釈を会話状況に応
じて変更することができる。
For example, in FIG. 10, when the conversation status is “A” or “B” for the registered word 3-3,
When the similarity point, the companion, and the next question similar to the registered word 3-1 are set, and the conversation status is “C”,
The same liking point, companion, and next question as the registered word 3-2 are set. That is, when the conversation status is "A" or "B", the registered word 3-3 is regarded as having a positive meaning (registered word 3-1), and when the conversation status is "C", the registered word is registered. Considering the word 3-3 as a negative meaning (registered word 3-2), the favorability point, the companion, and the next question will be determined. That is, even if the words input by the user are the same, the interpretation of the meaning of the words can be changed according to the conversation situation.

【0088】なお、会話状況に応じてではなく、例え
ば、ランダムに言葉の意味の解釈を変更することとして
も良い。
It is to be noted that the interpretation of the meaning of words may be changed at random, for example, not according to the conversation situation.

【0089】また、例えば、上記実施の形態においては
会話型玩具1に適用した場合について説明したが、例え
ば、パーソナルコンピュータや業務用ゲーム装置に適用
することも可能である。図11は、業務用ゲーム装置の
一例を示す外観図である。同図において、筐体11に、
ディスプレイ18、マイク14、スピーカ16が備えら
れている。プレーヤは、マイク14に音声を入力し、ス
ピーカ16から出力される質問や相槌といった音声を聞
いて、ディスプレイ18に表示されたキャラクタとの会
話を楽しむ。
Further, for example, in the above-described embodiment, the case where the present invention is applied to the interactive toy 1 has been described. However, the present invention can be applied to, for example, a personal computer or an arcade game device. FIG. 11 is an external view showing an example of the arcade game device. In FIG.
A display 18, a microphone 14, and a speaker 16 are provided. The player inputs voice to the microphone 14, listens to voices such as a question and a match output from the speaker 16, and enjoys a conversation with the character displayed on the display 18.

【0090】また、ディスプレイを有する装置に本発明
を適用する場合には、音声による会話のみならず文字に
よる会話を行なうこととしても良い。即ち、ユーザーが
文字データを入力し、その言葉に対応する相槌、質問等
をディスプレイに文字で表示することとしても良い。ま
た、ユーザーが入力する言葉は音声で入力され、返答は
文字で出力することとしても良い。また、逆にユーザー
が入力する言葉は文字で入力され、返答は音声で出力す
ることとしても良い。
When the present invention is applied to an apparatus having a display, not only voice conversation but also text conversation may be performed. That is, the user may input character data, and display a hammer, a question, etc. corresponding to the word on the display in characters. Further, the words input by the user may be input by voice, and the response may be output by characters. Conversely, the words input by the user may be input in characters, and the response may be output in voice.

【0091】また、例えば、本発明の模擬会話システム
を、電話機やリモートコントロール装置等の電化製品な
どに組み込むこととしたり、装置として部屋の壁などに
取り付けることにより、ユーザーにあたかも物や部屋と
会話をしているように感じさせることができる。即ち、
本発明の模擬会話システムは、機械的な感覚を与えず
に、継続的な会話を実行せしめ、その会話を楽しむこと
ができる点に最大の特徴がある。このため、本発明の適
用対象は、人形であっても良いし、業務用ゲーム装置で
あっても良いが、会話とはかけ離れた物品、例えば、冷
蔵庫や電話機といった物に適用することとしても良い
し、パネル状に構成し、椅子や壁に設置することで椅子
や壁を模擬会話システムとして実現することとしても良
い。その場合には、模擬会話システムには、椅子や壁を
擬人化した時の相槌、質問のデータを備えさせることに
より、あたかも椅子や壁と会話をしているように感じさ
せることができる。
Further, for example, the simulated conversation system of the present invention can be incorporated into an electric appliance such as a telephone or a remote control device, or can be attached to a wall or the like of a room as a device so that a user can talk with an object or a room. You can feel like you are doing That is,
The greatest feature of the simulated conversation system of the present invention is that a continuous conversation can be executed without giving a mechanical feeling, and the conversation can be enjoyed. Therefore, the application target of the present invention may be a doll or an arcade game device, but may be applied to an article far from conversation, such as a refrigerator or a telephone. Alternatively, the chair or the wall may be realized as a simulated conversation system by being configured in a panel shape and installed on a chair or a wall. In this case, by providing the simulated conversation system with the data of the contact and the question when the chair or the wall is personified, it is possible to make it feel as if the user is talking with the chair or the wall.

【0092】なお、上記実施の形態において説明したロ
ボット2の表情や動作、図11に示した業務用ゲーム装
置のディスプレイに表示されるキャラクタの表情や動作
をスピーカから出力する相槌や質問の音声、または、入
力語に対応する登録語の好感度ポイント等に応じて変更
することとしても良い。
It should be noted that the expression and movement of the robot 2 described in the above embodiment, the expression of the character and the movement displayed on the display of the arcade game device shown in FIG. Alternatively, it may be changed according to the favorable points of the registered word corresponding to the input word.

【0093】また、例えば、質疑応答形式で継続する場
合以外の会話に適用することも可能である。例えば、本
模擬会話システムを家庭用エアーコンディショナーに適
用した場合には、ユーザーが「冷房ON」と音声入力し
た際に、冷房のスイッチをONにするとともに、例え
ば、ユーザーの年齢や性別に応じて「冷え過ぎは、身体
に良くないよ」と返答したり、「部屋にばかりいない
で、外で遊びなよ」と返答したり、といったように返答
を変更する。その場合には、ユーザーは、家族に限られ
るため、ユーザーデータ516には家族の人数分のプロ
フィールがそれぞれ設定されており、年齢や性別のみな
らず疾病状況などのより詳細なプロフィールを記憶して
おき、会話データ520には、家族一人一人に対して、
ユーザーデータ516に基づいた相槌がそれぞれ設定さ
れていることとしても良い。
Further, for example, the present invention can be applied to a conversation other than the case of continuing in a question-and-answer format. For example, when the present simulated conversation system is applied to a home air conditioner, when the user inputs a voice "cooling ON", the user turns on the cooling switch and, for example, according to the age and gender of the user. Change the response, such as replying, "If it's too cold, it's not good for your body" or "Replying to play outside, not just in the room". In this case, since the user is limited to the family, a profile corresponding to the number of the family is set in the user data 516, and more detailed profiles such as illness status as well as age and gender are stored. The conversation data 520 includes, for each family member,
A companion based on the user data 516 may be set.

【0094】また、本実施の形態においては、日本語の
会話を例にとって説明したが、日本語に限らず他国の言
語であっても良いし、方言であっても良い。
Further, in the present embodiment, Japanese conversation has been described as an example. However, the present invention is not limited to Japanese, but may be a language of another country or a dialect.

【0095】[0095]

【発明の効果】本発明によれば、一の質問に対するユー
ザーの入力した言葉が同一であっても、例えば、その言
葉の意味の解釈を会話状況に応じて変更し、その解釈に
応じて返答を変更したり、ユーザーのプロフィールや仮
想キャラクタのプロフィールに応じて返答を変更したり
するため、出力される返答が同一であるとは限らない。
従って、会話をより多彩なものとすることができる。そ
のため、何度も会話を行なったユーザーであっても、出
力される返答が予測し難くなり、より面白味を増すとと
もに、飽き難くさせることができる。
According to the present invention, even if the word input by the user for one question is the same, for example, the interpretation of the meaning of the word is changed according to the conversation situation, and a reply is made according to the interpretation. Is changed, or the response is changed according to the profile of the user or the profile of the virtual character. Therefore, the output response is not always the same.
Therefore, conversation can be made more diverse. Therefore, even if the user has spoken many times, the output response is difficult to predict, which makes the user more interesting and hard to get tired of.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施の形態における会話型玩具の一例を示す
図である。
FIG. 1 is a diagram illustrating an example of a conversational toy according to the present embodiment.

【図2】本実施の形態における機能ブロックの一例を示
すブロック図である。
FIG. 2 is a block diagram illustrating an example of a functional block according to the present embodiment.

【図3】会話データのデータ構成の一例を示す図であ
る。
FIG. 3 is a diagram illustrating an example of a data configuration of conversation data.

【図4】ユーザーデータのデータ構成の一例を示す図で
ある。
FIG. 4 is a diagram illustrating an example of a data configuration of user data.

【図5】累積好感度ポイントデータのデータ構成の一例
を示す図である。
FIG. 5 is a diagram illustrating an example of a data configuration of accumulated favorable liking point data.

【図6】会話状況データのデータ構成の一例を示す図で
ある。
FIG. 6 is a diagram illustrating an example of a data configuration of conversation status data.

【図7】本実施の形態における会話処理に係る動作を示
すフローチャートである。
FIG. 7 is a flowchart showing an operation related to conversation processing in the present embodiment.

【図8】本実施の形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 8 is a diagram illustrating an example of a hardware configuration that can implement the present embodiment;

【図9】会話データのデータ構成の一例を示す図であ
る。
FIG. 9 is a diagram illustrating an example of a data configuration of conversation data.

【図10】会話データのデータ構成の一例を示す図であ
る。
FIG. 10 is a diagram illustrating an example of a data configuration of conversation data.

【図11】本発明を業務用ゲーム装置に適用した場合に
ついて説明する図である。
FIG. 11 is a diagram illustrating a case where the present invention is applied to an arcade game device.

【符号の説明】[Explanation of symbols]

10 入力部 200 処理部 210 音声認識部 220 音声合成部 232 返答決定部 234 ユーザー情報取得部 236 履歴生成部 240 時計 30 スピーカ 500 記憶部 510 会話プログラム 512 累積好感度ポイントデータ 514 会話状況データ 516 ユーザーデータ 518 接続詞データ 520 会話データ 530 音声認識用辞書 Reference Signs List 10 input unit 200 processing unit 210 voice recognition unit 220 voice synthesis unit 232 reply determination unit 234 user information acquisition unit 236 history generation unit 240 clock 30 speaker 500 storage unit 510 conversation program 512 accumulated favorable liking point data 514 conversation status data 516 user data 518 connective data 520 conversation data 530 dictionary for speech recognition

フロントページの続き (72)発明者 田代 泰典 東京都大田区多摩川2丁目8番5号 株式 会社ナムコ内 (72)発明者 山崎 隆 東京都大田区多摩川2丁目8番5号 株式 会社ナムコ内 (72)発明者 山本 聡 東京都大田区多摩川2丁目8番5号 株式 会社ナムコ内 (72)発明者 長崎 良博 東京都大田区多摩川2丁目8番5号 株式 会社ナムコ内 (72)発明者 緒方 満 東京都大田区多摩川2丁目8番5号 株式 会社ナムコ内 (72)発明者 内田 真英 東京都大田区多摩川2丁目8番5号 株式 会社ナムコ内 Fターム(参考) 2C001 AA11 BA07 BB05 BB06 CA07 CB01 CB03 CC01 CC08 2C150 AA05 BA17 CA01 DF03 DF33 ED42 EE02 EF30 5B091 AA15 CB12 CB32 CC01 CC15 5D015 LL10 Continuing on the front page (72) Inventor Yasunori Tashiro 2-8-5 Tamagawa, Ota-ku, Tokyo Namco Corporation (72) Inventor Takashi Yamazaki 2-8-5 Tamagawa, Ota-ku, Tokyo Namco Corporation (72 ) Inventor Satoshi Yamamoto 2-8-5 Tamagawa, Ota-ku, Tokyo Tokyo, Japan (72) Inventor Yoshihiro Nagasaki 2-8-5 Tamagawa, Ota-ku, Tokyo Namco Corporation (72) Inventor Mitsuru Ogata Tokyo 2-8-5 Tamagawa, Ota-ku, Tokyo Namco Corporation (72) Inventor Masahide Uchida 2-8-5 Tamagawa, Ota-ku, Tokyo F-term (reference) 2C001 AA11 BA07 BB05 BB06 CA07 CB01 CB03 CC01 CC08 2C150 AA05 BA17 CA01 DF03 DF33 ED42 EE02 EF30 5B091 AA15 CB12 CB32 CC01 CC15 5D015 LL10

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】複数の登録語を記憶するとともに、一の登
録語に対応する返答を複数記憶する記憶手段と、 ユーザーにより入力された言葉に含まれる登録語を、前
記記憶手段に記憶された登録語の中から認識する認識手
段と、 前記認識手段によって認識された登録語に対応する返答
であって、所与の条件に応じた返答を前記記憶手段に記
憶された返答の中から決定する決定手段と、 前記決定手段により決定された返答を出力する出力手段
と、 を備え、ユーザーによる言葉の入力、返答の決定及び出
力の一連の処理を繰り返し実行することによってユーザ
ーとの模擬会話を行なうとともに、ユーザーにより入力
された言葉が同一であっても、前記決定手段が決定する
返答は同一であるとは限らないことを特徴とする模擬会
話システム。
1. A storage means for storing a plurality of registered words and a plurality of replies corresponding to one registered word, and a registered word included in a word inputted by a user is stored in said storage means. A recognizing means for recognizing from the registered words, and a response corresponding to a given condition, which is a response corresponding to the registered word recognized by the recognizing means, is determined from the responses stored in the storage means. A simulating conversation with the user by repeatedly executing a series of processes of inputting a word, determining a reply, and outputting the word by the user, comprising: In addition, a simulated conversation system is characterized in that even if the words input by the user are the same, the answer determined by the determining means is not necessarily the same.
【請求項2】請求項1において、 前記返答には質問が含まれ、 前記模擬会話は質疑応答形式の模擬会話であることを特
徴とする模擬会話システム。
2. The simulated conversation system according to claim 1, wherein the reply includes a question, and the simulated conversation is a simulated conversation in a question-and-answer format.
【請求項3】請求項2において、 前記記憶手段は、前記複数の登録語を、質問に基づいて
分類される登録語群に区分して記憶し、 前記認識手段は、前記出力手段により前回出力された返
答に含まれる質問に対応する登録語群を前記記憶手段に
記憶された登録語群から選択し、その登録語群の中か
ら、ユーザーにより入力された言葉に含まれる登録語を
認識することを特徴とする模擬会話システム。
3. The storage unit according to claim 2, wherein the storage unit stores the plurality of registered words in a group of registered words classified based on a question, and the recognizing unit outputs the plurality of registered words by a previous output by the output unit. A registered word group corresponding to the question included in the received answer is selected from the registered word group stored in the storage unit, and a registered word included in the word input by the user is recognized from the registered word group. A simulated conversation system characterized by the following.
【請求項4】請求項1から3のいずれかにおいて、 現在の模擬会話における会話状況の評価値を判定する判
定手段を備え、 前記記憶手段は、登録語として、肯定的応答を意味する
肯定登録語と、否定的応答を意味する否定登録語と、肯
定的または否定的の何れともとれる多義的な応答を意味
する多義的登録語とを含んで記憶し、 前記決定手段は、前記認識手段が、ユーザーにより入力
された言葉に含まれる登録語を、前記多義的登録語と認
識した場合、前記判定手段により判定された評価値に応
じて、その多義的登録語を前記肯定登録語あるいは前記
否定登録語とみなし、みなした肯定登録語あるいは否定
登録語に対応する返答を決定することを特徴とする模擬
会話システム。
4. The method according to claim 1, further comprising: a determination unit configured to determine an evaluation value of a conversation situation in a current simulated conversation, wherein the storage unit includes a registration word indicating a positive response as a registration word. Word, a negative registered word meaning a negative response, and a polysemy registered word meaning a polysemy response that can be taken either positively or negatively, and stored. When the registered word included in the word input by the user is recognized as the ambiguous registered word, the ambiguous registered word is recognized as the positive registered word or the negative according to the evaluation value determined by the determining unit. A simulated conversation system characterized by considering a registered word and determining a reply corresponding to the recognized positive registered word or negative registered word.
【請求項5】請求項1から4のいずれかにおいて、 ユーザーのプロフィール情報に基づいて、出力する返答
を決定することを特徴とする模擬会話システム。
5. The simulated conversation system according to claim 1, wherein a response to be output is determined based on profile information of the user.
【請求項6】請求項5において、 前記返答は、プロフィールが仮想的に設定された仮想キ
ャラクタが発する言葉として設定された返答であり、 前記決定手段は、ユーザーのプロフィール情報と前記仮
想キャラクタのプロフィールの差異に基づいて、出力す
る返答を決定することを特徴とする模擬会話システム。
6. The response according to claim 5, wherein the response is a response set as a word uttered by a virtual character whose profile is virtually set, and wherein the deciding unit determines the profile information of the user and the profile of the virtual character. A simulated conversation system, wherein a response to be output is determined based on the difference between the two.
【請求項7】請求項5において、 前記記憶手段は、前記複数の返答を、想定されるユーザ
ーのプロフィール情報に応じた返答群に分類して記憶
し、 前記決定手段は、ユーザーのプロフィール情報に対応す
る返答群を前記記憶手段に記憶された返答群から選択
し、その中から登録語に対応する返答を決定することを
特徴とする模擬会話システム。
7. The method according to claim 5, wherein the storage unit classifies and stores the plurality of replies into a group of replies corresponding to the assumed profile information of the user. A simulated conversation system, wherein a corresponding response group is selected from the response groups stored in the storage means, and a response corresponding to the registered word is determined from the selected response group.
【請求項8】請求項1から7のいずれかにおいて、 前記模擬会話は音声による模擬会話であって、 前記認識手段は、ユーザーにより入力された音声データ
に含まれる登録語を前記記憶手段に記憶された登録語の
中から認識し、 前記記憶手段は、前記返答として出力する音声データを
記憶し、 前記出力手段は、前記返答に対応する音声データを前記
記憶手段から読み出して、音声として出力することを特
徴とする模擬会話システム。
8. The simulated conversation according to claim 1, wherein the simulated conversation is a simulated conversation by voice, and the recognizing unit stores a registered word included in voice data input by a user in the storage unit. The storage means stores voice data to be output as the reply, and the output means reads out the voice data corresponding to the reply from the storage means and outputs it as voice. A simulated conversation system characterized by the following.
【請求項9】ユーザーによる言葉の入力、返答の決定及
び出力の一連の処理を繰り返し実行することによってユ
ーザーとの模擬会話を行なうためのコンピュータが実行
可能なソフトウェアが記憶された情報記憶媒体であっ
て、 複数の登録語と、 一の登録語に対応する複数の返答と、 ユーザーにより入力された言葉に含まれる登録語を、前
記複数の登録語の中から認識するための認識情報と、 認識された登録語に対応する複数の返答の中から、所与
の条件に応じた返答を決定するための決定情報と、 決定された返答を出力するための出力情報と、 を含み、ユーザーにより入力された言葉が同一であって
も、出力される返答が同一であるとは限らないようにす
るための情報を記憶することを特徴とする情報記憶媒
体。
9. An information storage medium storing computer-executable software for performing a simulated conversation with a user by repeatedly executing a series of processes of inputting a word, determining a response, and outputting the word by the user. A plurality of registered words, a plurality of replies corresponding to one registered word, recognition information for recognizing a registered word included in a word input by a user from among the plurality of registered words, Input from the user, including: determination information for determining a response according to a given condition from among a plurality of responses corresponding to the registered word, and output information for outputting the determined response. An information storage medium for storing information for ensuring that an output response is not necessarily the same even if the input word is the same.
【請求項10】請求項9において、 前記返答には質問が含まれ、 前記模擬会話は質疑応答形式の模擬会話であることを特
徴とする情報記憶媒体。
10. The information storage medium according to claim 9, wherein the reply includes a question, and the simulated conversation is a simulated conversation in a question-and-answer format.
【請求項11】請求項10において、 前記複数の登録語を、質問に基づいて分類される登録語
群に区分して記憶し、 前記認識情報は、前回出力された返答に含まれる質問に
対応する登録語群を選択し、その登録語群の中から、ユ
ーザーにより入力された言葉に含まれる登録語を認識す
るための情報を含むことを特徴とする情報記憶媒体。
11. The registered word according to claim 10, wherein the plurality of registered words are stored in a group of registered words classified based on a question, and the recognition information corresponds to a question included in a response output last time. An information storage medium comprising information for recognizing a registered word included in a word input by a user from a registered word group to be selected.
【請求項12】請求項9から11のいずれかにおいて、 現在の模擬会話における会話状況の評価値を判定するた
めの判定情報を記憶し、 前記登録語として、肯定的応答を意味する肯定登録語
と、否定的応答を意味する否定登録語と、肯定的または
否定的の何れともとれる多義的な応答を意味する多義的
登録語とを含んで記憶し、 前記決定情報は、前記認識情報によりユーザーにより入
力された言葉に含まれる登録語を、前記多義的登録語と
認識した場合、前記判定情報により判定された評価値に
応じて、その多義的登録語を前記肯定登録語あるいは前
記否定登録語とみなし、みなした肯定登録語あるいは否
定登録語に対応する返答を決定するための情報を含むこ
とを特徴とする情報記憶媒体。
12. An affirmative registration word for storing a judgment value for determining an evaluation value of a conversation situation in a current simulated conversation according to any one of claims 9 to 11, wherein said registration word means an affirmative response. And a negative registered word meaning a negative response, and a polysematic registered word meaning a polysematic response that can be taken either positively or negatively, and stored. When the registered word included in the word input by the above is recognized as the ambiguous registered word, the ambiguous registered word is changed to the positive registered word or the negative registered word according to the evaluation value determined by the determination information. An information storage medium characterized by including information for determining a response corresponding to a positive registered word or a negative registered word considered.
【請求項13】請求項9から12のいずれかにおいて、 ユーザーのプロフィール情報と、 前記ユーザーのプロフィール情報に基づいて、出力する
返答を決定するための情報と、 を記憶することを特徴とする情報記憶媒体。
13. The information according to any one of claims 9 to 12, wherein: user profile information; and information for determining a response to be output based on the user profile information are stored. Storage medium.
【請求項14】請求項13において、 前記返答は、プロフィールが仮想的に設定された仮想キ
ャラクタが発する言葉として設定された返答であり、 前記決定情報は、ユーザーのプロフィール情報と前記仮
想キャラクタのプロフィールの差異に基づいて、出力す
る返答を決定するための情報を含むことを特徴とする情
報記憶媒体。
14. The response according to claim 13, wherein the response is a response set as a word uttered by a virtual character whose profile is virtually set, and the decision information is a profile information of a user and a profile of the virtual character. An information storage medium including information for determining a response to be output based on a difference between the information storage medium and the information storage medium.
【請求項15】請求項14において、 前記複数の返答を、想定されるユーザーのプロフィール
情報に応じた返答群に分類して記憶し、 前記決定情報は、ユーザーのプロフィール情報に対応す
る返答群の中から、登録語に対応する返答を決定するた
めの情報を含むことを特徴とする情報記憶媒体。
15. The method according to claim 14, wherein the plurality of replies are classified and stored in a group of replies corresponding to the assumed profile information of the user, and the decision information is a group of replies corresponding to the profile information of the user. An information storage medium including information for determining a response corresponding to a registered word from the inside.
【請求項16】請求項9から15のいずれかにおいて、 前記模擬会話は音声による模擬会話であって、 前記返答として出力する音声データを記憶し、 前記認識情報は、ユーザーにより入力された音声データ
に含まれる登録語を前記複数の登録語の中から認識する
ための情報を含み、 前記出力手段は、前記返答に対応する音声データを読み
出して、音声として出力するための情報を含むことを特
徴とする情報記憶媒体。
16. The simulated conversation according to any one of claims 9 to 15, wherein the simulated conversation is a simulated conversation by voice, and stores voice data to be output as a reply, and the recognition information includes voice data input by a user. The information includes information for recognizing a registered word included in the plurality of registered words from among the plurality of registered words, and the output unit includes information for reading out audio data corresponding to the reply and outputting it as audio. Information storage medium.
JP2000367594A 2000-12-01 2000-12-01 Simulated conversation system and information storage medium Expired - Fee Related JP3452257B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000367594A JP3452257B2 (en) 2000-12-01 2000-12-01 Simulated conversation system and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000367594A JP3452257B2 (en) 2000-12-01 2000-12-01 Simulated conversation system and information storage medium

Publications (2)

Publication Number Publication Date
JP2002169591A true JP2002169591A (en) 2002-06-14
JP3452257B2 JP3452257B2 (en) 2003-09-29

Family

ID=18837991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000367594A Expired - Fee Related JP3452257B2 (en) 2000-12-01 2000-12-01 Simulated conversation system and information storage medium

Country Status (1)

Country Link
JP (1) JP3452257B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169590A (en) * 2000-12-01 2002-06-14 Namco Ltd System and method for simulated conversation and information storage medium
JP2002169804A (en) * 2000-12-01 2002-06-14 Namco Ltd System and method for simulated conversation, and information storage medium
JP2002221992A (en) * 2001-01-29 2002-08-09 Nec Corp Person specifying system
JP2004073668A (en) * 2002-08-21 2004-03-11 P To Pa:Kk Racing game device, racing game control method, and program
WO2004084183A1 (en) * 2003-03-20 2004-09-30 Sony Corporation Audio conversation device, method, and robot device
JP2005003747A (en) * 2003-06-09 2005-01-06 Cai Media Kyodo Kaihatsu:Kk Interactive robot and dialogue system
JP2005283972A (en) * 2004-03-30 2005-10-13 Advanced Media Inc Speech recognition method, and information presentation method and information presentation device using the speech recognition method
JP2010262147A (en) * 2009-05-08 2010-11-18 Toyota Central R&D Labs Inc Response creating device and program
JP2012519501A (en) * 2009-03-05 2012-08-30 ステレンボッシュ ユニバーシティ A toy showing nostalgic behavior
JP2018081538A (en) * 2016-11-17 2018-05-24 株式会社Modulay Information processing apparatus, method using information processing apparatus, and program
JP2018176384A (en) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 Interaction device, interaction method, interaction program, and robot
JP2018176383A (en) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 Interaction device, interaction method, interaction program, and robot
WO2019069588A1 (en) * 2017-10-03 2019-04-11 東芝ライフスタイル株式会社 Control system
JP2020052310A (en) * 2018-09-28 2020-04-02 大和ハウス工業株式会社 Information management system
CN114020153A (en) * 2021-11-04 2022-02-08 上海元梦智能科技有限公司 Multi-mode man-machine interaction method and device

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61167997A (en) * 1985-01-21 1986-07-29 カシオ計算機株式会社 Interactive robot
JPS63219018A (en) * 1987-03-09 1988-09-12 Agency Of Ind Science & Technol Interactive processing device
JPH0333796A (en) * 1989-06-29 1991-02-14 Matsushita Electric Ind Co Ltd Interactive system
JPH07239694A (en) * 1994-03-02 1995-09-12 Oki Electric Ind Co Ltd Voice conversation device
JPH07261793A (en) * 1994-03-22 1995-10-13 Mitsubishi Electric Corp Interactive processor
JPH11175081A (en) * 1997-12-11 1999-07-02 Toshiba Corp Device and method for speaking
JPH11352986A (en) * 1998-06-09 1999-12-24 Nippon Telegr & Teleph Corp <Ntt> Recognition error moderating method of device utilizing voice recognition
JP2000259601A (en) * 1999-03-05 2000-09-22 Masami Kato Conversation device and its method
JP2001188788A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001188782A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing information and recording medium
JP2002041084A (en) * 2000-07-26 2002-02-08 Victor Co Of Japan Ltd Interactive speech processing system
JP2002169804A (en) * 2000-12-01 2002-06-14 Namco Ltd System and method for simulated conversation, and information storage medium
JP2002169590A (en) * 2000-12-01 2002-06-14 Namco Ltd System and method for simulated conversation and information storage medium

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61167997A (en) * 1985-01-21 1986-07-29 カシオ計算機株式会社 Interactive robot
JPS63219018A (en) * 1987-03-09 1988-09-12 Agency Of Ind Science & Technol Interactive processing device
JPH0333796A (en) * 1989-06-29 1991-02-14 Matsushita Electric Ind Co Ltd Interactive system
JPH07239694A (en) * 1994-03-02 1995-09-12 Oki Electric Ind Co Ltd Voice conversation device
JPH07261793A (en) * 1994-03-22 1995-10-13 Mitsubishi Electric Corp Interactive processor
JPH11175081A (en) * 1997-12-11 1999-07-02 Toshiba Corp Device and method for speaking
JPH11352986A (en) * 1998-06-09 1999-12-24 Nippon Telegr & Teleph Corp <Ntt> Recognition error moderating method of device utilizing voice recognition
JP2000259601A (en) * 1999-03-05 2000-09-22 Masami Kato Conversation device and its method
JP2001188788A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001188782A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing information and recording medium
JP2002041084A (en) * 2000-07-26 2002-02-08 Victor Co Of Japan Ltd Interactive speech processing system
JP2002169804A (en) * 2000-12-01 2002-06-14 Namco Ltd System and method for simulated conversation, and information storage medium
JP2002169590A (en) * 2000-12-01 2002-06-14 Namco Ltd System and method for simulated conversation and information storage medium

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169804A (en) * 2000-12-01 2002-06-14 Namco Ltd System and method for simulated conversation, and information storage medium
JP2002169590A (en) * 2000-12-01 2002-06-14 Namco Ltd System and method for simulated conversation and information storage medium
JP4622106B2 (en) * 2001-01-29 2011-02-02 日本電気株式会社 Person identification system
JP2002221992A (en) * 2001-01-29 2002-08-09 Nec Corp Person specifying system
JP2004073668A (en) * 2002-08-21 2004-03-11 P To Pa:Kk Racing game device, racing game control method, and program
WO2004084183A1 (en) * 2003-03-20 2004-09-30 Sony Corporation Audio conversation device, method, and robot device
JP2005003747A (en) * 2003-06-09 2005-01-06 Cai Media Kyodo Kaihatsu:Kk Interactive robot and dialogue system
JP2005283972A (en) * 2004-03-30 2005-10-13 Advanced Media Inc Speech recognition method, and information presentation method and information presentation device using the speech recognition method
JP2012519501A (en) * 2009-03-05 2012-08-30 ステレンボッシュ ユニバーシティ A toy showing nostalgic behavior
JP2010262147A (en) * 2009-05-08 2010-11-18 Toyota Central R&D Labs Inc Response creating device and program
JP2018081538A (en) * 2016-11-17 2018-05-24 株式会社Modulay Information processing apparatus, method using information processing apparatus, and program
JP2018176384A (en) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 Interaction device, interaction method, interaction program, and robot
JP2018176383A (en) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 Interaction device, interaction method, interaction program, and robot
WO2019069588A1 (en) * 2017-10-03 2019-04-11 東芝ライフスタイル株式会社 Control system
JP2019066731A (en) * 2017-10-03 2019-04-25 東芝ライフスタイル株式会社 Control system
JP2020052310A (en) * 2018-09-28 2020-04-02 大和ハウス工業株式会社 Information management system
JP7161361B2 (en) 2018-09-28 2022-10-26 大和ハウス工業株式会社 Information management system
CN114020153A (en) * 2021-11-04 2022-02-08 上海元梦智能科技有限公司 Multi-mode man-machine interaction method and device

Also Published As

Publication number Publication date
JP3452257B2 (en) 2003-09-29

Similar Documents

Publication Publication Date Title
JP2002169591A (en) Simulated conversation system and information storage medium
WO2020024582A1 (en) Speech synthesis method and related device
Couper-Kui-Ilen The prosody of repetition: On quoting and mimicry
JP6719747B2 (en) Interactive method, interactive system, interactive device, and program
US7640164B2 (en) System for performing interactive dialog
Arimoto et al. Naturalistic emotional speech collection paradigm with online game and its psychological and acoustical assessment
JP2002169590A (en) System and method for simulated conversation and information storage medium
KR20020071917A (en) User interface/entertainment device that simulates personal interaction and charges external database with relevant data
JP6719740B2 (en) Interactive method, interactive system, interactive device, and program
KR20020067590A (en) Environment-responsive user interface/entertainment device that simulates personal interaction
JP3533371B2 (en) Simulated conversation system, simulated conversation method, and information storage medium
KR20020067591A (en) Self-updating user interface/entertainment device that simulates personal interaction
JP2009178363A (en) Program, information storage medium and content providing device
JP2000501847A (en) Method and apparatus for obtaining complex information from speech signals of adaptive dialogue in education and testing
JP6699010B2 (en) Dialogue method, dialogue system, dialogue device, and program
KR20040028631A (en) Program, speech interaction apparatus, and method
JP5198046B2 (en) Voice processing apparatus and program thereof
CN111128118A (en) Speech synthesis method, related device and readable storage medium
CN110992926B (en) Speech synthesis method, apparatus, system and storage medium
JP6551793B2 (en) Dialogue method, dialogue system, dialogue apparatus, and program
Bennett Conversational style: Beyond the nuts and bolts of conversation
JP2001249945A (en) Feeling generation method and feeling generator
JPH11237971A (en) Voice responding device
CN111861666A (en) Vehicle information interaction method and device
JP3339853B2 (en) Game device and information storage medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
R150 Certificate of patent or registration of utility model

Ref document number: 3452257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100718

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100718

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130718

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees