JP4204044B2 - GAME MACHINE, GAME EXECUTION METHOD, AND PROGRAM FOR THEM - Google Patents

GAME MACHINE, GAME EXECUTION METHOD, AND PROGRAM FOR THEM Download PDF

Info

Publication number
JP4204044B2
JP4204044B2 JP2003358075A JP2003358075A JP4204044B2 JP 4204044 B2 JP4204044 B2 JP 4204044B2 JP 2003358075 A JP2003358075 A JP 2003358075A JP 2003358075 A JP2003358075 A JP 2003358075A JP 4204044 B2 JP4204044 B2 JP 4204044B2
Authority
JP
Japan
Prior art keywords
unit
information
user
character
topic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003358075A
Other languages
Japanese (ja)
Other versions
JP2005118372A (en
Inventor
信勝 平野谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal Entertainment Corp
Original Assignee
Aruze Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aruze Corp filed Critical Aruze Corp
Priority to JP2003358075A priority Critical patent/JP4204044B2/en
Publication of JP2005118372A publication Critical patent/JP2005118372A/en
Application granted granted Critical
Publication of JP4204044B2 publication Critical patent/JP4204044B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable a game machine to have emotional change like a natural human being according to tactics (bluff or deception) set for the game machine. <P>SOLUTION: The game machine comprises a conversation processing part for outputting a sentence of reply in response to the utterance of a user and a game processing part for executing a battle game between the user and a character. The conversation processing part comprises a conversation database means for storing a plurality of topic specifying information, and a conversation control means for storing the history of conversation determined by previous conversations and previous sentences of reply, selecting a sentence of reply according to the emotion state information describing the emotion of the character by collating the topic specifying information determined by the history of conversation and the utterance information, and outputting the information for determining the behavior of the character. The game processing part executes a game based on the information for determining the behavior of the character. <P>COPYRIGHT: (C)2005,JPO&amp;NCIPI

Description

本発明は、ゲーム機、ゲームの実行方法、並びにこれらのためのプログラムに関し、より詳しくはユーザの発話内容に応じたゲーム進行を行うことが可能であって、ユーザがいわゆるブラフをかけた場合にはそのブラフに応じてゲーム進行するゲーム機に関する。   The present invention relates to a game machine, a game execution method, and a program for the same, and more particularly, when a user makes a so-called bluff when the user can proceed with the game according to the content of the user's utterance. Relates to a game machine in which the game proceeds according to the bluff.

近年の音声分析技術・音声認識技術の発展に伴い、ユーザの自然音声を入力として受け付け、この入力に対して所定の応答をなすマン−マシン・インターフェイスを用いた会話システムが普及しつつある。このような会話システムの例として、単なるキーワードマッチングではなく、会話の履歴、話題の推移などが加味された自然な会話に近い対話を人間対機械の間で成立させる会話システムが提案されている(例えば、特許文献1)。   With the recent development of speech analysis technology and speech recognition technology, conversation systems using a man-machine interface that accepts a user's natural speech as an input and makes a predetermined response to this input are becoming widespread. As an example of such a conversation system, there has been proposed a conversation system that establishes a conversation close to a natural conversation between humans and machines, taking into consideration the history of conversation, transition of topics, etc., rather than just keyword matching ( For example, Patent Document 1).

このような会話システムを用いビジネス・応用技術としては会話システムを用いたエンターテイメント(例えば、家庭用・業務用ゲーム)が考えられる。一例としては、モニターに表示されるキャラクタ(仮想人格)と会話し、会話に基づいてゲームを進めるゲームソフトや、或いはゲームを行いつつキャラクタと会話をおこなう(会話の内容がゲームの勝敗・進行に影響を与えない)ゲームソフトなど、主体となるゲームに副次的構成要素として会話システムを組み込むことが考えられている。
特開2002−358304号公報
As a business / applied technology using such a conversation system, entertainment using the conversation system (for example, home and business games) can be considered. As an example, it is possible to have a conversation with a character (virtual personality) displayed on a monitor, and to have a game software that advances a game based on the conversation, or to have a conversation with a character while playing a game (the content of the conversation is the outcome of the game) It is considered to incorporate a conversation system as a secondary component in a main game such as game software that does not affect the game.
JP 2002-358304 A

一般的に、ゲームにおいては、プレーヤがゲームの進行に必要な行動をとる(カードを取る/捨てる、駒を動かす、牌を捨てる、ターンを消費する、など)こととは別に、対戦者間でさまざまな駆け引きが行われることが多い。駆け引きの方法としては、表情の変化、仕草の他に、発言/発話による方法がある。プレーヤは、対戦相手の発言があると、その発言が本当なのか嘘なのか迷いつつも、その発言内容を参考にして、自分の戦況がさらに有利になるような次の行動を取ろうとする。このような駆け引きは、ゲームの進行・勝敗などに少なからぬ影響を与える心理戦の側面を有しており、この駆け引きが行われることでゲームの面白み、スリリングさがさらに増大することは衆人に明らかなところである。   Generally, in a game, apart from the player taking actions necessary for the progress of the game (taking / discarding cards, moving a piece, throwing away a basket, consuming a turn, etc.) Various bargaining is often performed. As a method of bargaining, there is a method of speaking / speaking in addition to changing facial expressions and gestures. When a player has a comment from an opponent, he or she is wondering whether the comment is true or lie, but with reference to the content of the comment, the player tries to take the next action that makes his battle situation even more advantageous. Such bargaining has aspects of psychological warfare that have a considerable influence on the progress, victory and defeat of the game, and it is clear to the public that this game will further increase the fun and thrilling of the game There is a place.

従来の会話システムを有するゲームにおいては、ゲーム機(CPU)との対戦において、ゲーム機(CPU)が次の行動を取るための評価対象は、主にプレーヤがゲーム中に選択した操作である。従来の会話システムを有するゲームは、プレーヤの発言/発話に対する応答・回答は行うが、プレーヤの発言/発話に応じて次にゲーム機(CPU)が取る行動が左右される処理は行われておらず、プレーヤがゲーム機(CPU)との対戦において発言/発話による駆け引きを行うことはできなかった。   In a game having a conventional conversation system, an evaluation target for the game machine (CPU) to take the next action in a battle with the game machine (CPU) is mainly an operation selected by the player during the game. In a game having a conventional conversation system, the player responds / replies to the utterance / utterance, but a process that affects the next action taken by the game machine (CPU) according to the player's utterance / utterance is not performed. In other words, the player could not perform bargaining by speaking / speaking in a battle with a game machine (CPU).

また、駆け引きの結果、プレーヤの発言/発話がいわゆるブラフ(はったり、かまし)であった場合、対戦相手はこのブラフ(はったり、かまし)に対する感情変化(怒り、驚き、など)を起こすのであるが、従来のゲームでは、このような感情変化を再現することは行われていなかった。   Also, if the player's speech / utterance is a so-called bluff as a result of the bargaining, the opponent will cause emotional changes (anger, surprise, etc.) to this bluff. However, in conventional games, such emotional changes have not been reproduced.

本発明の目的は、会話機能を利用してプレーヤがゲーム機(CPU)に駆け引き(ブラフ、はったり、など)を仕掛けることが可能な技術を提供することにある。
本発明の別の目的は、駆け引き(ブラフ、はったり)を仕掛けられたゲーム機がその駆け引き(ブラフ、はったり、など)に応じて自然人のような感情変化を起こすことが可能な技術を提供することにある。
An object of the present invention is to provide a technique that allows a player to perform a game (bluffing, hugging, etc.) on a game machine (CPU) using a conversation function.
Another object of the present invention is to provide a technology capable of causing an emotional change like a natural person in accordance with a game machine (bluff, stagnation, etc.) on which a game (bluff, stagnation) is set. It is in.

上記課題を解決するための手段として、本発明は以下のような特徴を有する。
本発明の第1の態様は、ユーザ(プレイヤ)からの発話に応答する回答を出力する会話処理部(会話制御装置)と、ユーザとキャラクタとの対戦ゲームを実行するゲーム処理部(ゲーム装置)とを有するゲーム機(ゲームシステム)として提案される。
As means for solving the above problems, the present invention has the following features.
According to a first aspect of the present invention, a conversation processing unit (conversation control device) that outputs an answer in response to an utterance from a user (player) and a game processing unit (game device) that executes a battle game between the user and a character. It is proposed as a game machine (game system) having

このゲーム機において、会話処理部は、複数の話題特定情報を記憶する会話データベース手段(会話データベース)と、従前の会話及び従前の回答文により定まる談話履歴を記憶し、この談話履歴により定まる話題特定情報と発話情報とを照合して、キャラクタの感情を示す感情状態情報に応じた回答文を選択するとともに、キャラクタの行動を決定するための情報(対応行動フラグ)を出力する会話制御手段(会話制御部)とを有し、ゲーム処理部は、キャラクタの行動を決定するための情報に基づいてゲームを実行することを特徴としている。   In this game machine, the conversation processing unit stores a conversation database means (conversation database) for storing a plurality of topic specifying information, a conversation history determined by the previous conversation and the previous answer sentence, and a topic specification determined by the conversation history. Conversation control means (conversation) that collates information and utterance information, selects an answer sentence corresponding to emotion state information indicating the character's emotion, and outputs information (corresponding action flag) for determining the character's behavior The game processing unit is characterized in that the game is executed based on information for determining the action of the character.

このゲーム機によれば、ユーザがいわゆるブラフをかけてキャラクタとの駆け引きを行うことが可能となり、よりゲームの戦術・戦略と取りうる幅が広くなるとともに、ユーザが実際の人間と対戦する場合と同様の楽しみを与えることが可能となる。   According to this game machine, it becomes possible for the user to play with the character by so-called bluffing, and the range of games tactics / strategies can be widened, and the user can play against actual humans. It is possible to give similar fun.

ここで、「発話」は必ずしも音声でなくともよく、キーボードなどの文字入力手段により生成された文字列データであってもよい。「回答」は、音声、画面表示された文字列のいずれでなされるものでもかまわない。また、本発明では「ゲーム」とは、娯楽目的のもののみならず、教育目的、研究目的などの娯楽以外の目的を有するゲームを含む。「対戦」は必ずしも一対一の対戦形式に限られない。一対多、多対多の形式であってもユーザとキャラクタとの間で利害が対立する状態でゲームが進行するものであれば、ここにいう「対戦」に含まれる。また、「発話情報」とは、ユーザが発した、一つのまとまりを有する言葉の集合をいい、例えば、一つの文(一部が省略された省略文を含む)である。「話題特定情報」とは、ユーザとゲーム機が演じるキャラクタ間の会話のテーマを把握するための情報である。上記各様語の意味は、以下の第2,第3の態様においても同様である。   Here, the “utterance” does not necessarily have to be voice, but may be character string data generated by a character input means such as a keyboard. The “answer” may be made either by voice or a character string displayed on the screen. In the present invention, the “game” includes not only a game for entertainment but also a game having a purpose other than entertainment such as an educational purpose and a research purpose. The “match” is not necessarily limited to a one-on-one match format. Even if the game is one-to-many or many-to-many, if the game proceeds in a state of conflicting interests between the user and the character, it is included in the “battle” here. The “utterance information” refers to a set of words having a single unit uttered by the user, for example, a single sentence (including abbreviated sentences in which some are omitted). “Topic identification information” is information for grasping the theme of conversation between the character played by the user and the game machine. The meaning of each term is the same in the following second and third aspects.

また、このゲーム機において、感情状態情報を管理する感情状態情報管理手段と、会話処理部に入力されたユーザの発話内容とゲーム処理部に入力されたユーザの行動命令情報とを比較し、比較結果に基づいて感情状態情報の変更を行わせるユーザ行動評価手段とをさらに有するようにしてもよい。
ここで、「ユーザの行動命令情報」とは、ユーザがゲームシステムが有する入力手段により、ゲームシステムに自己がゲーム上取る行動を伝達するための情報をいい、たとえば麻雀ゲームにかかるゲームシステムにおいては、捨牌の選択、ポン、チー、カン、リーチ、ロン、ツモなどの行動を取る命令である。
Further, in this game machine, the emotion state information management means for managing the emotion state information is compared with the user's utterance content input to the conversation processing unit and the user's action command information input to the game processing unit. You may make it further have a user action evaluation means to change emotion state information based on a result.
Here, the “user action command information” refers to information for transmitting the action that the user takes on the game to the game system by means of input means possessed by the game system. For example, in a game system for a mahjong game, It is an instruction to take actions such as selection of trash, Pong, Chi, Kang, Reach, Ron, Tsumo.

このようなゲーム機によれば、キャラクタはユーザがいわゆるブラフをかけていた場合、ユーザの発言がブラフであったことに対する感情の変化を示し、よりリアルなキャラクタの反応を実現することが可能となる。   According to such a game machine, when the user wears a so-called bluff, the character can show a change in emotion with respect to the user's speech being a bluff and can realize a more realistic character reaction Become.

また、このゲーム機において、ゲーム処理部は感情状態情報に基づいてキャラクタの表示を制御するようにしてもよい。
このゲーム機によれば、ブラフに対して表情や動作を変化させるキャラクタを演出することができる。
In this game machine, the game processing unit may control the display of the character based on the emotional state information.
According to this game machine, it is possible to produce a character that changes facial expressions and actions with respect to the bluff.

本発明の第2の態様は、ユーザとキャラクタとの対戦ゲームを実行するゲームの実行方法として提案される。
このゲームの実行方法は、ユーザからの発話を受け付ける入力手段と、ユーザからの発話に応答する回答文を出力する会話処理部と、ユーザとキャラクタとの対戦ゲームを実行するゲーム処理部とを有し、前記ゲーム処理部が、複数の思考ルーチンを有するとともに、これらの思考ルーチンのうちの1つにしたがって前記キャラクタがとるゲームを進行させる行動を決定するキャラクタ行動決定部を有し、前記会話処理部が、ユーザと会話処理部との間の会話の話題や主題を特定する情報である談話履歴を記憶する手段と、1つの文字、複数の文字列又はこれらの組み合わせからなる形態素により構成され且つユーザへの回答文とキャラクタの感情を示す感情状態情報を構成する感情フラグと前記思考ルーチンを指定するための対応行動フラグとを対応付けて成る話題タイトルが対応付けられるとともに前記談話履歴により定まる複数の話題特定情報を記憶する会話データベース手段とを有して成るゲーム機でゲームを実行する方法において、前記会話処理部の認識部が、前記入力手段により受け付けられたユーザからの発話を当該ユーザからの発話情報として受け取って認識するステップと、前記会話処理部の形態素抽出部が、前記ユーザからの発話情報を、1つの文字、複数の文字列又はこれらの組み合わせからなる形態素に抽出するステップと、前記会話処理部の話題特定情報検索部が、前記形態素抽出部で抽出された形態素情報と前記会話データベース手段に記憶された話題特定情報とを照合し、各話題特定情報の中から形態素情報を構成する形態素と一致する話題特定情報を検索するステップと、前記会話処理部の回答取得部が、話題特定情報検索部で検索された話題特定情報に対応付けられた回答文を取得するステップと、前記会話処理部の感情状態情報管理部が、前記回答取得部で取得された回答文に対応付けられた感情フラグを受けるとともに、この感情フラグに基づいて感情状態情報を更新するステップと、前記会話処理部が、前記回答取得部で取得された回答文に対応付けられた対応行動フラグを前記ゲーム処理部の前記キャラクタ行動決定部に出力するステップと、前記キャラクタ行動決定部が、前記会話処理部から受けた対応行動フラグに基づいて、所定の思考ルーチンを選択するとともに、その選択された思考ルーチンに基づいてキャラクタの行動を決定するステップと、前記会話処理部のユーザ行動評価部が、ユーザの行動を示す情報を受けるとともに、ユーザの発話内容とユーザのとった行動とが一致するかどうかを判定し、その判定結果に基づいて感情状態情報管理部に感情状態情報の更新を行なわせることができるステップとを含むことを特徴としている。
The second aspect of the present invention is proposed as a game execution method for executing a battle game between a user and a character.
The game execution method includes an input unit that receives an utterance from the user, a conversation processing unit that outputs an answer sentence in response to the utterance from the user, and a game processing unit that executes a battle game between the user and the character. The game processing unit has a plurality of thinking routines, and has a character action determining unit that determines an action to advance the game taken by the character according to one of these thinking routines, and the conversation processing The section is composed of means for storing a discourse history that is information for specifying a topic or subject of conversation between the user and the conversation processing section, and a morpheme composed of one character, a plurality of character strings, or a combination thereof, and An emotional flag composing emotional state information indicating an answer sentence to the user and an emotion of the character, and a corresponding action flag for designating the thought routine And a conversation database means for storing a plurality of pieces of topic identification information determined by the conversation history, and a method for executing a game on the game machine. A step in which the recognition unit receives and recognizes the utterance from the user accepted by the input means as the utterance information from the user, and the morpheme extraction unit of the conversation processing unit converts the utterance information from the user into one The step of extracting characters, a plurality of character strings, or a morpheme composed of a combination thereof, and the topic specifying information search unit of the conversation processing unit are stored in the conversation database means and the morpheme information extracted by the morpheme extraction unit The topic identification information that matches the topic identification information and matches the morpheme that constitutes the morpheme information from each topic identification information , A step in which an answer acquisition unit of the conversation processing unit acquires an answer sentence associated with the topic specifying information searched by the topic specifying information searching unit, and emotion state information management of the conversation processing unit A step of receiving an emotion flag associated with the answer sentence acquired by the answer acquisition unit, and updating emotion state information based on the emotion flag; and the conversation processing unit Outputting a corresponding action flag associated with the acquired answer sentence to the character action determining unit of the game processing unit, and the character action determining unit based on the corresponding action flag received from the conversation processing unit Selecting a predetermined thought routine, determining a character's action based on the selected thought routine, and a user of the conversation processing unit The behavior evaluation unit receives information indicating the user's behavior, determines whether the user's utterance content matches the user's behavior, and based on the determination result, the emotional state information management unit And a step capable of updating information.

このゲーム実行方法によれば、ユーザがいわゆるブラフをかけてキャラクタとの駆け引きを行うことが可能となり、よりゲームの戦術・戦略と取りうる幅が広くなるとともに、ユーザが実際の人間と対戦する場合と同様の楽しみを与えることが可能となる。   According to this game execution method, it is possible for the user to play with a character by so-called bluffing, the range of games tactics / strategies can be further widened, and when the user plays against an actual human being It will be possible to give similar fun.

また、このようなゲームの実行方法によれば、キャラクタはユーザがいわゆるブラフをかけていた場合、ユーザの発言がブラフであったことに対する感情の変化を示し、よりリアルなキャラクタの反応を実現することが可能となる。 In addition, according to such a game execution method, when the user wears a so-called bluff, the character shows a change in emotion to the fact that the user's utterance is a bluff, and a more realistic character reaction is realized. It becomes possible.

なお、本発明は、第1の態様にかかるゲーム機としてコンピュータを機能させるためのプログラムとしても成立する。また、本発明は、第2の態様の方法をコンピュータに実行させるためのプログラムとしても成立する。 In addition, this invention is materialized also as a program for functioning a computer as a game machine concerning a 1st aspect . The present invention can also be realized as a program for causing a computer to execute the method of the second aspect .

本発明によれば、いわゆるブラフ(はったり)のようにユーザの発言内容が実際にユーザが取った行動と一致しない場合に、そのような行動に対してキャラクタが反応するゲーム機、ゲームの実行方法、並びにこれらのためのプログラムを提供することができる。   According to the present invention, when the user's utterance content does not match the action actually taken by the user, such as a so-called bluff, the game machine in which the character reacts to such action, and the game execution method As well as programs for these.

以下、図面を参照しながら本発明の実施の形態について説明する。本実施の形態は、ユーザの音声を受け付け可能なゲームシステムに関するものである。以下、このゲームシステムについて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present embodiment relates to a game system that can accept a user's voice. Hereinafter, this game system will be described.

[ゲームシステムの構成例]
図1は、ゲームシステムの構成例を示すブロック図である。ゲームシステムGSは、会話制御装置1と、ゲーム装置2とを有している。ゲームシステムGSは、さらに会話制御装置1及びゲーム装置2に接続された音声入力手段3と、ゲーム装置2に接続された非音声入力手段4と、ゲーム装置2に接続された画像出力手段5と、会話制御装置1及びゲーム装置2に接続された音声出力手段6とを有している。
[Game system configuration example]
FIG. 1 is a block diagram illustrating a configuration example of a game system. The game system GS includes a conversation control device 1 and a game device 2. The game system GS further includes a voice input unit 3 connected to the conversation control device 1 and the game device 2, a non-voice input unit 4 connected to the game device 2, and an image output unit 5 connected to the game device 2. And a voice output means 6 connected to the conversation control device 1 and the game device 2.

会話制御装置1は、ユーザと会話制御装置1との間での会話が成立するように、ユーザの発話に応じて回答を返す機能を有する。
ゲーム装置2は、ユーザの入力に応答して所定のゲーム処理を実行し、実行結果を利用者(ユーザ)に提示する機能を有する。なお、ゲームシステムGSが扱うゲームの種類はどのようなものでもよいが、本実施の形態では対戦型ゲームである麻雀ゲームを扱うゲーム装置2について説明する。
The conversation control device 1 has a function of returning an answer according to the user's utterance so that a conversation between the user and the conversation control device 1 is established.
The game apparatus 2 has a function of executing a predetermined game process in response to a user input and presenting an execution result to a user (user). Note that any type of game may be handled by the game system GS, but in the present embodiment, a game apparatus 2 that handles a mahjong game that is a competitive game will be described.

会話制御装置1及びゲーム装置2はそれぞれ、たとえばコンピュータ、ワークステーションなどの情報処理装置であって、演算処理装置(CPU)、主メモリ(RAM)、読出し専用メモリ(ROM)、入出力装置(I/O)、ハードディスク装置等の外部記憶装置を具備している装置で構成されている。前記ROM、もしくは外部記憶装置などに情報処理装置を会話制御装置1及び/又はゲーム装置2として機能させるためのプログラム、もしくは会話制御方法及び/又はゲームの実行方法をコンピュータに実行させるためのプログラムが記憶されており、該プログラムを主メモリ上に載せ、CPUがこれを実行することにより会話制御装置1及び/又はゲーム装置2が実現される。また、上記プログラムは必ずしも当該装置内の記憶装置に記憶されていなくともよく、磁気ディスク、光ディスク、光磁気ディスク、CD(Compact Disc)、DVD(Digital Video Disc)などのコンピュータ読み取り可能なプログラム記録媒体や、外部の装置(例えば、ASP(アプリケーション・サービス・プロバイダのサーバなど)から提供され、これを主メモリに乗せる構成であっても良い。   Each of the conversation control device 1 and the game device 2 is an information processing device such as a computer or a workstation, for example, an arithmetic processing unit (CPU), a main memory (RAM), a read only memory (ROM), an input / output device (I). / O), and a device having an external storage device such as a hard disk device. A program for causing an information processing device to function as the conversation control device 1 and / or the game device 2 in the ROM or an external storage device, or a program for causing a computer to execute the conversation control method and / or the game execution method. The conversation control device 1 and / or the game device 2 is realized by placing the program on the main memory and executing it by the CPU. In addition, the program does not necessarily have to be stored in a storage device in the apparatus, and a computer-readable program recording medium such as a magnetic disk, an optical disk, a magneto-optical disk, a CD (Compact Disc), a DVD (Digital Video Disc), etc. Alternatively, it may be configured to be provided from an external device (for example, an ASP (application service provider server or the like)) and put it in the main memory.

また、図1では、会話制御装置1とゲーム装置2とを互いに独立した装置として表示しているが、会話制御装置1とゲーム装置2とを互いに独立した装置である必要はなく、演算処理装置(CPU)、主メモリ(RAM)、読出し専用メモリ(ROM)、入出力装置(I/O)、ハードディスク装置等の外部記憶装置を共通に使用して、同一ハードウエアによって会話制御装置1とゲーム装置2を実現する構成としてもかまわない。   In FIG. 1, the conversation control device 1 and the game device 2 are displayed as independent devices. However, the conversation control device 1 and the game device 2 do not have to be independent from each other. (CPU), main memory (RAM), read-only memory (ROM), input / output device (I / O), external storage device such as a hard disk device, etc. are used in common, and the conversation control device 1 and the game with the same hardware A configuration for realizing the device 2 may be used.

音声入力手段3は、ユーザの音声信号を電気信号、光信号など所定の信号に変換して会話制御装置1及びゲーム装置2に供給する機能を有し、たとえば音声入力用マイクである。音声入力手段3は、会話制御装置1がプログラム等によって実現する疑似人格(キャラクタ)に対する発話の入力とともに、ゲームに関する入力(例えば、ポンをする、リーチをかける、ロンをする)を受け付ける。   The voice input means 3 has a function of converting a user's voice signal into a predetermined signal such as an electric signal or an optical signal and supplying the signal to the conversation control device 1 and the game device 2, and is a voice input microphone, for example. The voice input means 3 accepts an input related to a game (for example, pong, reach, or long) as well as an utterance input to a pseudo personality (character) realized by the conversation control device 1 by a program or the like.

非音声入力手段4は、音声入力以外のユーザによる入力をゲーム装置2に提供する機能を有し、例えば、キーボード、ジョイスティック、コントローラ、ポインティングデバイスなどである。これにより、ユーザはゲームに必要な入力、たとえば牌をつもる、牌を捨てる、ポンをする、リーチをかける、ロンをするなどをゲーム装置2に伝えることができる。   The non-speech input unit 4 has a function of providing the game apparatus 2 with input by the user other than the voice input, and is a keyboard, a joystick, a controller, a pointing device, or the like, for example. Thereby, the user can inform the game apparatus 2 of input necessary for the game, for example, to make a bag, throw away a bag, pong, reach, or run.

画像出力手段5は、ゲーム装置2がゲームの進行に従って生成するゲーム画面をユーザに表示する機能を有し、例えば、液晶ディスプレイ装置などである。   The image output means 5 has a function of displaying to the user a game screen generated by the game apparatus 2 as the game progresses, and is, for example, a liquid crystal display apparatus.

音声出力手段6は、会話制御装置1がキャラクタ(疑似人格)の回答文として出力した内容を音声信号として出力し、またゲームに関する音声/音響(効果音、BGMなど)を出力する機能を有し、たとえばサウンドボード、スピーカなどである。   The voice output means 6 has a function of outputting the content output as an answer sentence of the character (pseudo personality) by the conversation control device 1 as a voice signal and outputting voice / sound (sound effect, BGM, etc.) relating to the game. For example, a sound board or a speaker.

[ゲーム装置]
次に、図2を参照しながらゲーム装置2の構成例について説明する。
ゲーム装置2は、前述のように、演算処理装置(CPU)、主メモリ(RAM)、読出し専用メモリ(ROM)、入出力装置(I/O)、ハードディスク装置等の外部記憶装置を具備している情報処理装置であって、所定のプログラムを情報処理装置で実行することにより、ゲーム装置2およびゲーム装置2を構成する以下の構成要素が実現される。
図2は、ゲーム装置2の構成例を示すブロック図である。ゲーム装置2は、文字列/命令変換部201と、ゲーム進行制御部202と、画像処理部203と、音声処理部204とを有している。
[Game device]
Next, a configuration example of the game apparatus 2 will be described with reference to FIG.
As described above, the game apparatus 2 includes an external storage device such as an arithmetic processing unit (CPU), a main memory (RAM), a read-only memory (ROM), an input / output device (I / O), and a hard disk device. By executing a predetermined program on the information processing apparatus, the game apparatus 2 and the following components constituting the game apparatus 2 are realized.
FIG. 2 is a block diagram illustrating a configuration example of the game apparatus 2. The game apparatus 2 includes a character string / command conversion unit 201, a game progress control unit 202, an image processing unit 203, and a sound processing unit 204.

文字列/命令変換部201は、会話制御装置1から送られる、ユーザの発話を文字列情報を所定のコマンドに変換する機能を有し、たとえばユーザが「ポン!」と発話した場合、文字列/命令変換部201は、会話制御装置1から送られる文字列情報「ポン」を「ポン」の実行コマンドに変更してゲーム進行制御部202に渡す。なお、ユーザの発話の内、ゲームの進行に関係ないもの(「こんにちは」「名前は?」)については、文字列/命令変換部201は何らの出力をしない。   The character string / command conversion unit 201 has a function of converting the user's utterance sent from the conversation control device 1 into character commands, and for example, when the user utters “Pon!” The command conversion unit 201 changes the character string information “Pong” sent from the conversation control device 1 to an execution command of “Pong” and passes it to the game progress control unit 202. It should be noted that, out of the user's speech, those not related to the progress of the game ( "Hello", "name?") For the string / instruction conversion unit 201 is not the any of the output.

ゲーム進行制御部202は、ユーザの入力に応じてゲームを進行させ、かつ進行に従って、画面表示のためのデータ、音声出力のためのデータを指定する機能を有する。
図3は、ゲーム進行制御部202の構成例を示すブロック図である。
図に示すように、ゲーム進行制御部202は、キャラクタ行動決定部202Aと、ゲーム進行管理部202Bと、キャラクタ制御部202Cとを有している。
The game progress control unit 202 has a function of causing the game to proceed in accordance with user input and designating data for screen display and data for audio output according to the progress.
FIG. 3 is a block diagram illustrating a configuration example of the game progress control unit 202.
As shown in the figure, the game progress control unit 202 includes a character action determination unit 202A, a game progress management unit 202B, and a character control unit 202C.

キャラクタ行動決定部202Bは、会話制御装置1からの思考ルーチン指定命令を受け取り、この思考ルーチン指定命令に応じて、ゲームシステムGSが演じるキャラクタが取る、ゲームを進行させるための行動(例えば、麻雀ゲームにおける、手牌の中から捨牌を選択して捨てる、プレーヤの捨て牌に対してポンする、チーする、カンする、ロンする、自模を宣言する、リーチを宣言する、などの行動)を決定する機能を有する。   The character action determination unit 202B receives a thought routine designation command from the conversation control device 1, and in response to the thought routine designation command, an action (for example, a mahjong game) taken by a character played by the game system GS , Choose to throw away the trash from the hand, decide to act on the player's trash, cheer, cheer, cry, declare self, declare reach, etc.) It has the function to do.

キャラクタ行動決定部202Aは、複数の思考ルーチン202A〜202Aを有している。思考ルーチン202A〜202Aはそれぞれ異なるルーチンであって、異なる戦略/戦術に基づいて、ゲームを進行させるための行動を決定する。たとえば思考ルーチン202Aは、手作りのスピードを重視し、得点の多寡は重視しない戦略/戦術に基づく思考ルーチンであり、思考ルーチン202Aは、点数の高い役作りを重視し、聴牌のスピードは重視しない戦略/戦術に基づく思考ルーチンであり、…、思考ルーチン202Aは、守り重視で、聴牌を捨てても振り込みをしないという戦略/戦術に基づく思考ルーチンである。 The character action determining unit 202A has a plurality of thought routines 202A 1 to 202A N. Thought routines 202A 1 to 202A N are different routines, and determine an action for advancing the game based on different strategies / tactics. For example, the thinking routine 202A 1 is a thinking routine based on a strategy / tactics that emphasizes handmade speed and does not focus on scoring, and the thinking routine 202A 2 focuses on making a high-scoring role and focusing on listening speed. Thinking routine based on strategy / tactics not to be considered ... The thinking routine 202A N is a thinking routine based on strategy / tactics that emphasizes protection and does not transfer money even if the hearing is abandoned.

ゲームを進行させるための行動は、これら複数の思考ルーチン202A〜202Aのいずれか一によって決定される。なお、どの思考ルーチンを選択するかは、ユーザ(プレーヤ)の発話内容によって会話制御装置1が発する思考ルーチン指定命令によって定まるようになっている。 The action for progressing the game is determined by any one of the plurality of thought routines 202A 1 to 202A N. Note that which thinking routine is selected is determined by a thinking routine designation command issued by the conversation control device 1 according to the utterance content of the user (player).

また、キャラクタ行動決定部202Aは、思考ルーチン指定命令によらずとも、ゲームに関する状況(持ち点、ゲーム終了までの残り時間)に基づいてどの思考ルーチンを用いるかを決定することができる。   Moreover, the character action determination unit 202A can determine which thinking routine to use based on the situation (the score, the remaining time until the game ends) regarding the game without using the thinking routine designation command.

ゲーム進行管理部202Bは、ゲームの進行を管理する機能を有する。例えば、麻雀ゲームを例とすれば、ゲーム進行管理部202Bは、ヤマに積まれる牌の配列、配牌の決定、ユーザ、キャラクタの手牌の把握、上がりの判定、得点の計算などゲームの開始からゲームの終了までのすべての管理を行い、管理しているゲームの状態に応じてどのような画像を表示させるか、どのような音声を出力させるかを決定し、画像処理部203、音声処理部204に決定した画像、音声の出力を命令する。   The game progress management unit 202B has a function of managing the progress of the game. For example, taking a mahjong game as an example, the game progress management unit 202B starts the game, such as the arrangement of the kites to be stacked on the yamaha, the determination of the layout, the grasp of the user and the character's manual, the judgment of the rise, and the calculation of the score. All of the management from the end of the game to the end of the game, decide what kind of image to display and what kind of sound to output according to the state of the game being managed, image processing unit 203, sound processing The unit 204 is instructed to output the determined image and sound.

キャラクタ制御部202Cは、キャラクタの感情を示す感情状態情報を参照して、どのようなキャラクタの画像を表示するかを決定し、ゲーム進行管理部202Bに通知する。例えば、感情状態情報が「喜び」を示しているときには、キャラクタ制御部202Cは笑顔のキャラクタ画像を表示するよう、ゲーム進行管理部202Bに通知する。   The character control unit 202C refers to emotion state information indicating the character's emotion, determines what character image to display, and notifies the game progress management unit 202B. For example, when the emotion state information indicates “joy”, the character control unit 202C notifies the game progress management unit 202B to display a smiling character image.

図2に戻り、ゲーム装置2の構成例について説明を続ける。
画像処理部203は、ゲーム進行制御部202から指定された画面表示のためのデータを予めゲームに必要な画像データを記憶している記憶部(図略)から読み出し、これを画像出力手段5に提供する。
音声処理部204は、ゲーム進行制御部202から指定された画面表示のためのデータを予めゲームに必要な音声データ・音響データを記憶している記憶部(図略)から読み出し、これを音声出力手段6に提供する。
Returning to FIG. 2, the description of the configuration example of the game apparatus 2 is continued.
The image processing unit 203 reads the screen display data designated by the game progress control unit 202 from a storage unit (not shown) that stores image data necessary for the game in advance, and stores the data in the image output unit 5. provide.
The voice processing unit 204 reads out data for screen display designated by the game progress control unit 202 from a storage unit (not shown) that stores voice data / acoustic data necessary for the game in advance, and outputs this as voice output. Provided to means 6.

[会話制御装置の構成例]
次に、ゲームシステムGSの構成要素である会話制御装置1の構成例について説明する。
[全体構成]
図4は、本実施の形態に係る会話制御装置1の概略構成を示す機能ブロック図である。会話制御装置1は、前述のように、演算処理装置(CPU)、主メモリ(RAM)、読出し専用メモリ(ROM)、入出力装置(I/O)、ハードディスク装置等の外部記憶装置を具備している情報処理装置であって、所定のプログラムを情報処理装置で実行することにより、会話制御装置1および会話制御装置1を構成する以下の構成要素が実現される。
[Configuration example of conversation control device]
Next, a configuration example of the conversation control device 1 that is a component of the game system GS will be described.
[overall structure]
FIG. 4 is a functional block diagram showing a schematic configuration of the conversation control apparatus 1 according to the present embodiment. As described above, the conversation control device 1 includes an external storage device such as an arithmetic processing unit (CPU), a main memory (RAM), a read-only memory (ROM), an input / output device (I / O), and a hard disk device. The following components constituting the conversation control device 1 and the conversation control device 1 are realized by executing a predetermined program by the information processing device.

図3に示すように、会話制御装置1は、音声認識部200と、会話制御部300と、文解析部400と、会話データベース500と、音声認識辞書記憶部600と、感情状態情報管理部700と、ユーザ行動評価部800とを備えている。   As shown in FIG. 3, the conversation control device 1 includes a speech recognition unit 200, a conversation control unit 300, a sentence analysis unit 400, a conversation database 500, a speech recognition dictionary storage unit 600, and an emotional state information management unit 700. And a user behavior evaluation unit 800.

[音声認識部]
音声認識部200は、音声入力手段3から提供される、発話に応じた信号に基づいて、発話内容に対応する文字列を特定するものである。具体的には、音声入力手段3から音声信号が入力された音声認識部200は、この音声信号を、音声認識辞書記憶部600に格納されている辞書および会話データベース500と照合して、音声信号から推測される音声認識結果を出力する。なお、図4に示す構成例では、音声認識部200は、会話制御部300に会話データベース500の記憶内容の取得を要求し、会話制御部300が要求に応じて取得した会話データベース500の記憶内容を受け取るようになっているが、音声認識部200が直接会話データベース500の記憶内容を取得して音声信号との比較を行う構成であってもかまわない。
[Voice recognition part]
The voice recognition unit 200 specifies a character string corresponding to the utterance content based on the signal corresponding to the utterance provided from the voice input unit 3. Specifically, the voice recognition unit 200 to which the voice signal is input from the voice input unit 3 collates this voice signal with the dictionary and the conversation database 500 stored in the voice recognition dictionary storage unit 600 to obtain the voice signal. The speech recognition result estimated from the above is output. In the configuration example illustrated in FIG. 4, the speech recognition unit 200 requests the conversation control unit 300 to acquire the storage content of the conversation database 500, and the storage content of the conversation database 500 acquired by the conversation control unit 300 in response to the request. However, the voice recognition unit 200 may directly acquire the stored contents of the conversation database 500 and compare it with the voice signal.

[音声認識部の構成例]
図5に、音声認識部200の構成例を示す機能ブロック図を示す。音声認識部200は、特徴抽出部200Aと、バッファメモリ(BM)200Bと、単語照合部200Cと、バッファメモリ(BM)200Dと、候補決定部200Eと、単語仮説絞込部200Fを有している。単語照合部200C及び単語仮説絞込部200Fは音声認識辞書記憶部600に接続されており、候補決定部200Eは会話制御部300に接続されている。
[Configuration example of voice recognition unit]
FIG. 5 is a functional block diagram illustrating a configuration example of the voice recognition unit 200. The speech recognition unit 200 includes a feature extraction unit 200A, a buffer memory (BM) 200B, a word matching unit 200C, a buffer memory (BM) 200D, a candidate determination unit 200E, and a word hypothesis narrowing unit 200F. Yes. The word matching unit 200C and the word hypothesis narrowing unit 200F are connected to the speech recognition dictionary storage unit 600, and the candidate determination unit 200E is connected to the conversation control unit 300.

単語照合部200Cに接続された音声認識辞書記憶部600は、音素隠れマルコフモデルを(以下、隠れマルコフモデルをHMMという。)を記憶している。音素HMMは、各状態を含んで表され、各状態はそれぞれ以下の情報を有する。(a)状態番号、(b)受理可能なコンテキストクラス、(c)先行状態、及び後続状態のリスト、(d)出力確率密度分布のパラメータ、及び(e)自己遷移確率及び後続状態への遷移確率から構成されている。なお、本実施形態において用いる音素HMMは、各分布がどの話者に由来するかを特定する必要があるため、所定の話者混合HMMを変換して生成する。ここで、出力確率密度関数は34次元の対角共分散行列をもつ混合ガウス分布である。また、単語照合部200Cに接続された音声認識辞書記憶部600は単語辞書を記憶している。単語辞書は、音素HMMの各単語毎にシンボルで表した読みを示すシンボル列を格納する。   The speech recognition dictionary storage unit 600 connected to the word matching unit 200C stores a phoneme hidden Markov model (hereinafter, the hidden Markov model is referred to as an HMM). The phoneme HMM is represented including each state, and each state has the following information. (A) state number, (b) acceptable context class, (c) list of preceding and subsequent states, (d) parameters of output probability density distribution, and (e) self-transition probabilities and transitions to subsequent states. It consists of probabilities. Note that the phoneme HMM used in the present embodiment is generated by converting a predetermined speaker mixed HMM because it is necessary to specify which speaker each distribution is derived from. Here, the output probability density function is a mixed Gaussian distribution having a 34-dimensional diagonal covariance matrix. The speech recognition dictionary storage unit 600 connected to the word collation unit 200C stores a word dictionary. The word dictionary stores a symbol string indicating a symbolic reading for each word of the phoneme HMM.

話者の発声音声はマイクロホンなどに入力されて音声信号に変換された後、特徴抽出部200Aに入力される。特徴抽出部200Aは、入力された音声信号をA/D変換した後、特徴パラメータを抽出し、これを出力する。特徴パラメータを抽出し、これを出力する方法としては様々なものが考えられるが、例えば一例としては、LPC分析を実行し、対数パワー、16次ケプストラム係数、Δ対数パワー及び16次Δケプストラム係数を含む34次元の特徴パラメータを抽出する方法などが挙げられる。抽出された特徴パラメータの時系列はバッファメモリ(BM)200Bを介して単語照合部200Cに入力される。   The voice of the speaker is input to a microphone or the like and converted into an audio signal, and then input to the feature extraction unit 200A. The feature extraction unit 200A performs A / D conversion on the input audio signal, extracts feature parameters, and outputs them. There are various methods for extracting and outputting feature parameters. For example, as an example, LPC analysis is performed, and logarithmic power, 16th-order cepstrum coefficient, Δlogarithmic power, and 16th-order Δcepstrum coefficient are calculated. Examples include a method of extracting 34-dimensional feature parameters. The extracted time series of feature parameters is input to the word matching unit 200C via the buffer memory (BM) 200B.

単語照合部200Cは、ワン−パス・ビタビ復号化法を用いて、バッファメモリ200Bを介して入力される特徴パラメータのデータに基づいて、音声認識辞書記憶部600に記憶された音素HMMと単語辞書とを用いて単語仮説を検出し、尤度を計算して出力する。ここで、単語照合部200Cは、各時刻の各HMMの状態毎に、単語内の尤度と発声開始からの尤度を計算する。尤度は、単語の識別番号、単語の開始時刻、先行単語の違い毎に個別にもつ。また、計算処理量の削減のために、音素HMM及び単語辞書とに基づいて計算される総尤度のうちの低い尤度のグリッド仮説を削減するようにしてもよい。単語照合部200Cは、検出した単語仮説とその尤度の情報を発声開始時刻からの時間情報(具体的には、例えばフレーム番号)とともにバッファメモリ200Dを介して候補決定部200E及び単語仮説絞込部200Fに出力する。   The word matching unit 200C uses the one-pass Viterbi decoding method, and based on the feature parameter data input via the buffer memory 200B, the phoneme HMM and the word dictionary stored in the speech recognition dictionary storage unit 600 Is used to detect the word hypothesis, and the likelihood is calculated and output. Here, the word matching unit 200C calculates the likelihood in the word and the likelihood from the start of utterance for each state of each HMM at each time. The likelihood is individually provided for each word identification number, word start time, and difference between preceding words. Further, in order to reduce the amount of calculation processing, the low likelihood grid hypothesis among the total likelihoods calculated based on the phoneme HMM and the word dictionary may be reduced. The word matching unit 200C includes information on the detected word hypothesis and its likelihood along with time information from the utterance start time (specifically, for example, a frame number) and the candidate determination unit 200E and the word hypothesis narrowing down via the buffer memory 200D. Output to the unit 200F.

候補決定部200Eは、会話制御部300を参照して、検出した単語仮説と所定の談話空間内の話題特定情報とを比較し、検出した単語仮説の内、所定の談話空間内の話題特定情報と一致するものがあるか否かを判定し、一致するものがある場合は、その一致する単語仮説を認識結果として出力し、一方一致するものがない場合は、単語仮説絞込部200Fに単語仮説の絞込を行うよう要求する。   The candidate determining unit 200E refers to the conversation control unit 300, compares the detected word hypothesis with the topic specifying information in the predetermined discourse space, and among the detected word hypotheses, the topic specifying information in the predetermined discourse space If there is a match, the matching word hypothesis is output as a recognition result. If there is no match, the word hypothesis narrowing unit 200F Request to narrow down hypotheses.

候補決定部200Eの動作例を説明する。今、単語照合部200Cが複数の単語仮説「カンタク」「カタク」「カントク」およびその尤度(認識率)を出力し、所定の談話空間は「映画」に関するものでありその話題特定情報には「カントク(監督)」は含まれているが、「カンタク(干拓)」及び「カタク(仮託)」は含まれていないとする。また「カンタク」「カタク」「カントク」の尤度(認識率)は「カンタク」が最も高く「カントク」は最も低く、「カタク」は両者の中間であったとする。   An operation example of the candidate determination unit 200E will be described. Now, the word matching unit 200C outputs a plurality of word hypotheses “Kantaku”, “Katak”, “Kantoku” and the likelihood (recognition rate), and the predetermined discourse space relates to “movie”, and the topic specifying information includes “Kantoku (director)” is included, but “Kantaku (reclaimed)” and “Katak (temporary contract)” are not included. Further, the likelihood (recognition rate) of “Kantaku”, “Katak”, and “Kantoku” is highest in “Kantaku”, lowest in “Kantoku”, and “Katak” is in between.

上記の状況において、候補決定部200Eは、検出した単語仮説と所定の談話空間内の話題特定情報とを比較して、単語仮説「カントク」が、所定の談話空間内の話題特定情報と一致するものであると判定し、単語仮説「カントク」を認識結果として出力し、会話制御部に渡す。このように処理することにより、現在扱われている話題「映画」に関連した「カントク(監督)」が、より上位の尤度(認識率)を有する単語仮説「カンタク」「カタク」に優先されて選択され、その結果会話の文脈に即した音声認識結果を出力することが可能となる。   In the above situation, the candidate determining unit 200E compares the detected word hypothesis with the topic specifying information in the predetermined discourse space, and the word hypothesis “Kantoku” matches the topic specifying information in the predetermined discourse space. The word hypothesis “Kantoku” is output as a recognition result and passed to the conversation control unit. By processing in this way, “Kantoku (Director)” related to the topic “Movie” currently being handled is prioritized over the word hypotheses “Kantaku” and “Katak” with higher likelihood (recognition rate). As a result, it is possible to output a speech recognition result in accordance with the context of the conversation.

一方、一致するものがない場合は、候補決定部200Eからの単語仮説の絞込を行う要求に応じて単語仮説絞込部200Fが認識結果を出力するよう動作する。単語仮説絞込部200Fは、単語照合部200Cからバッファメモリ200Dを介して出力される複数個の単語仮説に基づいて、音声認識辞書記憶部600に記憶された統計的言語モデルを参照して、終了時刻が等しく開始時刻が異なる同一の単語の単語仮説に対して、当該単語の先頭音素環境毎に、発声開始時刻から当該単語の終了時刻に至る計算された総尤度のうちの最も高い尤度を有する1つの単語仮説で代表させるように単語仮説の絞り込みを行った後、絞り込み後のすべての単語仮説の単語列のうち、最大の総尤度を有する仮説の単語列を認識結果として出力する。本実施形態においては、好ましくは、処理すべき当該単語の先頭音素環境とは、当該単語より先行する単語仮説の最終音素と、当該単語の単語仮説の最初の2つの音素とを含む3つの音素並びをいう。   On the other hand, if there is no match, the word hypothesis narrowing unit 200F operates to output the recognition result in response to a request for narrowing down word hypotheses from the candidate determination unit 200E. The word hypothesis narrowing-down unit 200F refers to a statistical language model stored in the speech recognition dictionary storage unit 600 based on a plurality of word hypotheses output from the word matching unit 200C via the buffer memory 200D. For the same word hypothesis of the same word with the same end time but different start time, the highest likelihood of the calculated total likelihood from the utterance start time to the end time of the word for each head phoneme environment of the word After narrowing down word hypotheses so that they are represented by a single word hypothesis having a degree, a word string of a hypothesis having the maximum total likelihood is output as a recognition result among the word strings of all the word hypotheses after narrowing down To do. In the present embodiment, preferably, the first phoneme environment of the word to be processed is three phonemes including the final phoneme of the word hypothesis preceding the word and the first two phonemes of the word hypothesis of the word. Say a line.

単語仮説絞込部200Fによる単語絞込処理の例を図6を参照しながら説明する。図6は、単語仮説絞込部200Fの処理の一例を示すタイミングチャートである。
例えば(i−1)番目の単語Wi-1の次に、音素列a1、a2、…、anからなるi番目の単語Wiがくるときに、単語Wi-1の単語仮説として6つの仮説Wa、Wb、Wc、Wd、We、Wfが存在しているとする。ここで、前者3つの単語仮説Wa、Wb、Wcの最終音素は/x/であるとし、後者3つの単語仮説Wd、We、Wfの最終音素は/y/であるとする。終了時刻teにおいて単語仮説Wa、Wb、Wcを前提とする3つの仮説と、単語仮説Wd、We、Wfを前提とする1の仮説が残っているものとすると、先頭音素環境が等しい前者3つ仮説のうち、総尤度が最も高い仮説一つを残し、その他を削除する。
An example of word narrowing processing by the word hypothesis narrowing unit 200F will be described with reference to FIG. FIG. 6 is a timing chart showing an example of processing of the word hypothesis narrowing-down unit 200F.
For example, when the i-th word Wi consisting of the phoneme sequence a1, a2,..., An comes after the (i-1) -th word Wi-1, six hypotheses Wa as word hypotheses Wa, Assume that Wb, Wc, Wd, We, and Wf exist. Here, it is assumed that the final phoneme of the former three word hypotheses Wa, Wb, and Wc is / x /, and the final phoneme of the latter three word hypotheses Wd, We, and Wf is / y /. Assuming that three hypotheses premised on the word hypotheses Wa, Wb, and Wc and one hypothesis premised on the word hypotheses Wd, We, and Wf remain at the end time te, the former three with the same initial phoneme environment Of the hypotheses, one of the hypotheses with the highest total likelihood is left and the others are deleted.

なお、単語仮説Wd、We、Wfを前提とする仮説は先頭音素環境が他の3つの仮説と違うため、すなわち、先行する単語仮説の最終音素がxではなくyであるため、この単語仮説Wd、We、Wfを前提とする仮説は削除しない。すなわち、先行する単語仮説の最終音素毎に1つのみ仮説を残す。   Note that the hypothesis premised on the word hypothesis Wd, We, Wf is that the leading phoneme environment is different from the other three hypotheses, that is, the final phoneme of the preceding word hypothesis is y instead of x, so this word hypothesis Wd , We and Wf are not deleted. That is, only one hypothesis is left for each final phoneme of the preceding word hypothesis.

以上の実施形態においては、当該単語の先頭音素環境とは、当該単語より先行する単語仮説の最終音素と、当該単語の単語仮説の最初の2つの音素とを含む3つの音素並びとして定義されているが、本発明はこれに限らず、先行する単語仮説の最終音素と、最終音素と連続する先行する単語仮説の少なくとも1つの音素とを含む先行単語仮説の音素列と、当該単語の単語仮説の最初の音素を含む音素列とを含む音素並びとしてもよい。
以上の実施の形態において、特徴抽出部200Aと、単語照合部200Cと、候補決定部200Eと、単語仮説絞込部200Fとは、例えば、デジタル電子計算機などのコンピュータで構成され、バッファメモリ200B、200Dと、音声認識辞書記憶部600とは、例えばハードディスク、メモリなどの記憶装置で構成される。
In the above embodiment, the first phoneme environment of the word is defined as three phoneme sequences including the final phoneme of the word hypothesis preceding the word and the first two phonemes of the word hypothesis of the word. However, the present invention is not limited to this, the phoneme string of the preceding word hypothesis including the final phoneme of the preceding word hypothesis, and at least one phoneme of the preceding word hypothesis continuous with the last phoneme, and the word hypothesis of the word A phoneme sequence including a phoneme string including the first phoneme may be used.
In the above embodiment, the feature extraction unit 200A, the word collation unit 200C, the candidate determination unit 200E, and the word hypothesis narrowing unit 200F are configured by, for example, a computer such as a digital computer, and the buffer memory 200B, The 200D and the speech recognition dictionary storage unit 600 are configured by a storage device such as a hard disk or a memory.

また、以上の実施形態においては、単語照合部200C、単語仮説絞込部200Fとを用いて音声認識を行っているが、本発明はこれに限らず、例えば、音素HMMを参照する音素照合部と、例えばOne
Pass DPアルゴリズムを用いて統計的言語モデルを参照して単語の音声認識を行う音声認識部とで構成してもよい。
また、本実施の形態では、音声認識部200は会話制御装置1の一部分として説明するが、音声認識部200、音声認識辞書記憶部600、及び会話データベース500より構成される、独立した音声認識装置とすることも可能である。
In the above embodiment, speech recognition is performed using the word matching unit 200C and the word hypothesis narrowing unit 200F. However, the present invention is not limited to this, and for example, a phoneme matching unit that refers to a phoneme HMM. And for example One
You may comprise with the speech recognition part which performs speech recognition of a word with reference to a statistical language model using a Pass DP algorithm.
In the present embodiment, the voice recognition unit 200 is described as a part of the conversation control device 1, but an independent voice recognition device including the voice recognition unit 200, the voice recognition dictionary storage unit 600, and the conversation database 500. It is also possible.

[音声認識部の動作例]
つぎに図7を参照しながら音声認識部200の動作について説明する。図7は、音声認識部200の動作例を示すフロー図である。音声入力手段3より音声信号を受け取ると、音声認識部200は入力された音声の特徴分析を行い、特徴パラメータを生成する(ステップS701)。次に、この特徴パラメータと音声認識辞書記憶部600に記憶された音素HMM及び言語モデルとを比較して、所定個数の単語仮説及びその尤度を取得する(ステップS702)。次に、音声認識部200は、取得した所定個数の単語仮説と検出した単語仮説と所定の談話空間内の話題特定情報とを比較し、検出した単語仮説の内、所定の談話空間内の話題特定情報と一致するものがあるか否かを判定する(ステップS703、S704)。一致するものがある場合は、音声認識部200はその一致する単語仮説を認識結果として出力する(ステップS705)。一方、一致するものがない場合は、音声認識部200は取得した単語仮説の尤度に従って、最大尤度を有する単語仮説を認識結果として出力する(ステップS706)。
[Operation example of voice recognition unit]
Next, the operation of the speech recognition unit 200 will be described with reference to FIG. FIG. 7 is a flowchart showing an operation example of the speech recognition unit 200. When receiving a voice signal from the voice input unit 3, the voice recognition unit 200 performs a feature analysis of the input voice and generates a feature parameter (step S701). Next, this feature parameter is compared with the phoneme HMM and language model stored in the speech recognition dictionary storage unit 600 to obtain a predetermined number of word hypotheses and their likelihoods (step S702). Next, the speech recognition unit 200 compares the acquired predetermined number of word hypotheses with the detected word hypothesis and the topic identification information in the predetermined discourse space, and among the detected word hypotheses, the topic in the predetermined discourse space It is determined whether there is a match with the specific information (steps S703 and S704). If there is a match, the speech recognition unit 200 outputs the matching word hypothesis as a recognition result (step S705). On the other hand, when there is no match, the speech recognition unit 200 outputs the word hypothesis having the maximum likelihood as the recognition result according to the acquired likelihood of the word hypothesis (step S706).

[音声認識辞書記憶部]
再び、図4に戻って、会話制御装置1の構成例の説明を続ける。
音声認識辞書記憶部600は、標準的な音声信号に対応する文字列を格納するものである。この照合をした音声認識部200は、その音声信号に対応する単語仮説に対応する文字列を特定し、その特定した文字列を文字列信号として会話制御部300に出力する。
[Voice recognition dictionary storage]
Returning to FIG. 4 again, the description of the configuration example of the conversation control device 1 is continued.
The speech recognition dictionary storage unit 600 stores a character string corresponding to a standard speech signal. The voice recognition unit 200 that has performed the collation identifies a character string corresponding to the word hypothesis corresponding to the voice signal, and outputs the identified character string to the conversation control unit 300 as a character string signal.

[文解析部]
次に、図4及び図8を参照しながら文解析部400の構成例について説明する。図8は、会話制御装置1の部分拡大ブロック図であって、会話制御部300及び文解析部400の具体的構成例を示すブロック図である。なお、図8においては、会話制御部300、文解析部400、および会話データベース500を図示しており、その他の構成要素の表示は省略されている。
[Sentence Analysis Department]
Next, a configuration example of the sentence analysis unit 400 will be described with reference to FIGS. 4 and 8. FIG. 8 is a partial enlarged block diagram of the conversation control device 1, and is a block diagram illustrating a specific configuration example of the conversation control unit 300 and the sentence analysis unit 400. In FIG. 8, the conversation control unit 300, the sentence analysis unit 400, and the conversation database 500 are shown, and the display of other components is omitted.

前記文解析部400は、音声認識部200で特定された文字列を解析するものである。この文解析部400は、本実施の形態では、図8に示すように、文字列特定部410と、形態素抽出部420と、形態素データベース430と、入力種類判定部440と、発話種類データベース450とを有している。文字列特定部410は、音声入力手段3及び音声認識部200で特定された一連の文字列を一文節毎に区切るものである。この一文節とは、文法の意味を崩さない程度に文字列をできるだけ細かく区切った一区切り文を意味する。具体的に、文字列特定部410は、一連の文字列の中に、ある一定以上の時間間隔があるときは、その部分で文字列を区切る。文字列特定部410は、その区切った各文字列を形態素抽出部420及び入力種類判定部440に出力する。尚、以下で説明する「文字列」は、一文節毎の文字列を意味するものとする。   The sentence analysis unit 400 analyzes the character string specified by the speech recognition unit 200. In the present embodiment, as shown in FIG. 8, the sentence analysis unit 400 includes a character string identification unit 410, a morpheme extraction unit 420, a morpheme database 430, an input type determination unit 440, and an utterance type database 450. have. The character string specifying unit 410 divides a series of character strings specified by the voice input unit 3 and the voice recognition unit 200 for each sentence. This one-sentence means a delimiter sentence in which character strings are divided as finely as possible without breaking the meaning of the grammar. Specifically, when there is a certain time interval or more in a series of character strings, the character string specifying unit 410 divides the character string at that portion. The character string specifying unit 410 outputs the divided character strings to the morpheme extracting unit 420 and the input type determining unit 440. It should be noted that “character string” described below means a character string for each phrase.

[形態素抽出部]
形態素抽出部420は、文字列特定部410で区切られた一文節の文字列に基づいて、その一文節の文字列の中から、文字列の最小単位を構成する各形態素を第一形態素情報として抽出するものである。ここで、形態素とは、本実施の形態では、文字列に現された語構成の最小単位を意味するものとする。この語構成の最小単位としては、例えば、名詞、形容詞、動詞などの品詞が挙げられる。
[Morpheme extraction unit]
The morpheme extraction unit 420 sets, as first morpheme information, each morpheme constituting the minimum unit of the character string from the character string of the one phrase according to the character string of the one sentence divided by the character string specifying unit 410. To extract. Here, in this embodiment, the morpheme means the minimum unit of the word structure represented in the character string. Examples of the minimum unit of the word structure include parts of speech such as nouns, adjectives and verbs.

図9は、文字列とこの文字列から抽出される形態素との関係を示す図である。各形態素は、図9に示すように、本実施の形態ではm1、m2、m3…、と表現することができる。図9に示すように、文字列特定部410から文字列が入力された形態素抽出部420は、入力された文字列と、形態素データベース430に予め格納されている形態素群(この形態素群は、それぞれの品詞分類に属する各形態素についてその形態素の見出し語・読み・品詞・活用形などを記述した形態素辞書として用意されている)とを照合する。その照合をした形態素抽出部420は、その文字列の中から、予め記憶された形態素群のいずれかと一致する各形態素(m1、m2、…)を抽出する。この抽出された各形態素を除いた要素(n1、n2、n3…)は、例えば助動詞等が挙げられる。   FIG. 9 is a diagram illustrating a relationship between a character string and a morpheme extracted from the character string. As shown in FIG. 9, each morpheme can be expressed as m1, m2, m3... In the present embodiment. As shown in FIG. 9, the morpheme extraction unit 420 to which the character string is input from the character string specifying unit 410 includes the input character string and a morpheme group stored in advance in the morpheme database 430 ( Morphemes that belong to the part-of-speech classification are prepared as a morpheme dictionary that describes the morpheme entry word, reading, part-of-speech, utilization form, etc.). The collated morpheme extraction unit 420 extracts each morpheme (m1, m2,...) That matches one of the previously stored morpheme groups from the character string. Examples of the elements (n1, n2, n3...) Excluding each extracted morpheme include auxiliary verbs.

この形態素抽出部420は、抽出した各形態素を第一形態素情報として話題特定情報検索蔀320に出力する。なお、第一形態素情報は構造化されている必要はない。ここで「構造化」とは、文字列の中に含まれる形態素を品詞等に基づいて分類し配列することをいい、たとえば発話文である文字列を、「主語+目的語+述語」などの様に、所定の順番で形態素を配列してなるデータに変換することを言う。もちろん、構造化した第一形態素情報を用いたとしても、それが本実施の形態の実現をさまたげることはない。   The morpheme extraction unit 420 outputs each extracted morpheme to the topic identification information search box 320 as first morpheme information. Note that the first morpheme information need not be structured. Here, “structured” means to classify and arrange morphemes contained in a character string based on the part of speech, for example, a character string that is an utterance sentence, such as “subject + object + predicate”. In the same way, it refers to conversion into data obtained by arranging morphemes in a predetermined order. Of course, even if structured first morpheme information is used, it does not hinder the realization of the present embodiment.

[入力種類判定部]
入力種類判定部440は、文字列特定部410で特定された文字列に基づいて、発話内容の種類(発話種類)を判定し、判定結果に従って発話種類を示す情報を出力する機能を有する。この発話種類は、発話内容の種類を特定する情報であって、本実施の形態では、例えば図10に示す「発話文のタイプ」を意味する。図10は、「発話文のタイプ」と、その発話文のタイプを表す二文字のアルファベット、及びその発話文のタイプに該当する発話文の例を示す図である。
[Input type determination unit]
The input type determination unit 440 has a function of determining the type of utterance content (speech type) based on the character string specified by the character string specifying unit 410 and outputting information indicating the utterance type according to the determination result. This utterance type is information for specifying the type of utterance content, and in the present embodiment, it means, for example, the “spoken sentence type” shown in FIG. FIG. 10 is a diagram illustrating an example of “spoken sentence type”, a two-letter alphabet representing the type of the spoken sentence, and a speech sentence corresponding to the type of the spoken sentence.

ここで、「発話文のタイプ」は、本実施の形態では、図10に示すように、陳述文(D ; Declaration)、時間文(T ; Time)、場所文(L ; Location)、反発文(N ; Negation)などから構成され、この発話文のタイプに従って回答文を決定するために用いられる。この各タイプから構成される文は、肯定文又は質問文で構成される。「陳述文」とは、利用者の意見又は考えを示す文を意味するものである。この陳述文は本実施の形態では、図10に示すように、例えば「私は佐藤が好きです」のような文である。「場所文」とは、場所的な概念を伴う文を意味するものである。「時間文」とは、時間的な概念を伴う文を意味するものである。「反発文」とは、陳述文を否定するときの文を意味する。「発話文のタイプ」についての例文は図9に示す通りである。   In this embodiment, as shown in FIG. 10, “spoken sentence type” is a statement sentence (D; Declaration), a time sentence (T; Time), a location sentence (L; Location), and a repulsive sentence. (N; Negation) and the like, and is used to determine the answer sentence according to the type of the utterance sentence. The sentence composed of each type is composed of an affirmative sentence or a question sentence. The “declaration sentence” means a sentence indicating a user's opinion or idea. In the present embodiment, this statement is a sentence such as “I like Sato” as shown in FIG. “Place sentence” means a sentence with a place concept. “Time sentence” means a sentence with a temporal concept. “Rebound sentence” means a sentence when a statement is denied. An example sentence for “spoken sentence type” is as shown in FIG.

「発話文のタイプ」を判定する場合、入力種類判定部440は、本実施の形態では、陳述文であることを判定するための定義表現辞書、反発文であることを判定するための反発表現辞書等の表現と発話文のタイプの対応関係を記述した辞書群を用いる。図11は、使用する辞書と、その辞書に該当する表現が含まれている場合になされる判定の種類を示す。具体例を挙げると、文字列特定部410から文字列が入力された入力種類判定部440は、入力された文字列に基づいて、その文字列と発話種類データベース450に格納されている各辞書とを照合する。その照合をした入力種類判定部440は、その文字列の中から、各辞書に関係する要素(D、Nなどの判定の種類を示すデータ)を抽出する。   In the case of determining “spoken sentence type”, in this embodiment, the input type determining unit 440 is a definition expression dictionary for determining that it is a statement sentence, and a repulsive expression for determining that it is a repulsive sentence. A dictionary group describing the correspondence between the expression of the dictionary and the type of utterance is used. FIG. 11 shows a dictionary to be used and types of determinations to be made when the corresponding expression is included in the dictionary. As a specific example, the input type determination unit 440 to which a character string is input from the character string specifying unit 410, based on the input character string, each character string and each dictionary stored in the utterance type database 450, Is matched. The input type determination unit 440 that has performed the collation extracts elements (data indicating the type of determination such as D and N) related to each dictionary from the character string.

この入力種類判定部440は、抽出した要素に基づいて、「発話文のタイプ」を判定する。例えば、入力種類判定部440は、ある事象について陳述している要素が文字列の中に含まれる場合には、その要素が含まれている文字列を陳述文として判定する。入力種類判定部440は、判定した「発話文のタイプ」を回答取得部350に出力する。   The input type determination unit 440 determines “spoken sentence type” based on the extracted elements. For example, when an element that describes a certain event is included in a character string, the input type determination unit 440 determines the character string that includes the element as a statement. The input type determination unit 440 outputs the determined “spoken sentence type” to the answer acquisition unit 350.

[会話データベース]
次に、会話データベース500が記憶するデータのデータ構成例について図12を参照しながら説明する。図12は、会話データベース500が記憶するデータの構成例を示す概念図である。
[Conversation database]
Next, a data configuration example of data stored in the conversation database 500 will be described with reference to FIG. FIG. 12 is a conceptual diagram illustrating a configuration example of data stored in the conversation database 500.

[話題特定情報]
前記会話データベース500は、図12に示すように、話題を特定するための話題特定情報(810)A〜Fを予め複数記憶する。又、話題特定情報(810)A〜Fのそれぞれは、他の話題特定情報と関連づけられていてもよく、例えば、図12に示す例では、話題特定情報(810)Cが特定されると、この話題特定情報(810)Cに関連づけられている他の話題特定情報(810)A、B、Dが定まるように記憶されている。
[Topic specific information]
As shown in FIG. 12, the conversation database 500 stores in advance a plurality of topic specifying information (810) A to F for specifying a topic. Each of the topic identification information (810) A to F may be associated with other topic identification information. For example, in the example shown in FIG. 12, when the topic identification information (810) C is identified, Other topic specifying information (810) A, B, D associated with this topic specifying information (810) C is stored so as to be determined.

具体的には、話題特定情報810は、本実施の形態では、利用者から入力されると予想される入力内容又は利用者への回答文に関連性のある「キーワード」を意味する。   Specifically, in the present embodiment, the topic identification information 810 means “keywords” that are relevant to the input content expected to be input by the user or the answer sentence to the user.

話題特定情報810には、一又は複数の話題タイトル820が対応付けられて記憶されている。話題タイトル820は、一つの文字、複数の文字列又はこれらの組み合わせからなる形態素により構成されている。各話題タイトル820には、利用者への回答文830が対応付けられて記憶されている。また、回答文830の種類を示す複数の回答種類は、回答文に対応付けられている。   One or more topic titles 820 are stored in the topic specifying information 810 in association with each other. The topic title 820 is composed of morphemes composed of one character, a plurality of character strings, or a combination thereof. Each topic title 820 stores an answer sentence 830 to the user in association with it. In addition, a plurality of answer types indicating the type of the answer sentence 830 are associated with the answer sentence.

回答文830には、感情条件パラメータ840が対応付けられている。感情条件パラメータ840は、感情状態情報の条件を示す情報である。例えば、感情状態情報が「怒り」の感情フラグの累積値「10」を示しているとき、ある回答文Aの感情条件パラメータ840が「怒り」の感情フラグの累積値5以下を記述しており、一方別の回答文Bの感情条件パラメータ840が「怒り」の感情フラグの累積値8以上を記述している場合は、回答文Aは選択されず、回答文Bが会話制御装置1がユーザへの回答として選択されることとなる。   An emotional condition parameter 840 is associated with the answer sentence 830. The emotion condition parameter 840 is information indicating a condition of emotion state information. For example, when the emotion state information indicates the cumulative value “10” of the emotion flag “anger”, the emotion condition parameter 840 of a certain response sentence A describes the cumulative value 5 or less of the emotion flag “anger”. When the emotion condition parameter 840 of the other answer sentence B describes the cumulative value 8 or more of the emotion flag of “anger”, the answer sentence A is not selected and the answer sentence B is the user of the conversation control device 1. Will be selected as an answer to.

更に、回答文830には会話制御装置1が提供する疑似人格の感情を示すデータである感情フラグ850が対応付けされて記憶されている。感情フラグ850は感情を区別できる情報であればどのようなデータであってもよく、例えば、「平常」の感情を示す感情フラグとして文字データ「A」を割り当て、「激怒」の感情を示す感情フラグ850として文字データ「B」を割り当て、「怒り」の感情を示す感情フラグとして文字データ「C」を割り当て、「喜び」の感情を示す感情フラグとして文字データ「D」を割り当てるなどのようにする。本実施の形態にかかる会話制御装置1は、この感情フラグ850を参照して、会話制御装置1が提供する疑似人格の感情を制御することとなる。   Furthermore, an emotion flag 850 that is data indicating the emotion of the pseudo personality provided by the conversation control device 1 is stored in association with the answer sentence 830. The emotion flag 850 may be any data as long as it can distinguish emotions. For example, the character data “A” is assigned as an emotion flag indicating “normal” emotion and the emotion indicating “furious” emotion is indicated. The character data “B” is assigned as the flag 850, the character data “C” is assigned as the emotion flag indicating the feeling of “anger”, the character data “D” is assigned as the emotion flag indicating the feeling of “joy”, and so on. To do. The conversation control device 1 according to the present embodiment refers to the emotion flag 850 and controls the emotion of the pseudo personality provided by the conversation control device 1.

さらに、回答文830には、ゲーム装置1がキャラクタの行動を決定するための思考ルーチンを指定するための対応行動フラグ860が対応付けされて記憶されている。対応行動フラグ860は、思考ルーチンを指定することができるデータであればどのようなものでもよく、例えば、思考ルーチンの番号、IDなどである。   Further, in the answer sentence 830, a corresponding action flag 860 for designating a thought routine for the game apparatus 1 to determine the action of the character is stored in association with it. The corresponding action flag 860 may be any data as long as it can specify a thought routine, and is, for example, a thought routine number or ID.

次に、ある話題特定情報と他の話題特定情報との関連づけについて説明する。図13は、ある話題特定情報810Aと他の話題特定情報810B、810C〜810C、810D〜810D…との関連付けを示す図である。なお、以下の説明において「関連づけされて記憶される」とは、ある情報Xを読み取るとその情報Xに関連づけられている情報Yを読み取りできることをいい、例えば、情報Xのデータの中に情報Yを読み出すための情報(例えば、情報Yの格納先アドレスを示すポインタ、情報Yの格納先物理メモリアドレス、論理アドレスなど)が格納されている状態を、「情報Yが情報Xに『関連づけされて記憶され』ている」というものとする。 Next, the association between certain topic specifying information and other topic specifying information will be described. FIG. 13 is a diagram showing the association between certain topic specifying information 810A and other topic specifying information 810B, 810C 1 to 810C 4 , 810D 1 to 810D 3 . In the following description, “stored in association” means that when information X is read, information Y associated with the information X can be read. For example, information Y in the data of the information X Is stored as information (for example, a pointer indicating the storage destination address of information Y, a physical memory address of the storage destination of information Y, and a logical address). "Remembered".

図13に示す例では、話題特定情報は他の話題特定情報との間で上位概念、下位概念、同義語、対義語(本図の例では省略)が関連づけされて記憶させることができる。本図に示す例では、話題特定情報810A(=「映画」)に対する上位概念の話題特定情報として話題特定情報810B(=「娯楽」)が話題特定情報810Aに関連づけされて記憶されており、たとえば話題特定情報(「映画」)に対して上の階層に記憶される。   In the example shown in FIG. 13, the topic identification information can be stored in association with other topic identification information in association with a higher concept, a lower concept, a synonym, and a synonym (omitted in the example of this figure). In the example shown in this figure, topic specifying information 810B (= “entertainment”) is stored in association with the topic specifying information 810A as topic specifying information of the higher concept for the topic specifying information 810A (= “movie”). The topic specific information (“movie”) is stored in the upper hierarchy.

また、話題特定情報810A(=「映画」)に対する下位概念の話題特定情報810C(=「監督」)、話題特定情報810C(=「主演」)、話題特定情報810C(=「配給会社」)、話題特定情報810C(=「上映時間」)、および話題特定情報810D(=「七人の侍」)、話題特定情報810D(=「乱」)、話題特定情報810D(=「用心棒」)、…、が話題特定情報810Aに関連づけされて記憶されている。 Further, topic specific information 810C 1 (= “director”), topic specific information 810C 2 (= “starring”), topic specific information 810C 3 (= “distribution company” for the topic specific information 810A (= “movie”) )), Topic identification information 810C 4 (= “screening time”), topic identification information 810D 1 (= “Seven Samurai”), topic identification information 810D 2 (= “Ran”), topic identification information 810D 3 ( = "Bouncer"), ... are stored in association with the topic identification information 810A.

又、話題特定情報810Aには、同義語900が関連づけられている。この例では、話題特定情報810Aであるキーワード「映画」の同義語として「作品」、「内容」、「シネマ」が記憶されている様子を示している。このような同意語を定めることにより、発話にはキーワード「映画」は含まれていないが「作品」、「内容」、「シネマ」が発話文等に含まれている場合に、話題特定情報810Aが発話文等に含まれているものとして取り扱うことを可能とする。   In addition, the synonym 900 is associated with the topic identification information 810A. In this example, “works”, “contents”, and “cinema” are stored as synonyms of the keyword “movie” that is the topic identification information 810A. By defining such synonyms, the topic specifying information 810A is obtained when the utterance does not include the keyword “movie” but includes “works”, “contents”, and “cinema” in the utterance sentence or the like. Can be handled as being included in an utterance sentence.

本実施の形態にかかる会話制御装置1は、会話データベース500の記憶内容を参照することにより、ある話題特定情報810を特定するとその話題特定情報810に関連づけられて記憶されている他の話題特定情報810及びその話題特定情報801に対応漬けされた話題タイトル820、回答文830、回答文830に対応付けされた感情権パラメータ840、感情フラグ850,対応行動フラグ860などを高速で検索・抽出することが可能となる。   When conversation control apparatus 1 according to the present embodiment identifies certain topic identification information 810 by referring to the stored content of conversation database 500, other topic identification information stored in association with topic identification information 810 is stored. 810 and the topic title 820, the answer sentence 830, the emotion right parameter 840 associated with the answer sentence 830, the emotion flag 850, the corresponding action flag 860, etc. Is possible.

[話題タイトル]
次に、話題タイトル820(「第二形態素情報」ともいう)のデータ構成例について、図14を参照しながら説明する。図14は、話題タイトル820のデータ構成例を示す図である。
[Topic title]
Next, a data configuration example of the topic title 820 (also referred to as “second morpheme information”) will be described with reference to FIG. FIG. 14 is a diagram illustrating a data configuration example of the topic title 820.

話題特定情報810D、810D、810D、…はそれぞれ複数の異なる話題タイトル820、820、…、話題タイトル820、820、…、話題タイトル820、820、…を有している。 The topic identification information 810D 1 , 810D 2 , 810D 3 ,... Has a plurality of different topic titles 820 1 , 820 2 ,..., Topic titles 820 3 , 820 4 ,..., Topic titles 820 5 , 820 6 ,. ing.

本実施の形態では、図14に示すように、それぞれの話題タイトル820は、第一特定情報1301と、第二特定情報及1302と、第三特定情報1303によって構成される情報である。ここで、第一特定情報1301は、本実施の形態では、話題を構成する主要な形態素を意味するものである。第一特定情報の例としては、例えば文を構成する主語が挙げられる。また、第二特定情報1302は、本実施の形態では、第一特定情報1301と密接な関連性を有する形態素を意味するものである。この第二特定情報1302は、例えば目的語が挙げられる。更に、第三特定情報1303は、本実施の形態では、ある対象についての動きを示す形態素、又は名詞等を修飾する形態素を意味するものである。この第三特定情報1303は、例えば動詞、副詞又は形容詞が挙げられる。なお、第一特定情報1301、第二特定情報1302、第三特定情報1303それぞれの意味は上述の内容に限定される必要はなく、別の意味を第一特定情報1301、第二特定情報1302、第三特定情報1303に与えても、これらから文の内容を把握可能な限り、本実施の形態は成立する。   In the present embodiment, as shown in FIG. 14, each topic title 820 is information configured by first specific information 1301, second specific information 1302, and third specific information 1303. Here, in the present embodiment, the first specific information 1301 means main morphemes constituting a topic. As an example of the first specific information, for example, a subject constituting a sentence can be cited. Further, the second specific information 1302 means a morpheme having a close relationship with the first specific information 1301 in the present embodiment. The second specific information 1302 is, for example, an object. Further, in the present embodiment, the third specifying information 1303 means a morpheme that indicates movement of a certain object or a morpheme that modifies a noun or the like. Examples of the third specific information 1303 include verbs, adverbs, and adjectives. The meanings of the first specific information 1301, the second specific information 1302, and the third specific information 1303 do not have to be limited to the above-described contents, and other meanings are the first specific information 1301, the second specific information 1302, Even if the third specific information 1303 is given, the present embodiment is established as long as the contents of the sentence can be grasped from these.

例えば、主語が「七人の侍」、形容詞が「面白い」である場合には、図14に示すように、話題タイトル(第二形態素情報)820は、第一特定情報1301である形態素「七人の侍」と、第三特定情報1303である形態素「面白い」とから構成されることになる。なお、この話題タイトル820には第二特定情報である形態素は含まれておらず、該当する形態素がないことを示すための記号「*」が第二特定情報1302として格納されている。 For example, the subject is "Seven Samurai" and the adjective is "interesting", as shown in FIG. 14, the topic title (second morpheme information) 820 2 is the first identification information 1301 morpheme " It consists of “Seven Samurai” and the morpheme “Funny” which is the third specific information 1303. Incidentally, this is the topic title 820 2 not included morpheme is the second specifying information, the symbol for indicating that there is no corresponding morpheme "*" is stored as the second specification information 1302.

なお、この話題タイトル820(七人の侍;*;面白い)は、「七人の侍は面白い」の意味を有する。なお、本明細書中、この話題タイトル820を構成する括弧内は、以下では左から第一特定情報1301、第二特定情報1302、第三特定情報1303の順番となっている。また、話題タイトル820のうち、第一から第三特定情報に含まれる形態素がない場合には、その部分については、「*」を示すことにする。 The topic title 820 2 (Seven Samurai; *; Interesting) has the meaning of “Seven Samurai is interesting”. In the present specification, the parentheses constituting the topic title 820 are in the order of first specific information 1301, second specific information 1302, and third specific information 1303 from the left in the following. In addition, in the topic title 820, when there is no morpheme included in the first to third specific information, “*” is indicated for the portion.

なお、上記話題タイトル820を構成する特定情報は、上記のような第一から第三特定情報のように三つに限定されるものではなく、更に他の特定情報(第四特定情報、およびそれ以上)を有するようにしてもよい。   Note that the specific information constituting the topic title 820 is not limited to three like the first to third specific information as described above, and is further limited to other specific information (fourth specific information, and it). You may make it have the above.

[回答文]
次に、回答文830について説明する。回答文830は、図15に示すように、本実施の形態では、利用者から発話された発話文のタイプに対応した回答をするために、陳述(D ; Declaration)、時間(T ; Time)、場所(L ; Location)、否定(N ; Negation)などのタイプ(回答種類)に分類されている。また肯定文は「A」とし、質問文は「Q」とする。
例えば、話題タイトル(820)1−1が(佐藤;*;好き){これは、「佐藤が好きです」に含まれる形態素を抽出したもの}である場合には、その話題タイトル(820)1-1に対応する回答文(830)1−1は、(DA;陳述肯定文「私も佐藤が好きです」)、(TA;時間肯定文「私は打席に立ったときの佐藤が好きです」)などが挙げられる。後述する回答取得部350は、その話題タイトル820に対応付けられた一の回答文830を取得する。
[Answer]
Next, the answer sentence 830 will be described. As shown in FIG. 15, in the present embodiment, the reply sentence 830 includes a statement (D; Declaration) and a time (T; Time) in order to make a reply corresponding to the type of utterance sentence uttered by the user. , Location (L; Location), negation (N; Negation), and other types (answer types). The affirmative sentence is “A” and the question sentence is “Q”.
For example, when the topic title (820) 1-1 is (Sato; *; likes) {this is an extracted morpheme contained in “I like Sato”}, the topic title (820) 1 The answer sentence (830) 1-1 corresponding to -1 is (DA; statement affirmation sentence "I also like Sato"), (TA; time affirmation sentence "I like Sato when I was standing at bat" ]). An answer acquisition unit 350 described later acquires one answer sentence 830 associated with the topic title 820.

[会話制御部]
次に図8に戻り、会話制御部300の構成例を説明する。
会話制御部300は、会話制御装置1内の各構成要素(音声認識部200,文解析部400、会話データベース500,感情状態情報管理部700音声認識辞書記憶部600、感情状態情報管理部700,ユーザ行動評価部800)間のデータの受け渡しを制御するとともに、発話に応答する回答文の決定、出力、思考ルーチン指定命令の出力を行う機能を有する。
[Conversation control unit]
Next, returning to FIG. 8, a configuration example of the conversation control unit 300 will be described.
The conversation control unit 300 includes each component in the conversation control device 1 (speech recognition unit 200, sentence analysis unit 400, conversation database 500, emotion state information management unit 700, speech recognition dictionary storage unit 600, emotion state information management unit 700, User behavior evaluation unit 800) has a function of controlling data exchange between the user behavior evaluation unit 800), determining and outputting an answer sentence responding to an utterance, and outputting a thought routine designation command.

前記会話制御部300は、本実施の形態では、図8に示すように、管理部310と、話題特定情報検索部320と、省略文補完部330と、話題検索部340と、回答取得部350とを有している。前記管理部310は、会話制御部300の全体を制御するとともに、対応行動フラグ860をユーザ行動評価部800へ渡す機能を有している。。   In the present embodiment, the conversation control unit 300 includes, as shown in FIG. 8, a management unit 310, a topic identification information search unit 320, an abbreviated sentence complement unit 330, a topic search unit 340, and an answer acquisition unit 350. And have. The management unit 310 controls the entire conversation control unit 300 and has a function of passing the corresponding action flag 860 to the user action evaluation unit 800. .

また、管理部310は談話履歴を記憶し、且つ必要に応じて更新する機能を有する。管理部310は話題特定情報検索部320と、省略文補完部330と、話題検索部340と、回答取得部350からの要求に応じて、記憶している談話履歴の全部又は一部をこれら各部に渡す機能を有する。   The management unit 310 has a function of storing the discourse history and updating it as necessary. In response to requests from the topic identification information search unit 320, the abbreviated sentence complement unit 330, the topic search unit 340, and the answer acquisition unit 350, the management unit 310 converts all or part of the stored discourse history into these units. The function to pass to.

「談話履歴」とは、ユーザと会話制御装置1間の会話の話題や主題を特定する情報であって、後述する談話履歴は「着目話題特定情報」「着目話題タイトル」「利用者入力文話題特定情報」「回答文話題特定情報」の少なくともいずれか一つを含む情報である。また、談話履歴に含まれる「着目話題特定情報」「着目話題タイトル」「回答文話題特定情報」は直前の会話によって定められたものに限定されず、過去の所定期間の間に着目話題特定情報」「着目話題タイトル」「回答文話題特定情報」となったもの、若しくはそれらの累積的記録であってもよい。   The “discourse history” is information for specifying the topic and subject of the conversation between the user and the conversation control device 1, and the discourse history to be described later is “target topic specification information”, “target topic title”, “user input sentence topic” This information includes at least one of “specific information” and “answer sentence topic specific information”. In addition, “focused topic identification information”, “focused topic title”, and “answer sentence topic specific information” included in the discourse history are not limited to those determined by the previous conversation, but focused topic identification information during a past predetermined period. "Remarked topic title", "Reply sentence topic specific information", or a cumulative record thereof.

以下、会話制御部300を構成する各部について説明する。
[話題特定情報検索部]
話題特定情報検索部320は、形態素抽出部420で抽出された第一形態素情報と各話題特定情報とを照合し、各話題特定情報の中から、第一形態素情報を構成する形態素と一致する話題特定情報を検索するものである。具体的に、話題特定情報検索部320は、形態素抽出部420から入力された第一形態素情報が「佐藤」及び「好き」の二つの形態素で構成される場合には、入力された第一形態素情報と話題特定情報群とを照合する。
Hereinafter, each part which comprises the conversation control part 300 is demonstrated.
[Topic specific information search part]
The topic identification information search unit 320 collates the first morpheme information extracted by the morpheme extraction unit 420 with each topic identification information, and the topic that matches the morpheme constituting the first morpheme information from each topic identification information. Search for specific information. Specifically, the topic identification information search unit 320, when the first morpheme information input from the morpheme extraction unit 420 is composed of two morphemes "Sato" and "like", the input first morpheme The information is collated with the topic specific information group.

この照合をした話題特定情報検索部320は、着目話題タイトル820focus(前回までに検索された話題タイトル)に第一形態素情報を構成する形態素(例えば「佐藤」)が含まれているときは、その着目話題タイトル820focusを回答取得部350に出力する。一方、着目話題タイトル820focusに第一形態素情報を構成する形態素が含まれていないときは、話題特定情報検索部320は、第一形態素情報に基づいて利用者入力文話題特定情報を決定し、入力された第一形態素情報及び利用者入力文話題特定情報を省略文補完部330に出力する。なお、「利用者入力文話題特定情報」は、第一形態素情報に含まれる形態素の内、利用者が話題としている内容に該当する形態素に相当する話題特定情報、若しくは第一形態素情報に含まれる形態素の内、利用者が話題としている内容に該当する可能性がある形態素に相当する話題特定情報をいう。   The topic identification information search unit 320 that has performed this collation, when a morpheme constituting the first morpheme information (for example, “Sato”) is included in the focused topic title 820focus (topic title searched up to the previous time), The subject topic title 820focus is output to the answer acquisition unit 350. On the other hand, when the morpheme constituting the first morpheme information is not included in the focused topic title 820focus, the topic identification information search unit 320 determines the user input sentence topic identification information based on the first morpheme information and inputs it. The first morpheme information and the user input sentence topic specifying information are output to the abbreviated sentence complementing unit 330. "User input sentence topic specific information" is included in the topic specific information corresponding to the morpheme corresponding to the content that the user is talking about or the first morpheme information among the morphemes included in the first morpheme information. The topic specific information corresponding to the morpheme which may correspond to the content which the user is talking about among morphemes.

[省略文補完部]
省略文補完部330は、前記第一形態素情報を、前回までに検索された話題特定情報810(以下、「着目話題特定情報」)及び前回の回答文に含まれる話題特定情報810(以下、「回答文話題特定情報」という)を利用して、補完することにより複数種類の補完された第一形態素情報を生成する。例えば発話文が「好きだ」という文であった場合、省略文補完部330は、着目話題特定情報「佐藤」を、第一形態素情報「好き」に含めて、補完された第一形態素情報「佐藤、好き」を生成する。
[Abbreviated sentence completion part]
The abbreviated sentence complementing unit 330 uses the first morpheme information as the topic specifying information 810 (hereinafter referred to as “focused topic specifying information”) searched up to the previous time and the topic specifying information 810 (hereinafter referred to as “ A plurality of types of complemented first morpheme information is generated by complementing using “answer sentence topic specifying information”). For example, when the utterance sentence is a sentence “I like”, the abbreviated sentence complementing unit 330 includes the topic topic identification information “Sato” in the first morpheme information “like” and the complemented first morpheme information “ "Sato likes".

すなわち、第一形態素情報を「W」、着目話題特定情報や回答文話題特定情報の集合を「D」とすると、省略文補完部330は、第一形態素情報「W」に集合「D」の要素を含めて、補完された第一形態素情報を生成する。   In other words, if the first morpheme information is “W” and the set of the topic topic identification information and the answer sentence topic specification information is “D”, the abbreviated sentence complementing unit 330 adds the set “D” to the first morpheme information “W”. Complemented first morpheme information including elements is generated.

これにより、第一形態素情報を用いて構成される文が、省略文であって日本語として明解でない場合などにおいて、省略文補完部330は、集合「D」を用いて、その集合「D」の要素(例えば、"佐藤")を第一形態素情報「W」に含めることができる。この結果、省略文補完部330は、第一形態素情報「好き」を補完された第一形態素情報「佐藤、好き」にすることができる。なお、補完された第一形態素情報「佐藤、好き」は、「佐藤が好きだ」という発話内容に対応する。   As a result, when the sentence constructed using the first morpheme information is an abbreviated sentence and is not clear as Japanese, the abbreviated sentence complementing unit 330 uses the set “D” to set the set “D”. (For example, “Sato”) can be included in the first morpheme information “W”. As a result, the abbreviated sentence complementing unit 330 can change the first morpheme information “like” to the first morpheme information “Sato, like”. The complemented first morpheme information “Sato, I like” corresponds to the utterance content “I like Sato”.

すなわち、省略文補完部330は、利用者の発話内容が省略文である場合などであっても、集合「D」を用いて省略文を補完することができる。この結果、省略文補完部330は、第一形態素情報から構成される文が省略文であっても、その文が適正な日本語となるようにすることができる。   That is, the abbreviated sentence complementing unit 330 can supplement the abbreviated sentence using the set “D” even when the user's utterance content is an abbreviated sentence. As a result, even if the sentence composed of the first morpheme information is an abbreviated sentence, the abbreviated sentence complementing unit 330 can make the sentence in proper Japanese.

また、省略文補完部330が、前記集合「D」に基づいて、補完後の第一形態素情報に一致する話題タイトル820を検索する。補完後の第一形態素情報に一致する話題タイトル820を発見した場合は、省略文補完部330はこの話題タイトル820を回答取得部350に出力する。回答取得部350は、省略文補完部330で検索された適切な話題タイトル820に基づいて、利用者の発話内容に最も適した回答文830を出力することができる。   In addition, the abbreviated sentence complementing unit 330 searches for the topic title 820 that matches the first morpheme information after completion based on the set “D”. When a topic title 820 that matches the first morpheme information after complement is found, the abbreviated sentence complement unit 330 outputs the topic title 820 to the answer acquisition unit 350. The answer acquisition unit 350 can output the answer sentence 830 most suitable for the user's utterance content based on the appropriate topic title 820 searched by the abbreviated sentence complementing unit 330.

尚、省略文補完部330は、集合「D」の要素を第一形態素情報に含めるだけに限定されるものではない。この省略文補完部330は、着目話題タイトルに基づいて、その話題タイトル820を構成する第一特定情報、第二特定情報又は第三特定情報のいずれかに含まれる形態素を、抽出された第一形態素情報に含めても良い。   Note that the abbreviated sentence complementing unit 330 is not limited to only including elements of the set “D” in the first morpheme information. The abbreviated sentence complementing unit 330 extracts the first morpheme included in any of the first specific information, the second specific information, or the third specific information constituting the topic title 820 based on the topic title of interest. It may be included in the morpheme information.

[話題検索部]
話題検索部340は、省略文補完部330で話題タイトル820が決まらなかったとき、第一形態素情報と、利用者入力文話題特定情報に対応する各話題タイトル820とを照合し、各話題タイトル820の中から、第一形態素情報に最も適する話題タイトル820を検索するものである。
[Topic Search Department]
When the topic title 820 is not determined by the abbreviated sentence complementing unit 330, the topic search unit 340 collates the first morpheme information with each topic title 820 corresponding to the user input sentence topic specifying information, and each topic title 820 The topic title 820 that is most suitable for the first morpheme information is searched for.

具体的に、省略文補完部330から検索命令信号が入力された話題検索部340は、入力された検索命令信号に含まれる利用者入力文話題特定情報及び第一形態素情報に基づいて、その利用者入力文話題特定情報に対応付けられた各話題タイトルの中から、その第一形態素情報に最も適した話題タイトル820を検索する。話題検索部340は、その検索した話題タイトル820を検索結果信号として回答取得部350に出力する。   Specifically, the topic search unit 340 to which the search command signal is input from the abbreviated sentence complement unit 330 is used based on the user input sentence topic identification information and the first morpheme information included in the input search command signal. The topic title 820 most suitable for the first morpheme information is searched from among the topic titles associated with the person input sentence topic identification information. The topic search unit 340 outputs the searched topic title 820 to the answer acquisition unit 350 as a search result signal.

図16は、ある話題特定情報810(=「佐藤」)に対応付けされた、話題タイトル820、回答文830、感情条件パラメータ840、感情フラグ850、及び対応行動フラグ860の具体例を示す図である。図16に示すように、例えば、話題検索部340は、入力された第一形態素情報「佐藤、好き」に話題特定情報810(=「佐藤」)が含まれるので、その話題特定情報810(=「佐藤」)を特定し、次に、その話題特定情報810(=「佐藤」)に対応付けられた各話題タイトル(820)1-1、1-2、…と入力された第一形態素情報「佐藤、好き」とを照合する。   FIG. 16 is a diagram illustrating specific examples of the topic title 820, the answer sentence 830, the emotion condition parameter 840, the emotion flag 850, and the corresponding action flag 860 associated with certain topic identification information 810 (= “Sato”). is there. As illustrated in FIG. 16, for example, the topic search unit 340 includes the topic specifying information 810 (= “Sato”) in the input first morpheme information “Sato, I like”, so the topic specifying information 810 (= "Sato") is specified, and then the first morpheme information inputted as each topic title (820) 1-1, 1-2, ... associated with the topic specifying information 810 (= "Sato") Match “Sato, I like”.

また、図17に別の話題特定情報810(=「上がれない」)、話題タイトル820、回答文830、感情条件パラメータ840、感情フラグ850、及び対応行動フラグ860の例を示す。会話制御部300が話題特定情報810(=「上がれない」)、及び話題タイトル(820)1−1((私;*;上がれない)を選択し、発話文のタイプが「DA」であるとすると、会話制御部300はその時点で記憶されている感情状態情報に応じて「弱気だね。手加減はしないよ。」、或いは「じゃあ一気に攻めちゃおうかなぁ?」という回答文830を選択し、感情フラグ850として「A」を感情状態情報管理部700に出力し、対応行動フラグ860として「思考ルーチン2」を指定する思考ルーチン指定命令をゲーム装置2に出力することとなる。   FIG. 17 shows another topic specifying information 810 (= “cannot be raised”), topic title 820, answer sentence 830, emotion condition parameter 840, emotion flag 850, and corresponding action flag 860. The conversation control unit 300 selects the topic specifying information 810 (= “cannot be raised”) and the topic title (820) 1-1 ((I; *; cannot be raised), and the type of the utterance is “DA”. Then, the conversation control unit 300 selects an answer sentence 830 that says, “It ’s bearish. Do n’t take care of it” or “Would you like to attack at once?” According to the emotional state information stored at that time, “A” is output to the emotional state information management unit 700 as the emotion flag 850, and a thinking routine designation command for designating “thinking routine 2” as the corresponding action flag 860 is output to the game apparatus 2.

図8に戻り、会話制御部300の構成例について説明を続ける。
話題検索部340は、その照合結果に基づいて、各話題タイトル(820)1-1〜1-2の中から、入力された第一形態素情報「佐藤、好き」と一致する話題タイトル(820)1-1(佐藤;*;好き)を特定する。話題検索部340は、検索した話題タイトル(820)1-1(佐藤;*;好き)を検索結果信号として回答取得部350に出力する。
Returning to FIG. 8, the description of the configuration example of the conversation control unit 300 will be continued.
The topic search unit 340, based on the comparison result, the topic title (820) that matches the input first morpheme information “Sato, I like” from among the topic titles (820) 1-1 and 1-2. Specify 1-1 (Sato; *; likes). The topic search unit 340 outputs the searched topic title (820) 1-1 (Sato; *; likes) to the answer acquisition unit 350 as a search result signal.

[回答取得部]
回答取得部350は、話題検索部340で検索された話題タイトル820に基づいて、その話題タイトル820に対応付けられた回答文830、感情条件パラメータ840、感情フラグ850、及び対応行動フラグ860を取得する。また、回答取得部350は、話題検索部340で検索された話題タイトル820に基づいて、その話題タイトル820に対応付けられた各回答種類と、入力種類判定部440で判定された発話種類とを照合する。その照合をした回答取得部350は、各回答種類の中から、判定された発話種類と一致する回答種類を検索する。
[Answer section]
Based on the topic title 820 searched by the topic search unit 340, the answer acquisition unit 350 acquires an answer sentence 830, an emotion condition parameter 840, an emotion flag 850, and a corresponding action flag 860 associated with the topic title 820. To do. Further, the answer acquisition unit 350 determines each answer type associated with the topic title 820 and the utterance type determined by the input type determination unit 440 based on the topic title 820 searched by the topic search unit 340. Collate. The answer acquisition unit 350 that has performed the collation searches for an answer type that matches the determined utterance type from among the answer types.

図16に示すように、例えば、回答取得部350は、話題検索部340で検索された話題タイトル820が話題タイトル1-1(佐藤;*;好き)である場合には、その話題タイトル1-1に対応付けられている回答文(830)1-1(DA、TAなど)の中から、入力種類判定部440で判定された「発話文のタイプ」(例えばDA)と一致する回答種類(DA)を特定する。この回答種類(DA)を特定した回答取得部350は、特定した回答種類(DA)に基づいて、その回答種類(DA)に対応付けられた回答文(830)1-1(「私も佐藤が好きです。」)を取得する。   As shown in FIG. 16, for example, when the topic title 820 searched by the topic search unit 340 is the topic title 1-1 (Sato; *; likes), the topic title 1- The answer type (for example, DA) determined by the input type determination unit 440 from the answer text (830) 1-1 (DA, TA, etc.) associated with 1 DA) is specified. Based on the identified answer type (DA), the answer acquisition unit 350 that identified the answer type (DA) responds to the answer sentence (830) 1-1 associated with the answer type (DA) ("I am also Sato I like. ”) To get.

ここで、上記"DA"、"TA"等のうち、"A"は、肯定形式を意味する。従って、発話種類及び回答種類に"A"が含まれているときは、ある事柄について肯定することを示している。また、発話種類及び回答種類には、"DQ"、"TQ"等の種類を含めることもできる。この"DQ"、"TQ"等のうち"Q"は、ある事柄についての質問を意味する。   Here, among the “DA”, “TA”, etc., “A” means an affirmative form. Therefore, when “A” is included in the utterance type and the answer type, it indicates that a certain matter is affirmed. In addition, types such as “DQ” and “TQ” can be included in the utterance type and the answer type. Of these “DQ”, “TQ”, etc., “Q” means a question about a certain matter.

回答種類が上記質問形式(Q)からなるときは、この回答種類に対応付けられる回答文は、肯定形式(A)で構成される。この肯定形式(A)で作成された回答文としては、質問事項に対して回答する文等が挙げられる。例えば、発話文が「あなたはスロットマシンを操作したことがありますか?」である場合には、この発話文についての発話種類は、質問形式(Q)となる。この質問形式(Q)に対応付けられる回答文830は、例えば「私はスロットマシンを操作したことがあります」(肯定形式(A))が挙げられる。   When the answer type is the above question format (Q), the answer sentence associated with the answer type is configured in an affirmative format (A). Examples of the answer sentence created in this affirmative form (A) include a sentence that answers a question item. For example, when the utterance sentence is "Have you operated the slot machine?", The utterance type for this utterance sentence is a question form (Q). The answer sentence 830 associated with this question format (Q) is, for example, “I have operated the slot machine” (affirmative format (A)).

一方、発話種類が肯定形式(A)からなるときは、この回答種類に対応付けられる回答文830は、質問形式(Q)で構成される。この質問形式(Q)で作成された回答文830としては、発話内容に対して聞き返す質問文、又は特定の事柄を聞き出す質問文等が挙げられる。例えば、発話文が「私はスロットマシンで遊ぶのが趣味です」である場合には、この発話文についての発話種類は、肯定形式(A)となる。この肯定形式(A)に対応付けられる回答文830は、例えば"パチンコで遊ぶのは趣味ではないのですか?"(特定の事柄を聞き出す質問文(Q))が挙げられる。   On the other hand, when the utterance type is an affirmative form (A), the answer sentence 830 associated with the answer type is configured with a question form (Q). Examples of the answer sentence 830 created in this question format (Q) include a question sentence that is replied to the utterance content, or a question sentence that asks for a specific matter. For example, when the utterance sentence is “I play with a slot machine”, the utterance type for this utterance sentence is an affirmative form (A). The answer sentence 830 associated with the affirmative form (A) includes, for example, “isn't it a hobby to play with pachinko?” (Question sentence (Q) to ask a specific matter).

回答取得部350は、取得した回答文830を回答文信号として管理部310に出力するとともに、回答文830に対応した感情フラグ850を感情状態情報管理部700に出力する。
さらにまた、回答取得部350は、取得した対応行動フラグ860をゲーム装置2(ゲーム進行制御部202)に出力する。これにより、ユーザの発話に応じたキャラクタのゲームの進行に関する行動を取るように、思考ルーチンの指定が可能となる。
以上で、会話制御部300の説明を終了する。
The answer acquisition unit 350 outputs the acquired answer sentence 830 as an answer sentence signal to the management unit 310 and outputs an emotion flag 850 corresponding to the answer sentence 830 to the emotion state information management unit 700.
Furthermore, the answer acquisition unit 350 outputs the acquired corresponding action flag 860 to the game device 2 (game progress control unit 202). This makes it possible to specify a thought routine so as to take an action related to the progress of the character game in accordance with the user's utterance.
Above, description of the conversation control part 300 is complete | finished.

[感情状態情報管理部]
図4に戻り、会話制御装置1の感情状態情報管理部700について説明する。
[Emotion State Information Management Department]
Returning to FIG. 4, the emotional state information management unit 700 of the conversation control device 1 will be described.

感情状態情報管理部700は、会話制御部300から感情フラグ850を受け取り、この感情フラグ850に基づいて感情状態情報の更新を行う機能を有する。感情状態情報管理部700は、会話制御部300から感情フラグ850を受け取ると、これを記憶し、記憶した感情フラグに基づいて感情状態情報を生成し、ゲーム装置2に所定のタイミングで感情状態情報を通知する。感情状態情報は、たとえば各感情(喜怒哀楽)ごとの値やフラグ成立の有無より構成される。感情状態情報は、ゲームシステムGSによって演じられる、ユーザに対する対戦者(疑似人格、キャラクタ)の感情を定める情報であり、ゲームシステムGSは、この感情状態情報によってキャラクタデータの表示の制御等を行う。   The emotional state information management unit 700 has a function of receiving the emotional flag 850 from the conversation control unit 300 and updating the emotional state information based on the emotional flag 850. When emotion state information management unit 700 receives emotion flag 850 from conversation control unit 300, emotion state information management unit 700 stores the emotion flag 850, generates emotion state information based on the stored emotion flag, and sends emotion state information to game device 2 at a predetermined timing. To be notified. The emotional state information includes, for example, a value for each emotion (feeling emotional) and presence / absence of flag establishment. The emotional state information is information that determines the emotion of the opponent (pseudo personality, character) played by the game system GS, and the game system GS controls the display of character data by this emotional state information.

感情状態情報管理部700は、感情フラグ850を受け取ると、その感情フラグ850のカウント値を所定の値(例えば+1)だけ変化させるように、感情状態情報を書き換える。また、感情状態情報管理部700は、後述するユーザ行動評価部800からユーザ行動評価情報を受け取ると、所定の内容で感情状態情報を書き換える(例えば、「怒り」の感情フラグ850のカウント値を10増加させる、或いは、「哀しみ」「怒り」の感情フラグ850それぞれのカウント値を現在の値の2倍とする、など)。   When emotion state information management unit 700 receives emotion flag 850, emotion state information management unit 700 rewrites emotion state information so that the count value of emotion flag 850 is changed by a predetermined value (for example, +1). When emotion state information management unit 700 receives user behavior evaluation information from user behavior evaluation unit 800 described later, emotion state information management unit 700 rewrites emotion state information with a predetermined content (for example, count value of emotion flag 850 of “anger” is set to 10). Or the count value of each emotion flag 850 of “sadness” or “anger” is set to double the current value).

感情状態情報記憶部7Bが記憶する感情状態情報のデータ構成例を図18に示す。感情状態情報1800は、感情フラグ種類1801ごとに、累積値1802を有している。累積値1802は、各感情フラグごとに増減が可能である。例えば、感情状態情報管理部700が「喜び」を示す感情フラグを受け取るごとに、累積値1802の値がインクリメントされる。また、ユーザ行動評価部800からのユーザ行動評価情報に応じても、これら累積値1802の増減が行われる。どのように増減されるかは、予め感情状態情報管理部700がプログラムとして記憶しており、このプログラムに従って所定の増減処理が実行される。   FIG. 18 shows a data configuration example of emotional state information stored in the emotional state information storage unit 7B. The emotion state information 1800 has a cumulative value 1802 for each emotion flag type 1801. The cumulative value 1802 can be increased or decreased for each emotion flag. For example, every time the emotion state information management unit 700 receives an emotion flag indicating “joy”, the value of the cumulative value 1802 is incremented. Also, the cumulative value 1802 is increased or decreased according to the user behavior evaluation information from the user behavior evaluation unit 800. The emotion state information management unit 700 stores in advance as a program how to increase / decrease, and a predetermined increase / decrease process is executed according to this program.

[ユーザ行動評価部]
次に、ユーザ行動評価部800について説明する。ユーザ行動評価部800は、ユーザの発話内容とユーザの取った行動とが一致するかどうかを判定し、判定結果に応じて感情状態情報の更新を行わせる機能を有する。
[User Behavior Evaluation Department]
Next, the user behavior evaluation unit 800 will be described. The user behavior evaluation unit 800 has a function of determining whether the user's utterance content matches the user's behavior and updating the emotional state information in accordance with the determination result.

本実施の形態において、ユーザ行動評価部800は、会話制御部300より対応行動フラグ860を受け取り、その後ゲーム装置2からユーザの取った行動(捨て牌、ポン、ロン、ツモなど)の通知を受け、この行動と対応行動フラグ860とに基づいてユーザ行動評価情報を生成し、感情状態情報管理部700に渡す。   In the present embodiment, the user behavior evaluation unit 800 receives the corresponding behavior flag 860 from the conversation control unit 300 and then receives a notification of the user's behavior (for example, throwing away, pong, ron, tsumo) from the game apparatus 2. Based on this action and the corresponding action flag 860, user action evaluation information is generated and passed to the emotional state information management unit 700.

例えば、ユーザが「まだ聴牌していない」という発話をなし、その発話に応じて高い役つくりを目指す思考ルーチンを指定する対応行動フラグ860が選択されたとする。ユーザ行動評価部800は、対応行動フラグ860に対応付けたユーザ行動評価テーブルを有しており、このテーブルには高い役つくりを目指す思考ルーチンを指定する対応行動フラグ860対応して、「3手以内に上がらない」という条件が記載されている。ユーザ行動評価部800は、ユーザの行動がこの条件に違反しないかどうかを監視する。   For example, it is assumed that the user makes an utterance “not yet listened” and the corresponding action flag 860 is selected that specifies a thought routine aiming at making a high role according to the utterance. The user action evaluation unit 800 has a user action evaluation table associated with the corresponding action flag 860, and this table corresponds to the corresponding action flag 860 for designating a thought routine aiming at high role, It does not go up within "is described. The user behavior evaluation unit 800 monitors whether the user behavior does not violate this condition.

ここで、ユーザがこの条件に違反して前記発話から3手以内にアガリを宣言した場合は、ユーザ行動評価部800は感情状態情報管理部700に対して、感情状態情報をキャラクタのユーザに対する親密度、信頼度を低下させる更新を要求する旨のユーザ行動評価情報を送る。感情状態情報管理部700はこのユーザ行動評価情報に応じて、感情状態情報の更新を行い、以降キャラクタの回答、キャラクタ画像(表情、動作)はこの親密度、信頼度が低下した感情状態情報に基づいてなされることとなる。このようなユーザ行動評価部800の動作によって、ユーザから見るとユーザのかけたブラフにキャラクタが引っかかり、キャラクタが気分を害しているように見えるように演出がなされる。   Here, when the user violates this condition and declares agari within three hands from the utterance, the user behavior evaluation unit 800 sends the emotion state information to the emotion state information management unit 700 and sends the emotion state information to the character user. User behavior evaluation information is sent to request an update that reduces density and reliability. The emotional state information management unit 700 updates the emotional state information in accordance with the user behavior evaluation information, and the character's answer and character image (facial expression, action) are changed to the emotional state information whose intimacy and reliability are reduced. Will be made based on. By the operation of the user behavior evaluation unit 800 as described above, when viewed from the user, the character is caught in the bluff worn by the user, and an effect is made so that the character looks offended.

一方、ユーザがこの条件に違反せず前記発話から3手以内にアガリを宣言しなかった場合は、感情状態情報をキャラクタのユーザに対する親密度、信頼度を上昇させる更新を要求する旨のユーザ行動評価情報を送るようにしてもよい。
以上で、ゲームシステムGSの説明を終了する。
On the other hand, if the user does not violate this condition and does not declare agari within 3 moves from the utterance, the user behavior indicating that the emotional state information is requested to be updated to increase the familiarity and reliability of the character user. You may make it send evaluation information.
This is the end of the description of the game system GS.

[ゲームシステムの動作例]
次に、上記ゲームシステムGSの動作例について説明する。
図19は、本実施の形態にかかるゲームシステムGSの主要な処理を示すフローチャートである。ゲームシステムGSのゲーム装置2側では、ゲームに関する処理が並行して行われているがここでは説明は省略する。
[Game system operation example]
Next, an operation example of the game system GS will be described.
FIG. 19 is a flowchart showing main processing of the game system GS according to the present embodiment. On the game device 2 side of the game system GS, processing related to the game is performed in parallel, but description thereof is omitted here.

まず、会話制御装置1は、ユーザからの発話を音声認識部200にて受け付け、会話制御部300にて処理できるデータに変化するユーザ発話受付処理を行う(ステップS1901)。   First, the conversation control device 1 accepts an utterance from the user by the voice recognition unit 200, and performs a user utterance acceptance process that changes to data that can be processed by the conversation control unit 300 (step S1901).

次に、会話制御装置1は、受け付けたユーザ発話に応答する回答文830を返す会話制御処理を行う(ステップS1902)。   Next, the conversation control device 1 performs conversation control processing for returning an answer sentence 830 in response to the received user utterance (step S1902).

[会話制御方法]
上記構成を有する会話制御装置1による会話制御処理(ステップS1902)は、図20に示す手順により実施することができる。図20は、本実施の形態に係る会話制御方法の手順を示すフロー図である。
[Conversation control method]
The conversation control process (step S1902) by the conversation control apparatus 1 having the above-described configuration can be performed according to the procedure shown in FIG. FIG. 20 is a flowchart showing the procedure of the conversation control method according to the present embodiment.

先ず、音声入力手段3が、利用者からの発話内容を取得するステップを行う(ステップS2001)。具体的には、音声入力手段3は、利用者の発話内容を構成する音声を取得する。音声入力手段3は、取得した音声を音声信号として音声認識部200に出力する。   First, the voice input means 3 performs a step of acquiring the utterance content from the user (step S2001). Specifically, the voice input unit 3 acquires the voice constituting the user's utterance content. The voice input unit 3 outputs the acquired voice to the voice recognition unit 200 as a voice signal.

次いで、音声認識部200が、音声入力手段3で取得した発話内容に基づいて、発話内容に対応する文字列を特定するステップを行う(ステップS2002)。具体的には、音声入力手段3から音声信号が入力された音声認識部200は、入力された音声信号に基づいて、その音声信号に対応する単語仮説(候補)を特定する。音声認識部200は、特定した単語仮説(候補)に対応付けられた文字列を取得し、取得した文字列を文字列信号として会話制御部300に出力する。   Next, the voice recognition unit 200 performs a step of specifying a character string corresponding to the utterance content based on the utterance content acquired by the voice input unit 3 (step S2002). Specifically, the voice recognition unit 200 to which a voice signal is input from the voice input unit 3 specifies a word hypothesis (candidate) corresponding to the voice signal based on the input voice signal. The voice recognition unit 200 acquires a character string associated with the identified word hypothesis (candidate), and outputs the acquired character string to the conversation control unit 300 as a character string signal.

そして、文字列特定部410が、音声認識部200で特定された一連の文字列を一文毎に区切るステップを行う(ステップS2003)。具体的には、管理部310から文字列信号(あるいは形態素信号)が入力された文字列特定部410は、その入力された一連の文字列の中に、ある一定以上の時間間隔があるときは、その部分で文字列を区切る。文字列特定部410は、その区切った各文字列を形態素抽出部420及び入力種類判定部440に出力する。なお、文字列特定部410は、入力された文字列がキーボードから入力された文字列である場合には、句読点又はスペース等のある部分で文字列を区切るのが好ましい。   And the character string specific | specification part 410 performs the step which divides | segments a series of character strings specified by the speech recognition part 200 for every sentence (step S2003). Specifically, the character string specifying unit 410 to which a character string signal (or morpheme signal) is input from the management unit 310 has a certain time interval or more in the input series of character strings. , Delimit the string at that part. The character string specifying unit 410 outputs the divided character strings to the morpheme extracting unit 420 and the input type determining unit 440. In addition, when the input character string is a character string input from the keyboard, the character string specifying unit 410 preferably divides the character string at a part such as a punctuation mark or a space.

その後、形態素抽出部420が、文字列特定部410で特定された文字列に基づいて、文字列の最小単位を構成する各形態素を第一形態素情報として抽出するステップを行う(ステップS2004)。具体的に、文字列特定部410から文字列が入力された形態素抽出部420は、入力された文字列と、形態素データベース430に予め格納されている形態素群とを照合する。なお、その形態素群は、本実施の形態では、それぞれの品詞分類に属する各形態素について、その形態素の見出し語・読み・品詞・活用形などを記述した形態素辞書として準備されている。   Thereafter, the morpheme extraction unit 420 performs a step of extracting each morpheme constituting the minimum unit of the character string as the first morpheme information based on the character string specified by the character string specifying unit 410 (step S2004). Specifically, the morpheme extraction unit 420 to which the character string is input from the character string specifying unit 410 collates the input character string with a morpheme group stored in advance in the morpheme database 430. In this embodiment, the morpheme group is prepared as a morpheme dictionary in which each morpheme belonging to each part-of-speech classification describes a morpheme entry word, reading, part-of-speech, utilization form, and the like.

この照合をした形態素抽出部420は、入力された文字列の中から、予め記憶された形態素群に含まれる各形態素と一致する各形態素(m1、m2、…)を抽出する。形態素抽出部420は、抽出した各形態素を第一形態素情報として話題特定情報検索部320に出力する。   The matched morpheme extraction unit 420 extracts each morpheme (m1, m2,...) That matches each morpheme included in the previously stored morpheme group from the input character string. The morpheme extraction unit 420 outputs each extracted morpheme to the topic identification information search unit 320 as first morpheme information.

次いで、入力種類判定部440が、文字列特定部410で特定された一文を構成する各形態素に基づいて、「発話文のタイプ」を判定するステップを行う(ステップS2005)。具体的には、文字列特定部410から文字列が入力された入力種類判定部440は、入力された文字列に基づいて、その文字列と発話種類データベース450に格納されている各辞書とを照合し、その文字列の中から、各辞書に関係する要素を抽出する。この要素を抽出した入力種類判定部440は、抽出した要素に基づいて、その要素がどの「発話文のタイプ」に属するのかを判定する。入力種類判定部440は、判定した「発話文のタイプ」(発話種類)を回答取得部350に出力する。   Next, the input type determination unit 440 performs a step of determining “spoken sentence type” based on each morpheme constituting one sentence specified by the character string specifying unit 410 (step S2005). Specifically, the input type determination unit 440, to which the character string is input from the character string specifying unit 410, determines the character string and each dictionary stored in the utterance type database 450 based on the input character string. Collation is performed, and elements related to each dictionary are extracted from the character string. The input type determination unit 440 that extracted this element determines to which “spoken sentence type” the element belongs based on the extracted element. The input type determination unit 440 outputs the determined “spoken sentence type” (speech type) to the answer acquisition unit 350.

そして、話題特定情報検索部320が、形態素抽出部420で抽出された第一形態素情報と着目話題タイトル820focusとを比較するステップを行う(ステップS2006)。
第一形態素情報を構成する形態素と着目話題タイトル820focusとが一致する場合、話題特定情報検索部320は、その話題タイトル820を回答取得部350に出力する。一方、話題特定情報検索部320は、第一形態素情報を構成する形態素と話題タイトルと820が一致しなかった場合には、入力された第一形態素情報及び利用者入力文話題特定情報810を検索命令信号として省略文補完部330に出力する。
Then, the topic identification information search unit 320 compares the first morpheme information extracted by the morpheme extraction unit 420 with the topic topic title 820focus (step S2006).
If the morpheme constituting the first morpheme information matches the topic topic title 820focus, the topic identification information search unit 320 outputs the topic title 820 to the answer acquisition unit 350. On the other hand, if the morpheme constituting the first morpheme information and the topic title 820 do not match, the topic specific information search unit 320 searches the input first morpheme information and user input sentence topic specific information 810. An abbreviated sentence complementing unit 330 outputs the command signal.

その後、省略文補完部330が、話題特定情報検索部320から入力された第一形態素情報に基づいて、着目話題特定情報及び回答文話題特定情報を、入力された第一形態素情報に含めるステップを行う(ステップS2007)。具体的には、第一形態素情報を「W」、着目話題特定情報及び回答文話題特定情報の集合を「D」とすると、省略文補完部330は、第一形態素情報「W」に話題特定情報「D」の要素を含めて、補完された第一形態素情報を生成し、この補完された第一形態素情報と集合「D」に関連づけされたすべての話題タイトル820とを照合し、補完された第一形態素情報と一致する話題タイトル820があるか検索する。補完された第一形態素情報と一致する話題タイトル820がある場合は、省略文補完部330は、その話題タイトル820を回答取得部350に出力する。一方、補完された第一形態素情報と一致する話題タイトル820を発見しなかった場合は、省略文補完部330は、第一形態素情報と利用者入力文話題特定情報とを話題検索部340に渡す。   Thereafter, the abbreviated sentence complementing unit 330 includes the focused topic specifying information and the answer sentence topic specifying information in the input first morpheme information based on the first morpheme information input from the topic specifying information search unit 320. This is performed (step S2007). Specifically, when the first morpheme information is “W” and the set of the topic topic identification information and the answer sentence topic identification information is “D”, the abbreviated sentence complementing unit 330 identifies the topic as the first morpheme information “W”. Complemented first morpheme information including the element of information “D” is generated, and the complemented first morpheme information is collated with all topic titles 820 associated with the set “D” to be complemented. Whether there is a topic title 820 that matches the first morpheme information is searched. If there is a topic title 820 that matches the complemented first morpheme information, the abbreviated sentence complementing unit 330 outputs the topic title 820 to the answer acquisition unit 350. On the other hand, when the topic title 820 that matches the supplemented first morpheme information is not found, the abbreviated sentence complementing unit 330 passes the first morpheme information and the user input sentence topic specifying information to the topic search unit 340. .

次いで、話題検索部340は、第一形態素情報と、利用者入力文話題特定情報とを照合し、各話題タイトル820の中から、第一形態素情報に適した話題タイトル820を検索するステップを行う(ステップS2008)。具体的には、省略文補完部330から検索命令信号が入力された話題検索部340は、入力された検索命令信号に含まれる利用者入力文話題特定情報及び第一形態素情報に基づいて、その利用者入力文話題特定情報に対応付けられた各話題タイトル820の中から、その第一形態素情報に適した話題タイトル820を検索する。話題検索部340は、その検索の結果得られた話題タイトル820を検索結果信号として回答取得部350に出力する。   Next, the topic search unit 340 collates the first morpheme information with the user input sentence topic identification information, and performs a step of searching for the topic title 820 suitable for the first morpheme information from each topic title 820. (Step S2008). Specifically, the topic search unit 340 to which the search command signal is input from the abbreviated sentence complement unit 330 is based on the user input sentence topic identification information and the first morpheme information included in the input search command signal. A topic title 820 suitable for the first morpheme information is searched from the topic titles 820 associated with the user input sentence topic identification information. The topic search unit 340 outputs the topic title 820 obtained as a result of the search to the answer acquisition unit 350 as a search result signal.

次いで、回答取得部350が、話題特定情報検索部320、省略文補完部330、あるいは話題検索部340で検索された話題タイトル820に基づいて、判定された利用者の発話種類と話題タイトル820に対応付けられた各回答種類とを照合する。この照合をした回答取得部350は、各回答種類の中から、判定された発話種類と一致する回答種類を検索する(ステップS2009)。   Next, the answer acquisition unit 350 determines the utterance type and the topic title 820 of the user determined based on the topic title 820 searched by the topic specifying information search unit 320, the abbreviated sentence complement unit 330, or the topic search unit 340. Collate each associated answer type. The answer acquisition unit 350 that has performed the collation searches for the answer type that matches the determined utterance type from among the answer types (step S2009).

具体的に、話題検索部340から検索結果信号と、入力種類判定部440から「発話文のタイプ」とが入力された回答取得部350は、入力された検索結果信号に対応する「話題タイトル」と、入力された「発話文のタイプ」とに基づいて、その「話題タイトル」に対応付けられている回答種類群の中から、「発話文のタイプ」(DAなど)と一致する回答種類を特定する。   Specifically, the answer acquisition unit 350 to which the search result signal is input from the topic search unit 340 and the “spoken sentence type” is input from the input type determination unit 440 is the “topic title” corresponding to the input search result signal. Based on the entered “spoken sentence type”, the answer type matching the “spoken sentence type” (such as DA) is selected from the answer type group associated with the “topic title”. Identify.

この回答取得部350は、会話データベース500から、特定した回答種類に対応付けられた回答文830を取得する。回答取得部350は、管理部310を介して、取得した回答文830を管理部310に、その回答文830に対応する感情フラグ850を感情状態情報管理部700に、その回答文830に対応する対応行動フラグ860をゲーム装置2にそれぞれ出力する。(ステップS2010)。
以上で会話制御処理(ステップS1902)が終了する。
The answer acquisition unit 350 acquires an answer sentence 830 associated with the specified answer type from the conversation database 500. The response acquisition unit 350 corresponds to the response text 830 to the management section 310, the emotion flag 850 corresponding to the response text 830 to the emotion status information management section 700, and the response text 830 via the management section 310. The corresponding action flag 860 is output to the game apparatus 2 respectively. (Step S2010).
Thus, the conversation control process (step S1902) ends.

図19に戻り、ゲームシステムGSの動作例の説明を続ける。
ステップS1902に続き、会話制御装置1は、会話制御処理において定まった回答文830に対応する感情フラグ850に基づいて、感情状態情報の更新処理を行う(ステップS1903)。会話制御部300は回答文830が定まると、この回答文830に対応する感情フラグ850を感情状態情報管理部700に渡す。感情状態情報管理部700は、この感情フラグ850を感情状態情報に反映させるように、所定の処理を行い感情状態情報の書き換えを行う。
Returning to FIG. 19, the description of the operation example of the game system GS is continued.
Continuing to step S1902, the conversation control device 1 performs emotion state information update processing based on the emotion flag 850 corresponding to the answer sentence 830 determined in the conversation control processing (step S1903). When the answer sentence 830 is determined, the conversation control unit 300 passes the emotion flag 850 corresponding to the answer sentence 830 to the emotion state information management unit 700. The emotional state information management unit 700 performs a predetermined process to rewrite the emotional state information so that the emotional flag 850 is reflected in the emotional state information.

次に、会話制御装置1は、会話制御処理において定まった回答文830に対応する対応行動フラグ860をゲーム装置2に渡し、ゲーム装置2に思考ルーチン選択処理を行わせる(ステップS1904)。会話制御部300は回答文830が定まると、この回答文830に対応する対応行動フラグ860をゲーム装置2に渡す。   Next, the conversation control apparatus 1 passes the corresponding action flag 860 corresponding to the answer sentence 830 determined in the conversation control process to the game apparatus 2 and causes the game apparatus 2 to perform a thinking routine selection process (step S1904). When the answer sentence 830 is determined, the conversation control unit 300 passes a corresponding action flag 860 corresponding to the answer sentence 830 to the game apparatus 2.

ゲーム装置2は、キャラクタ行動決定部202Aによって上記対応行動フラグ860によって指定された思考ルーチンを選択し、この思考ルーチンに基づいてキャラクタの行動を決定し、実行する行動決定処理が行われる(ステップS1905)。例えば麻雀ゲームでは、上記選択された思考ルーチンにより、次にキャラクタが切る牌が決定され、キャラクタその牌を捨てたものとしてゲームが進行することとなる。   The game apparatus 2 selects a thinking routine designated by the corresponding action flag 860 by the character action determining unit 202A, determines an action of the character based on the thinking routine, and performs an action determining process to be executed (step S1905). ). For example, in a mahjong game, the character to be cut next is determined by the selected thinking routine, and the game proceeds with the character throwing away that character.

続いて、ゲームシステムGSは、ユーザの行動を受け取ると、この行動と従前の発話内容を比較して評価する、ユーザ行動評価処理を行う(ステップS1906)。図21に、ユーザ行動評価処理の処理例を示す。まず、ゲームシステムGSは、音声入力手段3又は非音声入力手段4からユーザの行動を示す命令を受け取るユーザ行動受付処理を行う(ステップS2101)。ここにいうユーザの行動を示す命令は、麻雀ゲームにおいては、捨て牌の選択と決定、ポン、チー、カン、ロン、リーチなどである。   Subsequently, when the game system GS receives a user action, the game system GS performs a user action evaluation process that compares and evaluates the action and the content of the previous utterance (step S1906). FIG. 21 shows a processing example of the user behavior evaluation processing. First, the game system GS performs a user behavior accepting process for receiving a command indicating a user behavior from the voice input means 3 or the non-voice input means 4 (step S2101). The command indicating the user's action here is selection and determination of abandonment, Pon, Chi, Kang, Ron, Reach, etc. in the mahjong game.

ユーザの行動を示す命令を受け付けると、ゲームシステムGSは、従前の発話内容とこのユーザ行動とを比較する(ステップS2102)。   When receiving the instruction indicating the user's action, the game system GS compares the content of the previous utterance with the user action (step S2102).

従前の発話内容とこのユーザ行動とを比較した結果、両者に矛盾がない場合(ステップS2103,NO)は、そのままユーザ高評価処理(ステップS1906)を終了する。一方、両者に矛盾がある場合(ステップS2103、YES)は、ユーザ行動評価部800は、感情状態情報変更の命令を感情状態情報管理部700に渡す(ステップS2104)。   If there is no contradiction as a result of comparing the previous utterance content with this user action (step S2103, NO), the user high evaluation process (step S1906) is terminated as it is. On the other hand, if there is a contradiction between the two (step S2103, YES), the user behavior evaluation unit 800 passes an emotion state information change command to the emotion state information management unit 700 (step S2104).

図19に戻り、ゲームシステムGSの動作例の説明を続ける。
感情状態情報変更の命令を感情状態情報管理部700が受け取ると、感情状態情報管理部700は、感情状態情報変更処理を実行する(ステップS1907)。この感情状態情報変更処理は、ユーザの従前の発言内容に添わない行動をユーザが取ったことに対するキャラクタの感情変化(ブラフをかけられたことに対する驚き、怒り、くやしさ、など)を感情状態情報に反映させる処理である。この感情状態情報変更処理後の発言は、キャラクタの感情変化に応じたものとなり、より自然なキャラクタの応答を実現することに役立つ。
Returning to FIG. 19, the description of the operation example of the game system GS is continued.
When the emotional state information management unit 700 receives the emotional state information change command, the emotional state information management unit 700 executes emotional state information change processing (step S1907). This emotional state information change process uses the emotional state information to change the emotional state of the character (surprise, angry, gentleness, etc. for being bluffed) in response to the user taking an action that does not follow the user's previous statement. It is a process to reflect. The remarks after the emotion state information change process are in response to the emotional change of the character, which is useful for realizing a more natural character response.

つづいて、ゲームシステムGSは、ゲーム終了条件の成立の判定を行う(ステップS1908)。ゲーム終了条件が成立している場合(例えば遊技時間の終了)は、ゲームシステムGSは、ゲームを終了させる。一方、ゲーム終了条件が成立していない場合は、再度ステップS1901に戻り、ユーザ発話の受付を待つ。以降ゲーム終了条件の成立までステップS1901からステップS1907が繰り返されつつ、ゲームの進行が行われる。   Subsequently, the game system GS determines whether or not the game end condition is satisfied (step S1908). When the game end condition is satisfied (for example, the end of the game time), the game system GS ends the game. On the other hand, if the game end condition is not satisfied, the process returns to step S1901 and waits for acceptance of the user utterance. Thereafter, the game progresses while steps S1901 to S1907 are repeated until the game end condition is satisfied.

なお、ステップS1906のユーザ行動評価処理に続いて、ユーザ行動評価部800は、両者に矛盾がある場合(ステップS2103、YES)において会話制御部300にユーザの従前の発言内容に添わない行動をユーザが取ったことに対するキャラクタの回答文830を出すよう、所定の話題特定情報810、話題タイトル820を渡す構成としてもよい。この場合の回答文830の例としては、ユーザの発話内容がブラフであったことに対する不満や驚きなどを示す文が設定されているとよい。   In addition, following the user behavior evaluation process in step S1906, the user behavior evaluation unit 800, when there is a contradiction between the two (step S2103, YES), causes the conversation control unit 300 to take a behavior that does not follow the user's previous remarks. It may be configured to pass predetermined topic specifying information 810 and topic title 820 so that a character's answer sentence 830 for taking out is taken. As an example of the answer sentence 830 in this case, a sentence indicating dissatisfaction or surprise to the user's utterance content being bluff may be set.

[ゲームシステムGSの動作の具体例]
次に、本実施の形態にかかるゲームシステムGSの動作の具体例を図22を参照しながら示す。図22は、ゲームシステムGSの動作の具体例を示すシーケンス図である。
[Specific example of operation of game system GS]
Next, a specific example of the operation of the game system GS according to the present embodiment will be described with reference to FIG. FIG. 22 is a sequence diagram showing a specific example of the operation of the game system GS.

このゲームシステムGSは、対戦型の麻雀ゲームを行うものであり、ゲームが進行してほほ終盤戦にかかっている状態である。ここで、ユーザは聴牌した状態で、キャラクタに対してブラフをかけようとし、「まだまだ上がれそうにないなぁ」という発話を音声入力手段3によりゲームシステムGSに伝える(ステップS2201)。   This game system GS performs a battle-type mahjong game, and is in a state where the game is progressing and is in the final game. Here, while listening, the user tries to bluff the character, and the voice input means 3 notifies the game system GS of an utterance “I'm not going to go up yet” (step S2201).

この発話に対して、ゲームシステムGSは、回答文830を返すための会話制御処理を行い(ステップS2202)、この会話文に対応する感情フラグ850に基づいて、感情状態情報の更新を行う(ステップS2203)。   In response to this utterance, the game system GS performs a conversation control process for returning an answer sentence 830 (step S2202), and updates emotion state information based on the emotion flag 850 corresponding to the conversation sentence (step S2202). S2203).

また、ゲームシステムGSは、会話制御処理(ステップS2202)にて選択された回答文830に対応付けられた対応行動フラグ860に基づいて、思考ルーチン選択処理を行う(ステップS2204)。この例では、ユーザの手作りが聴牌までまだまだかかると推定して高得点となる手作りをする思考ルーチンが選択される。また、選択された思考ルーチン(又は対応行動フラグ)に基づいて、ユーザ行動評価部800は、ユーザ行動の評価条件をセットする。この例では「今から3巡以内にユーザは上がらない」という条件がユーザ行動の評価条件としてセットされたものとする。   Further, the game system GS performs a thought routine selection process based on the corresponding action flag 860 associated with the answer sentence 830 selected in the conversation control process (step S2202) (step S2204). In this example, it is estimated that the user's handmade will still take until hearing, and a handmade thought routine that gives a high score is selected. Further, based on the selected thinking routine (or corresponding action flag), the user action evaluation unit 800 sets an evaluation condition for user action. In this example, it is assumed that the condition that “the user does not rise within three rounds from now” is set as the evaluation condition of the user action.

ゲームシステムGSは、会話制御処理にて選択された回答文830として「ふふふっ、じゃあ一気に攻めちゃおうかなぁ」という出力を行い(ステップS2205)、また上記思考ルーチンにより、キャラクタ行動を決定する(ステップS2206)。この例では、ゲームシステムGSが演ずるキャラクタは、聴牌までのスピードは考慮せず、高得点となるように捨て牌を選択して、河(ホー)に牌を出す処理を行う。   The game system GS outputs, as the answer sentence 830 selected in the conversation control process, “Fufufu, let's attack at once” (step S2205), and determines the character action by the above thinking routine (step S2205). S2206). In this example, the character played by the game system GS does not consider the speed until listening, selects the discarded cocoon so as to obtain a high score, and performs a process of producing a cocoon on the river (Ho).

このキャラクタが捨てた牌がユーザの当たり牌であった。ユーザは音声入力手段3によりゲームシステムGSに上がり宣言である発話「ロン!」を入力する(ステップS2207)。   The trap thrown away by this character was the hit by the user. The user inputs the utterance “Ron!”, Which is a declaration, to the game system GS through the voice input means 3 (step S2207).

このユーザの行動「ロン」について、ゲームシステムGSはユーザ行動評価処理を行う(ステップS2208)。ユーザ行動評価部800は、このユーザの行動ユーザの行動「ロン」が上述のユーザ行動の評価条件「今から3巡以内にユーザは上がらない」に反すると判定して、感情状態情報管理部700に感情状態情報をユーザに対するキャラクタの感情が悪化するように変更するよう、要求する。感情状態情報管理部700はこの要求に応じて、感情状態情報を変更する。例えば、キャラクタがユーザに対して激怒し、或いはユーザに対する信頼度が低下し、或いはユーザに対する親密度が低下するように、感情状態情報を変更することが考えられる。どのように感情状態情報を変更するかは、ゲームの設定、キャラクタの性格設定、キャラクタが行ったブラフの累積回数などに応じて適宜定めてよい。   For this user action “Ron”, the game system GS performs a user action evaluation process (step S2208). The user behavior evaluation unit 800 determines that the behavior “Ron” of the user's behavior user violates the above-described user behavior evaluation condition “the user will not rise within three rounds from now”, and the emotional state information management unit 700 To change the emotion state information so that the emotion of the character with respect to the user deteriorates. The emotion state information management unit 700 changes the emotion state information in response to this request. For example, it is conceivable that the emotional state information is changed so that the character is furious with respect to the user, the reliability with respect to the user is decreased, or the intimacy with respect to the user is decreased. How to change the emotional state information may be appropriately determined according to the game setting, the character personality setting, the cumulative number of bluffs performed by the character, and the like.

また、ゲームシステムGSは、ユーザ発話「ロン!」に応じて回答文830を出力する(ステップS2210)。この回答文830により、キャラクタの感情が変更されたことをユーザに明示的に伝えるようにしているが、必ずしも明示的に伝えなくともよい。この回答文830に合わせてステップS2209において変更された感情状態情報に基づいてキャラクタ画像の表示制御(怒った表情のキャラクタを表示したり、キャラクタの取り乱している状態を示す動画を表示する、など)を行ってもよい。   In addition, the game system GS outputs an answer sentence 830 in response to the user utterance “Ron!” (Step S2210). Although the answer sentence 830 explicitly notifies the user that the emotion of the character has been changed, it does not necessarily have to be explicitly communicated. Character image display control based on the emotional state information changed in step S2209 in accordance with the answer sentence 830 (such as displaying a character with an angry facial expression or displaying a moving image showing the character's upset state). May be performed.

以降のゲームにおけるユーザとキャラクタの会話はステップS2209において変更された感情状態情報に基づいて行われ、ユーザはブラフに対して感情を変化させたキャラクタの応答を受けることとなり、より自然な反応を示すキャラクタの演出を楽しむことができるようになる。   The conversation between the user and the character in the subsequent game is performed based on the emotional state information changed in step S2209, and the user receives a response from the character whose emotion has been changed with respect to the bluff, and exhibits a more natural reaction. You will be able to enjoy the character performance.

[その他、変形例など]
(1) ユーザ行動評価部800は、ユーザがブラフをかけた回数をカウントしておき、この回数が所定回数を超えた場合に、特別の感情状態情報の変更(例えば、激怒する、何の反応もしなくなる、など)を行ったり、以降ユーザに発話に基づく思考ルーチンの変更を停止する、などの処理を行うようにしてもよい。
[Other variations]
(1) The user behavior evaluation unit 800 counts the number of times that the user has bluffed, and changes the special emotional state information (for example, what reaction is furious when this number exceeds the predetermined number). Or the like may be performed, or the change of the thinking routine based on the utterance is stopped for the user.

ゲームシステムの構成例を示すブロック図Block diagram showing a configuration example of a game system ゲーム装置の構成例を示すブロック図Block diagram showing a configuration example of a game device ゲーム進行制御部の構成例を示すブロック図Block diagram showing a configuration example of the game progress control unit 会話制御装置の構成例を示すブロック図Block diagram showing a configuration example of a conversation control device 音声認識部の構成例を示す機能ブロック図Functional block diagram showing a configuration example of the speech recognition unit 単語仮説絞込部の処理の一例を示すタイミングチャートTiming chart showing an example of processing of the word hypothesis narrowing unit 音声認識部の動作例を示すフロー図Flow diagram showing an example of the operation of the voice recognition unit 会話制御装置の部分拡大ブロック図Partial enlarged block diagram of the conversation control device 文字列とこの文字列から抽出される形態素との関係を示す図The figure which shows the relationship between the character string and the morpheme extracted from this character string 「発話文のタイプ」と、その発話文のタイプを表す二文字のアルファベット、及びその発話文のタイプに該当する発話文の例を示す図The figure which shows the example of the utterance sentence which corresponds to the type of the utterance sentence, the two letter alphabet which shows the type of the utterance sentence, and the type of the utterance sentence 文のタイプとそのタイプを判定するための辞書の関係を示す図The figure which shows the relationship between the type of sentence and the dictionary for judging the type 会話データベースが記憶するデータのデータ構成の一例を示す概念図Conceptual diagram showing an example of the data structure of data stored in the conversation database ある話題特定情報と他の話題特定情報との関連付けを示す図The figure which shows the correlation with a certain topic specific information and other topic specific information 話題タイトルのデータ構成例を示す図Diagram showing data structure example of topic title 回答文のタイプを説明するための図Illustration for explaining the type of response ある話題特定情報に対応付けされた話題タイトル、回答文、感情状態パラメータ、感情フラグ、対応行動フラグの具体例を示す図The figure which shows the specific example of the topic title matched with a certain topic specific information, an answer sentence, an emotion state parameter, an emotion flag, and a corresponding action flag 別の話題特定情報対応付けされた話題タイトル、回答文、感情状態パラメータ、感情フラグ、対応行動フラグの具体例を示す図The figure which shows the specific example of the topic title matched with another topic specific information, an answer sentence, an emotional state parameter, an emotion flag, and a corresponding action flag 感情状態情報のデータ構成例を示す図The figure which shows the data structural example of emotion state information ゲームシステムの主要な動作を示したフローチャートFlow chart showing the main operations of the game system 会話制御処理の例を示したフローチャートFlow chart showing an example of conversation control processing ユーザ行動評価処理の例を示したフローチャートFlow chart showing an example of user behavior evaluation processing ゲームシステムの動作例を示すシーケンス図Sequence diagram showing an operation example of the game system

符号の説明Explanation of symbols

GS … ゲームシステム
1 … 会話制御装置
2 … ゲーム装置
3 … 音声入力手段
4 … 非音声入力手段
5 … 画像出力手段
6 … 音声出力手段
200 … 音声認識部
300 … 会話制御部
400 … 文解析部
500 … 会話データベース
600 … 音声認識辞書記憶部
700 … 感情状態情報管理部
800 … ユーザ行動評価部
GS ... Game system 1 ... Conversation control device 2 ... Game device 3 ... Voice input means 4 ... Non-speech input means 5 ... Image output means 6 ... Voice output means 200 ... Speech recognition unit 300 ... Conversation control unit 400 ... Sentence analysis unit 500 … Conversation database 600… Speech recognition dictionary storage unit 700… Emotion state information management unit 800… User behavior evaluation unit

Claims (9)

ユーザからの発話を受け付ける入力手段と、ユーザからの発話に応答する回答文を出力する会話処理部と、ユーザとキャラクタとの対戦ゲームを実行するゲーム処理部とを有するゲーム機において、
前記ゲーム処理部は、
複数の思考ルーチンを有するとともに、これらの思考ルーチンのうちの1つにしたがって前記キャラクタがとるゲームを進行させる行動を決定するキャラクタ行動決定部を有し、
前記会話処理部は、
前記入力手段により受け付けられたユーザからの発話を当該ユーザからの発話情報として受け取って認識する認識部と、
ユーザと会話処理部との間の会話の話題や主題を特定する情報である談話履歴を記憶する手段と、
1つの文字、複数の文字列又はこれらの組み合わせからなる形態素により構成され且つユーザへの回答文とキャラクタの感情を示す感情状態情報を構成する感情フラグと前記思考ルーチンを指定するための対応行動フラグとを対応付けて成る話題タイトルが対応付けられるとともに前記談話履歴により定まる複数の話題特定情報を記憶する会話データベース手段と、
前記ユーザからの発話情報を、1つの文字、複数の文字列又はこれらの組み合わせからなる形態素に抽出する形態素抽出部と、
前記形態素抽出部で抽出された形態素情報と前記会話データベース手段に記憶された話題特定情報とを照合し、各話題特定情報の中から形態素情報を構成する形態素と一致する話題特定情報を選択することによりユーザに対する前記回答文を選択する手段と、
選択された回答文に対応付けられた感情フラグを受けるとともに、この感情フラグに基づいて感情状態情報を更新する感情状態情報管理部と、
キャラクタ行動決定部の行動決定に関与する思考ルーチンを指定するために、選択された回答文に対応付けられた対応行動フラグを前記キャラクタ行動決定部に出力する手段と、
ユーザの行動を示す情報を受けるとともに、ユーザの発話内容とユーザのとった行動とが一致するかどうかを判定し、その判定結果に基づいて感情状態情報管理部に感情状態情報の更新を行なわせることができるユーザ行動評価部と、
を備えることを特徴とするゲーム機。
In a game machine having input means for receiving an utterance from a user, a conversation processing unit that outputs an answer sentence in response to the utterance from the user, and a game processing unit that executes a battle game between the user and a character,
The game processing unit
Having a plurality of thinking routines, and having a character action determining unit for determining an action to advance the game taken by the character according to one of these thinking routines;
The conversation processing unit
A recognition unit that receives and recognizes the utterance from the user accepted by the input means as the utterance information from the user;
Means for storing a discourse history that is information for identifying a topic or subject of conversation between the user and the conversation processing unit;
An emotion flag that is composed of a morpheme made up of one character, a plurality of character strings, or a combination thereof, and that constitutes an emotional state information indicating an answer sentence to the user and the emotion of the character, and a corresponding action flag for designating the thought routine A conversation database means for storing a plurality of topic identification information determined by the discourse history and a topic title associated with
A morpheme extraction unit that extracts speech information from the user into a morpheme composed of one character, a plurality of character strings, or a combination thereof;
Collating the morpheme information extracted by the morpheme extraction unit with the topic specifying information stored in the conversation database means, and selecting the topic specifying information that matches the morpheme constituting the morpheme information from each topic specifying information Means for selecting the answer sentence to the user by:
An emotion state information management unit that receives an emotion flag associated with the selected answer sentence and updates the emotion state information based on the emotion flag;
Means for outputting a corresponding action flag associated with the selected answer sentence to the character action determining section in order to specify a thought routine involved in the action determination of the character action determining section;
In addition to receiving information indicating the user's behavior, it is determined whether the user's utterance content matches the user's behavior, and the emotional state information management unit updates the emotional state information based on the determination result A user behavior evaluation unit capable of
Game machine, characterized in that it comprises a.
前記ゲーム処理部は、前記感情状態情報に基づいてキャラクタの表示を制御することを特徴とする請求項1に記載のゲーム機。 The game machine according to claim 1 , wherein the game processing unit controls display of a character based on the emotion state information . 発話情報を一連の文字列として認識するとともに、当該文字列を一文節毎に区切る文字列特定部と、
前記文字列特定部で特定された文字列に基づいて発話内容の種類を判定し、その判定結果にしたがって発話種類を示す情報を前記回答文を選択する手段へ出力する入力種類判定部と、
を更に備えることを特徴とする請求項1または請求項2に記載のゲーム機
Along with recognizing speech information as a series of character strings, a character string specifying unit that separates the character strings into one sentence,
An input type determining unit that determines the type of utterance content based on the character string specified by the character string specifying unit, and outputs information indicating the utterance type to the means for selecting the answer sentence according to the determination result;
The game machine according to claim 1, further comprising:
従前の話題特定情報及び前回の回答文に含まれる話題特定情報を利用して前記形態素情報を補完することにより複数種類の補完された形態素情報を生成する省略文補完部を更に備えることを特徴とする請求項1ないし請求項3のいずれか1項に記載のゲーム機 It further comprises an abbreviated sentence complementing unit that generates a plurality of types of complemented morpheme information by complementing the morpheme information using the topic identification information included in the previous topic identification information and the previous answer sentence. The game machine according to any one of claims 1 to 3 . ユーザからの発話を受け付ける入力手段と、ユーザからの発話に応答する回答文を出力する会話処理部と、ユーザとキャラクタとの対戦ゲームを実行するゲーム処理部とを有し、前記ゲーム処理部が、複数の思考ルーチンを有するとともに、これらの思考ルーチンのうちの1つにしたがって前記キャラクタがとるゲームを進行させる行動を決定するキャラクタ行動決定部を有し、前記会話処理部が、ユーザと会話処理部との間の会話の話題や主題を特定する情報である談話履歴を記憶する手段と、1つの文字、複数の文字列又はこれらの組み合わせからなる形態素により構成され且つユーザへの回答文とキャラクタの感情を示す感情状態情報を構成する感情フラグと前記思考ルーチンを指定するための対応行動フラグとを対応付けて成る話題タイトルが対応付けられるとともに前記談話履歴により定まる複数の話題特定情報を記憶する会話データベース手段とを有して成るゲーム機でゲームを実行する方法において、
前記会話処理部の認識部が、前記入力手段により受け付けられたユーザからの発話を当該ユーザからの発話情報として受け取って認識するステップと、
前記会話処理部の形態素抽出部が、前記ユーザからの発話情報を、1つの文字、複数の文字列又はこれらの組み合わせからなる形態素に抽出するステップと、
前記会話処理部の話題特定情報検索部が、前記形態素抽出部で抽出された形態素情報と前記会話データベース手段に記憶された話題特定情報とを照合し、各話題特定情報の中から形態素情報を構成する形態素と一致する話題特定情報を検索するステップと、
前記会話処理部の回答取得部が、話題特定情報検索部で検索された話題特定情報に対応付けられた回答文を取得するステップと、
前記会話処理部の感情状態情報管理部が、前記回答取得部で取得された回答文に対応付けられた感情フラグを受けるとともに、この感情フラグに基づいて感情状態情報を更新するステップと、
前記会話処理部が、前記回答取得部で取得された回答文に対応付けられた対応行動フラグを前記ゲーム処理部の前記キャラクタ行動決定部に出力するステップと、
前記キャラクタ行動決定部が、前記会話処理部から受けた対応行動フラグに基づいて、所定の思考ルーチンを選択するとともに、その選択された思考ルーチンに基づいてキャラクタの行動を決定するステップと、
前記会話処理部のユーザ行動評価部が、ユーザの行動を示す情報を受けるとともに、ユーザの発話内容とユーザのとった行動とが一致するかどうかを判定し、その判定結果に基づいて感情状態情報管理部に感情状態情報の更新を行なわせることができるステップと、
を含む特徴とする方法
An input means for receiving an utterance from a user, comprising: a conversation process unit to output a reply sentence in response to the utterance from a user, and a game processing unit for executing the competition game between the user and the character, the game processing unit And a character action determining unit that determines an action for proceeding with the game taken by the character according to one of these thinking routines, and the conversation processing unit performs conversation processing with the user. An answer sentence to a user and a character composed of means for storing a discourse history that is information for specifying a topic or subject of conversation with a department, and a morpheme composed of one character, a plurality of character strings, or a combination thereof. A topic formed by associating an emotion flag constituting emotion state information indicating an emotion of a person and a corresponding action flag for designating the thought routine A method for executing a game in the game machine comprising and a conversation database means title storing a plurality of topic specifying information determined by the conversation history with associated is,
A step in which the recognition unit of the conversation processing unit receives and recognizes an utterance from a user accepted by the input means as utterance information from the user;
The morpheme extraction unit of the conversation processing unit extracts the utterance information from the user into a morpheme consisting of one character, a plurality of character strings, or a combination thereof;
The topic identification information search unit of the conversation processing unit collates the morpheme information extracted by the morpheme extraction unit with the topic identification information stored in the conversation database unit, and constructs morpheme information from each topic identification information Searching for topic specific information that matches a morpheme to
A step in which an answer acquisition unit of the conversation processing unit acquires an answer sentence associated with the topic identification information searched by the topic identification information search unit;
The emotion state information management unit of the conversation processing unit receives an emotion flag associated with the answer sentence acquired by the answer acquisition unit, and updates the emotion state information based on the emotion flag;
The conversation processing unit outputting a corresponding action flag associated with the answer sentence acquired by the answer acquiring unit to the character action determining unit of the game processing unit;
The character action determining unit selecting a predetermined thinking routine based on the corresponding action flag received from the conversation processing unit, and determining a character action based on the selected thinking routine;
The user behavior evaluation unit of the conversation processing unit receives information indicating the user's behavior, determines whether the user's utterance content matches the user's behavior, and emotion state information based on the determination result A step capable of causing the management unit to update the emotional state information;
A method comprising:
前記会話処理部の形態素抽出部がユーザからの発話情報を形態素に抽出する前記ステップの後、前記会話処理部の文字列特定部が、発話情報を一連の文字列として認識するとともに、当該文字列を一文節毎に区切るステップと、
前記会話処理部の入力種類判定部が、前記文字列特定部で特定された文字列に基づいて発話内容の種類を判定し、その判定結果にしたがって発話種類を示す情報を前記回答取得部へ出力するステップと、
を更に含む請求項5に記載の方法
After the step in which the morpheme extraction unit of the conversation processing unit extracts the utterance information from the user into the morpheme, the character string specifying unit of the conversation processing unit recognizes the utterance information as a series of character strings, and the character string A step for separating each sentence into phrases,
The input type determination unit of the conversation processing unit determines the type of utterance content based on the character string specified by the character string specifying unit, and outputs information indicating the utterance type to the answer acquisition unit according to the determination result And steps to
The method of claim 5 further comprising:
前記会話処理部の話題特定情報検索部が話題特定情報を検索する前記ステップの後、前記会話処理部の省略文補完部が、従前の話題特定情報及び前回の回答文に含まれる話題特定情報を利用して前記形態素情報を補完することにより複数種類の補完された形態素情報を生成するステップを更に含むことを特徴とする請求項5または請求項6に記載の方法。After the step in which the topic specifying information search unit of the conversation processing unit searches for topic specifying information, the abbreviated sentence complementing unit of the conversation processing unit determines the topic specifying information included in the previous topic specifying information and the previous answer sentence. The method according to claim 5, further comprising generating a plurality of types of complemented morpheme information by using the complement of the morpheme information. 請求項1ないし請求項4のいずれか1項に記載のゲーム機としてコンピュータを機能させるためのプログラム。 The program for functioning a computer as a game machine of any one of Claim 1 thru | or 4 . 請求項5ないし請求項7のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。 The program for making a computer perform the method of any one of Claim 5 thru | or 7 .
JP2003358075A 2003-10-17 2003-10-17 GAME MACHINE, GAME EXECUTION METHOD, AND PROGRAM FOR THEM Expired - Fee Related JP4204044B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003358075A JP4204044B2 (en) 2003-10-17 2003-10-17 GAME MACHINE, GAME EXECUTION METHOD, AND PROGRAM FOR THEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003358075A JP4204044B2 (en) 2003-10-17 2003-10-17 GAME MACHINE, GAME EXECUTION METHOD, AND PROGRAM FOR THEM

Publications (2)

Publication Number Publication Date
JP2005118372A JP2005118372A (en) 2005-05-12
JP4204044B2 true JP4204044B2 (en) 2009-01-07

Family

ID=34614772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003358075A Expired - Fee Related JP4204044B2 (en) 2003-10-17 2003-10-17 GAME MACHINE, GAME EXECUTION METHOD, AND PROGRAM FOR THEM

Country Status (1)

Country Link
JP (1) JP4204044B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009057186A1 (en) * 2007-10-29 2009-05-07 Osaka Electro-Communication University Chat system, game system, computer program, recording medium including computer program recorded therein, and chat processing method
JP7242175B2 (en) * 2017-12-05 2023-03-20 株式会社バンダイナムコエンターテインメント game system and program
CN112742024B (en) * 2020-08-20 2023-02-10 腾讯科技(深圳)有限公司 Virtual object control method, device, equipment and storage medium
CN112569606A (en) * 2020-12-24 2021-03-30 厦门极致互动网络技术股份有限公司 Management system for online game behavior logs

Also Published As

Publication number Publication date
JP2005118372A (en) 2005-05-12

Similar Documents

Publication Publication Date Title
JP4846336B2 (en) Conversation control device
JP4849663B2 (en) Conversation control device
JP4888996B2 (en) Conversation control device
JP4849662B2 (en) Conversation control device
CN1321401C (en) Speech recognition apparatus, speech recognition method, conversation control apparatus, conversation control method
JP5149737B2 (en) Automatic conversation system and conversation scenario editing device
JP2007114621A (en) Conversation controller
JP2005157494A (en) Conversation control apparatus and conversation control method
Pichl et al. Alquist: The alexa prize socialbot
WO2003085550A1 (en) Conversation control system and conversation control method
JP2003210833A (en) Conversation game system, conversation game method and program
JP4204044B2 (en) GAME MACHINE, GAME EXECUTION METHOD, AND PROGRAM FOR THEM
JP4475628B2 (en) Conversation control device, conversation control method, and program thereof
JP2011065403A (en) Interactive personality feature determination device, method thereof, and program
JP4204043B2 (en) Game machine, game execution method, and program
JP4204041B2 (en) Game machine, game execution method, and program
JP4204042B2 (en) Game machine, game execution method, and program
JP2005122549A (en) Conversation control device and conversation control method
JP2005118371A (en) Game machine
JP5378717B2 (en) Conversation control system and terminal device
Lin Character modeling through dialogue for expressive Natural Language Generation
Song et al. Topic control in a free conversation system
JP2005099604A (en) Conversation control apparatus, conversation control method, and game system
JP2004017269A (en) Robot controlling equipment, robot control process, and program
JP2004073668A (en) Racing game device, racing game control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060809

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081009

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081010

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4204044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131024

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees