JP2002041084A - Interactive speech processing system - Google Patents
Interactive speech processing systemInfo
- Publication number
- JP2002041084A JP2002041084A JP2000225091A JP2000225091A JP2002041084A JP 2002041084 A JP2002041084 A JP 2002041084A JP 2000225091 A JP2000225091 A JP 2000225091A JP 2000225091 A JP2000225091 A JP 2000225091A JP 2002041084 A JP2002041084 A JP 2002041084A
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- user
- information
- attribute information
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、人間と対話するユ
ーザインタフェースの一つである対話処理システムに関
し、特に、自然言語で人間と対話するための応答発話生
成方法に特徴を有する対話処理システムに関するもので
ある。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a dialogue processing system which is one of user interfaces for interacting with humans, and more particularly to a dialogue processing system characterized by a method for generating a response utterance for interacting with humans in a natural language. Things.
【0002】[0002]
【従来の技術】従来の対話型ユーザインタフェースにお
いては、使用者を個人として扱い、使用者に応じて言葉
遣いや声の調子を変えることによって、話し掛けている
相手が誰であるかを使用者に知らせたり親しみ易さを与
えることが難しかった。これを解決する方法として、使
用者の年齢・性別・心理的距離等の属性を推定し、使用
者の属性に基づいて言葉使いや声の調子、話す内容を変
えることの出来る発話方法が特開平11−175081
として提案されている。2. Description of the Related Art In a conventional interactive user interface, a user is treated as an individual, and by changing the wording and tone of the voice according to the user, it is possible to inform the user of the person who is talking to the user. It was difficult to inform and give friendliness. As a method of solving this, Japanese Patent Laid-Open Publication No. Heisei 9 (1999) discloses an utterance method capable of estimating attributes such as a user's age, gender, and psychological distance, and changing the wording, tone of voice, and speaking content based on the attributes of the user. 11-175081
It has been proposed as.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上記提
案の方法においては、使用者属性のみに着目しており、
実際の対話場面における使用者の反応をフィードバック
することが考慮されていない。年代、性別、使用回数等
の属性を同じくする使用者であっても、話し方や話題の
好みはそれぞれ異なり、また、その時の気分によっても
異なるものとなる。これらは使用者自身の話し方や態度
に反映されるものであり、使用者属性のみでは個々の使
用者やその時々に適した応答発話の生成は困難である。
従って、使用者の話し方や態度を基にその時々の使用者
に相応しい発話応答を行うインタフェースを提供するこ
とが課題であった。However, in the method proposed above, attention is paid only to the user attributes.
No consideration is given to feedback of the user's reaction in the actual dialogue scene. Even users who have the same attributes such as age, gender, and number of times of use have different ways of talking and preferences of topics, and also differ depending on their mood. These are reflected in the user's own way of speaking and attitude, and it is difficult to generate a response utterance suitable for each user and each time only by the user attributes.
Therefore, it has been a problem to provide an interface that performs a speech response appropriate to the user at that time based on the user's speech style and attitude.
【0004】そこで本発明は、使用者属性に加え、使用
者の発話内容や話し方(使用者の発話の属性情報)とシ
ステムの発話応答の対応から使用者プロファイルを作成
し、使用者に応じた話し方及び内容の発話を行うと共
に、その時々の使用者の状況に応じた話し方及び内容の
発話を行ことが出来る親しみ易い対話処理システムを提
供することを目的とする。Accordingly, the present invention creates a user profile based on the correspondence between the user's utterance content and manner of speech (attribute information of the user's utterance) and the utterance response of the system, in addition to the user attributes, and responds to the user. An object of the present invention is to provide a friendly dialogue processing system capable of speaking and describing speech and contents according to the situation of a user at each time.
【0005】[0005]
【課題を解決するための手段】そこで、上記課題を解決
するために本発明は、下記の対話処理システムを提供す
るものである。 (1) 使用者の属性情報を推定する使用者特徴推定手
段と、前記使用者の発話から得られる言語的な意味表現
情報を含む前記使用者の発話の属性情報を推定する使用
者発話特徴推定手段と、前記使用者の属性情報及び前記
使用者の発話の属性情報を使用者毎に格納する使用者プ
ロファイル格納手段と、前記使用者の属性情報及び前記
使用者の発話の属性情報に基づいて、応答発話の内容を
決定する発話内容決定手段と、前記使用者の属性情報、
前記使用者の発話の属性情報、及び前記応答発話の内容
に基づいて、応答発話の特徴を設定する発話特徴決定手
段と、前記決定された応答発話の内容、及び前記設定さ
れた応答発話の特徴に基づいて発話出力する発話手段
と、を備えたことを特徴とする対話処理システム。 (2) 前記使用者発話特徴推定手段で推定される前記
使用者の発話の属性情報は、前記言語的な意味表現情報
に加え、前記使用者の発話から得られる韻律情報及び言
葉遣い情報の内の少なくとも一方の情報を含むことを特
徴とする請求項1記載の対話処理システム。 (3) 前記使用者の属性情報及び前記使用者の発話の
属性情報は、使用者の使用毎に前記使用者プロファイル
格納手段に追加格納され、前記発話内容決定手段が前記
応答発話の内容を決定する動作、及び前記発話特徴決定
手段が前記応答発話の特徴を決定する動作の内の少なく
とも一方の動作が、前記格納される使用者の属性情報及
び使用者の発話の属性情報の変化に基づいて行われるこ
とを特徴とする請求項1または2記載の対話処理システ
ム。Therefore, in order to solve the above problems, the present invention provides the following interactive processing system. (1) User feature estimating means for estimating user attribute information, and user utterance feature estimation for estimating attribute information of the user utterance including linguistic semantic expression information obtained from the user utterance Means, user profile storage means for storing the attribute information of the user and the attribute information of the utterance of the user for each user, based on the attribute information of the user and the attribute information of the utterance of the user Utterance content determining means for determining the content of the response utterance, and attribute information of the user,
Utterance feature determining means for setting the characteristics of the response utterance based on the attribute information of the user's utterance and the content of the response utterance, and the content of the determined response utterance and the characteristic of the set response utterance And an utterance unit for outputting an utterance based on the utterance. (2) The attribute information of the utterance of the user estimated by the user utterance feature estimating means includes, in addition to the linguistic semantic expression information, prosody information and wording information obtained from the utterance of the user. 2. The interactive processing system according to claim 1, further comprising at least one of the following information. (3) The attribute information of the user and the attribute information of the utterance of the user are additionally stored in the user profile storage unit for each use of the user, and the utterance content determination unit determines the content of the response utterance. And at least one of the operations in which the utterance feature determination unit determines the characteristics of the response utterance are performed based on changes in the stored attribute information of the user and attribute information of the utterance of the user. 3. The interactive processing system according to claim 1, wherein the interactive processing is performed.
【0006】[0006]
【発明の実施の形態】本発明の実施の形態を図を用いて
説明する。図1に本発明の対話処理システムの一実施例
の基本構成を示す。本対話処理システムは使用者特徴推
定手段1、使用者発話特徴推定手段2、使用者プロファ
イル格納手段3、発話内容決定手段4、発話特徴決定手
段5、発話手段6を備えている。DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a basic configuration of an embodiment of the interactive processing system of the present invention. The interactive processing system includes a user feature estimating unit 1, a user uttering feature estimating unit 2, a user profile storing unit 3, an uttering content determining unit 4, an uttering feature determining unit 5, and an uttering unit 6.
【0007】使用者発話特徴推定手段2では、使用者の
発話から言語解析を行い使用者の発話内容を推定すると
共に使用者の言葉遣い、口調等の発話特徴を推定する。
これらの情報は使用者発話情報(使用者の発話の属性情
報)として使用者プロファイル格納手段3に格納され、
発話内容決定手段4及び発話特徴決定手段5に送られ
る。使用者特徴推定手段1では、使用者の外観から性別
・年代等の特徴を推定する。使用者がリピーターの場合
は、使用者を特定する。これらの情報は使用者情報(使
用者の属性情報)として使用者プロファイル格納手段3
に格納され、発話内容決定手段4及び発話特徴決定手段
5に送られる。使用者プロファイル格納手段3では、使
用者発話情報と使用者情報を格納し、発話内容決定手段
4及び発話特徴決定手段5に送る。発話内容決定手段4
では、使用者発話情報と使用者情報を元に発話内容を決
定する。発話内容は発話内容情報として、発話特徴決定
手段5及び発話手段6に送られる。発話特徴決定手段5
では、使用者発話情報と使用者情報と発話内容情報を元
に、現在の使用者及び発話内容に適した言葉遣い、口調
等の特徴を決定する。これらの特徴は発話特徴情報とし
て発話手段6に送られる。発話手段6では、発話内容情
報と発話特徴情報を元に、自然言語による発話を生成し
使用者に対し応答出力する。The user utterance feature estimating means 2 performs language analysis from the utterance of the user to estimate the content of the utterance of the user, and also estimates the utterance features such as the user's speech and tone.
These pieces of information are stored in the user profile storage unit 3 as user utterance information (attribute information of the user's utterance),
It is sent to the utterance content determining means 4 and the utterance feature determining means 5. The user characteristic estimating means 1 estimates characteristics such as gender and age from the appearance of the user. If the user is a repeater, identify the user. These information are stored as user information (user attribute information) in the user profile storage unit 3.
And sent to the utterance content determination means 4 and the utterance feature determination means 5. The user profile storage unit 3 stores the user utterance information and the user information and sends them to the utterance content determination unit 4 and the utterance feature determination unit 5. Utterance content determination means 4
Then, the utterance content is determined based on the user utterance information and the user information. The utterance content is sent to the utterance feature determination means 5 and the utterance means 6 as utterance content information. Utterance feature determination means 5
Then, based on the user utterance information, the user information, and the utterance content information, characteristics such as wording and tone suitable for the current user and the utterance content are determined. These features are sent to the speech means 6 as speech feature information. The utterance means 6 generates an utterance in a natural language based on the utterance content information and the utterance feature information, and outputs a response to the user.
【0008】本発明の一実施例のより詳しい構成を図2
に示す。使用者発話特徴推定手段2には音声入力手段2
3、音声言語解析手段22、韻律推定手段25、言葉遣
い推定手段24、言語解析辞書21、韻律照合辞書2
7、言葉遣い照合辞書26を用いる。使用者特徴推定手
段1には画像入力手段11、使用者識別手段13、年齢
推定手段14、性別推定手段15、年齢照合辞書16、
性別照合辞書17、使用者照合辞書12を用いる。使用
者プロファイル格納手段3には、対話履歴格納手段3
3、使用者発話特徴格納手段31、使用者情報格納手段
32を用いる。FIG. 2 shows a more detailed configuration of one embodiment of the present invention.
Shown in The user utterance feature estimating means 2 includes a voice input means 2
3. Speech language analysis means 22, prosody estimation means 25, wording estimation means 24, language analysis dictionary 21, prosody matching dictionary 2
7. Use the wording collation dictionary 26. The user feature estimating means 1 includes an image input means 11, a user identifying means 13, an age estimating means 14, a gender estimating means 15, an age collation dictionary 16,
The gender matching dictionary 17 and the user matching dictionary 12 are used. The user profile storage means 3 includes a dialog history storage means 3
3. User utterance feature storage means 31 and user information storage means 32 are used.
【0009】発話内容決定手段4には発話内容選択手段
41、発話内容データベース42を用いる。発話特徴決
定手段5には発話特徴設定手段51、発話特徴データベ
ース52を用いる。発話手段6には発話文生成手段6
1、発話音声生成手段63、音声出力手段65、発話画
像生成手段62、画像出力手段64を用いる。The utterance content determination means 4 uses an utterance content selection means 41 and an utterance content database 42. The utterance feature determination unit 5 uses an utterance feature setting unit 51 and an utterance feature database 52. The utterance means 6 includes an utterance sentence generation means 6
1. Utterance voice generation means 63, voice output means 65, utterance image generation means 62, and image output means 64 are used.
【0010】以下に、これらの構成を用いた対話処理の
流れを説明する。使用者特徴推定手段1では、使用者の
映った画像から、外見から使用者を特定すると共に、使
用者の特徴を推定する。使用者がシステムの前に姿を現
わすと、画像入力手段11から使用者の画像を入力し、
人物画像データを使用者識別手段13、年齢推定手段1
4、性別推定手段15に送る。使用者識別手段13で
は、人物画像データを使用者照合辞書12と照合し、既
に使用者登録された使用者であれば、使用者を特定し、
使用者識別情報を使用者情報格納手段32に格納すると
共に年齢推定手段14及び性別推定手段15に送る。新
規の使用者であれば新しい使用者識別情報を生成し、使
用者情報格納手段32に格納する。使用者識別情報は、
発話内容決定手段4及び発話特徴決定手段5に送られ
る。Hereinafter, the flow of the interactive processing using these configurations will be described. The user feature estimating means 1 identifies the user from the appearance of the user and visually estimates the user's features. When the user appears in front of the system, an image of the user is input from the image input means 11,
The person image data is used by the user identifying means 13 and the age estimating means 1
4. Send to gender estimation means 15. The user identification means 13 compares the person image data with the user collation dictionary 12 and identifies the user if the user is already registered,
The user identification information is stored in the user information storage means 32 and sent to the age estimating means 14 and the gender estimating means 15. If the user is a new user, new user identification information is generated and stored in the user information storage means 32. User identification information
It is sent to the utterance content determining means 4 and the utterance feature determining means 5.
【0011】人物画像データの内、使用者識別に用いる
照合情報は使用者照合辞書12に蓄積される。年齢推定
手段14では、人物画像データを年齢照合辞書16と照
合して年齢を推定し、使用者情報格納手段32に格納す
る。使用者識別情報が与えられている場合は、使用者情
報格納手段32から年齢情報を取り出し参照する。推定
年齢が取り出した年齢情報と異なる場合は、使用者情報
格納手段32に年齢情報を送り年齢情報を追加する。こ
の推定年齢変化情報は、発話内容決定時に使用可能とな
る。性別推定手段15では、人物画像データを性別照合
辞書17と照合して性別を推定し、使用者情報格納手段
32に格納する。使用者識別情報が与えられている場合
は、使用者情報格納手段32から性別情報を取り出し参
照する。推定性別が取り出した性別情報と異なる場合
は、使用者情報格納手段32に推定した性別情報を送り
性別情報を追加する。この推定性別変化情報は、発話内
容決定時に使用可能となる。[0011] Of the person image data, collation information used for user identification is stored in the user collation dictionary 12. The age estimating means 14 compares the person image data with the age collation dictionary 16 to estimate the age and stores it in the user information storage means 32. If the user identification information has been given, the age information is extracted from the user information storage means 32 and is referred to. If the estimated age is different from the extracted age information, the age information is sent to the user information storage means 32 and the age information is added. This estimated age change information can be used when the utterance content is determined. The gender estimating unit 15 estimates the gender by comparing the person image data with the gender matching dictionary 17, and stores it in the user information storage unit 32. If the user identification information is given, the gender information is extracted from the user information storage means 32 and is referred to. If the estimated gender is different from the extracted gender information, the estimated gender information is sent to the user information storage means 32 and the gender information is added. This estimated gender change information can be used when determining the utterance content.
【0012】使用者発話特徴推定手段2では、使用者の
発話音声から発話の内容及び話し方の特徴を推定する。
使用者がシステムに話し掛けると音声入力手段23から
使用者の発話音声を入力し音声データとして音声言語解
析手段22、韻律推定手段25に送る。音声言語解析手
段22では、言語解析辞書21を用いて使用者の発話を
音声認識・解析し使用者発話内容情報を推定する。省略
表現等を含む発話やいろいろな意味に解釈可能な発話に
関しては、対話履歴格納手段33から過去の対話内容を
取り出し、意味を補って解析する。使用者発話内容情報
は対話履歴格納手段33に格納する。解析結果の形態素
情報は韻律推定手段25及び言葉遣い推定手段24に送
られる。韻律推定手段25では、音声データと形態素情
報から韻律照合辞書27を用いて使用者の発話音声の大
きさ、速さ、ピッチ等を抽出して韻律的な特徴を推定
し、使用者発話特徴格納手段31に格納する。言葉遣い
推定手段24では形態素情報から言葉遣い照合辞書26
を用いて使用者の言葉遣いの特徴を推定し、使用者発話
特徴格納手段31に格納する。言葉遣いの特徴の例とし
ては、敬語、若者言葉、方言等が挙げられる。The user utterance feature estimating means 2 estimates the content of the utterance and the features of the speech from the utterance voice of the user.
When the user speaks to the system, the user's uttered voice is input from the voice input unit 23 and sent to the voice language analysis unit 22 and the prosody estimation unit 25 as voice data. The speech language analysis unit 22 uses the language analysis dictionary 21 to recognize and analyze the speech of the user, and estimates user speech content information. For utterances including abbreviated expressions or utterances that can be interpreted in various meanings, the contents of past dialogues are extracted from the dialogue history storage means 33, and the meanings are supplemented and analyzed. The user utterance content information is stored in the conversation history storage unit 33. The morphological information of the analysis result is sent to the prosody estimation unit 25 and the wording estimation unit 24. The prosody estimating means 25 extracts the loudness, speed, pitch, etc. of the user's uttered voice from the voice data and the morphological information using the prosody matching dictionary 27, estimates prosodic features, and stores the user's utterance features. It is stored in the means 31. The wording estimation unit 24 uses the word matching dictionary 26 based on the morpheme information.
Is used to estimate the features of the user's wording, and stored in the user utterance feature storage means 31. Examples of the characteristics of wording include honorific words, youth words, and dialects.
【0013】使用者プロファイル格納手段3では、対話
履歴格納手段33、使用者発話特徴格納手段31、使用
者情報格納手段32への格納情報を相互に対応づけて格
納する。それぞれの格納情報は、発話内容決定手段4及
び発話特徴決定手段5から参照することが出来る。The user profile storing means 3 stores information stored in the dialog history storing means 33, the user utterance feature storing means 31, and the user information storing means 32 in association with each other. The respective stored information can be referred to from the utterance content determining means 4 and the utterance feature determining means 5.
【0014】発話内容決定手段4では、使用者識別情報
を元に対話履歴格納手段33より過去の対話内容情報及
び使用者発話内容情報を、使用者発話特徴格納手段31
より使用者発話特徴情報を、使用者情報格納手段32よ
り使用者情報を取り出す。発話内容選択手段41で、こ
れらの情報を元に発話内容データベース42から発話内
容を選択する。発話内容は対話履歴格納手段35に格納
される。The utterance content determining means 4 stores past dialog content information and user utterance content information from the dialog history storage means 33 based on the user identification information, and stores the user utterance feature storing means 31.
The user utterance feature information is extracted from the user information storage means 32. The utterance content selecting means 41 selects the utterance content from the utterance content database 42 based on the information. The utterance contents are stored in the dialog history storage unit 35.
【0015】発話特徴決定手段5では、使用者識別情報
を元に対話履歴格納手段33より過去の対話内容情報及
び使用者発話内容情報に加え、発話内容決定手段4で決
定した発話内容情報、使用者発話特徴格納手段31より
使用者発話特徴情報、使用者情報格納手段32より使用
者情報を取り出す。発話特徴設定手段51で、これらの
情報を元に発話特徴データベース52から発話特徴パラ
メータを取り出し発話特徴を設定し、発話内容情報と共
に発話手段6に送る。発話特徴情報はまた、対話履歴格
納手段33に格納される。The utterance feature determination means 5 adds the past utterance content information and the user utterance content information from the dialog history storage means 33 based on the user identification information, and the utterance content information determined by the utterance content determination means 4, User utterance feature information is extracted from the user utterance feature storage means 31 and user information is extracted from the user information storage means 32. The utterance feature setting means 51 extracts utterance feature parameters from the utterance feature database 52 based on the information, sets utterance features, and sends the utterance features to the utterance means 6 together with the utterance content information. The utterance feature information is also stored in the conversation history storage unit 33.
【0016】発話手段6では、発話情報を元に発話出力
を行う。発話文生成手段61では、発話情報を元に実際
に発話する文を生成する。発話音声生成手段63では、
発話文を発話特徴情報で設定された発話特徴を有する音
声とし、音声出力手段65から音声出力する。発話画像
生成手段62では、発話文と発話特徴情報から、発話内
容及び発話特徴に適した画像、例えば、発話特徴に合っ
た表情で話すエージェントの画像等を生成し、画像出力
手段64より出力する。The utterance means 6 outputs an utterance based on the utterance information. The utterance sentence generating means 61 generates a sentence that is actually uttered based on the utterance information. In the utterance sound generation means 63,
The utterance sentence is converted into a voice having the utterance feature set by the utterance feature information, and the voice output unit 65 outputs the voice. The utterance image generation unit 62 generates an image suitable for the utterance content and the utterance feature, for example, an image of an agent speaking with an expression matching the utterance feature, from the utterance sentence and the utterance feature information, and outputs the image from the image output unit 64. .
【0017】この方法による発話内容決定の例として、
使用者に適すると予測される書籍を紹介する情報案内シ
ステムの応答発話生成を考える。初めて使用する使用者
の場合は、推定年齢、性別、発話特徴から、同じ特徴を
持つ使用者の平均的な好みを初期値として与え、既に使
用したことのある使用者の場合は、前回迄の使用者情報
及び対話履歴を元に初期値を設定する。発話内容及び発
話特徴はこの初期値を元にして、対話の流れ即ち対話履
歴と使用者の発話特徴及びその変化により決定する。シ
ステムは使用者の話し方に合わせた言葉遣いや韻律で話
すことが出来る。以前に使用したことのある使用者に関
して前回と発話特徴が変化している場合、応答の発話内
容及び発話特徴はこの変化から使用者の状態を推測し、
これを反映したものとなる。As an example of utterance content determination by this method,
Consider a response utterance generation of an information guidance system for introducing a book predicted to be suitable for a user. For the first time user, give the average preference of the user with the same characteristics as the initial value from the estimated age, gender, and utterance characteristics, and for the user who has already used, Initial values are set based on user information and conversation history. The utterance contents and the utterance characteristics are determined based on the initial values based on the flow of the dialogue, that is, the dialogue history, the utterance characteristics of the user and the change thereof. The system can speak in the language and the prosody that match the user's way of speaking. If the utterance feature has changed from the previous one for the user who has used before, the utterance content and utterance feature of the response infer the user's state from this change,
It reflects this.
【0018】例えば、使用者が従来に比べ小さく低い声
で不明瞭に話した場合、使用者が元気が無さそうだと判
断し、使用者の好みの初期値及び対話により得られた条
件に加え、元気の出る内容の書籍を紹介することが出来
る。或いは使用者が従来に比べ早口で丁寧でない言葉遣
いで話した場合、使用者が忙しそうだと判断し、使用者
の好みの初期値及び対話により得られた条件に加え、携
帯に適した短編の文庫本を紹介することが出来る。For example, if the user speaks unclearly with a lower voice than the conventional one, it is determined that the user seems to be invigorating, and in addition to the initial values of the user's preferences and the conditions obtained by the dialogue, You can introduce books with energetic content. Alternatively, if the user speaks faster and less politely than before, it is determined that the user is likely to be busy, and in addition to the initial value of the user's preference and the conditions obtained through the dialogue, a short story suitable for carrying We can introduce paperback books.
【0019】[0019]
【発明の効果】以上の通り、本発明の対話処理システム
は、使用者属性に加え、使用者の発話内容や話し方(使
用者の発話属性)から使用者プロファイルを作成し、こ
の情報を元に発話内容及び発話の仕方を決めることによ
り、使用者に応じた内容及び話し方の発話を行うことが
出来る。更に、本発明の対話処理システムは、格納され
た情報の変化を元に発話内容及び発話の仕方を決めるこ
とにより、その時々の使用者の状態や気分に応じた内容
及び話し方の発話を行うことが出来る。これにより、使
用者一人一人のその時々に応じた応答を行う、親しみ易
い対話型ユーザインタフェースを提供することが出来
る。As described above, the interactive processing system of the present invention creates a user profile based on the user's utterance content and manner of speaking (user's utterance attribute) in addition to the user's attributes, and based on this information. By determining the utterance content and the manner of utterance, it is possible to utter the content and the way of speaking according to the user. Furthermore, the dialogue processing system of the present invention determines the utterance content and the manner of utterance based on the change of the stored information, thereby performing the utterance of the content and the manner of speech according to the state and mood of the user at each time. Can be done. As a result, it is possible to provide an intuitive interactive user interface that responds to each user at each time.
【図1】対話処理システムの一実施例の基本構成を示す
図である。FIG. 1 is a diagram illustrating a basic configuration of an embodiment of a dialog processing system.
【図2】対話処理システムの一実施例の詳細な構成を示
す図である。FIG. 2 is a diagram showing a detailed configuration of one embodiment of a dialog processing system.
1 使用者特徴推定手段 2 使用者発話特徴推定手段 3 使用者プロファイル格納手段 4 発話内容決定手段 5 発話特徴決定手段 6 発話手段 REFERENCE SIGNS LIST 1 user feature estimating means 2 user uttering feature estimating means 3 user profile storing means 4 utterance content determining means 5 uttering feature determining means 6 uttering means
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 551P 15/28 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 15/00 G10L 3/00 551P 15/28
Claims (3)
定手段と、 前記使用者の発話から得られる言語的な意味表現情報を
含む前記使用者の発話の属性情報を推定する使用者発話
特徴推定手段と、 前記使用者の属性情報及び前記使用者の発話の属性情報
を使用者毎に格納する使用者プロファイル格納手段と、 前記使用者の属性情報及び前記使用者の発話の属性情報
に基づいて、応答発話の内容を決定する発話内容決定手
段と、 前記使用者の属性情報、前記使用者の発話の属性情報、
及び前記応答発話の内容に基づいて、応答発話の特徴を
設定する発話特徴決定手段と、 前記決定された応答発話の内容、及び前記設定された応
答発話の特徴に基づいて発話出力する発話手段と、を備
えたことを特徴とする対話処理システム。1. A user feature estimating means for estimating attribute information of a user, and a user utterance for estimating attribute information of the utterance of the user including linguistic meaning expression information obtained from the utterance of the user. A feature estimating unit, a user profile storing unit that stores the attribute information of the user and the attribute information of the utterance of the user for each user, and an attribute information of the user and the attribute information of the utterance of the user. Utterance content determining means for determining the content of the response utterance based on the attribute information of the user, the attribute information of the utterance of the user,
And utterance feature determining means for setting characteristics of the response utterance based on the content of the response utterance; and utterance means for outputting an utterance based on the content of the determined response utterance and the characteristic of the set response utterance. An interactive processing system comprising:
前記使用者の発話の属性情報は、前記言語的な意味表現
情報に加え、前記使用者の発話から得られる韻律情報及
び言葉遣い情報の内の少なくとも一方の情報を含むこと
を特徴とする請求項1記載の対話処理システム。2. The user utterance attribute information estimated by the user utterance feature estimating means includes, in addition to the linguistic meaning expression information, prosody information and wording information obtained from the utterance of the user. 2. The interactive processing system according to claim 1, further comprising at least one of the following information.
話の属性情報は、使用者の使用毎に前記使用者プロファ
イル格納手段に追加格納され、 前記発話内容決定手段が前記応答発話の内容を決定する
動作、及び前記発話特徴決定手段が前記応答発話の特徴
を決定する動作の内の少なくとも一方の動作が、前記格
納される使用者の属性情報及び使用者の発話の属性情報
の変化に基づいて行われることを特徴とする請求項1ま
たは2記載の対話処理システム。3. The attribute information of the user and the attribute information of the utterance of the user are additionally stored in the user profile storage means for each use of the user, and the utterance content determination means determines the content of the response utterance. And at least one of the operations in which the utterance feature determination means determines the characteristics of the response utterance are caused by changes in the stored attribute information of the user and attribute information of the utterance of the user. 3. The interactive processing system according to claim 1, wherein the interactive processing is performed based on the information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000225091A JP2002041084A (en) | 2000-07-26 | 2000-07-26 | Interactive speech processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000225091A JP2002041084A (en) | 2000-07-26 | 2000-07-26 | Interactive speech processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002041084A true JP2002041084A (en) | 2002-02-08 |
Family
ID=18718926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000225091A Pending JP2002041084A (en) | 2000-07-26 | 2000-07-26 | Interactive speech processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002041084A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002169591A (en) * | 2000-12-01 | 2002-06-14 | Namco Ltd | Simulated conversation system and information storage medium |
JP2005062420A (en) * | 2003-08-11 | 2005-03-10 | Nec Corp | System, method, and program for content generation |
JP2006011316A (en) * | 2004-06-29 | 2006-01-12 | Kokichi Tanihira | Virtual conversational system |
JP2011217018A (en) * | 2010-03-31 | 2011-10-27 | Oki Networks Co Ltd | Voice response apparatus, and program |
JP2015514254A (en) * | 2012-04-27 | 2015-05-18 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. | Audio input from user |
JP2016038501A (en) * | 2014-08-08 | 2016-03-22 | 国立大学法人京都大学 | Voice interactive method and voice interactive system |
WO2019044534A1 (en) * | 2017-08-31 | 2019-03-07 | ソニー株式会社 | Information processing device and information processing method |
JP2019061050A (en) * | 2017-09-26 | 2019-04-18 | カシオ計算機株式会社 | Interaction apparatus, interaction method, and program |
JP2019220022A (en) * | 2018-06-21 | 2019-12-26 | カシオ計算機株式会社 | Interactive device, interactive device control method, and program |
JP2020034895A (en) * | 2018-08-30 | 2020-03-05 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | Responding method and device |
CN110930998A (en) * | 2018-09-19 | 2020-03-27 | 上海博泰悦臻电子设备制造有限公司 | Voice interaction method and device and vehicle |
-
2000
- 2000-07-26 JP JP2000225091A patent/JP2002041084A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002169591A (en) * | 2000-12-01 | 2002-06-14 | Namco Ltd | Simulated conversation system and information storage medium |
JP2005062420A (en) * | 2003-08-11 | 2005-03-10 | Nec Corp | System, method, and program for content generation |
JP2006011316A (en) * | 2004-06-29 | 2006-01-12 | Kokichi Tanihira | Virtual conversational system |
JP2011217018A (en) * | 2010-03-31 | 2011-10-27 | Oki Networks Co Ltd | Voice response apparatus, and program |
US9626150B2 (en) | 2012-04-27 | 2017-04-18 | Hewlett-Packard Development Company, L.P. | Audio input from user |
JP2015514254A (en) * | 2012-04-27 | 2015-05-18 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. | Audio input from user |
JP2016038501A (en) * | 2014-08-08 | 2016-03-22 | 国立大学法人京都大学 | Voice interactive method and voice interactive system |
WO2019044534A1 (en) * | 2017-08-31 | 2019-03-07 | ソニー株式会社 | Information processing device and information processing method |
JPWO2019044534A1 (en) * | 2017-08-31 | 2020-11-19 | ソニー株式会社 | Information processing device and information processing method |
JP2019061050A (en) * | 2017-09-26 | 2019-04-18 | カシオ計算機株式会社 | Interaction apparatus, interaction method, and program |
JP2019220022A (en) * | 2018-06-21 | 2019-12-26 | カシオ計算機株式会社 | Interactive device, interactive device control method, and program |
JP7172168B2 (en) | 2018-06-21 | 2022-11-16 | カシオ計算機株式会社 | Dialogue device, dialogue device control method and program |
JP2020034895A (en) * | 2018-08-30 | 2020-03-05 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | Responding method and device |
US11475897B2 (en) | 2018-08-30 | 2022-10-18 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for response using voice matching user category |
CN110930998A (en) * | 2018-09-19 | 2020-03-27 | 上海博泰悦臻电子设备制造有限公司 | Voice interaction method and device and vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4085130B2 (en) | Emotion recognition device | |
Theune et al. | Generating expressive speech for storytelling applications | |
Levitan et al. | Implementing Acoustic-Prosodic Entrainment in a Conversational Avatar. | |
US6725199B2 (en) | Speech synthesis apparatus and selection method | |
JP3083640B2 (en) | Voice synthesis method and apparatus | |
US7062440B2 (en) | Monitoring text to speech output to effect control of barge-in | |
KR100590553B1 (en) | Method and apparatus for generating dialog prosody structure and speech synthesis method and system employing the same | |
US7191132B2 (en) | Speech synthesis apparatus and method | |
US20060229873A1 (en) | Methods and apparatus for adapting output speech in accordance with context of communication | |
US20040049375A1 (en) | Speech synthesis apparatus and method | |
JP3581881B2 (en) | Voice complement method, apparatus and recording medium | |
JP2001215993A (en) | Device and method for interactive processing and recording medium | |
JP4729902B2 (en) | Spoken dialogue system | |
JP6720520B2 (en) | Emotion estimator generation method, emotion estimator generation device, emotion estimation method, emotion estimation device, and program | |
Campbell et al. | No laughing matter. | |
JP2004037721A (en) | System and program for voice response and storage medium therefor | |
JP2002041084A (en) | Interactive speech processing system | |
CN116917984A (en) | Interactive content output | |
JP2003066991A (en) | Method and apparatus for outputting voice recognition result and recording medium with program for outputting and processing voice recognition result recorded thereon | |
JPH11175081A (en) | Device and method for speaking | |
JP2003302992A (en) | Method and device for synthesizing voice | |
JP6806619B2 (en) | Speech synthesis system, speech synthesis method, and speech synthesis program | |
JP2004226881A (en) | Conversation system and conversation processing program | |
JP2003271194A (en) | Voice interaction device and controlling method thereof | |
JP4798039B2 (en) | Spoken dialogue apparatus and method |