JP7044156B2 - Generation program, generation method and information processing device - Google Patents

Generation program, generation method and information processing device Download PDF

Info

Publication number
JP7044156B2
JP7044156B2 JP2020518861A JP2020518861A JP7044156B2 JP 7044156 B2 JP7044156 B2 JP 7044156B2 JP 2020518861 A JP2020518861 A JP 2020518861A JP 2020518861 A JP2020518861 A JP 2020518861A JP 7044156 B2 JP7044156 B2 JP 7044156B2
Authority
JP
Japan
Prior art keywords
ambiguity
question
information
respondent
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020518861A
Other languages
Japanese (ja)
Other versions
JPWO2019220547A1 (en
Inventor
春菜 石松
範夫 長濱
研一郎 前田
利栄香 高下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2019220547A1 publication Critical patent/JPWO2019220547A1/en
Application granted granted Critical
Publication of JP7044156B2 publication Critical patent/JP7044156B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、生成プログラム、生成方法および情報処理装置に関する。 The present invention relates to a generation program, a generation method and an information processing apparatus.

従来、ロボットと人との自然なコミュニケーションを実現するために、ユーザの趣味嗜好を知るための情報を収集する場合がある。ユーザの趣味嗜好を知るための情報を収集する方法としては、例えば、チャット形式でロボットからユーザに質問を出し、質問に対するユーザの回答を収集するものがある。 Conventionally, in order to realize natural communication between a robot and a human, information for knowing a user's hobbies and preferences may be collected. As a method of collecting information for knowing a user's hobbies and preferences, for example, there is a method of asking a user a question from a robot in a chat format and collecting the user's answer to the question.

先行技術としては、例えば、確信度関数に基づいて動作応答または確認発話応答を選択し、確認発話応答が選択されたときに確認応答を生成するものがある。また、対話に含まれる固有名詞キーワードまたは事象キーワードについて設定されたPN値に基づいて、当該対話に関してユーザが抱いている感情を数値化した文章PN値を算出する技術がある。また、文章から所定の単語を抽出し、複数の文章を用いて生成された、単語の特徴を表すベクトルをクラスタリングし、各クラスタの重心に近い単語である代表語と各クラスタに含まれる単語との対応付けを記憶しているテーブルを用いて、抽出された単語を代表語に置き換える技術がある。また、マルチモーダルの入力信号を処理してテキストデータを取得し、テキストデータによりユーザの意図を取得し、ユーザの意図に対応する答えを取得して、答えをマルチモーダルの出力信号に転化して出力する技術がある。 Prior art, for example, selects an action response or a confirmed utterance response based on a certainty function and generates an acknowledgment when the confirmed utterance response is selected. Further, there is a technique for calculating a sentence PN value that quantifies the emotion that the user has regarding the dialogue based on the PN value set for the proper noun keyword or the event keyword included in the dialogue. In addition, a predetermined word is extracted from a sentence, a vector representing the characteristics of the word generated using a plurality of sentences is clustered, and a representative word that is close to the center of gravity of each cluster and a word included in each cluster are used. There is a technique to replace the extracted word with a representative word by using a table that stores the correspondence of. In addition, the text data is acquired by processing the multimodal input signal, the user's intention is acquired by the text data, the answer corresponding to the user's intention is acquired, and the answer is converted into the multimodal output signal. There is a technology to output.

特開2011-54088号公報Japanese Unexamined Patent Publication No. 2011-54088 特開2017-37601号公報Japanese Unexamined Patent Publication No. 2017-37601 特開2017-27168号公報Japanese Unexamined Patent Publication No. 2017-27168 特開2017-10517号公報Japanese Unexamined Patent Publication No. 2017-10517

しかしながら、従来技術では、質問に対する回答から生成される情報が、回答者の実態から乖離したものとなる場合がある。例えば、ある質問に対して、回答者が「好き」と答えたものの、どちらかといえば好きという程度であって、すごく好きというわけではない場合がある。この場合に、回答から生成される情報が、「すごく好き」と答えたときと同じように扱われると、回答者の実態から乖離したものとなる。 However, in the prior art, the information generated from the answers to the questions may deviate from the actual situation of the respondents. For example, a question may be answered by the respondent as "like", but rather like it, not very much. In this case, if the information generated from the answer is treated in the same way as when the answer is "I really like it", it will be different from the actual situation of the respondent.

一つの側面では、本発明は、生成した情報の回答者の実態からの乖離を抑制することを目的とする。 In one aspect, it is an object of the present invention to suppress the deviation of the generated information from the actual state of the respondents.

1つの実施態様では、質問に対し回答者が行った発話の内容を示す内容情報と、該発話時における該回答者の状態を示す状態情報としてフィラーの出現状況と、を受け付け、前記フィラーの出現状況に対応する曖昧度の分布を記録した質問別曖昧度分布の情報を参照し、受け付けた前記フィラーの出現状況に基づき、受け付けた前記内容情報の曖昧度を特定受け付けた前記内容情報に、特定した前記曖昧度に応じた情報を対応付けた情報を生成する生成プログラムが提供される。
In one embodiment, the content information indicating the content of the utterance made by the respondent to the question and the appearance status of the filler as the state information indicating the state of the respondent at the time of the utterance are accepted, and the appearance of the filler is received. Refer to the question-specific ambiguity distribution information that records the ambiguity distribution corresponding to the situation, specify the ambiguity of the received content information based on the appearance status of the received filler, and use the received content information. , A generation program for generating information associated with the specified information according to the degree of ambiguity is provided.

本発明の一側面によれば、生成した情報の回答者の実態からの乖離を抑制することができる。 According to one aspect of the present invention, it is possible to suppress the deviation of the generated information from the actual state of the respondent.

図1は、実施の形態にかかる生成方法の一実施例を示す説明図である。FIG. 1 is an explanatory diagram showing an embodiment of a generation method according to an embodiment. 図2は、データ収集システム200のシステム構成例を示す説明図である。FIG. 2 is an explanatory diagram showing a system configuration example of the data collection system 200. 図3は、情報処理装置101のハードウェア構成例を示すブロック図である。FIG. 3 is a block diagram showing a hardware configuration example of the information processing apparatus 101. 図4は、ロボット201のハードウェア構成例を示すブロック図である。FIG. 4 is a block diagram showing a hardware configuration example of the robot 201. 図5は、質問別曖昧度分布DB220の記憶内容の一例を示す説明図である。FIG. 5 is an explanatory diagram showing an example of the stored contents of the question-specific ambiguity distribution DB 220. 図6は、ユーザ別曖昧度分布DB230の記憶内容の一例を示す説明図である。FIG. 6 is an explanatory diagram showing an example of the stored contents of the user-specific ambiguity distribution DB 230. 図7は、学習データDB240の記憶内容の一例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of the stored contents of the learning data DB 240. 図8は、情報処理装置101の機能的構成例を示すブロック図である。FIG. 8 is a block diagram showing a functional configuration example of the information processing apparatus 101. 図9は、フィラーが出現した区間の検出例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of detection of a section in which a filler appears. 図10は、回答者の感情をあらわす感情値の算出例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of calculating an emotion value representing the emotion of the respondent. 図11は、回答者の振る舞いをあらわす値の算出例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of calculating a value representing the behavior of the respondent. 図12は、曖昧度vの特定例を示す説明図(その1)である。FIG. 12 is an explanatory diagram (No. 1) showing a specific example of the ambiguity degree v. 図13は、曖昧度vの特定例を示す説明図(その2)である。FIG. 13 is an explanatory diagram (No. 2) showing a specific example of the ambiguity degree v. 図14は、曖昧度vの特定例を示す説明図(その3)である。FIG. 14 is an explanatory diagram (No. 3) showing a specific example of the ambiguity degree v. 図15は、曖昧度vの補正例を示す説明図である。FIG. 15 is an explanatory diagram showing an example of correction of the ambiguity degree v. 図16は、状態判定用質問リスト1600の具体例を示す説明図である。FIG. 16 is an explanatory diagram showing a specific example of the status determination question list 1600. 図17は、情報処理装置101のユーザ別曖昧度情報作成処理手順の一例を示すフローチャートである。FIG. 17 is a flowchart showing an example of the user-specific ambiguity information creation processing procedure of the information processing apparatus 101. 図18は、情報処理装置101の生成処理手順の一例を示すフローチャート(その1)である。FIG. 18 is a flowchart (No. 1) showing an example of the generation processing procedure of the information processing apparatus 101. 図19は、情報処理装置101の生成処理手順の一例を示すフローチャート(その2)である。FIG. 19 is a flowchart (No. 2) showing an example of the generation processing procedure of the information processing apparatus 101.

以下に図面を参照して、本発明にかかる生成プログラム、生成方法および情報処理装置の実施の形態を詳細に説明する。 Hereinafter, embodiments of a generation program, a generation method, and an information processing apparatus according to the present invention will be described in detail with reference to the drawings.

(実施の形態)
図1は、実施の形態にかかる生成方法の一実施例を示す説明図である。図1において、情報処理装置101は、ある質問に対して回答者が行った回答の内容を示す内容情報の曖昧度を特定し、当該内容情報に、特定した曖昧度に応じた情報を対応付けた情報を生成するコンピュータである。
(Embodiment)
FIG. 1 is an explanatory diagram showing an embodiment of a generation method according to an embodiment. In FIG. 1, the information processing apparatus 101 identifies the degree of ambiguity of content information indicating the content of an answer given by a respondent to a certain question, and associates the content information with information according to the specified degree of ambiguity. It is a computer that generates information.

質問は、話し言葉による問いかけであってもよく、また、何らかの問題の解決方法を問うものであってもよい。回答は、質問に対する答えである。例えば、質問は、人との対話を行うロボットやスマートフォンなどから出される。この場合、回答者は、ロボットやスマートフォンなどのユーザである。 The question may be a spoken question or may be a question of how to solve some problem. The answer is the answer to the question. For example, questions are asked by robots and smartphones that interact with humans. In this case, the respondent is a user such as a robot or a smartphone.

ここで、ユーザの趣味嗜好を知るための情報を収集するにあたり、ロボットやスマートフォンなどからユーザに質問を出し、質問に対するユーザの回答を収集することが考えられる。ところが、ある質問に対して、回答者は、自信を持って回答することもあれば、曖昧な回答をすることもある。 Here, in collecting information for knowing the hobbies and tastes of the user, it is conceivable to ask the user a question from a robot, a smartphone, or the like, and collect the user's answer to the question. However, respondents may answer a question with confidence or ambiguous answers.

このため、質問に対して回答者が行った回答の内容だけを示す情報を収集すると、その情報が、回答者の実態から乖離したものとなる場合がある。このような場合に、全ての回答をユーザの趣味嗜好を判断するための情報として同じように扱うと、ユーザの趣味嗜好を誤って判断して、自然なコミュニケーションの妨げとなるおそれがある。 For this reason, if information indicating only the content of the answer given by the respondent to the question is collected, the information may deviate from the actual situation of the respondent. In such a case, if all the answers are treated in the same way as information for determining the user's hobbies and preferences, the user's hobbies and preferences may be misjudged and hinder natural communication.

例えば、「野球は好きですか?」という質問に対して、「えーと、好きかなぁ…」と曖昧な回答したユーザを、「好き!」と自信を持って回答したユーザと同じように扱うと、それほど好きでもない野球が、好きなものと学習されてしまうことがある。この結果、例えば、ロボットとのコミュニケーションにおいて、それほど好きでもない野球の話題が続いて、ユーザに不快感や煩わしさを与えてしまうおそれがある。 For example, if a user who answers vaguely "Well, do you like it ..." to the question "Do you like baseball?" Is treated in the same way as a user who answers "I like it!" With confidence. , Baseball, which I don't like so much, may be learned as something I like. As a result, for example, in communication with a robot, the topic of baseball, which is not so much liked, may continue, causing discomfort and annoyance to the user.

そこで、本実施の形態では、ある質問に対して回答者が行った回答の内容を示す内容情報の曖昧度を特定し、当該内容情報に、特定した曖昧度に応じた情報を対応付けた情報を生成することで、生成した情報の回答者の実態からの乖離を抑制する生成方法について説明する。以下、情報処理装置101の処理例について説明する。 Therefore, in the present embodiment, the ambiguity of the content information indicating the content of the answer given by the respondent to a certain question is specified, and the information in which the content information is associated with the information according to the specified ambiguity. The generation method of suppressing the deviation of the generated information from the actual situation of the respondents will be described. Hereinafter, a processing example of the information processing apparatus 101 will be described.

(1)情報処理装置101は、ある質問に対して回答者が行った回答の内容を示す内容情報と、該回答時における該回答者の状態を示す状態情報と、を受け付ける。ここで、回答の内容とは、質問に対する回答者の答えである。また、回答者の状態とは、回答者の感情、振る舞い、フィラーの出現状況などである。 (1) The information processing apparatus 101 receives content information indicating the content of the answer given by the respondent to a certain question and state information indicating the state of the respondent at the time of the answer. Here, the content of the answer is the answer of the respondent to the question. The state of the respondent is the emotion, behavior, appearance status of the filler, etc. of the respondent.

回答者の感情は、例えば、喜び、悲しみ、怒り、平静などである。回答者の振る舞いは、回答者の視線、動作などである。また、フィラーとは、「ええと」、「あの」、「まあ」などの発話の合間にはさみこむ言葉である。質問に対する回答時に、回答者が回答に悩むほど、フィラーが発生する傾向がある。 Respondents' emotions are, for example, joy, sadness, anger, calm, and so on. The behavior of the respondent is the line of sight, movement, etc. of the respondent. In addition, filler is a word that is inserted between utterances such as "um", "that", and "well". When answering a question, the more the respondents are worried about the answer, the more likely it is that fillers will occur.

図1の例では、内容情報120と状態情報130とを受け付けた場合を想定する。内容情報120は、質問Xに対して回答者102が行った回答の内容を示す。状態情報130は、質問Xに対する回答時における回答者102の状態として、質問Xに対する回答時における回答者102のフィラーの割合を示す。 In the example of FIG. 1, it is assumed that the content information 120 and the state information 130 are received. The content information 120 indicates the content of the answer given by the respondent 102 to the question X. The state information 130 indicates the ratio of the filler of the respondent 102 at the time of answering the question X as the state of the respondent 102 at the time of answering the question X.

(2)情報処理装置101は、受け付けた状態情報に基づき、受け付けた内容情報の曖昧度を特定する。ここで、曖昧度とは、質問に対する回答の曖昧度合いを示す値であり、回答者の曖昧な回答を判別するための指標である。以下の説明では、曖昧度の値が大きいほど、曖昧度合いが高いことを示し、曖昧度の値が小さいほど、曖昧度合いが低いことを示すこととする。 (2) The information processing apparatus 101 specifies the degree of ambiguity of the received content information based on the received state information. Here, the ambiguity is a value indicating the ambiguity of the answer to the question, and is an index for discriminating the ambiguity of the respondent. In the following description, the larger the value of the ambiguity, the higher the degree of ambiguity, and the smaller the value of the ambiguity, the lower the degree of ambiguity.

状態情報は、回答時における回答者の状態を示す情報である。すなわち、情報処理装置101は、質問に対する回答時における回答者の状態をもとに、回答の曖昧度を特定する。例えば、「~は好きですか?」という質問に対して、回答者が肯定的な回答をする場合、喜びの感情があるほど、自信を持って回答していることが多く、回答の曖昧度が低い傾向がある。すなわち、回答者の感情は、回答の曖昧度を判断するための指標となり得る。 The state information is information indicating the state of the respondent at the time of reply. That is, the information processing apparatus 101 specifies the ambiguity of the answer based on the state of the respondent at the time of answering the question. For example, when respondents give a positive answer to the question "Do you like ...?", The more joyful they are, the more confident they are, and the degree of ambiguity in the answer. Tends to be low. That is, the emotions of the respondents can be an index for judging the ambiguity of the answers.

また、ロボットから出された質問に対する回答時において、回答者の視線がロボットに向くまでの時間は、回答に悩むほど長くなることが多い。回答に悩むほど、回答の曖昧度は高くなる傾向がある。すなわち、回答者の振る舞いは、回答の曖昧度を判断するための指標となり得る。 In addition, when answering a question asked by a robot, it often takes a long time for the respondent's line of sight to turn to the robot. The more annoyed the answer, the more ambiguous the answer tends to be. That is, the behavior of the respondent can be an index for judging the ambiguity of the answer.

また、質問に対する回答時において、「ええと」、「あの」などの回答者のフィラーが出現する頻度が高いほど、回答に悩んでいることが多い。すなわち、回答者のフィラーの出現状況は、回答の曖昧度を判断するための指標となり得る。 In addition, the more frequently the respondents' fillers such as "um" and "that" appear when answering a question, the more often they are worried about the answer. That is, the appearance status of the filler of the respondent can be an index for judging the ambiguity of the answer.

具体的には、例えば、情報処理装置101は、記憶部110を参照して、受け付けた状態情報と、質問の種別と、に対応付けられた曖昧度を特定することにしてもよい。記憶部110は、質問に対して回答者が行った回答の内容の曖昧度を、該回答時における該回答者の状態を示す状態情報と、該質問の種別と、に対応付けて記憶する。 Specifically, for example, the information processing apparatus 101 may refer to the storage unit 110 to specify the degree of ambiguity associated with the received state information and the type of question. The storage unit 110 stores the ambiguity of the content of the answer given by the respondent to the question in association with the state information indicating the state of the respondent at the time of the answer and the type of the question.

すなわち、情報処理装置101は、質問の種別に対応付けて、質問に対する回答時における回答者の状態に応じて、回答の曖昧度合いがどのようなものとなるかを特定可能な情報を、記憶部110に予め保持しておく。ここで、質問の種別は、質問を区別するものである。 That is, the information processing apparatus 101 stores information that can identify the degree of ambiguity of the answer according to the state of the respondent at the time of answering the question in association with the type of the question. Hold it in 110 in advance. Here, the type of question distinguishes the question.

例えば、質問の種別は、質問一つ一つを区別するものであってもよい。また、質問の種別は、オープンな質問であるか、クローズな質問であるかを区別するものであってもよい。オープンな質問とは、「好きな紅茶の種類は何ですか?」などの答えが決まっていない質問である。クローズな質問とは、「あなたは男性ですか?」などの答えが決まっている質問である。また、質問の種別は、スポーツ、音楽、映画などの主題(分野)を区別するものであってもよい。 For example, the type of question may be one that distinguishes each question. Further, the type of question may be one that distinguishes between an open question and a closed question. An open question is a question that has no fixed answer, such as "What kind of tea do you like?" A closed question is a question that has a fixed answer, such as "Are you a man?" In addition, the type of question may distinguish the subject (field) such as sports, music, and movies.

図1の例では、記憶部110には、質問Xに対して回答者が行った回答の内容の曖昧度が、回答時における回答者の状態を示す状態情報と質問Xとに対応付けて記憶されている場合を想定する。ただし、回答者の状態は、フィラーの割合とする。図1中、曖昧度分布140は、質問Xに対する回答時における回答者の状態に応じた曖昧度の分布をあらわす。この場合、情報処理装置101は、状態情報130から特定されるフィラーの割合aに対応する曖昧度bを、内容情報120の曖昧度として特定する。この曖昧度bは、質問Xに対する回答者102の回答の曖昧度合いを示す。 In the example of FIG. 1, the storage unit 110 stores the ambiguity of the content of the answer given to the question X in association with the state information indicating the state of the respondent at the time of answer and the question X. It is assumed that it has been done. However, the status of the respondents shall be the ratio of the filler. In FIG. 1, the ambiguity distribution 140 represents the distribution of ambiguity according to the state of the respondent at the time of answering the question X. In this case, the information processing apparatus 101 specifies the ambiguity b corresponding to the ratio a of the filler specified from the state information 130 as the ambiguity of the content information 120. This ambiguity b indicates the degree of ambiguity of the answer of the respondent 102 to the question X.

(3)情報処理装置101は、受け付けた内容情報に、特定した曖昧度に応じた情報を対応付けた情報を生成する。ここで、曖昧度に応じた情報とは、例えば、特定した曖昧度が基準を超えるか否かを示す情報であってもよい。曖昧度の基準は、任意に設定可能であり、例えば、曖昧度が基準を超えていれば、回答の曖昧度合いが低く、有効な回答であると判断できる値に設定される。 (3) The information processing apparatus 101 generates information in which the received content information is associated with information according to the specified ambiguity. Here, the information according to the degree of ambiguity may be, for example, information indicating whether or not the specified degree of ambiguity exceeds the standard. The standard of ambiguity can be set arbitrarily. For example, if the degree of ambiguity exceeds the standard, the degree of ambiguity of the answer is low and it is set to a value that can be judged to be a valid answer.

図1の例では、内容情報120に、曖昧度情報150を対応付けた回答情報160が生成される。曖昧度情報150は、特定された曖昧度bに応じた情報であり、例えば、曖昧度bが基準を超えるか否かを示す情報である。回答情報160は、例えば、回答者102の趣味嗜好を学習する際の学習データとなる。 In the example of FIG. 1, the response information 160 in which the content information 120 is associated with the ambiguity information 150 is generated. The ambiguity information 150 is information according to the specified ambiguity degree b, and is, for example, information indicating whether or not the ambiguity degree b exceeds the standard. The response information 160 is, for example, learning data for learning the hobbies and tastes of the respondent 102.

このように、情報処理装置101によれば、ある質問に対する回答時における回答者の状態をもとに、回答者が行った回答の曖昧度合いを判断可能な情報を生成することができる。このため、生成される情報の回答者の実態からの乖離を抑制することができる。 As described above, according to the information processing apparatus 101, it is possible to generate information capable of determining the degree of ambiguity of the answer given by the respondent based on the state of the respondent at the time of answering a certain question. Therefore, it is possible to suppress the deviation of the generated information from the actual situation of the respondents.

例えば、回答情報160によれば、回答者102の趣味嗜好を学習する際に、質問Xに対して回答者102が行った回答の曖昧度合いを判断することが可能となる。これにより、例えば、回答の曖昧度合いが低ければ、回答者102の趣味嗜好を判断するにあたって有効な回答として扱うことができる。一方、回答の曖昧度合いが高ければ、回答者102の趣味嗜好を判断するにあたって有効な回答ではないと扱うことができ、回答者102の趣味嗜好を誤って判断してしまうのを防ぐことができる。 For example, according to the answer information 160, when learning the hobbies and tastes of the respondent 102, it is possible to determine the degree of ambiguity of the answer given by the respondent 102 to the question X. Thereby, for example, if the degree of ambiguity of the answer is low, it can be treated as an effective answer in determining the hobbies and tastes of the respondent 102. On the other hand, if the degree of ambiguity of the answer is high, it can be treated that the answer is not effective in determining the hobby / preference of the respondent 102, and it is possible to prevent the respondent 102 from erroneously determining the hobby / preference. ..

(データ収集システム200のシステム構成例)
つぎに、図1に示した情報処理装置101を含むデータ収集システム200のシステム構成例について説明する。データ収集システム200は、例えば、ロボットやスマートフォンなどによる自然な対人コミュニケーションを実現するためのシステムに適用される。
(System configuration example of data collection system 200)
Next, a system configuration example of the data collection system 200 including the information processing apparatus 101 shown in FIG. 1 will be described. The data collection system 200 is applied to, for example, a system for realizing natural interpersonal communication by a robot, a smartphone, or the like.

図2は、データ収集システム200のシステム構成例を示す説明図である。図2において、データ収集システム200は、情報処理装置101と、ロボット201と、を含む。データ収集システム200において、情報処理装置101およびロボット201は、有線または無線のネットワーク210を介して接続される。ネットワーク210は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどである。 FIG. 2 is an explanatory diagram showing a system configuration example of the data collection system 200. In FIG. 2, the data collection system 200 includes an information processing device 101 and a robot 201. In the data collection system 200, the information processing apparatus 101 and the robot 201 are connected via a wired or wireless network 210. The network 210 is, for example, a LAN (Local Area Network), a WAN (Wide Area Network), the Internet, or the like.

ここで、情報処理装置101は、質問別曖昧度分布DB(Database)220、ユーザ別曖昧度分布DB230および学習データDB240を有する。情報処理装置101は、例えば、サーバである。質問別曖昧度分布DB220、ユーザ別曖昧度分布DB230および学習データDB240の記憶内容については、図5~図7を用いて後述する。 Here, the information processing apparatus 101 has a question-specific ambiguity distribution DB (Data) 220, a user-specific ambiguity distribution DB 230, and learning data DB 240. The information processing device 101 is, for example, a server. The storage contents of the question-specific ambiguity distribution DB 220, the user-specific ambiguity distribution DB 230, and the learning data DB 240 will be described later with reference to FIGS. 5 to 7.

ロボット201は、対人コミュニケーションを行うコンピュータである。例えば、ロボット201は、ユーザの自宅や病院の病室などに設置され、ユーザの趣味嗜好を知るための情報の収集に使用される。ロボット201は、特定のユーザによって使用されてもよく、また、複数のユーザによって使用されてもよい。複数のユーザがロボット201を使用する場合、ロボット201を使用中のユーザは、顔認証やログインIDなどによって特定される。 The robot 201 is a computer that performs interpersonal communication. For example, the robot 201 is installed in a user's home, a hospital room, or the like, and is used for collecting information for knowing the user's hobbies and tastes. The robot 201 may be used by a specific user or may be used by a plurality of users. When a plurality of users use the robot 201, the user who is using the robot 201 is specified by face recognition, a login ID, or the like.

なお、図2の例では、ロボット201を1台のみ表記したが、これに限らない。例えば、データ収集システム200には、それぞれ異なるユーザによって使用される複数のロボット201が含まれていてもよい。また、ロボット201は、例えば、スマートフォンやタブレット型PC(Personal Computer)などであってもよい。 In the example of FIG. 2, only one robot 201 is shown, but the present invention is not limited to this. For example, the data collection system 200 may include a plurality of robots 201 used by different users. Further, the robot 201 may be, for example, a smartphone, a tablet-type PC (Personal Computer), or the like.

(情報処理装置101のハードウェア構成例)
図3は、情報処理装置101のハードウェア構成例を示すブロック図である。図3において、情報処理装置101は、CPU(Central Processing Unit)301と、メモリ302と、I/F(Interface)303と、ディスクドライブ304と、ディスク305と、を有する。また、各構成部は、バス300によってそれぞれ接続される。
(Hardware configuration example of information processing device 101)
FIG. 3 is a block diagram showing a hardware configuration example of the information processing apparatus 101. In FIG. 3, the information processing apparatus 101 includes a CPU (Central Processing Unit) 301, a memory 302, an I / F (Interface) 303, a disk drive 304, and a disk 305. Further, each component is connected by a bus 300.

ここで、CPU301は、情報処理装置101の全体の制御を司る。CPU301は、複数のコアを有していてもよい。メモリ302は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMがOS(Operating System)のプログラムを記憶し、ROMがアプリケーションプログラムを記憶し、RAMがCPU301のワークエリアとして使用される。メモリ302に記憶されるプログラムは、CPU301にロードされることで、コーディングされている処理をCPU301に実行させる。 Here, the CPU 301 controls the entire information processing apparatus 101. The CPU 301 may have a plurality of cores. The memory 302 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash ROM, and the like. Specifically, for example, the flash ROM stores the OS (Operating System) program, the ROM stores the application program, and the RAM is used as the work area of the CPU 301. The program stored in the memory 302 is loaded into the CPU 301 to cause the CPU 301 to execute the coded process.

I/F303は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して外部のコンピュータ(例えば、図2に示したロボット201)に接続される。そして、I/F303は、ネットワーク210と装置内部とのインターフェースを司り、外部のコンピュータからのデータの入出力を制御する。I/F303には、例えば、モデムやLANアダプタなどを採用することができる。 The I / F 303 is connected to the network 210 through a communication line, and is connected to an external computer (for example, the robot 201 shown in FIG. 2) via the network 210. The I / F 303 controls the interface between the network 210 and the inside of the device, and controls the input / output of data from an external computer. For the I / F 303, for example, a modem, a LAN adapter, or the like can be adopted.

ディスクドライブ304は、CPU301の制御に従ってディスク305に対するデータのリード/ライトを制御する。ディスク305は、ディスクドライブ304の制御で書き込まれたデータを記憶する。ディスク305としては、例えば、磁気ディスク、光ディスクなどが挙げられる。 The disk drive 304 controls data read / write to the disk 305 according to the control of the CPU 301. The disk 305 stores the data written under the control of the disk drive 304. Examples of the disk 305 include a magnetic disk and an optical disk.

なお、情報処理装置101は、上述した構成部のほかに、例えば、SSD(Solid State Drive)、入力装置、ディスプレイ等を有することにしてもよい。 In addition to the above-mentioned components, the information processing device 101 may include, for example, an SSD (Solid State Drive), an input device, a display, and the like.

(ロボット201のハードウェア構成例)
図4は、ロボット201のハードウェア構成例を示すブロック図である。図4において、ロボット201は、CPU401と、メモリ402と、ディスプレイ403と、入力装置404と、I/F405と、音声信号処理部406と、スピーカ407と、マイクロフォン408と、カメラ409と、を有する。また、各構成部はバス400によってそれぞれ接続される。
(Hardware configuration example of robot 201)
FIG. 4 is a block diagram showing a hardware configuration example of the robot 201. In FIG. 4, the robot 201 has a CPU 401, a memory 402, a display 403, an input device 404, an I / F 405, an audio signal processing unit 406, a speaker 407, a microphone 408, and a camera 409. .. Further, each component is connected by a bus 400.

ここで、CPU401は、ロボット201の全体の制御を司る。メモリ402は、例えば、ROM、RAMおよびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU401のワークエリアとして使用される。メモリ402に記憶されるプログラムは、CPU401にロードされることで、コーディングされている処理をCPU401に実行させる。 Here, the CPU 401 controls the entire robot 201. The memory 402 includes, for example, a ROM, a RAM, a flash ROM, and the like. Specifically, for example, a flash ROM or ROM stores various programs, and RAM is used as a work area of the CPU 401. The program stored in the memory 402 is loaded into the CPU 401 to cause the CPU 401 to execute the coded process.

ディスプレイ403は、カーソル、アイコンあるいはツールボックスをはじめ、文書、画像、機能情報などのデータを表示する。例えば、ディスプレイ403には、ロボット201の表情をあらわす目、口などが表示される。ディスプレイ403は、例えば、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイなどを採用することができる。 The display 403 displays data such as a cursor, an icon, a toolbox, a document, an image, and functional information. For example, the display 403 displays eyes, mouths, and the like that represent the facial expressions of the robot 201. As the display 403, for example, a liquid crystal display, an organic EL (Electroluminescence) display, or the like can be adopted.

入力装置404は、文字、数字、各種指示などの入力のためのキーを有し、データの入力を行う。入力装置404は、例えば、タッチパネル式の入力パッドやテンキーなどであってもよく、また、キーボードやマウスなどであってもよい。 The input device 404 has keys for inputting characters, numbers, various instructions, and the like, and inputs data. The input device 404 may be, for example, a touch panel type input pad, a numeric keypad, or the like, or may be a keyboard, a mouse, or the like.

I/F405は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して外部のコンピュータ(例えば、図2に示した情報処理装置101)に接続される。そして、I/F405は、ネットワーク210と装置内部とのインターフェースを司り、外部のコンピュータからのデータの入出力を制御する。 The I / F 405 is connected to the network 210 through a communication line, and is connected to an external computer (for example, the information processing apparatus 101 shown in FIG. 2) via the network 210. The I / F 405 controls the interface between the network 210 and the inside of the device, and controls the input / output of data from an external computer.

音声信号処理部406は、スピーカ407およびマイクロフォン408に接続される。例えば、マイクロフォン408に受音された音声は、音声信号処理部406でA/D変換される。また、スピーカ407からは音声が出力される。 The audio signal processing unit 406 is connected to the speaker 407 and the microphone 408. For example, the voice received by the microphone 408 is A / D converted by the voice signal processing unit 406. In addition, sound is output from the speaker 407.

カメラ409は、画像(静止画または動画)を撮像して画像情報を出力する撮像装置である。カメラ409は、ディスプレイ403を見ている人物を撮像可能な位置に設けられる。例えば、カメラ409は、予め決められた時間間隔で定期的に画像を撮像する。 The camera 409 is an image pickup device that captures an image (still image or moving image) and outputs image information. The camera 409 is provided at a position where a person looking at the display 403 can be imaged. For example, the camera 409 periodically captures images at predetermined time intervals.

なお、ロボット201は、上述した構成部のほか、例えば、各構成部に電源電圧を供給するPMU(Power Management Unit)、バッテリ、各種タイマ、各種センサ、赤外線LED(Light Emitting Diode)などを有することにしてもよい。 In addition to the above-mentioned components, the robot 201 has, for example, a PMU (Power Management Unit) that supplies a power supply voltage to each component, a battery, various timers, various sensors, an infrared LED (Light Emitting Diode), and the like. You may do it.

(各種DB220,230,240の記憶内容)
つぎに、図5~図7を用いて、情報処理装置101が有する各種DB220,230,240の記憶内容について説明する。各種DB220,230,240は、例えば、図3に示したメモリ302、ディスク305などの記憶装置により実現される。
(Memory contents of various DBs 220, 230, 240)
Next, the stored contents of various DBs 220, 230, 240 included in the information processing apparatus 101 will be described with reference to FIGS. 5 to 7. The various DBs 220, 230, and 240 are realized by, for example, a storage device such as the memory 302 and the disk 305 shown in FIG.

図5は、質問別曖昧度分布DB220の記憶内容の一例を示す説明図である。図5において、質問別曖昧度分布DB220は、質問ID、TAG、Value、Question1、Question2、曖昧度、フィラー、感情値および振る舞いのフィールドを有する。各フィールドに情報を設定することで、質問別曖昧度情報(例えば、質問別曖昧度情報500-1,500-2)がレコードとして記憶される。 FIG. 5 is an explanatory diagram showing an example of the stored contents of the question-specific ambiguity distribution DB 220. In FIG. 5, the question-specific ambiguity distribution DB 220 has fields for question ID, TAG, Value, Question1, Question2, ambiguity, filler, emotional value, and behavior. By setting information in each field, question-specific ambiguity information (for example, question-specific ambiguity information 500-1,500-2) is stored as a record.

ここで、質問IDは、Question1の質問を一意に識別する識別子である。TAGは、質問を分類するための主題を示す。Valueは、ある主題の質問をより細かく分類するための区分を示す。Question1は、質問を示す。Question2は、Question1の質問に関連する質問を示す。 Here, the question ID is an identifier that uniquely identifies the question of Question1. The TAG indicates the subject for classifying the question. Value indicates a division for subdividing a question of a certain subject. Question 1 indicates a question. Question 2 indicates a question related to the question of Question 1.

Question2には、例えば、Question1の質問と内容が類似する質問であって、Question1の質問と聞き方を変えた質問が設定される。ただし、Question1の質問に関連する質問が存在しなければ、Question2のフィールドには「-(Null)」が設定される。 In Question 2, for example, a question whose content is similar to that of Question 1 and whose listening method is different from that of Question 1 is set. However, if there is no question related to the question of Question 1, "-(Null)" is set in the field of Question 2.

曖昧度は、回答の曖昧度合いを示す(単位:%)。フィラーは、曖昧度に対応するフィラーの割合を示す(単位:%)。感情値は、回答者の感情をあらわす値である。ここでは、感情値として、回答者の喜びをあらわす感情値(喜び)が設定されている。感情値(喜び)が高いほど、回答者の喜びが強いことを示す。 The degree of ambiguity indicates the degree of ambiguity in the answer (unit:%). Filler indicates the percentage of filler corresponding to the degree of ambiguity (unit:%). The emotion value is a value representing the emotion of the respondent. Here, as the emotion value, an emotion value (joy) expressing the joy of the respondent is set. The higher the emotional value (joy), the stronger the joy of the respondents.

ただし、感情値として、回答者の悲しみをあらわす感情値(悲しみ)や、回答者の怒りをあらわす感情値(怒り)や、回答者の平静をあらわす感情値(平静)が設定されていてもよい。振る舞いは、回答者の振る舞いをあらわす値である。ここでは、振る舞いとして、回答者の視線がロボット201と合うまでの時間が設定されている(単位:秒)。 However, as the emotion value, an emotion value (sadness) representing the respondent's sadness, an emotion value (anger) representing the respondent's anger, and an emotion value (calmness) representing the respondent's calm may be set. .. Behavior is a value that represents the behavior of the respondent. Here, as a behavior, the time until the respondent's line of sight matches the robot 201 is set (unit: seconds).

例えば、質問別曖昧度情報500-1は、質問ID「Q1」、TAG「スポーツ」、Value「野球」のQuestion1の質問「野球をするのは好きですか?」を出したときの回答の曖昧度「10%」に対応するフィラー「0%」、感情値「20」および振る舞い「10秒」を示す。また、質問別曖昧度情報500-1は、Question1の質問と内容が類似する質問であって、聞き方を変えたQuestion2の質問「好きか嫌いかで言うと、野球をするのは好きですか?」を示す。 For example, the question-specific ambiguity information 500-1 is the ambiguity of the answer when the question ID "Q1", TAG "sports", and Question 1 question "Do you like playing baseball?" The filler "0%" corresponding to the degree "10%", the emotion value "20" and the behavior "10 seconds" are shown. In addition, the question-specific ambiguity information 500-1 is a question similar in content to the Question 1 question, and the Question 2 question "Do you like playing baseball, if you like it or not?" ? ”Is shown.

なお、フィラー、感情値、振る舞いの各フィールドについて、曖昧度に対応する値がない場合は、「-」が設定される。例えば、曖昧度「100%」に対応する感情値がない場合は、感情値のフィールドには「-」が設定される。また、各質問別曖昧度情報には、例えば、各質問別曖昧度情報が登録された日時を示す情報が含まれていてもよい。図1に示した記憶部110は、例えば、質問別曖昧度分布DB220に相当する。 If there is no value corresponding to the degree of ambiguity for each of the filler, emotion value, and behavior fields, "-" is set. For example, if there is no emotion value corresponding to the ambiguity "100%", "-" is set in the emotion value field. Further, the ambiguity information for each question may include, for example, information indicating the date and time when the ambiguity information for each question was registered. The storage unit 110 shown in FIG. 1 corresponds to, for example, the question-specific ambiguity distribution DB 220.

質問別曖昧度情報は、例えば、複数の被験者に対して、質問(Question1の質問)を出した際の結果に基づいて生成される。より詳細に説明すると、例えば、データ収集システム200の管理者は、複数の被験者に対して質問を出し、その質問に対する回答時における各被験者のフィラー、感情値および振る舞いをそれぞれ測定する。また、各被験者には、質問に対する回答の曖昧度を自己申告してもらう。そして、管理者は、各被験者のフィラー、感情値および振る舞いの測定結果と、各被験者が自己申告した曖昧度とに基づいて、質問別曖昧度情報を生成する。 The question-specific ambiguity information is generated, for example, based on the result of asking a question (Question 1 question) to a plurality of subjects. More specifically, for example, the administrator of the data collection system 200 asks a question to a plurality of subjects and measures the filler, emotional value, and behavior of each subject when answering the question. In addition, each subject is asked to self-report the ambiguity of the answer to the question. Then, the manager generates question-specific ambiguity information based on the measurement results of the filler, emotional value, and behavior of each subject and the ambiguity self-reported by each subject.

図6は、ユーザ別曖昧度分布DB230の記憶内容の一例を示す説明図である。図6において、ユーザ別曖昧度分布DB230は、ユーザID、曖昧度、フィラー、感情値および振る舞いのフィールドを有し、各フィールドに情報を設定することで、ユーザ別曖昧度情報(例えば、ユーザ別曖昧度情報600-1~600-11)をレコードとして記憶する。 FIG. 6 is an explanatory diagram showing an example of the stored contents of the user-specific ambiguity distribution DB 230. In FIG. 6, the user-specific ambiguity distribution DB 230 has fields for user ID, ambiguity, filler, emotion value, and behavior, and by setting information in each field, user-specific ambiguity information (for example, user-specific). The ambiguity information 600-1 to 600-11) is stored as a record.

ここで、ユーザIDは、ロボット201のユーザを一意に識別する識別子である。曖昧度は、回答の曖昧度合いを示す(単位:%)。ここでは、同一のユーザIDについて、曖昧度が0%~100%までの10%ごとに、ユーザ別曖昧度情報が記憶されている。フィラーは、曖昧度に対応するフィラーの割合を示す(単位:%)。 Here, the user ID is an identifier that uniquely identifies the user of the robot 201. The degree of ambiguity indicates the degree of ambiguity in the answer (unit:%). Here, for the same user ID, user-specific ambiguity information is stored for every 10% of ambiguity from 0% to 100%. Filler indicates the percentage of filler corresponding to the degree of ambiguity (unit:%).

感情値は、回答者の感情をあらわす値である。ここでは、感情値として、ロボット201のユーザの喜びをあらわす感情値(喜び)が設定されている。ただし、感情値として、ユーザの悲しみをあらわす感情値(悲しみ)や、ユーザの怒りをあらわす感情値(怒り)や、ユーザの平静をあらわす感情値(平静)が設定されていてもよい。振る舞いは、回答者の振る舞いをあらわす値である。ここでは、振る舞いとして、ユーザの視線がロボット201と合うまでの時間が設定されている(単位:秒)。 The emotion value is a value representing the emotion of the respondent. Here, as the emotion value, an emotion value (joy) representing the joy of the user of the robot 201 is set. However, as the emotion value, an emotion value (sadness) representing the sadness of the user, an emotion value (anger) representing the anger of the user, or an emotion value (calmness) representing the calmness of the user may be set. Behavior is a value that represents the behavior of the respondent. Here, as a behavior, a time until the user's line of sight matches the robot 201 is set (unit: seconds).

例えば、ユーザ別曖昧度情報600-1は、ユーザU1の曖昧度「0%」に対応するフィラー「0%」、感情値「10」および振る舞い「0秒」を示す。 For example, the user-specific ambiguity information 600-1 indicates a filler "0%", an emotion value "10", and a behavior "0 seconds" corresponding to the ambiguity "0%" of the user U1.

ユーザ別曖昧度情報は、ロボット201のユーザの特性をあらわす情報であり、例えば、ユーザがロボット201の使用を開始する際に作成される。なお、ユーザ別曖昧度情報を作成する際の具体的な処理内容については、図16および図17を用いて後述する。 The user-specific ambiguity information is information representing the characteristics of the user of the robot 201, and is created, for example, when the user starts using the robot 201. The specific processing content when creating the ambiguity information for each user will be described later with reference to FIGS. 16 and 17.

図7は、学習データDB240の記憶内容の一例を示す説明図である。図7において、学習データDB240は、ユーザID、質問、回答、曖昧度および曖昧フラグのフィールドを有し、各フィールドに情報を設定することで、学習データ(例えば、学習データ700-1)をレコードとして記憶する。 FIG. 7 is an explanatory diagram showing an example of the stored contents of the learning data DB 240. In FIG. 7, the learning data DB 240 has fields of user ID, question, answer, ambiguity, and ambiguity flag, and by setting information in each field, learning data (for example, learning data 700-1) is recorded. Remember as.

ここで、ユーザIDは、ロボット201のユーザを一意に識別する識別子である。質問は、ユーザに対して出された質問である。回答は、質問に対する回答の内容である。曖昧度は、回答の曖昧度合いを示す。曖昧フラグは、曖昧度が基準を超えるか否かを示す情報である。曖昧フラグ「0」は、曖昧度が基準を超えないことを示す。曖昧フラグ「1」は、曖昧度が基準を超えることを示す。 Here, the user ID is an identifier that uniquely identifies the user of the robot 201. The question is a question asked to the user. The answer is the content of the answer to the question. The degree of ambiguity indicates the degree of ambiguity in the answer. The ambiguity flag is information indicating whether or not the ambiguity exceeds the standard. The ambiguity flag "0" indicates that the degree of ambiguity does not exceed the standard. The ambiguity flag "1" indicates that the degree of ambiguity exceeds the standard.

例えば、学習データ700-1は、ユーザU1に対して出された質問「野球をするのは好きですか?」、質問に対する回答「好きです。」、回答の曖昧度「10%」および曖昧フラグ「0」を示す。学習データには、質問IDが含まれていてもよい。 For example, the learning data 700-1 includes the question "Do you like playing baseball?" Asked to the user U1, the answer "I like it", the ambiguity level "10%" of the answer, and the ambiguity flag. Indicates "0". The learning data may include a question ID.

(情報処理装置101の機能的構成例)
図8は、情報処理装置101の機能的構成例を示すブロック図である。図8において、情報処理装置101は、受付部801と、特定部802と、生成部803と、出力部804と、記憶部810と、を含む。受付部801~出力部804は制御部となる機能であり、具体的には、例えば、図3に示したメモリ302、ディスク305などの記憶装置に記憶されたプログラムをCPU301に実行させることにより、または、I/F303により、その機能を実現する。各機能部の処理結果は、例えば、メモリ302、ディスク305などの記憶装置に記憶される。また、記憶部810は、例えば、メモリ302、ディスク305などの記憶装置により実現される。具体的には、例えば、記憶部810は、質問別曖昧度分布DB220、ユーザ別曖昧度分布DB230および学習データDB240などを記憶する。
(Example of functional configuration of information processing device 101)
FIG. 8 is a block diagram showing a functional configuration example of the information processing apparatus 101. In FIG. 8, the information processing apparatus 101 includes a reception unit 801, a specific unit 802, a generation unit 803, an output unit 804, and a storage unit 810. The reception unit 801 to the output unit 804 are functions that serve as control units. Specifically, for example, by causing the CPU 301 to execute a program stored in a storage device such as the memory 302 and the disk 305 shown in FIG. Alternatively, the function is realized by the I / F 303. The processing result of each functional unit is stored in a storage device such as a memory 302 or a disk 305. Further, the storage unit 810 is realized by, for example, a storage device such as a memory 302 and a disk 305. Specifically, for example, the storage unit 810 stores the question-specific ambiguity distribution DB 220, the user-specific ambiguity distribution DB 230, the learning data DB 240, and the like.

受付部801は、ある質問Qに対して回答者RTが行った回答の内容を示す内容情報と、該回答時における回答者RTの状態を示す状態情報と、を受け付ける。ここで、回答の内容は、質問Qに対する回答者RTの答えである。また、回答者RTの状態は、回答者RTの感情、振る舞い、フィラーの出現状況などである。回答者RTは、ロボット201のユーザである。 The reception unit 801 receives content information indicating the content of the answer given by the respondent RT to a certain question Q and status information indicating the state of the respondent RT at the time of the answer. Here, the content of the answer is the answer of the respondent RT to the question Q. The state of the respondent RT is the emotion, behavior, appearance status of the filler, and the like of the respondent RT. Respondent RT is a user of robot 201.

具体的には、例えば、受付部801は、取得部805と、解析部806と、を含む。取得部805は、ロボット201から、質問Qの回答時における音声データを取得する。質問Qの回答時における音声データは、例えば、質問Qに対する応答区間に、図4に示したロボット201のマイクロフォン408によって受音された音声の音声データである。また、取得部805は、ロボット201から、質問Qの回答時における画像データを取得する。質問Qの回答時における画像データは、例えば、質問Qに対する応答区間に、図4に示したロボット201のカメラ409によって撮像された画像の画像データである。 Specifically, for example, the reception unit 801 includes an acquisition unit 805 and an analysis unit 806. The acquisition unit 805 acquires voice data at the time of answering the question Q from the robot 201. The voice data at the time of answering the question Q is, for example, the voice data of the voice received by the microphone 408 of the robot 201 shown in FIG. 4 in the response section to the question Q. Further, the acquisition unit 805 acquires the image data at the time of answering the question Q from the robot 201. The image data at the time of answering the question Q is, for example, the image data of the image captured by the camera 409 of the robot 201 shown in FIG. 4 in the response section to the question Q.

応答区間は、例えば、ロボット201による質問Qの発話が終了してから、予め決められた時間(例えば、10秒)が経過するまでの区間である。ただし、応答区間の終了時点は、質問Qに対するユーザによる回答が終了した、すなわち、ユーザの発話が終了したと判断したタイミングであってもよい。また、応答区間は、ユーザの発話区間であってもよい。発話区間とは、ユーザが発話した区間である。発話区間は、質問Qの回答時における音声データを解析することにより検出することができる。 The response section is, for example, a section from the end of the utterance of the question Q by the robot 201 until a predetermined time (for example, 10 seconds) elapses. However, the end time of the response section may be the timing when it is determined that the answer to the question Q by the user is completed, that is, the utterance of the user is completed. Further, the response section may be the utterance section of the user. The utterance section is a section spoken by the user. The utterance section can be detected by analyzing the voice data at the time of answering the question Q.

解析部806は、取得された質問Qの回答時における音声データを解析することにより、質問Qに対して回答者RTが行った回答の内容を検出する。具体的には、例えば、解析部806は、音声認識して得られるユーザの話し言葉を文字列に変換した結果を、質問Qに対して回答者RTが行った回答の内容として検出することにしてもよい。この場合、受付部801は、検出された回答の内容を示す情報を、質問Qに対して回答者RTが行った回答の内容を示す内容情報として受け付ける。 The analysis unit 806 detects the content of the answer given by the respondent RT to the question Q by analyzing the voice data at the time of answering the acquired question Q. Specifically, for example, the analysis unit 806 decides to detect the result of converting the spoken language of the user obtained by voice recognition into a character string as the content of the answer given by the respondent RT to the question Q. May be good. In this case, the reception unit 801 accepts the information indicating the content of the detected answer as the content information indicating the content of the answer given by the respondent RT to the question Q.

また、解析部806は、取得された質問Qの回答時における音声データを解析することにより、回答者RTのフィラーが出現した区間を検出する。そして、解析部806は、検出した結果に基づいて、質問Qの回答時におけるフィラーの出現状況を算出する。具体的には、例えば、解析部806は、質問Qの応答区間と、検出したフィラーが出現した区間とから、質問Qの回答時におけるフィラーの割合を算出する。この場合、受付部801は、例えば、算出されたフィラーの割合を示す情報を、質問Qの回答時における回答者RTの状態を示す状態情報として受け付ける。 Further, the analysis unit 806 detects the section in which the filler of the respondent RT appears by analyzing the voice data at the time of answering the acquired question Q. Then, the analysis unit 806 calculates the appearance state of the filler at the time of answering the question Q based on the detected result. Specifically, for example, the analysis unit 806 calculates the ratio of the filler at the time of answering the question Q from the response section of the question Q and the section in which the detected filler appears. In this case, the reception unit 801 receives, for example, information indicating the calculated percentage of the filler as state information indicating the state of the respondent RT at the time of answering the question Q.

ここで、図9を用いて、フィラーの割合の算出例について説明する。 Here, an example of calculating the ratio of the filler will be described with reference to FIG.

図9は、フィラーが出現した区間の検出例を示す説明図である。図9において、t軸は、時間の経過を示す。時点tSは、質問Qに対する応答区間の開始時点を示す。時点tEは、質問Qに対する応答区間の終了時点を示す。ここでは、質問Qに対する応答区間において、フィラーが出現した区間s1,s2が検出された場合を想定する。 FIG. 9 is an explanatory diagram showing an example of detection of a section in which a filler appears. In FIG. 9, the t-axis shows the passage of time. The time point tS indicates the start time point of the response interval to the question Q. The time point tE indicates the end time point of the response interval to the question Q. Here, it is assumed that the sections s1 and s2 in which the filler appears are detected in the response section to the question Q.

また、応答区間の区間長を「10秒」とし、各区間s1,s2の区間長を「1秒」とする。この場合、解析部806は、区間s1,s2の区間長の合計「2秒」を、応答区間の区間長「10秒」で除算することにより、フィラーの割合「20%」を算出する。そして、受付部801は、算出されたフィラーの割合「20%」を示す情報を、質問Qの回答時における回答者RTの状態を示す状態情報として受け付ける。 Further, the section length of the response section is set to "10 seconds", and the section length of each section s1 and s2 is set to "1 second". In this case, the analysis unit 806 calculates the filler ratio "20%" by dividing the total section length "2 seconds" of the sections s1 and s2 by the section length "10 seconds" of the response section. Then, the reception unit 801 receives the information indicating the calculated filler ratio "20%" as the state information indicating the state of the respondent RT at the time of answering the question Q.

また、解析部806は、取得された質問Qの回答時における音声データを解析することにより、回答者RTの感情をあらわす感情値を算出する。感情値としては、例えば、回答者RTの喜び、悲しみ、怒り、平静をあらわすものがある。具体的には、例えば、解析部806は、音声の周波数、発話速度(ピッチ)、音声の大きさなどから、回答者RTの喜び、悲しみ、怒り、平静をあらわす感情値をそれぞれ算出することにしてもよい。 Further, the analysis unit 806 calculates an emotion value representing the emotion of the respondent RT by analyzing the voice data at the time of answering the acquired question Q. The emotional value includes, for example, the joy, sadness, anger, and calmness of the respondent RT. Specifically, for example, the analysis unit 806 will calculate the emotional values representing the joy, sadness, anger, and calmness of the respondent RT from the frequency of the voice, the speech speed (pitch), the loudness of the voice, and the like. You may.

この場合、受付部801は、例えば、算出された回答者RTの感情をあらわす感情値を示す情報を、質問Qの回答時における回答者RTの状態を示す状態情報として受け付ける。なお、音声データから人物の感情値を求める手法として、既存の如何なる技術を用いることにしてもよい。 In this case, the reception unit 801 receives, for example, the calculated emotion value indicating the emotion of the respondent RT as the state information indicating the state of the respondent RT at the time of answering the question Q. Any existing technique may be used as a method for obtaining the emotional value of a person from voice data.

また、解析部806は、取得された質問Qの回答時における画像データを解析することにより、回答者RTの感情をあらわす感情値を算出することにしてもよい。具体的には、例えば、解析部806は、取得された質問Qの回答時における画像データから顔画像を検出し、検出した顔画像の表情を判定する。そして、解析部806は、判定した結果に基づいて、回答者RTの感情をあらわす感情値を算出する。 Further, the analysis unit 806 may calculate an emotion value representing the emotion of the respondent RT by analyzing the image data at the time of answering the acquired question Q. Specifically, for example, the analysis unit 806 detects a face image from the image data at the time of answering the acquired question Q, and determines the facial expression of the detected face image. Then, the analysis unit 806 calculates an emotion value representing the emotion of the respondent RT based on the determination result.

ここで、図10を用いて、ロボット201のユーザである回答者RTの感情をあらわす感情値の算出例について説明する。ここでは、感情値として、回答者RTの喜びをあらわす感情値を算出する場合を例に挙げて説明する。 Here, an example of calculating an emotion value representing the emotion of the respondent RT who is the user of the robot 201 will be described with reference to FIG. Here, as an emotional value, a case of calculating an emotional value expressing the joy of the respondent RT will be described as an example.

図10は、回答者の感情をあらわす感情値の算出例を示す説明図である。図10において、t軸は、時間の経過を示す。時点tSは、質問Qに対する応答区間の開始時点を示す。時点tEは、質問Qに対する応答区間の終了時点を示す。ここでは、質問Qに対する応答区間において、顔画像p1~p6が検出された場合を想定する。 FIG. 10 is an explanatory diagram showing an example of calculating an emotion value representing the emotion of the respondent. In FIG. 10, the t-axis shows the passage of time. The time point tS indicates the start time point of the response interval to the question Q. The time point tE indicates the end time point of the response interval to the question Q. Here, it is assumed that the face images p1 to p6 are detected in the response section to the question Q.

解析部806は、検出した各顔画像p1~p6の表情を判定する。ここで、顔画像p1~p3が平静(無表情)と判定され、顔画像p4~p6が喜びと判定されたとする。この場合、解析部806は、例えば、喜びと判定した顔画像p4~p6の数「3」を、応答区間において検出した顔画像p1~p6の数「6」で除算することにより、回答者RTの喜びをあらわす感情値「50(=3/6×100)」を算出する。そして、受付部801は、算出された回答者RTの喜びをあらわす感情値「50」を示す情報を、質問Qの回答時における回答者RTの状態を示す状態情報として受け付ける。 The analysis unit 806 determines the facial expressions of the detected facial images p1 to p6. Here, it is assumed that the face images p1 to p3 are determined to be calm (expressionless), and the face images p4 to p6 are determined to be joy. In this case, the analysis unit 806 divides, for example, the number "3" of the face images p4 to p6 determined to be joy by the number "6" of the face images p1 to p6 detected in the response section, so that the respondent RT The emotional value "50 (= 3/6 x 100)" that expresses the joy of Then, the reception unit 801 receives the calculated information indicating the emotion value "50" representing the joy of the respondent RT as the state information indicating the state of the respondent RT at the time of answering the question Q.

また、解析部806は、取得された質問Qの回答時における画像データを解析することにより、回答者RTの振る舞いをあらわす値を算出する。回答者RTの振る舞いをあらわす値としては、例えば、回答者RTの視線がロボット201と合うまでの時間や、回答者RTが静止状態(例えば、首や腕の動きがない状態)となるまでの時間などが挙げられる。なお、回答者RTの視線がロボット201と合うとは、例えば、回答者RTの視線がロボット201のディスプレイ403に表示されたロボット201の目のほうに向くことである。 Further, the analysis unit 806 calculates a value representing the behavior of the respondent RT by analyzing the image data at the time of answering the acquired question Q. The values representing the behavior of the respondent RT include, for example, the time until the line of sight of the respondent RT meets the robot 201, and the time until the respondent RT becomes stationary (for example, there is no movement of the neck or arm). Time etc. can be mentioned. The line of sight of the respondent RT is aligned with the robot 201, for example, the line of sight of the respondent RT is directed toward the eyes of the robot 201 displayed on the display 403 of the robot 201.

この場合、受付部801は、例えば、算出された回答者RTの振る舞いをあらわす値を示す情報を、質問Qの回答時における回答者RTの状態を示す状態情報として受け付ける。なお、人物を撮像した画像から人物の視線や動作を検出する手法として、既存の如何なる技術を用いることにしてもよい。 In this case, the reception unit 801 receives, for example, information indicating the calculated behavior of the respondent RT as state information indicating the state of the respondent RT at the time of answering the question Q. Any existing technique may be used as a method for detecting the line of sight or movement of a person from an image obtained by capturing the person.

ここで、図11を用いて、ロボット201のユーザである回答者RTの振る舞いをあらわす値の算出例について説明する。ここでは、振る舞いをあらわす値として、回答者RTの視線がロボット201と合うまでの時間を算出する場合を例に挙げて説明する。 Here, an example of calculating a value representing the behavior of the respondent RT who is the user of the robot 201 will be described with reference to FIG. Here, as a value representing the behavior, a case where the time until the line of sight of the respondent RT matches the robot 201 is calculated will be described as an example.

図11は、回答者の振る舞いをあらわす値の算出例を示す説明図である。図11において、t軸は、時間の経過を示す。時点tSは、質問Qに対する応答区間の開始時点を示す。時点tEは、質問Qに対する応答区間の終了時点を示す。ここでは、質問Qに対する応答区間において、顔画像p11~p16に示すような回答者の視線が検出された場合を想定する。 FIG. 11 is an explanatory diagram showing an example of calculating a value representing the behavior of the respondent. In FIG. 11, the t-axis shows the passage of time. The time point tS indicates the start time point of the response interval to the question Q. The time point tE indicates the end time point of the response interval to the question Q. Here, it is assumed that the line of sight of the respondent as shown in the facial images p11 to p16 is detected in the response section to the question Q.

また、顔画像p11~p16のうち、顔画像p15,p16が、回答者RTの視線がロボット201と合ったときの顔画像とする。この場合、解析部806は、例えば、時点tSから顔画像p15で示す回答者RTの視線が検出された時点t1までの時間を、回答者RTの視線がロボット201と合うまでの時間「t1-tS」として算出する。そして、受付部801は、算出された視線が合うまでの時間「t1-tS」を示す情報を、質問Qの回答時における回答者RTの状態を示す状態情報として受け付ける。 Further, among the face images p11 to p16, the face images p15 and p16 are the face images when the line of sight of the respondent RT matches the robot 201. In this case, the analysis unit 806 sets the time from the time point tS to the time point t1 when the line of sight of the respondent RT shown in the face image p15 is detected, and the time until the line of sight of the respondent RT matches the robot 201 "t1-". Calculated as "tS". Then, the reception unit 801 receives the information indicating the calculated time until the line of sight is met "t1-tS" as the state information indicating the state of the respondent RT at the time of answering the question Q.

なお、質問Qに対して回答者RTが行った回答の内容を示す内容情報と、該回答時における回答者RTの状態を示す状態情報とは、ロボット201において生成されることにしてもよい。この場合、受付部801は、質問Qに対して回答者RTが行った回答の内容を示す内容情報と、該回答時における回答者RTの状態を示す状態情報と、をロボット201から受け付ける。また、受付部801は、取得部805および解析部806を含まないことにしてもよい。 The content information indicating the content of the answer given by the respondent RT to the question Q and the state information indicating the state of the respondent RT at the time of the answer may be generated by the robot 201. In this case, the reception unit 801 receives from the robot 201 the content information indicating the content of the answer given by the respondent RT to the question Q and the state information indicating the state of the respondent RT at the time of the answer. Further, the reception unit 801 may not include the acquisition unit 805 and the analysis unit 806.

また、質問Qに対する回答は、例えば、図4に示したロボット201の入力装置404を用いたユーザ(回答者RT)の操作により入力されることにしてもよい。この場合、受付部801は、ロボット201に入力された結果を、質問Qに対して回答者RTが行った回答の内容を示す内容情報として、ロボット201から受け付けることにしてもよい。 Further, the answer to the question Q may be input by the operation of the user (respondent RT) using the input device 404 of the robot 201 shown in FIG. 4, for example. In this case, the reception unit 801 may receive the result input to the robot 201 from the robot 201 as content information indicating the content of the answer given by the respondent RT to the question Q.

特定部802は、受け付けた状態情報に基づき、受け付けた内容情報の曖昧度vを特定する。具体的には、例えば、特定部802は、記憶部810を参照して、受け付けた状態情報と、質問Qの種別と、に対応付けられた曖昧度vを特定する。記憶部810には、質問に対して回答者が行った回答の内容の曖昧度が、該回答時における該回答者の状態を示す状態情報と、該質問の種別と、に対応付けて記憶されている。質問の種別は、例えば、質問一つ一つを区別するものである。 The specifying unit 802 specifies the ambiguity level v of the received content information based on the received state information. Specifically, for example, the specific unit 802 refers to the storage unit 810 and specifies the degree of ambiguity v associated with the received state information and the type of the question Q. The storage unit 810 stores the ambiguity of the content of the answer given by the respondent to the question in association with the state information indicating the state of the respondent at the time of the answer and the type of the question. ing. The type of question is, for example, to distinguish each question.

より詳細に説明すると、例えば、特定部802は、図5に示した質問別曖昧度分布DB220を参照して、質問Qの質問IDに対応する質問別曖昧度情報を取得する。取得した質問別曖昧度情報によれば、質問Qに対する回答時における回答者RTの各状態に応じた曖昧度の分布を特定することができる。 More specifically, for example, the specific unit 802 refers to the question-specific ambiguity distribution DB 220 shown in FIG. 5 and acquires the question-specific ambiguity information corresponding to the question ID of the question Q. According to the acquired ambiguity information for each question, it is possible to specify the distribution of the ambiguity according to each state of the respondent RT at the time of answering the question Q.

例えば、縦軸を曖昧度とし、横軸をフィラーの割合とする座標系において、取得された各質問別曖昧度情報が示す曖昧度とフィラーの割合との対応関係をプロットすることにより、質問Qに対する回答時におけるフィラーの出現状況に応じた曖昧度の分布を特定することができる。また、各質問別曖昧度情報が示す曖昧度と感情値との対応関係をプロットすることにより、質問Qに対する回答時における回答者RTの感情に応じた曖昧度の分布を特定することができる。また、各質問別曖昧度情報が示す曖昧度と振る舞いをあらわす値との対応関係をプロットすることにより、質問Qに対する回答時における回答者RTの振る舞いに応じた曖昧度の分布を特定することができる。 For example, in a coordinate system in which the vertical axis is the ambiguity and the horizontal axis is the filler ratio, the question Q is plotted by plotting the correspondence between the ambiguity indicated by the acquired ambiguity information for each question and the filler ratio. It is possible to specify the distribution of ambiguity according to the appearance status of the filler at the time of answering. Further, by plotting the correspondence between the ambiguity and the emotion value indicated by the ambiguity information for each question, it is possible to specify the distribution of the ambiguity according to the emotion of the respondent RT at the time of answering the question Q. In addition, by plotting the correspondence between the ambiguity indicated by the ambiguity information for each question and the value representing the behavior, it is possible to specify the distribution of the ambiguity according to the behavior of the respondent RT when answering the question Q. can.

そして、特定部802は、取得した質問別曖昧度情報から特定される曖昧度の分布に基づいて、受け付けた状態情報が示す回答者RTの状態に対応する曖昧度を、受け付けた内容情報の曖昧度vとして特定する。内容情報の曖昧度vとしては、例えば、回答者RTの各状態(フィラーの出現状況、回答者RTの感情、回答者RTの振る舞い)に応じた曖昧度vをそれぞれ特定することができる。 Then, the specific unit 802 determines the ambiguity corresponding to the state of the respondent RT indicated by the received state information based on the distribution of the ambiguity specified from the acquired question-specific ambiguity information, and the ambiguity of the received content information. Specify as degree v. As the ambiguity v of the content information, for example, the ambiguity v according to each state of the respondent RT (appearance status of the filler, emotion of the respondent RT, behavior of the respondent RT) can be specified.

なお、内容情報の曖昧度vの特定例については、図12~図14を用いて後述する。 A specific example of the ambiguity level v of the content information will be described later with reference to FIGS. 12 to 14.

また、記憶部810には、回答者RTであるユーザについて、ある質問Qとは異なる他の質問Q’に対して該ユーザが行った回答の内容の曖昧度を、該回答時における該ユーザの状態を示す状態情報に対応付けてあらわすユーザ別曖昧度情報が記憶されていてもよい。ユーザ別曖昧度情報は、例えば、図6に示したユーザ別曖昧度分布DB230内のユーザ別曖昧度情報である。 Further, in the storage unit 810, the degree of ambiguity of the content of the answer given by the user to another question Q'different from a certain question Q for the user who is the respondent RT is determined by the user at the time of the answer. User-specific ambiguity information that is associated with the state information indicating the state may be stored. The user-specific ambiguity information is, for example, the user-specific ambiguity information in the user-specific ambiguity distribution DB 230 shown in FIG.

この場合、特定部802は、記憶部810を参照して、受け付けた状態情報と、回答者RTであるユーザと、に対応付けられた第2の曖昧度v’を特定することにしてもよい。そして、特定部802は、特定した第2の曖昧度v’に基づいて、特定した曖昧度vを補正することにしてもよい。 In this case, the specifying unit 802 may refer to the storage unit 810 to specify the second ambiguity level v'corresponding to the received state information and the user who is the respondent RT. .. Then, the specific unit 802 may correct the specified ambiguity v based on the specified second ambiguity v'.

より詳細に説明すると、例えば、特定部802は、ユーザ別曖昧度分布DB230を参照して、回答者RT(ロボット201のユーザ)のユーザIDに対応するユーザ別曖昧度情報を取得する。取得したユーザ別曖昧度情報によれば、ある質問Qとは異なる他の質問Q’に対する回答時における回答者RTの各状態に応じた曖昧度の分布を特定することができる。 More specifically, for example, the specific unit 802 refers to the user-specific ambiguity distribution DB 230 and acquires user-specific ambiguity information corresponding to the user ID of the respondent RT (user of the robot 201). According to the acquired user-specific ambiguity information, it is possible to specify the distribution of ambiguity according to each state of the respondent RT at the time of answering another question Q'different from a certain question Q.

例えば、縦軸を曖昧度とし、横軸をフィラーの割合とする座標系において、取得された各ユーザ別曖昧度情報が示す曖昧度とフィラーの割合との対応関係をプロットすることにより、回答者RTのフィラーの出現状況に応じた曖昧度の分布を特定することができる。また、各ユーザ別曖昧度情報が示す曖昧度と感情値との対応関係をプロットすることにより、回答者RTの感情に応じた曖昧度の分布を特定することができる。また、各ユーザ別曖昧度情報が示す曖昧度と振る舞いをあらわす値との対応関係をプロットすることにより、回答者RTの振る舞いに応じた曖昧度の分布を特定することができる。 For example, in a coordinate system in which the vertical axis is the ambiguity and the horizontal axis is the filler ratio, the respondents are plotted by plotting the correspondence between the ambiguity and the filler ratio indicated by the acquired ambiguity information for each user. It is possible to specify the distribution of ambiguity according to the appearance status of the RT filler. Further, by plotting the correspondence between the ambiguity and the emotion value indicated by the ambiguity information for each user, it is possible to specify the distribution of the ambiguity according to the emotion of the respondent RT. Further, by plotting the correspondence between the ambiguity indicated by the ambiguity information for each user and the value representing the behavior, it is possible to specify the distribution of the ambiguity according to the behavior of the respondent RT.

そして、特定部802は、取得したユーザ別曖昧度情報から特定される曖昧度の分布に基づいて、受け付けた状態情報が示す回答者RTの状態に対応する曖昧度を、第2の曖昧度v’として特定する。第2の曖昧度v’としては、例えば、回答者RTの各状態(フィラーの出現状況、回答者RTの感情、回答者RTの振る舞い)に応じた曖昧度をそれぞれ特定することができる。 Then, the specifying unit 802 sets the ambiguity corresponding to the state of the respondent RT indicated by the received state information to the second ambiguity v, based on the distribution of the ambiguity specified from the acquired user-specific ambiguity information. 'Specify as. As the second ambiguity v', for example, the ambiguity according to each state of the respondent RT (appearance status of the filler, emotion of the respondent RT, behavior of the respondent RT) can be specified.

曖昧度vの補正方法としては、例えば、特定部802は、曖昧度vと第2の曖昧度v’との平均値を、補正後の曖昧度vとして算出することにしてもよい。また、特定部802は、曖昧度vおよび第2の曖昧度v’のうちの最大の曖昧度(または、最小の曖昧度)を、補正後の曖昧度vとしてもよい。 As a method for correcting the ambiguity v, for example, the specific unit 802 may calculate the average value of the ambiguity v and the second ambiguity v'as the corrected ambiguity v. Further, the specific unit 802 may set the maximum ambiguity (or the minimum ambiguity) of the ambiguity v and the second ambiguity v'as the corrected ambiguity v.

なお、曖昧度vの補正例については、図15を用いて後述する。 An example of correction of the degree of ambiguity v will be described later with reference to FIG.

生成部803は、受け付けた内容情報に、特定された曖昧度v、または、補正された補正後の曖昧度vに応じた情報を対応付けた学習データを生成する。ここで、曖昧度vに応じた情報は、例えば、曖昧度vを示す情報であってもよいし、曖昧度vが基準を超えるか否かを示す情報であってもよい。 The generation unit 803 generates learning data in which the received content information is associated with the specified ambiguity v or the corrected ambiguity v. Here, the information according to the degree of ambiguity v may be, for example, information indicating the degree of ambiguity v, or information indicating whether or not the degree of ambiguity v exceeds the standard.

また、生成部803は、受け付けた内容情報と、質問Qの内容とに、特定された曖昧度v(または、補正後の曖昧度v)に応じた情報を対応付けた学習データを生成することにしてもよい。ここで、質問Qの内容は、例えば、質問Qの中身をあらわす文字列、画像などである。 Further, the generation unit 803 generates learning data in which the received content information and the content of the question Q are associated with the information corresponding to the specified ambiguity v (or the corrected ambiguity v). You may do it. Here, the content of the question Q is, for example, a character string representing the contents of the question Q, an image, or the like.

また、生成部803は、受け付けた内容情報と、質問Qの内容と、回答者RTを特定する情報とに、特定された曖昧度v(または、補正後の曖昧度v)に応じた情報を対応付けた学習データを生成することにしてもよい。ここで、回答者RTを特定する情報は、例えば、回答者RTであるユーザのユーザIDである。 Further, the generation unit 803 adds information according to the specified ambiguity v (or corrected ambiguity v) to the received content information, the content of the question Q, and the information specifying the respondent RT. The associated learning data may be generated. Here, the information that identifies the respondent RT is, for example, the user ID of the user who is the respondent RT.

また、回答者RTを特定する情報は、回答者RTであるユーザの氏名、性別、年齢などを示す情報であってもよい。なお、回答者RTであるユーザの氏名、性別、年齢は、例えば、該ユーザのユーザIDと対応付けて、メモリ302、ディスク305などの記憶装置に記憶されている。 Further, the information that identifies the respondent RT may be information indicating the name, gender, age, etc. of the user who is the respondent RT. The name, gender, and age of the user who is the respondent RT are stored in a storage device such as a memory 302 or a disk 305 in association with the user ID of the user, for example.

具体的には、例えば、生成部803は、受け付けた内容情報と、質問Qの内容と、回答者RTを特定する情報と、特定された曖昧度v(または、補正後の曖昧度v)と、曖昧度vが基準を超えるか否かを示す情報とを含む学習データを生成することにしてもよい。生成された学習データは、例えば、図7に示した学習データDB240に記憶される。 Specifically, for example, the generation unit 803 includes the received content information, the content of the question Q, the information specifying the respondent RT, and the specified ambiguity v (or the corrected ambiguity v). , The learning data including the information indicating whether or not the ambiguity v exceeds the standard may be generated. The generated learning data is stored in, for example, the learning data DB 240 shown in FIG. 7.

なお、図7の例では、学習データには、質問Qに対する回答時における回答者RTの各状態に応じた曖昧度のうちのいずれかの曖昧度のみが含まれる場合を例に挙げたが、これに限らない。例えば、学習データには、質問Qに対する回答時における回答者RTの各状態(フィラーの出現状況、回答者RTの感情、回答者RTの振る舞い)に応じた曖昧度が全て含まれていてもよい。さらに、回答者RTの感情に応じた曖昧度として、例えば、回答者RTの喜び、悲しみ、怒り、平静をあらわす感情値それぞれに応じた曖昧度が含まれていてもよい。また、学習データには、質問Qに対する回答時における回答者RTの各状態に応じた曖昧度のうちの最大の曖昧度(または、最小の曖昧度)のみが含まれることにしてもよい。 In the example of FIG. 7, the case where the learning data includes only one of the ambiguities corresponding to each state of the respondent RT at the time of answering the question Q is taken as an example. Not limited to this. For example, the learning data may include all ambiguities according to each state of the respondent RT (filler appearance status, emotion of the respondent RT, behavior of the respondent RT) at the time of answering the question Q. .. Further, as the ambiguity according to the emotion of the respondent RT, for example, the ambiguity corresponding to each of the emotion values representing the joy, sadness, anger, and calmness of the respondent RT may be included. Further, the learning data may include only the maximum ambiguity (or the minimum ambiguity) among the ambiguities corresponding to each state of the respondent RT at the time of answering the question Q.

出力部804は、生成された情報を出力する。出力部804の出力形式としては、例えば、メモリ302、ディスク305などの記憶装置への記憶、I/F303による他のコンピュータへの送信などがある。具体的には、例えば、出力部804は、学習データDB240に記憶された学習データ(例えば、学習データ700-1)を出力することにしてもよい。学習データは、例えば、ロボット201のユーザの趣味嗜好を学習するための情報として用いられる。 The output unit 804 outputs the generated information. The output format of the output unit 804 includes, for example, storage in a storage device such as a memory 302 and a disk 305, and transmission to another computer by the I / F 303. Specifically, for example, the output unit 804 may output the learning data (for example, the learning data 700-1) stored in the learning data DB 240. The learning data is used, for example, as information for learning the hobbies and tastes of the user of the robot 201.

なお、ロボット201からどの質問Qをユーザに出すのかは、情報処理装置101が制御してもよく、また、ロボット201が自律的に選択することにしてもよい。また、ロボット201において、質問Qは、図4に示したスピーカ407から出力されることにしてもよく、また、図4に示したディスプレイ403を用いて出力されることにしてもよい。 The information processing apparatus 101 may control which question Q is given to the user from the robot 201, or the robot 201 may autonomously select the question Q. Further, in the robot 201, the question Q may be output from the speaker 407 shown in FIG. 4 or may be output using the display 403 shown in FIG.

また、質問Qに対して、肯定的(ポジティブ)な回答をするときと、否定的(ネガティブ)な回答をするときとでは、回答者RTの感情のあらわれ方が異なることがある。例えば、肯定的な回答をするときは、否定的な回答をするときに比べて、喜びの感情が出やすい。一方、否定的な回答をするときは、肯定的な回答をするときに比べて、悲しみの感情が出やすい。 In addition, the emotions of the respondent RT may appear differently when giving a positive (positive) answer to the question Q and when giving a negative (negative) answer. For example, when giving a positive answer, feelings of joy are more likely to occur than when giving a negative answer. On the other hand, when giving a negative answer, feelings of sadness are more likely to occur than when giving a positive answer.

そこで、特定部802は、質問Qに対して回答者RTが行った回答の内容に応じて、該回答についての曖昧度vの特定に用いる質問別曖昧度情報を絞り込むことにしてもよい。例えば、質問別曖昧度分布DB220内の質問別曖昧度情報には、肯定的または否定的のいずれの回答が得られたときの情報であるかを判別する語句Wが含まれていてもよい。 Therefore, the specifying unit 802 may narrow down the question-specific ambiguity information used to specify the ambiguity v for the answer according to the content of the answer given by the respondent RT to the question Q. For example, the question-specific ambiguity information in the question-specific ambiguity distribution DB 220 may include a phrase W for determining whether the information is when a positive or negative answer is obtained.

肯定的な回答が得られたときの情報であることを判別する語句Wとしては、例えば、肯定的な回答に含まれる「好き」、「はい」などがある。否定的な回答が得られたときの情報であることを判別する語句Wとしては、例えば、否定的な回答に含まれる「嫌い」、「いいえ」などがある。 Examples of the phrase W for determining that the information is obtained when a positive answer is obtained include "like" and "yes" included in the positive answer. Examples of the phrase W for determining that the information is obtained when a negative answer is obtained include "dislike" and "no" included in the negative answer.

すなわち、情報処理装置101は、肯定的な回答が得られたときの質問別曖昧度情報と、否定的な回答が得られたときの質問別曖昧度情報とを区別して保持する。この場合、特定部802は、例えば、質問別曖昧度分布DB220を参照して、質問Qの質問IDに対応する質問別曖昧度情報であって、質問Qに対して回答者RTが行った回答の中に、語句Wが含まれる質問別曖昧度情報を取得する。そして、特定部802は、取得した質問別曖昧度情報に基づいて、受け付けた内容情報の曖昧度vを特定する。 That is, the information processing apparatus 101 distinguishes between the question-specific ambiguity information when a positive answer is obtained and the question-specific ambiguity information when a negative answer is obtained. In this case, the specific unit 802 refers to, for example, the question-specific ambiguity distribution DB 220, and is the question-specific ambiguity information corresponding to the question ID of the question Q, and is the answer given by the respondent RT to the question Q. The ambiguity information for each question including the phrase W is acquired. Then, the specifying unit 802 specifies the ambiguity level v of the received content information based on the acquired ambiguity level information for each question.

例えば、質問Qに対して回答者RTが行った回答の内容を「すごく好きです。」とする。この場合、質問Qの質問IDに対応する質問別曖昧度情報のうち、語句W「好き」を含む質問別曖昧度情報が取得される。これにより、質問Qに対して回答者RTが肯定的な回答をしたときは、肯定的な回答が得られたときの質問別曖昧度情報を用いて、曖昧度vを特定することができる。 For example, the content of the answer given by the respondent RT to the question Q is "I really like it." In this case, among the question-specific ambiguity information corresponding to the question ID of the question Q, the question-specific ambiguity information including the phrase W "like" is acquired. Thereby, when the respondent RT gives a positive answer to the question Q, the ambiguity v can be specified by using the ambiguity information for each question when the positive answer is obtained.

また、例えば、質問Qに対して回答者RTが行った回答の内容を「嫌いだなぁ。」とする。この場合、質問Qの質問IDに対応する質問別曖昧度情報のうち、語句W「嫌い」を含む質問別曖昧度情報が取得される。これにより、質問Qに対して回答者RTが否定的な回答をしたときは、否定的な回答が得られたときの質問別曖昧度情報を用いて、曖昧度vを特定することができる。 Further, for example, the content of the answer given by the respondent RT to the question Q is "I hate it." In this case, among the question-specific ambiguity information corresponding to the question ID of the question Q, the question-specific ambiguity information including the phrase W "dislike" is acquired. Thereby, when the respondent RT gives a negative answer to the question Q, the ambiguity v can be specified by using the ambiguity information for each question when the negative answer is obtained.

また、情報処理装置101は、特定部802によって特定された曖昧度vに基づいて、質問Qの次に出す質問を制御することにしてもよい。例えば、回答者RTは、質問Qをよく聞き取れなかったり、質問Qの意図をうまく把握できなかったために、曖昧な答えとなることがある。 Further, the information processing apparatus 101 may control the question to be asked after the question Q based on the ambiguity v specified by the specific unit 802. For example, the respondent RT may have an ambiguous answer because he / she could not hear the question Q well or could not grasp the intention of the question Q well.

このため、情報処理装置101は、曖昧度vが基準を超えている場合は、ロボット201を制御して、質問Qと内容が類似する質問であって、質問Qと聞き方を変えた質問(例えば、Question2の質問Q)を出力することにしてもよい。これにより、回答者RTが、質問Qをよく聞き取れなかったり、質問Qの意図をうまく把握できなかったりしたときに、自然なかたちで聞き直して、回答を聞き出すことが可能となる。 Therefore, when the ambiguity level v exceeds the standard, the information processing apparatus 101 controls the robot 201 to ask a question whose content is similar to that of the question Q, and which is different from the question Q (question Q). For example, Question Q) of Question 2 may be output. As a result, when the respondent RT cannot hear the question Q well or cannot grasp the intention of the question Q well, he / she can naturally re-listen and hear the answer.

(曖昧度vの特定例)
つぎに、図12~図14を用いて、ある質問Qに対して回答者RTが行った回答の内容を示す内容情報の曖昧度vの特定例について説明する。ここでは、質問Qを「質問Q10」とする。まず、図12を用いて、質問Q10に対する回答時におけるフィラーの出現状況に応じた曖昧度vの特定例について説明する。
(Specific example of ambiguity v)
Next, a specific example of the ambiguity level v of the content information indicating the content of the answer given by the respondent RT to a certain question Q will be described with reference to FIGS. 12 to 14. Here, question Q is referred to as "question Q10". First, with reference to FIG. 12, a specific example of the degree of ambiguity v according to the appearance state of the filler at the time of answering the question Q10 will be described.

図12は、曖昧度vの特定例を示す説明図(その1)である。図12において、曖昧度分布1200は、質問Q10に対する回答時におけるフィラーの割合に応じた曖昧度の分布をあらわす。曖昧度分布1200は、例えば、質問別曖昧度分布DB220内の質問ID「Q10」に対応する質問別曖昧度情報のフィラーから特定される。 FIG. 12 is an explanatory diagram (No. 1) showing a specific example of the ambiguity degree v. In FIG. 12, the ambiguity distribution 1200 represents the ambiguity distribution according to the proportion of the filler at the time of answering the question Q10. The ambiguity distribution 1200 is specified, for example, from the filler of the ambiguity information for each question corresponding to the question ID "Q10" in the ambiguity distribution DB 220 for each question.

ここで、質問Q10に対する回答時における回答者RTの状態を示す状態情報として、フィラーの割合「30%」を示す状態情報を受け付けた場合を想定する。この場合、特定部802は、状態情報が示すフィラーの割合「30%」に対応する曖昧度「33%」を、内容情報の曖昧度v(フィラー)として特定する。 Here, it is assumed that the state information indicating the filler ratio “30%” is received as the state information indicating the state of the respondent RT at the time of answering the question Q10. In this case, the specifying unit 802 specifies the ambiguity "33%" corresponding to the filler ratio "30%" indicated by the state information as the ambiguity v (filler) of the content information.

つぎに、図13を用いて、質問Q10に対する回答時における回答者RTの喜びをあらわす感情値に応じた曖昧度vの特定例について説明する。 Next, with reference to FIG. 13, a specific example of the degree of ambiguity v according to the emotional value representing the joy of the respondent RT at the time of answering the question Q10 will be described.

図13は、曖昧度vの特定例を示す説明図(その2)である。図13において、曖昧度分布1300は、質問Q10に対する回答時における回答者の喜びをあらわす感情値に応じた曖昧度の分布をあらわす。曖昧度分布1300は、例えば、質問別曖昧度分布DB220内の質問ID「Q10」に対応する質問別曖昧度情報の感情値から特定される。 FIG. 13 is an explanatory diagram (No. 2) showing a specific example of the ambiguity degree v. In FIG. 13, the ambiguity distribution 1300 represents the distribution of ambiguity according to the emotional value that expresses the joy of the respondent when answering the question Q10. The ambiguity distribution 1300 is specified, for example, from the emotional value of the ambiguity information for each question corresponding to the question ID "Q10" in the ambiguity distribution DB 220 for each question.

ここで、質問Q10に対する回答時における回答者RTの状態を示す状態情報として、回答者RTの喜びをあらわす感情値「10」を示す状態情報を受け付けた場合を想定する。この場合、特定部802は、状態情報が示す感情値「10」に対応する曖昧度「70%」を、内容情報の曖昧度v(感情)として特定する。 Here, as the state information indicating the state of the respondent RT at the time of answering the question Q10, it is assumed that the state information indicating the emotion value “10” expressing the joy of the respondent RT is received. In this case, the specifying unit 802 specifies the ambiguity "70%" corresponding to the emotion value "10" indicated by the state information as the ambiguity v (emotion) of the content information.

つぎに、図14を用いて、質問Q10に対する回答時における回答者RTの振る舞いをあらわす値に応じた曖昧度vの特定例について説明する。 Next, with reference to FIG. 14, a specific example of the degree of ambiguity v according to the value representing the behavior of the respondent RT at the time of answering the question Q10 will be described.

図14は、曖昧度vの特定例を示す説明図(その3)である。図14において、曖昧度分布1400は、質問Q10に対する回答時における回答者の視線がロボット201と合うまでの時間に応じた曖昧度の分布をあらわす。曖昧度分布1400は、例えば、質問別曖昧度分布DB220内の質問ID「Q10」に対応する質問別曖昧度情報の振る舞いから特定される。 FIG. 14 is an explanatory diagram (No. 3) showing a specific example of the ambiguity degree v. In FIG. 14, the ambiguity distribution 1400 represents the distribution of ambiguity according to the time until the respondent's line of sight matches the robot 201 when answering the question Q10. The ambiguity distribution 1400 is specified, for example, from the behavior of the ambiguity information for each question corresponding to the question ID "Q10" in the ambiguity distribution DB 220 for each question.

ここで、質問Q10に対する回答時における回答者RTの状態を示す状態情報として、回答者RTの視線がロボット201と合うまでの時間「15秒」を示す状態情報を受け付けた場合を想定する。この場合、特定部802は、状態情報が示す時間「15」に対応する曖昧度「70%」を、内容情報の曖昧度v(視線が合うまでの時間)として特定する。 Here, as the state information indicating the state of the respondent RT at the time of answering the question Q10, it is assumed that the state information indicating the time "15 seconds" until the line of sight of the respondent RT meets the robot 201 is received. In this case, the specifying unit 802 specifies the ambiguity "70%" corresponding to the time "15" indicated by the state information as the ambiguity v (time until the line of sight is met) of the content information.

(曖昧度vの補正例)
つぎに、図15を用いて、ある質問Qに対して回答者RTが行った回答の内容を示す内容情報の曖昧度vの補正例について説明する。ここでは、質問Qを「質問Q10」とし、質問Q10に対する回答時におけるフィラーの出現状況に応じた曖昧度vの補正例について説明する。また、回答者RTを、ユーザID「U1」のユーザU1とする。
(Example of correction of ambiguity v)
Next, with reference to FIG. 15, an example of correcting the ambiguity degree v of the content information indicating the content of the answer given by the respondent RT to a certain question Q will be described. Here, the question Q is referred to as "question Q10", and an example of correcting the ambiguity level v according to the appearance state of the filler at the time of answering the question Q10 will be described. Further, the respondent RT is set to the user U1 of the user ID "U1".

図15は、曖昧度vの補正例を示す説明図である。図15において、曖昧度分布1500は、回答者RTであるユーザU1の回答時におけるフィラーの割合に応じた曖昧度の分布をあらわす。曖昧度分布1500は、例えば、ユーザ別曖昧度分布DB230内のユーザID「U1」に対応するユーザ別曖昧度情報のフィラーから特定される。 FIG. 15 is an explanatory diagram showing an example of correction of the ambiguity degree v. In FIG. 15, the ambiguity distribution 1500 represents the ambiguity distribution according to the ratio of the filler at the time of answering by the user U1 who is the respondent RT. The ambiguity distribution 1500 is specified, for example, from the filler of the ambiguity information for each user corresponding to the user ID "U1" in the ambiguity distribution DB 230 for each user.

ここで、質問Q10に対する回答時における回答者RTの状態を示す状態情報として、フィラーの割合「30%」を示す状態情報を受け付けた場合を想定する。この場合、特定部802は、状態情報が示すフィラーの割合「30%」に対応する曖昧度「10%」を、第2の曖昧度v’(フィラー)として特定する。 Here, it is assumed that the state information indicating the filler ratio “30%” is received as the state information indicating the state of the respondent RT at the time of answering the question Q10. In this case, the specifying unit 802 specifies the ambiguity "10%" corresponding to the filler ratio "30%" indicated by the state information as the second ambiguity v'(filler).

また、状態情報が示すフィラーの割合「30%」に対応する曖昧度vを「33%」とする(図12参照)。この場合、特定部802は、例えば、曖昧度v「33%」と第2の曖昧度v’「10」との平均値「21.5%」を、補正後の曖昧度vとして算出する。これにより、回答者RTであるユーザU1の特性に合わせて曖昧度vを補正することができる。 Further, the ambiguity v corresponding to the filler ratio “30%” indicated by the state information is set to “33%” (see FIG. 12). In this case, the specific unit 802 calculates, for example, the average value “21.5%” of the ambiguity v “33%” and the second ambiguity v ′ “10” as the corrected ambiguity v. Thereby, the ambiguity level v can be corrected according to the characteristics of the user U1 who is the respondent RT.

図15の例では、ユーザU1の特性として、フィラーの割合が0~50%ぐらいまでは曖昧度が低い値となるという傾向を考慮して、曖昧度vを「33%」から「21.5%」に補正することができる。 In the example of FIG. 15, as a characteristic of the user U1, the ambiguity v is set from "33%" to "21.5" in consideration of the tendency that the ambiguity is low when the ratio of the filler is about 0 to 50%. It can be corrected to "%".

(情報処理装置101の各種処理手順)
つぎに、情報処理装置101の各種処理手順について説明する。まず、図16に示すような状態判定用質問リスト1600を用いて、ロボット201のユーザの特性をあらわすユーザ別曖昧度情報を作成するユーザ別曖昧度情報作成処理手順について説明する。ユーザ別曖昧度情報作成処理は、例えば、ユーザがロボット201の使用を開始するにあたって、初期設定にかかる処理の一つとして行われる。
(Various processing procedures of the information processing device 101)
Next, various processing procedures of the information processing apparatus 101 will be described. First, a user-specific ambiguity information creation processing procedure for creating user-specific ambiguity information representing the characteristics of the user of the robot 201 will be described using the state determination question list 1600 as shown in FIG. The user-specific ambiguity information creation process is performed, for example, as one of the processes related to the initial setting when the user starts using the robot 201.

図16は、状態判定用質問リスト1600の具体例を示す説明図である。図16において、状態判定用質問リスト1600は、曖昧度(単位:%)と質問とを対応付けてあらわす状態判定用質問情報1600-1~1600-11を含む。各状態判定用質問情報1600-1~1600-11は、各質問に対してユーザが回答する際に、曖昧度がどの程度のものとなるかを予め推定して作成される。 FIG. 16 is an explanatory diagram showing a specific example of the status determination question list 1600. In FIG. 16, the state determination question list 1600 includes state determination question information 1600-1 to 1600-11 representing the ambiguity (unit:%) and the question in association with each other. The question information 1600-1 to 1600-11 for each state determination is created by estimating in advance how much the degree of ambiguity will be when the user answers each question.

例えば、状態判定用質問情報1600-1は、質問に対して全てのユーザが悩むことなく回答(例えば、「はい」)できると推定できるため、曖昧度は「0%」となっている。一方、状態判定用質問情報1600-11は、質問に対して全てのユーザが回答に悩むと推定できるため、曖昧度は「100%」となっている。 For example, since it can be estimated that all users can answer (for example, "yes") the question information for status determination without worrying about the question, the degree of ambiguity is "0%". On the other hand, since it can be estimated that all users have trouble answering the question in the state determination question information 1600-11, the degree of ambiguity is "100%".

なお、図16の例では、曖昧度が0%~100%までの10%ごとに、質問が一つずつ設定される場合を例に挙げたが、これに限らない。例えば、状態判定用質問リスト1600において、ある曖昧度に対応する質問が複数設定されていてもよい。 In the example of FIG. 16, the case where one question is set for every 10% of the ambiguity from 0% to 100% is given as an example, but the present invention is not limited to this. For example, in the state determination question list 1600, a plurality of questions corresponding to a certain degree of ambiguity may be set.

図17は、情報処理装置101のユーザ別曖昧度情報作成処理手順の一例を示すフローチャートである。図17のフローチャートにおいて、まず、情報処理装置101は、状態判定用質問リスト1600から選択されていない未選択の質問を選択する(ステップS1701)。 FIG. 17 is a flowchart showing an example of the user-specific ambiguity information creation processing procedure of the information processing apparatus 101. In the flowchart of FIG. 17, first, the information processing apparatus 101 selects an unselected question that has not been selected from the status determination question list 1600 (step S1701).

つぎに、情報処理装置101は、ロボット201を制御して、選択した質問を出力する(ステップS1702)。そして、情報処理装置101は、ロボット201からの解析対象データの取得を開始する(ステップS1703)。解析対象データは、ロボット201のマイクロフォン408によって受音された音声の音声データと、ロボット201のカメラ409によって撮像された画像の画像データとを含む。 Next, the information processing apparatus 101 controls the robot 201 to output the selected question (step S1702). Then, the information processing apparatus 101 starts acquiring the analysis target data from the robot 201 (step S1703). The analysis target data includes the voice data of the voice received by the microphone 408 of the robot 201 and the image data of the image captured by the camera 409 of the robot 201.

つぎに、情報処理装置101は、出力した質問に対するユーザの回答が終了したか否かを判断する(ステップS1704)。例えば、情報処理装置101は、出力した質問に対する応答区間が終了したことに応じて、質問に対するユーザの回答が終了したと判断することにしてもよい。 Next, the information processing apparatus 101 determines whether or not the user's answer to the output question has been completed (step S1704). For example, the information processing apparatus 101 may determine that the user's answer to the question has ended in response to the end of the response section to the output question.

ここで、情報処理装置101は、回答が終了するのを待つ(ステップS1704:No)。そして、情報処理装置101は、回答が終了した場合(ステップS1704:Yes)、ロボット201からの解析対象データの取得を終了する(ステップS1705)。 Here, the information processing apparatus 101 waits for the answer to be completed (step S1704: No). Then, when the answer is completed (step S1704: Yes), the information processing apparatus 101 ends the acquisition of the analysis target data from the robot 201 (step S1705).

つぎに、情報処理装置101は、取得した解析対象データに含まれる音声データを解析することにより、出力した質問の回答時におけるフィラーの割合を算出する(ステップS1706)。つぎに、情報処理装置101は、取得した解析対象データに含まれる音声データ(または、画像データ)を解析することにより、ユーザの感情をあらわす感情値を算出する(ステップS1707)。 Next, the information processing apparatus 101 analyzes the voice data included in the acquired analysis target data to calculate the ratio of the filler at the time of answering the output question (step S1706). Next, the information processing apparatus 101 calculates an emotion value representing the user's emotion by analyzing the voice data (or image data) included in the acquired analysis target data (step S1707).

つぎに、情報処理装置101は、取得した解析対象データに含まれる画像データを解析することにより、ユーザの視線がロボット201と合うまでの時間を算出する(ステップS1708)。なお、ステップS1706~S1708の処理の順序は、入れ替えてもよい。 Next, the information processing apparatus 101 analyzes the image data included in the acquired analysis target data to calculate the time until the user's line of sight matches the robot 201 (step S1708). The order of processing in steps S1706 to S1708 may be changed.

そして、情報処理装置101は、選択した質問の曖昧度に対応付けて、算出したフィラーの割合、感情値および視線が合うまでの時間をあらわすユーザ別曖昧度情報を作成する(ステップS1709)。ユーザ別曖昧度情報には、ロボット201のユーザのユーザIDが含まれる。 Then, the information processing apparatus 101 creates user-specific ambiguity information representing the calculated ratio of the filler, the emotional value, and the time until the line of sight is matched, in association with the ambiguity of the selected question (step S1709). The user-specific ambiguity information includes the user ID of the user of the robot 201.

つぎに、情報処理装置101は、作成したユーザ別曖昧度情報をユーザ別曖昧度分布DB230に記録する(ステップS1710)。そして、情報処理装置101は、状態判定用質問リスト1600から選択されていない未選択の質問があるか否かを判断する(ステップS1711)。 Next, the information processing apparatus 101 records the created user-specific ambiguity information in the user-specific ambiguity distribution DB 230 (step S1710). Then, the information processing apparatus 101 determines whether or not there is an unselected question that has not been selected from the status determination question list 1600 (step S1711).

ここで、未選択の質問がある場合(ステップS1711:Yes)、情報処理装置101は、ステップS1701に戻る。一方、未選択の質問がない場合(ステップS1711:No)、情報処理装置101は、本フローチャートによる一連の処理を終了する。 Here, if there is an unselected question (step S1711: Yes), the information processing apparatus 101 returns to step S1701. On the other hand, when there is no unselected question (step S1711: No), the information processing apparatus 101 ends a series of processes according to this flowchart.

これにより、ロボット201のユーザの特性をあらわすユーザ別曖昧度情報を作成してユーザ別曖昧度分布DB230に登録することができる。 Thereby, the user-specific ambiguity information representing the user characteristics of the robot 201 can be created and registered in the user-specific ambiguity distribution DB 230.

なお、状態判定用質問リスト1600において、ある曖昧度に対応する質問が複数設定されている場合がある。この場合、ステップS1709において、その曖昧度に対応付ける情報として、複数の質問それぞれを出した際の各値(フィラーの割合、感情値、視線が合うまでの時間)の平均値を用いることにしてもよい。 In the state determination question list 1600, a plurality of questions corresponding to a certain degree of ambiguity may be set. In this case, in step S1709, as the information corresponding to the degree of ambiguity, the average value of each value (filler ratio, emotional value, time until the line of sight is met) when each of a plurality of questions is asked may be used. good.

また、状態判定用質問リスト1600は、例えば、オープンな質問用のものと、クローズな質問用のものそれぞれについて作成されることにしてもよい。この場合、オープンな質問を出した際のユーザの特性をあらわすユーザ別曖昧度情報と、クローズな質問を出した際のユーザの特性をあらわすユーザ別曖昧度情報とをそれぞれ作成することができる。 Further, the status determination question list 1600 may be created for, for example, one for an open question and one for a closed question. In this case, it is possible to create user-specific ambiguity information that represents the characteristics of the user when asking an open question and user-specific ambiguity information that represents the characteristics of the user when asking a closed question.

つぎに、図18および図19を用いて、情報処理装置101の生成処理手順について説明する。生成処理は、ロボット201のユーザについての学習データを生成する処理である。学習データは、例えば、ユーザの趣味嗜好を学習する際に用いられる。 Next, the generation processing procedure of the information processing apparatus 101 will be described with reference to FIGS. 18 and 19. The generation process is a process of generating learning data for the user of the robot 201. The learning data is used, for example, when learning a user's hobbies and tastes.

図18および図19は、情報処理装置101の生成処理手順の一例を示すフローチャートである。図18のフローチャートにおいて、まず、情報処理装置101は、質問別曖昧度分布DB220を参照して、質問Qを選択する(ステップS1801)。選択される質問Qは、質問別曖昧度分布DB220内のいずれかのQuestion1の質問である。 18 and 19 are flowcharts showing an example of the generation processing procedure of the information processing apparatus 101. In the flowchart of FIG. 18, first, the information processing apparatus 101 refers to the question-specific ambiguity distribution DB 220 and selects the question Q (step S1801). The selected question Q is any Question 1 question in the question-specific ambiguity distribution DB 220.

つぎに、情報処理装置101は、ロボット201を制御して、選択した質問Qを出力する(ステップS1802)。そして、情報処理装置101は、ロボット201からの解析対象データの取得を開始する(ステップS1803)。つぎに、情報処理装置101は、出力した質問Qに対するユーザの回答が終了したか否かを判断する(ステップS1804)。 Next, the information processing apparatus 101 controls the robot 201 to output the selected question Q (step S1802). Then, the information processing apparatus 101 starts acquiring the analysis target data from the robot 201 (step S1803). Next, the information processing apparatus 101 determines whether or not the user's answer to the output question Q has been completed (step S1804).

ここで、情報処理装置101は、回答が終了するのを待つ(ステップS1804:No)。そして、情報処理装置101は、回答が終了した場合(ステップS1804:Yes)、ロボット201からの解析対象データの取得を終了する(ステップS1805)。 Here, the information processing apparatus 101 waits for the answer to be completed (step S1804: No). Then, when the answer is completed (step S1804: Yes), the information processing apparatus 101 ends the acquisition of the analysis target data from the robot 201 (step S1805).

つぎに、情報処理装置101は、取得した解析対象データに含まれる音声データを解析することにより、質問Qに対して回答者RTが行った回答の内容を検出する(ステップS1806)。この結果、検出された回答の内容を示す情報が、質問Qに対して回答者RTが行った回答の内容を示す内容情報として受け付けられる。 Next, the information processing apparatus 101 detects the content of the answer given by the respondent RT to the question Q by analyzing the voice data included in the acquired analysis target data (step S1806). As a result, the information indicating the content of the detected answer is accepted as the content information indicating the content of the answer given by the respondent RT to the question Q.

つぎに、情報処理装置101は、取得した解析対象データに含まれる音声データを解析することにより、出力した質問Qの回答時におけるフィラーの割合を算出する(ステップS1807)。この結果、算出されたフィラーの割合を示す情報が、質問Qの回答時における回答者RTの状態を示す状態情報として受け付けられる。 Next, the information processing apparatus 101 analyzes the voice data included in the acquired analysis target data to calculate the ratio of the filler at the time of answering the output question Q (step S1807). As a result, the information indicating the calculated ratio of the filler is accepted as the state information indicating the state of the respondent RT at the time of answering the question Q.

つぎに、情報処理装置101は、取得した解析対象データに含まれる音声データ(または、画像データ)を解析することにより、回答者RTの感情をあらわす感情値を算出する(ステップS1808)。この結果、算出された感情値を示す情報が、質問Qの回答時における回答者RTの状態を示す状態情報として受け付けられる。 Next, the information processing apparatus 101 analyzes the voice data (or image data) included in the acquired analysis target data to calculate an emotion value representing the emotion of the respondent RT (step S1808). As a result, the calculated information indicating the emotion value is accepted as the state information indicating the state of the respondent RT at the time of answering the question Q.

つぎに、情報処理装置101は、取得した解析対象データに含まれる画像データを解析することにより、回答者RTの視線がロボット201と合うまでの時間を算出する(ステップS1809)。この結果、算出された視線が合うまでの時間を示す情報が、質問Qの回答時における回答者RTの状態を示す状態情報として受け付けられる。 Next, the information processing apparatus 101 analyzes the image data included in the acquired analysis target data to calculate the time until the line of sight of the respondent RT matches the robot 201 (step S1809). As a result, the calculated information indicating the time until the line of sight is met is accepted as the state information indicating the state of the respondent RT at the time of answering the question Q.

そして、情報処理装置101は、図19に示すステップS1901に移行する。なお、ステップS1807~S1809の処理の順序は、入れ替えてもよい。 Then, the information processing apparatus 101 shifts to step S1901 shown in FIG. The order of processing in steps S1807 to S1809 may be changed.

図19のフローチャートにおいて、まず、情報処理装置101は、質問別曖昧度分布DB220を参照して、選択した質問Qの質問IDに対応する質問別曖昧度情報を取得する(ステップS1901)。そして、情報処理装置101は、取得した質問別曖昧度情報に基づいて、受け付けた状態情報が示す回答者RTの状態に対応する曖昧度を、受け付けた内容情報の曖昧度vとして特定する(ステップS1902)。 In the flowchart of FIG. 19, first, the information processing apparatus 101 refers to the question-specific ambiguity distribution DB 220 and acquires the question-specific ambiguity information corresponding to the question ID of the selected question Q (step S1901). Then, the information processing apparatus 101 specifies the ambiguity corresponding to the state of the respondent RT indicated by the received state information as the ambiguity v of the received content information based on the acquired question-specific ambiguity information (step). S1902).

なお、ステップS1902において、情報処理装置101は、ステップS1807~S1809の処理の結果受け付けた状態情報のうち、全ての状態情報について曖昧度vを特定してもよいし、いずれかの状態情報について曖昧度vを特定してもよい。 In step S1902, the information processing apparatus 101 may specify the ambiguity level v for all the state information among the state information received as a result of the processing of steps S1807 to S1809, or any of the state information is ambiguous. The degree v may be specified.

つぎに、情報処理装置101は、ユーザ別曖昧度分布DB230を参照して、回答者RTのユーザIDに対応するユーザ別曖昧度情報を取得する(ステップS1903)。そして、情報処理装置101は、取得したユーザ別曖昧度情報に基づいて、受け付けた状態情報が示す回答者RTの状態に対応する曖昧度を、第2の曖昧度v’として特定する(ステップS1904)。 Next, the information processing apparatus 101 refers to the user-specific ambiguity distribution DB 230, and acquires the user-specific ambiguity information corresponding to the user ID of the respondent RT (step S1903). Then, the information processing apparatus 101 specifies the ambiguity corresponding to the state of the respondent RT indicated by the received state information as the second ambiguity v'based on the acquired user-specific ambiguity information (step S1904). ).

なお、ステップS1904において、情報処理装置101は、ステップS1807~S1809の処理の結果受け付けた状態情報のうち、全ての状態情報について第2の曖昧度v’を特定してもよいし、いずれかの状態情報について第2の曖昧度v’を特定してもよい。 In step S1904, the information processing apparatus 101 may specify the second ambiguity level v'for all the state information among the state information received as a result of the processing of steps S1807 to S1809, or any one of them. A second degree of ambiguity v'may be specified for the state information.

そして、情報処理装置101は、特定した第2の曖昧度v’に基づいて、特定した曖昧度vを補正する(ステップS1905)。なお、情報処理装置101は、ステップS1807~S1809の処理の結果受け付けた全ての状態情報について曖昧度v、第2の曖昧度v’を特定した場合、各曖昧度vについて、それぞれ対応する第2の曖昧度v’に基づいて補正を行う。 Then, the information processing apparatus 101 corrects the specified ambiguity v based on the specified second ambiguity v'(step S1905). When the information processing apparatus 101 specifies the ambiguity v and the second ambiguity v'for all the state information received as a result of the processes of steps S1807 to S1809, the second ambiguity v corresponds to each of the second ambiguities v. The correction is made based on the ambiguity v'.

つぎに、情報処理装置101は、補正後の曖昧度vが閾値を超えるか否かを判断する(ステップS1906)。閾値は、任意に設定可能であり、例えば、30%程度の値に設定される。ここで、補正後の曖昧度vが閾値未満の場合(ステップS1906:No)、情報処理装置101は、曖昧フラグを「0」とする(ステップS1907)。 Next, the information processing apparatus 101 determines whether or not the corrected ambiguity v exceeds the threshold value (step S1906). The threshold value can be arbitrarily set, and is set to a value of, for example, about 30%. Here, when the corrected ambiguity v is less than the threshold value (step S1906: No), the information processing apparatus 101 sets the ambiguity flag to “0” (step S1907).

つぎに、情報処理装置101は、受け付けた内容情報と、選択した質問Qの内容と、回答者RTを特定する情報と、補正後の曖昧度vと、曖昧フラグとを含む学習データを生成する(ステップS1908)。そして、情報処理装置101は、生成した学習データを学習データDB240に記録して(ステップS1909)、本フローチャートによる一連の処理を終了する。 Next, the information processing apparatus 101 generates learning data including the received content information, the content of the selected question Q, the information specifying the respondent RT, the corrected ambiguity v, and the ambiguity flag. (Step S1908). Then, the information processing apparatus 101 records the generated learning data in the learning data DB 240 (step S1909), and ends a series of processes according to this flowchart.

また、ステップS1906において、補正後の曖昧度vが閾値を超える場合(ステップS1906:Yes)、情報処理装置101は、ステップS1801において選択した質問Qに対応するQuestion2の質問を選択済みであるか否かを判断する(ステップS1910)。なお、質問Qに対応するQuestion2の質問がない場合は、情報処理装置101は、本フローチャートによる一連の処理を終了する。 Further, in step S1906, when the corrected ambiguity v exceeds the threshold value (step S1906: Yes), whether or not the information processing apparatus 101 has already selected the Question 2 question corresponding to the question Q selected in step S1801. (Step S1910). If there is no Question 2 question corresponding to Question Q, the information processing apparatus 101 ends a series of processes according to this flowchart.

ここで、Question2の質問を未選択の場合(ステップS1910:No)、情報処理装置101は、質問別曖昧度分布DB220を参照して、ステップS1801において選択した質問Qに対応するQuestion2の質問を、新たな質問Qとして選択する(ステップS1911)。そして、情報処理装置101は、図18に示したステップS1802に戻る。一方、Question2の質問を選択済みの場合(ステップS1910:Yes)、情報処理装置101は、本フローチャートによる一連の処理を終了する。 Here, when the question of Question 2 is not selected (step S1910: No), the information processing apparatus 101 refers to the question-specific ambiguity distribution DB 220 and asks the question of Question 2 corresponding to the question Q selected in step S1801. Select as a new question Q (step S1911). Then, the information processing apparatus 101 returns to step S1802 shown in FIG. On the other hand, when the question of Question 2 has been selected (step S1910: Yes), the information processing apparatus 101 ends a series of processes according to this flowchart.

これにより、質問Qに対する回答の曖昧度合いが低く、回答者RTの趣味嗜好を学習するにあたって有効な情報といえる学習データを収集することができる。 As a result, the degree of ambiguity of the answer to the question Q is low, and it is possible to collect learning data that can be said to be effective information for learning the hobbies and tastes of the respondent RT.

なお、ステップS1906において、補正後の曖昧度vが閾値を超える場合(ステップS1906:Yes)、情報処理装置101は、曖昧フラグを「1」として、ステップS1908に移行することにしてもよい。この場合、曖昧度合いが高い回答についても学習データとして収集することができる。また、ステップS1801においていずれの質問Qを選択するのかは、ロボット201において判断されることにしてもよい。 If the corrected ambiguity v exceeds the threshold value in step S1906 (step S1906: Yes), the information processing apparatus 101 may set the ambiguity flag to "1" and proceed to step S1908. In this case, even answers with a high degree of ambiguity can be collected as learning data. Further, the robot 201 may determine which question Q is selected in step S1801.

また、図17に示したユーザ別曖昧度情報作成処理において、オープンな質問を出した際のユーザの特性をあらわすユーザ別曖昧度情報と、クローズな質問を出した際のユーザの特性をあらわすユーザ別曖昧度情報とが作成される場合がある。この場合、情報処理装置101は、ステップS1903において、質問Qがオープンな質問であるか、クローズな質問であるかに応じて、ユーザ別曖昧度情報を取得することにしてもよい。これにより、質問Qがオープンな質問のときは、オープンな質問を出した際のユーザ(回答者RT)の特性に合わせて曖昧度vを補正することができる。一方、質問Qがクローズな質問のときは、クローズな質問を出した際のユーザ(回答者RT)の特性に合わせて曖昧度vを補正することができる。 Further, in the user-specific ambiguity information creation process shown in FIG. 17, the user-specific ambiguity information showing the characteristics of the user when an open question is asked and the user representing the user characteristics when a closed question is asked. Another ambiguity information may be created. In this case, the information processing apparatus 101 may acquire user-specific ambiguity information in step S1903 depending on whether the question Q is an open question or a closed question. As a result, when the question Q is an open question, the ambiguity v can be corrected according to the characteristics of the user (respondent RT) when the open question is asked. On the other hand, when the question Q is a closed question, the ambiguity v can be corrected according to the characteristics of the user (respondent RT) when the closed question is asked.

以上説明したように、実施の形態にかかる情報処理装置101によれば、ある質問Qに対して回答者RTが行った回答の内容を示す内容情報と、該回答時における回答者RTの状態を示す状態情報と、を受け付けることができる。そして、情報処理装置101によれば、受け付けた状態情報に基づき、受け付けた内容情報の曖昧度vを特定し、受け付けた内容情報に、特定した曖昧度vに応じた情報を対応付けた学習データを生成することができる。 As described above, according to the information processing apparatus 101 according to the embodiment, the content information indicating the content of the answer given by the respondent RT to a certain question Q and the state of the respondent RT at the time of the answer are displayed. The indicated status information and can be accepted. Then, according to the information processing apparatus 101, the ambiguity v of the received content information is specified based on the received state information, and the learned data in which the received content information is associated with the information corresponding to the specified ambiguity v. Can be generated.

これにより、質問Qに対する回答時における回答者RTの状態をもとに、回答者RTが行った回答の曖昧度合いを判断可能な学習データを生成することができる。このため、生成される学習データが、回答者RTの実態から乖離した情報として扱われるのを防ぐことができる。 As a result, it is possible to generate learning data capable of determining the degree of ambiguity of the answer given by the respondent RT based on the state of the respondent RT at the time of answering the question Q. Therefore, it is possible to prevent the generated learning data from being treated as information that deviates from the actual state of the respondent RT.

また、情報処理装置101によれば、質問に対して回答者が行った回答の内容の曖昧度を、該回答時における該回答者の状態を示す状態情報と、該質問の種別と、に対応付けて記憶する記憶部810を参照して、受け付けた状態情報と、質問Qの種別と、に対応付けられた曖昧度を、受け付けた内容情報の曖昧度vとして特定することができる。 Further, according to the information processing apparatus 101, the degree of ambiguity of the content of the answer given by the respondent to the question corresponds to the state information indicating the state of the respondent at the time of the answer and the type of the question. With reference to the storage unit 810 to be attached and stored, the degree of ambiguity associated with the received state information and the type of question Q can be specified as the degree of ambiguity v of the received content information.

これにより、質問Qの種別を考慮して作成される回答時における回答者の状態に応じた曖昧度の分布をもとに、内容情報の曖昧度vを特定することができ、回答者RTが行った回答の曖昧度合いを精度よく特定することが可能となる。 As a result, the ambiguity v of the content information can be specified based on the distribution of the ambiguity according to the state of the respondent at the time of answering, which is created in consideration of the type of the question Q, and the respondent RT can specify. It is possible to accurately identify the degree of ambiguity in the answers given.

例えば、質問Q一つ一つについて、回答時における回答者の状態に応じた曖昧度の分布を用意しておくことで、回答しやすいものであるかどうかといった個々の質問Qの特性を考慮して、曖昧度vを特定することができる。また、オープンな質問、クローズな質問それぞれについて、回答時における回答者の状態に応じた曖昧度の分布を用意しておくことにしてもよい。これにより、オープンな質問は、クローズな質問に比べて回答の曖昧度合いが高くなりやすいといった傾向を考慮して、曖昧度vを特定することができる。 For example, for each question Q, by preparing a distribution of ambiguity according to the state of the respondent at the time of answering, the characteristics of each question Q such as whether it is easy to answer are considered. Therefore, the degree of ambiguity v can be specified. Further, for each of the open question and the closed question, the distribution of the degree of ambiguity according to the state of the respondent at the time of answering may be prepared. Thereby, the ambiguity v can be specified in consideration of the tendency that the ambiguity of the answer tends to be higher in the open question than in the closed question.

また、情報処理装置101によれば、受け付けた内容情報に、特定した曖昧度vが基準を超えるか否かを示す情報を対応付けた学習データを生成することができる。 Further, according to the information processing apparatus 101, it is possible to generate learning data in which the received content information is associated with information indicating whether or not the specified ambiguity v exceeds the standard.

これにより、ロボット201のユーザ(回答者RT)の趣味嗜好を学習するにあたって有効な学習データであるか否かを判別可能にすることができる。 This makes it possible to determine whether or not the learning data is effective for learning the hobbies and preferences of the user (respondent RT) of the robot 201.

また、情報処理装置101によれば、受け付けた内容情報と、質問Qの内容とに、特定した曖昧度vに応じた情報を対応付けた学習データを生成することができる。 Further, according to the information processing apparatus 101, it is possible to generate learning data in which the received content information and the content of the question Q are associated with the information corresponding to the specified ambiguity v.

これにより、回答者RTが行った回答の曖昧度合いだけでなく、回答者RTに出された質問Qの内容についても特定可能な学習データを生成することができる。 As a result, it is possible to generate learning data that can identify not only the degree of ambiguity of the answer given by the respondent RT but also the content of the question Q given to the respondent RT.

また、情報処理装置101によれば、受け付けた内容情報と、質問Qの内容と、回答者RTを特定する情報とに、特定した曖昧度vに応じた情報を対応付けた学習データを生成することができる。 Further, according to the information processing apparatus 101, learning data is generated in which the received content information, the content of the question Q, and the information specifying the respondent RT are associated with the information corresponding to the specified ambiguity v. be able to.

これにより、回答者RTが行った回答の曖昧度合いや質問Qの内容だけでなく、どのユーザが回答したのかについても特定可能な学習データを生成することができる。このため、複数のユーザがロボット201を使用する場合であっても、ユーザごとの学習データを判別することができる。 As a result, it is possible to generate learning data that can identify not only the degree of ambiguity of the answer made by the respondent RT and the content of the question Q, but also which user answered. Therefore, even when a plurality of users use the robot 201, the learning data for each user can be determined.

また、情報処理装置101によれば、回答者RTであるユーザについて、質問Qとは異なる他の質問Q’に対して該ユーザが行った回答の内容の曖昧度を、該回答時における該ユーザの状態を示す状態情報に対応付けて記憶する記憶部810を参照して、受け付けた状態情報と、回答者RTであるユーザと、に対応付けられた第2の曖昧度v’を特定することができる。そして、情報処理装置101によれば、特定した第2の曖昧度v’に基づいて、特定した曖昧度vを補正し、受け付けた内容情報に、補正後の曖昧度vに応じた情報を対応付けた学習データを生成することができる。 Further, according to the information processing apparatus 101, regarding the user who is the respondent RT, the ambiguity of the content of the answer given by the user to another question Q'different from the question Q is determined by the user at the time of the answer. The second ambiguity level v'corresponding to the received state information and the user who is the respondent RT is specified with reference to the storage unit 810 which is stored in association with the state information indicating the state of. Can be done. Then, according to the information processing apparatus 101, the specified ambiguity v is corrected based on the specified second ambiguity v', and the received content information corresponds to the information corresponding to the corrected ambiguity v. The attached learning data can be generated.

これにより、回答者RTであるユーザの特性を考慮して、内容情報の曖昧度vを補正することができ、回答者RTが行った回答の曖昧度合いを精度よく特定することが可能となる。例えば、喜怒哀楽が声や表情にあらわれやすいかどうかといった個々のユーザの特性を考慮して、曖昧度vを補正することができる。また、会話の途中に「ええと」などのフィラーを発しやすいかどうかといった個々のユーザの特性を考慮して、曖昧度vを補正することができる。 As a result, the ambiguity level v of the content information can be corrected in consideration of the characteristics of the user who is the respondent RT, and the ambiguity level of the answer made by the respondent RT can be accurately specified. For example, the ambiguity level v can be corrected in consideration of individual user characteristics such as whether emotions and emotions are likely to appear in voices and facial expressions. In addition, the ambiguity level v can be corrected in consideration of individual user characteristics such as whether or not a filler such as "um" is likely to be emitted in the middle of a conversation.

これらのことから、実施の形態にかかる情報処理装置101によれば、ロボット201のユーザの趣味嗜好を判断するために有効な学習データを収集することが可能となり、ロボット201とユーザとの自然なコミュニケーションの実現に役立てることができる。 From these facts, according to the information processing apparatus 101 according to the embodiment, it becomes possible to collect effective learning data for determining the hobbies and preferences of the user of the robot 201, which is a natural relationship between the robot 201 and the user. It can be useful for realizing communication.

なお、本実施の形態で説明した生成方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本生成プログラムは、ハードディスク、フレキシブルディスク、CD(Compact Disc)-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、本生成プログラムは、インターネット等のネットワークを介して配布してもよい。 The generation method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This generation program can be used on a computer-readable recording medium such as a hard disk, flexible disk, CD (Compact Disc) -ROM, MO (Magnet-Optical disk), DVD (Digital Versaille Disc), or USB (Universal Serial Bus) memory. It is recorded and executed by being read from a recording medium by a computer. Further, this generation program may be distributed via a network such as the Internet.

上述した実施の形態に関し、さらに以下の付記を開示する。 The following additional notes are further disclosed with respect to the above-described embodiment.

(付記1)ある質問に対して回答者が行った回答の内容を示す内容情報と、該回答時における該回答者の状態を示す状態情報と、を受け付け、
受け付けた前記状態情報に基づき、受け付けた前記内容情報の曖昧度を特定し、
受け付けた前記内容情報に、特定した前記曖昧度に応じた情報を対応付けた情報を生成する、
処理をコンピュータに実行させることを特徴とする生成プログラム。
(Appendix 1) Accepts content information indicating the content of the answer given by the respondent to a certain question and status information indicating the state of the respondent at the time of the answer.
Based on the received status information, the ambiguity of the received content information is specified.
Generates information in which the received content information is associated with the specified information according to the degree of ambiguity.
A generator characterized by having a computer perform processing.

(付記2)質問に対して回答者が行った回答の内容の曖昧度を、該回答時における該回答者の状態を示す状態情報と、該質問の種別と、に対応付けて記憶する記憶部を参照して、受け付けた前記状態情報と、前記ある質問の種別と、に対応付けられた曖昧度を特定し、
受け付けた前記内容情報に、特定した前記曖昧度に応じた情報を対応付けた情報を生成する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載の生成プログラム。
(Appendix 2) A storage unit that stores the ambiguity of the content of the answer given by the respondent to the question in association with the state information indicating the state of the respondent at the time of the answer and the type of the question. The degree of ambiguity associated with the received state information and the type of the question is specified with reference to.
Generates information in which the received content information is associated with the specified information according to the degree of ambiguity.
The generation program according to Appendix 1, wherein the processing is executed by the computer.

(付記3)前記曖昧度に応じた情報は、特定した前記曖昧度が基準を超えるか否かを示す情報である、
ことを特徴とする付記1に記載の生成プログラム。
(Appendix 3) The information according to the ambiguity is information indicating whether or not the specified ambiguity exceeds the standard.
The generation program according to Appendix 1, wherein the program is characterized by the above.

(付記4)受け付けた前記内容情報と、前記ある質問の内容とに、特定した前記曖昧度に応じた情報を対応付けた情報を生成する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載の生成プログラム。
(Appendix 4) Generates information in which the received content information and the content of the certain question are associated with the specified information according to the degree of ambiguity.
The generation program according to Appendix 1, wherein the processing is executed by the computer.

(付記5)受け付けた前記内容情報と、前記ある質問の内容と、前記回答者を特定する情報とに、特定した前記曖昧度に応じた情報を対応付けた情報を生成する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載の生成プログラム。
(Appendix 5) Generates information in which the received content information, the content of the question, and the information specifying the respondent are associated with the specified information according to the degree of ambiguity.
The generation program according to Appendix 1, wherein the processing is executed by the computer.

(付記6)前記回答者であるユーザについて、前記ある質問とは異なる他の質問に対して該ユーザが行った回答の内容の曖昧度を、該回答時における該ユーザの状態を示す状態情報に対応付けて記憶する第2の記憶部を参照して、受け付けた前記状態情報と、前記回答者であるユーザと、に対応付けられた第2の曖昧度を特定し、
特定した前記第2の曖昧度に基づいて、特定した前記曖昧度を補正し、
受け付けた前記内容情報に、補正した補正後の前記曖昧度に応じた情報を対応付けた情報を生成する、
処理を前記コンピュータに実行させることを特徴とする付記2に記載の生成プログラム。
(Appendix 6) Regarding the user who is the respondent, the ambiguity of the content of the answer given by the user to another question different from the question is set to the state information indicating the state of the user at the time of the answer. With reference to the second storage unit to be stored in association with each other, the second ambiguity associated with the received state information and the user who is the respondent is specified.
Based on the identified second ambiguity, the identified ambiguity is corrected.
Generates information in which the received content information is associated with the corrected information according to the ambiguity.
The generation program according to Appendix 2, wherein the processing is executed by the computer.

(付記7)生成した前記情報を出力する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載の生成プログラム。
(Appendix 7) Output the generated information.
The generation program according to Appendix 1, wherein the processing is executed by the computer.

(付記8)前記状態情報は、前記回答時におけるフィラーの出現状況、前記回答者の感情をあらわす値、前記回答者の振る舞いをあらわす値のうちの少なくともいずれかを示す、
ことを特徴とする付記1に記載の生成プログラム。
(Appendix 8) The state information indicates at least one of the appearance status of the filler at the time of the answer, the value expressing the emotion of the respondent, and the value expressing the behavior of the respondent.
The generation program according to Appendix 1, wherein the program is characterized by the above.

(付記9)ある質問に対して回答者が行った回答の内容を示す内容情報と、該回答時における該回答者の状態を示す状態情報と、を受け付け、
受け付けた前記状態情報に基づき、受け付けた前記内容情報の曖昧度を特定し、
受け付けた前記内容情報に、特定した前記曖昧度に応じた情報を対応付けた情報を生成する、
処理をコンピュータが実行することを特徴とする生成方法。
(Appendix 9) Accepts content information indicating the content of the answer given by the respondent to a certain question and status information indicating the state of the respondent at the time of the answer.
Based on the received status information, the ambiguity of the received content information is specified.
Generates information in which the received content information is associated with the specified information according to the degree of ambiguity.
A generation method characterized by the processing being performed by a computer.

(付記10)ある質問に対して回答者が行った回答の内容を示す内容情報と、該回答時における該回答者の状態を示す状態情報と、を受け付ける受付部と、
前記受付部が受け付けた前記状態情報に基づき、受け付けた前記内容情報の曖昧度を特定する特定部と、
前記受付部が受け付けた前記内容情報に、前記特定部が特定した前記曖昧度に応じた情報を対応付けた情報を生成する生成部と、
を有することを特徴とする情報処理装置。
(Appendix 10) A reception unit that accepts content information indicating the content of the answer given by the respondent to a certain question and status information indicating the state of the respondent at the time of the answer.
A specific unit that specifies the ambiguity of the received content information based on the status information received by the reception unit, and a specific unit.
A generation unit that generates information in which information corresponding to the degree of ambiguity specified by the specific unit is associated with the content information received by the reception unit.
An information processing device characterized by having.

101 情報処理装置
102 回答者
110,810 記憶部
120 内容情報
130 状態情報
140,1200,1300,1400,1500 曖昧度分布
150 曖昧度情報
160 回答情報
200 データ収集システム
201 ロボット
210 ネットワーク
220 質問別曖昧度分布DB
230 ユーザ別曖昧度分布DB
240 学習データDB
300,400 バス
301,401 CPU
302,402 メモリ
303,405 I/F
304 ディスクドライブ
305 ディスク
403 ディスプレイ
404 入力装置
406 音声信号処理部
407 スピーカ
408 マイクロフォン
409 カメラ
801 受付部
802 特定部
803 生成部
804 出力部
805 取得部
806 解析部
1600 状態判定用質問リスト
101 Information processing device 102 Respondent 110, 810 Storage unit 120 Content information 130 Status information 140, 1200, 1300, 1400, 1500 Ambiguity distribution 150 Ambiguity information 160 Answer information 200 Data collection system 201 Robot 210 Network 220 Question-specific ambiguity Distribution DB
230 Ambiguity distribution DB by user
240 Learning data DB
300,400 Bus 301,401 CPU
302,402 Memory 303,405 I / F
304 Disk drive 305 Disk 403 Display 404 Input device 406 Audio signal processing unit 407 Speaker 408 Microphone 409 Camera 801 Reception unit 802 Specific unit 803 Generation unit 804 Output unit 805 Acquisition unit 806 Analysis unit 1600 Question list for status determination

Claims (10)

質問に対し回答者が行った発話の内容を示す内容情報と、該発話時における該回答者の状態を示す状態情報としてフィラーの出現状況と、を受け付け、
前記フィラーの出現状況に対応する曖昧度の分布を記録した質問別曖昧度分布の情報を参照し、
受け付けた前記フィラーの出現状況に基づき、受け付けた前記内容情報の曖昧度を特定
受け付けた前記内容情報に、特定した前記曖昧度に応じた情報を対応付けた情報を生成する、
処理をコンピュータに実行させることを特徴とする生成プログラム。
Accepts content information indicating the content of the utterance made by the respondent to the question and the appearance status of the filler as state information indicating the state of the respondent at the time of the utterance.
Refer to the information on the ambiguity distribution by question, which records the ambiguity distribution corresponding to the appearance status of the filler.
Based on the appearance status of the received filler, the degree of ambiguity of the received content information is specified.
Generates information in which the received content information is associated with the specified information according to the degree of ambiguity.
A generator characterized by having a computer perform processing.
前記状態情報は、さらに、前記回答者の感情をあらわす値と、振る舞いをあらわす値との少なくとも1つを含むことを特徴とする請求項1に記載の生成プログラム。 The generation program according to claim 1, wherein the state information further includes at least one of a value representing the emotion of the respondent and a value representing the behavior . 質問に対して回答者が行った回答の内容の曖昧度を、該回答時における該回答者の状態を示す状態情報と、該質問の種別と、に対応付けて記憶する記憶部を参照して、受け付けた前記状態情報と、前記質問の種別と、に対応付けられた曖昧度を特定し、
受け付けた前記内容情報に、特定した前記曖昧度に応じた情報を対応付けた情報を生成する、
処理を前記コンピュータに実行させることを特徴とする請求項1に記載の生成プログラム。
Refer to the storage unit that stores the ambiguity of the content of the answer given by the respondent to the question in association with the state information indicating the state of the respondent at the time of the answer and the type of the question. , Identify the degree of ambiguity associated with the received status information and the type of question.
Generates information in which the received content information is associated with the specified information according to the degree of ambiguity.
The generation program according to claim 1, wherein the processing is executed by the computer .
前記曖昧度に応じた情報は、特定した前記曖昧度が基準を超えるか否かを示す情報である、
ことを特徴とする請求項1に記載の生成プログラム。
The information according to the degree of ambiguity is information indicating whether or not the specified degree of ambiguity exceeds the standard.
The generation program according to claim 1 .
受け付けた前記内容情報と、前記質問の内容とに、特定した前記曖昧度に応じた情報を対応付けた情報を生成する、
処理を前記コンピュータに実行させることを特徴とする請求項1に記載の生成プログラム。
Generates information in which the received content information and the content of the question are associated with the specified information according to the degree of ambiguity.
The generation program according to claim 1, wherein the processing is executed by the computer .
受け付けた前記内容情報と、前記質問の内容と、前記回答者を特定する情報とに、特定した前記曖昧度に応じた情報を対応付けた情報を生成する、
処理を前記コンピュータに実行させることを特徴とする請求項1に記載の生成プログラム。
Generates information in which the received content information, the content of the question, and the information specifying the respondent are associated with the specified information according to the degree of ambiguity.
The generation program according to claim 1, wherein the processing is executed by the computer .
前記回答者であるユーザについて、前記質問とは異なる他の質問に対して該ユーザが行った回答の内容の曖昧度を、該回答時における該ユーザの状態を示す状態情報に対応付けて記憶する第2の記憶部を参照して、受け付けた前記状態情報と、前記回答者であるユーザと、に対応付けられた第2の曖昧度を特定し、
特定した前記第2の曖昧度に基づいて、特定した前記曖昧度を補正し、
受け付けた前記内容情報に、補正した補正後の前記曖昧度に応じた情報を対応付けた情報を生成する、
処理を前記コンピュータに実行させることを特徴とする請求項3に記載の生成プログラム。
For the user who is the respondent, the ambiguity of the content of the answer given by the user to another question different from the question is stored in association with the state information indicating the state of the user at the time of the answer. With reference to the second storage unit, the second degree of ambiguity associated with the received state information and the user who is the respondent is specified.
Based on the identified second ambiguity, the identified ambiguity is corrected.
Generates information in which the received content information is associated with the corrected information according to the ambiguity.
The generation program according to claim 3, wherein the processing is executed by the computer .
生成した前記情報を出力する、
処理を前記コンピュータに実行させることを特徴とする請求項1に記載の生成プログラム。
Output the generated information,
The generation program according to claim 1, wherein the processing is executed by the computer .
質問に対し回答者が行った発話の内容を示す内容情報と、該発話時における該回答者の状態を示す状態情報としてフィラーの出現状況と、を受け付け、Accepts content information indicating the content of the utterance made by the respondent to the question and the appearance status of the filler as state information indicating the state of the respondent at the time of the utterance.
前記フィラーの出現状況に対応する曖昧度の分布を記録した質問別曖昧度分布の情報を参照し、Refer to the information on the ambiguity distribution by question, which records the ambiguity distribution corresponding to the appearance status of the filler.
受け付けた前記フィラーの出現状況に基づき、受け付けた前記内容情報の曖昧度を特定し、Based on the appearance status of the received filler, the degree of ambiguity of the received content information is specified.
受け付けた前記内容情報に、特定した前記曖昧度に応じた情報を対応付けた情報を生成する、Generates information in which the received content information is associated with the specified information according to the degree of ambiguity.
処理をコンピュータが実行することを特徴とする生成方法。A generation method characterized by the processing being performed by a computer.
質問に対し回答者が行った発話の内容を示す内容情報と、該発話時における該回答者の状態を示す状態情報としてフィラーの出現状況と、を受け付ける受付部と、A reception unit that accepts content information indicating the content of the utterance made by the respondent to the question, and the appearance status of the filler as state information indicating the state of the respondent at the time of the utterance.
前記フィラーの出現状況に対応する曖昧度の分布を記録した質問別曖昧度分布の情報を参照する参照部と、A reference unit that records information on the ambiguity distribution by question, which records the ambiguity distribution corresponding to the appearance status of the filler, and a reference unit.
前記受付部が受け付けた前記フィラーの出現状況に基づき、受け付けた前記内容情報の曖昧度を特定する特定部と、A specific unit that specifies the degree of ambiguity of the received content information based on the appearance status of the filler received by the reception unit, and a specific unit.
前記受付部が受け付けた前記内容情報に、前記特定部が特定した前記曖昧度に応じた情報を対応付けた情報を生成する生成部と、A generation unit that generates information in which information corresponding to the degree of ambiguity specified by the specific unit is associated with the content information received by the reception unit.
を有することを特徴とする情報処理装置。An information processing device characterized by having.
JP2020518861A 2018-05-15 2018-05-15 Generation program, generation method and information processing device Active JP7044156B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/018792 WO2019220547A1 (en) 2018-05-15 2018-05-15 Generation program, generation method, and information processing device

Publications (2)

Publication Number Publication Date
JPWO2019220547A1 JPWO2019220547A1 (en) 2021-01-07
JP7044156B2 true JP7044156B2 (en) 2022-03-30

Family

ID=68539788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020518861A Active JP7044156B2 (en) 2018-05-15 2018-05-15 Generation program, generation method and information processing device

Country Status (2)

Country Link
JP (1) JP7044156B2 (en)
WO (1) WO2019220547A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330490A (en) 2002-05-15 2003-11-19 Fujitsu Ltd Audio conversation device
JP2004094326A (en) 2002-08-29 2004-03-25 Mitsubishi Electric Building Techno Service Co Ltd Question answering system
JP2005234331A (en) 2004-02-20 2005-09-02 Honda Motor Co Ltd Voice interaction device
JP2011221870A (en) 2010-04-12 2011-11-04 Nec Corp Reviewer support device, reviewer support method and program
WO2017085992A1 (en) 2015-11-17 2017-05-26 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05252509A (en) * 1992-03-02 1993-09-28 Toshiba Corp Multimedia device and electronic conference system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330490A (en) 2002-05-15 2003-11-19 Fujitsu Ltd Audio conversation device
JP2004094326A (en) 2002-08-29 2004-03-25 Mitsubishi Electric Building Techno Service Co Ltd Question answering system
JP2005234331A (en) 2004-02-20 2005-09-02 Honda Motor Co Ltd Voice interaction device
JP2011221870A (en) 2010-04-12 2011-11-04 Nec Corp Reviewer support device, reviewer support method and program
WO2017085992A1 (en) 2015-11-17 2017-05-26 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
千葉 祐弥,ユーザの発話前状態推定のための音声及び顔向き特徴に関する検討,日本音響学会 2011年 秋季研究発表会講演論文集,日本,2011年09月,3-P-26,pp.215-218

Also Published As

Publication number Publication date
WO2019220547A1 (en) 2019-11-21
JPWO2019220547A1 (en) 2021-01-07

Similar Documents

Publication Publication Date Title
CN107818798B (en) Customer service quality evaluation method, device, equipment and storage medium
US10685648B2 (en) Sensor fusion model to enhance machine conversational awareness
CN106663383B (en) Method and system for analyzing a subject
Lotfian et al. Building naturalistic emotionally balanced speech corpus by retrieving emotional speech from existing podcast recordings
US10706873B2 (en) Real-time speaker state analytics platform
Mariooryad et al. Building a naturalistic emotional speech corpus by retrieving expressive behaviors from existing speech corpora
US20190138268A1 (en) Sensor Fusion Service to Enhance Human Computer Interactions
US10311743B2 (en) Systems and methods for providing a multi-modal evaluation of a presentation
US10692516B2 (en) Dialogue analysis
CN113392273A (en) Video playing method and device, computer equipment and storage medium
JP2018171683A (en) Robot control program, robot device, and robot control method
JP2021533489A (en) Computer implementation system and method for collecting feedback
CN109074809A (en) Information processing equipment, information processing method and program
CN110674270B (en) Humorous generation and emotion interaction method based on artificial intelligence and robot system
Okada et al. Predicting performance of collaborative storytelling using multimodal analysis
JP7044156B2 (en) Generation program, generation method and information processing device
JP2022531994A (en) Generation and operation of artificial intelligence-based conversation systems
JP6396813B2 (en) Program, apparatus and method for estimating learning items spent on learning from learning video
KR20200122916A (en) Dialogue system and method for controlling the same
US20230274743A1 (en) Methods and systems enabling natural language processing, understanding, and generation
US11556754B1 (en) Systems and methods for detecting co-occurrence of behavior in collaborative interactions
WO2022180860A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
Karpouzis et al. Induction, recording and recognition of natural emotions from facial expressions and speech prosody
WO2022180824A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022180862A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200721

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220228

R150 Certificate of patent or registration of utility model

Ref document number: 7044156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150