JP6819672B2 - Information processing equipment, information processing methods, and programs - Google Patents

Information processing equipment, information processing methods, and programs Download PDF

Info

Publication number
JP6819672B2
JP6819672B2 JP2018508407A JP2018508407A JP6819672B2 JP 6819672 B2 JP6819672 B2 JP 6819672B2 JP 2018508407 A JP2018508407 A JP 2018508407A JP 2018508407 A JP2018508407 A JP 2018508407A JP 6819672 B2 JP6819672 B2 JP 6819672B2
Authority
JP
Japan
Prior art keywords
user
utterance
mode
feedback
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018508407A
Other languages
Japanese (ja)
Other versions
JPWO2017168936A1 (en
Inventor
真里 斎藤
真里 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017168936A1 publication Critical patent/JPWO2017168936A1/en
Application granted granted Critical
Publication of JP6819672B2 publication Critical patent/JP6819672B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。 The present disclosure relates to information processing devices, information processing methods, and programs.

近年、ユーザの発話や動作を認識し、認識した入力に対応する処理を実行する種々の装置が提案されている。また、ユーザからの入力に対しフィードバックを行い、入力の認識精度を高めようとする技術が知られている。上記のような技術としては、例えば、特許文献1に記載の情報処理装置がある。 In recent years, various devices have been proposed that recognize a user's utterance or action and execute a process corresponding to the recognized input. Further, there is known a technique of giving feedback to an input from a user to improve the recognition accuracy of the input. As the above-mentioned technique, for example, there is an information processing apparatus described in Patent Document 1.

特開2011−209787号公報Japanese Unexamined Patent Publication No. 2011-209787

しかし、特許文献1に記載の情報処理装置では、入力に対するフィードバックの方式が固定されており、ユーザの状況に応じた対応が困難である。 However, in the information processing apparatus described in Patent Document 1, the feedback method for the input is fixed, and it is difficult to respond according to the user's situation.

そこで、本開示では、ユーザとシステムとの間のより自然な対話を実現することが可能な情報処理装置、情報処理方法、及びプログラムを提案する。 Therefore, this disclosure proposes an information processing device, an information processing method, and a program capable of realizing a more natural dialogue between a user and a system.

本開示によれば、ユーザの発話認識に係る情報に応じて、前記ユーザの発話態様に対するフィードバックのモードを、複数のモードから選択する制御部、を備え、前記複数のモードは、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、を含む、情報処理装置が提供される。 According to the present disclosure, a control unit that selects a feedback mode for the user's utterance mode from a plurality of modes according to information related to the user's utterance recognition is provided, and the plurality of modes provide implicit feedback. An information processing apparatus is provided that includes a first mode in which the above is performed and a second mode in which explicit feedback is performed.

以上説明したように本開示によれば、ユーザとシステムとの間のより自然な対話を実現することが可能となる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。 As described above, according to the present disclosure, it is possible to realize a more natural dialogue between the user and the system. It should be noted that the above effects are not necessarily limited, and together with or in place of the above effects, any of the effects shown herein, or any other effect that can be grasped from this specification. May be played.

本開示に係るシステム構成例を示す図である。It is a figure which shows the system configuration example which concerns on this disclosure. 本開示に係る入出力端末の機能ブロック図である。It is a functional block diagram of the input / output terminal which concerns on this disclosure. 本開示に係る情報処理装置の機能ブロック図である。It is a functional block diagram of the information processing apparatus which concerns on this disclosure. 本開示の実施形態に係る入出力端末とユーザとの対話例を示す図である。It is a figure which shows the example of the dialogue between an input / output terminal and a user which concerns on embodiment of this disclosure. 同実施形態に係る暗示的フィードバックの制御の流れを示す図である。It is a figure which shows the flow of control of the implicit feedback which concerns on this embodiment. 同実施形態に係る入出力端末の音量レベルを説明するための図である。It is a figure for demonstrating the volume level of the input / output terminal which concerns on this embodiment. 同実施形態に係る認識の試行回数に基づくフィードバック制御の流れを示す図である。It is a figure which shows the flow of feedback control based on the number of recognition trials which concerns on this embodiment. 同実施形態に係る発話態様の変化度合いに基づくフィードバック制御の流れを示す図である。It is a figure which shows the flow of feedback control based on the degree of change of the utterance mode which concerns on this embodiment. 同実施形態に係る発話位置及び発話方向に対するフィードバック制御の流れを示す図である。It is a figure which shows the flow of the feedback control with respect to the utterance position and the utterance direction which concerns on the same embodiment. 同実実施形態に係る改善理由を付加した明示的なフィードバックの制御の流れを説明するための図である。It is a figure for demonstrating the flow of the control of the explicit feedback which added the improvement reason which concerns on the same actual embodiment. 同実施形態に係る視覚情報によるフィードバックの追加制御の流れを示す図である。It is a figure which shows the flow of the additional control of feedback by the visual information which concerns on the same embodiment. 同実施形態に係るインジケータを用いたフィードバックの例である。This is an example of feedback using the indicator according to the same embodiment. 同実施形態に係るインジケータを用いたフィードバックの例である。This is an example of feedback using the indicator according to the same embodiment. 同実施形態に係るアバターを用いたフィードバックの例であるThis is an example of feedback using an avatar according to the same embodiment. 同実施形態に係るアバターを用いたフィードバックの例であるThis is an example of feedback using an avatar according to the same embodiment. 同実施形態に係るアバターを用いたフィードバックの例であるThis is an example of feedback using an avatar according to the same embodiment. 同実施形態に係るグラフィックを用いたフィードバックの例である。This is an example of feedback using a graphic according to the same embodiment. 同実施形態に係るグラフィックを用いたフィードバックの例である。This is an example of feedback using a graphic according to the same embodiment. 同実施形態に係るグラフィックを用いたフィードバックの例である。This is an example of feedback using a graphic according to the same embodiment. 同実施形態に係るアバターを用いたフィードバックの例であるThis is an example of feedback using an avatar according to the same embodiment. 同実施形態に係るアバターを用いたフィードバックの例であるThis is an example of feedback using an avatar according to the same embodiment. 同実施形態に係るアバターを用いたフィードバックの例であるThis is an example of feedback using an avatar according to the same embodiment. 同実施形態に係るグラフィックを用いたフィードバックの例である。This is an example of feedback using a graphic according to the same embodiment. 同実施形態に係るグラフィックを用いたフィードバックの例である。This is an example of feedback using a graphic according to the same embodiment. 入出力端末及び情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of an input / output terminal and an information processing apparatus.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

なお、説明は以下の順序で行うものとする。
1.本開示に係るフィードバックの制御
1.1.音声認識技術におけるフィードバック
1.2.本開示に係るシステム構成例
1.3.本開示に係る入出力端末10
1.4.本開示に係る情報処理装置30
2.実施形態
2.1.フィードバックのモードについて
2.2.暗示的なフィードバックの例
2.3.フィードバックに係るモードの切り替え
2.4.改善理由を付加した明示的なフィードバック
2.5.視覚情報によるフィードバックの追加制御
2.6.視覚情報によるフィードバックの例
3.入出力端末10及び情報処理装置30のハードウェア構成例
4.まとめ
The explanations will be given in the following order.
1. 1. Control of feedback according to the present disclosure 1.1. Feedback in speech recognition technology 1.2. System configuration example according to the present disclosure 1.3. Input / output terminal 10 according to the present disclosure
1.4. Information processing device 30 according to the present disclosure
2. 2. Embodiment 2.1. Feedback mode 2.2. Examples of implied feedback 2.3. Switching modes related to feedback 2.4. Explicit feedback with reasons for improvement 2.5. Additional control of feedback by visual information 2.6. Example of feedback by visual information 3. Hardware configuration example of the input / output terminal 10 and the information processing device 30 4. Summary

<1.本開示に係るフィードバックの制御>
<<1.1.音声認識技術におけるフィードバック>>
近年、音声認識技術を利用した様々な装置が提供されている。音声認識技術を利用した装置は、PC(Personal Computer)やスマートフォンなどの情報処理装置をはじめ、生活家電や車載用装置など、一般消費者に近い場面でも広く利用されている。また、音声認識技術を利用した装置は、商業施設や公共施設において、人の代わりとなり顧客にサービスを提供する主体としても、今後の活用が期待される。
<1. Control of feedback relating to this disclosure>
<< 1.1. Feedback in speech recognition technology >>
In recent years, various devices using voice recognition technology have been provided. Devices using voice recognition technology are widely used in information processing devices such as PCs (Personal Computers) and smartphones, as well as in home appliances and in-vehicle devices, which are close to general consumers. In addition, devices using voice recognition technology are expected to be used in the future as an entity that provides services to customers in place of people in commercial facilities and public facilities.

上記のような装置では、例えば、ユーザの発話を認識し、認識した発話内容に基づいてアプリケーションの処理を実行することが可能である。また、上記のような装置は、ユーザの発話に対する認識結果に応じて、ユーザに対しフィードバックを行う機能を有する場合がある。当該フィードバックは、例えば、装置がユーザの発話を認識できなかった場合に、装置の表示部に、「声が小さいです」、というテキストメッセージが表示されることで行われる。ユーザは、当該メッセージを確認することで、発話した内容が装置に認識されなかったことを知覚し、次の行動を起こすことができる。このように、音声認識技術を利用した装置は、発話に関するフィードバックを行うことで、ユーザに対し、発話の改善を求めることができる。この際、装置によるフィードバックの内容が明確であるほど、ユーザの発話を改善できる可能性は向上する。 In a device as described above, for example, it is possible to recognize a user's utterance and execute application processing based on the recognized utterance content. In addition, the above-mentioned device may have a function of giving feedback to the user according to the recognition result of the user's utterance. The feedback is provided, for example, by displaying a text message "Voice is low" on the display of the device when the device cannot recognize the user's utterance. By confirming the message, the user can perceive that the uttered content has not been recognized by the device and take the next action. In this way, the device using the voice recognition technology can request the user to improve the utterance by giving feedback on the utterance. At this time, the clearer the content of the feedback by the device, the higher the possibility that the user's utterance can be improved.

一方、装置によるフィードバックは、ユーザの当該装置に対する印象に大きく影響する。例えば、装置によるフィードバックが常に明確である場合、ユーザは、当該装置に対し、「冷たい」、「固い」、といった印象を抱きかねない。これは、ユーザが実際の人間との対話と、装置との対話と、を比較するためである。人間同士による対話は、状況に応じて変化するものであるため、常に一定したフィードバックを行う装置に対し、ユーザは不自然さを覚えてしまう。また、上記のような印象は、装置の技術レベルが低い、という評価にも繋がりかねない。さらには、装置によるフィードバックが明確である場合、ユーザによっては、装置に指示されていると感じ、当該装置に対し嫌悪感を抱くことも想定される。 On the other hand, the feedback provided by the device greatly affects the user's impression of the device. For example, if the feedback provided by the device is always clear, the user may have the impression that the device is "cold" or "hard". This is for the user to compare the actual human interaction with the device interaction. Since the dialogue between humans changes according to the situation, the user feels unnatural for a device that always gives constant feedback. In addition, the above impression may lead to the evaluation that the technical level of the device is low. Furthermore, when the feedback from the device is clear, it is assumed that some users feel that they are instructed by the device and feel disgusted with the device.

本開示に係る情報処理装置、情報処理方法、及びプログラムは、上記の点に着目して発想されたものであり、ユーザの発話認識に係る情報に応じて、ユーザの発話態様に対するフィードバックのモードを複数のモードから選択すること、を特徴の一つとする。また、上記の複数のモードには、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、が含まれる。以降の説明においては、本開示に係る情報処理装置、情報処理方法、及びプログラムの特徴を挙げながら、当該特徴が奏する効果について述べる。 The information processing device, information processing method, and program according to the present disclosure are conceived by paying attention to the above points, and a feedback mode for the user's utterance mode is set according to the information related to the user's utterance recognition. One of the features is to select from multiple modes. In addition, the plurality of modes described above include a first mode in which implicit feedback is performed and a second mode in which explicit feedback is performed. In the following description, the effects of the information processing device, the information processing method, and the program according to the present disclosure will be described with reference to the features.

<<1.2.本開示に係るシステム構成例>>
まず、図1を参照して、本開示に係る情報処理システムの構成例について説明する。図1を参照すると、本開示に係る情報処理システムは、入出力端末10及び情報処理装置30を備える。また、入出力端末10と情報処理装置30は、ネットワーク20を介して互いに通信が行えるように接続される。
<< 1.2. System configuration example related to this disclosure >>
First, a configuration example of the information processing system according to the present disclosure will be described with reference to FIG. Referring to FIG. 1, the information processing system according to the present disclosure includes an input / output terminal 10 and an information processing device 30. Further, the input / output terminal 10 and the information processing device 30 are connected so as to be able to communicate with each other via the network 20.

ここで、入出力端末10は、ユーザの発話を収音し、当該発話に基づいたアプリケーションの処理結果をユーザに提示する端末であってよい。また、入出力端末10は、ユーザの発話に対するフィードバックを行う機能を有してよい。図1には、入出力端末10が、ユーザP1の発話、”Hello.”、に対し、”May I help you?”、という音声出力によるフィードバックを行う一例が示されている。 Here, the input / output terminal 10 may be a terminal that collects the user's utterance and presents the processing result of the application based on the utterance to the user. Further, the input / output terminal 10 may have a function of giving feedback to the user's utterance. FIG. 1 shows an example in which the input / output terminal 10 gives feedback by voice output such as "May I help you?" To the utterance "Hello." Of the user P1.

また、本開示に係る情報処理装置30は、入出力端末10が収音したユーザP1の発話に基づいて、当該発話に対して入出力端末10が実行するフィードバックを制御する機能を有する。情報処理装置30は、入出力端末10が収音したユーザP1の発話を、ネットワーク20を介して取得し、当該発話に基づく情報に応じて、当該発話態様に対するフィードバックのモードを、複数のモードから選択してよい。また、上記の複数のモードには、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、が含まれてよい。 Further, the information processing device 30 according to the present disclosure has a function of controlling feedback executed by the input / output terminal 10 with respect to the utterance based on the utterance of the user P1 picked up by the input / output terminal 10. The information processing device 30 acquires the utterance of the user P1 picked up by the input / output terminal 10 via the network 20, and sets the feedback mode for the utterance mode from the plurality of modes according to the information based on the utterance. You may choose. In addition, the plurality of modes described above may include a first mode in which implicit feedback is provided and a second mode in which explicit feedback is provided.

また、ネットワーク20は、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。ネットワーク20は、IP−VPN(Internt Protocol−Virtual Private Network)などの専用回線網であってもよい。 Further, the network 20 may include various LANs (Local Area Network) including Ethernet (registered trademark), WAN (Wide Area Network) and the like. The network 20 may be a dedicated line network such as IP-VPN (Internt Protocol-Virtual Private Network).

なお、以降の説明においては、入出力端末10と情報処理装置30とから成るシステム構成を例に述べるが、本開示に係る情報システムの構成は、係る例に限定されない。例えば、情報処理装置30は、ユーザの発話を収音し、当該発話に対するフィードバックを実行する機能を有してもよい。情報処理装置30が上記のような入出力機能を有する場合、情報処理装置30は、フィードバックの制御を担うと同時に、入出力端末10としての役割を果たすこともできる。 In the following description, a system configuration including an input / output terminal 10 and an information processing device 30 will be described as an example, but the configuration of the information system according to the present disclosure is not limited to such an example. For example, the information processing device 30 may have a function of picking up a user's utterance and executing feedback on the utterance. When the information processing device 30 has the above-mentioned input / output function, the information processing device 30 can play a role as an input / output terminal 10 at the same time as controlling feedback.

また、音声認識の結果に基づいて処理されるアプリケーションの機能は、入出力端末10で実行されてもよいし、情報処理装置30で実行されてもよい。ユーザの発話に基づくアプリケーションの処理は、当該アプリケーション、入出力端末10、及び情報処理装置30の仕様により適宜変更され得る。 Further, the function of the application processed based on the result of voice recognition may be executed by the input / output terminal 10 or the information processing device 30. The processing of the application based on the user's utterance can be appropriately changed depending on the specifications of the application, the input / output terminal 10, and the information processing device 30.

<<1.3.本開示に係る入出力端末10>>
次に、本開示に係る入出力端末10について、詳細に説明する。上記で説明したとおり、本開示に係る入出力端末10は、ユーザの発話を収音する機能を有する。また、入出力端末10は、ユーザの発話認識に係る情報に応じて情報処理装置30が制御するフィードバックの情報をユーザに提示する機能を有する。
<< 1.3. Input / output terminal 10 according to the present disclosure >>
Next, the input / output terminal 10 according to the present disclosure will be described in detail. As described above, the input / output terminal 10 according to the present disclosure has a function of collecting the utterance of the user. Further, the input / output terminal 10 has a function of presenting to the user feedback information controlled by the information processing apparatus 30 according to the information related to the user's utterance recognition.

本開示に係る入出力端末10は、上記の機能を有する様々な装置として実現され得る。本開示に係る入出力端末10は、例えば、ユーザの発話に基づいて種々の処理を実行する専用のエージェントであってもよい。当該エージェントには、対話型ロボットや、自動販売機、音声案内装置などが含まれてもよい。また、本開示に係る入出力端末10は、PC(Personal Computer)、タブレット、スマートフォンなどの情報処理端末であってもよい。さらには、入出力端末10は、建物や車両に組み込まれて用いられる装置であってもよい。本開示に係る入出力端末10は、音声認識機能を応用した種々の装置に広く適用され得る。 The input / output terminal 10 according to the present disclosure can be realized as various devices having the above functions. The input / output terminal 10 according to the present disclosure may be, for example, a dedicated agent that executes various processes based on the utterance of the user. The agent may include an interactive robot, a vending machine, a voice guidance device, and the like. Further, the input / output terminal 10 according to the present disclosure may be an information processing terminal such as a PC (Personal Computer), a tablet, or a smartphone. Further, the input / output terminal 10 may be a device used by being incorporated in a building or a vehicle. The input / output terminal 10 according to the present disclosure can be widely applied to various devices to which the voice recognition function is applied.

以下、図2を参照して、本開示に係る入出力端末10の機能構成例について説明する。図2を参照すると、本開示に係る入出力端末10は、音声入力部110、センサ部120、音声出力部130、表示部140、端末制御部150、及びサーバ通信部160を備える。 Hereinafter, a functional configuration example of the input / output terminal 10 according to the present disclosure will be described with reference to FIG. Referring to FIG. 2, the input / output terminal 10 according to the present disclosure includes a voice input unit 110, a sensor unit 120, a voice output unit 130, a display unit 140, a terminal control unit 150, and a server communication unit 160.

(音声入力部110)
音声入力部110は、ユーザの発話及び環境音を収音する機能を有する。音声入力部110は、ユーザの発話及び環境音を電気信号に変換するマイクロフォンを含んでよい。また、音声入力部110は、特定方向の音を収音する指向性を有したマイクアレイを含んでもよい。上記のようなマイクアレイにより、音声入力部110が、ユーザの発話を環境音と切り離して収音することも可能となる。また、音声入力部110は、マイクロフォンやマイクアレイを複数含んでもよい。当該構成により、音源の位置、向き、及び動きなどをより高い精度で検出することが可能となる。
(Voice input unit 110)
The voice input unit 110 has a function of collecting user's utterances and environmental sounds. The voice input unit 110 may include a microphone that converts the user's utterance and environmental sound into an electric signal. Further, the voice input unit 110 may include a microphone array having a directivity for collecting sound in a specific direction. With the microphone array as described above, the voice input unit 110 can also collect the user's utterance separately from the environmental sound. Further, the voice input unit 110 may include a plurality of microphones and microphone arrays. With this configuration, it is possible to detect the position, orientation, movement, etc. of the sound source with higher accuracy.

(センサ部120)
センサ部120は、ユーザを含む物体に関する種々の情報を検出する機能を有する。センサ部120は、上記の情報を検出するための複数のセンサを含んでよい。センサ部120は、ユーザの動作を検出するための撮像素子や、赤外線センサ、温度センサなどを含んでもよい。また、センサ部120は、撮像した画像に基づく画像認識を行う機能を有してよい。例えば、センサ部120は、ユーザの口の動きを検出することで、発話を行っているユーザを特定することができる。
(Sensor unit 120)
The sensor unit 120 has a function of detecting various information about an object including a user. The sensor unit 120 may include a plurality of sensors for detecting the above information. The sensor unit 120 may include an image sensor for detecting the user's movement, an infrared sensor, a temperature sensor, and the like. Further, the sensor unit 120 may have a function of performing image recognition based on the captured image. For example, the sensor unit 120 can identify the user who is speaking by detecting the movement of the user's mouth.

(音声出力部130)
音声出力部130は、電気信号を音に変換し出力する機能を有する。具体的には、音声出力部130は、情報処理装置30が制御するフィードバックの情報に基づいて、音声出力によりユーザへのフィードバックを行う機能を有する。音声出力部130は、上記の機能を有するスピーカを含んでよい。また、音声出力部130に含まれるスピーカは、特定の方向や距離などに指向性を持つ音声出力を実現する機能を有してもよい。当該機能を有するスピーカを含むことで、音声出力部130は、例えば、センサ部120が検出したユーザの位置に応じた音声出力を実施することができる。また、音声出力部130は、複数のスピーカを含んでもよい。音声出力部130が複数のスピーカを含む場合、フィードバックを出力するスピーカを制御することで、ユーザの位置に応じたフィードバックを実行することが可能となる。当該機能の詳細については、後述する。
(Audio output unit 130)
The voice output unit 130 has a function of converting an electric signal into sound and outputting it. Specifically, the voice output unit 130 has a function of giving feedback to the user by voice output based on the feedback information controlled by the information processing device 30. The audio output unit 130 may include a speaker having the above functions. Further, the speaker included in the audio output unit 130 may have a function of realizing audio output having directivity in a specific direction or distance. By including the speaker having the function, the voice output unit 130 can perform voice output according to the position of the user detected by the sensor unit 120, for example. Further, the audio output unit 130 may include a plurality of speakers. When the audio output unit 130 includes a plurality of speakers, it is possible to execute feedback according to the position of the user by controlling the speakers that output feedback. The details of the function will be described later.

さらには、音声出力部130は、情報処理装置30が制御するフィードバックの情報に基づいて、音声合成を行う機能を有してよい。音声出力部130は、例えば、情報処理装置30から取得したテキスト情報に基づいて、テキスト読み上げ(TTS: Text To Speech)を行ってもよい。 Further, the voice output unit 130 may have a function of performing voice synthesis based on the feedback information controlled by the information processing device 30. For example, the voice output unit 130 may perform text reading (TTS: Text To Speech) based on the text information acquired from the information processing apparatus 30.

(表示部140)
表示部140は、情報処理装置30が制御するフィードバックの情報に基づいて、視覚情報によるユーザへのフィードバックを行う機能を有する。当該機能は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置により実現されてもよい。また、表示部140は、ユーザの操作を受け付ける操作部としての機能を有してもよい。操作部としての機能は、例えば、タッチパネルにより実現され得る。
(Display unit 140)
The display unit 140 has a function of giving feedback to the user by visual information based on the feedback information controlled by the information processing device 30. The function may be realized by, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD: Liquid Crystal Display) device, or an OLED (Organic Light Emitting Mode) device. Further, the display unit 140 may have a function as an operation unit that accepts a user's operation. The function as an operation unit can be realized by, for example, a touch panel.

(端末制御部150)
端末制御部150は、上記で述べた入出力端末10の各構成を制御する機能を有する。端末制御部150は、例えば、音声入力部110及びセンサ部120が検出した各種の情報を取得し、後述するサーバ通信部160を介して、情報処理装置30に送信する機能を有してよい。また、端末制御部150は、サーバ通信部160を介して情報処理装置30からフィードバックに係る情報を取得し、当該情報に基づいて、音声出力部130及び表示部140を制御してもよい。また、ユーザの発話に基づいて処理を実行するアプリケーションが入出力端末10に備えられる場合、端末制御部150は、当該アプリケーションの処理を制御することができる。
(Terminal control unit 150)
The terminal control unit 150 has a function of controlling each configuration of the input / output terminal 10 described above. The terminal control unit 150 may have, for example, a function of acquiring various information detected by the voice input unit 110 and the sensor unit 120 and transmitting the information to the information processing device 30 via the server communication unit 160 described later. Further, the terminal control unit 150 may acquire information related to feedback from the information processing device 30 via the server communication unit 160, and control the voice output unit 130 and the display unit 140 based on the information. Further, when the input / output terminal 10 is provided with an application that executes processing based on the user's utterance, the terminal control unit 150 can control the processing of the application.

以上、本開示に係る入出力端末10について説明した。上記の説明においては、入出力端末10が、ユーザの発話などの入力を受け付ける機能と、ユーザの発話認識に係る情報に応じたフィードバックをユーザに提示する機能と、を併せて有する場合を例に説明した。一方、本開示に係るシステム構成は係る例に限定されない。本開示に係るシステムは、入力機能を有する入力端末と、上記のフィードバックを提示する出力端末と、を別々の備えてもよい。この場合、入力端末は、例えば、上記で説明した音声入力部110、センサ部120、及び端末制御部150の有する機能を備えてもよい。また、出力端末は、例えば、上記で説明した音声出力部130、表示部140、及び端末制御部150の有する機能を備えてもよい。本開示に係るシステム構成は、柔軟に変形され得る。 The input / output terminal 10 according to the present disclosure has been described above. In the above description, an example is taken in the case where the input / output terminal 10 has both a function of accepting an input such as a user's utterance and a function of presenting feedback to the user according to information related to the user's utterance recognition. explained. On the other hand, the system configuration according to the present disclosure is not limited to such an example. The system according to the present disclosure may separately include an input terminal having an input function and an output terminal that presents the above feedback. In this case, the input terminal may include, for example, the functions of the voice input unit 110, the sensor unit 120, and the terminal control unit 150 described above. Further, the output terminal may include, for example, the functions of the audio output unit 130, the display unit 140, and the terminal control unit 150 described above. The system configuration according to the present disclosure can be flexibly modified.

(サーバ通信部160)
サーバ通信部160は、ネットワーク20を介して、情報処理装置30との情報通信を行う機能を有する。具体的には、サーバ通信部160は、音声入力部110やセンサ部120が取得した情報を、端末制御部150の制御に基づいて、情報処理装置30に送信する。また、サーバ通信部160は、情報処理装置30から取得したフィードバックの情報を端末制御部150に引き渡す。
(Server communication unit 160)
The server communication unit 160 has a function of performing information communication with the information processing device 30 via the network 20. Specifically, the server communication unit 160 transmits the information acquired by the voice input unit 110 and the sensor unit 120 to the information processing device 30 based on the control of the terminal control unit 150. Further, the server communication unit 160 delivers the feedback information acquired from the information processing device 30 to the terminal control unit 150.

<<1.4.本開示に係る情報処理装置30>>
次に、本開示に係る情報処理装置30について、詳細に説明する。本開示に係る情報処理装置30は、入出力端末10が収音したユーザの発話認識に係る情報に応じて、ユーザの発話態様に対して入出力端末10が実行するフィードバックを制御する機能を有する。情報処理装置30は、ユーザの発話認識に係る情報に応じて、ユーザの発話態様に対するフィードバックのモードを、複数のモードから選択することができる。上記の複数のモードには、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、が含まれてよい。また、上記の発話態様には、発話音量、発話速度、発話する音の高さ、発音の明確さ、発話位置、発話方向、発話内容、及び環境音が含まれてよい。
<< 1.4. Information processing device 30 according to the present disclosure >>
Next, the information processing device 30 according to the present disclosure will be described in detail. The information processing device 30 according to the present disclosure has a function of controlling the feedback executed by the input / output terminal 10 with respect to the user's utterance mode according to the information related to the user's utterance recognition collected by the input / output terminal 10. .. The information processing device 30 can select a feedback mode for the user's utterance mode from a plurality of modes according to the information related to the user's utterance recognition. The plurality of modes described above may include a first mode in which implicit feedback is provided and a second mode in which explicit feedback is provided. In addition, the above-mentioned utterance mode may include utterance volume, utterance speed, utterance pitch, pronunciation clarity, utterance position, utterance direction, utterance content, and environmental sound.

本開示に係る情報処理装置30は、上記の機能を有するサーバであってもよい。また、情報処理装置30は、ユーザの発話を検出し、フィードバックを実行する各種のエージェント、PC、タブレット、またはスマートフォンであってもよい。 The information processing device 30 according to the present disclosure may be a server having the above functions. Further, the information processing device 30 may be various agents, PCs, tablets, or smartphones that detect the user's utterance and execute feedback.

以下、図3を参照して、本開示に係る情報処理装置30の機能構成例について説明する。図3を参照すると、本開示に係る情報処理装置30は、端末通信部310、音声分析部320、音声認識部330、状態記憶部340、位置検出部350、及び出力制御部360を備える。 Hereinafter, a functional configuration example of the information processing apparatus 30 according to the present disclosure will be described with reference to FIG. Referring to FIG. 3, the information processing device 30 according to the present disclosure includes a terminal communication unit 310, a voice analysis unit 320, a voice recognition unit 330, a state storage unit 340, a position detection unit 350, and an output control unit 360.

(端末通信部310)
端末通信部310は、ネットワーク20を介して、入出力端末10との情報通信を行う機能を有する。具体的には、端末通信部310は、入出力端末10から取得した各種の情報を、音声分析部320、音声認識部330、及び位置検出部350に引き渡す。また、端末通信部310は、出力制御部360により制御されるフィードバックの情報を取得し、入出力端末10に送信する機能を有する。なお、情報処理装置30が複数の入出力端末10を制御する場合、端末通信部310は、ネットワーク20を介して、複数の入出力端末10と情報通信を行ってよい。
(Terminal communication unit 310)
The terminal communication unit 310 has a function of performing information communication with the input / output terminal 10 via the network 20. Specifically, the terminal communication unit 310 delivers various information acquired from the input / output terminal 10 to the voice analysis unit 320, the voice recognition unit 330, and the position detection unit 350. Further, the terminal communication unit 310 has a function of acquiring feedback information controlled by the output control unit 360 and transmitting it to the input / output terminal 10. When the information processing device 30 controls a plurality of input / output terminals 10, the terminal communication unit 310 may perform information communication with the plurality of input / output terminals 10 via the network 20.

(音声分析部320)
音声分析部320は、入出力端末10が収音した情報を取得し、当該情報を分析する機能を有する。音声分析部320は、例えば、ユーザの発話音量、発話速度、発話する音の高さ、または発音の明確さなどを含む、ユーザの発話態様に関する情報を分析できる。また、上記ユーザの発話態様には、ユーザの発話に付随して集音される環境音が含まれてよい。また、音声分析部320は、入出力端末10が収音した情報から、ユーザの発話と環境音とを分離する機能を有してもよい。ユーザの発話と環境音との分離は、人間の声に係る周波数帯域の情報などに基づいて行われてもよいし、VAD(Voice Activity Detection)技術などにより実現されてもよい。また、後述する状態記憶部340が、所定のユーザの音声に関する個人情報を記憶している場合、音声分析部320は、当該情報を用いて、ユーザの発話と環境音とを分離することもできる。
(Voice analysis unit 320)
The voice analysis unit 320 has a function of acquiring information collected by the input / output terminal 10 and analyzing the information. The voice analysis unit 320 can analyze information on the user's utterance mode, including, for example, the user's utterance volume, utterance speed, utterance pitch, or pronunciation clarity. In addition, the user's utterance mode may include environmental sounds collected in association with the user's utterance. Further, the voice analysis unit 320 may have a function of separating the user's utterance and the environmental sound from the information collected by the input / output terminal 10. Separation of the user's utterance and the environmental sound may be performed based on the information of the frequency band related to the human voice, or may be realized by VAD (Voice Activity Detection) technology or the like. Further, when the state storage unit 340 described later stores personal information regarding the voice of a predetermined user, the voice analysis unit 320 can also use the information to separate the user's utterance and the environmental sound. ..

また、音声分析部320は、入出力端末10が収音したユーザの発話を分析し、当該ユーザを特定する機能を有してもよい。ユーザの特定は、ユーザの発話の分析結果と、後述する状態記憶部340に記憶されるユーザの声紋情報を比較することで行われてよい。 Further, the voice analysis unit 320 may have a function of analyzing the utterance of the user picked up by the input / output terminal 10 and identifying the user. The user may be specified by comparing the analysis result of the user's utterance with the user's voiceprint information stored in the state storage unit 340 described later.

また、音声分析部320は、入出力端末10が収音したユーザの発話を分析し、当該ユーザの感情を推定する機能を有してもよい。ユーザの感情の推定は、例えば、韻律や振幅、強勢などの解析により行われてもよい。 Further, the voice analysis unit 320 may have a function of analyzing the utterance of the user picked up by the input / output terminal 10 and estimating the emotion of the user. The estimation of the user's emotion may be performed by, for example, analysis of prosody, amplitude, stress, and the like.

(音声認識部330)
音声認識部330は、入出力端末10が収音した音声、または音声分析部320が分離したユーザの音声、に基づいて、ユーザの発話を認識する機能を有する。具体的には、音声認識部330は、取得した音声情報を音素化し、テキスト化する機能を有してよい。なお、音声認識部330による音声認識については種々の手法が用いられてよいため、詳細な説明は省略する。
(Voice recognition unit 330)
The voice recognition unit 330 has a function of recognizing a user's utterance based on the voice picked up by the input / output terminal 10 or the user's voice separated by the voice analysis unit 320. Specifically, the voice recognition unit 330 may have a function of converting the acquired voice information into phonemes and converting it into text. Since various methods may be used for voice recognition by the voice recognition unit 330, detailed description thereof will be omitted.

(状態記憶部340)
状態記憶部340は、音声分析部320及び音声認識部330による処理結果を記憶する機能を有する。状態記憶部340は、例えば、音声分析部320により分析されたユーザの発話態様に係る情報や、音声認識部330による音声認識の結果を記憶できる。また、状態記憶部340は、ユーザの音声に係る特徴を含むユーザの属性情報や、発話態様の傾向などを記憶してもよい。
(State storage unit 340)
The state storage unit 340 has a function of storing the processing results of the voice analysis unit 320 and the voice recognition unit 330. The state storage unit 340 can store, for example, information related to the user's utterance mode analyzed by the voice analysis unit 320 and the result of voice recognition by the voice recognition unit 330. Further, the state storage unit 340 may store the user's attribute information including the characteristics related to the user's voice, the tendency of the utterance mode, and the like.

(位置検出部350)
位置検出部350は、入出力端末10が取得した情報に基づいて、ユーザの発話位置や発話方向を推定する機能を有する。位置検出部350は、入出力端末10の音声入力部110が収音した音声情報や、センサ部120が取得した画像情報を含む各種のセンサから収集された情報を基にユーザの発話位置及び発話方向を推定することができる。また、位置検出部350は、上記の情報を基に、発話を行っているユーザ以外の人物及び物体の位置を推定してもよい。
(Position detector 350)
The position detection unit 350 has a function of estimating the utterance position and the utterance direction of the user based on the information acquired by the input / output terminal 10. The position detection unit 350 uses the user's utterance position and utterance based on the voice information collected by the voice input unit 110 of the input / output terminal 10 and the information collected from various sensors including the image information acquired by the sensor unit 120. The direction can be estimated. Further, the position detection unit 350 may estimate the position of a person or an object other than the user who is speaking based on the above information.

(出力制御部360)
出力制御部360は、音声分析部320、音声認識部330、状態記憶部340、及び位置検出部350から各種の情報を取得し、ユーザの発話に対するフィードバックを制御する機能を有する。出力制御部360は、上記の情報に基づいて、ユーザの発話態様に対するフィードバックのモードを複数のモードから選択する。当該複数のモードには、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、が含まれる。また、出力制御部360は、入出力端末10が行う音声または視覚情報によるフィードバックの情報を生成し、端末通信部310を介して、入出力端末10に送信してもよい。出力制御部360は、後述する出力DB370から条件に基づいたフィードバック情報を検索することで、上記のフィードバックの情報を生成してもよい。出力制御部360によるフィードバック制御の詳細については、後述する。
(Output control unit 360)
The output control unit 360 has a function of acquiring various information from the voice analysis unit 320, the voice recognition unit 330, the state storage unit 340, and the position detection unit 350, and controlling the feedback to the user's utterance. The output control unit 360 selects a feedback mode for the user's utterance mode from a plurality of modes based on the above information. The plurality of modes include a first mode in which implicit feedback is provided and a second mode in which explicit feedback is provided. Further, the output control unit 360 may generate feedback information by voice or visual information performed by the input / output terminal 10 and transmit it to the input / output terminal 10 via the terminal communication unit 310. The output control unit 360 may generate the above feedback information by searching the output DB 370, which will be described later, for feedback information based on the conditions. The details of the feedback control by the output control unit 360 will be described later.

(出力DB370)
出力DB370は、入出力端末10が実施する音声または視覚情報によるフィードバックの情報を蓄積するデータベースであってよい。出力DB370は、例えば、フィードバックに係る音声情報を記憶してもよいし、入出力端末10の音声合成機能により音声出力させるためのテキスト情報を記憶してもよい。また、出力DB370は、入出力端末10が実施する視覚情報によるフィードバックに係る画像情報やテキスト情報を記憶してもよい。
(Output DB370)
The output DB 370 may be a database that stores feedback information by voice or visual information performed by the input / output terminal 10. The output DB 370 may store, for example, voice information related to feedback, or may store text information for voice output by the voice synthesis function of the input / output terminal 10. Further, the output DB 370 may store image information and text information related to feedback by visual information performed by the input / output terminal 10.

<2.実施形態>
<<2.1.フィードバックのモードについて>>
以上、本開示に係るフィードバックの制御について、概要を述べた。続いて、本開示の実施形態に係るフィードバックの制御について、詳細に説明する。本実施形態に係る情報処理装置30は、ユーザの発話認識に係る情報に応じて、ユーザの発話態様に対するフィードバックのモードを複数のモードから選択することができる。
<2. Embodiment>
<< 2.1. Feedback mode >>
The control of feedback according to the present disclosure has been outlined above. Subsequently, the control of feedback according to the embodiment of the present disclosure will be described in detail. The information processing device 30 according to the present embodiment can select a feedback mode for the user's utterance mode from a plurality of modes according to the information related to the user's utterance recognition.

(暗示的なフィードバック)
暗示的なフィードバックとは、ユーザの発話態様に対する間接的な改善方法を含むフィードバックである。すなわち、暗示的なフィードバックでは、ユーザに発話態様の改善方法を直接的には提示せず、入出力端末10による出力の態様を変化させることでフィードバックが行われる。ここで、本実施形態に係る暗示的なフィードバックとは、ユーザの発話態様よりも認識精度の高い発話態様でのフィードバックと定義してもよい。上記の認識精度は、入出力端末10によるユーザの発話の認識精度であってよい。言い換えると、暗示的なフィードバックが行われる第1のモードでは、ユーザに期待する発話態様によるフィードバックが行われる。
(Implicit feedback)
Implicit feedback is feedback that includes indirect improvement methods for the user's utterance mode. That is, in the implicit feedback, the feedback is provided by changing the output mode of the input / output terminal 10 without directly presenting the user a method of improving the utterance mode. Here, the implicit feedback according to the present embodiment may be defined as feedback in an utterance mode with higher recognition accuracy than the user's utterance mode. The above recognition accuracy may be the recognition accuracy of the user's utterance by the input / output terminal 10. In other words, in the first mode in which the implicit feedback is performed, the feedback is performed according to the utterance mode expected from the user.

例えば、ユーザの発話音量が小さい場合、第1のモードでは、ユーザの発話音量よりも大きい音量の音声出力によるフォードバックが行われてよい。また、例えば、ユーザの発話速度が速すぎる場合、第1のモードでは、ユーザの発話速度よりも遅い速度での音声出力によるフィードバックが行われてよい。また、本実施形態に係る第1のモードでは、上記とは逆方向のフィードバックを行うこともできる。すなわち、ユーザの発話音量が大きい場合、第1のモードでは、ユーザの発話音量よりも小さい音量の音声出力によるフォードバックが行われてよい。また、例えば、ユーザの発話速度が遅すぎる場合、第1のモードでは、ユーザの発話速度よりも速い速度での音声出力によるフィードバックが行われてよい。 For example, when the user's utterance volume is low, in the first mode, fordback may be performed by voice output having a volume higher than the user's utterance volume. Further, for example, when the user's utterance speed is too fast, in the first mode, feedback by voice output may be performed at a speed slower than the user's utterance speed. Further, in the first mode according to the present embodiment, feedback in the opposite direction to the above can be performed. That is, when the user's utterance volume is high, in the first mode, fordback may be performed by voice output having a volume lower than that of the user's utterance volume. Further, for example, when the user's utterance speed is too slow, in the first mode, feedback by voice output may be performed at a speed faster than the user's utterance speed.

図4は、暗示的なフィードバックを用いた、ユーザと入出力端末10との対話例を示す図である。図4では、横軸に時間経過が、縦軸に発話音量の大きさが、示されている。ここで、横軸に係る時間経過の単位は、例えばミリ秒(msec)であってもよい。また、縦軸に係る発話音量の単位は例えば例えばデジベル(dB)であってもよい。図4に示す一例では、まずユーザが発話Uv1を行っている。ここで、発話Uv1の発話内容は、例えば、「明日の予定は?」、という問い合わせであってもよい。また、本例における発話Uv1の発話音量は、例えば45dBであってよい。しかし、発話Uv1は、認識可能音量よりも小さい音量で発話されているため、情報処理装置30は発話Uv1を認識することが困難である。このため、情報処理装置30は、暗示的なフィードバックとして、認識可能な音量によるシステム出力Sv1を入出力端末10に出力させる。ここで、システム出力Sv1の発話内容は、例えば、「ご用ですか?」、という聞き直しであってもよい。また、この際のシステム出力Sv1は、例えば、60dBであってよい。 FIG. 4 is a diagram showing an example of dialogue between the user and the input / output terminal 10 using implicit feedback. In FIG. 4, the horizontal axis shows the passage of time, and the vertical axis shows the loudness of the utterance volume. Here, the unit of time lapse related to the horizontal axis may be, for example, milliseconds (msec). Further, the unit of the utterance volume related to the vertical axis may be, for example, a decibel (dB). In the example shown in FIG. 4, the user first makes an utterance Uv1. Here, the utterance content of the utterance Uv1 may be, for example, an inquiry such as "What are your plans for tomorrow?". Further, the utterance volume of the utterance Uv1 in this example may be, for example, 45 dB. However, since the utterance Uv1 is uttered at a volume lower than the recognizable volume, it is difficult for the information processing device 30 to recognize the utterance Uv1. Therefore, the information processing device 30 causes the input / output terminal 10 to output the system output Sv1 at a recognizable volume as implicit feedback. Here, the utterance content of the system output Sv1 may be, for example, re-listening to "Do you want it?". Further, the system output Sv1 at this time may be, for example, 60 dB.

続いて、暗示的なフィードバックとしてのシステム出力Sv1を受けたユーザは、発話Uv2による再度の問い合わせを行っている。発話Uv2の発話内容は、例えば、「明日、予定ある?」という問い合わせであってもよい。また、本例における、発話Uv2の発話音量は、例えば45dBであってよい。すなわち、図4に示す一例では、暗示的なフィードバックであるシステム出力Sv1を受けたことで、ユーザの発話Uv2は発話Uv1よりも大きな音量で発話されており、認識可能音量を上回っている。このため、発話Uv2は、情報処理装置30により認識され、認識された発話Uv2に基づいて、入出力端末10がアプリケーションの実行結果として、システム出力Sv2を出力している。ここで、システム出力Sv2は、例えば、「明日は昼に通院の予定があります」、というユーザの予定に関する検索結果であってもよい。なお、この際のシステム出力Sv2は、例えばシステム出力Sv1と同等の音量で行われてもよい。 Subsequently, the user who receives the system output Sv1 as implicit feedback makes another inquiry by the utterance Uv2. The utterance content of the utterance Uv2 may be, for example, an inquiry such as "Are you planning tomorrow?" Further, the utterance volume of the utterance Uv2 in this example may be, for example, 45 dB. That is, in the example shown in FIG. 4, the user's utterance Uv2 is uttered at a louder volume than the utterance Uv1 by receiving the system output Sv1 which is an implicit feedback, and is higher than the recognizable volume. Therefore, the utterance Uv2 is recognized by the information processing device 30, and the input / output terminal 10 outputs the system output Sv2 as the execution result of the application based on the recognized utterance Uv2. Here, the system output Sv2 may be, for example, a search result regarding the user's schedule such as "I have a schedule of going to the hospital at noon tomorrow." The system output Sv2 at this time may be performed at a volume equivalent to, for example, the system output Sv1.

なお、図4に示す一例では、ユーザの発話が先に行われているが、入出力端末10が先に音声出力を行う場合においては、入出力端末10が認識可能な音量によるシステム出力を初めに例示することで、ユーザの発話音量を誘導することも可能である。 In the example shown in FIG. 4, the user speaks first, but when the input / output terminal 10 outputs voice first, the system output at a volume recognizable by the input / output terminal 10 is started. It is also possible to induce the user's utterance volume by exemplifying the above.

以上説明したように、暗示的なフィードバックが行われる第1のモードでは、ユーザに期待する認識精度の高い態様を例示することで、ユーザの発話態様が改善されるように促すフィードバックが行われる。 As described above, in the first mode in which the implicit feedback is performed, the feedback that encourages the user to improve the speech mode is performed by exemplifying the mode with high recognition accuracy expected from the user.

(明示的なフィードバック)
一方、明示的なフィードバックとは、ユーザの発話態様に対する直接的な改善方法を示すフィードバックであってよい。すなわち、明示的なフィードバックでは、入出力端末10による出力の態様を変化させる暗示的なフィードバックとは異なり、入出力端末10による認識精度を向上させるための改善方法を直接的にユーザに示してよい。このため、明示的なフィードバックが行われる第2のモードでは、ユーザの発話を認識するために、ユーザがとり得る発話の改善方法が具体的に提示される。例えば、ユーザの発話音量が小さい場合、第2のモードでは、「もっと大きな声で喋ってください」、という音声出力が行われてもよい。また、例えば、ユーザの発話速度が速すぎる場合、第2のモードでは、「もっとゆっくり喋ってください」、という音声出力が行われてもよい。上記のように、明示的なフィードバックが行われる第2のモードでは、ユーザがとり得る改善手段を明確に示すことで、ユーザの発話態様が改善されるように促すフィードバックが行われる。
(Explicit feedback)
On the other hand, the explicit feedback may be feedback indicating a direct improvement method for the user's utterance mode. That is, in the explicit feedback, unlike the implicit feedback in which the mode of output by the input / output terminal 10 is changed, the improvement method for improving the recognition accuracy by the input / output terminal 10 may be directly shown to the user. .. Therefore, in the second mode in which explicit feedback is performed, a method for improving the utterance that the user can take is specifically presented in order to recognize the utterance of the user. For example, when the user's utterance volume is low, in the second mode, a voice output such as "Please speak louder" may be performed. Further, for example, when the user's utterance speed is too fast, a voice output such as "Please speak more slowly" may be performed in the second mode. As described above, in the second mode in which explicit feedback is provided, feedback is provided to encourage the user to improve his or her speech mode by clearly indicating the improvement means that the user can take.

本実施形態に係る情報処理装置30は、ユーザの発話態様を含む、ユーザの発話認識に係る情報に応じて、上記で説明した第1のモード又は第2のモードを選択すること、を特徴の一つとする。上述したとおり、明示的なフィードバックは、ユーザの装置に対する印象を損ねる可能性があり、また、多用されることで対話が不自然となる可能性がある。一方、暗示的なフィードバックは、明示的なフィードバックと比較して、人間同士に近いより自然な対話を実現できるものの、明示的なフィードバックに対し発話態様の改善効果は低いことが予想される。 The information processing device 30 according to the present embodiment is characterized in that the first mode or the second mode described above is selected according to the information related to the user's utterance recognition including the user's utterance mode. Make one. As mentioned above, explicit feedback can spoil the user's impression of the device, and can be overused to make the dialogue unnatural. On the other hand, although implicit feedback can realize a more natural dialogue closer to human beings than explicit feedback, it is expected that the effect of improving the speech mode is lower than that of explicit feedback.

上記の点を踏まえ、本実施形態に係る情報処理装置30は、暗示的なフィードバックが行われる第1のモードを基本としながら、状況に応じて、明示的なフィードバックが行われる第2のモードに切り替える制御を行う。情報処理装置30が当該制御を行うことで、ユーザとのより自然な対話を実現しながらも、ユーザにより発話の認識精度を高めることが可能となる。 Based on the above points, the information processing apparatus 30 according to the present embodiment is based on the first mode in which implicit feedback is performed, and is set in the second mode in which explicit feedback is performed depending on the situation. Controls switching. By performing the control by the information processing device 30, it is possible for the user to improve the recognition accuracy of the utterance while realizing a more natural dialogue with the user.

<<2.2.暗示的なフィードバックの例>>
次に、本実施形態に係る暗示的なフィードバックの具体的な例について説明する。本実施形態では、ユーザの発話態様に応じて、様々な暗示的フィードバックが行われてよい。図5は、本実施形態に係る出力制御部360による暗示的なフィードバックの制御の流れを示すフローチャートである。
<< 2.2. Examples of implied feedback >>
Next, a specific example of implicit feedback according to the present embodiment will be described. In this embodiment, various implicit feedbacks may be given depending on the speech mode of the user. FIG. 5 is a flowchart showing a flow of implicit feedback control by the output control unit 360 according to the present embodiment.

図5を参照すると、まず、出力制御部360は、ユーザの発話が認識可能であったか否かを判定する(S1101)。この際、出力制御部360は、音声認識部330から認識の結果を取得して判定を行ってよい。ステップS1101で、出力制御部360は、ユーザの発話が認識されたと判定すると(S1101:Yes)、暗示的なフィードバックに係る制御を終了し、認識された音声に基づくアプリケーションの処理に移行する。 Referring to FIG. 5, first, the output control unit 360 determines whether or not the user's utterance can be recognized (S1101). At this time, the output control unit 360 may acquire the recognition result from the voice recognition unit 330 and make a determination. When the output control unit 360 determines in step S1101 that the user's utterance is recognized (S1101: Yes), the output control unit 360 ends the control related to the implicit feedback and shifts to the processing of the application based on the recognized voice.

一方、ステップS1101で、出力制御部360がユーザの発話が認識されていないと判定すると(S1101:No)、続いて、出力制御部360は、ユーザの発話音量と、環境音の音量と、を比較する(S1102)。この際、出力制御部360は、音声分析部320による分析結果を基に判定を行ってよい。ステップ1102で、出力制御部360が、環境音の音量がユーザの発話音量を上回ると判定すると(S1102:Yes)、出力制御部360は、環境調整を提案するフィードバック情報を生成する(S1106)。 On the other hand, in step S1101, when the output control unit 360 determines that the user's utterance is not recognized (S1101: No), the output control unit 360 subsequently determines the user's utterance volume and the volume of the environmental sound. Compare (S1102). At this time, the output control unit 360 may make a determination based on the analysis result by the voice analysis unit 320. When the output control unit 360 determines in step 1102 that the volume of the environmental sound exceeds the utterance volume of the user (S1102: Yes), the output control unit 360 generates feedback information proposing the environmental adjustment (S1106).

上記の環境調整を提案するフィードバック情報は、例えば、「周りの音が大きいです」、という音声を出力させる命令であってもよい。このように、本実施形態に係る暗示的なフィードバックには、ユーザに期待する認識精度の高い態様によるフィードバックの他、ユーザに発話改善に対する気付きを与えるフィードバックが含まれてよい。 The feedback information that proposes the above environmental adjustment may be, for example, a command to output a voice saying "the surrounding sound is loud". As described above, the implicit feedback according to the present embodiment may include feedback in a manner with high recognition accuracy expected from the user, as well as feedback that gives the user awareness of the improvement in speech.

一方、ステップS1102で、出力制御部360が、環境音の音量よりもユーザの発話音量が大きいと判定すると(S1102:No)、続いて、出力制御部360は、ユーザの発話音量が認識されるために充分な大きさであったか、を判定する(S1103)。すなわち、出力制御部360は、ユーザの発話を認識できなかった原因がユーザの発話音量にあるか否かを判定する。 On the other hand, in step S1102, when the output control unit 360 determines that the user's utterance volume is louder than the volume of the environmental sound (S1102: No), the output control unit 360 subsequently recognizes the user's utterance volume. It is determined whether the size is sufficient for this (S1103). That is, the output control unit 360 determines whether or not the cause of the failure to recognize the user's utterance is the user's utterance volume.

ここで、出力制御部360が、ユーザの発話音量が充分でなかったと判定した場合(S1103:No)、出力制御部360は、ユーザの発話音量よりも大きな音量の音声出力を行うフィードバック情報を生成する(S1107)。当該フィードバック情報は、例えば、ユーザの発話音量よりも大きな音量で聞き直しを行わせる命令であってもよい。 Here, when the output control unit 360 determines that the user's utterance volume is not sufficient (S1103: No), the output control unit 360 generates feedback information that outputs voice at a volume higher than the user's utterance volume. (S1107). The feedback information may be, for example, a command for re-listening at a volume higher than the user's utterance volume.

一方、ステップS1103で、出力制御部360が、ユーザの発話音量が充分であったと判定した場合(S1103:Yes)、続いて、出力制御部360は、ユーザの発話が音素化可能であったか否かを判定する(S1104)。すなわち、出力制御部360は、ユーザの発話を認識できなかった原因がユーザの発話速度や発音の明確さにあるか否かを判定する。 On the other hand, when the output control unit 360 determines in step S1103 that the user's utterance volume is sufficient (S1103: Yes), the output control unit 360 subsequently determines whether or not the user's utterance can be phonemeized. Is determined (S1104). That is, the output control unit 360 determines whether or not the cause of the failure to recognize the user's utterance is the user's utterance speed or the clarity of pronunciation.

ここで、出力制御部360が、ユーザの発話が音素化できていないと判定した場合(S1104:No)、出力制御部360は、ユーザの発話速度よりも遅い速度で音声出力を行うフィードバック情報を生成する(S1108)。当該フィードバック情報は、例えば、ユーザの発話速度よりも遅い速度で聞き直しを行わせる命令であってもよい。また、当該フィードバック情報は、ピッチや声質などの変化を明確に発音した音声出力を行わせる命令であってもよい。 Here, when the output control unit 360 determines that the user's utterance cannot be phonemed (S1104: No), the output control unit 360 outputs feedback information at a speed slower than the user's utterance speed. Generate (S1108). The feedback information may be, for example, an instruction for re-listening at a speed slower than the user's utterance speed. In addition, the feedback information may be a command to output a voice that clearly pronounces changes in pitch, voice quality, and the like.

一方、ステップS1104で、出力制御部360が、ユーザの発話が音素化できていたと判定した場合(S1104:Yes)、続いて、出力制御部360は、ユーザの発話がテキスト化可能であったか否かを判定する(S1105)。すなわち、出力制御部360は、ユーザの発話を基に音素化された情報が、単語として認識されたか否かを判定する。 On the other hand, in step S1104, when the output control unit 360 determines that the user's utterance has been converted into phonemes (S1104: Yes), the output control unit 360 subsequently determines whether or not the user's utterance can be converted into text. Is determined (S1105). That is, the output control unit 360 determines whether or not the phonemeized information based on the user's utterance is recognized as a word.

ここで、出力制御部360が、ユーザの発話が単語として認識さえていない、と判定した場合(S1105:No)、出力制御部360は、音素化された音を用いて音声出力を行うフィードバック情報を生成する(S1109)。当該フィードバック情報は、例えば、音素化された音の情報を用いて、「〇〇ですか?」、と聞き直しを行わせる命令であってもよい。 Here, when the output control unit 360 determines that the user's utterance is not even recognized as a word (S1105: No), the output control unit 360 uses the phonemeized sound to output voice feedback information. Is generated (S1109). The feedback information may be, for example, a command for re-listening to "Are you OO?" Using the information of the phonemeized sound.

以上、本実施形態に係る暗示的なフィードバックの例について説明した。上記で説明したとおり、本実施形態に係る情報処理装置30は、ユーザの発話認識に係る情報に応じて、入出力端末10に様々な暗示的フィードバックを実行させることができる。情報処理装置30による当該制御により、人間同士に近いより自然な対話を実現することが可能となる。 The example of the implicit feedback according to the present embodiment has been described above. As described above, the information processing device 30 according to the present embodiment can cause the input / output terminal 10 to execute various implicit feedbacks according to the information related to the user's utterance recognition. The control by the information processing device 30 makes it possible to realize a more natural dialogue close to that of human beings.

<<2.3.フィードバックに係るモードの選択>>
次に、本実施形態の出力制御部360によるフィードバックに係るモードの選択について説明する。上述したとおり、本実施形態に係る情報処理装置30は、ユーザの発話認識に係る情報に応じて、ユーザの発話態様に対するフィードバックのモードを選択することができる。ここで、ユーザの発話認識に係る情報には、例えば、ユーザ情報、コンテンツ情報、環境情報、デバイス情報が含まれてよい。
<< 2.3. Select mode for feedback >>
Next, the mode selection related to the feedback by the output control unit 360 of the present embodiment will be described. As described above, the information processing apparatus 30 according to the present embodiment can select the mode of feedback for the user's utterance mode according to the information related to the user's utterance recognition. Here, the information related to the user's utterance recognition may include, for example, user information, content information, environment information, and device information.

上記のユーザ情報は、ユーザに関する情報であり、例えば、ユーザの発話態様、発話内容、属性情報、感情情報などであってよい。本実施形態に係る出力制御部360は、ユーザ情報に応じて、ユーザの発話態様に対するフィードバックのモードを選択することができる。 The above-mentioned user information is information about a user, and may be, for example, a user's utterance mode, utterance content, attribute information, emotional information, or the like. The output control unit 360 according to the present embodiment can select a feedback mode for the user's utterance mode according to the user information.

また、上記のコンテンツ情報は、ユーザの発話を認識し処理を行うアプリケーションに係る情報であってよい。ここで、コンテンツ情報は、例えば、アプリケーションの種類や仕様に関する情報を含んでよい。本実施形態に係る出力制御部360は、コンテンツ情報に応じて、ユーザの発話態様に対するフィードバックのモードを選択することができる。出力制御部360は、例えば、ユーザとの会話を主目的としたアプリケーションでは、第1のモードを選択し、情報検索を主目的としたアプリケーションでは、第2のモードを選択することもできる。 Further, the above-mentioned content information may be information related to an application that recognizes a user's utterance and performs processing. Here, the content information may include, for example, information regarding the type and specifications of the application. The output control unit 360 according to the present embodiment can select a mode of feedback for the user's utterance mode according to the content information. For example, the output control unit 360 may select the first mode in an application whose main purpose is conversation with a user, and may select a second mode in an application whose main purpose is information retrieval.

また、上記の環境情報は、ユーザや入出力端末10の周辺環境に係る情報であってよい。環境情報には、例えば、ユーザ以外の人物検出情報や、環境音の情報などが含まれてよい。本実施形態に係る出力制御部360は、環境情報に応じて、ユーザの発話態様に対するフィードバックのモードを選択することができる。 Further, the above-mentioned environmental information may be information related to the surrounding environment of the user and the input / output terminal 10. The environmental information may include, for example, information on detecting a person other than the user, information on environmental sounds, and the like. The output control unit 360 according to the present embodiment can select a feedback mode for the user's utterance mode according to the environmental information.

また、上記のデバイス情報は、入出力端末10の種類や仕様に関する情報であってよい。本実施形態に係る出力制御部360は、デバイス情報に応じて、ユーザの発話態様に対するフィードバックのモードを選択することができる。出力制御部360は、例えば、入出力端末10がユーザとの会話を主目的としたエージェントである場合に第1のモードを選択し、入出力端末10が事務的または機械的に利用されるデバイスである場合に第2のモードを選択することもできる。 Further, the above device information may be information regarding the type and specifications of the input / output terminal 10. The output control unit 360 according to the present embodiment can select a feedback mode for the user's utterance mode according to the device information. The output control unit 360 selects, for example, a first mode when the input / output terminal 10 is an agent whose main purpose is to talk with a user, and the input / output terminal 10 is a device that is used in a business or mechanical manner. The second mode can also be selected when.

以上、ユーザの発話認識に係る情報について説明した。上述したように、本実施形態に係る情報処理装置30は、暗示的なフィードバックが行われる第1のモードを基本としながら、状況に応じて、明示的なフィードバックが行われる第2のモードに切り替える制御を行うことができる。以下、出力制御部360がフィードバックに係るモードを切り替える条件を具体的に挙げながら説明する。 The information related to the user's utterance recognition has been described above. As described above, the information processing apparatus 30 according to the present embodiment is based on the first mode in which implicit feedback is performed, and switches to the second mode in which explicit feedback is performed depending on the situation. You can control it. Hereinafter, the conditions under which the output control unit 360 switches the mode related to feedback will be specifically described.

(認識の試行回数に基づくモードの選択)
まず、認識の試行回数に基づくモードの選択について説明する。本実施形態に係る出力制御部360は、ユーザの発話が所定の回数以内に認識されないことに基づいて、明示的なフィードバックが行われる第2のモードを選択することができる。なお、上記の所定の回数については、システムやアプリケーションの仕様に応じた種々の定義が行われてよい。本実施形態に係る所定の回数は、例えば、ユーザの発話に係る入力を検出したものの認識には至らなかった回数であってもよい(認証失敗回数)。また、所定の回数は、認識に係る入力待ち状態がタイムアウトした回数であってもよい(タイムアウト回数)。また、所定の回数は、ユーザの発話回数であってもよい(発話回数)。さらには、所定の回数は、上記に示した例の合計回数であてもよい。以下、図6及び図7を参照して、上記の制御について詳細に説明する。なお、以下の説明においては、ユーザの発話音量を判定する場合を例に説明を行う。
(Selection of mode based on the number of recognition attempts)
First, mode selection based on the number of recognition trials will be described. The output control unit 360 according to the present embodiment can select a second mode in which explicit feedback is performed based on the fact that the user's utterance is not recognized within a predetermined number of times. The above-mentioned predetermined number of times may be defined in various ways according to the specifications of the system or application. The predetermined number of times according to the present embodiment may be, for example, the number of times that the input related to the user's utterance is detected but not recognized (the number of times of authentication failure). Further, the predetermined number of times may be the number of times that the input waiting state related to recognition has timed out (timeout number). Further, the predetermined number of times may be the number of utterances of the user (number of utterances). Furthermore, the predetermined number of times may be the total number of times of the above-mentioned examples. Hereinafter, the above control will be described in detail with reference to FIGS. 6 and 7. In the following description, the case of determining the utterance volume of the user will be described as an example.

まず、図6を参照して、本実施形態に係る音声出力の音量レベルについて説明する。図6は、入出力端末10の音声出力部130による音声出力の音量レベルについて説明するための図である。図6に示す一例では、音声出力の音量レベルは、レベル1〜3の3段階に定義されており、レベルの数値が上がるほど、音量が大きくなってよい。ここで、レベル1は、音声出力部130による音声出力における初期設定値であってよい。レベル1における音量範囲は、例えば、0dB〜50dBであってもよい。ユーザの発話が正常に認識された場合、入出力端末10は、レベル1の音量でその後の応答を行ってよい。また、レベル2は、レベル1よりも一段階大きな音量と定義されてよい。レベル2における音量範囲は、例えば、51dB〜70dBであってもよい。また、レベル3は、レベル2よりも一段階大きな音量であり、暗示的なフィードバックにおける最大音量として定義されてもよい。レベル3における音量範囲は、例えば、71dB〜100dB、または71dB以上と定義されてもよい。 First, the volume level of the audio output according to the present embodiment will be described with reference to FIG. FIG. 6 is a diagram for explaining the volume level of the audio output by the audio output unit 130 of the input / output terminal 10. In the example shown in FIG. 6, the volume level of the audio output is defined in three stages of levels 1 to 3, and the higher the level value, the louder the volume may be. Here, level 1 may be an initial setting value in the audio output by the audio output unit 130. The volume range at level 1 may be, for example, 0 dB to 50 dB. When the user's utterance is normally recognized, the input / output terminal 10 may make a subsequent response at a level 1 volume. Further, level 2 may be defined as a volume one step louder than level 1. The volume range at level 2 may be, for example, 51 dB to 70 dB. Also, level 3 is one step louder than level 2 and may be defined as the maximum volume in implicit feedback. The volume range at level 3 may be defined as, for example, 71 dB to 100 dB, or 71 dB or more.

次に、図7を参照して、認識の試行回数に基づく第2のモードの選択について説明する。図7は、認識の試行回数に基づく出力制御部360の制御の流れを示すフローチャートである。まず、出力制御部360は、入出力端末10から取得したユーザの発話音量が、認識を行うための音量として不足しているか否かを判定する(S1201)。 Next, with reference to FIG. 7, selection of the second mode based on the number of recognition trials will be described. FIG. 7 is a flowchart showing a control flow of the output control unit 360 based on the number of recognition trials. First, the output control unit 360 determines whether or not the user's utterance volume acquired from the input / output terminal 10 is insufficient as the volume for recognition (S1201).

ここで、ユーザの発話音量が認識を行うのに充分である場合(S1201:No)、出力制御部360は、ユーザの発話音量に係る判定の処理を終了する。一方、ユーザの発話音量が不足している場合(S1201:Yes)、出力制御部360は、図6で示したレベル2の音量による暗示的フィードバックを実行させるためのフィードバック情報を生成する(S1202)。すなわち、出力制御部360は、入出力端末10に、ユーザの発話音量よりも一段階レベルの高い音量による暗示的なフィードバックを実行させる。 Here, when the user's utterance volume is sufficient for recognition (S1201: No), the output control unit 360 ends the process of determining the user's utterance volume. On the other hand, when the user's utterance volume is insufficient (S1201: Yes), the output control unit 360 generates feedback information for executing the implicit feedback by the level 2 volume shown in FIG. 6 (S1202). .. That is, the output control unit 360 causes the input / output terminal 10 to execute implicit feedback with a volume one step higher than the user's utterance volume.

ステップS1202による暗示的なフィードバックが実行された後、再度ユーザの発話を取得すると、出力制御部360は、取得したユーザの発話音量が、認識を行うための音量として不足しているか否か、再度判定を行う(S1203)。ここで、ユーザの発話音量が認識を行うのに充分である場合(S1203:No)、出力制御部360は、ユーザの発話音量に係る判定の処理を終了する。 When the user's utterance is acquired again after the implicit feedback in step S1202 is executed, the output control unit 360 again checks whether or not the acquired user's utterance volume is insufficient as the volume for recognition. The determination is made (S1203). Here, when the user's utterance volume is sufficient for recognition (S1203: No), the output control unit 360 ends the process of determining the user's utterance volume.

一方、再度ユーザの発話音量が不足している場合(S1203:Yes)、出力制御部360は、図6で示したレベル3の音量による暗示的フィードバックを実行させるためのフィードバック情報を生成する(S1204)。すなわち、出力制御部360は、入出力端末10に、設定された最大音量による暗示的フィードバックを実行させる。 On the other hand, when the user's utterance volume is insufficient again (S1203: Yes), the output control unit 360 generates feedback information for executing the implicit feedback by the level 3 volume shown in FIG. 6 (S1204). ). That is, the output control unit 360 causes the input / output terminal 10 to execute implicit feedback at the set maximum volume.

ステップS1204による暗示的なフィードバックが実行された後、再度ユーザの発話を取得すると、出力制御部360は、取得したユーザの発話音量が、認識を行うための音量として不足しているか否か、再度判定を行う(S1205)。ここで、ユーザの発話音量が認識を行うのに充分である場合(S1205:No)、出力制御部360は、ユーザの発話音量に係る判定の処理を終了する。 When the user's utterance is acquired again after the implicit feedback in step S1204 is executed, the output control unit 360 again checks whether or not the acquired user's utterance volume is insufficient as the volume for recognition. The determination is made (S1205). Here, when the user's utterance volume is sufficient for recognition (S1205: No), the output control unit 360 ends the process of determining the user's utterance volume.

一方、再度ユーザの発話音量が不足している場合(S1205:Yes)、出力制御部360は、明示的なフィードバックを実行させるためのフィードバック情報を生成する(S1206)。すなわち、出力制御部360は、暗示的なフィードバックがユーザの発話態様の改善につながらないと判断し、入出力端末10に、明示的なフィードバックを実行させる。入出力端末10は、出力制御部360による制御に従って、ユーザに対し、例えば、「もっと大きな声で話してください」、という音声出力を行ってもよい。 On the other hand, when the user's utterance volume is insufficient again (S1205: Yes), the output control unit 360 generates feedback information for executing explicit feedback (S1206). That is, the output control unit 360 determines that the implicit feedback does not lead to the improvement of the user's utterance mode, and causes the input / output terminal 10 to execute the explicit feedback. The input / output terminal 10 may output a voice such as "Please speak in a louder voice" to the user according to the control by the output control unit 360.

以上説明したように、本実施形態に係る出力制御部360は、認識の試行回数に基づいて、明示的なフィードバックが行われる第2のモードを選択することができる。出力制御部360による上記の制御により、暗示的なフィードバックによる自然な対話を基本としながらも、ユーザの発話が所定の回数以内に認識されない場合において、認識の精度を向上させることが可能となる。 As described above, the output control unit 360 according to the present embodiment can select a second mode in which explicit feedback is performed based on the number of recognition trials. The above control by the output control unit 360 makes it possible to improve the accuracy of recognition when the user's utterance is not recognized within a predetermined number of times, while being based on a natural dialogue by implicit feedback.

なお、上記の説明では、音量レベルを3段階に定義し、認識の試行回数が3回である場合を例に説明した。しかし、本実施形態に係る認識の試行回数に基づく第2のモードの選択は、係る例に限定されない。音量レベル及び認識の試行回数は適宜変更されてよい。また、上記の説明では、ユーザの発話態様のうち、ユーザの発話音量を判定する場合を例に説明した。しかし、本実施形態に係る認識の試行回数に基づく第2のモードの選択は、係る例に限定されない。出力制御部360は、ユーザの発話速度や発話の明確さを判定して、第2のモードを選択することも可能である。 In the above description, the volume level is defined in three stages, and the case where the number of recognition trials is three is described as an example. However, the selection of the second mode based on the number of recognition trials according to the present embodiment is not limited to such an example. The volume level and the number of recognition trials may be changed as appropriate. Further, in the above description, the case of determining the utterance volume of the user among the utterance modes of the user has been described as an example. However, the selection of the second mode based on the number of recognition trials according to the present embodiment is not limited to such an example. The output control unit 360 can also determine the user's utterance speed and utterance clarity and select the second mode.

(発話態様の変化度合いに基づくモードの選択)
次に、ユーザの発話態様の変化度合いに基づくモードの選択について説明する。本実施形態に係る出力制御部360は、暗示的なフィードバックを受けたユーザの発話態様に改善が認められないことに基づいて、第2のモードを選択することができる。以下、図8を参照して、上記の制御について詳細に説明する。なお、以下の説明においては、ユーザの発話音量を判定する場合を例に説明を行う。
(Selection of mode based on the degree of change in utterance mode)
Next, the mode selection based on the degree of change in the user's utterance mode will be described. The output control unit 360 according to the present embodiment can select the second mode based on the fact that no improvement is observed in the utterance mode of the user who receives the implicit feedback. Hereinafter, the above control will be described in detail with reference to FIG. In the following description, the case of determining the utterance volume of the user will be described as an example.

まず、出力制御部360は、入出力端末10から取得したユーザの発話音量が、認識を行うための音量として不足しているか否かを判定する(S1301)。こで、ユーザの発話音量が認識を行うのに充分である場合(S1301:No)、出力制御部360は、ユーザの発話音量に係る判定の処理を終了する。一方、ユーザの発話音量が不足している場合(S1301:Yes)、出力制御部360は、図6で示したレベル2の音量による暗示的フィードバックを実行させるためのフィードバック情報を生成する(S1302)。 First, the output control unit 360 determines whether or not the user's utterance volume acquired from the input / output terminal 10 is insufficient as the volume for recognition (S1301). When the user's utterance volume is sufficient for recognition (S1301: No), the output control unit 360 ends the process of determining the user's utterance volume. On the other hand, when the user's utterance volume is insufficient (S1301: Yes), the output control unit 360 generates feedback information for executing the implicit feedback by the level 2 volume shown in FIG. 6 (S1302). ..

ステップS1302による暗示的なフィードバックが実行された後、再度ユーザの発話を取得すると、出力制御部360は、取得したユーザの発話音量と、前回の発話音量と、を比較して発話音量の変化度合いを判定する(S1303)。この際、出力制御部360は、状態記憶部340に記憶される、ユーザの前回の発話態様の分析結果を取得することで、上記の判定を行うことができる。 When the user's utterance is acquired again after the implicit feedback in step S1302 is executed, the output control unit 360 compares the acquired user's utterance volume with the previous utterance volume and the degree of change in the utterance volume. Is determined (S1303). At this time, the output control unit 360 can make the above determination by acquiring the analysis result of the user's previous utterance mode stored in the state storage unit 340.

ここで、ユーザの発話音量が認識可能な大きさまで充分に変化している場合(S1303:充分な変化)、出力制御部360は、ユーザの発話音量に係る判定の処理を終了する。一方、ステップS1303で、ユーザの発話音量に変化があるものの認識可能な大きさには至らない場合(S1303:不充分な変化)、出力制御部360は、図6で示したレベル3の音量による暗示的フィードバックを実行させるためのフィードバック情報を生成する(S1305)。また、ステップS1303で、ユーザの発話音量に変化がない場合、または発話音量が小さくなっている場合(S1303:変化なし)、出力制御部360は、暗示的なフィードバックがユーザの発話態様の改善につながらないと判断し、入出力端末10に、明示的なフィードバックを実行させる。 Here, when the user's utterance volume has changed sufficiently to a recognizable level (S1303: sufficient change), the output control unit 360 ends the process of determining the user's utterance volume. On the other hand, in step S1303, when the user's utterance volume changes but does not reach a recognizable level (S1303: insufficient change), the output control unit 360 depends on the level 3 volume shown in FIG. Generate feedback information for performing implicit feedback (S1305). Further, in step S1303, when there is no change in the user's utterance volume or the utterance volume is low (S1303: no change), the output control unit 360 uses implicit feedback to improve the user's utterance mode. It is determined that the connection cannot be established, and the input / output terminal 10 is made to execute explicit feedback.

以上説明したように、本実施形態に係る出力制御部360は、ユーザの発話態様の変化度合いに基づいて、明示的なフィードバックが行われる第2のモードを選択することができる。出力制御部360による上記の制御により、暗示的なフィードバックにユーザが反応を示さない場合でも、認識の精度を向上させることが可能となる。 As described above, the output control unit 360 according to the present embodiment can select a second mode in which explicit feedback is performed based on the degree of change in the user's utterance mode. The above control by the output control unit 360 makes it possible to improve the accuracy of recognition even when the user does not respond to the implicit feedback.

なお、上記の説明では、ユーザの発話態様のうち、ユーザの発話音量を判定する場合を例に説明した。しかし、本実施形態に係るユーザの発話態様の変化度合いに基づく第2のモードの選択は、係る例に限定されない。出力制御部360は、ユーザの発話速度や発話の明確さを判定して、第2のモードを選択することも可能である。 In the above description, the case of determining the user's utterance volume among the user's utterance modes has been described as an example. However, the selection of the second mode based on the degree of change in the user's utterance mode according to the present embodiment is not limited to the above example. The output control unit 360 can also determine the user's utterance speed and utterance clarity and select the second mode.

(発話位置又は発話方向に基づくモードの選択)
次に、ユーザの発話位置または発話方向に基づくモードの選択について説明する。本実施形態に係る出力制御部360は、暗示的なフィードバックを受けたユーザの発話位置または発話方向に改善が認められないことに基づいて、第2のモードを選択することができる。このように、本実施形態に係るユーザの発話態様には、ユーザの発話位置や発話方向が含まれてよい。
(Selection of mode based on utterance position or utterance direction)
Next, the mode selection based on the user's utterance position or utterance direction will be described. The output control unit 360 according to the present embodiment can select the second mode based on the fact that no improvement is observed in the utterance position or the utterance direction of the user who has received the implicit feedback. As described above, the utterance mode of the user according to the present embodiment may include the utterance position and the utterance direction of the user.

図9は、ユーザの発話位置または発話方向に基づく出力制御部360の制御の流れを示すフローチャートである。まず、出力制御部360は、入出力端末10から取得したユーザの発話音量が、認識を行うための音量として不足しているか否かを判定する(S1401)。ここで、ユーザの発話音量が認識を行うのに充分である場合(S1401:No)、出力制御部360は、ユーザの発話位置及び発話方向に係る判定の処理を終了する。 FIG. 9 is a flowchart showing a control flow of the output control unit 360 based on the user's utterance position or utterance direction. First, the output control unit 360 determines whether or not the user's utterance volume acquired from the input / output terminal 10 is insufficient as the volume for recognition (S1401). Here, when the user's utterance volume is sufficient for recognition (S1401: No), the output control unit 360 ends the process of determining the user's utterance position and utterance direction.

一方、ユーザの発話音量が不足している場合(S1401:Yes)、続いて、出力制御部360は、ユーザの発話位置が適切か否かを判定する(S1402)。すなわち、出力制御部360は、発話音量の不足が発話位置に起因するか否かを判定する。この際、出力制御部360は、位置検出部350が推定したユーザの発話位置の情報を基に、上記の判定を行うことができる。 On the other hand, when the user's utterance volume is insufficient (S1401: Yes), the output control unit 360 subsequently determines whether or not the user's utterance position is appropriate (S1402). That is, the output control unit 360 determines whether or not the insufficient utterance volume is due to the utterance position. At this time, the output control unit 360 can make the above determination based on the information of the user's utterance position estimated by the position detection unit 350.

ステップS1402で、出力制御部360がユーザの発話位置が適切でないと判定した場合(S1402:No)、出力制御部360は、ユーザの発話位置に対する暗示的なフィードバックを実行させるためのフィードバック情報を生成する(S1404)。当該フィードバック情報は、例えば、「声が遠いようです」、という音声を入出力端末10に出力させる命令であってもよい。 When the output control unit 360 determines in step S1402 that the user's utterance position is not appropriate (S1402: No), the output control unit 360 generates feedback information for executing implicit feedback on the user's utterance position. (S1404). The feedback information may be, for example, a command to output the voice "The voice seems to be far away" to the input / output terminal 10.

一方、ステップS1402で、出力制御部360がユーザの発話位置が適切であると判定した場合(S1402:Yes)、続いて、出力制御部360は、ユーザの発話方向が適切か否かを判定する(S1403)。すなわち、出力制御部360は、発話音量の不足が発話方向に起因するか否かを判定する。この際、出力制御部360は、位置検出部350が推定したユーザの発話方向の情報を基に、上記の判定を行うことができる。 On the other hand, when the output control unit 360 determines in step S1402 that the user's utterance position is appropriate (S1402: Yes), the output control unit 360 subsequently determines whether or not the user's utterance direction is appropriate. (S1403). That is, the output control unit 360 determines whether or not the insufficient utterance volume is caused by the utterance direction. At this time, the output control unit 360 can make the above determination based on the information of the user's utterance direction estimated by the position detection unit 350.

ステップS1403で、出力制御部360がユーザの発話方向が適切であると判定した場合(S1403:Yes)、出力制御部360は、ユーザの発話位置及び発話方向に係る判定の処理を終了する。 When the output control unit 360 determines in step S1403 that the user's utterance direction is appropriate (S1403: Yes), the output control unit 360 ends the process of determining the user's utterance position and utterance direction.

一方、ステップS1403で、出力制御部360がユーザの発話方向が適切でないと判定した場合(S1403:No)、出力制御部360は、ユーザの発話方向に対する暗示的なフィードバックを実行させるためのフィードバック情報を生成する(S1405)。当該フィードバック情報は、例えば、「私に話しかけていますか?」、という音声を入出力端末10に出力させる命令であってもよい。また、ステップS1405で生成されるフィードバック情報は、音声出力を行うスピーカに関する指定であってもよい。例えば、入出力端末10の音声出力部130が複数のスピーカを含む場合、暗示的なフィードバックを出力させるスピーカを限定することで、ユーザに対し、発話方向に対する気付きを与えることができる。また、音声出力部130がマイクアレイを含む場合、上記のフィードバック情報には、当該マイクアレイの指向性を設定する情報が含まれてもよい。 On the other hand, when the output control unit 360 determines in step S1403 that the user's utterance direction is not appropriate (S1403: No), the output control unit 360 causes feedback information for executing implicit feedback on the user's utterance direction. Is generated (S1405). The feedback information may be, for example, a command to output a voice such as "Are you talking to me?" To the input / output terminal 10. Further, the feedback information generated in step S1405 may be a designation relating to a speaker that outputs audio. For example, when the voice output unit 130 of the input / output terminal 10 includes a plurality of speakers, the user can be made aware of the utterance direction by limiting the speakers that output implicit feedback. When the audio output unit 130 includes a microphone array, the feedback information may include information for setting the directivity of the microphone array.

ステップS1404またはステップS1405において暗示的なフィードバックが実行された後、再度ユーザの発話認識に係る情報を取得すると、出力制御部360は、ユーザの発話位置または発話方向が改善されたか否かを判定する(S1406)。ここで、出力制御部360が、ユーザの発話位置または発話方向が改善されたと判定した場合(S1406:Yes)、出力制御部360は、発話位置及び発話方向に係る判定の処理を終了する。 When the information related to the user's utterance recognition is acquired again after the implicit feedback is executed in step S1404 or step S1405, the output control unit 360 determines whether or not the user's utterance position or utterance direction has been improved. (S1406). Here, when the output control unit 360 determines that the user's utterance position or utterance direction has been improved (S1406: Yes), the output control unit 360 ends the process of determining the utterance position and the utterance direction.

一方、出力制御部360がユーザの発話位置または発話方向が改善されていないと判定した場合(S1406:No)、出力制御部360は、ユーザの発話位置または発話方向に対する明示的なフィードバックを実行させるフィードバック情報を生成する。当該フィードバック情報は、例えば、「マイクに近づいてください」、「マイクの方向に喋ってください」、という音声を入出力端末10に出力させる命令であってもよい。 On the other hand, when the output control unit 360 determines that the user's utterance position or utterance direction has not been improved (S1406: No), the output control unit 360 causes the user to execute explicit feedback on the user's utterance position or utterance direction. Generate feedback information. The feedback information may be, for example, a command to output voices such as "Please approach the microphone" and "Speak in the direction of the microphone" to the input / output terminal 10.

以上説明したように、本実施形態に係る出力制御部360は、ユーザの発話位置または発話方向に基づいて、明示的なフィードバックが行われる第2のモードを選択することができる。なお、上記では、ユーザの発話音量が不足している場合について説明したが、ユーザの発話位置または発話方向に基づく第2のモードの選択は、環境音の音量を考慮して制御されてもよい。例えば、入出力端末10が建物に組み込まれたエージェントであり、当該建物の複数の部屋に音声入力部110及び音声出力部130を備える場合を想定する。この際、ユーザが発話を行った部屋の環境音が大きく、ユーザの発話を認識するのが困難な場合、情報処理装置30は、ユーザを別の部屋に誘導するフィードバック情報を生成してもよい。すなわち、情報処理装置30は、ユーザの発話を検出したマイクロフォンとは異なる別のマイクロフォンに発話が行われるよう、ユーザを誘導することができる。このように、出力制御部360がユーザの発話位置または発話方向に基づいたフィードバックの制御を行うことで、入出力端末10の仕様に応じた様々なフィードバックを実現することが可能となる。 As described above, the output control unit 360 according to the present embodiment can select a second mode in which explicit feedback is performed based on the user's utterance position or utterance direction. Although the case where the user's utterance volume is insufficient has been described above, the selection of the second mode based on the user's utterance position or utterance direction may be controlled in consideration of the volume of the environmental sound. .. For example, it is assumed that the input / output terminal 10 is an agent incorporated in a building, and a voice input unit 110 and a voice output unit 130 are provided in a plurality of rooms in the building. At this time, if the environmental sound of the room in which the user has spoken is loud and it is difficult to recognize the user's utterance, the information processing device 30 may generate feedback information for guiding the user to another room. .. That is, the information processing device 30 can guide the user so that the utterance is performed on a microphone different from the microphone that has detected the utterance of the user. In this way, the output control unit 360 controls the feedback based on the user's utterance position or utterance direction, so that various feedbacks according to the specifications of the input / output terminal 10 can be realized.

(発話態様の分析に基づくモードの選択)
次に、ユーザの発話態様の分析に基づくモードの選択について説明する。本実施形態に係る出力制御部360は、ユーザの発話態様の分析結果に基づいて、フィードバックのモードを制御することができる。上記の発話態様には、発話音量、発話速度、発話する音の高さ、発音の明確さ、発話位置、発話方向、発話内容、及び環境音が含まれてよい。
(Selection of mode based on analysis of utterance mode)
Next, the mode selection based on the analysis of the user's utterance mode will be described. The output control unit 360 according to the present embodiment can control the feedback mode based on the analysis result of the user's utterance mode. The above utterance modes may include utterance volume, utterance speed, pitch of utterance, clarity of pronunciation, utterance position, utterance direction, utterance content, and environmental sound.

―ユーザの属性情報に基づくモードの選択―
まず、ユーザの属性情報に基づくモードの選択について説明する。本実施形態に係る出力制御部360は、ユーザの属性情報に基づいて、フィードバックのモードを制御することができる。ユーザの属性情報は、音声分析部320がユーザの発話態様を分析することで得られる情報、または音声認識部330による音声認識の結果から得られる情報であってよい。また、ユーザの属性情報には、ユーザの性別、年齢などのプロフィール情報や、使用言語、発話態様の傾向などの情報が含まれてよい。
-Mode selection based on user attribute information-
First, the mode selection based on the user's attribute information will be described. The output control unit 360 according to the present embodiment can control the feedback mode based on the attribute information of the user. The user attribute information may be information obtained by the voice analysis unit 320 analyzing the user's utterance mode, or information obtained from the result of voice recognition by the voice recognition unit 330. In addition, the attribute information of the user may include profile information such as the user's gender and age, and information such as the language used and the tendency of the utterance mode.

出力制御部360は、ユーザの発話態様の傾向に基づいて、フィードバックのモードを選択してもよい。例えば、音声分析部320の分析により特定されたユーザが、発話音量が小さい傾向にある場合、出力制御部360は、第2のモードを優先的に選択してもよい。このように、出力制御部360がユーザの発話傾向に基づいてモードの選択を行うことで、ユーザの発話を認識するまでの時間を短縮することが期待できる。 The output control unit 360 may select the feedback mode based on the tendency of the user's utterance mode. For example, when the user identified by the analysis of the voice analysis unit 320 tends to have a low utterance volume, the output control unit 360 may preferentially select the second mode. In this way, by selecting the mode based on the user's utterance tendency, the output control unit 360 can be expected to shorten the time until the user's utterance is recognized.

また、出力制御部360は、モードに関するユーザの行った設定に基づいて、フィードバックのモードを選択してもよい。ユーザが発話に対するフィードバックのモードを設定できる場合、出力制御部360は、音声分析部320の分析により特定されたユーザの設定に従ってフィードバックのモードを設定することができる。 Further, the output control unit 360 may select the feedback mode based on the user's setting regarding the mode. When the user can set the feedback mode for the utterance, the output control unit 360 can set the feedback mode according to the user's setting specified by the analysis of the voice analysis unit 320.

また、出力制御部360は、複数のユーザの属性情報から得られる統計情報に基づいて、フィードバックのモードを選択してもよい。出力制御部360は、特定の属性情報をキーに、当該属性を有するユーザグループの発話態様の傾向などを取得し、当該傾向に基づいて、モードの選択を行ってもよい。上記の制御は、入出力端末10が不特定多数のユーザに利用される環境において、特に有効である。 Further, the output control unit 360 may select the feedback mode based on the statistical information obtained from the attribute information of a plurality of users. The output control unit 360 may acquire the tendency of the utterance mode of the user group having the attribute by using the specific attribute information as a key, and select the mode based on the tendency. The above control is particularly effective in an environment in which the input / output terminal 10 is used by an unspecified number of users.

―ユーザの感情に基づくモードの選択―
次に、ユーザの感情に基づくモードの選択について説明する。本実施形態に係る出力制御部360は、ユーザの感情に基づいて、フィードバックのモードを制御することができる。ユーザの感情は、音声分析部320がユーザの発話態様を分析することで得られる情報であってよい。
-Mode selection based on user emotions-
Next, the mode selection based on the user's emotion will be described. The output control unit 360 according to the present embodiment can control the feedback mode based on the user's emotions. The user's emotion may be information obtained by the voice analysis unit 320 analyzing the user's utterance mode.

出力制御部360は、例えば、ユーザが興奮状態であると推定されることに基づいて、第1のモードを選択してもよい。上述したとおり、ユーザによっては、明示的なフィードバックに嫌悪感を抱くことも想定される。このため、出力制御部360は、ユーザが興奮状態であると推定される場合には、入出力端末10に暗示的なフィードバックを行わせることで、ユーザの感情を損ねる恐れを軽減することができる。 The output control unit 360 may select the first mode, for example, based on the presumption that the user is in an excited state. As mentioned above, some users may be disgusted with explicit feedback. Therefore, when the user is presumed to be in an excited state, the output control unit 360 can reduce the risk of damaging the user's emotions by causing the input / output terminal 10 to provide implicit feedback. ..

―発話内容に基づくモードの選択―
次に、ユーザの発話内容に基づくモードの選択について説明する。本実施形態に係る出力制御部360は、ユーザの発話内容に基づいて、フィードバックのモードを制御することができる。ユーザの発話内容は、音声認識部330による音声認識の結果から得られる情報であってよい。
-Selection of mode based on utterance content-
Next, the mode selection based on the utterance content of the user will be described. The output control unit 360 according to the present embodiment can control the feedback mode based on the content of the user's utterance. The content of the user's utterance may be information obtained from the result of voice recognition by the voice recognition unit 330.

出力制御部360は、例えば、ユーザの発話内容がプライバシー情報を含むと推定されることに基づいて、第2のモードを選択してもよい。本実施形態に係る暗示的フィードバックでは、音素化またはテキスト化できた要素を用いた聞き直しが行われる可能性がある。このため、ユーザ以外の人物にプライバシー情報が漏えいすることを防ぐために、出力制御部360は、第2のモードを設定することができる。また、出力制御部360が上記の制御を行うことで、プライバシー情報に係る発話の認識精度を向上させ、対話をより短い時間で終了させることが可能となる。 The output control unit 360 may select the second mode, for example, based on the presumed content of the user's utterance to include privacy information. In the suggestive feedback according to the present embodiment, there is a possibility that re-listening is performed using elements that can be phonemed or texted. Therefore, in order to prevent the privacy information from being leaked to a person other than the user, the output control unit 360 can set the second mode. Further, by performing the above control by the output control unit 360, the recognition accuracy of the utterance related to the privacy information can be improved, and the dialogue can be completed in a shorter time.

―環境情報に基づくモードの選択―
次に、環境情報に基づくモードの選択について説明する。本実施形態に係る出力制御部360は、ユーザの周囲に第三者の存在が検出されたことに基づいて、フィードバックのモードを制御することができる。第三者の検出は、位置検出部350による検出結果から得られる情報、または音声認識部330による音声認識の結果から得られる情報であってよい。
-Selection of mode based on environmental information-
Next, the mode selection based on the environmental information will be described. The output control unit 360 according to the present embodiment can control the feedback mode based on the detection of the presence of a third party around the user. The detection of the third party may be information obtained from the detection result by the position detection unit 350 or information obtained from the result of voice recognition by the voice recognition unit 330.

出力制御部360は、例えば、ユーザの周囲に第三者の存在が検出されたことに基づいて、第1のモードを選択してもよい。上述したとおり、ユーザによっては、明示的なフィードバックを、装置に指示されている、と感じる場合がある。このようなユーザは、周囲人物に明示的なフィードバックを聞かれることで、入出力端末10に対する印象をより損ねると予想される。このため、出力制御部360は、ユーザの周囲に第三者の存在が検出された場合には、入出力端末10に暗示的なフィードバックを行わせることで、ユーザの感情を損ねる恐れを軽減することができる。 The output control unit 360 may select the first mode based on the detection of the presence of a third party around the user, for example. As mentioned above, some users may feel that explicit feedback is directed to the device. It is expected that such a user will further impair the impression of the input / output terminal 10 by being asked for explicit feedback by a surrounding person. Therefore, when the presence of a third party is detected around the user, the output control unit 360 causes the input / output terminal 10 to provide implicit feedback, thereby reducing the risk of damaging the user's emotions. be able to.

<<2.4.改善理由を付加した明示的なフィードバック>>
以上、出力制御部360によるフィードバックに係るモードの選択について説明した。次に、本実施形態に係る改善理由を付加した明示的なフィードバックについて説明する。本開示に係る出力制御部360は、明示的なフィードバックが行われる第2のモードにおいて、入出力端末10に、改善理由を付加したフィードバックを実行させることができる。出力制御部360が、ユーザに発話態様を改善する理由を併せて提示するようにフィードバックを制御することで、明示的なフィードバックの表現を和らげ、ユーザの感情を損ねる可能性を低減することが可能となる。
<< 2.4. Explicit feedback with reasons for improvement >>
The selection of the mode related to the feedback by the output control unit 360 has been described above. Next, explicit feedback with a reason for improvement according to the present embodiment will be described. The output control unit 360 according to the present disclosure can cause the input / output terminal 10 to execute feedback with a reason for improvement in the second mode in which explicit feedback is performed. By controlling the feedback so that the output control unit 360 also presents the reason for improving the utterance mode to the user, it is possible to soften the expression of the explicit feedback and reduce the possibility of damaging the user's emotions. It becomes.

図10は、出力制御部360による改善理由の付加の流れを示すフローチャートである。図10に示す一例において、出力制御部360は、まず、音声分析部320による発話の分析結果を取得し、検出された音声の数を判定する(S1501)。すなわち、出力制御部360は、収音情報に複数人の音声が含まれているか否かを判定する。 FIG. 10 is a flowchart showing a flow of adding the reason for improvement by the output control unit 360. In the example shown in FIG. 10, the output control unit 360 first acquires the analysis result of the utterance by the voice analysis unit 320 and determines the number of detected voices (S1501). That is, the output control unit 360 determines whether or not the sound collection information includes the voices of a plurality of people.

ステップS1501において、出力制御部360が、一人の音声のみが検出されていると判定した場合(S1501:一人の音声)、出力制御部360は、フィードバック情報に改善理由1を設定する(S1502)。ここで、フィードバック情報に設定される改善理由1は、例えば、「まわりの音が大きすぎるので」、という付加情報であってもよい。 In step S1501, when the output control unit 360 determines that only one voice is detected (S1501: one voice), the output control unit 360 sets the improvement reason 1 in the feedback information (S1502). Here, the reason for improvement 1 set in the feedback information may be additional information such as "because the surrounding sound is too loud".

また、ステップS1501において、出力制御部360が、複数人音声が検出されていると判定した場合(S1501:複数人の音声)、出力制御部360は、フィードバック情報に改善理由2を設定する(S1503)。ここで、フィードバック情報に設定される改善理由2は、例えば、「他の人が話しているようなので」、という付加情報であってもよい。 Further, in step S1501, when the output control unit 360 determines that the voices of a plurality of people are detected (S1501: voices of a plurality of people), the output control unit 360 sets the improvement reason 2 in the feedback information (S1503). ). Here, the improvement reason 2 set in the feedback information may be additional information such as "because it seems that another person is talking".

また、ステップS1501において、出力制御部360が、音声の数を判定することが困難である場合(S1501:特定困難)、出力制御部360は、フィードバック情報に改善理由3を設定する(S1504)。ここで、フィードバック情報に設定される改善理由3は、例えば、「ちょっと聞こえにくいので」、という付加情報であってもよい。 Further, in step S1501, when it is difficult for the output control unit 360 to determine the number of voices (S1501: identification difficulty), the output control unit 360 sets the improvement reason 3 in the feedback information (S1504). Here, the improvement reason 3 set in the feedback information may be additional information such as "because it is a little hard to hear".

ステップS1502〜S1504において、いずれかの改善理由が設定されると、続いて、出力制御部360は、改善理由を付加した明示的なフィードバックを実行させるフィードバック情報を生成し、入出力端末10に送信する(S1505)。ステップS1505で生成されるフィードバック情報は、例えば、「もう少し大きな声で言ってください」、という出力情報と、改善理由と、を組み合わせた情報であってよい。例えば、ステップS1502で改善理由1が設定されている場合、ステップS1505で生成される情報は、「まわりの音が大きすぎるので、もう少し大きな声でいってください」という出力情報であってよい。 When any of the improvement reasons is set in steps S1502 to S1504, the output control unit 360 subsequently generates feedback information for executing explicit feedback with the improvement reason added, and transmits the feedback information to the input / output terminal 10. (S1505). The feedback information generated in step S1505 may be, for example, information that combines output information such as "Please say a little louder" and the reason for improvement. For example, when the reason for improvement 1 is set in step S1502, the information generated in step S1505 may be output information such as "The surrounding sounds are too loud, so please speak a little louder."

以上説明したように、本実施形態に係る出力制御部360は、明示的なフィードバックが行われる第2のモードにおいて、入出力端末10に、改善理由を付加したフィードバックを実行させることができる。出力制御部360による上記の制御により、明示的なフィードバックの表現を和らげ、より自然な対話を実現することが可能となる。 As described above, the output control unit 360 according to the present embodiment can cause the input / output terminal 10 to execute feedback with a reason for improvement in the second mode in which explicit feedback is performed. The above control by the output control unit 360 makes it possible to soften the expression of explicit feedback and realize a more natural dialogue.

<<2.5.視覚情報によるフィードバックの追加制御>>
次に、本実施形態に係る視覚情報によるフィードバックの追加について説明する。本実施形態に係る出力制御部360は、音声出力によるフィードバックに加え、視覚情報によるフィードバックを制御することが可能である。また、出力制御部360は、ユーザの発話態様が充分に変化しないことに基づいて、視覚情報によるフィードバックを追加することができる。以下、図11を参照して、出力制御部360による上記の制御について、詳細に説明する。
<< 2.5. Additional control of feedback by visual information >>
Next, the addition of feedback by visual information according to the present embodiment will be described. The output control unit 360 according to the present embodiment can control feedback by visual information in addition to feedback by audio output. Further, the output control unit 360 can add feedback by visual information based on the fact that the user's utterance mode does not change sufficiently. Hereinafter, the above control by the output control unit 360 will be described in detail with reference to FIG.

まず、出力制御部360は、ユーザの発話音量が認識を行うための音量として不足しているか否かを判定する(S1601)。ここで、ユーザの発話音量が認識を行うのに充分である場合(S1601:No)、出力制御部360は、視覚情報によるフィードバックの追加に係る制御を終了する。一方、ユーザの発話音量が不足している場合(S1601:Yes)、出力制御部360は、図6で示したレベル2の音量による暗示的フィードバックを実行させるためのフィードバック情報を生成する(S1602)。 First, the output control unit 360 determines whether or not the user's utterance volume is insufficient as the volume for recognition (S1601). Here, when the user's utterance volume is sufficient for recognition (S1601: No), the output control unit 360 ends the control related to the addition of feedback by visual information. On the other hand, when the user's utterance volume is insufficient (S1601: Yes), the output control unit 360 generates feedback information for executing the implicit feedback by the level 2 volume shown in FIG. 6 (S1602). ..

ステップS1602による暗示的なフィードバックが実行された後、再度ユーザの発話を取得すると、出力制御部360は、取得したユーザの発話音量が、認識を行うための音量として不足しているか否か、再度判定を行う(S1603)。ここで、ユーザの発話音量が認識を行うのに充分である場合(S1603:No)、出力制御部360は、視覚情報によるフィードバックの追加に係る制御を終了する。 When the user's utterance is acquired again after the implicit feedback in step S1602 is executed, the output control unit 360 again determines whether or not the acquired user's utterance volume is insufficient as the volume for recognition. The determination is made (S1603). Here, when the user's utterance volume is sufficient for recognition (S1603: No), the output control unit 360 ends the control related to the addition of feedback by visual information.

一方、再度ユーザの発話音量が不足している場合(S1603:Yes)、出力制御部360は、図6で示したレベル3の音量による暗示的フィードバックを実行させるためのフィードバック情報を生成する(S1604)。また、出力制御部360は、視覚情報による暗示的フィードバックを実行させるためのフィードバック情報を生成する(S1605)。暗示的フィードバックを実行させるためのフィードバック情報は、例えば、入出力端末10の表示部140に、音声出力によるフィードバックと同様のテキスト情報を表示させる命令であってもよい。また、暗示的フィードバックを実行させるためのフィードバック情報は、後述する画像やアニメーションを用いたフィードバックを実行させる命令であってもよい。 On the other hand, when the user's utterance volume is insufficient again (S1603: Yes), the output control unit 360 generates feedback information for executing the implicit feedback by the level 3 volume shown in FIG. 6 (S1604). ). Further, the output control unit 360 generates feedback information for executing implicit feedback by visual information (S1605). The feedback information for executing the implicit feedback may be, for example, an instruction to display the text information similar to the feedback by the voice output on the display unit 140 of the input / output terminal 10. Further, the feedback information for executing the implicit feedback may be an instruction for executing the feedback using an image or animation described later.

ステップS1604〜S1605において、暗示的なフィードバックが実行された後、再度ユーザの発話を取得すると、出力制御部360は、取得したユーザの発話音量が、認識を行うための音量として不足しているか否か、再度判定を行う(S1606)。ここで、ユーザの発話音量が認識を行うのに充分である場合(S1606:No)、出力制御部360は、視覚情報によるフィードバックの追加に係る制御を終了する。 When the user's utterance is acquired again after the implicit feedback is executed in steps S1604 to S1605, the output control unit 360 determines whether or not the acquired user's utterance volume is insufficient as the volume for recognition. Or, the determination is made again (S1606). Here, when the user's utterance volume is sufficient for recognition (S1606: No), the output control unit 360 ends the control related to the addition of feedback by visual information.

一方、再度ユーザの発話音量が不足している場合(S1606:Yes)、出力制御部360は、音声出力による明示的なフィードバックを実行させるためのフィードバック情報を生成する(S1607)。また、出力制御部360は、視覚情報による明示的なフィードバックを実行させるためのフィードバック情報を生成する(S1608)。 On the other hand, when the user's utterance volume is insufficient again (S1606: Yes), the output control unit 360 generates feedback information for executing explicit feedback by voice output (S1607). Further, the output control unit 360 generates feedback information for executing explicit feedback by visual information (S1608).

以上説明したように、本実施形態に係る出力制御部360は、音声出力によるフィードバックに加え、視覚情報によるフィードバックを制御することが可能である。また、出力制御部360は、音声出力によるフィードバックの制御と同様に、段階的に視覚によるフィードバックを追加することができる。出力制御部360が上記の制御を行うことにより、音声による暗示的なフィードバックを基本としながらも、認識の精度を向上させることが可能となる。 As described above, the output control unit 360 according to the present embodiment can control feedback by visual information in addition to feedback by audio output. In addition, the output control unit 360 can add visual feedback step by step in the same manner as the control of feedback by audio output. By performing the above control by the output control unit 360, it is possible to improve the recognition accuracy while based on the implicit feedback by voice.

<<2.6.視覚情報によるフィードバックの例>>
以上、本実施形態に係る視覚情報によるフィードバックの制御について説明した。以下、図12〜図16を参照して、本実施形態に係る視覚情報によるフィードバックの例について説明する。上記の視覚情報には、文字、記号、アバター、インジケータ、または画像の変化が含まれてよい。
<< 2.6. Example of feedback by visual information >>
The control of feedback by visual information according to the present embodiment has been described above. Hereinafter, an example of feedback by visual information according to the present embodiment will be described with reference to FIGS. 12 to 16. The above visual information may include changes in characters, symbols, avatars, indicators, or images.

(インジケータによる暗示的フィードバック)
図12は、本実施形態の視覚情報による暗示的なフィードバックに用いられるインジケータの一例である。図12Aを参照すると、入出力端末10の表示部140には、2つのインジケータi1及びi2が表示されている。ここで、インジケータi1は、ユーザの発話音量を示すインジケータであってよい。また、インジケータi2は、入出力端末10の出力音量を示すインジケータであってよい。それぞれのインジケータi1及びi2は、ユーザの発話音量または入出力端末10の出力音量の変化に応じて、表示部140の上部に向けてグラデーションの占める割合が変化してよい。すなわち、ユーザの発話音量が大きいほど、インジケータi1は、表示部140の画面上部に向けてグラデーションが広がり、入出力端末10の出力音量が大きいほど、インジケータi2は、表示部140の画面上部に向けてグラデーションが広がってよい。
(Implicit feedback by indicator)
FIG. 12 is an example of an indicator used for implicit feedback by visual information of the present embodiment. Referring to FIG. 12A, two indicators i1 and i2 are displayed on the display unit 140 of the input / output terminal 10. Here, the indicator i1 may be an indicator indicating the utterance volume of the user. Further, the indicator i2 may be an indicator indicating the output volume of the input / output terminal 10. The proportions of the gradations of the indicators i1 and i2 may change toward the upper part of the display unit 140 according to the change in the utterance volume of the user or the output volume of the input / output terminal 10. That is, the louder the user's utterance volume, the wider the gradation of the indicator i1 toward the upper part of the screen of the display unit 140, and the louder the output volume of the input / output terminal 10, the more the indicator i2 faces the upper part of the screen of the display unit 140. The gradation may spread.

また、図12Bは、別のインジケータの例を示す図である。図12Bを参照すると、入出力端末10の表示部140には、2つのインジケータi3及びi4が表示されている。ここで、インジケータi3は、ユーザの発話音量を示すインジケータであってよい。また、インジケータi4は、入出力端末10の出力音量を示すインジケータであってよい。それぞれのインジケータi3及びi4は、ユーザの発話音量または入出力端末10の出力音量の変化に応じて、表示部140の中央に向けて音量レベルを示すバーの数が変化してよい。すなわち、ユーザの発話音量が大きいほど、インジケータi3は、表示部140の画面中央に向けてバーの数が増え、入出力端末10の出力音量が大きいほど、インジケータi4は、表示部140の画面中央に向けてバーの数が増えてよい。 Further, FIG. 12B is a diagram showing an example of another indicator. Referring to FIG. 12B, two indicators i3 and i4 are displayed on the display unit 140 of the input / output terminal 10. Here, the indicator i3 may be an indicator indicating the utterance volume of the user. Further, the indicator i4 may be an indicator indicating the output volume of the input / output terminal 10. In each of the indicators i3 and i4, the number of bars indicating the volume level may change toward the center of the display unit 140 according to the change in the utterance volume of the user or the output volume of the input / output terminal 10. That is, the louder the user's utterance volume, the more bars the indicator i3 has toward the center of the screen of the display unit 140, and the louder the output volume of the input / output terminal 10, the more the indicator i4 has the center of the screen of the display unit 140. The number of bars may increase towards.

ユーザは、表示部140に表示されるインジケータを確認することで、入出力端末10の出力音量と、ユーザの発話音量と、を比較することができる。これにより、ユーザが、発話音量が不足していることを認識し、発話態様を改善する効果が期待される。 By checking the indicator displayed on the display unit 140, the user can compare the output volume of the input / output terminal 10 with the utterance volume of the user. As a result, the user recognizes that the utterance volume is insufficient, and the effect of improving the utterance mode is expected.

(アバターによる発話方向に対する暗示的フィードバック)
次に、図13を参照して、本実施形態の視覚情報による暗示的なフィードバックに用いられるアバターについて、一例を説明する。図13に示されるアバターは、ユーザの発話方向に対する暗示的なフィードバックを行うための画像やアニメーションであってよい。図13Aを参照すると、入出力端末10の表示部140には、アバターa1が表示されている。また、入出力端末10の下部には、音声入力部110が配置されている。ここで、アバターa1は、ユーザの発話方向が適切である場合に表示されるアバターの一例であってよい。
(Implicit feedback on the direction of speech by the avatar)
Next, with reference to FIG. 13, an example of an avatar used for implicit feedback by visual information of the present embodiment will be described. The avatar shown in FIG. 13 may be an image or animation for providing implicit feedback on the user's utterance direction. Referring to FIG. 13A, the avatar a1 is displayed on the display unit 140 of the input / output terminal 10. Further, a voice input unit 110 is arranged below the input / output terminal 10. Here, the avatar a1 may be an example of an avatar displayed when the user's utterance direction is appropriate.

図13Bは、ユーザの発話方向が適切でない場合に表示されるアバターの一例である。図13Bを参照すると、図13Aとは異なり、音声入力部110は、入出力端末10の向かって左側に配置されている。また、アバターa2は、表示部140の向かって左側に表示されており、視線は音声入力部110に向いている。 FIG. 13B is an example of an avatar displayed when the user's utterance direction is not appropriate. Referring to FIG. 13B, unlike FIG. 13A, the voice input unit 110 is arranged on the left side of the input / output terminal 10. Further, the avatar a2 is displayed on the left side of the display unit 140, and the line of sight is directed to the voice input unit 110.

続いて、図13Cを参照する。図13Cも、図13Bと同様、ユーザの発話方向が適切でない場合に表示されるアバターの一例を示している。図13Cを参照すると、図13Aとは異なり、音声入力部110は、入出力端末10の向かって右側に配置されている。また、アバターa3は、表示部140の向かって右側に表示されており、視線は音声入力部110に向いている。 Subsequently, reference is made to FIG. 13C. FIG. 13C also shows an example of an avatar displayed when the user's utterance direction is not appropriate, as in FIG. 13B. Referring to FIG. 13C, unlike FIG. 13A, the voice input unit 110 is arranged on the right side of the input / output terminal 10. Further, the avatar a3 is displayed on the right side of the display unit 140, and the line of sight is directed to the voice input unit 110.

以上、説明したように、図13に示す一例では、ユーザの発話方向が適切でない場合、アバターが音声入力部110の位置を示唆することによる暗示的なフィードバックが行われる。ユーザがアバターの画像やアニメーションの動きを視認することで、ユーザの発話方向が改善される効果が期待される。 As described above, in the example shown in FIG. 13, when the user's utterance direction is not appropriate, implicit feedback is provided by suggesting the position of the voice input unit 110 by the avatar. When the user visually recognizes the movement of the avatar image or animation, the effect of improving the user's utterance direction is expected.

(グラフィックを用いた発話方向に対する暗示的フィードバック)
次に、図14を参照して、本実施形態の視覚情報による暗示的なフィードバックに用いられるグラフィックについて、一例を説明する。図14に示されるグラフィックg1は、ユーザの発話方向に対する暗示的なフィードバックを行うための画像やアニメーションであってよい。図14Aを参照すると、入出力端末10の表示部140には、グラフィックg1が表示されている。また、入出力端末10の下部には、音声入力部110が配置されている。ここで、グラフィックg1は、ユーザの発話方向が適切である場合に表示されるグラフィックの一例であってよい。
(Implicit feedback on the direction of speech using graphics)
Next, with reference to FIG. 14, an example of the graphic used for the implicit feedback by the visual information of the present embodiment will be described. The graphic g1 shown in FIG. 14 may be an image or animation for giving implicit feedback to the user's utterance direction. Referring to FIG. 14A, the graphic g1 is displayed on the display unit 140 of the input / output terminal 10. Further, a voice input unit 110 is arranged below the input / output terminal 10. Here, the graphic g1 may be an example of a graphic displayed when the user's utterance direction is appropriate.

図14Bは、ユーザの発話方向が適切でない場合に表示されるグラフィックの一例である。図14Bを参照すると、図14Aとは異なり、音声入力部110は、入出力端末10の向かって左側に配置されている。また、グラフィックg2は、表示部140の向かって左側に表示されており、音声入力部110側に広がるように変形している。 FIG. 14B is an example of a graphic displayed when the user's utterance direction is not appropriate. Referring to FIG. 14B, unlike FIG. 14A, the voice input unit 110 is arranged on the left side of the input / output terminal 10. Further, the graphic g2 is displayed on the left side of the display unit 140, and is deformed so as to spread toward the voice input unit 110 side.

続いて、図14Cを参照する。図14Cも、図14Bと同様、ユーザの発話方向が適切でない場合に表示されるグラフィックの例を示している。図14Cを参照すると、図14Aとは異なり、音声入力部110は、入出力端末10の向かって右側に配置されている。また、グラフィックg3は、表示部140の向かって右側に表示されており、音声入力部110側に広がるように変形している。 Subsequently, reference is made to FIG. 14C. FIG. 14C, like FIG. 14B, also shows an example of a graphic displayed when the user's utterance direction is not appropriate. Referring to FIG. 14C, unlike FIG. 14A, the voice input unit 110 is arranged on the right side of the input / output terminal 10. Further, the graphic g3 is displayed on the right side of the display unit 140, and is deformed so as to spread toward the voice input unit 110 side.

以上、説明したように、図14に示す一例では、ユーザの発話方向が適切でない場合、グラフィックが音声入力部110の位置を示唆することによる暗示的なフィードバックが行われる。ユーザがグラフィックの画像やアニメーションの動きを視認することで、ユーザの発話方向が改善される効果が期待される。なお、上記では、グラフィックの形状及び表示位置を変化させる例を説明したが、音声入力部110の位置は、表示部140の画面全体に表示される色のグラデーションを変化させることで示されてもよい。 As described above, in the example shown in FIG. 14, when the user's utterance direction is not appropriate, implicit feedback is provided by suggesting the position of the voice input unit 110 by the graphic. When the user visually recognizes the movement of the graphic image or animation, the effect of improving the user's utterance direction is expected. Although the example of changing the shape and display position of the graphic has been described above, the position of the voice input unit 110 may be indicated by changing the color gradation displayed on the entire screen of the display unit 140. Good.

(アバターによる発話位置に対する暗示的フィードバック)
次に、図15を参照して、アバターによる発話位置に対する暗示的なフィードバックについて、一例を説明する。図15に示されるアバターは、ユーザの発話位置に対する暗示的なフィードバックを行うための画像やアニメーションであってよい。図15Aを参照すると、入出力端末10の表示部140には、アバターa4が表示されている。ここで、アバターa4は、ユーザの発話位置が適切である場合に表示されるアバターの一例であってよい。
(Implicit feedback on the utterance position by the avatar)
Next, with reference to FIG. 15, an example of implicit feedback on the utterance position by the avatar will be described. The avatar shown in FIG. 15 may be an image or animation for providing implicit feedback on the user's utterance position. Referring to FIG. 15A, the avatar a4 is displayed on the display unit 140 of the input / output terminal 10. Here, the avatar a4 may be an example of an avatar displayed when the user's utterance position is appropriate.

図15Bは、ユーザの発話位置が適切でない場合(距離が遠い場合)に表示されるアバターの一例である。図15Bを参照すると、アバターa5は、アバターa4と比較して小さく表示されており、表情が変化していることがわかる。このように、図15Bに示す一例では、アバターa5の大きさや表情を変化させることで、ユーザの発話位置に対する暗示的なフィードバックが行われる。なお、図15Bでは、アバターa5の表情を曇らせる一例を示しているが、アバターa5の表情には他の表現が用いられてもよい。例えば、アバターa5の視線が遠方を示すことで、ユーザの発話位置が遠いことを示唆してもよい。 FIG. 15B is an example of an avatar displayed when the user's utterance position is not appropriate (when the distance is long). With reference to FIG. 15B, it can be seen that the avatar a5 is displayed smaller than the avatar a4, and the facial expression is changed. As described above, in the example shown in FIG. 15B, by changing the size and facial expression of the avatar a5, implicit feedback to the utterance position of the user is provided. Although FIG. 15B shows an example of clouding the facial expression of the avatar a5, another expression may be used for the facial expression of the avatar a5. For example, the line of sight of the avatar a5 may indicate a distance, suggesting that the user's utterance position is far.

続いて、図15Cを参照する。図15Cも、図15Bと同様、ユーザの発話位置が適切でない場合に表示されるアバターの一例を示している。図15Cを参照するとアバターa6は、アバターa4と比較して輪郭が薄く表示されていることがわかる。このように、図15Cに示す一例では、アバターa6の輪郭の濃さを変化させることで、ユーザの発話位置に対する暗示的なフィードバックが行われる。 Subsequently, reference is made to FIG. 15C. FIG. 15C also shows an example of an avatar displayed when the user's utterance position is not appropriate, as in FIG. 15B. With reference to FIG. 15C, it can be seen that the outline of the avatar a6 is displayed lighter than that of the avatar a4. As described above, in the example shown in FIG. 15C, by changing the density of the contour of the avatar a6, implicit feedback to the utterance position of the user is provided.

以上、説明したように、図15に示す一例では、ユーザの発話位置が適切でない旨をアバターが示唆することによる暗示的なフィードバックが行われる。ユーザがアバターの画像やアニメーションの動きを視認することで、ユーザの発話方向が改善される効果が期待される。 As described above, in the example shown in FIG. 15, implicit feedback is provided by the avatar suggesting that the user's utterance position is not appropriate. When the user visually recognizes the movement of the avatar image or animation, the effect of improving the user's utterance direction is expected.

(矢印による発話方向又は発話位置に対する暗示的フィードバック)
次に、図16を参照して、矢印による発話方向又は発話位置に対する暗示的フィードバックについて、一例を説明する。図16に示される矢印を含むグラフィックは、ユーザの発話方向または発話位置に対する暗示的なフィードバックを行うための画像やアニメーションであってよい。
(Implicit feedback on the utterance direction or position by the arrow)
Next, with reference to FIG. 16, an example of implicit feedback on the utterance direction or utterance position by the arrow will be described. The graphic including the arrow shown in FIG. 16 may be an image or animation for providing implicit feedback on the user's utterance direction or utterance position.

図16Aを参照すると、入出力端末10の表示部140には、グラフィックg4、及びg5が表示されている。ここで、グラフィックg4は、音声入力部110の位置を指し示す矢印として表示されており、グラフィックg5は、耳のアイコンとして示されている。このように、図16Aに示す一例では、矢印や耳の形をしたグラフィックにより音声入力部110の位置を示すことで、ユーザの発話方向に対する暗示的なフィードバックが行われる。 Referring to FIG. 16A, graphics g4 and g5 are displayed on the display unit 140 of the input / output terminal 10. Here, the graphic g4 is displayed as an arrow pointing to the position of the voice input unit 110, and the graphic g5 is shown as an ear icon. As described above, in the example shown in FIG. 16A, by indicating the position of the voice input unit 110 by a graphic in the shape of an arrow or an ear, implicit feedback to the user's utterance direction is provided.

続いて、図16Bを用いて説明を続ける。図16Bに示す一例では、図16Aとは異なり、入出力端末10とユーザとの相対位置を示すフィードバックが行われる。図16Bを参照すると、入出力端末10の表示部140には、グラフィックg6〜g9が示されている。ここで、グラフィックg6は、音声入力部110の位置を指し示す矢印として表示される。また、グラフィックg7及びg8は、それぞれ入出力端末10及びユーザを示すアイコンである。このように、図16Bに示す一例では、入出力端末10とユーザとの相対位置を示しながら、矢印により音声入力部110の位置を示すことで、ユーザの発話方向に対する暗示的なフィードバックが行われる。また、図16Bに示す一例では、グラフィックg9に示されるように、ユーザ以外の音源を示すフィードバックが行われてよい。ユーザが当該音源を示すグラフィックを視認することで、ユーザの発話位置が改善される効果が期待される。 Subsequently, the description will be continued with reference to FIG. 16B. In the example shown in FIG. 16B, unlike FIG. 16A, feedback indicating the relative position between the input / output terminal 10 and the user is performed. Referring to FIG. 16B, graphics g6 to g9 are shown on the display unit 140 of the input / output terminal 10. Here, the graphic g6 is displayed as an arrow pointing to the position of the voice input unit 110. The graphics g7 and g8 are icons indicating the input / output terminal 10 and the user, respectively. As described above, in the example shown in FIG. 16B, the position of the voice input unit 110 is indicated by an arrow while indicating the relative position between the input / output terminal 10 and the user, thereby providing implicit feedback to the user's utterance direction. .. Further, in the example shown in FIG. 16B, as shown in the graphic g9, feedback indicating a sound source other than the user may be provided. When the user visually recognizes the graphic showing the sound source, the effect of improving the user's utterance position is expected.

<3.入出力端末10及び情報処理装置30のハードウェア構成例>
次に、本開示に係る入出力端末10及び情報処理装置30に共通するハードウェア構成例について説明する。図17は、本開示に係る入出力端末10及び情報処理装置30のハードウェア構成例を示すブロック図である。図17を参照すると、入出力端末10及び情報処理装置30は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力部878と、出力部879と、記憶部880と、ドライブ881と、接続ポート882と、通信部883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
<3. Hardware configuration example of input / output terminal 10 and information processing device 30>
Next, a hardware configuration example common to the input / output terminal 10 and the information processing device 30 according to the present disclosure will be described. FIG. 17 is a block diagram showing a hardware configuration example of the input / output terminal 10 and the information processing device 30 according to the present disclosure. Referring to FIG. 17, the input / output terminal 10 and the information processing device 30 include, for example, a CPU 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, and an input unit 878. It has an output unit 879, a storage unit 880, a drive 881, a connection port 882, and a communication unit 883. The hardware configuration shown here is an example, and some of the components may be omitted. Further, components other than the components shown here may be further included.

(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、記憶部880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(CPU871)
The CPU 871 functions as, for example, an arithmetic processing device or a control device, and controls all or a part of the operation of each component based on various programs recorded in the ROM 872, the RAM 873, the storage unit 880, or the removable recording medium 901. ..

(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ROM872, RAM873)
The ROM 872 is a means for storing a program read into the CPU 871 and data used for calculation. The RAM 873 temporarily or permanently stores, for example, a program read into the CPU 871 and various parameters that change as appropriate when the program is executed.

(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(Host bus 874, Bridge 875, External bus 876, Interface 877)
The CPU 871, ROM 872, and RAM 873 are connected to each other via, for example, a host bus 874 capable of high-speed data transmission. On the other hand, the host bus 874 is connected to the external bus 876, which has a relatively low data transmission speed, via, for example, the bridge 875. Further, the external bus 876 is connected to various components via the interface 877.

(入力部878)
入力部878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
(Input unit 878)
For the input unit 878, for example, a mouse, a keyboard, a touch panel, buttons, switches, levers, and the like are used. Further, as the input unit 878, a remote controller (hereinafter, remote controller) capable of transmitting a control signal using infrared rays or other radio waves may be used.

(出力部879)
出力部879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(Output unit 879)
The output unit 879 uses the acquired information, for example, a display device such as a CRT (Cathode Ray Tube), an LCD, or an organic EL, an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile. It is a device that can notify the user visually or audibly.

(記憶部880)
記憶部880は、各種のデータを格納するための装置である。記憶部880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(Memory unit 880)
The storage unit 880 is a device for storing various types of data. As the storage unit 880, for example, a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, an optical magnetic storage device, or the like is used.

(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(Drive 881)
The drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information on the removable recording medium 901.

(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(Removable recording medium 901)
The removable recording medium 901 is, for example, a DVD media, a Blu-ray (registered trademark) media, an HD DVD media, various semiconductor storage media, and the like. Of course, the removable recording medium 901 may be, for example, an IC card equipped with a non-contact type IC chip, an electronic device, or the like.

(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(Connection port 882)
The connection port 882 is a port for connecting an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.

(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(External connection device 902)
The externally connected device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, an IC recorder, or the like.

(通信部883)
通信部883は、ネットワーク903に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
(Communication unit 883)
The communication unit 883 is a communication device for connecting to the network 903, and is, for example, a wired or wireless LAN, a Bluetooth (registered trademark), or a communication card for WUSB (Wireless USB), a router for optical communication, and an ADSL (Asymmetric). It is a router for Digital Subscriber Line), a modem for various communications, and the like.

<4.まとめ>
以上、説明したように情報処理装置30は、ユーザの発話認識に係る情報に応じて、ユーザの発話態様に対するフィードバックのモードを、複数のモードから選択することができる。上記の複数のモードには、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、が含まれてよい。また、上記の発話態様には、発話音量、発話速度、発話する音の高さ、発音の明確さ、発話位置、発話方向、発話内容、及び環境音が含まれてよい。係る構成によれば、ユーザとシステムとの間のより自然な対話を実現することが可能となる。
<4. Summary>
As described above, the information processing apparatus 30 can select the feedback mode for the user's utterance mode from a plurality of modes according to the information related to the user's utterance recognition. The plurality of modes described above may include a first mode in which implicit feedback is provided and a second mode in which explicit feedback is provided. In addition, the above-mentioned utterance mode may include utterance volume, utterance speed, utterance pitch, pronunciation clarity, utterance position, utterance direction, utterance content, and environmental sound. According to such a configuration, it is possible to realize a more natural dialogue between the user and the system.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is clear that anyone with ordinary knowledge in the technical field of the present disclosure may come up with various modifications or modifications within the scope of the technical ideas set forth in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 In addition, the effects described herein are merely explanatory or exemplary and are not limited. That is, the techniques according to the present disclosure may exhibit other effects apparent to those skilled in the art from the description herein, in addition to or in place of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの発話認識に係る情報に応じて、前記ユーザの発話態様に対するフィードバックのモードを、複数のモードから選択する制御部、
を備え、
前記複数のモードは、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、を含む、
情報処理装置。
(2)
前記第1のモードでは、前記ユーザの発話態様に対する間接的な改善方法を含むフィードバックが行われ、
前記第2のモードでは、前記ユーザの発話態様に対する直接的な改善方法を示すフィードバックが行われる、
前記(1)に記載の情報処理装置。
(3)
前記ユーザの発話認識に係る情報は、ユーザ情報、コンテンツ情報、環境情報、デバイス情報を含む、
前記(2)に記載の情報処理装置。
(4)
前記ユーザ情報は、前記ユーザの発話態様を含み、
前記制御部は、前記ユーザの発話態様に基づいて、前記第1のモード又は前記第2のモードを選択する、
前記(3)に記載の情報処理装置。
(5)
前記発話態様には、発話音量、発話速度、発話する音の高さ、発音の明確さ、発話位置、または発話方向のうち、少なくとも1つが含まれる、
前記(4)に記載の情報処理装置。
(6)
前記制御部は、前記第1のモードによるフィードバックを受けた前記ユーザの発話態様に改善が認められないことに基づいて、前記第2のモードを選択する、
前記(4)または(5)に記載の情報処理装置。
(7)
前記制御部は、前記第1のモードによるフィードバックを行った後、前記ユーザの発話が所定の回数以内に認識されないことに基づいて、前記第2のモードを選択する、
前記(4)〜(6)のいずれかに記載の情報処理装置。
(8)
前記ユーザ情報は、前記ユーザの発話の内容を含み、
前記制御部は、前記ユーザの発話の内容に基づいて、前記第1のモード又は前記第2のモードを選択する、
前記(3)〜(7)のいずれかに記載の情報処理装置。
(9)
前記制御部は、前記ユーザの発話の内容がプライバシー情報を含むと推定されることに基づいて、前記第2のモードを選択する、
前記(8)に記載の情報処理装置。
(10)
前記制御部は、前記環境情報から前記ユーザとは異なる別の人物の存在が推定されることに基づいて、前記第1のモードを選択する、
前記(3)〜(9)のいずれかに記載の情報処理装置。
(11)
前記ユーザ情報は、前記ユーザの属性情報を含み、
前記制御部は、前記ユーザの属性情報に基づいて、前記第1のモード又は前記第2のモードを選択する、
前記(3)〜(10)のいずれかに記載の情報処理装置。
(12)
前記ユーザ情報は、前記ユーザの感情情報を含み、
前記制御部は、前記ユーザの発話から推定される前記ユーザの感情情報に基づいて、前記第1のモード又は前記第2のモードを選択する、
前記(3)〜(11)のいずれかに記載の情報処理装置。
(13)
前記第1のモードでは、前記ユーザの発話音量よりも認識精度の高い音量でフィードバックが行われる、
前記(4)〜(12)のいずれかに記載の情報処理装置。
(14)
前記第1のモードでは、前記ユーザの発話速度よりも認識精度の高い速度でフィードバックが行われる、
前記(4)〜(13)のいずれかに記載の情報処理装置。
(15)
前記第1のモードでは、前記ユーザの発話する音の高さよりも認識精度の高い音の高さでフィーバックが行われる、
前記(4)〜(14)のいずれかに記載の情報処理装置。
(16)
前記第2のモードでは、前記発話態様の改善理由を付加したフィードバックが行われる、
前記(2)〜(15)のいずれかに記載の情報処理装置。
(17)
前記フィードバックは、視覚情報によるフィードバックを含む、
前記(2)〜(16)のいずれかに記載の情報処理装置。
(18)
前記第2のモードでは、前記ユーザの発話を検出したセンサとは異なる別のセンサに発話をすべき旨のフィードバックが行われる、
前記(2)〜(17)のいずれかに記載の情報処理装置。
(19)
前記ユーザの属性情報には、性別、年齢、使用言語、または発話態様の傾向のうち、少なくとも1つが含まれる、
前記(11)に記載の情報処理装置。
(20)
前記制御部は、前記ユーザが興奮状態であると推定されることに基づいて、前記第1のモードを選択する、
前記(12)に記載の情報処理装置。
(21)
前記第1のモードでは、前記ユーザの発話態様に応じた人工音声によるフィードバックが行われる、
前記(1)〜(20)のいずれかに記載の情報処理装置。
(22)
前記視覚情報は、文字、記号、アバター、インジケータ、または画像の変化を含む、
前記(17)に記載の情報処理装置。
(23)
プロセッサが、ユーザの発話認識に係る情報に応じて、前記ユーザの発話態様に対するフィードバックのモードを、複数のモードから選択すること、
を含み、
前記複数のモードは、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、を含む、
情報処理方法。
(24)
コンピュータを、
ユーザの発話認識に係る情報に応じて、前記ユーザの発話態様に対するフィードバックのモードを、複数のモードから選択する制御部、
を備え、
前記複数のモードは、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、を含む、
情報処理装置、
として機能させるためのプログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A control unit that selects a feedback mode for the user's utterance mode from a plurality of modes according to information related to the user's utterance recognition.
With
The plurality of modes include a first mode in which implicit feedback is provided and a second mode in which explicit feedback is provided.
Information processing device.
(2)
In the first mode, feedback including an indirect improvement method for the user's utterance mode is provided.
In the second mode, feedback is provided indicating a direct improvement method for the user's speech mode.
The information processing device according to (1) above.
(3)
The information related to the user's utterance recognition includes user information, content information, environmental information, and device information.
The information processing device according to (2) above.
(4)
The user information includes the utterance mode of the user.
The control unit selects the first mode or the second mode based on the utterance mode of the user.
The information processing device according to (3) above.
(5)
The utterance mode includes at least one of utterance volume, utterance speed, utterance pitch, pronunciation clarity, utterance position, or utterance direction.
The information processing device according to (4) above.
(6)
The control unit selects the second mode based on the fact that no improvement is observed in the utterance mode of the user who has received the feedback from the first mode.
The information processing device according to (4) or (5) above.
(7)
After giving feedback in the first mode, the control unit selects the second mode based on the fact that the user's utterance is not recognized within a predetermined number of times.
The information processing device according to any one of (4) to (6) above.
(8)
The user information includes the content of the utterance of the user.
The control unit selects the first mode or the second mode based on the content of the user's utterance.
The information processing device according to any one of (3) to (7) above.
(9)
The control unit selects the second mode based on the presumed content of the user's utterance to include privacy information.
The information processing device according to (8) above.
(10)
The control unit selects the first mode based on the estimation of the existence of another person different from the user from the environmental information.
The information processing device according to any one of (3) to (9) above.
(11)
The user information includes attribute information of the user.
The control unit selects the first mode or the second mode based on the attribute information of the user.
The information processing device according to any one of (3) to (10).
(12)
The user information includes emotional information of the user.
The control unit selects the first mode or the second mode based on the user's emotional information estimated from the user's utterance.
The information processing device according to any one of (3) to (11).
(13)
In the first mode, feedback is performed at a volume having a higher recognition accuracy than the utterance volume of the user.
The information processing device according to any one of (4) to (12).
(14)
In the first mode, the feedback is performed at a speed higher in recognition accuracy than the utterance speed of the user.
The information processing device according to any one of (4) to (13).
(15)
In the first mode, the feedback is performed at a pitch of sound having higher recognition accuracy than the pitch of sound spoken by the user.
The information processing device according to any one of (4) to (14).
(16)
In the second mode, feedback is provided with a reason for improving the utterance mode.
The information processing device according to any one of (2) to (15).
(17)
The feedback includes visual feedback.
The information processing device according to any one of (2) to (16).
(18)
In the second mode, feedback is given to the effect that the user should speak to a sensor different from the sensor that detected the user's utterance.
The information processing device according to any one of (2) to (17).
(19)
The user's attribute information includes at least one of gender, age, language used, or tendency of speech mode.
The information processing device according to (11) above.
(20)
The control unit selects the first mode based on the presumption that the user is in an excited state.
The information processing device according to (12) above.
(21)
In the first mode, feedback by artificial voice is performed according to the utterance mode of the user.
The information processing device according to any one of (1) to (20).
(22)
The visual information includes changes in characters, symbols, avatars, indicators, or images.
The information processing device according to (17) above.
(23)
The processor selects a mode of feedback for the user's utterance mode from a plurality of modes according to the information related to the user's utterance recognition.
Including
The plurality of modes include a first mode in which implicit feedback is provided and a second mode in which explicit feedback is provided.
Information processing method.
(24)
Computer,
A control unit that selects a feedback mode for the user's utterance mode from a plurality of modes according to information related to the user's utterance recognition.
With
The plurality of modes include a first mode in which implicit feedback is provided and a second mode in which explicit feedback is provided.
Information processing device,
A program to function as.

10 入出力端末
110 音声入力部
120 センサ部
130 音声出力部
140 表示部
150 端末制御部
160 サーバ通信部
20 ネットワーク
30 情報処理装置
310 端末通信部
320 音声分析部
330 音声認識部
340 状態記憶部
350 位置検出部
360 出力制御部
370 出力DB
10 Input / output terminal 110 Voice input unit 120 Sensor unit 130 Voice output unit 140 Display unit 150 Terminal control unit 160 Server communication unit 20 Network 30 Information processing device 310 Terminal communication unit 320 Voice analysis unit 330 Voice recognition unit 340 State storage unit 350 Position Detection unit 360 Output control unit 370 Output DB

Claims (18)

ユーザの発話認識に係る情報に応じて、前記ユーザの発話態様に対するフィードバックのモードを、複数のモードから選択する制御部、
を備え、
前記複数のモードは、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、を含み、
前記第1のモードでは、前記ユーザの発話態様に対する間接的な改善方法を含むフィードバックが行われ、
前記第2のモードでは、前記ユーザの発話態様に対する直接的な改善方法を示すフィードバックとして、前記ユーザの発話を検出したセンサとは異なる別のセンサに発話をすべき旨のフィードバックが行われる、
情報処理装置。
A control unit that selects a feedback mode for the user's utterance mode from a plurality of modes according to information related to the user's utterance recognition.
With
Wherein the plurality of modes, viewed contains a first mode in which implicit feedback is performed, a second mode in which explicit feedback is performed, and
In the first mode, feedback including an indirect improvement method for the user's utterance mode is provided.
In the second mode, as feedback indicating a direct improvement method for the utterance mode of the user, feedback is provided to the effect that the utterance should be made to a sensor different from the sensor that detected the utterance of the user.
Information processing device.
前記ユーザの発話認識に係る情報は、ユーザ情報、コンテンツ情報、環境情報、デバイス情報を含む、
請求項に記載の情報処理装置。
The information related to the user's utterance recognition includes user information, content information, environmental information, and device information.
The information processing device according to claim 1 .
前記ユーザ情報は、前記ユーザの発話態様を含み、
前記制御部は、前記ユーザの発話態様に基づいて、前記第1のモード又は前記第2のモードを選択する、
請求項に記載の情報処理装置。
The user information includes the utterance mode of the user.
The control unit selects the first mode or the second mode based on the utterance mode of the user.
The information processing device according to claim 2 .
前記発話態様には、発話音量、発話速度、発話する音の高さ、発音の明確さ、発話位置、または発話方向のうち、少なくとも1つが含まれる、
請求項に記載の情報処理装置。
The utterance mode includes at least one of utterance volume, utterance speed, utterance pitch, pronunciation clarity, utterance position, or utterance direction.
The information processing device according to claim 3 .
前記制御部は、前記第1のモードによるフィードバックを受けた前記ユーザの発話態様に改善が認められないことに基づいて、前記第2のモードを選択する、
請求項3又は4に記載の情報処理装置。
The control unit selects the second mode based on the fact that no improvement is observed in the utterance mode of the user who has received the feedback from the first mode.
The information processing device according to claim 3 or 4 .
前記制御部は、前記第1のモードによるフィードバックを行った後、前記ユーザの発話が所定の回数以内に認識されないことに基づいて、前記第2のモードを選択する、
請求項3〜5のいずれか1項に記載の情報処理装置。
After giving feedback in the first mode, the control unit selects the second mode based on the fact that the user's utterance is not recognized within a predetermined number of times.
The information processing device according to any one of claims 3 to 5 .
ユーザの発話認識に係る情報に応じて、前記ユーザの発話態様に対するフィードバックのモードを、複数のモードから選択する制御部、
を備え、
前記複数のモードは、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、を含み、
前記第1のモードでは、前記ユーザの発話態様に対する間接的な改善方法を含むフィードバックが行われ、
前記第2のモードでは、前記ユーザの発話態様に対する直接的な改善方法を示すフィードバックが行われ、
前記ユーザの発話認識に係る情報は、ユーザ情報、コンテンツ情報、環境情報、デバイス情報を含み、
前記ユーザ情報は、前記ユーザの発話の内容を含み、
前記制御部は、前記ユーザの発話の内容に基づいて、前記第1のモード又は前記第2のモードを選択する、
報処理装置。
A control unit that selects a feedback mode for the user's utterance mode from a plurality of modes according to information related to the user's utterance recognition.
With
The plurality of modes include a first mode in which implicit feedback is provided and a second mode in which explicit feedback is provided.
In the first mode, feedback including an indirect improvement method for the user's utterance mode is provided.
In the second mode, feedback is provided indicating a direct improvement method for the user's speech mode.
The information related to the user's utterance recognition includes user information, content information, environmental information, and device information.
The user information includes the content of the utterance of the user.
The control unit selects the first mode or the second mode based on the content of the user's utterance.
Information processing apparatus.
前記制御部は、前記ユーザの発話の内容がプライバシー情報を含むと推定されることに基づいて、前記第2のモードを選択する、
請求項に記載の情報処理装置。
The control unit selects the second mode based on the presumed content of the user's utterance to include privacy information.
The information processing device according to claim 7 .
ユーザの発話認識に係る情報に応じて、前記ユーザの発話態様に対するフィードバックのモードを、複数のモードから選択する制御部、
を備え、
前記複数のモードは、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、を含み、
前記第1のモードでは、前記ユーザの発話態様に対する間接的な改善方法を含むフィードバックが行われ、
前記第2のモードでは、前記ユーザの発話態様に対する直接的な改善方法を示すフィードバックが行われ、
前記ユーザの発話認識に係る情報は、ユーザ情報、コンテンツ情報、環境情報、デバイス情報を含み、
前記制御部は、前記環境情報から前記ユーザとは異なる別の人物の存在が推定されることに基づいて、前記第1のモードを選択する、
報処理装置。
A control unit that selects a feedback mode for the user's utterance mode from a plurality of modes according to information related to the user's utterance recognition.
With
The plurality of modes include a first mode in which implicit feedback is provided and a second mode in which explicit feedback is provided.
In the first mode, feedback including an indirect improvement method for the user's utterance mode is provided.
In the second mode, feedback is provided indicating a direct improvement method for the user's speech mode.
The information related to the user's utterance recognition includes user information, content information, environmental information, and device information.
The control unit selects the first mode based on the estimation of the existence of another person different from the user from the environmental information.
Information processing apparatus.
前記ユーザ情報は、前記ユーザの属性情報を含み、
前記制御部は、前記ユーザの属性情報に基づいて、前記第1のモード又は前記第2のモードを選択する、
請求項2〜9のいずれか1項に記載の情報処理装置。
The user information includes attribute information of the user.
The control unit selects the first mode or the second mode based on the attribute information of the user.
The information processing device according to any one of claims 2 to 9 .
ユーザの発話認識に係る情報に応じて、前記ユーザの発話態様に対するフィードバックのモードを、複数のモードから選択する制御部、
を備え、
前記複数のモードは、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、を含み、
前記第1のモードでは、前記ユーザの発話態様に対する間接的な改善方法を含むフィードバックが行われ、
前記第2のモードでは、前記ユーザの発話態様に対する直接的な改善方法を示すフィードバックが行われ、
前記ユーザの発話認識に係る情報は、ユーザ情報、コンテンツ情報、環境情報、デバイス情報を含み、
前記ユーザ情報は、前記ユーザの感情情報を含み、
前記制御部は、前記ユーザの発話から推定される前記ユーザの感情情報に基づいて、前記第1のモード又は前記第2のモードを選択する、
報処理装置。
A control unit that selects a feedback mode for the user's utterance mode from a plurality of modes according to information related to the user's utterance recognition.
With
The plurality of modes include a first mode in which implicit feedback is provided and a second mode in which explicit feedback is provided.
In the first mode, feedback including an indirect improvement method for the user's utterance mode is provided.
In the second mode, feedback is provided indicating a direct improvement method for the user's speech mode.
The information related to the user's utterance recognition includes user information, content information, environmental information, and device information.
The user information includes emotional information of the user.
The control unit selects the first mode or the second mode based on the user's emotional information estimated from the user's utterance.
Information processing apparatus.
前記第1のモードでは、前記ユーザの発話音量よりも認識精度の高い音量でフィードバックが行われる、
請求項3〜6のいずれか1項に記載の情報処理装置。
In the first mode, feedback is performed at a volume having a higher recognition accuracy than the utterance volume of the user.
The information processing device according to any one of claims 3 to 6 .
前記第1のモードでは、前記ユーザの発話速度よりも認識精度の高い速度でフィードバックが行われる、
請求項3〜6のいずれか1項に記載の情報処理装置。
In the first mode, the feedback is performed at a speed higher in recognition accuracy than the utterance speed of the user.
The information processing device according to any one of claims 3 to 6 .
前記第1のモードでは、前記ユーザの発話する音の高さよりも認識精度の高い音の高さでフィーバックが行われる、
請求項3〜6のいずれか1項に記載の情報処理装置。
In the first mode, the feedback is performed at a pitch of sound having higher recognition accuracy than the pitch of sound spoken by the user.
The information processing device according to any one of claims 3 to 6 .
前記第2のモードでは、前記発話態様の改善理由を付加したフィードバックが行われる、
請求項1〜14のいずれか1項に記載の情報処理装置。
In the second mode, feedback is provided with a reason for improving the utterance mode.
The information processing device according to any one of claims 1 to 14 .
前記フィードバックは、視覚情報によるフィードバックを含む、
請求項1〜15のいずれか1項に記載の情報処理装置。
The feedback includes visual feedback.
The information processing device according to any one of claims 1 to 15 .
プロセッサが、ユーザの発話認識に係る情報に応じて、前記ユーザの発話態様に対するフィードバックのモードを、複数のモードから選択すること、
を含み、
前記複数のモードは、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、を含み、
前記第1のモードでは、前記ユーザの発話態様に対する間接的な改善方法を含むフィードバックが行われ、
前記第2のモードでは、前記ユーザの発話態様に対する直接的な改善方法を示すフィードバックとして、前記ユーザの発話を検出したセンサとは異なる別のセンサに発話をすべき旨のフィードバックが行われる、
情報処理方法。
The processor selects a mode of feedback for the user's utterance mode from a plurality of modes according to the information related to the user's utterance recognition.
Including
Wherein the plurality of modes, viewed contains a first mode in which implicit feedback is performed, a second mode in which explicit feedback is performed, and
In the first mode, feedback including an indirect improvement method for the user's utterance mode is provided.
In the second mode, as feedback indicating a direct improvement method for the utterance mode of the user, feedback is provided to the effect that the utterance should be made to a sensor different from the sensor that detected the utterance of the user.
Information processing method.
コンピュータを、
ユーザの発話認識に係る情報に応じて、前記ユーザの発話態様に対するフィードバックのモードを、複数のモードから選択する制御部、
を備え、
前記複数のモードは、暗示的なフィードバックが行われる第1のモードと、明示的なフィードバックが行われる第2のモードと、を含み、
前記第1のモードでは、前記ユーザの発話態様に対する間接的な改善方法を含むフィードバックが行われ、
前記第2のモードでは、前記ユーザの発話態様に対する直接的な改善方法を示すフィードバックとして、前記ユーザの発話を検出したセンサとは異なる別のセンサに発話をすべき旨のフィードバックが行われる、
情報処理装置、
として機能させるためのプログラム。
Computer,
A control unit that selects a feedback mode for the user's utterance mode from a plurality of modes according to information related to the user's utterance recognition.
With
Wherein the plurality of modes, viewed contains a first mode in which implicit feedback is performed, a second mode in which explicit feedback is performed, and
In the first mode, feedback including an indirect improvement method for the user's utterance mode is provided.
In the second mode, as feedback indicating a direct improvement method for the utterance mode of the user, feedback is provided to the effect that the utterance should be made to a sensor different from the sensor that detected the utterance of the user.
Information processing device,
A program to function as.
JP2018508407A 2016-03-31 2017-01-12 Information processing equipment, information processing methods, and programs Active JP6819672B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016070593 2016-03-31
JP2016070593 2016-03-31
PCT/JP2017/000726 WO2017168936A1 (en) 2016-03-31 2017-01-12 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JPWO2017168936A1 JPWO2017168936A1 (en) 2019-02-07
JP6819672B2 true JP6819672B2 (en) 2021-01-27

Family

ID=59963984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018508407A Active JP6819672B2 (en) 2016-03-31 2017-01-12 Information processing equipment, information processing methods, and programs

Country Status (5)

Country Link
US (1) US11462213B2 (en)
EP (1) EP3438974A4 (en)
JP (1) JP6819672B2 (en)
CN (1) CN109074805A (en)
WO (1) WO2017168936A1 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11386913B2 (en) * 2017-08-01 2022-07-12 Dolby Laboratories Licensing Corporation Audio object classification based on location metadata
CN108108391A (en) * 2017-11-21 2018-06-01 众安信息技术服务有限公司 For the processing method and device of the information of data visualization
US20200342870A1 (en) * 2017-11-28 2020-10-29 Sony Corporation Information processing device and information processing method
WO2019150708A1 (en) * 2018-02-01 2019-08-08 ソニー株式会社 Information processing device, information processing system, information processing method, and program
JP7223561B2 (en) * 2018-03-29 2023-02-16 パナソニックホールディングス株式会社 Speech translation device, speech translation method and its program
JP2019179502A (en) * 2018-03-30 2019-10-17 株式会社 ディー・エヌ・エー System, method, and program for creating moving image
CN109697290B (en) * 2018-12-29 2023-07-25 咪咕数字传媒有限公司 Information processing method, equipment and computer storage medium
CN110223711B (en) * 2019-06-03 2021-06-01 清华大学 Microphone signal based voice interaction wake-up electronic device, method, and medium
JP7312639B2 (en) * 2019-07-29 2023-07-21 株式会社第一興商 Karaoke input device
CN110568931A (en) * 2019-09-11 2019-12-13 百度在线网络技术(北京)有限公司 interaction method, device, system, electronic device and storage medium
US11562744B1 (en) * 2020-02-13 2023-01-24 Meta Platforms Technologies, Llc Stylizing text-to-speech (TTS) voice response for assistant systems
JP7405660B2 (en) * 2020-03-19 2023-12-26 Lineヤフー株式会社 Output device, output method and output program
CN114155865A (en) * 2021-12-16 2022-03-08 广州城市理工学院 Holographic interaction system
JP2024036013A (en) * 2022-09-05 2024-03-15 ダイキン工業株式会社 System, support method, server device and communication program

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5495282A (en) * 1992-11-03 1996-02-27 The Arbitron Company Monitoring system for TV, cable and VCR
JP2003150194A (en) * 2001-11-14 2003-05-23 Seiko Epson Corp Voice interactive device, input voice optimizing method in the device and input voice optimizing processing program in the device
US8645122B1 (en) * 2002-12-19 2014-02-04 At&T Intellectual Property Ii, L.P. Method of handling frequently asked questions in a natural language dialog service
JP3924583B2 (en) * 2004-02-03 2007-06-06 松下電器産業株式会社 User adaptive apparatus and control method therefor
JP4241443B2 (en) * 2004-03-10 2009-03-18 ソニー株式会社 Audio signal processing apparatus and audio signal processing method
JP4418903B2 (en) 2004-03-17 2010-02-24 株式会社国際電気通信基礎技術研究所 Voice recognition device
US7412378B2 (en) * 2004-04-01 2008-08-12 International Business Machines Corporation Method and system of dynamically adjusting a speech output rate to match a speech input rate
JP2006251061A (en) 2005-03-08 2006-09-21 Nissan Motor Co Ltd Voice dialog apparatus and voice dialog method
US20080177734A1 (en) * 2006-02-10 2008-07-24 Schwenke Derek L Method for Presenting Result Sets for Probabilistic Queries
JP4786384B2 (en) 2006-03-27 2011-10-05 株式会社東芝 Audio processing apparatus, audio processing method, and audio processing program
US8972268B2 (en) * 2008-04-15 2015-03-03 Facebook, Inc. Enhanced speech-to-speech translation system and methods for adding a new word
US8886521B2 (en) * 2007-05-17 2014-11-11 Redstart Systems, Inc. System and method of dictation for a speech recognition command system
US20130209970A1 (en) * 2010-02-24 2013-08-15 Siemens Medical Instruments Pte. Ltd. Method for Training Speech Recognition, and Training Device
JP2011209787A (en) 2010-03-29 2011-10-20 Sony Corp Information processor, information processing method, and program
JP6114915B2 (en) 2013-03-25 2017-04-19 パナソニックIpマネジメント株式会社 Voice input selection device and voice input selection method
US20140343947A1 (en) * 2013-05-15 2014-11-20 GM Global Technology Operations LLC Methods and systems for managing dialog of speech systems
US10075140B1 (en) * 2014-06-25 2018-09-11 Amazon Technologies, Inc. Adaptive user interface configuration
US9639854B2 (en) * 2014-06-26 2017-05-02 Nuance Communications, Inc. Voice-controlled information exchange platform, such as for providing information to supplement advertising
US9858920B2 (en) * 2014-06-30 2018-01-02 GM Global Technology Operations LLC Adaptation methods and systems for speech systems
US9418663B2 (en) * 2014-07-31 2016-08-16 Google Inc. Conversational agent with a particular spoken style of speech
US20170337921A1 (en) * 2015-02-27 2017-11-23 Sony Corporation Information processing device, information processing method, and program

Also Published As

Publication number Publication date
EP3438974A4 (en) 2019-05-08
JPWO2017168936A1 (en) 2019-02-07
CN109074805A (en) 2018-12-21
US11462213B2 (en) 2022-10-04
US20210142796A1 (en) 2021-05-13
WO2017168936A1 (en) 2017-10-05
EP3438974A1 (en) 2019-02-06

Similar Documents

Publication Publication Date Title
JP6819672B2 (en) Information processing equipment, information processing methods, and programs
US11657812B2 (en) Message playback using a shared device
JP6463825B2 (en) Multi-speaker speech recognition correction system
KR102611751B1 (en) Augmentation of key phrase user recognition
JP5731998B2 (en) Dialog support device, dialog support method, and dialog support program
CN106067996B (en) Voice reproduction method, voice dialogue device
US10186267B1 (en) Message playback using a shared device
JP6585733B2 (en) Information processing device
KR102628211B1 (en) Electronic apparatus and thereof control method
CN107945806A (en) User identification method and device based on sound characteristic
WO2021153101A1 (en) Information processing device, information processing method, and information processing program
WO2020202862A1 (en) Response generation device and response generation method
JP6678315B2 (en) Voice reproduction method, voice interaction device, and voice interaction program
JP7400364B2 (en) Speech recognition system and information processing method
US20200388268A1 (en) Information processing apparatus, information processing system, and information processing method, and program
JP7310907B2 (en) DIALOGUE METHOD, DIALOGUE SYSTEM, DIALOGUE DEVICE, AND PROGRAM
WO2019017033A1 (en) Information processing device, information processing method, and program
WO2019142420A1 (en) Information processing device and information processing method
WO2019146199A1 (en) Information processing device and information processing method
KR20210098250A (en) Electronic device and Method for controlling the electronic device thereof
KR102471678B1 (en) User interfacing method for visually displaying acoustic signal and apparatus thereof
JP7218816B2 (en) DIALOGUE METHOD, DIALOGUE SYSTEM, DIALOGUE DEVICE, AND PROGRAM
WO2020017165A1 (en) Information processing device, information processing system, information processing method, and program
JP2018088626A (en) Automatic response system, operator assignment device, automatic response method and program
US20210082427A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R151 Written notification of patent or utility model registration

Ref document number: 6819672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151