JPWO2020071255A1 - Information provider - Google Patents

Information provider Download PDF

Info

Publication number
JPWO2020071255A1
JPWO2020071255A1 JP2020550375A JP2020550375A JPWO2020071255A1 JP WO2020071255 A1 JPWO2020071255 A1 JP WO2020071255A1 JP 2020550375 A JP2020550375 A JP 2020550375A JP 2020550375 A JP2020550375 A JP 2020550375A JP WO2020071255 A1 JPWO2020071255 A1 JP WO2020071255A1
Authority
JP
Japan
Prior art keywords
utterance
information
score
providing device
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020550375A
Other languages
Japanese (ja)
Other versions
JP7146933B2 (en
Inventor
優太朗 白水
優太朗 白水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2020071255A1 publication Critical patent/JPWO2020071255A1/en
Application granted granted Critical
Publication of JP7146933B2 publication Critical patent/JP7146933B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Abstract

情報提供装置(1)は、ユーザUに対して発話により音声情報を提供する情報提供装置であって、ユーザUに対して発話する候補となる発話文に対して、発話文の発話の優先度に関係する数値であるスコアを算出して付与するスコア付与部(23)と、発話文と、発話文に対してスコア付与部により付与されたスコアとを対応付けて保持する発話待機情報保持部(21)と、発話待機情報保持部(21)に保持されているスコアのうち、最も高いスコアに対応付けられて保持されている発話文を選択する発話情報選択部としての発話判定部(22)と、発話情報選択部としての発話判定部(22)により選択された発話文を音声情報として出力する出力部としての対話モジュール(10)と、を有する。
The information providing device (1) is an information providing device that provides voice information to the user U by utterance, and has a priority of utterance of the utterance sentence with respect to the utterance sentence that is a candidate to be spoken to the user U. A score-giving unit (23) that calculates and assigns a score, which is a numerical value related to The utterance determination unit (22) as the utterance information selection unit selects the utterance sentence associated with the highest score among the scores held in the utterance standby information holding unit (21) and the utterance waiting information holding unit (21). ), And a dialogue module (10) as an output unit that outputs the utterance sentence selected by the utterance determination unit (22) as the utterance information selection unit as utterance information.

Description

本開示は、情報提供装置に関する。 The present disclosure relates to an information providing device.

ユーザとの対話を行う対話システムにおいて、ユーザへの応答内容をどのように決定するかについて、種々の検討が進められている(例えば、特許文献1参照)。 In a dialogue system that interacts with a user, various studies are underway on how to determine the content of a response to the user (see, for example, Patent Document 1).

特開2018−109663号公報JP-A-2018-109663

しかしながら、ユーザに対してシステム側から積極的に発話する内容をどのように決定するかについては、検討の余地があった。 However, there was room for consideration as to how to determine the content to be positively spoken from the system side to the user.

本開示は上記を鑑みてなされたものであり、ユーザに対して、より適切な発話を行うことが可能な情報提供装置を提供する。 The present disclosure has been made in view of the above, and provides a user with an information providing device capable of making a more appropriate utterance.

上記目的を達成するため、本開示の例示的実施形態に係る情報提供装置は、ユーザに対して発話により音声情報を提供する情報提供装置であって、前記ユーザに対して発話する候補となる発話文に対して、前記発話文の発話の優先度に関係する数値であるスコアを算出して付与するスコア付与部と、前記発話文と、前記発話文に対して前記スコア付与部により付与されたスコアとを対応付けて保持する発話待機情報保持部と、前記発話待機情報保持部に保持されている前記スコアのうち最も高いスコアに対応付けられて保持されている発話文を選択する発話情報選択部と、前記発話情報選択部により選択された発話文を音声情報として出力する出力部と、を有する。 In order to achieve the above object, the information providing device according to the exemplary embodiment of the present disclosure is an information providing device that provides voice information to a user by utterance, and is a candidate utterance to be spoken to the user. A score-giving unit that calculates and assigns a score that is a numerical value related to the priority of the utterance of the utterance sentence, the utterance sentence, and the score-imparting unit that assigns the utterance sentence to the sentence. Select the utterance information holding unit that holds the utterance waiting information in association with the score and the utterance sentence that is held in association with the highest score among the utterance waiting information holding units. It has a unit and an output unit that outputs an utterance sentence selected by the utterance information selection unit as utterance information.

本開示によれば、ユーザに対して、より適切な発話を行うことが可能な情報提供装置が提供される。 According to the present disclosure, an information providing device capable of making a more appropriate utterance is provided to a user.

情報提供装置の概略構成を説明する図である。It is a figure explaining the schematic structure of the information providing apparatus. 情報提供装置の発話管理モジュールについて説明する図である。It is a figure explaining the utterance management module of an information providing apparatus. 情報提供装置の発話待機情報保持部において保持される情報の例を示す図である。It is a figure which shows the example of the information held in the utterance standby information holding part of an information providing apparatus. 情報提供装置による情報提供方法について説明するシーケンス図である。It is a sequence diagram explaining the information provision method by an information providing apparatus. 情報提供装置のハードウェア構成を説明する図である。It is a figure explaining the hardware configuration of the information providing apparatus.

以下、添付図面を参照して、本開示の例示的実施形態を説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。 Hereinafter, exemplary embodiments of the present disclosure will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted.

図1は、本開示の一実施形態に係る情報提供装置の概略構成を示す図である。図1に示す情報提供装置1は、ユーザUに対して音声で情報を提供する装置である。また、情報提供装置1は、ユーザUからの発話に対応して音声により応答する機能も有する。すなわち、情報提供装置1は、ユーザUとの対話が可能な対話装置として機能する。情報提供装置1は、対話モジュール10と、発話管理モジュール20と、応答情報生成モジュール30と、発話情報生成モジュール40A,40Bと、を含んで構成される。 FIG. 1 is a diagram showing a schematic configuration of an information providing device according to an embodiment of the present disclosure. The information providing device 1 shown in FIG. 1 is a device that provides information to the user U by voice. The information providing device 1 also has a function of responding by voice in response to an utterance from the user U. That is, the information providing device 1 functions as a dialogue device capable of interacting with the user U. The information providing device 1 includes a dialogue module 10, an utterance management module 20, a response information generation module 30, and utterance information generation modules 40A and 40B.

本実施形態で示す情報提供装置1は、リアルタイムで進行する特定のコンテンツについてユーザUが観賞しているまたは興味を示している場合に、当該コンテンツに対応した情報をユーザUに対して提供することを特徴とする。リアルタイムで進行する特定のコンテンツとは、例えば、スポーツ、競馬、株価変動等が挙げられる。また、気象情報や一般的なニュースなどの一般的な情報、または、日常生活自体を「コンテンツ」として取り扱ってもよい。情報提供装置1は、これらのコンテンツをユーザUが観賞している場合に、コンテンツの進行に応じてユーザUに対して情報を提供する。以下、ユーザUが観賞しているまたは興味を示しているコンテンツを、「対象コンテンツ」という場合がある。情報提供装置1は、対象コンテンツに関する情報をユーザUに対して提供する。 When the user U is watching or is interested in a specific content that progresses in real time, the information providing device 1 shown in the present embodiment provides the information corresponding to the content to the user U. It is characterized by. Specific content that progresses in real time includes, for example, sports, horse racing, stock price fluctuations, and the like. In addition, general information such as weather information and general news, or daily life itself may be treated as "content". When the user U is viewing these contents, the information providing device 1 provides the information to the user U according to the progress of the contents. Hereinafter, the content that the user U is watching or showing interest in may be referred to as "target content". The information providing device 1 provides information on the target content to the user U.

上記の場合のユーザUに対する情報提供とは、ユーザUからの質問に対して応答することではなく、情報提供装置1からユーザUに対して自発的に情報を提供することを指す。なお、情報提供装置1は、ユーザUからの質問に対して応答する構成も有している。したがって、情報提供装置1は、ユーザUからの質問に対して応答すると共に、自発的にユーザUに対して情報提供を行う装置である。 The provision of information to the user U in the above case means not responding to a question from the user U, but voluntarily providing information to the user U from the information providing device 1. The information providing device 1 also has a configuration for responding to a question from the user U. Therefore, the information providing device 1 is a device that responds to a question from the user U and voluntarily provides information to the user U.

情報提供装置1の対話モジュール10は、ユーザUとの間の音声による情報の送受信のインタフェースとなるモジュールであり、ユーザUの発する音声を受信する機能と、ユーザUに対して音声を発する機能とを有する。すなわち、対話モジュール10は、ユーザUに対して発話により音声情報を提供する出力部としても機能する。 The dialogue module 10 of the information providing device 1 is a module that serves as an interface for transmitting and receiving voice information to and from the user U, and has a function of receiving the voice emitted by the user U and a function of emitting voice to the user U. Have. That is, the dialogue module 10 also functions as an output unit that provides voice information to the user U by utterance.

ユーザUの発する音声を受信する機能としては、例えば、マイクが挙げられる。また、ユーザUに対して音声を発する機能としては、例えば、スピーカーが挙げられる。また、対話モジュール10では、受信したユーザUの音声の音声認識処理等を行ない、テキストデータ化する機能を有していてもよい。テキストデータ化されたユーザUからの音声情報は、後述の発話管理モジュール20へ送られる。さらに、対話モジュール10では、ユーザUへの発話のために、後述の発話管理モジュール20から提供されるテキストデータの音声合成処理を行う機能を有していてもよい。対話モジュール10が上記の音声認識処理および音声合成処理を行う場合、対話モジュール10と発話管理モジュール20との間での情報(ユーザUに対して提供する情報またはユーザUから取得した情報)の送受信には、テキストデータが用いられる。 As a function of receiving the voice emitted by the user U, for example, a microphone can be mentioned. Further, as a function of emitting voice to the user U, for example, a speaker can be mentioned. Further, the dialogue module 10 may have a function of performing voice recognition processing of the received user U's voice and converting it into text data. The voice information from the user U converted into text data is sent to the utterance management module 20 described later. Further, the dialogue module 10 may have a function of performing voice synthesis processing of text data provided from the utterance management module 20 described later in order to speak to the user U. When the dialogue module 10 performs the above-mentioned voice recognition processing and speech synthesis processing, transmission / reception of information (information provided to the user U or information acquired from the user U) between the dialogue module 10 and the utterance management module 20. Text data is used for.

発話管理モジュール20は、ユーザUに対して発話する音声情報の管理を行う。詳細は後述するが、対象コンテンツの進行状況に応じて、ユーザUに対して、対象コンテンツに関するどのような情報をどのようなタイミングで提供するか、を管理する。また、ユーザUからの問い合わせがあった場合には、ユーザUの問い合わせに対して適切に応答する機能も有する。発話管理モジュール20では、情報提供装置1から問い合わせに対する応答も含む、ユーザUに対する情報提供に係る管理を行う機能を有する。なお、発話管理モジュール20は、応答情報生成モジュール30で生成された応答文、発話情報生成モジュール40A,40Bで生成された発話文を蓄積し、適切なタイミングに、対話モジュール10を介してユーザUに対して出力することに係る制御を行う。この制御の詳細は後述する。 The utterance management module 20 manages the voice information to be spoken to the user U. Although the details will be described later, it manages what kind of information about the target content is provided to the user U at what timing according to the progress of the target content. Further, when there is an inquiry from the user U, it also has a function of appropriately responding to the inquiry of the user U. The utterance management module 20 has a function of managing information provision to the user U, including a response to an inquiry from the information providing device 1. The utterance management module 20 accumulates the response sentences generated by the response information generation module 30 and the utterance sentences generated by the utterance information generation modules 40A and 40B, and at an appropriate timing, the user U via the dialogue module 10. Controls the output to. The details of this control will be described later.

応答情報生成モジュール30は、ユーザUから問い合わせがあった内容に対する応答文を作成するモジュールである。応答情報生成モジュール30では、発話管理モジュール20から送られるユーザUからの問い合わせに対する応答文を生成する。なお、応答文の生成の際に、外部装置等との間で通信等を行ない必要な情報を取得する構成であってもよい。応答情報生成モジュール30において生成された応答文は、発話管理モジュール20へ送られて、ユーザUへの出力が行われる。 The response information generation module 30 is a module that creates a response statement for the content of the inquiry from the user U. The response information generation module 30 generates a response statement for an inquiry from the user U sent from the utterance management module 20. It should be noted that the configuration may be such that when the response statement is generated, communication or the like is performed with an external device or the like to acquire necessary information. The response sentence generated in the response information generation module 30 is sent to the utterance management module 20 and output to the user U.

発話情報生成モジュール40A,40Bは、いずれも、ユーザUに対して自発的に発話する発話文を生成する機能を有する。情報提供装置1では、2つの発話情報生成モジュール40A,40Bにより構成されている例を示すが、発話情報生成モジュールの数は1つでも3つ以上の複数でもよい。情報提供装置1では、発話情報生成モジュール40Aは、対象コンテンツの進行に直結した情報を含む発話文を生成するモジュールであり、発話情報生成モジュール40Bは、対象コンテンツの進行に直接は関係しないがコンテンツに関係する情報に係る発話文を生成するモジュールである、とする。ただし、複数の発話情報生成モジュールを有している場合、上記のような取り扱いの区分けを行っていても行っていなくてもよい。 Each of the utterance information generation modules 40A and 40B has a function of generating an utterance sentence that is spontaneously spoken to the user U. The information providing device 1 shows an example composed of two utterance information generation modules 40A and 40B, but the number of utterance information generation modules may be one or three or more. In the information providing device 1, the utterance information generation module 40A is a module that generates an utterance sentence including information directly linked to the progress of the target content, and the utterance information generation module 40B is a content that is not directly related to the progress of the target content. It is assumed that it is a module that generates an utterance sentence related to information related to. However, when a plurality of utterance information generation modules are provided, the handling may or may not be classified as described above.

発話情報生成モジュール40Aは、対象コンテンツの進行に係る情報に係る発話文を生成する。発話情報生成モジュール40Aは、発話文を生成するために、対象コンテンツの進行に係る情報を提供する外部装置である、コンテンツ進行情報提供装置50からの情報を取得する。コンテンツ進行情報提供装置50は、対象コンテンツの進行状況を示す情報を文章とは異なるデータ形式で提供する装置である。対象コンテンツの進行状況を示す情報とは、例えば、対象コンテンツがスポーツの場合にはプレイの詳細内容を示す情報が挙げられる。また、対象コンテンツが株価変動の場合には、価格変動が大きい株に係る情報が挙げられる。コンテンツ進行情報提供装置50からこれらの情報を取得すると、発話情報生成モジュール40Aは、これらの情報を説明するための文章(自然文)を生成する。 The utterance information generation module 40A generates an utterance sentence related to information related to the progress of the target content. The utterance information generation module 40A acquires information from the content progress information providing device 50, which is an external device that provides information related to the progress of the target content, in order to generate the utterance sentence. The content progress information providing device 50 is a device that provides information indicating the progress of the target content in a data format different from the text. The information indicating the progress of the target content includes, for example, information indicating the detailed content of the play when the target content is a sport. In addition, when the target content is stock price fluctuations, information on stocks with large price fluctuations can be mentioned. When these information are acquired from the content progress information providing device 50, the utterance information generation module 40A generates a sentence (natural sentence) for explaining the information.

発話情報生成モジュール40Bは、対象コンテンツに関連する情報に係る発話文を生成する。発話情報生成モジュール40Bは、発話文を生成するために、対象コンテンツの進行に係る情報を提供する外部装置である、コンテンツ進行情報提供装置50からの情報を取得する。また、コンテンツ進行情報提供装置50とは異なる装置である外部DB60(データベース)等から情報を取得してもよい。なお、対象コンテンツに関連する情報とは、例えば、対象コンテンツがスポーツの場合には特定のプレイを行ったプレイヤーに係る情報、または、特定のプレイを説明する情報等が挙げられる。また、対象コンテンツが株価変動の場合には、価格変動が大きい株と同じ業種の株価に関する情報、または、関連企業の情報等が挙げられる。コンテンツ進行情報提供装置50において出力される対象コンテンツの進行に係る情報、および、外部DB60において出力される情報等を組み合わせて、発話情報生成モジュール40Bは、これらの情報を説明するための文章を生成する。 The utterance information generation module 40B generates an utterance sentence related to information related to the target content. The utterance information generation module 40B acquires information from the content progress information providing device 50, which is an external device that provides information related to the progress of the target content, in order to generate the utterance sentence. Further, information may be acquired from an external DB 60 (database) or the like, which is a device different from the content progress information providing device 50. The information related to the target content includes, for example, information relating to a player who has performed a specific play when the target content is a sport, information explaining a specific play, and the like. When the target content is stock price fluctuations, information on stock prices in the same industry as stocks with large price fluctuations, information on related companies, and the like can be mentioned. The utterance information generation module 40B generates a sentence for explaining the information by combining the information related to the progress of the target content output by the content progress information providing device 50 and the information output by the external DB 60. do.

発話情報生成モジュール40A,40Bにおいて生成された応答文は、発話管理モジュール20へ送られて、ユーザUへの出力が行われる。 The response sentences generated by the utterance information generation modules 40A and 40B are sent to the utterance management module 20 and output to the user U.

次に、発話管理モジュール20について、図2を参照しながらさらに説明する。図2に示すように、発話管理モジュール20は、発話待機情報保持部21、発話判定部22、および、スコア付与部23を有する。スコア付与部23は、内容スコア算出部24、経過時間スコア算出部25、および、状況スコア算出部26を有する。 Next, the utterance management module 20 will be further described with reference to FIG. As shown in FIG. 2, the utterance management module 20 includes an utterance standby information holding unit 21, an utterance determination unit 22, and a score giving unit 23. The score giving unit 23 includes a content score calculation unit 24, an elapsed time score calculation unit 25, and a situation score calculation unit 26.

発話待機情報保持部21は、発話情報生成モジュール40A,40Bから送られる発話文を保持する機能を有する。すなわち、ユーザUに対して発話により音声情報を提供する候補となる情報である発話文を保持する機能を有する。発話判定部22は、ユーザUに対して発話により音声情報を提供するか否かを判定すると共に、発話する場合には、発話待機情報保持部21において保持される発話文から、ユーザUに対して音声情報として出力する(発話する)発話文を選択する機能を有する。スコア付与部23は、発話待機情報保持部21において保持される発話文それぞれに対して、スコアを付与する。スコアとは、発話の優先度に関係する数値である。付与されているスコアが高い発話文ほど、ユーザUに対して音声情報として提供することが好ましい情報であるといえる。換言すると、スコアは、ユーザUの周辺環境等を考慮して設定される値であり、コンテキストを考慮した数値であるともいえる。 The utterance standby information holding unit 21 has a function of holding utterance sentences sent from the utterance information generation modules 40A and 40B. That is, it has a function of holding an utterance sentence which is candidate information for providing voice information to the user U by utterance. The utterance determination unit 22 determines whether or not to provide voice information to the user U by utterance, and when uttering, the utterance sentence held by the utterance standby information holding unit 21 is used to the user U. It has a function to select an utterance sentence to be output (spoken) as voice information. The score giving unit 23 assigns a score to each utterance sentence held in the utterance waiting information holding unit 21. The score is a numerical value related to the priority of utterance. It can be said that the higher the score given, the more preferable the information is to be provided to the user U as voice information. In other words, the score is a value set in consideration of the surrounding environment of the user U, and can be said to be a numerical value in consideration of the context.

発話情報生成モジュール40A,40Bでは、対象コンテンツの進行状況に応じて、種々の発話文が生成される。ただし、全ての発話文を情報提供装置1がユーザUに対して出力すると、情報提供装置1から出力される音声情報が過多となる可能性がある。また、ユーザUからの問い合わせがあった場合には、問い合わせへの応答を優先することが望まれる。したがって、情報提供装置1から出力する音声情報のうち、発話文の量は適宜調整を図る必要がある。 In the utterance information generation modules 40A and 40B, various utterance sentences are generated according to the progress of the target content. However, if the information providing device 1 outputs all the utterance sentences to the user U, there is a possibility that the voice information output from the information providing device 1 becomes excessive. Further, when there is an inquiry from the user U, it is desirable to give priority to the response to the inquiry. Therefore, it is necessary to appropriately adjust the amount of spoken sentences in the voice information output from the information providing device 1.

また、情報提供装置1から出力する音声情報の内容も状況(特にコンテンツの進行状況)に応じて適宜変化させることが望まれる。例えば、対象コンテンツが緊迫した状況では、ユーザUは、対象コンテンツの関連情報よりも対象コンテンツの進行自体を説明する情報を知りたいことも考えられる。一方、対象コンテンツの変化が乏しい状況では、対象コンテンツの進行を説明する情報が少なくなるので、対象コンテンツの関連情報を提供することでユーザUの興味を引くことも考えられる。 Further, it is desired that the content of the voice information output from the information providing device 1 is appropriately changed according to the situation (particularly the progress of the content). For example, in a situation where the target content is tense, the user U may want to know information that explains the progress of the target content itself rather than related information of the target content. On the other hand, in a situation where the change of the target content is small, the information explaining the progress of the target content is reduced, so that it is possible to attract the interest of the user U by providing the related information of the target content.

上記の点を鑑み、情報提供装置1では、発話情報生成モジュール40A,40Bで生成される発話文を全て発話するのではなく、対象コンテンツの進行状況等を考慮して発話文を選択して出力する。この管理を行うのが発話管理モジュール20となる。 In view of the above points, the information providing device 1 does not utter all the utterance sentences generated by the utterance information generation modules 40A and 40B, but selects and outputs the utterance sentences in consideration of the progress of the target content and the like. do. The utterance management module 20 manages this.

発話管理モジュール20の発話待機情報保持部21では、発話情報生成モジュール40A,40Bにおいて生成された発話文(発話の候補となる発話文)を蓄積する。そして、発話情報生成モジュール40A,40Bに蓄積された発話文のうち、どの発話文を音声情報として出力するかを発話判定部22が判定する。この判定に用いられるのがスコア付与部23において算出して付与されるスコアである。発話判定部22は、発話待機情報保持部21において保持される発話文毎に、スコア付与部23により付与されたスコアを参照し、スコアが最上位であり(最も高く)、かつ、所定の閾値以上である発話文を音声情報として出力する発話文として選択する。 The utterance standby information holding unit 21 of the utterance management module 20 accumulates utterance sentences (utterance sentences that are candidates for utterance) generated by the utterance information generation modules 40A and 40B. Then, the utterance determination unit 22 determines which of the utterance sentences stored in the utterance information generation modules 40A and 40B is to be output as voice information. The score calculated and given by the score giving unit 23 is used for this determination. The utterance determination unit 22 refers to the score given by the score giving unit 23 for each utterance sentence held in the utterance standby information holding unit 21, and the score is the highest (highest) and a predetermined threshold value. The above utterance sentence is selected as the utterance sentence to be output as voice information.

スコア付与部23では、主に3つの要素に基づいてスコアを算出し、これらを合算して発話文毎のスコアを算出する。3つの要素は、「内容スコア」、「経過時間スコア」、および、「状況スコア」であり、これらの各要素に係るスコアを、内容スコア算出部24、経過時間スコア算出部25、および、状況スコア算出部26において算出する。 The score giving unit 23 calculates the score mainly based on three elements, and totals these to calculate the score for each utterance sentence. The three elements are "content score", "elapsed time score", and "situation score", and the scores related to each of these elements are calculated by the content score calculation unit 24, the elapsed time score calculation unit 25, and the situation. It is calculated by the score calculation unit 26.

「内容スコア」とは、発話文に含まれる内容に基づいて算出される数値である。発話文には、複数の単語が含まれている。内容スコアは、これらの複数の単語に基づいて付与されるスコアである。内容スコアの付与の仕方は特に限定されないが、簡単な方法としては、対象コンテンツに関連する単語について単語毎に予め付与するスコアを決めておき、発話文に含まれる単語毎に対応するスコアを加算していく方法が挙げられる。また、ディープラーニング等の機械学習に係る手法を利用して、発話文毎に特徴量を算出し、この特徴量をスコアとする方法を用いてもよい。例えば、単語の集合により構成されている文と、この文の重要度に対応付けられたスコア(0〜1の確率として示された数値)と、の組を複数準備して、教師データを作成し、この教師データを利用して、CNN(Convolution Neural Network)等のディープラーニング手法を用いて、対象となる発話文のスコアを算出する構成としてもよい。スコアの算出に用いるディープラーニングの手法または機械学習の手法は特に限定されない。 The "content score" is a numerical value calculated based on the content included in the utterance sentence. The utterance contains multiple words. The content score is a score given based on these plurality of words. The method of assigning the content score is not particularly limited, but as a simple method, a score to be assigned to each word is determined in advance for each word related to the target content, and the corresponding score is added to each word included in the utterance sentence. There is a way to do it. Further, a method of calculating a feature amount for each utterance sentence and using this feature amount as a score may be used by using a method related to machine learning such as deep learning. For example, teacher data is created by preparing multiple pairs of a sentence composed of a set of words and a score (a numerical value shown as a probability of 0 to 1) associated with the importance of this sentence. However, this teacher data may be used to calculate the score of the target utterance sentence by using a deep learning method such as CNN (Convolution Neural Network). The deep learning method or machine learning method used to calculate the score is not particularly limited.

「経過時間スコア」とは、情報提供装置1が前回ユーザUに対して音声情報を出力してからの経過時間に対応する数値である。情報提供装置1では、ユーザUに対して前回音声情報を出力した時点からの時間の長さに応じてスコアを変化させる。経過時間に応じて付与するスコアについては、例えば、経過時間スコア算出部25において、予め経過時間に基づくスコアの算出式等を準備しておき、算出式に基づいて自動的に付与する数値を決定する方法が挙げられる。ただし、この方法には限定されない。 The "elapsed time score" is a numerical value corresponding to the elapsed time since the information providing device 1 output the voice information to the user U last time. The information providing device 1 changes the score according to the length of time from the time when the voice information was output to the user U last time. Regarding the score to be given according to the elapsed time, for example, the elapsed time score calculation unit 25 prepares a score calculation formula based on the elapsed time in advance, and determines a numerical value to be automatically given based on the calculation formula. There is a way to do it. However, the method is not limited to this method.

「状況スコア」とは、対象コンテンツの進行状況に基づいて決定される、対象コンテンツの状況に応じた情報提供の必要性を示す数値である。例えば、対象コンテンツが緊迫した状況では、ユーザUは、対象コンテンツに係る音声情報に対する要求が高くなる可能性があるため、スコアを高く設定すると考えることができる。また、対象コンテンツが緊迫していない状況では、対象コンテンツに係る関連情報についてもユーザUが興味を示す可能性があるため、関連情報に対してスコアを高く設定するという考え方もできる。このように、状況スコアとは、対象コンテンツの進行状況に応じて設定されるスコアである。 The "situation score" is a numerical value indicating the necessity of providing information according to the situation of the target content, which is determined based on the progress of the target content. For example, in a situation where the target content is tense, the user U may set a high score because the request for the voice information related to the target content may be high. Further, in a situation where the target content is not tense, the user U may be interested in the related information related to the target content, so that it is possible to set a high score for the related information. As described above, the situation score is a score set according to the progress of the target content.

なお、状況スコアは、上述の通り対象コンテンツの進行状況に基づいて設定される。したがって、状況スコア算出部26は、発話情報生成モジュール40A,40Bが取得するコンテンツ進行情報提供装置50からのコンテンツの進行に係る情報を利用して、状況スコアを算出する構成としてもよい。このような構成の場合、状況スコア算出部26では、状況スコアを算出する方法として、コンテンツ進行情報提供装置50から提供されるコンテンツの進行に係る情報に含まれて、対象コンテンツの進行状況との関連性が高い単語に対して予め特定のスコアを決めておく方法を用いることができる。例えば、対象コンテンツがサッカーである場合には、大きなイベントとなると考えられる「ゴール」に対してスコア1.0を付与し、サッカーでは頻発しがちな「パス」に対してはスコア0.1を付与する、という手法が考えられる。また、サッカーの場合には、プレイ中のボールの位置等をスコアに変換して、利用するという手法が考えられる。また、対象コンテンツが株価変動である場合には、例えば、株価の「暴落」または「ストップ高」などが、スコアを付与する対象となる単語になり得る。 The status score is set based on the progress of the target content as described above. Therefore, the situation score calculation unit 26 may be configured to calculate the situation score by using the information related to the progress of the content from the content progress information providing device 50 acquired by the utterance information generation modules 40A and 40B. In the case of such a configuration, in the situation score calculation unit 26, as a method of calculating the situation score, it is included in the information related to the progress of the content provided by the content progress information providing device 50, and is included in the progress status of the target content. A method of predetermining a specific score for words with high relevance can be used. For example, when the target content is soccer, a score of 1.0 is given to the "goal" which is considered to be a big event, and a score of 0.1 is given to the "pass" which tends to occur frequently in soccer. A method of giving is conceivable. Further, in the case of soccer, a method of converting the position of the ball during play into a score and using it can be considered. Further, when the target content is a stock price fluctuation, for example, a stock price "fall" or "stop price" can be a word to be scored.

なお、対象コンテンツが日常生活全般のような一般的な状況である場合にも、状況スコアの付与はできる。具体的には、情報提供装置1からの音声情報の提供をユーザUが望むと想定される事象(例えば、天候の変化を示す情報)を示す単語には、予め高い値のスコアを設定し、音声情報の提供をユーザUが望まないと想定される事象(例えば、ユーザUの外出予定を示す情報など)を示す単語には、予め低い値のスコアを設定しておくことができる。このような構成とすることで、対象コンテンツがスポーツなどの特定のカテゴリのものに限定されない場合でも、状況スコアの付与が可能となる。 Even when the target content is in a general situation such as daily life in general, a situation score can be given. Specifically, a high score is set in advance for a word indicating an event (for example, information indicating a change in weather) that the user U is expected to provide voice information from the information providing device 1. A low score can be set in advance for a word indicating an event (for example, information indicating an outing schedule of the user U) that the user U is not expected to provide voice information. With such a configuration, even if the target content is not limited to a specific category such as sports, it is possible to give a situation score.

状況スコア算出部26では、例えば、発話文の生成のタイミングで、コンテンツ進行情報提供装置50から提供されるコンテンツの進行に係る情報のうち、直近の(または直近から所定の数の)情報から、スコアが決められた特定の単語を取り出し、そのスコアの合計を算出して、状況スコアとする方法を用いてもよい。このように、状況スコアの付与の方法は特に限定されず、種々の方法を用いることができる。また、状況スコアの付与についても、内容スコアと同様に、機械学習等の手法を用いてもよい。 In the situation score calculation unit 26, for example, at the timing of generating the utterance sentence, among the information related to the progress of the content provided by the content progress information providing device 50, from the latest (or a predetermined number of information from the latest) information. A method may be used in which a specific word having a fixed score is taken out, the total of the scores is calculated, and the situation score is obtained. As described above, the method of assigning the situation score is not particularly limited, and various methods can be used. Further, as for the assignment of the situation score, a method such as machine learning may be used in the same manner as the content score.

なお、発話情報生成モジュール40A,40Bが取得する情報とは別の情報に基づいて状況スコアを算出する構成としてもよい。 The situation score may be calculated based on information different from the information acquired by the utterance information generation modules 40A and 40B.

各部で算出されるスコアについては、0以上の数値で表現してもよいし、確率(0〜1)で表現してもよい。 The score calculated in each part may be expressed by a numerical value of 0 or more, or may be expressed by a probability (0 to 1).

上記のように、内容スコア算出部24、経過時間スコア算出部25、および、状況スコア算出部26では、一の発話文に対して互いに異なる観点からスコアを算出する。そして、スコア付与部23では、各部で算出されたスコアを合算することで、一の発話文に対するスコアを算出する。スコアの合算方法は特に限定されず、例えば、単純な加算としてもよい。また、内容スコア、経過時間スコア、および状況スコアが、それぞれ確率(0〜1)で算出される場合には、アンダーフローを避けるために、各スコアの対数の合計を求めて、一の発話文に対するスコアとしてもよい。 As described above, the content score calculation unit 24, the elapsed time score calculation unit 25, and the situation score calculation unit 26 calculate the score for one utterance sentence from different viewpoints. Then, the score giving unit 23 calculates the score for one utterance sentence by adding up the scores calculated in each unit. The method of adding up the scores is not particularly limited, and may be, for example, a simple addition. In addition, when the content score, elapsed time score, and situation score are calculated with probabilities (0 to 1), the total logarithm of each score is calculated to avoid underflow, and one utterance sentence is obtained. It may be a score for.

発話情報生成モジュール40A,40Bにおいて生成されて、発話待機情報保持部21において保持される発話文毎に、スコア付与部23においてスコアが算出されて付与される。この結果、図3に示すように、発話待機情報保持部21では、情報提供装置1からの発話を待機している発話文(キュー)に対してそれぞれスコアが付与されて保持されている。図3に示す例では、「A選手がシュートしました。」という発話文に、スコア0.8が対応付けられている。また、「A選手は、○○出身です。」という発話文には、スコア0.7が対応付けられている。このように、発話待機情報保持部21では、発話情報生成モジュール40A,40Bにおいてそれぞれ生成された発話文について、個別にスコアが付与された状態で保持されている。 A score is calculated and given by the score giving unit 23 for each utterance sentence generated by the utterance information generation modules 40A and 40B and held by the utterance waiting information holding unit 21. As a result, as shown in FIG. 3, the utterance standby information holding unit 21 assigns and holds a score for each utterance sentence (queue) waiting for utterance from the information providing device 1. In the example shown in FIG. 3, a score of 0.8 is associated with the utterance sentence "A player shot." In addition, a score of 0.7 is associated with the utterance sentence "A player is from XX." In this way, the utterance standby information holding unit 21 holds the utterance sentences generated by the utterance information generation modules 40A and 40B in a state in which scores are individually assigned.

なお、発話待機情報保持部21で保持されている発話文に対応付けられているスコアは、適宜更新されてもよい。例えば、対象コンテンツの進行状況によっては、各発話文に付与されているスコアが適切ではなくなる場合がある。また、発話待機情報保持部21で保持されている発話文を用いた発話、あるいは、ユーザUからの問い合わせに対して応答のために、情報提供装置1から音声出力を行った場合には、経過時間がリセットされる。そのため、発話待機情報保持部21で保持されるスコアは、適宜(例えば、所定のタイミングで)スコア付与部23により更新されてもよい。 The score associated with the utterance sentence held by the utterance standby information holding unit 21 may be updated as appropriate. For example, depending on the progress of the target content, the score given to each utterance sentence may not be appropriate. Further, when the utterance using the utterance sentence held by the utterance standby information holding unit 21 or the voice is output from the information providing device 1 in order to respond to the inquiry from the user U, the progress occurs. The time is reset. Therefore, the score held by the utterance waiting information holding unit 21 may be updated by the score giving unit 23 as appropriate (for example, at a predetermined timing).

発話判定部22では、発話待機情報保持部21を定期的(例えば、数百m秒おき)に参照する。そして、発話判定部22は、発話待機情報保持部21に保持されている発話文のうち最もスコアが高い発話文を参照し、当該発話文に対して付与されているスコアが、予め定めた閾値以上である場合には、当該発話文に基づいてユーザUに対して発話すると判定し、当該発話文を選択する。すなわち、発話判定部22は、ユーザUに対して音声情報として提供する発話文を選択する発話情報選択部としての機能を有する。 The utterance determination unit 22 refers to the utterance standby information holding unit 21 periodically (for example, every several hundred meters). Then, the utterance determination unit 22 refers to the utterance sentence having the highest score among the utterance sentences held in the utterance standby information holding unit 21, and the score given to the utterance sentence is a predetermined threshold value. In the above case, it is determined that the user U is to speak based on the utterance sentence, and the utterance sentence is selected. That is, the utterance determination unit 22 has a function as an utterance information selection unit that selects an utterance sentence to be provided as voice information to the user U.

なお、発話判定部22は、発話待機情報保持部21に保持されている発話文のうち最もスコアが高い発話文に対して付与されているスコアが閾値よりも小さい場合には発話が不要であると判断し、次の機会まで発話を行わない構成としてもよい。 The utterance determination unit 22 does not need to utter when the score given to the utterance sentence having the highest score among the utterance sentences held in the utterance standby information holding unit 21 is smaller than the threshold value. It may be determined that the utterance is not performed until the next opportunity.

発話判定部22により発話すると判定された発話文は、発話待機情報保持部21から消去される。これにより、同じ発話文が再度発話されることを防ぐことができる。また、発話待機情報保持部21に保持されてから所定時間経過した発話文も、発話可能性が低くなったとして発話待機情報保持部21から消去することができる。このような構成とすることで、発話待機情報保持部21に保持される発話文のうち、今後発話する予定がない(見込みが低い)発話文が長時間保持されて、データ量が増大することを防ぐことができる。 The utterance sentence determined to be spoken by the utterance determination unit 22 is deleted from the utterance standby information holding unit 21. As a result, it is possible to prevent the same utterance sentence from being uttered again. Further, the utterance sentence that has passed a predetermined time after being held by the utterance standby information holding unit 21 can also be deleted from the utterance standby information holding unit 21 because the possibility of utterance is low. With such a configuration, among the utterance sentences held in the utterance standby information holding unit 21, utterance sentences that are not planned to be uttered in the future (low probability) are held for a long time, and the amount of data is increased. Can be prevented.

なお、発話判定部22が発話待機情報保持部21を参照するタイミングは、ユーザUからの発話(問い合わせなど)の有無等に応じて適宜変更してもよい。例えば、ユーザUからの発話あった場合には、情報提供装置1ではユーザUからの発話に応答することが優先され、情報提供装置1からの自発的な発話は省略される。したがって、このような状態では、発話判定部22は、発話待機情報保持部21の参照自体を省略してもよい。情報提供装置1において、発話管理モジュール20は、ユーザUからの発話に対する応答についても管理する。したがって、発話管理モジュール20では、発話の優先度等に基づいて、ユーザUからの発話に対する応答、および、自発的な音声情報の提供を両立できるように、発話する情報の管理を行う。 The timing at which the utterance determination unit 22 refers to the utterance standby information holding unit 21 may be appropriately changed depending on the presence or absence of an utterance (inquiry, etc.) from the user U. For example, when there is an utterance from the user U, the information providing device 1 gives priority to responding to the utterance from the user U, and the spontaneous utterance from the information providing device 1 is omitted. Therefore, in such a state, the utterance determination unit 22 may omit the reference itself of the utterance standby information holding unit 21. In the information providing device 1, the utterance management module 20 also manages the response to the utterance from the user U. Therefore, the utterance management module 20 manages the utterance information so that the response to the utterance from the user U and the spontaneous provision of voice information can be compatible with each other based on the utterance priority and the like.

次に、図4を参照しながら、情報提供装置1における情報提供方法について説明する。図4では、情報提供装置1側からの自発的な音声情報野提供に係る手順を説明している。なお、図4では、ユーザUからの発話に対する応答に係る手順についての説明は行っていない。 Next, the information providing method in the information providing device 1 will be described with reference to FIG. FIG. 4 describes a procedure related to voluntary provision of a voice information field from the information providing device 1 side. Note that FIG. 4 does not explain the procedure related to the response to the utterance from the user U.

図4に示すように、情報提供装置1の発話情報生成モジュール40A,40Bでは、コンテンツ進行情報提供装置50から対象コンテンツの進行に係る情報を取得する(S01)。発話情報生成モジュール40A,40Bでは、コンテンツ進行情報提供装置50からのコンテンツの進行情報に基づいて、情報提供装置1がユーザUに対して音声出力するための発話文を生成する(S02)。生成された発話文は、発話情報生成モジュール40A,40Bから発話管理モジュール20へ送られる(S03)。 As shown in FIG. 4, the utterance information generation modules 40A and 40B of the information providing device 1 acquire information related to the progress of the target content from the content progress information providing device 50 (S01). The utterance information generation modules 40A and 40B generate utterance sentences for the information providing device 1 to output voice to the user U based on the progress information of the content from the content progress information providing device 50 (S02). The generated utterance sentence is sent from the utterance information generation modules 40A and 40B to the utterance management module 20 (S03).

発話管理モジュール20では、取得した発話文について、まず、スコア付与部23において、発話文のスコアを算出する(S04)。スコアの算出には、内容スコア算出部24での内容スコアの算出処理、経過時間スコア算出部25での経過時間スコアの算出処理、状況スコア算出部26での状況スコアの算出処理、および、スコア付与部23においてこれらを合算する処理が含まれる。スコアを算出した後、発話待機情報保持部21において、発話文および発話文に対応するスコアが保持される(S05)。なお、発話文を発話待機情報保持部21に保持した(S05)後に、スコアの算出(S04)を行い、スコアを発話文に対応付けて発話待機情報保持部21にて保持する構成としてもよい。 In the utterance management module 20, the score giving unit 23 first calculates the score of the utterance sentence for the acquired utterance sentence (S04). The score is calculated by the content score calculation unit 24, the content score calculation process, the elapsed time score calculation unit 25, the elapsed time score calculation process, the situation score calculation unit 26, the situation score calculation process, and the score. The granting unit 23 includes a process of adding up these. After calculating the score, the utterance waiting information holding unit 21 holds the utterance sentence and the score corresponding to the utterance sentence (S05). After the utterance sentence is held in the utterance waiting information holding unit 21 (S05), the score may be calculated (S04), and the score may be associated with the utterance sentence and held by the utterance waiting information holding unit 21. ..

発話管理モジュール20では、必要に応じて、スコア付与部23により、発話待機情報保持部21において保持される発話文に対応付けられたスコアを更新(S06)してもよい。 In the utterance management module 20, the score giving unit 23 may update the score associated with the utterance sentence held in the utterance standby information holding unit 21 (S06), if necessary.

その後、発話管理モジュール20の発話判定部22は、発話待機情報保持部21を参照し、発話待機情報保持部21に保持された発話文の発話を行うかを判定する(S07)。発話判定部22が発話を行わない都判定した場合には、以降の処理は行われず、定期的に発話判定(S07)が繰り返される。一方、発話を行うと判定した場合には、発話判定部22により、音声情報として出力する発話文が対話モジュール10へ送られる(S08)。そして、対話モジュール10により発話文が音声へと変換されて、ユーザUへの出力、すなわち、発話が行われる(S09)。 After that, the utterance determination unit 22 of the utterance management module 20 refers to the utterance standby information holding unit 21 and determines whether to utter the utterance sentence held in the utterance standby information holding unit 21 (S07). When the utterance determination unit 22 determines that the city does not speak, the subsequent processing is not performed, and the utterance determination (S07) is repeated periodically. On the other hand, when it is determined that the utterance is to be performed, the utterance determination unit 22 sends the utterance sentence to be output as voice information to the dialogue module 10 (S08). Then, the utterance sentence is converted into voice by the dialogue module 10, and the output to the user U, that is, the utterance is performed (S09).

以上のように、本実施形態に係る情報提供装置1は、ユーザUに対して発話により音声情報を提供する情報提供装置であって、ユーザUに対して発話する候補となる発話文に対して、発話文の発話の優先度に関係する数値であるスコアを算出して付与するスコア付与部23と、発話文と、発話文に対してスコア付与部により付与されたスコアとを対応付けて保持する発話待機情報保持部21と、発話待機情報保持部21に保持されているスコアのうち最も高いスコアに対応付けられて保持されている発話文を選択する発話情報選択部としての発話判定部22と、発話情報選択部としての発話判定部22により選択された発話文を音声情報として出力する出力部としての対話モジュール10と、を有する。 As described above, the information providing device 1 according to the present embodiment is an information providing device that provides voice information to the user U by utterance, and is a candidate utterance sentence to be spoken to the user U. , The score giving unit 23 that calculates and gives a score, which is a numerical value related to the priority of the utterance of the utterance sentence, and the utterance sentence and the score given by the score giving unit to the utterance sentence are held in association with each other. The utterance standby information holding unit 21 and the utterance determination unit 22 as the utterance information selection unit that select the utterance sentence held in association with the highest score among the scores held in the utterance waiting information holding unit 21. And the dialogue module 10 as an output unit that outputs the utterance sentence selected by the utterance determination unit 22 as the utterance information selection unit as utterance information.

上記の情報提供装置1によれば、発話文の発話の優先度に関係する数値であるスコアを算出して発話文毎に付与し、発話文に対応付けて発話待機情報保持部21により保持される。また、最も高いスコアに対応付けられた発話文が、発話情報選択部としての発話判定部22により選択されて、出力部としての対話モジュール10により音声情報として出力される。情報提供装置1では、このような構成を有することで、優先度に関係したスコアに基づいて、発話文が選択されて音声情報として出力することができるから、優先度に応じてユーザに対してより適切な発話を行うことが可能となる。 According to the above-mentioned information providing device 1, a score, which is a numerical value related to the priority of the utterance of the utterance sentence, is calculated and given to each utterance sentence, and is held by the utterance standby information holding unit 21 in association with the utterance sentence. NS. Further, the utterance sentence associated with the highest score is selected by the utterance determination unit 22 as the utterance information selection unit, and is output as voice information by the dialogue module 10 as the output unit. Since the information providing device 1 has such a configuration, the utterance sentence can be selected and output as voice information based on the score related to the priority, so that the user can be notified according to the priority. It becomes possible to make a more appropriate utterance.

また、情報提供装置1では、発話情報選択部としての発話判定部22において、発話待機情報保持部21に保持されているスコアのうち最も高いスコアに対応付けられて保持されている発話文が、所定の条件を満たす場合に、当該発話文を選択する。このような構成を有していることで、スコアが最も高いだけでなく、そのほかの条件も満たしたスコアが付与された発話文を音声情報として出力することができる。したがって、優先度に応じてユーザに対してより適切な発話を行うことが可能となる。 Further, in the information providing device 1, the utterance determination unit 22 as the utterance information selection unit displays the utterance sentence associated with the highest score among the scores held in the utterance standby information holding unit 21. When the predetermined condition is satisfied, the utterance sentence is selected. By having such a configuration, it is possible to output the utterance sentence to which not only the score is the highest but also the score satisfying other conditions is given as voice information. Therefore, it is possible to make a more appropriate utterance to the user according to the priority.

なお、上記実施形態では、所定の条件は、スコアが所定の閾値以上であるか否かとされている。このような構成とすることで、スコアが所定の閾値より大きい、すなわち、優先度が十分に高いと考えられる発話文を音声情報として出力することができる。したがって、発話待機情報保持部に保持されている発話文のうちスコアが最も高いとしても、優先度が十分に高いとはいえない発話文を音声情報として出力することが防がれるため、ユーザに対してより適切な発話を行うことができる。 In the above embodiment, the predetermined condition is whether or not the score is equal to or higher than the predetermined threshold value. With such a configuration, it is possible to output an utterance sentence whose score is larger than a predetermined threshold value, that is, which is considered to have a sufficiently high priority, as voice information. Therefore, even if the score is the highest among the utterance sentences held in the utterance standby information holding unit, it is possible to prevent the utterance sentence which cannot be said to have a sufficiently high priority from being output as voice information to the user. You can speak more appropriately.

また、スコア付与部23は、発話文の内容に対応する内容スコアに基づいて、スコアを算出する構成とされている。 Further, the score giving unit 23 is configured to calculate the score based on the content score corresponding to the content of the utterance sentence.

発話文の内容に対応する内容スコアに基づいてスコアを算出する構成とすることで、発話文の内容に応じた適切なスコアを付与することができる。そのため、例えば、重要な内容に係る発話文に対してより優先度が高いことを示すスコアを付与することができ、ユーザに対してより適切な発話を行うことができる。 By calculating the score based on the content score corresponding to the content of the utterance sentence, it is possible to give an appropriate score according to the content of the utterance sentence. Therefore, for example, it is possible to give a score indicating that the utterance sentence relating to the important content has a higher priority, and it is possible to make a more appropriate utterance to the user.

また、スコア付与部23は、自装置による前回の発話からの経過時間に係る経過時間スコアに基づいて、スコアを算出する構成とされている。 Further, the score giving unit 23 is configured to calculate the score based on the elapsed time score related to the elapsed time from the previous utterance by the own device.

自装置による前回の発話からの経過時間に係る経過時間スコアに基づいてスコアを算出する構成とすることで、経過時間を考慮したスコアを付与することができる。そのため、例えば、前回の発話からの経過時間が短すぎる場合に発話を行うことなどを防ぐことも可能となるため、ユーザに対してより適切な発話を行うことができる。 By configuring the score to be calculated based on the elapsed time score related to the elapsed time from the previous utterance by the own device, it is possible to give a score in consideration of the elapsed time. Therefore, for example, it is possible to prevent an utterance when the elapsed time from the previous utterance is too short, so that a more appropriate utterance can be made to the user.

また、スコア付与部23は、音声情報を提供する対象となるコンテンツの状況に係る状況スコアに基づいて、スコアを算出する構成とされている。 Further, the score giving unit 23 is configured to calculate the score based on the situation score related to the situation of the content for which the voice information is provided.

コンテンツの状況に係る状況スコアに基づいてスコアを算出する構成とすることで、コンテンツの状況に応じた適切なスコアを付与することができる。そのため、例えば、コンテンツの状況から音声情報の提供を減らしたほうがよい場合には、スコアを低くするなど、音声情報の提供が望まれるタイミング等を考慮したスコアを付与することができ、ユーザに対してより適切な発話を行うことができる。 By configuring the score to be calculated based on the status score related to the status of the content, it is possible to give an appropriate score according to the status of the content. Therefore, for example, when it is better to reduce the provision of voice information due to the situation of the content, it is possible to give a score in consideration of the timing when the provision of voice information is desired, such as lowering the score, and the user can be given a score. You can speak more appropriately.

なお、上記実施形態で説明した情報提供装置1は上記の構成に限定されず、種々の変更を加えることができる。 The information providing device 1 described in the above embodiment is not limited to the above configuration, and various changes can be made.

上記実施形態では、情報提供装置1が1台の装置により構成されている場合について説明したが、上記の情報提供装置1に係る機能が複数台の装置に分散配置された構成であってもよい。例えば、情報提供装置1を構成する各モジュールが個別の装置であってもよい。また、各モジュールが、それぞれ複数台の装置により構成されていてもよい。 In the above embodiment, the case where the information providing device 1 is configured by one device has been described, but the functions related to the above information providing device 1 may be distributed and arranged in a plurality of devices. .. For example, each module constituting the information providing device 1 may be an individual device. Further, each module may be composed of a plurality of devices.

また、上記実施形態では、情報提供装置1がユーザUからの発話(問い合わせ)に対して応答する機能を有している場合について説明したが、情報提供装置1は、少なくとも発話による音声情報の出力に係る機能を有していればよい。 Further, in the above embodiment, the case where the information providing device 1 has a function of responding to an utterance (inquiry) from the user U has been described, but the information providing device 1 at least outputs voice information by the utterance. It suffices to have the function related to.

また、上記実施形態では、スコア付与部23において、内容スコア、経過時間スコア、および、状況スコアを算出する構成について説明したが、スコア付与部23が付与するスコアには、内容スコア、経過時間スコア、および、状況スコアのいずれかが含まれていなくてもよい。また、スコア付与部23は、上記の3つのスコアとは異なる情報等に基づいてスコアを算出してもよい。さらに、スコア付与部23は、上記の3つのスコアと、その他の情報に基づいて算出されるスコアとを組み合わせてスコアを算出してもよい。このように、スコア付与部23により付与されるスコアの算出方法は、適宜変更することができる。 Further, in the above embodiment, the score giving unit 23 has described the configuration for calculating the content score, the elapsed time score, and the situation score, but the score given by the score giving unit 23 includes the content score and the elapsed time score. , And either of the status scores may not be included. Further, the score giving unit 23 may calculate the score based on information or the like different from the above three scores. Further, the score giving unit 23 may calculate the score by combining the above three scores with the score calculated based on other information. As described above, the method of calculating the score given by the score giving unit 23 can be changed as appropriate.

また、上記実施形態では、発話判定部22において発話文のスコアが最も高くかつ所定の閾値以上である場合に、音声情報として発話すると判断する構成について説明している。ただし、発話判定部22は、発話待機情報保持部21において保持されている発話文のうち最もスコアが高い発話文について、その他の条件を満たしている場合に当該発話文を選択する構成としてもよい。その他の条件とは、例えば、発話文の長さが所定の文字数以下である、等であってもよい。情報提供装置1からの音声情報の出力に係る機能等を考慮して、その他の条件(所定の条件)を設定してもよい。また、発話判定部22は、発話待機情報保持部21において保持されている発話文のうち、最もスコアが高い発話文を選択する構成としてもよい。この場合、発話判定部22による発話文の選択タイミング(定期的な発話文の選択のタイミング)を調整することなどにより、音声情報の出力の頻度を調整してもよい。 Further, in the above embodiment, the configuration in which the utterance determination unit 22 determines that the utterance is to be spoken as voice information when the score of the utterance sentence is the highest and is equal to or higher than a predetermined threshold value is described. However, the utterance determination unit 22 may be configured to select the utterance sentence having the highest score among the utterance sentences held in the utterance standby information holding unit 21 when other conditions are satisfied. .. Other conditions may be, for example, that the length of the utterance sentence is not more than or equal to a predetermined number of characters. Other conditions (predetermined conditions) may be set in consideration of the function related to the output of voice information from the information providing device 1. Further, the utterance determination unit 22 may be configured to select the utterance sentence having the highest score from the utterance sentences held by the utterance standby information holding unit 21. In this case, the frequency of voice information output may be adjusted by adjusting the selection timing of the utterance sentence (timing of periodic selection of the utterance sentence) by the utterance determination unit 22.

(その他)
上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。
(others)
The block diagram used in the description of the above embodiment shows a block of functional units. These functional blocks (components) are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one physically and / or logically coupled device, or directly and / or indirectly by two or more physically and / or logically separated devices. (For example, wired and / or wireless) may be connected and realized by these a plurality of devices.

例えば、本開示の一実施の形態における情報提供装置1は、本実施形態の情報提供装置1の処理を行うコンピュータとして機能してもよい。図5は、本実施形態に係る情報提供装置1のハードウェア構成の一例を示す図である。上述の情報提供装置1は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, the information providing device 1 in one embodiment of the present disclosure may function as a computer that processes the information providing device 1 of the present embodiment. FIG. 5 is a diagram showing an example of the hardware configuration of the information providing device 1 according to the present embodiment. The above-mentioned information providing device 1 may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。情報提供装置1のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the information providing device 1 may be configured to include one or more of the devices shown in the figure, or may be configured not to include some of the devices.

情報提供装置1における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。 Each function in the information providing device 1 is performed by loading predetermined software (program) on hardware such as the processor 1001 and the memory 1002, so that the processor 1001 performs an operation, and communication by the communication device 1004, the memory 1002, and the storage are performed. It is realized by controlling the reading and / or writing of the data in 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインタフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、情報提供装置1の各機能は、プロセッサ1001で実現されてもよい。 Processor 1001 operates, for example, an operating system to control the entire computer. The processor 1001 may be composed of a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like. For example, each function of the information providing device 1 may be realized by the processor 1001.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、情報提供装置1の各機能は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 Further, the processor 1001 reads a program (program code), a software module, and data from the storage 1003 and / or the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above-described embodiment is used. For example, each function of the information providing device 1 may be realized by a control program stored in the memory 1002 and operated by the processor 1001. Although it has been described that the various processes described above are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be mounted on one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, or the like that can be executed in order to carry out the method according to the embodiment of the present disclosure.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a database, server or other suitable medium containing memory 1002 and / or storage 1003.

通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。例えば、情報提供装置1の各機能は、通信装置1004で実現されてもよい。 The communication device 1004 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like. For example, each function of the information providing device 1 may be realized by the communication device 1004.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that receives an input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that outputs to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 Further, each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. Bus 1007 may be composed of a single bus, or may be composed of different buses between devices.

また、情報提供装置1は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。 Further, the information providing device 1 includes hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). It may be configured by, and a part or all of each functional block may be realized by the hardware. For example, processor 1001 may be implemented on at least one of these hardware.

以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it is clear to those skilled in the art that the present disclosure is not limited to the embodiments described in the present disclosure. The present disclosure may be implemented as an amendment or modification without departing from the purpose and scope of the present disclosure, which is determined by the description of the scope of claims. Therefore, the description of the present disclosure is for the purpose of exemplary explanation and does not have any limiting meaning to the present embodiment.

情報の通知は、本明細書で説明した態様/実施形態に限られず、他の方法で行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。 The notification of information is not limited to the embodiments / embodiments described herein, and may be performed by other methods. For example, information notification includes physical layer signaling (eg, DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (eg, RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, etc. It may be carried out by notification information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. Further, the RRC signaling may be referred to as an RRC message, and may be, for example, an RRC Connection Setup message, an RRC Connection Reconfiguration message, or the like.

本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE−Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。 Each aspect / embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), and 5G (5th generation mobile communication). system), FRA (Future Radio Access), NR (new Radio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi (registered trademark)) )), IEEE 802.16 (WiMAX®), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth®, and other systems that utilize and extend based on these. It may be applied to at least one of the next generation systems. Further, a plurality of systems may be applied in combination (for example, a combination of at least one of LTE and LTE-A and 5G).

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The order of the processing procedures, sequences, flowcharts, etc. of each aspect / embodiment described in the present specification may be changed as long as there is no contradiction. For example, the methods described herein present elements of various steps in an exemplary order, and are not limited to the particular order presented.

情報等は、上位レイヤ(又は下位レイヤ)から下位レイヤ(又は上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。 Information and the like can be output from the upper layer (or lower layer) to the lower layer (or upper layer). Input / output may be performed via a plurality of network nodes.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific location (for example, memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in the present disclosure may be used alone, in combination, or switched with execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit notification, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language, or by any other name, is an instruction, instruction set, code, code segment, program code, program, subprogram, software module. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Further, software, instructions, and the like may be transmitted and received via a transmission medium. For example, the software uses wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to websites, servers, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

本開示で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described in the present disclosure may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.

なお、本開示で説明した用語及び/又は本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms described in the present disclosure and / or the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings.

本開示で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" used in this disclosure are used interchangeably.

また、本開示で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 Further, the information, parameters, etc. described in the present disclosure may be represented by an absolute value, a relative value from a predetermined value, or another corresponding information.

上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。 The names used for the above parameters are not limited in any way. Further, mathematical formulas and the like using these parameters may differ from those expressly disclosed herein.

上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。 The names used for the above parameters are not limited in any way. Further, mathematical formulas and the like using these parameters may differ from those explicitly disclosed in this disclosure.

本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。 The terms "determining" and "determining" as used in this disclosure may include a wide variety of actions. "Judgment" and "decision" are, for example, judgment, calculation, computing, processing, deriving, investigating, looking up (for example, table). , Searching in a database or another data structure), ascertaining can be considered as a "judgment" or "decision". Also, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (Accessing) (for example, accessing data in memory) may be regarded as "judgment" or "decision". In addition, "judgment" and "decision" mean that the things such as solving, selecting, choosing, establishing, and comparing are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include considering some action as "judgment" and "decision".

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements, and each other. It can include the presence of one or more intermediate elements between two "connected" or "combined" elements. The connections or connections between the elements may be physical, logical, or a combination thereof. As used in the present disclosure, the two elements are by using one or more wires, cables and / or printed electrical connections, and, as some non-limiting and non-comprehensive examples, the radio frequency region. By using electromagnetic energies such as electromagnetic energies with wavelengths in the microwave and light (both visible and invisible) regions, they can be considered to be "connected" or "coupled" to each other.

本開示で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used in this disclosure does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本開示あるいは請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示あるいは請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 As long as "include", "including", and variations thereof are used within the scope of the present disclosure or claims, these terms are similar to the term "comprising". Intended to be inclusive. Furthermore, the term "or" as used in the present disclosure or claims is intended not to be an exclusive OR.

本開示において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。 In the present disclosure, a plurality of devices shall be included unless the device has only one device, which is apparently present in context or technically. In the whole of the present disclosure, if the context clearly does not indicate the singular, it shall include the plural.

本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In the present disclosure, if articles are added by translation, for example a, an and the in English, the disclosure may include the plural nouns following these articles.

本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other". The term may mean that "A and B are different from C". Terms such as "separate" and "combined" may be interpreted in the same way as "different".

1…情報提供装置、10…対話モジュール、20…発話管理モジュール、21…発話待機情報保持部、22…発話判定部、23…スコア付与部、24…内容スコア算出部、25…経過時間スコア算出部、26…状況スコア算出部、30…応答情報生成モジュール、40A,40B…発話情報生成モジュール。 1 ... Information providing device, 10 ... Dialogue module, 20 ... Speaking management module, 21 ... Speaking standby information holding unit, 22 ... Speaking judgment unit, 23 ... Score giving unit, 24 ... Content score calculation unit, 25 ... Elapsed time score calculation Unit, 26 ... Situation score calculation unit, 30 ... Response information generation module, 40A, 40B ... Speaking information generation module.

Claims (6)

ユーザに対して発話により音声情報を提供する情報提供装置であって、
前記ユーザに対して発話する候補となる発話文に対して、前記発話文の発話の優先度に関係する数値であるスコアを算出して付与するスコア付与部と、
前記発話文と、前記発話文に対して前記スコア付与部により付与されたスコアとを対応付けて保持する発話待機情報保持部と、
前記発話待機情報保持部に保持されている前記スコアのうち最も高いスコアに対応付けられて保持されている発話文を選択する発話情報選択部と、
前記発話情報選択部により選択された発話文を音声情報として出力する出力部と、
を有する、情報提供装置。
An information providing device that provides voice information to a user by utterance.
A score giving unit that calculates and assigns a score that is a numerical value related to the priority of the utterance of the utterance sentence to the utterance sentence that is a candidate to be spoken to the user.
An utterance standby information holding unit that holds the utterance sentence and a score given by the score giving unit to the utterance sentence in association with each other.
An utterance information selection unit that selects an utterance sentence associated with the highest score among the scores held in the utterance standby information holding unit, and a utterance information selection unit.
An output unit that outputs the utterance sentence selected by the utterance information selection unit as voice information, and an output unit.
Information providing device.
前記発話情報選択部は、前記発話待機情報保持部に保持されている前記スコアのうち最も高いスコアに対応付けられて保持されている発話文が、所定の条件を満たす場合に、当該発話文を選択する、請求項1に記載の情報提供装置。 The utterance information selection unit sets the utterance sentence when the utterance sentence held in association with the highest score among the scores held in the utterance standby information holding unit satisfies a predetermined condition. The information providing device according to claim 1, which is selected. 前記所定の条件は、前記スコアが所定の閾値以上であるか否かである、請求項2に記載の情報提供装置。 The information providing device according to claim 2, wherein the predetermined condition is whether or not the score is equal to or higher than a predetermined threshold value. 前記スコア付与部は、前記発話文の内容に対応する内容スコアに基づいて、前記スコアを算出する、請求項1〜3のいずれか一項に記載の情報提供装置。 The information providing device according to any one of claims 1 to 3, wherein the score giving unit calculates the score based on the content score corresponding to the content of the utterance sentence. 前記スコア付与部は、自装置による前回の発話からの経過時間に係る経過時間スコアに基づいて、前記スコアを算出する、請求項1〜4のいずれか一項に記載の情報提供装置。 The information providing device according to any one of claims 1 to 4, wherein the score giving unit calculates the score based on the elapsed time score related to the elapsed time from the previous utterance by the own device. 前記スコア付与部は、前記音声情報を提供する対象となるコンテンツの状況に係る状況スコアに基づいて、前記スコアを算出する、請求項1〜5のいずれか一項に記載の情報提供装置。 The information providing device according to any one of claims 1 to 5, wherein the score giving unit calculates the score based on the situation score related to the situation of the content for which the voice information is provided.
JP2020550375A 2018-10-05 2019-09-26 Information provision device Active JP7146933B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018190167 2018-10-05
JP2018190167 2018-10-05
PCT/JP2019/038045 WO2020071255A1 (en) 2018-10-05 2019-09-26 Information presentation device

Publications (2)

Publication Number Publication Date
JPWO2020071255A1 true JPWO2020071255A1 (en) 2021-09-02
JP7146933B2 JP7146933B2 (en) 2022-10-04

Family

ID=70054786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020550375A Active JP7146933B2 (en) 2018-10-05 2019-09-26 Information provision device

Country Status (2)

Country Link
JP (1) JP7146933B2 (en)
WO (1) WO2020071255A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073613A1 (en) * 2012-11-08 2014-05-15 日本電気株式会社 Conversation-sentence generation device, conversation-sentence generation method, and conversation-sentence generation program
JP2015127758A (en) * 2013-12-27 2015-07-09 シャープ株式会社 Response control device and control program
JP2015138147A (en) * 2014-01-22 2015-07-30 シャープ株式会社 Server, interactive device, interactive system, interactive method and interactive program
WO2015174172A1 (en) * 2014-05-13 2015-11-19 シャープ株式会社 Control device and message output control system
JP2017161875A (en) * 2016-03-11 2017-09-14 富士通株式会社 Information processing apparatus, information processing method, and information processing program
JP6400871B1 (en) * 2018-03-20 2018-10-03 ヤフー株式会社 Utterance control device, utterance control method, and utterance control program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073613A1 (en) * 2012-11-08 2014-05-15 日本電気株式会社 Conversation-sentence generation device, conversation-sentence generation method, and conversation-sentence generation program
JP2015127758A (en) * 2013-12-27 2015-07-09 シャープ株式会社 Response control device and control program
JP2015138147A (en) * 2014-01-22 2015-07-30 シャープ株式会社 Server, interactive device, interactive system, interactive method and interactive program
WO2015174172A1 (en) * 2014-05-13 2015-11-19 シャープ株式会社 Control device and message output control system
JP2017161875A (en) * 2016-03-11 2017-09-14 富士通株式会社 Information processing apparatus, information processing method, and information processing program
JP6400871B1 (en) * 2018-03-20 2018-10-03 ヤフー株式会社 Utterance control device, utterance control method, and utterance control program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
功刀雅士, 若林啓: "コンテキストを考慮した非タスク指向型対話システムの構築", 2016年度人工知能学会全国大会(第30回)論文集, JPN6019044780, 9 June 2016 (2016-06-09), pages 1 - 4, ISSN: 0004748945 *

Also Published As

Publication number Publication date
JP7146933B2 (en) 2022-10-04
WO2020071255A1 (en) 2020-04-09

Similar Documents

Publication Publication Date Title
JP6317111B2 (en) Hybrid client / server speech recognition
US11521038B2 (en) Electronic apparatus and control method thereof
US10078631B2 (en) Entropy-guided text prediction using combined word and character n-gram language models
KR20190046623A (en) Dialog system with self-learning natural language understanding
US11367441B2 (en) Electronic apparatus and control method thereof
US20140223572A1 (en) Message service providing method, and apparatus and system therefor
US20240129567A1 (en) Hub device, multi-device system including the hub device and plurality of devices, and operating method of the hub device and multi-device system
JP2019015838A (en) Speech recognition system, terminal device and dictionary management method
US11545144B2 (en) System and method supporting context-specific language model
JP7058574B2 (en) Information processing equipment, information processing methods, and programs
KR102440635B1 (en) Guidance method, apparatus, device and computer storage medium of voice packet recording function
JP7096199B2 (en) Information processing equipment, information processing methods, and programs
US11663420B2 (en) Dialogue system
JPWO2020071255A1 (en) Information provider
US20230147096A1 (en) Unstructured data storage and retrieval in conversational artificial intelligence applications
US11604831B2 (en) Interactive device
KR20210001905A (en) Electronic apparatus and control method thereof
JP7194759B2 (en) Translation data generation system
WO2020054201A1 (en) Response sentence creation device
JPWO2019187463A1 (en) Dialogue server
US20220223141A1 (en) Electronic apparatus and method for controlling thereof
JP6960049B2 (en) Dialogue device
WO2020195022A1 (en) Voice dialogue system, model generation device, barge-in speech determination model, and voice dialogue program
US20220199078A1 (en) Electronic apparatus, system comprising electronic apparatus and server and controlling method thereof
WO2023214483A1 (en) Behavior change apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220921

R150 Certificate of patent or registration of utility model

Ref document number: 7146933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150