JP7132206B2 - GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM - Google Patents

GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM Download PDF

Info

Publication number
JP7132206B2
JP7132206B2 JP2019225540A JP2019225540A JP7132206B2 JP 7132206 B2 JP7132206 B2 JP 7132206B2 JP 2019225540 A JP2019225540 A JP 2019225540A JP 2019225540 A JP2019225540 A JP 2019225540A JP 7132206 B2 JP7132206 B2 JP 7132206B2
Authority
JP
Japan
Prior art keywords
action
variables
information
executing
guidance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019225540A
Other languages
Japanese (ja)
Other versions
JP2021096293A (en
Inventor
秀樹 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2019225540A priority Critical patent/JP7132206B2/en
Publication of JP2021096293A publication Critical patent/JP2021096293A/en
Application granted granted Critical
Publication of JP7132206B2 publication Critical patent/JP7132206B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、案内システム等に関する。 The present disclosure relates to guidance systems and the like.

電話による問合せの際に、音声ガイダンスによってユーザに番号を指定して電話の番号ボタンを操作させる問合せシステムが存在する。また、駅や銀行において、ユーザに反応して、音声により情報を提供する会話ロボットが存在する。 There is an inquiry system that allows a user to designate a number by voice guidance and operate number buttons on the telephone when making an inquiry by telephone. In addition, there are conversational robots in stations and banks that provide information by voice in response to users.

特許文献1には、ユーザとの対話を行う対話インタフェースを提供する対話システムが開示されており、ユーザの発話内容を特定し、ユーザの発話内容に対してシステムの出力する発話内容を選択することが記載されている。 Patent Literature 1 discloses a dialogue system that provides a dialogue interface for dialogue with a user. is described.

特許文献2には、機械と人間の対話方法が開示されており、ロボットは、対話を通じて話者のプロファイルを充実させ、更新された話者のプロファイルを用いて応答文を生成することが記載されている。 Patent Literature 2 discloses a dialogue method between a machine and a human, and describes that the robot enriches the speaker's profile through dialogue and generates a response sentence using the updated speaker's profile. ing.

特開2018-205616号公報JP 2018-205616 A 特表2016-536630号公報Japanese Patent Application Publication No. 2016-536630

音声ガイダンスを利用した問合せシステムでは、システムのシーケンスに従う必要があるから、ユーザは音声ガイダンスをよく聞いて、問合せ事項を特定する要素をシステムに入力する必要がある。したがって、問合せ事項の特定はシステム主体となる。さらに、ユーザはシステムのシーケンスにひとつずつ従っていると、問合せ事項の特定に時間がかかる。 In an inquiry system using voice guidance, since it is necessary to follow the sequence of the system, the user needs to listen carefully to the voice guidance and input the elements specifying the query into the system. Therefore, the specification of inquiry items is system-driven. Furthermore, it takes a long time for the user to identify the query if the user follows the system's sequence step by step.

特許文献1および2の開示では、システムとユーザの対話において、ユーザの発話内容はシステムの質問内容に捕らわれるから、対話はシステム主体となる。 In the disclosures of Patent Literatures 1 and 2, in the interaction between the system and the user, the content of the user's utterance is captured by the question content of the system, so the interaction is system-driven.

本開示は、システムによる案内サービスを受けるときに、ユーザ主体の問合せの発話を可能にする。 The present disclosure enables user-based query utterances when receiving guidance services by the system.

本開示に係る案内システムは、アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を記憶する記憶手段と、音声から認識した単語が関係する前記変数を推定する推定手段と、前記アクション情報を参照し、前記変数の値として、前記認識した単語を設定する設定手段と、前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する実行手段と、を有する。 A guidance system according to the present disclosure includes storage means for storing action information that defines the correspondence between an action and a plurality of variables necessary for executing the action, and estimation means for estimating the variables related to words recognized from voice. setting means for referring to the action information and setting the recognized words as the values of the variables; and an execution means for executing.

本開示に係る案内システムの制御方法は、音声から認識した単語が関係する変数を推定し、アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し、前記アクションの実行に必要な変数の値として、前記認識した単語を設定し、前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する。 A guidance system control method according to the present disclosure estimates variables related to words recognized from voice, refers to action information that defines a correspondence relationship between an action and a plurality of variables necessary for executing the action, The recognized word is set as the value of a variable necessary for execution of the above, and when the values of the plurality of necessary variables are set, the action is executed based on the set word.

本開示に係る案内プログラムは、音声から認識した単語が関係する変数を推定する推定処理と、アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し、前記アクションの実行に必要な変数の値として、前記認識した単語を設定する設定処理と、前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する実行処理と、をコンピュータに実行させる。 A guidance program according to the present disclosure refers to an estimation process for estimating variables related to words recognized from speech, and action information that defines a correspondence relationship between an action and a plurality of variables necessary for executing the action, setting processing for setting the recognized word as a value of a variable necessary for execution of; and execution processing for executing the action based on the set word when the values of the plurality of necessary variables are set. , is executed by the computer.

本開示によれば、システムによる案内サービスを受けるときに、ユーザ主体の問合せの発話を可能にする。 According to the present disclosure, it is possible for a user to utter an inquiry when receiving a guidance service provided by the system.

第1実施形態における情報処理システムのハードウエア構成例を概念的に示す図である。1 is a diagram conceptually showing a hardware configuration example of an information processing system according to a first embodiment; FIG. 第1実施形態に係る案内システム100の構成を例示するブロック図である。1 is a block diagram illustrating the configuration of a guidance system 100 according to a first embodiment; FIG. アクション情報の例を示す図である。It is a figure which shows the example of action information. 第1実施形態における案内システム100の動作例を示すフローチャートである。4 is a flowchart showing an operation example of the guidance system 100 in the first embodiment; 変数「乗車駅」の値が設定された第1設定情報の例を示す図である。It is a figure which shows the example of the 1st setting information with which the value of the variable "boarding station" is set. 変数「乗車駅」と「降車駅」の値が設定された第1設定情報の例を示す図である。FIG. 10 is a diagram showing an example of first setting information in which values of variables “boarding station” and “departing station” are set; 変数「乗車駅」、「降車駅」、「日時」の値が設定された第1設定情報の例を示す図である。FIG. 10 is a diagram showing an example of first setting information in which values of variables “boarding station”, “departing station”, and “date and time” are set; 第2実施形態に係る案内システム200の構成を例示するブロック図である。It is a block diagram which illustrates the structure of the guidance system 200 which concerns on 2nd Embodiment. 第2実施形態における案内システム200の動作例を示すフローチャートである。9 is a flow chart showing an operation example of the guidance system 200 in the second embodiment; 第2設定情報の例を示す図である。FIG. 10 is a diagram showing an example of second setting information; アクションの選択の例を示す図である。FIG. 10 is a diagram showing an example of action selection; 第2設定情報の例を示す図である。FIG. 10 is a diagram showing an example of second setting information; アクションの選択の例を示す図である。FIG. 10 is a diagram showing an example of action selection; 第3実施形態に係る案内システム300の構成を例示するブロック図である。FIG. 11 is a block diagram illustrating the configuration of a guidance system 300 according to a third embodiment; FIG. 第3実施形態における案内システム300の動作例を示すフローチャートである。It is a flow chart which shows an example of operation of guidance system 300 in a 3rd embodiment. 第3実施形態における案内システム300の動作例を示すフローチャートである。It is a flow chart which shows an example of operation of guidance system 300 in a 3rd embodiment. 質問情報の例を示す図である。It is a figure which shows the example of question information. 第1~3実施形態における案内システム100~300の他のハードウエア構成例を概念的に示す図である。3 is a diagram conceptually showing another hardware configuration example of the guidance systems 100 to 300 in the first to third embodiments; FIG.

以下、本開示の実施形態について図面を参照しながら説明する。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.

[第1実施形態]
〔ハードウエア構成〕
図1は、第1実施形態における案内システムと周辺機器を含む情報処理システムのハードウエア構成例を概念的に示す図である。第1実施形態における案内システムは、例えば、コンピュータ90によって構成される。コンピュータ90は、CPU(Central Processing Unit)91、メモリ92を有する。コンピュータ90には、音声認識装置60、マイク70、出力装置80が接続される。これら各ハードウエア要素は、例えば、バス等により接続される。メモリ92は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)等である。
[First embodiment]
[Hardware configuration]
FIG. 1 is a diagram conceptually showing a hardware configuration example of an information processing system including a guidance system and peripheral devices according to the first embodiment. The guidance system in the first embodiment is configured by a computer 90, for example. The computer 90 has a CPU (Central Processing Unit) 91 and a memory 92 . A speech recognition device 60 , a microphone 70 and an output device 80 are connected to the computer 90 . These hardware elements are connected by, for example, a bus. The memory 92 is a RAM (Random Access Memory), a ROM (Read Only Memory), an auxiliary storage device (such as a hard disk), or the like.

マイク70は、ユーザの音声を取得して音声認識装置60に音声データを送信する。音声認識装置60は、マイク70から入力された音声データを音声認識してテキストに変換し、当該テキストをコンピュータ90に送信する。出力装置80は、例えばスピーカーやディスプレイであり、ユーザに対し検索結果を提供する。なお、出力装置80は、スピーカー、ディスプレイに限られない。 The microphone 70 acquires the user's voice and transmits voice data to the voice recognition device 60 . The speech recognition device 60 speech-recognizes speech data input from the microphone 70 , converts it into text, and transmits the text to the computer 90 . The output device 80 is, for example, a speaker or display, and provides search results to the user. Note that the output device 80 is not limited to speakers and displays.

〔処理構成〕
図2は、コンピュータ90によって構成される、第1実施形態に係る案内システム100の機能的構成を例示するブロック図である。案内システム100はユーザの問合せに応じてアクションを実行し、種々の情報をユーザに提供する。案内システム100が実行するアクションは、情報の検索であり、例えば、ユーザが手ごろな日本料理店を知りたい場合、案内システム100はアクションとして、所定の価格帯の日本料理店に関する情報を検索する。
[Processing configuration]
FIG. 2 is a block diagram illustrating the functional configuration of the guidance system 100 according to the first embodiment, configured by the computer 90. As shown in FIG. The guidance system 100 performs actions in response to user inquiries and provides various information to the user. An action performed by the guidance system 100 is a search for information. For example, when the user wants to find a reasonably priced Japanese restaurant, the guidance system 100 searches for information on Japanese restaurants in a predetermined price range as an action.

案内システム100は、記憶部111、推定部112、設定部113、実行部114を有する。推定部112、設定部113、実行部114は、例えばCPU91がメモリ92に格納されるプログラムを実行することによりソフトウェア要素として実現される。記憶部111は例えばメモリ92である。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワークを介して他のコンピュータからインストールされ、メモリ92に格納されてもよい。また、案内システム100は、図2に示されていない他の機能を実行するソフトウェア要素を有してもよい。 Guidance system 100 has storage unit 111 , estimation unit 112 , setting unit 113 , and execution unit 114 . The estimation unit 112, the setting unit 113, and the execution unit 114 are realized as software elements by executing a program stored in the memory 92 by the CPU 91, for example. The storage unit 111 is the memory 92, for example. Also, the program may be installed from another computer via a portable recording medium such as a CD (Compact Disc), a memory card, or the like, or via a network, and stored in the memory 92 . Guidance system 100 may also have software elements that perform other functions not shown in FIG.

記憶部111は、アクションとアクションの実行に必要な複数の変数との対応関係を定めるアクション情報を記憶する。図3は、第1実施形態において記憶部111が記憶するアクション情報の例を示す図である。図3において、記憶部111は、例えばアクション「列車検索」に必要な、3つの変数「乗車駅」「降車駅」「日時」を記憶する。なお、アクションに必要となる変数の数は2つでもよく、3つより多くてもよい。 The storage unit 111 stores action information that defines a correspondence relationship between an action and a plurality of variables necessary for executing the action. FIG. 3 is a diagram showing an example of action information stored in the storage unit 111 in the first embodiment. In FIG. 3, the storage unit 111 stores three variables "boarding station", "departing station", and "date and time" necessary for the action "train search", for example. Note that the number of variables required for an action may be two, or may be more than three.

推定部112は、ユーザの音声データから音声認識した単語をテキストとして受け付け、単語が関係する変数を推定する。音声認識は、既存の技術を用いて音声データをテキストに変換する。推定部112は、既存の技術を用いて、例えば文章構造から変数を推定してもよい。推定部112は、文章構造や単語と変数との関係を記憶するデータベースを参照して、単語と関係する変数を推定してもよい。推定部112は、抜き出した単語が関係する変数の推定に機械学習を用いてもよい。推定部112はテキスト含意認識技術を用いて、文の意味を捉えてもよい。 The estimating unit 112 receives words that are speech-recognized from the user's voice data as text, and estimates variables related to the words. Speech recognition uses existing technology to convert speech data into text. The estimating unit 112 may use an existing technique to estimate variables from, for example, sentence structure. The estimation unit 112 may estimate variables related to words by referring to a database that stores sentence structures and relationships between words and variables. The estimation unit 112 may use machine learning to estimate variables related to the extracted words. The estimator 112 may use textual entailment recognition techniques to capture the meaning of the sentence.

設定部113は、記憶されたアクション情報を参照し、アクションの実行に必要な変数の値として、音声認識した単語を設定する。設定部113は、認識された単語と同じ意味を持つ別の単語をデータベースから検索して設定してもよい。実行部114は、必要な複数の変数の値が設定されると、設定された単語に基づいてアクションを実行する。案内システム100が実行するアクションの例は次に説明する。 The setting unit 113 refers to the stored action information and sets a word recognized by speech as the value of the variable necessary for executing the action. The setting unit 113 may search a database for another word having the same meaning as the recognized word and set it. When values of a plurality of necessary variables are set, the execution unit 114 executes actions based on the set words. Examples of actions performed by the guidance system 100 are described below.

〔動作例〕
以下、第1実施形態における案内システム100の制御方法について、図4を用いて説明する。図4は、第1実施形態における案内システム100の動作例を示すフローチャートである。以下において、ユーザがアクションの実行に必要な変数を、一文で発話した例について説明する。
[Example of operation]
A method of controlling the guidance system 100 according to the first embodiment will be described below with reference to FIG. FIG. 4 is a flow chart showing an operation example of the guidance system 100 in the first embodiment. In the following, an example in which the user utters variables necessary for executing an action in one sentence will be described.

ユーザが「5日9時に新大阪から東京まで行く。」と発声すると、音声認識装置60は、マイク70を介してユーザの音声データを取得する。音声認識装置60は、マイク70から取得した音声データを音声認識処理によってテキストに変換し、当該テキストを案内システム100に送信する。 When the user utters, “I will go from Shin-Osaka to Tokyo at 9:00 on the 5th,” the speech recognition device 60 acquires the user's speech data via the microphone 70 . The voice recognition device 60 converts voice data acquired from the microphone 70 into text by voice recognition processing, and transmits the text to the guidance system 100 .

推定部112は、音声から認識した単語が関係する変数を推定する(ステップS11)。例えば、推定部112は、テキストに変換された音声から認識した単語「新大阪」が、変数「乗車駅」に関係することを、テキスト含意認識技術を用いて推定する。同様に、推定部112は、単語「東京」が変数「降車駅」に関係し、「5日9時」が変数「日時」に関係することを推定する。 The estimation unit 112 estimates variables related to the words recognized from the speech (step S11). For example, the estimation unit 112 estimates that the word "Shin-Osaka" recognized from the speech converted into text is related to the variable "boarding station" using the textual entailment recognition technology. Similarly, the estimation unit 112 estimates that the word "Tokyo" is related to the variable "departure station", and that "5th 9 o'clock" is related to the variable "date and time".

設定部113は、記憶部111が記憶するアクションとアクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し(ステップS12)、アクションの実行に必要な変数の値として、認識した単語を設定する(ステップS13)。 The setting unit 113 refers to the action information stored in the storage unit 111 that defines the correspondence between the action and a plurality of variables necessary for executing the action (step S12), and recognizes the values of the variables necessary for executing the action. The word that has been written is set (step S13).

例えば、設定部113は、図3に示すアクション情報を参照し(ステップS12)、推定した変数「乗車駅」を要するアクションである、アクション「列車検索」および「天気予報1」を選択する。設定部113は、選択されたアクションの実行に必要な変数の値を設定する第1設定情報を生成する。図5Aは、変数「乗車駅」の値が設定された第1設定情報の例を示す図である。設定部113は、図5Aに示すように、変数「乗車駅」の値として、認識した単語「新大阪」を設定する(ステップS13)。 For example, the setting unit 113 refers to the action information shown in FIG. 3 (step S12), and selects actions "train search" and "weather forecast 1", which are actions requiring the estimated variable "departure station". The setting unit 113 generates first setting information for setting values of variables necessary for executing the selected action. FIG. 5A is a diagram showing an example of the first setting information in which the value of the variable "boarding station" is set. As shown in FIG. 5A, the setting unit 113 sets the recognized word "Shin-Osaka" as the value of the variable "departure station" (step S13).

次に、実行部114は、設定部113が選択したアクションが必要とする変数の値が設定済みであるか判定する(ステップS14)。実行部114は、アクションが必要とする変数の値が設定されていないと判定すると(ステップS14;No)、案内システム100は、他の推定された変数でステップS12からステップS14を繰り返す。 Next, the execution unit 114 determines whether the values of the variables required by the action selected by the setting unit 113 have been set (step S14). When the execution unit 114 determines that the value of the variable required by the action has not been set (step S14; No), the guidance system 100 repeats steps S12 to S14 using another estimated variable.

例えば、実行部114は、図5Aの第1設定情報より、アクション「列車検索」に必要な変数「降車駅」および「日時」の値が設定されていないことを判定する(ステップS14;No)と、設定部113は、前述のステップS12と同様に、アクション情報を参照(ステップS12)し、他の推定した変数「降車駅」を要するアクション「列車検索」、「天気予報2」を選択する。 For example, the execution unit 114 determines from the first setting information in FIG. 5A that the values of the variables "departure station" and "date and time" necessary for the action "train search" are not set (step S14; No). Then, the setting unit 113 refers to the action information (step S12) in the same manner as in step S12 described above, and selects actions "train search" and "weather forecast 2" that require another estimated variable "departure station". .

設定部113は、変数「降車駅」の値が設定された第1設定情報を生成する。さらに、設定部113は、先に生成した変数「乗車駅」の第1設定情報に加え、変数「降車駅」の第1設定情報をマージして変数「乗車駅」と変数「降車駅」の値を設定する第1設定情報を生成する。図5Bは、変数「乗車駅」、変数「降車駅」の値が設定された第1設定情報の例を示す図である。図5Bに示すように、設定部113は、変数「乗車駅」の値として「新大阪」を設定し、変数「降車駅」の値として「東京」を設定する(ステップS13)。 The setting unit 113 generates first setting information in which the value of the variable “getting off station” is set. Furthermore, the setting unit 113 merges the first setting information of the variable “departure station” with the first setting information of the variable “departure station” generated earlier to create the variable “departure station” and the variable “departure station”. Generate first setting information for setting a value. FIG. 5B is a diagram showing an example of the first setting information in which the values of the variable "departure station" and the variable "departure station" are set. As shown in FIG. 5B, the setting unit 113 sets "Shin-Osaka" as the value of the variable "departure station" and "Tokyo" as the value of the variable "departure station" (step S13).

実行部114は、図5Bに示す第1設定情報より、アクション「列車検索」、「天気予報1」、「天気予報2」に対して変数「日時」の値が設定されていないことを判定する(ステップS14;No)と、案内システム100は、他の推定された変数でステップS12からステップS14を繰り返す。 The execution unit 114 determines from the first setting information shown in FIG. 5B that the value of the variable "date and time" is not set for the actions "train search", "weather forecast 1", and "weather forecast 2". (Step S14; No), the guidance system 100 repeats steps S12 to S14 with other estimated variables.

設定部113は、前述のステップS12と同様に、アクション情報を参照(ステップS12)し、他の推定した変数「日時」を要するアクション「列車検索」、「天気予報1」、「天気予報2」を選択する。 The setting unit 113 refers to the action information (step S12) in the same manner as in step S12 described above, and performs actions "train search", "weather forecast 1", and "weather forecast 2" that require other estimated variables "date and time". to select.

設定部113は、変数「日時」の値が設定された第1設定情報を生成する。さらに、設定部113は、先に生成した変数「乗車駅」と変数「降車駅」の第1設定情報に加え、変数「日時」の第1設定情報をマージして変数「乗車駅」、「降車駅」、「日時」の値を設定する第1設定情報を生成する。図5Cは、変数「乗車駅」、「降車駅」、「日時」の値が設定された第1設定情報の例を示す図である。図5Cに示すように、設定部113は、変数「乗車駅」、「降車駅」、「日時」の値として、それぞれ「新大阪」、「東京」、「5日9時」を設定する。 The setting unit 113 generates first setting information in which the value of the variable “date and time” is set. Furthermore, the setting unit 113 merges the first setting information of the variable “date and time” in addition to the first setting information of the variable “departure station” and the variable “departure station” generated earlier, and merges the variables “departure station”, “ First setting information for setting the values of "getting off station" and "date and time" is generated. FIG. 5C is a diagram showing an example of the first setting information in which the values of the variables "departure station", "departure station", and "date and time" are set. As shown in FIG. 5C , the setting unit 113 sets “Shin-Osaka”, “Tokyo”, and “9:00 on the 5th” as the values of the variables “boarding station”, “departing station”, and “date and time”, respectively.

実行部114は、アクションに必要な複数の変数の値が設定されたことを判定すると(ステップS14;Yes)、設定された単語に基づいてアクションを実行する(ステップS15)。例えば、実行部114は、アクション「列車検索」の変数の値がコンプリートされたことを判定し、単語「新大阪」、「東京」、「5日9時」に基づきアクション「列車検索」を実行し、列車に関する情報を検索する。案内システム100は、列車に関する情報を出力装置80に送信し、出力装置80は列車の発車時刻や運賃などの情報を提供する。出力装置80はユーザが乗車する列車の切符の購入画面を表示してもよい。 When the execution unit 114 determines that values of a plurality of variables necessary for the action have been set (step S14; Yes), the action is executed based on the set words (step S15). For example, the execution unit 114 determines that the value of the variable for the action "search for train" is complete, and executes the action "search for train" based on the words "Shin-Osaka", "Tokyo", and "9 o'clock on the 5th". to search for information about trains. The guidance system 100 transmits information about the train to the output device 80, and the output device 80 provides information such as train departure times and fares. The output device 80 may display a ticket purchase screen for a train on which the user rides.

同様に、実行部114は、アクションに必要な変数が設定された「天気予報1」および「天気予報2」を実行する(ステップS14、ステップS15)。実行部114が実行するアクション「天気予報1」は、例えば乗車駅における天気の情報の検索であり、アクション「天気予報2」は、例えば降車駅における天気の情報の検索である。出力装置80は検索された天気の情報を提供する。 Similarly, the execution unit 114 executes "weather forecast 1" and "weather forecast 2" in which variables necessary for actions are set (steps S14 and S15). The action "weather forecast 1" executed by the execution unit 114 is, for example, searching for weather information at the boarding station, and the action "weather forecast 2" is, for example, searching for weather information at the disembarking station. The output device 80 provides the retrieved weather information.

なお、記憶部111は、アクションに必要となる変数の数が1つであるアクションを記憶してもよい。例えば図3において、記憶部111はアクション「挨拶発話」に必要な変数「挨拶」を記憶している。ユーザが「こんにちは」と発声すると、変数「挨拶」に値「こんにちは」が設定され、実行部114は「挨拶発話」を実行する。実行部114は音声「こんにちは」を出力装置80であるスピーカーから出力するよう指示してもよい。 Note that the storage unit 111 may store an action in which the number of variables required for the action is one. For example, in FIG. 3, the storage unit 111 stores the variable "greeting" required for the action "greeting utterance". When the user utters "hello", the variable "greeting" is set to the value "hello", and the execution unit 114 executes the "greeting utterance". The execution unit 114 may instruct to output the voice “Hello” from the speaker, which is the output device 80 .

〔第1実施形態の効果〕
第1実施形態では、システムによる案内サービスを受けるときに、ユーザ主体の問合せの発話を可能にする。その理由は、案内システム100が、複数の変数を必要とするアクションについて、音声から認識した単語が関係する変数を推定し、変数に値を設定し、複数の変数の値が設定されるとアクションを実行するからである。
[Effect of the first embodiment]
In the first embodiment, when receiving guidance service by the system, it is possible for the user to utter an inquiry. The reason for this is that, for an action that requires multiple variables, the guidance system 100 estimates variables related to words recognized from speech, sets values to the variables, and sets values for the multiple variables. because it executes

[第2実施形態]
〔処理構成〕
図6は、第2実施形態に係る案内システム200の構成を例示するブロック図である。案内システム200は、記憶部211、推定部212、設定部213、実行部214、音声認識部220、音声合成部221を有する。第2実施形態に係る案内システム200のハードウエア構成は、第1実施形態において説明した図1のコンピュータ90と同様であってもよい。推定部212、設定部213、実行部214、音声認識部220および音声合成部221は、例えばCPU91がメモリ92に格納されるプログラムを実行することによりソフトウェア要素として実現される。
[Second embodiment]
[Processing configuration]
FIG. 6 is a block diagram illustrating the configuration of a guidance system 200 according to the second embodiment. Guidance system 200 has storage unit 211 , estimation unit 212 , setting unit 213 , execution unit 214 , speech recognition unit 220 and speech synthesis unit 221 . The hardware configuration of the guidance system 200 according to the second embodiment may be the same as the computer 90 of FIG. 1 described in the first embodiment. The estimation unit 212, the setting unit 213, the execution unit 214, the speech recognition unit 220, and the speech synthesis unit 221 are implemented as software elements by the CPU 91 executing a program stored in the memory 92, for example.

記憶部211、推定部212、設定部213、実行部214は、第1実施形態における記憶部111、推定部112、設定部113、実行部114と同様の機能を有し、さらに他の機能も有する。案内システム200の具体的な動作については後述する。 The storage unit 211, the estimation unit 212, the setting unit 213, and the execution unit 214 have the same functions as the storage unit 111, the estimation unit 112, the setting unit 113, and the execution unit 114 in the first embodiment, and also have other functions. have. A specific operation of the guidance system 200 will be described later.

音声認識部220は、マイクを介して入力されたユーザの音声データをテキストに変換する。音声合成部221は、ユーザに情報を提供するために、音声を合成する。例えば、音声合成部221は、実行部214がアクションとして検索した結果を音声合成する。 The speech recognition unit 220 converts the user's speech data input via the microphone into text. The speech synthesizing unit 221 synthesizes speech to provide information to the user. For example, the speech synthesizing unit 221 speech-synthesizes the result of the action searched by the execution unit 214 .

第2実施形態の案内システム200は、音声認識部220および音声合成部221を案内システム200に内装した例で説明するが、これに限られない。音声認識部220および音声合成部221の少なくとも一方が外部装置として案内システム200に接続された構成でもよい。 The guidance system 200 of the second embodiment will be described with an example in which the speech recognition unit 220 and the speech synthesis unit 221 are built into the guidance system 200, but the present invention is not limited to this. At least one of the speech recognition unit 220 and the speech synthesis unit 221 may be connected to the guidance system 200 as an external device.

推定部212は、音声認識部220からユーザの音声データが変換されたテキストを受け付け、テキストに含まれる単語が関係する変数を推定する。設定部213は、記憶されたアクション情報を参照し、アクションの実行に必要な変数の値として、ユーザの音声を認識した単語を設定する。また設定部213は以下の機能を有する。 The estimating unit 212 receives the text obtained by converting the user's voice data from the speech recognizing unit 220, and estimates variables related to the words included in the text. The setting unit 213 refers to the stored action information, and sets words obtained by recognizing the user's voice as values of variables necessary for executing the action. Also, the setting unit 213 has the following functions.

設定部213は、アクションの実行に必要な変数の値を設定する第2設定情報を生成する。第1実施形態の第1設定情報が、選択されたアクションの実行に必要な変数の値を設定する設定情報である。これに対し、第2実施形態の第2設定情報はアクションの実行に必要な変数の値を設定する設定情報ではあるが、第2設定情報には変数に対応づけられるアクションは含まれていない。 The setting unit 213 generates second setting information for setting values of variables necessary for executing actions. The first setting information in the first embodiment is setting information for setting the values of variables necessary for executing the selected action. On the other hand, although the second setting information of the second embodiment is setting information for setting the values of variables necessary for executing actions, the second setting information does not include actions associated with variables.

次に設定部213は、推定部212が推定した変数の値は設定済みであるか判定する。すなわち、設定部213は推定した変数のうち、値を設定していない変数(以下、未設定変数と記す)が存在するか判定する。未設定変数が存在する場合、設定部213は、第2設定情報に変数の値を設定する。 Next, the setting unit 213 determines whether the value of the variable estimated by the estimation unit 212 has been set. That is, the setting unit 213 determines whether or not there is a variable for which a value is not set (hereinafter referred to as an unset variable) among the estimated variables. If there is an unset variable, the setting unit 213 sets the value of the variable in the second setting information.

設定部213は、第2設定情報の変数に値が設定されると、第2設定情報に含まれる値が設定された変数が、アクション情報に含まれるアクションの実行に必要な変数に該当するかを確認する。該当する場合、設定部213は、第2設定情報の変数を含むアクションを選択する。なお、該当するアクションが複数ある場合、設定部213は、該当するアクションがアクション情報に残っているか確認する。 When a value is set to the variable of the second setting information, the setting unit 213 determines whether the variable set with the value included in the second setting information corresponds to the variable necessary for executing the action included in the action information. to confirm. If applicable, the setting unit 213 selects an action including the variable of the second setting information. Note that if there are a plurality of applicable actions, the setting unit 213 checks whether the applicable action remains in the action information.

実行部214は、アクションの実行に必要な複数の変数の値が設定されると、設定された単語に基づいてアクションを実行する。また実行部214は以下の機能を有する。 When the values of a plurality of variables required for action execution are set, the execution unit 214 executes the action based on the set words. Also, the execution unit 214 has the following functions.

実行部214は、設定部213が選択したアクションに対して、図3に示すアクション情報を参照し、アクションの実行に必要な変数の値が第2設定情報に設定済みであるか判定する。実行部214は、第2設定情報に設定済みであればアクションを実行する。実行部214は、アクションを実行した結果を音声合成部221に出力する。 The execution unit 214 refers to the action information shown in FIG. 3 for the action selected by the setting unit 213, and determines whether the values of the variables necessary for executing the action have already been set in the second setting information. The execution unit 214 executes the action if it has been set in the second setting information. The executing unit 214 outputs the result of executing the action to the speech synthesizing unit 221 .

また、実行部214は、設定部213が選択したアクションが複数ある場合、実行されていないアクションがあるか確認する。実行部214は、残っているアクションに対して、図3に示すアクション情報を参照し、アクションの実行に必要な変数の値が第2設定情報に設定済みであるか判定する。実行部214は、第2設定情報に設定済みであればアクションを実行する。 Also, when there are a plurality of actions selected by the setting unit 213, the execution unit 214 confirms whether there is an action that has not been executed. The execution unit 214 refers to the action information shown in FIG. 3 for the remaining actions, and determines whether the values of the variables necessary for executing the actions have already been set in the second setting information. The execution unit 214 executes the action if it has been set in the second setting information.

〔動作例〕
以下、第2実施形態における案内システム200の制御方法について、図7を用いて説明する。図7は、第2実施形態における案内システム200の動作例を示すフローチャートである。
[Example of operation]
A method of controlling the guidance system 200 according to the second embodiment will be described below with reference to FIG. FIG. 7 is a flow chart showing an operation example of the guidance system 200 in the second embodiment.

以下において、ユーザが二回に分けて、アクションの実行に必要な変数を含む発話する場合の例について説明する。また、第1実施形態における動作例では、設定部113は認識した単語を一つずつ設定する例について説明したが、以下の例において、設定部213は、認識した単語を一度に複数設定する場合について説明する。 In the following, an example in which the user makes two utterances containing variables necessary for executing an action will be described. In addition, in the operation example of the first embodiment, an example in which the setting unit 113 sets the recognized words one by one has been described. will be explained.

ユーザが例えば「新大阪から新幹線で東京まで行く。」と発声すると、音声認識部220は、マイクを介してユーザの音声データを取得する(ステップS21)。音声認識部220は、取得した音声データをテキストに変換する(ステップS22)。推定部212は、テキストから単語「新大阪」と「新幹線」と「東京」を抜き出し、記憶部211に記憶された図3に示すアクション情報を参照して、これらの単語が関係する変数が「乗車駅」と「降車駅」であると推定する(ステップS23)。 When the user utters, for example, "From Shin-Osaka to Tokyo by Shinkansen," the voice recognition unit 220 acquires voice data of the user through the microphone (step S21). The speech recognition unit 220 converts the acquired speech data into text (step S22). The estimation unit 212 extracts the words “Shin-Osaka”, “Shinkansen”, and “Tokyo” from the text, refers to the action information shown in FIG. It is estimated that it is "boarding station" and "getting off station" (step S23).

設定部213は、推定部212が推定した変数のうち、未設定変数が存在するか判定する。ステップS23において、推定部212は変数「乗車駅」と「降車駅」を推定しており、設定部213はまだこれらの値を設定した設定情報を生成していない。したがって設定部213は推定した変数の値は設定済みでないことを判定する(ステップS24;No)。設定部213は、アクションの実行に必要な変数の値を設定する第2設定情報において、変数「乗車駅」に値「新大阪」を設定し、変数「降車駅」に値「東京」を設定する(ステップS25)。例えば、設定部213は図8Aに示す第2設定情報を生成することで、値を設定する。 The setting unit 213 determines whether there is an unset variable among the variables estimated by the estimation unit 212 . In step S23, the estimating unit 212 has estimated the variables "boarding station" and "departing station", and the setting unit 213 has not yet generated setting information in which these values are set. Therefore, the setting unit 213 determines that the estimated value of the variable has not been set (step S24; No). The setting unit 213 sets the value “Shin-Osaka” to the variable “departure station” and the value “Tokyo” to the variable “departure station” in the second setting information for setting the values of the variables necessary for executing the action. (step S25). For example, the setting unit 213 sets the value by generating the second setting information shown in FIG. 8A.

設定部213は、図3に示すアクション情報を参照し、変数「乗車駅」または変数「降車駅」を含む、アクション「列車検索」と「天気予報1」と「天気予報2」を選択する(ステップS26)。例えば、設定部213は図8Bに示す態様でアクションを選択してもよい。 The setting unit 213 refers to the action information shown in FIG. 3, and selects the actions "train search", "weather forecast 1", and "weather forecast 2" including the variable "departure station" or the variable "departure station" ( step S26). For example, the setting unit 213 may select actions in the manner shown in FIG. 8B.

実行部214は、アクションの実行に必要な変数の値は設定されたかを判定する(ステップS27)。例えば、実行部214は、アクション情報と第2設定情報より、アクション「列車検索」が要求する変数「乗車駅」と「降車駅」以外の他の変数として変数「日時」の値が設定されていないことを判定する(ステップS27;No)。 The execution unit 214 determines whether the values of the variables necessary for executing the action have been set (step S27). For example, the execution unit 214 determines from the action information and the second setting information that the value of the variable "date and time" is set as a variable other than the variables "departure station" and "departure station" required by the action "train search". It is determined that there is none (step S27; No).

図8Aに示す第2設定情報ではアクション「列車検索」を実行できないため、実行部214は、アクション情報を参照し、変数「乗車駅」と「降車駅」を含む実行されていないアクションが残っているか確認する(ステップS29)。実行部214はアクション「天気予報1」と「天気予報2」が存在することを確認する(ステップS29;Yes)。実行部214は、アクション「天気予報1」の必要とする変数が全て設定されているか確認し(ステップS27)、変数「日時」の値が設定されていないことを判定する(ステップS27;No)。 Since the action "train search" cannot be executed with the second setting information shown in FIG. It is confirmed whether there is (step S29). The execution unit 214 confirms that the actions "weather forecast 1" and "weather forecast 2" exist (step S29; Yes). The execution unit 214 checks whether all the variables required by the action "weather forecast 1" have been set (step S27), and determines that the value of the variable "date and time" has not been set (step S27; No). .

実行部214はアクション「天気予報2」についても、アクション「天気予報1」と同様に、ステップS27の判定を行う。実行部214は、再度アクション情報を参照し、変数「乗車駅」を含む実行されていないアクションが残っているか確認し(ステップS29)、他にアクションがないことを確認する(ステップS29;No)。 The execution unit 214 performs the determination in step S27 for the action "weather forecast 2" as well as for the action "weather forecast 1". The execution unit 214 refers to the action information again to check whether there is any unexecuted action including the variable "departure station" (step S29), and confirms that there is no other action (step S29; No). .

設定部213は、推定部212が推定した変数のうち、未設定変数が存在するか判定する。設定部213は変数「乗車駅」と「降車駅」の値を設定した第2設定情報を生成済みである。したがって設定部213は推定した変数の値は設定済みであることを判定する(ステップS24;Yes)。 The setting unit 213 determines whether there is an unset variable among the variables estimated by the estimation unit 212 . The setting unit 213 has already generated the second setting information in which the values of the variables “departure station” and “departure station” are set. Therefore, the setting unit 213 determines that the estimated value of the variable has been set (step S24; Yes).

ここで、音声認識部220が、新たに音声「週末の5日の朝9時に出掛ける」の音声データを取得する(ステップS21)。音声認識部220は音声データをテキスト変換する(ステップS22)。推定部212は、「5日」「朝9時」が変数「日時」に関係すると推定する(ステップS23)。設定部213は、新たに推定された変数「日時」の値は第2設定情報に設定されていないことを判定し(ステップS24;No)、値「5日9時」を設定する(ステップS25)。例えば、設定部213は図8Aの第2設定情報を更新し、図8Cに示す第2設定情報を生成することで、値を設定する。 Here, the speech recognition unit 220 newly acquires the speech data of the speech “I will go out at 9:00 on the 5th of the weekend” (step S21). The speech recognition unit 220 converts the speech data into text (step S22). The estimation unit 212 estimates that "5th" and "9 o'clock in the morning" are related to the variable "date and time" (step S23). The setting unit 213 determines that the value of the newly estimated variable “date and time” is not set in the second setting information (step S24; No), and sets the value to “9 o’clock on the 5th” (step S25). ). For example, the setting unit 213 sets values by updating the second setting information in FIG. 8A and generating the second setting information shown in FIG. 8C.

設定部213は、アクション「列車検索」と「天気予報1」と「天気予報2」を選択する(ステップS26)。例えば、設定部213は図8Dに示す態様でアクションを選択してもよい。変数「日時」を含み、変数「乗車駅」「降車駅」を含まないアクションは、図3に示したアクション情報の例には存在しない。したがって、図8Dと図8Bを比較すると、設定部213が選択するアクションに変化はない。 The setting unit 213 selects the action "train search", "weather forecast 1", and "weather forecast 2" (step S26). For example, the setting unit 213 may select actions in the manner shown in FIG. 8D. Actions that include the variable "date and time" but do not include the variables "departure station" and "departure station" do not exist in the example of action information shown in FIG. Therefore, when comparing FIG. 8D and FIG. 8B, there is no change in actions selected by the setting unit 213 .

実行部214は、「列車検索」に必要な変数の値が充足していることを判定し(ステップS27;Yes)、アクション「列車検索」を実行する(ステップS28)。実行部214は、列車検索の結果を音声合成部221に送信し、音声合成部221は、例えば検索結果に関する「9時6分のぞみ4号があります」の音声を合成する。 The execution unit 214 determines that the values of the variables required for "train search" are sufficient (step S27; Yes), and executes the action "train search" (step S28). The executing unit 214 transmits the result of the train search to the speech synthesizing unit 221, and the speech synthesizing unit 221 synthesizes the speech of, for example, "There is Nozomi No. 4 at 9:06" regarding the search result.

次に、実行部214は、変数「日時」を含むアクション「天気予報1」が残っていることを確認する(ステップS29;Yes)。実行部14は、「天気予報1」に必要な変数が揃っていることを判定する(ステップS27;Yes)。実行部214はアクション「天気予報1」を実行し(ステップS28)、例えば新大阪駅5日の天気予報を検索する。 Next, the execution unit 214 confirms that the action "weather forecast 1" including the variable "date and time" remains (step S29; Yes). The execution unit 14 determines that the variables necessary for "weather forecast 1" are present (step S27; Yes). The execution unit 214 executes the action "weather forecast 1" (step S28), and retrieves the weather forecast for Shin-Osaka Station on the 5th, for example.

さらに、実行部214は、変数「日時」を含むアクション「天気予報2」が実行されずに残っていることを確認する(ステップS29;Yes)。実行部214は、「天気予報2」に必要な変数が揃っていることを判定する(ステップS27;Yes)。実行部214はアクション「天気予報2」を実行し、東京駅の5日の天気予報を検索する(ステップS28)。実行部214は、変数「日時」を含むアクションが全て実行されたことを判定し(ステップS29;No)、処理ステップはステップS24に戻る。 Further, the execution unit 214 confirms that the action "weather forecast 2" including the variable "date and time" remains unexecuted (step S29; Yes). The execution unit 214 determines that the variables necessary for "weather forecast 2" are complete (step S27; Yes). The execution unit 214 executes the action "weather forecast 2" and retrieves the weather forecast for Tokyo Station on the 5th (step S28). The execution unit 214 determines that all actions including the variable "date and time" have been executed (step S29; No), and the process returns to step S24.

案内システム200は、推定した変数は設定済みであり(ステップS24;Yes)、所定時間内にユーザから音声入力が無い場合、発話したユーザへの案内を終了する。ユーザが追加で発話した場合にはステップS21からステップS29の処理を繰り返す。 The guidance system 200 has already set the estimated variables (step S24; Yes), and if there is no voice input from the user within a predetermined period of time, the guidance system 200 ends guidance to the user who has spoken. If the user additionally speaks, the processing from step S21 to step S29 is repeated.

第2実施形態において、設定部213は、推定された変数を含むアクションを全て選択したが、アクションの選択方法はこれに限られない。設定部213が選択するアクションの数には制限を設けてもよい。また、推定された変数を含むアクションが複数存在する場合、設定部213は、複数のアクションのうち不足している変数が少ないアクションを優先して選択してもよい。設定部213は、第2設定情報に含まれる変数を全て必要とするアクションを選択してもよい。さらに、推定部212は、ユーザの発話内容に基づいて、推定された変数を含む複数のアクションのうちユーザが求めるアクションを推定してもよい。 In the second embodiment, the setting unit 213 selects all actions including estimated variables, but the method of selecting actions is not limited to this. A limit may be placed on the number of actions selected by the setting unit 213 . Further, when there are a plurality of actions that include the estimated variables, the setting unit 213 may preferentially select an action with few missing variables among the plurality of actions. The setting unit 213 may select an action that requires all variables included in the second setting information. Furthermore, the estimation unit 212 may estimate an action desired by the user among a plurality of actions including the estimated variables, based on the content of the user's utterance.

〔第2実施形態の効果〕
第2実施形態では、システムによる案内サービスを受けるときに、ユーザ主体の問合せの発話を可能にする。その理由は、案内システム200が、ユーザが追加で発話した音声についても、音声から認識した単語が関係する変数を推定し、変数に値を設定し、アクション情報が定める複数の変数の値が設定されるとアクションを実行するからである。
[Effect of Second Embodiment]
In the second embodiment, when receiving guidance service by the system, it is possible for the user to utter an inquiry. The reason for this is that the guidance system 200 estimates variables related to the words recognized from the voice, sets values to the variables, and sets the values of the multiple variables defined by the action information. This is because the action is executed when it is done.

音声認識部220と音声合成部221を備えた自動音声応答(Interactive Voice Response, IVR)システムを利用することで、ユーザはシステムとの対話を通じて問合せをすることが可能になる。 Using an interactive voice response (IVR) system with a speech recognizer 220 and a speech synthesizer 221 allows the user to interact with the system to ask questions.

[第3実施形態]
〔処理構成〕
図9は、第3実施形態に係る案内システム300の構成を例示するブロック図である。案内システム300は、記憶部311、推定部312、設定部313、実行部314、音声認識部320、音声合成部321、タイマー322を有する。第3実施形態に係る案内システム300のハードウエア構成は、第1および第2実施形態において説明した、図1のコンピュータ90と同様であってもよい。
[Third embodiment]
[Processing configuration]
FIG. 9 is a block diagram illustrating the configuration of a guidance system 300 according to the third embodiment. Guidance system 300 includes storage unit 311 , estimation unit 312 , setting unit 313 , execution unit 314 , speech recognition unit 320 , speech synthesis unit 321 and timer 322 . The hardware configuration of the guidance system 300 according to the third embodiment may be the same as the computer 90 in FIG. 1 described in the first and second embodiments.

記憶部311、推定部312、設定部313、実行部314、音声認識部320、音声合成部321は、第2実施形態における記憶部211、推定部212、設定部213、実行部214、音声認識部220、音声合成部221と同様の機能を有する。以下において、第2実施形態における機能と相違する点を説明する。 The storage unit 311, the estimation unit 312, the setting unit 313, the execution unit 314, the speech recognition unit 320, and the speech synthesis unit 321 are similar to the storage unit 211, the estimation unit 212, the setting unit 213, the execution unit 214, and the speech recognition unit 211 in the second embodiment. The section 220 has the same function as the speech synthesizing section 221 . The points that differ from the functions in the second embodiment will be described below.

設定部313は、第2設定情報に変数の値として、単語を第2設定情報に設定した後、値を設定した変数を含むアクションを選択する。第3実施形態において、実行部314は、設定部313が選択したアクションに対して、図3に示すアクション情報を参照し、第2設定情報の変数でアクションが実行できるか判定する。例えば、実行部314は、第2設定情報にアクションの実行に不足している変数の値がある場合、案内システム300のユーザに対してアクションの実行に必要な変数に関する発話を促す情報を出力する。 After setting a word in the second setting information as the value of the variable in the second setting information, the setting unit 313 selects an action including the variable for which the value is set. In the third embodiment, the execution unit 314 refers to the action information shown in FIG. 3 for the action selected by the setting unit 313, and determines whether the action can be executed using the variables of the second setting information. For example, when the second setting information includes values of variables that are insufficient for action execution, the execution unit 314 outputs information prompting the user of the guidance system 300 to speak about variables necessary for action execution. .

さらに、設定部313が選択したアクションの実行に必要な変数が不足している場合に、実行部314は、タイマー322をセットする。タイマー322は、所定時間の経過を計測する。タイマー322の計測する所定の時間が経過すると、実行部314は、不足している変数が設定されたか判定する。不足している変数が設定されていない場合、実行部314はユーザの発話を誘導する情報を案内システム300に出力する。 Furthermore, the execution unit 314 sets the timer 322 when the variables necessary for executing the action selected by the setting unit 313 are insufficient. A timer 322 measures the passage of a predetermined time. After the predetermined time measured by the timer 322 has elapsed, the execution unit 314 determines whether the missing variables have been set. If the missing variables are not set, the execution unit 314 outputs information to guide the user's speech to the guidance system 300 .

実行部314は、例えば、誘導する情報として、質問文を出力してもよい。案内システム300は合成音声の質問文を出力してもいいし、ディスプレイに誘導する情報を表示してもよい。 The execution unit 314 may output, for example, a question sentence as guidance information. Guidance system 300 may output a question sentence of synthesized speech, or may display guidance information on a display.

実行部314は、値が入力されていない変数が所定の個数以下となったアクションのタイマー322をセットしてもよい。これにより実行部314が実行するアクションを絞り込むことが可能になる。値が揃った実行可能なアクションが複数存在する場合、実行部314は、アクション情報に予め定められた優先順位が高い順に、実行するアクションを決定してもよい。また、実行部314は、実行可能なアクションが複数ある場合、ユーザに実行する前記アクションの決定する発話を誘導する情報を出力してもよい。実行部314は、図3に示すアクション情報の「提供情報」を参照し、「「列車」と「天気」、どちらについて知りたいですか?」と出力してもよい。 The execution unit 314 may set a timer 322 for an action when the number of variables for which values have not been input becomes equal to or less than a predetermined number. This makes it possible to narrow down the actions to be executed by the execution unit 314 . When there are a plurality of executable actions with the same values, the execution unit 314 may determine the actions to be executed in descending order of priority predetermined in the action information. In addition, when there are a plurality of executable actions, the execution unit 314 may output information that guides the user to utter an utterance that determines the action to be executed. The execution unit 314 refers to the "provided information" of the action information shown in FIG. ” may be output.

タイマー322による所定時間の経過は、ユーザが発話を終えた時点から計測してもいいし、設定部313が値の設定を終えた時点から計測してもよいが、これらに限られない。例えば実行部314は、変数「日時」が不足していることを判定した時点でタイマー322をセットしてもよい。タイマー322は、例えばセットされた時点から5秒を計測する。タイマー322は実行部314に変数「日時」が不足していることを判定した時点から5秒が経過したことを通知してもよい。 The elapse of the predetermined time by the timer 322 may be measured from the time when the user finishes speaking or may be measured from the time when the setting unit 313 finishes setting the value, but is not limited to these. For example, the execution unit 314 may set the timer 322 when it determines that the variable "date and time" is insufficient. Timer 322 counts, for example, 5 seconds from the time it is set. Timer 322 may notify execution unit 314 that 5 seconds have passed since it determined that the variable "date and time" is insufficient.

実行部314は、ユーザの発話に基づいて、アクションの実行に必要な複数の変数の値が設定されると、設定された単語に基づいてアクションを実行する。実行部314はさらに以下の機能を有する。実行部314は、アクションを実行した結果を音声合成部321に出力する。 When the values of a plurality of variables necessary for executing an action are set based on the user's utterance, the execution unit 314 executes the action based on the set words. The execution unit 314 further has the following functions. The executing unit 314 outputs the result of executing the action to the speech synthesizing unit 321 .

また、実行部314は、設定部313が選択したアクションが複数ある場合、実行されていないアクションがあるか確認する。実行部314は、残っているアクションに対して、図3に示すアクション情報を参照し、アクションの実行に必要な変数の値が第2設定情報に設定済みであるか判定する。実行部314は、変数の値が第2設定情報に設定済みであればアクションを実行する。 Also, when there are a plurality of actions selected by the setting unit 313, the execution unit 314 confirms whether there is an unexecuted action. The execution unit 314 refers to the action information shown in FIG. 3 for the remaining actions, and determines whether the values of the variables necessary for executing the actions have already been set in the second setting information. The execution unit 314 executes the action if the value of the variable has already been set in the second setting information.

記憶部311は、アクションの実行に不足している変数と質問文との対応関係を定める質問情報を記憶していてもよい。実行部314は記憶された質問情報を参照し、質問文を選択してもよい。図11は、質問情報の例を示す図である。実行部314は、変数「乗車駅」の値が不足している場合、質問文「どこから乗りますか?」を選択し、案内システム300に出力する。 The storage unit 311 may store question information that defines a correspondence relationship between a variable lacking in action execution and a question sentence. The execution unit 314 may refer to the stored question information and select a question sentence. FIG. 11 is a diagram showing an example of question information. If the value of the variable “boarding station” is insufficient, the executing unit 314 selects the question “Where do you board from?” and outputs it to the guidance system 300 .

〔動作例〕
以下、第3実施形態における案内システム300の制御方法について、図10Aおよび図10Bを用いて説明する。図10Aおよび図10Bは、第3実施形態における案内システム300の動作例を示すフローチャートである。以下において、ユーザが二回に分けて、アクションの実行に必要な変数を含む発話する場合の例について説明する。
[Example of operation]
A method of controlling the guidance system 300 according to the third embodiment will be described below with reference to FIGS. 10A and 10B. 10A and 10B are flow charts showing an operation example of the guidance system 300 in the third embodiment. In the following, an example in which the user makes two utterances containing variables necessary for executing an action will be described.

音声認識部320は、マイクを介して例えば「新大阪から新幹線で東京まで行く。」の音声データを取得する(ステップS21)。このとき案内システム300の動作は、第2実施形態におけるステップS21からステップS27までの動作例と同様であるため詳細な説明は省略する。 The voice recognition unit 320 acquires voice data of, for example, "From Shin-Osaka to Tokyo by Shinkansen" through a microphone (step S21). Since the operation of the guidance system 300 at this time is the same as the operation example from step S21 to step S27 in the second embodiment, detailed description thereof will be omitted.

実行部314は、変数「日時」の値が設定されていないことを判定すると(ステップS27;No)、変数「日時」に関する発話を誘導する情報の出力タイミングを計測するタイマー322をセットする(ステップS30)。その後、設定部313は、変数「乗車駅」を含むアクションが設定情報に残っているか確認する(ステップS29)。 When the execution unit 314 determines that the value of the variable "date and time" is not set (step S27; No), it sets the timer 322 for measuring the output timing of the information that induces speech related to the variable "date and time" (step S30). After that, the setting unit 313 checks whether an action including the variable "boarding station" remains in the setting information (step S29).

本例において、ユーザが最初に「新大阪から新幹線で東京まで行く。」と発話した後に、変数「日時」の値に関して、追加で自発的に発話しない場合について説明する。タイマー322は、所定時間経過を計測する(ステップS31)。所定時間経過後、実行部314は、変数「日時」の値が設定されていないことを判定する(ステップS32;No)。実行部314は、発話を誘導する情報を出力する(ステップS33)。実行部314は、誘導する情報として例えば「日時を教えて下さい。」を音声合成部321に出力してもよい。 In this example, a case will be described where the user does not voluntarily add the value of the variable "date and time" after first uttering "From Shin-Osaka to Tokyo by Shinkansen." The timer 322 measures the elapse of a predetermined time (step S31). After a predetermined period of time has elapsed, the execution unit 314 determines that the value of the variable "date and time" has not been set (step S32; No). The execution unit 314 outputs information that induces speech (step S33). The executing unit 314 may output, for example, “Please tell me the date and time” to the speech synthesizing unit 321 as guidance information.

第2実施形態における動作例と同様に、ユーザが自発的に「日時」に関する発話をした場合、所定時間経過後(ステップS31)、実行部314は値が設定されていなかった「日時」の値が設定されたことを判定し(ステップS32;Yes)処理を終了する。 As in the operation example in the second embodiment, when the user voluntarily speaks about "date and time", after a predetermined time has elapsed (step S31), the execution unit 314 is set (step S32; Yes), and the process ends.

なお、案内システム300においても、推定した変数は設定済みであり(ステップS24;Yes)、所定時間内にユーザから音声入力が無い場合、発話したユーザへの案内を終了する。ユーザが追加で発話した場合にはステップS21からステップS29の処理を繰り返す。 Also in the guidance system 300, the estimated variables have already been set (step S24; Yes), and if there is no voice input from the user within a predetermined period of time, guidance to the uttered user is terminated. If the user additionally speaks, the processing from step S21 to step S29 is repeated.

〔第3実施形態の効果〕
第3実施形態では、案内システム300は、ユーザによる最初の発話に含まれる単語に基づき、アクションに必要な変数が揃うように誘導する情報を出力する。このためユーザが発話すべき内容が明確になり、ユーザの最初の発話から案内システム300のアクションの実行までの時間を短縮することができる。
[Effect of the third embodiment]
In the third embodiment, the guidance system 300 outputs information that guides the user to gather the variables necessary for the action, based on the words included in the user's first utterance. Therefore, the content to be uttered by the user becomes clear, and the time from the user's first utterance to the execution of the action of the guidance system 300 can be shortened.

第3実施形態では、タイマー322を備えることにより、所定時間が経過してから不足する変数を誘導する情報を出力させるから、ユーザ主体の問合せの発話を可能にする。すなわち、タイマー322により、ユーザの発話内容を十分に聞いてから、不足している変数に関する発話を促すことができる。 In the third embodiment, by providing the timer 322, after a predetermined period of time has passed, the information for deriving the deficient variable is output, so that the user can utter an inquiry. That is, the timer 322 can prompt the user to speak about the missing variable after listening to the user's speech content.

なお、第3実施形態において、タイマー322が所定時間の経過を計測する場合について説明したが、所定時間の経過は実行部314が計測してもよい。このとき、実行部314はタイマー322が示す時間を参照し、時間の経過を計測する。 In the third embodiment, the case where the timer 322 measures the elapse of the predetermined time has been described, but the execution unit 314 may measure the elapse of the predetermined time. At this time, the execution unit 314 refers to the time indicated by the timer 322 and measures the elapsed time.

また、第3実施形態において、案内システム300がタイマー322を備える場合について説明したが、案内システム300はタイマー322を備えていなくてもよい。すなわち誘導する情報の出力のタイミングは、タイマー322により制御しない構成であってもいい。例えばアクションに必要な変数の数が所定の個数以下であると、実行部314は、不足している変数に関する発話を誘導する情報を出力してもよい。 Also, in the third embodiment, the guide system 300 includes the timer 322 , but the guide system 300 may not include the timer 322 . That is, the timing of outputting information to guide may not be controlled by the timer 322 . For example, if the number of variables required for an action is less than or equal to a predetermined number, the execution unit 314 may output information that induces speech regarding the missing variables.

〔変形例〕
以下に第1実施形態に係る案内システム100の変形例について説明するが、これらの変形例は、第2および第3実施形態に係る案内システム200、300に対しても適用することができる。
[Modification]
Modifications of the guidance system 100 according to the first embodiment will be described below, but these modifications can also be applied to the guidance systems 200 and 300 according to the second and third embodiments.

図12は、案内システム100の他のハードウエア構成例を概念的に示す図である。案内システム100の各機能は、図1に示すように1つのコンピュータ90に備えられる必要はなく、複数のコンピュータ190、290等により実現されてもよい。図1における出力装置80は、具体的には、図12に示すようにディスプレイ81およびスピーカー82であってもよい。出力装置80は、プリンタであってもよい。マイク70はコンピュータ190に接続されていてもよい。 FIG. 12 is a diagram conceptually showing another hardware configuration example of the guidance system 100. As shown in FIG. Each function of the guidance system 100 does not need to be provided in one computer 90 as shown in FIG. Specifically, the output device 80 in FIG. 1 may be a display 81 and a speaker 82 as shown in FIG. Output device 80 may be a printer. Microphone 70 may be connected to computer 190 .

設定部113は、値を入力する際に、ユーザに対する返答を生成してもよい。返答とは、例えば「はい」や「なるほど」であり、検索結果の提供とは異なる。案内システム100がロボットである場合、ロボットは返答として、頷く動作をしてもよい。案内システム100が返答をすることで、ユーザは音声が入力されていることを確認することが可能になる。 The setting unit 113 may generate a reply to the user when inputting the value. A reply is, for example, "yes" or "I see", and is different from providing search results. If the guidance system 100 is a robot, the robot may respond by nodding. By the guidance system 100 replying, the user can confirm that the voice has been input.

また、案内システム100は、返答として、ユーザの発話内容を復唱してもよい。例えばユーザが「朝9時」を含む発話をすると、案内システム100は「本日の朝9時ですね。」と復唱する。案内システム100がユーザの発話内容を復唱することで、ユーザは発話内容が正しく認識されていることを確認することが可能になる。 In addition, the guidance system 100 may repeat back what the user has said as a reply. For example, when the user utters an utterance including "9 o'clock in the morning", the guidance system 100 reads back "It's 9 o'clock in the morning today, isn't it?". By having the guidance system 100 read back the content of the user's utterance, the user can confirm that the content of the utterance has been correctly recognized.

以上のように、案内システム100がアクションを実行する前に、返答を行うことで、ユーザは落ち着いて問合せの発話をすることができる。 As described above, by replying before the guidance system 100 executes an action, the user can calmly utter an inquiry.

案内システム100は、情報案内としてディスプレイに検索結果を表示する代わりに、検索結果を表示するウェブサイトを特定する情報を出力してもよい。ウェブサイトを特定する情報はURL(Uniform Resource Locator)や二次元バーコードであってもよく、これらはディスプレイに表示されてもいいし、プリンタにより紙に印刷されてもよい。さらに、案内システム100は近距離無線通信、メール、ソーシャルネットワークサービスを通じて、ユーザに情報案内を送信してもよい。また電話案内の際には、ユーザの携帯端末に情報案内をショートメッセージサービスにより送信してもよい。 Guidance system 100 may output information specifying a website that displays the search results instead of displaying the search results on the display as information guidance. Information specifying a website may be a URL (Uniform Resource Locator) or a two-dimensional bar code, which may be displayed on a display or printed on paper by a printer. In addition, guidance system 100 may send information guidance to users through near field communication, email, and social network services. In the case of telephone guidance, the information guidance may be transmitted to the mobile terminal of the user by short message service.

実行部が実行するアクションには、情報案内アクションの他に、会話アクションを含んでもよい。アクション情報には、ユーザの個人情報に関する変数「体調」や、地域の情報に関する変数「天気」などを含んでもよい。変数「体調」の値が「良い」であり、変数「天気」の値も「晴れ」であると、案内システム100は、例えば地域のイベントに出かけることを促す発話アクションを実行することができる。このように、案内システム100は会話ロボットとして雑談をすることもできる。 Actions executed by the execution unit may include conversation actions in addition to information guidance actions. The action information may include a variable “physical condition” related to personal information of the user, a variable “weather” related to local information, and the like. When the value of the variable “physical condition” is “good” and the value of the variable “weather” is also “sunny”, the guidance system 100 can execute an utterance action prompting the user to go to a local event, for example. In this way, the guidance system 100 can chat as a conversational robot.

なお、推定部112は、ユーザの発話内容のうち、変数「体調」または変数「天気」に関係する単語を推定してもよい。設定部113は、インターネットを通じて一部の変数の値を取得し、設定してもよい。 Note that the estimation unit 112 may estimate words related to the variable “physical condition” or the variable “weather” in the content of the user's utterance. The setting unit 113 may acquire and set the values of some variables through the Internet.

一般的な会話ロボットは、対話のテーマとシナリオが予め決まっているため、会話はシステム主導となり、人は予め定められたシーケンスに則って発話する必要がある。会話アクションの実行に案内システム100を適用すると、会話をユーザ主導とすることができる。 Since conversational themes and scenarios are predetermined for general conversational robots, conversations are system-driven, and humans need to speak according to a predetermined sequence. Application of guidance system 100 to the execution of conversational actions allows conversations to be user-driven.

対話のテーマを自由にするために、インターネットのチャット履歴を機械学習によって学習したチャットボットを利用しても、会話の内容は一般化されてしまうから、チャットボットとの会話は各人に合わせた内容とならないことがある。会話アクションの実行に第1実施形態の案内システム100を適用すると、各人に合わせた会話が可能になる。 Even if you use a chatbot that learns the chat history of the Internet by machine learning to make the theme of dialogue freely, the content of the conversation will be generalized, so the conversation with the chatbot is tailored to each person. Content may not be included. When the guidance system 100 of the first embodiment is applied to the execution of conversational actions, it becomes possible to have conversations tailored to each person.

<適用例>
本開示の各実施形態は、切符の自動販売機、観光地の案内ロボット、ホテルのチェックインシステム、コンビニエンスストアのマルチメディアキオスクまたは複合機において適用することができる。
<Application example>
Each embodiment of the present disclosure can be applied in ticket vending machines, tourist attraction guide robots, hotel check-in systems, convenience store multimedia kiosks, or multifunction machines.

音声によってユーザの問合せを受け付けることで、ユーザは複雑な画面から問合せ内容を探し出す必要がなくなる。さらに音声入力によれば、ボタンの操作が困難である場面において、ハンズフリーで要求を入力することができる。 By accepting the user's inquiry by voice, the user does not have to search for the inquiry content from a complicated screen. Furthermore, voice input enables hands-free input of requests in situations where it is difficult to operate buttons.

以上、上述した実施形態を模範的な例として本開示を説明した。しかしながら、本開示は、上述した実施形態には限定されない。即ち、本開示は、本開示のスコープ内において、当業者が理解し得る様々な態様を適用することができる。 The present disclosure has been described above using the above-described embodiments as exemplary examples. However, the disclosure is not limited to the embodiments described above. That is, within the scope of the present disclosure, various aspects that can be understood by those skilled in the art can be applied to the present disclosure.

100、200、300 案内システム
111、211、311 記憶部
112、212、312 推定部
113、213、313 設定部
114、214、314 実行部
220、320 音声認識部
221、321 音声合成部
322 タイマー
100, 200, 300 guidance system 111, 211, 311 storage unit 112, 212, 312 estimation unit 113, 213, 313 setting unit 114, 214, 314 execution unit 220, 320 speech recognition unit 221, 321 speech synthesis unit 322 timer

Claims (7)

アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を記憶する記憶手段と、
音声から認識した単語が関係する前記変数を推定する推定手段と、
前記アクション情報を参照し、前記変数の値として、前記認識した単語を設定する設定手段と、
前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する実行手段と、
を備え
前記実行手段は、値が未設定の変数の数が所定の個数以下となった前記アクションの実行に必要な未設定の変数に関する発話を誘導する情報を、所定時間経過後に、出力する
案内システム。
storage means for storing action information that defines a correspondence relationship between an action and a plurality of variables necessary for executing the action;
estimating means for estimating said variables to which words recognized from speech relate;
setting means for setting the recognized word as the value of the variable by referring to the action information;
execution means for executing the action based on the set words when the values of the plurality of required variables are set;
with
The execution means outputs, after a predetermined period of time, information that guides speech regarding unset variables necessary for executing the action for which the number of variables whose values have not been set is equal to or less than a predetermined number.
guidance system.
前記推定手段は、前記アクションの実行に必要な複数の変数が不足している間、前記変数の推定を繰り返す、
請求項1に記載の案内システム。
The estimating means repeats estimating the variables while a plurality of variables necessary for executing the action is lacking.
Guidance system according to claim 1.
実行可能な前記アクションが複数ある場合、実行する前記アクションの決定する発話を誘導する情報を出力する
請求項1又は2に記載の案内システム。
3. The guidance system according to claim 1 or 2 , wherein when there are a plurality of the actions that can be executed, information that guides speech determined by the action to be executed is output.
前記アクションはユーザに案内する情報の検索である
請求項1乃至のいずれか1項に記載の案内システム。
4. The guidance system according to any one of claims 1 to 3 , wherein the action is retrieval of information to guide the user.
前記設定手段は、値を設定するとき、アクション実行前に返答を生成する、
請求項1乃至のいずれか1項に記載の案内システム。
When setting the value, the setting means generates a reply before executing the action.
Guidance system according to any one of claims 1 to 4 .
音声から認識した単語が関係する変数を推定し、
アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し、前記アクションの実行に必要な変数の値として、前記認識した単語を設定し、
値が未設定の変数の数が所定の個数以下となった前記アクションの実行に必要な未設定の変数に関する発話を誘導する情報を、所定時間経過後に、出力し、
前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する、
案内システムの制御方法。
Estimate variables related to words recognized from speech,
referring to action information that defines a correspondence relationship between an action and a plurality of variables necessary for executing the action, and setting the recognized word as the value of the variable necessary for executing the action;
outputting, after a predetermined period of time, information that guides speech regarding unset variables necessary for executing the action for which the number of variables whose values have not been set is equal to or less than a predetermined number;
Once the values of the required variables are set, performing the action based on the set word;
Guidance system control method.
音声から認識した単語が関係する変数を推定する推定処理と、
アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し、前記アクションの実行に必要な変数の値として、前記認識した単語を設定する設定処理と、
値が未設定の変数の数が所定の個数以下となった前記アクションの実行に必要な未設定の変数に関する発話を誘導する情報を、所定時間経過後に、出力する出力処理と、
前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する実行処理と、
をコンピュータに実行させる案内プログラム。
an estimation process for estimating variables related to words recognized from speech;
a setting process of referring to action information that defines a correspondence relationship between an action and a plurality of variables necessary for executing the action, and setting the recognized word as the value of the variable necessary for executing the action;
an output process for outputting, after a predetermined period of time, information for inducing speech regarding unset variables necessary for executing the action for which the number of variables whose values have not been set is equal to or less than a predetermined number;
an execution process for executing the action based on the set words when the values of the plurality of required variables are set;
A guide program that causes a computer to execute
JP2019225540A 2019-12-13 2019-12-13 GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM Active JP7132206B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019225540A JP7132206B2 (en) 2019-12-13 2019-12-13 GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019225540A JP7132206B2 (en) 2019-12-13 2019-12-13 GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2021096293A JP2021096293A (en) 2021-06-24
JP7132206B2 true JP7132206B2 (en) 2022-09-06

Family

ID=76431140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019225540A Active JP7132206B2 (en) 2019-12-13 2019-12-13 GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7132206B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000193479A (en) 1998-12-25 2000-07-14 Aisin Aw Co Ltd Navigation apparatus and recording medium
JP2003108581A (en) 2001-09-27 2003-04-11 Mitsubishi Electric Corp Interactive information retrieving device and interactive information retrieving method
WO2017145373A1 (en) 2016-02-26 2017-08-31 三菱電機株式会社 Speech recognition device
JP2018151631A (en) 2017-03-10 2018-09-27 サウンドハウンド,インコーポレイテッド Voice response system including domain disambiguation
JP2019105904A (en) 2017-12-11 2019-06-27 トヨタ自動車株式会社 Service providing apparatus, service providing program and method for providing service by speech recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000193479A (en) 1998-12-25 2000-07-14 Aisin Aw Co Ltd Navigation apparatus and recording medium
JP2003108581A (en) 2001-09-27 2003-04-11 Mitsubishi Electric Corp Interactive information retrieving device and interactive information retrieving method
WO2017145373A1 (en) 2016-02-26 2017-08-31 三菱電機株式会社 Speech recognition device
JP2018151631A (en) 2017-03-10 2018-09-27 サウンドハウンド,インコーポレイテッド Voice response system including domain disambiguation
JP2019105904A (en) 2017-12-11 2019-06-27 トヨタ自動車株式会社 Service providing apparatus, service providing program and method for providing service by speech recognition

Also Published As

Publication number Publication date
JP2021096293A (en) 2021-06-24

Similar Documents

Publication Publication Date Title
US9742912B2 (en) Method and apparatus for predicting intent in IVR using natural language queries
US11869495B2 (en) Voice to voice natural language understanding processing
KR101211796B1 (en) Apparatus for foreign language learning and method for providing foreign language learning service
JP5967569B2 (en) Speech processing system
CN101287043B (en) Method and apparatus for providing expressive user interaction with a multimodal application
RU2352979C2 (en) Synchronous comprehension of semantic objects for highly active interface
RU2349969C2 (en) Synchronous understanding of semantic objects realised by means of tags of speech application
JP6540414B2 (en) Speech processing apparatus and speech processing method
US20060287868A1 (en) Dialog system
JP7230806B2 (en) Information processing device and information processing method
KR101836430B1 (en) Voice recognition and translation method and, apparatus and server therefor
US20060020471A1 (en) Method and apparatus for robustly locating user barge-ins in voice-activated command systems
US11615787B2 (en) Dialogue system and method of controlling the same
CN105869631B (en) The method and apparatus of voice prediction
JP7132206B2 (en) GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM
JP4103085B2 (en) Interlingual dialogue processing method and apparatus, program, and recording medium
Lamel Spoken language dialog system development and evaluation at LIMSI
Lai et al. Conversational speech interfaces and technologies
JP7310907B2 (en) DIALOGUE METHOD, DIALOGUE SYSTEM, DIALOGUE DEVICE, AND PROGRAM
KR20210098250A (en) Electronic device and Method for controlling the electronic device thereof
JP4408665B2 (en) Speech recognition apparatus for speech recognition, speech data collection method for speech recognition, and computer program
WO2018135302A1 (en) Information processing device, information processing method, and program
Karat et al. Speech and language interfaces, applications, and technologies
JP7218816B2 (en) DIALOGUE METHOD, DIALOGUE SYSTEM, DIALOGUE DEVICE, AND PROGRAM
Takrim et al. Speech to Text Recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210415

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220825

R150 Certificate of patent or registration of utility model

Ref document number: 7132206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150