JP2014134675A - 機能実行システム及び発話例出力方法 - Google Patents

機能実行システム及び発話例出力方法 Download PDF

Info

Publication number
JP2014134675A
JP2014134675A JP2013002666A JP2013002666A JP2014134675A JP 2014134675 A JP2014134675 A JP 2014134675A JP 2013002666 A JP2013002666 A JP 2013002666A JP 2013002666 A JP2013002666 A JP 2013002666A JP 2014134675 A JP2014134675 A JP 2014134675A
Authority
JP
Japan
Prior art keywords
function
voice
history information
utterance
execution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013002666A
Other languages
English (en)
Other versions
JP6122642B2 (ja
Inventor
Midori Onogi
碧 大野木
Shinya Iizuka
真也 飯塚
Kosuke Tsujino
孝輔 辻野
Wataru Uchida
渉 内田
Keitoku Isoda
佳徳 礒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013002666A priority Critical patent/JP6122642B2/ja
Publication of JP2014134675A publication Critical patent/JP2014134675A/ja
Application granted granted Critical
Publication of JP6122642B2 publication Critical patent/JP6122642B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 音声入力による機能(タスク)の実行をさせるための発話例を適切に提示する。
【解決手段】 通信端末10は、音声を入力する音声入力部11と、入力した音声に基づいて、実行されるタスクとして決定されたタスクを示す実行機能情報を取得して音声によるタスク実行を行う機能実行部12と、音声によるタスク実行の利用履歴を示す履歴情報を取得する履歴情報取得部13と、履歴情報に応じてタスクに応じた発話例を示すテキストを決定する発話例決定部14と、決定された発話例を示すテキストを出力する発話例出力部15とを備える。
【選択図】 図1

Description

本発明は、音声による機能実行を行う機能実行システム及び当該機能実行システムに係る発話例出力方法に関する。
従来から、ユーザの音声を認識して、認識した音声に基づいて機能を実行するシステムが知られている。例えば特許文献1には、カーナビゲーション装置において認識した音声に基づいて、登録地を目的地として設定したり、登録地の地図を見たりといった機能が実行されることが記載されている。
特開2006−23444号公報
ユーザの音声を入力して機能を実行するシステムにおいて、機能を実行させるためにユーザがどのような発話をすればよいかを示す発話例をユーザに提示することが考えられる。
ところで、ユーザの発話によってある機能が実行される際には発話によって実行のさせ方を変えることができる。例えば、乗換案内の情報を検索するシステムでは、ユーザの発話に応じて単に乗換案内のアプリケーションを起動したり、あるいは、出発駅や目的駅を指定した上で乗換案内のアプリケーションを起動したりすることができる。音声入力に慣れていないユーザであれば、まず発話によって乗換案内のアプリケーションを起動して、その後に出発駅や目的駅を指定するという利用方法が考えられる。一方、音声入力に慣れているユーザであれば、乗換案内のアプリケーションを起動すると共に出発駅や目的駅を指定する発話を行うことができる。
しかしながら、機能を実行するための一律の発話例を示すものとすると、発話による機能実行の慣れに応じた適切な表示とはならない。例えば、出発駅や目的駅を指定した上で乗換案内のアプリケーションを起動する発話例は、音声入力に慣れていないユーザにとっては発話が長すぎて適切でない。一方、単に乗換案内のアプリケーションを起動する発話例は、音声入力に慣れているユーザにとっては物足りないものとなる。
あるいは、ユーザの発話によって、当該ユーザが意図しない機能が起動された場合、ユーザは意図する機能を起動するためにどのような発話をすればよいかわからない場合がある。
本発明は、上記の問題点に鑑みてなされたものであり、音声入力による機能の実行をさせるための発話例を適切に提示することができる機能実行システム及び発話例出力方法を提供することを目的とする。
上記の目的を達成するために、本発明に係る機能実行システムは、音声を入力して、入力した音声に基づいて、実行される機能として決定された機能を示す実行機能情報を取得して音声による機能実行を行う機能実行手段と、音声機能実行手段により行われる音声による機能実行の利用履歴を示す履歴情報を取得する履歴情報取得手段と、履歴情報取得手段によって取得された履歴情報に応じて、機能に応じた発話例を示すテキストを決定する発話例決定手段と、発話例決定手段によって決定された発話例を示すテキストを出力する発話例出力手段と、を備える。
本発明に係る機能実行システムでは、音声による機能実行の利用履歴に応じて発話例をユーザに提示することができる。従って、本発明に係る機能実行システムによれば、音声入力による機能の実行をさせるための発話例を適切に提示することができる。
履歴情報取得手段は、履歴情報として音声による機能実行の利用回数を示す情報を取得し、発話例決定手段は、履歴情報取得手段によって取得された履歴情報によって示される音声による機能実行の利用回数に応じて、機能に応じた発話例を示すテキストを決定する、こととしてもよい。この構成によれば、音声による機能実行の利用回数に応じて発話例をユーザに提示することができ、適切な発話例を確実に提示することができる。
履歴情報取得手段は、履歴情報として機能毎の音声による機能実行の利用回数を示す情報を取得し、発話例決定手段は、履歴情報取得手段によって取得された履歴情報によって示される機能毎の音声による機能実行の利用回数に応じて、機能に応じた発話例を示すテキストを機能毎に決定する、こととしてもよい。この構成によれば、機能毎の利用回数に応じて機能毎の発話例をユーザに提示することができ、機能毎に適切な発話例を提示することができる。
履歴情報取得手段は、履歴情報として機能毎の音声による機能実行の利用回数を示す情報を取得し、発話例決定手段は、履歴情報取得手段によって取得された履歴情報によって示される機能毎の音声による機能実行の利用回数に応じて、機能に応じた発話例を示すテキストの機能毎の順番を決定する、こととしてもよい。また、発話例決定手段は、履歴情報取得手段によって取得された履歴情報によって示される機能毎の音声による機能実行の利用回数に基づいて機能毎の機能実行の利用割合を算出して、算出した割合と機能毎に予め設定された閾値との差に応じて、機能に応じた発話例を示すテキストの機能毎の順番を決定することとしてもよい。これら構成によれば、機能毎に適切な優先度で発話例を提示することができる。
機能実行手段によって実行される機能には、文字列を入力して実行する機能が含まれており、履歴情報取得手段は、履歴情報として音声による機能実行の利用が入力した音声に基づく文字列の入力を伴うものであるか否かを示す情報を取得し、発話例決定手段は、履歴情報取得手段によって取得された履歴情報によって示される、音声による機能実行の利用が文字列の入力を伴うものであるか否かに応じて、機能に応じた発話例を示すテキストを機能毎に決定する、こととしてもよい。この構成によれば、入力された音声に機能に入力するための文字列が含まれていたか否かに応じて発話例をユーザに提示することができ、適切な発話例を確実に提示することができる。
機能実行手段によって実行される機能には、文字列を入力して実行する機能が含まれており、機能実行手段は、実行される機能として決定された機能を示す実行機能情報と共に当該機能に入力される文字列を示す情報を取得し、発話例決定手段は、機能に応じた発話例を示すテキストに、機能実行手段によって取得された情報によって示される当該機能に入力される文字列を含める、こととしてもよい。この構成によれば、提示される発話例をユーザにより馴染みのあるものとすることができ、提示する発話例をより適切な発話例とすることができる。
機能実行手段は、入力した音声に基づいて決定された、機能毎の優先度を示す情報を取得し、履歴情報取得手段は、履歴情報として、実行される機能として決定された機能の実行がキャンセルされたことを示す情報を取得し、発話例決定手段は、履歴情報取得手段によって、実行される機能として決定された機能の実行がキャンセルされたことを示す情報が取得された場合に、機能実行手段によって取得された情報によって示される機能毎の優先度に応じて、機能に応じた発話例を示すテキストを決定する、こととしてもよい。この構成によれば、音声による機能実行が適切に行われなかった場合に、適切な発話例を確実に提示することができる。
機能実行手段は、入力した音声に対して音声認識を行って、音声認識を行った結果に基づいて実行される機能を決定することとしてもよい。この構成によれば、本発明による、音声による機能実行及びそれに応じた発話例の提示を確実に実行することが可能となる。
ところで、本発明は、上記のように機能実行システムの発明として記述できる他に、以下のように発話例出力方法の発明としても記述することができる。これはカテゴリが異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。
即ち、本発明に係る発話例出力方法は、音声を入力して、入力した音声に基づいて、実行される機能として決定された機能を示す実行機能情報を取得して音声による機能実行を行う機能実行ステップと、音声機能実行ステップにおいて行われる音声による機能実行の利用履歴を示す履歴情報を取得する履歴情報取得ステップと、履歴情報取得ステップにおいて取得された履歴情報に応じて、機能に応じた発話例を示すテキストを決定する発話例決定ステップと、発話例決定ステップにおいて決定された発話例を示すテキストを出力する発話例出力ステップと、を含む。
本発明によれば、音声による機能実行の利用履歴に応じて発話例をユーザに提示することができるため、音声入力による機能の実行をさせるための発話例を適切に提示することができる。
本発明の実施形態に係る機能実行システムである通信端末の構成を示す図である。 提示する発話例の決定に用いられる情報を示す表である。 提示する発話例の決定に用いられる別の情報を示す表である。 本発明の実施形態に係る機能実行システムである通信端末のハードウェア構成を示す図である。 第1実施形態に係る機能実行システムである通信端末で実行される処理(発話例出力方法)を示すシーケンス図である。 第2実施形態に係る機能実行システムである通信端末で実行される処理(発話例出力方法)を示すシーケンス図である。
以下、図面と共に本発明に係る機能実行システム及び発話例出力方法の実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
(第1実施形態)
図1に本実施形態に係る機能実行システムである通信端末10を示す。通信端末10は、ユーザに携帯されて、通信網に接続して通信を行うことができる装置である。具体的には、通信端末10は、移動体通信網に接続して移動体通信を行う携帯電話機やPC(Personal Computer)等に相当する。通信端末10は、ユーザからの音声(発話)を入力して音声に応じた機能を実行する装置(システム)である。通信端末10は、通信網を介して音声認識サーバ20及び意図解釈サーバ30等と通信を行うことができる。音声に応じた機能の実行は、これらの装置20,30と情報の送受信を行うことで実現される。
通信端末10によって実行される機能は、例えば、レシピ検索、乗換案内、グルメ検索(飲食店検索)、画像検索、音楽検索、地図検索、天気検索、音楽プレーヤ、スケジューラ、メール、メモ、ルート案内、電話、カメラが相当する。なお、本実施形態では、実行される機能をタスクと呼ぶ。
通信端末10における音声に応じた機能の実行は、次のように行われる。まず、通信端末10がユーザの音声を入力する。入力された音声は、通信端末10から音声認識サーバ20に送信される。音声認識サーバ20は、通信端末10から音声を受信し、受信した音声に対して音声認識を行う。音声認識サーバ20は、音声認識の結果である文章(自然文)を通信端末10に送信する。通信端末10は、音声認識の結果を受信して、更に意図解釈サーバ30に送信する。意図解釈サーバ30は、当該音声認識の結果を受信して、その音声認識の結果に基づいて通信端末10において実行すべきタスクを決定して、当該タスクを実行するように通信端末10に指示する。例えば、意図解釈サーバ30は、実行すべきタスクを示す情報を通信端末10に送信する。通信端末10は、意図解釈サーバ30からの指示を受信して、当該指示に応じたタスクを実行する。なお、音声認識の結果である文章はいったん通信端末10に送られることなく、音声認識サーバ20から意図解釈サーバ30へ直接送信されてもよい。更に、音声認識サーバ20と意図解釈サーバ30とは一体であってもよい。
音声認識サーバ20は、音声を入力して、入力した音声に対して音声認識を行い、音声認識を行った結果を出力する音声認識手段である装置である。具体的には、上述したように音声認識サーバ20は、通信端末10から音声データを受信する。音声認識サーバ20は、音声認識エンジンを有しており、当該音声認識エンジンを用いて音声認識を行う。音声認識自体は、従来の任意の音声認識方法を利用することができる。音声認識サーバ20は、音声認識結果を文章として取得して、通信端末10に送信する。
意図解釈サーバ30は、通信端末10において入力された音声に基づいて(ユーザの発話の意図解釈を行って)通信端末10において実行されるタスクを決定して、通信端末10に対して当該タスクの実行を指示する装置である。具体的には、意図解釈サーバ30は、通信端末10から音声認識結果である文章(入力文、テキストデータ)を示す情報を受信して、当該文章に基づいて通信端末10において実行されるタスクを決定する。意図解釈サーバ30に入力される文章は、通信端末10に対するユーザの発話単位である。即ち、一回の発話に含まれる文章(文章群)を一つの単位として扱う。
意図解釈サーバ30は、決定される機能の候補となるタスクを予め記憶している。文章に基づく、通信端末10において実行されるタスクの決定には、従来から知られている方法を用いることができる。例えば、意図解釈サーバ30は、入力される文章(あるいは文章に基づく情報)を機械学習における説明変数とし、タスクを機械学習における目的変数として、機械学習によって得られた学習モデル(判定ルール)を用いてタスクを決定(判定)する。意図解釈サーバ30は、決定したタスクを示す情報を通信端末10に送信して当該タスクを実行するように通信端末10に指示する。
また、実行が指示されるタスクには、文字列を入力(引数)とすることができるものがある。これをタスクのスロットと呼ぶ。なお、文字列には1文字の文字も含まれる。スロットはタスク毎に予め定められている。例えば、乗換案内のタスクであれば、出発駅及び目的駅をスロットへの入力としてタスクが実行される。なお、タスクには0個以上のスロットが定義されている。即ち、スロットがないタスクもある。このようにスロットが定義されたタスクを実行するタスクとして決定する場合には、意図解釈サーバ30は、スロットに入力される文字列を入力した文章から抽出することとしてもよい。スロットがないタスクの場合、後述するようなスロットに入力する文字列の抽出は行われない。文字列の抽出も、従来から知られている方法を用いることができる。意図解釈サーバ30は、抽出したスロットに入力される文字列の情報も、決定したタスクを示す情報と合わせて通信端末10に送信する。
例えば、ユーザの発話が「新橋から東京までの乗換案内を教えて」というものであった場合、乗換案内のタスクが実行されるタスクとして決定され、出発駅及び目的駅のスロットに入力される文字列として、「新橋」及び「東京」が抽出される。
上記の音声認識サーバ20及び意図解釈サーバ30は、CPU(Central Processing Unit)及びメモリ等のハードウェアを備えるサーバ装置として構成されている。以上が、本実施形態に係る通信端末10、及び通信端末10における音声に応じた機能の実行を行うためのシステムの概要である。
引き続いて、本実施形態に係る通信端末10の本発明に係る機能について説明する。図1に示すように通信端末10は、音声入力部11と、機能実行部12と、履歴情報取得部13と、発話例決定部14と、発話例出力部15とを備えて構成される。
音声入力部11は、ユーザの発話である音声を入力する機能実行手段の一部である。具体的には、音声入力部11は、通信端末10が備えるマイクによってユーザの音声を入力する。この音声は、上述したようにユーザが通信端末10のタスクを実行するために実行したい機能に応じて発話したものである。この音声の入力は、通信端末10に対するユーザの操作(例えば、当該機能を実行するためのアプリケーションの起動操作)等により通信端末10が音声に応じたタスクの実行を行うモードにされてから行われることとしてもよい。音声入力部11は、入力した音声データを音声認識サーバ20に送信する。
機能実行部12は、音声入力部11によって入力された音声に基づいて、意図解釈サーバ30によって決定されたタスクを実行する機能実行手段の一部である。具体的には、機能実行部12は、音声入力部11による音声データの送信に応じて音声認識サーバ20から送信される音声認識結果である文章を示す情報を受信する。続いて、機能実行部12は、受信した当該文章を示す情報を意図解釈サーバ30に送信する。続いて、機能実行部12は、意図解釈サーバ30によって当該文書に基づいて決定されたタスクを示す実行機能情報を受信することで取得する。機能実行部12は、受信した当該実行機能情報によって示されるタスクを実行する。
また、意図解釈サーバ30から送信される実行機能情報に、タスクのスロットに入力される文字列が付与されていた場合には、当該文字列をスロットに入力してタスクを実行する。なお、スロットへの文字列の入力が必要なタスクを実行する際に、意図解釈サーバ30から文字列の送信が無かった場合は、スロットへ入力する文字列の入力を表示等によって促してもよい。その場合の文字列の入力は、音声入力により行われてもよいし、通信端末10が備えるボタン等の操作部に対するユーザの操作により行われてもよい。
機能実行部12は、1つ以上の(あるいは複数の)タスクに対応するアプリケーションプログラムを予め記憶しておき、記憶したアプリケーションプログラムを実行(起動)することによってタスクを実行する。また、タスクの実行は、アプリケーションプログラムを実行する以外にも、ネットワークからタスクに応じた情報を取得することで行われてもよい。
具体的には、レシピ検索、乗換案内、グルメ検索、画像検索、音楽検索、地図検索、天気検索等に関しては、例えば、機能実行部12において案内や検索結果の情報の要求が行われて、取得された当該案内や検索結果の情報が、通信端末10が備えるディスプレイ等の表示装置に表示出力される。
また、メール、音楽プレーヤ、スケジューラ、電話、カメラ等に関しては、機能実行部12においてそれらのタスクを実行するためのアプリケーションプログラムが起動される。更に指示の内容によっては、アプリケーションプログラム起動後の動作も行われる。
機能実行部12は、音声によるタスクの実行が行われる際にその旨を履歴情報取得部13に通知する。機能実行部12は、この通知の際に、実行するタスクや音声に基づいてタスクのスロットに入力された文字列を合わせて通知してもよい。
履歴情報取得部13は、機能実行部12により行われる音声によるタスク実行の利用履歴を示す履歴情報を取得する履歴情報取得手段である。この利用情報は、音声によるタスクの実行に対するユーザの習熟度を示すものである。例えば、履歴情報取得部13は、履歴情報として音声によるタスク実行の利用回数を示す情報を取得することとしてもよい。具体的には、履歴情報取得部13は、タスクの利用回数を記憶しておき、機能実行部12よって音声によるタスクが実行されると利用回数を1回増加させる。この利用回数(システム全体の利用回数)は、どのタスクかにかかわらず1回とカウントすることとしてもよい。
あるいは、履歴情報取得部13は、履歴情報としてタスク毎の音声によるタスク実行の利用回数を示す情報を取得することとしてもよい。この場合、履歴情報取得部13は、タスク毎の利用回数を記憶しておき、機能実行部12よって音声によるタスクが実行されるとそのタスクの利用回数を1回増加させる。あるいは、いくつかのタスクをまとめた上位のカテゴリ毎に利用回数をカウントし、それを履歴情報としてもよい。例えば、天気検索、地図検索及び乗換案内のタスクを、外出系のタスクとして1つのカテゴリとする。
また、上記の利用回数の代わりに、現時点から一定期間(例えば、一週間)遡った期間の利用回数や、通算の利用回数を音声入力によるタスク実行機能の利用開始からの日数で割って算出した利用頻度を履歴情報とすることとしてもよい。
また、履歴情報取得部13は、音声によるタスク実行の利用が入力した音声に基づく文字列の入力を伴うものであるか否かを示す情報を、履歴情報として取得することとしてもよい。即ち、履歴情報取得部13は、音声によるタスクの実行が行われる際に当該タスクのスロットに音声に基づく文字列が入力されるか否かを示す情報を履歴情報としてもよい。更に、スロットに入力された文字列自体を履歴情報としてもよい。履歴情報取得部13は、取得した履歴情報を発話例決定部14に出力する。
発話例決定部14は、履歴情報取得部13から入力された履歴情報に応じて、タスクに応じた発話例(通信端末10への命令の例)を示すテキストを、ユーザに提示される発話例として決定する発話例決定手段である。例えば、発話例決定部14は、履歴情報取得部13から入力された履歴情報によって示される音声によるタスク実行の利用回数に応じて、タスクに応じた発話例を示すテキストを決定する。具体的には、発話例決定部14は、図2に示すようなタスク、スロット指定情報、発話例及び習熟度が対応付けられた情報を記憶しておく。この情報は、予め通信網のサービス提供者等によって通信端末10に入力されている。
発話例決定部14は、タスク実行の利用回数に基づいて習熟度を決定する。発話例決定部14は、そのために閾値を記憶しておく。例えば、利用回数が第1の閾値を超えていなければ初心者、第1の閾値を超えていれば中級者、第1の閾値よりも大きな値である第2の閾値を超えていれば上級者とする。発話例決定部14は、決定した習熟度に対応付けられた発話例のテキストをユーザに提示される発話例として決定する。発話例決定部14は、全てのタスクについて発話例を決定する。なお、ユーザに提示される候補となる、タスク毎の発話例の数は、上記の数に限られず任意の数とすることができる。閾値は、発話例の数に応じて適宜チューニングされて定められる。
通常、高い習熟度に対応付けられた発話例は、低い習熟度に対応付けられた発話例よりもより複雑な発話例である。図2に示すように、複雑な発話例は、発話内容が長い代わりにより高機能なタスクの実行(例えば、スロットへ音声のよる文字列を入力してタスクを実行する)を可能とする。
履歴情報がタスクあるいはカテゴリ毎の利用回数であった場合は、発話例決定部14は、タスクあるいはカテゴリ毎に習熟度を決定して発話例を示すテキストを決定する。
また、発話例決定部14は、履歴情報取得部13から入力された履歴情報に応じて、タスクに応じた発話例を示すテキストのタスク毎の順番を決定することとしてもよい。複数のタスクがある場合、例えば、表示によって発話例をユーザに提示する際には発話例を順番に提示することとなる。上記のタスク毎の順番は、複数のタスクをユーザに提示する際に、発話例をユーザに提示する順番である。
例えば、発話例決定部14は、タスク毎の音声によるタスク実行の利用回数に応じて上記の順番を決定する。より具体的には、発話例決定部14は、タスク毎の音声によるタスク実行の利用回数に基づいて、タスク毎の機能実行の利用割合を算出する。発話例決定部14は、算出した割合とタスク毎に予め設定された閾値との差に応じて、タスクに応じた発話例を示すテキストのタスク毎の順番を決定する。
この場合、発話例決定部14は、予め、図3の表の期待される分布に示されるようにタスク毎の閾値を記憶しておく。例えば、図3に示すように天気検索、地図検索、乗換案内、メールのタスクそれぞれについて、0.4、0.3、0.2、0.1という閾値が設定される。この情報は、予め通信網のサービス提供者等によって通信端末10に入力されている。
発話例決定部14は、タスク毎の利用回数を全てのタスクの利用回数の和で割ることで、タスク毎の機能実行の利用割合を算出する。例えば、図3に示すように天気検索、地図検索、乗換案内、メールのタスクそれぞれについて、0.2、0.8、0、0という利用割合が算出される。発話例決定部14は、タスク毎に閾値と利用割合との差を算出する。発話例決定部14は、算出した差が大きい順をタスク毎の順番とする。図3に示す例では天気検索、地図検索、乗換案内、メールのタスクそれぞれの差の値は、0.2、−0.5、0.2、0.1となる。上述した例では発話例決定部14は、全てのタスクについて発話例を決定することとしたが、順番を決定する場合には、例えば、順位が上位の特定の数のタスクのみの発話例を決定することとしてもよい。この場合、発話例が決定されなかったタスクについては、ユーザに発話例が提示されない。
従って、差の値が大きい順で、天気検索及び乗換案内、メール、地図検索の順と決定される。差の値が大きいということは、そのタスクについて、音声によるタスクの実行に際して、通信網のサービス提供者等が期待する割合よりも利用されていないということになる。上記の特徴は、そのようなタスクの発話例をよく利用されているタスクより前にユーザに提示(推薦)することで、音声によるタスクの実行を促進させるものである。
上記の発話例の決定は、タスク実行の利用回数に基づいて行われていたが、それ以外に基づいて行われてもよい。例えば、発話例決定部14は、履歴情報によって示される、音声によるタスク実行の利用が、音声によるスロットへの文字列の入力を伴うものであるか否かに応じて、タスクに応じた発話例を示すテキストをタスク毎に決定する。この場合も、発話例決定部14は、図2に示す情報を記憶しておく。
発話例決定部14は、履歴情報によって示される、実行されたタスクと音声によるスロットへの文字列の入力の有無との情報から、図2のタスク、スロット指定情報及び習熟度の情報に基づき習熟度を決定する。例えば、乗換案内のタスクで、音声によるスロットへの文字列の入力が無かった(駅指定なし)場合は、習熟度を初心者と決定する。あるいは、乗換案内のタスクで、音声によるスロットへの文字列の入力があり、当該スロットが目的駅のスロットであった(目的駅指定)場合は、習熟度を中級者と決定する。
続いて、発話例決定部14は、決定した習熟度よりも一段階高い習熟度に対応付けられた発話例のテキストをユーザに提示される発話例として決定する。例えば、習熟度を初心者と決定した場合には、中級者の習熟度に対応付けられた発話例をユーザに提示される発話例として決定する。これは、例えば、初心者の習熟度に相当する発話をユーザが行えている場合には、次の習熟度(次の段階)の発話をユーザに提示して(推薦して)、ユーザがより高度な発話によるタスクの実行を行えるようにするためである。このように、ユーザが発話を行うなかで未だやったことのない発話の具体例を推薦することで、習熟度向上の精度がより高くなる。
なお、上記の例では、一度、特定の習熟度の発話を行えば次の習熟度に対応する発話例を決定していたが、複数回、特定の習熟度の発話を行った場合に次の習熟度に対応する発話例を決定することとしてもよい。その態様の場合は、発話例決定部14は、習熟度毎のユーザの発話の回数をカウントする。なお、決定した習熟度よりも一段階高い習熟度に対応付けられた発話例のテキストをユーザに提示される発話例として決定することは、上記のように音声によるスロットへの文字列の入力の有無に基づいて発話例を決定する場合だけでなく、上述した利用回数に応じて発話例を決定する場合にも行われてもよい。
上記の発話例の決定は、発話例のテキスト自体は、予め発話例決定部14に記憶されたものの中から決定するものとしたが、履歴情報に基づいてユーザに提示するものとして決定する発話例を発話例決定部14が生成することとしてもよい。具体的には、発話例決定部14は、タスクに応じた発話例を示すテキストに、機能実行部12によって過去に取得され実行されたタスクのスロットに入力された文字列を含める。上述したように、機能実行部12によって実行されたタスクのスロットに入力された文字列は履歴情報に含まれうる。なお、この文字列は、音声(発話)から得られたものであってもよいし、ユーザの操作によって入力されたものであってもよい。
その場合、具体的には、発話例決定部14は、まず、上記と同様に発話例を決定する。続いて、発話例決定部14は、決定した発話例のうち、スロットに入力される文字列に対応する部分を、履歴情報に含まれている当該タスクのスロットに入力された文字列で置き換える。例えば、乗換案内についての「東京までの乗換案内を知りたい」という発話例の場合、「東京」という部分が乗換駅を指定するスロットに入力される文字列に相当する部分である。その部分が履歴情報に基づいて置き換えられる。例えば、ユーザが過去に乗換案内のタスクで、目的駅を「横浜」としていた場合は、「横浜までの乗換案内を知りたい」という発話例を決定する。
置き換えられる文字列は、例えば、最新のタスク実行の際にスロットに入力された文字列でもよいし、あるいは、過去のタスク実行の際に最も多くスロットに入力された文字列でもよい(その場合、文字列毎にスロットに入力された回数をカウントする)。
発話例決定部14は、ユーザに提示される発話例として決定したタスクに応じた発話例を示すテキストを発話例出力部15に出力する。
発話例出力部15は、発話例決定部14から入力された発話例を示すテキストを出力する発話例出力手段である。例えば、発話例出力部15は、発話例を示すテキストを、通信端末10が備えるディスプレイ等の表示装置に表示出力する。このように発話例(命令)を表示することで、ユーザにタスクを実行する場合の発話例を推薦することができる。発話例出力部15は、この表示の際、発話例がどのタスクに対応するものであるかわかるようにタスク名等を合わせて表示する。この表示を参照することで、ユーザはタスクを実行するためにはどのような発話をすればよいか把握することができる。例えば、乗換案内のタスクの発話例であれば、「乗換案内:東京までの乗換案内を知りたい」という表示がなされる。
なお、通常、タスクは複数あるため、全てのタスクの発話例を表示する場合には、例えば、表示画面上には1つのタスクの発話例のみ表示し、数秒毎に表示するタスク(発話例)を切り替えることとしてもよい。これにより、ユーザが発話例を把握しやすくすることができる。また、発話例決定部14によって発話例の順番が決定された場合には、その順番で表示する。
なお、発話例決定部14による発話例の決定、及び発話例出力部15による発話例の出力は、例えば、通信端末10が音声に応じたタスクの実行を行うモードにされたタイミングで行われる。あるいは、当該モードにおいて発話例を表示する操作がユーザによって行われた場合に行われる。なお、上記の例では、複数のタスクの発話例を出力することとしたが、例えば、ユーザが機能のヘルプを参照する場合等にユーザによって指定された1つあるいは複数のタスクの発話例を出力することとしてもよい。また、通信端末10が音声に応じたタスクの実行を行うモードにされてから一定時間、音声入力がない場合、あるいは通信端末10が音声に応じたタスクの実行するためのアプリケーションを起動してから音声を入力するための操作(マイクボタンの押下)がない場合等に行われてもよい。また、通信端末10が音声に応じたタスクの実行するためのアプリケーションを起動してから一定時間、音声を入力するための操作(マイクボタンの押下)がない場合には、当該システムの操作方法自体が分からないと判断し、操作方法(マイクボタンに関する情報)を出すこととしてもよい。マイクボタンの押下がない場合は、結果がキャンセルされる場合と異なり、「マイクボタンを押してから発話する」という操作方法自体をユーザが理解していない可能性がある。そこで、発話例以外のシステムの操作方法に関するヘルプ情報を保持しておき、マイクボタン押下がない場合は、発話例だけでなく操作方法も合わせて提示してもよい。
以上が、本実施形態に係る通信端末10の本発明に係る機能である。なお、通信端末10は、上記の機能以外にも通信端末10が通常備える機能が備えられていてもよい。
引き続いて、図4に本実施形態に係る通信端末10のハードウェア構成を示す。図4に示すように、通信端末10は、CPU101、RAM(Random Access Memory)102、ROM(Read OnlyMemory)103、操作部104、通信モジュール105、アンテナ106、マイク107及びディスプレイ108等のハードウェアにより構成されている。これらの構成要素が動作することにより、上述した通信端末10の機能が発揮される。以上が、移動端末10の構成である。
引き続いて、図5のシーケンス図を用いて、本実施形態に係る通信端末10で実行される処理である発話例出力方法を説明する。本処理では、まず、通信端末10が、ユーザの操作等により音声に応じたタスクの実行を行うモードにされる。通信端末10では、続いて、発話例決定部14によって、過去のユーザの発話に基づく履歴情報に応じて、タスクに応じた発話例を示すテキストが、ユーザに提示される発話例として決定される(S01、発話例決定ステップ)。決定された発話例を示すテキストは、発話例出力部15に出力される。続いて、発話例出力部15よって、発話例決定部14から入力された発話例を示すテキストが、ユーザに参照可能なように表示出力される(S02、発話例出力ステップ)。ユーザは、その発話例を参照して、所望するタスクを実行するためにはどのような発話をすべきか把握することができる。
続いて、ユーザによってタスクを実行させるための発話が行われ、通信端末10では、音声入力部11によって音声データ(発話)が入力される(S03、機能実行ステップ)。続いて、当該音声データが音声入力部11から音声認識サーバ20に送信される(S04、機能実行ステップ)。音声認識サーバ20では、当該音声が受信されて入力される(S04、機能実行ステップ)。続いて、音声認識サーバ20では、入力された音声に対して音声認識が行われる(S05、機能実行ステップ)。音声認識結果である文章を示す情報が音声認識サーバ20から通信端末10に送信される(S06、機能実行ステップ)。通信端末10では、機能実行部12によって、その情報が受信されて(S06、機能実行ステップ)、意図解釈サーバ30に送信される(S07、機能実行ステップ)。
意図解釈サーバ30では、音声認識結果である文章を示す情報が受信されて入力される(S07、機能実行ステップ)。意図解釈サーバ30では、入力された文章に基づいて、通信端末10において実行されるタスクが決定される(S08、機能実行ステップ)。決定したタスクを示す情報は、意図解釈サーバ30から通信端末10に送信される(S09、機能実行ステップ)。
通信端末10では、機能実行部12によって、決定したタスクを示す情報が受信される(S09、機能実行ステップ)。続いて、機能実行部12によって、受信された情報によって示されるタスクが実行される(S10、機能実行ステップ)。続いて、履歴情報取得部13によって、上記のタスク実行に係る利用履歴を示す履歴情報が取得される(S11、履歴情報取得ステップ)。具体的には例えば、履歴情報取得部13において記憶しているタスク、あるいはタスク毎の利用回数が1回増加させられる。この利用履歴は、以降の発話例決定部14による発話例の決定(S01)、及び発話例出力部15による発話例の出力(S02)に利用される。以上が本実施形態に係る通信端末10で実行される処理である発話例出力方法である。
上述したように本実施形態によれば、音声によるタスク実行の利用履歴に応じて発話例をユーザに提示することができる。従って、本実施形態によれば、音声入力による機能の実行をさせるための発話例を、ユーザの音声入力の習熟度に応じて適切に提示することができる。
具体的には、上述したように、ユーザの音声入力の習熟度として、音声によるタスク実行の利用回数を用いることができる。このような構成によれば、適切な発話例を確実に提示することができる。また、ユーザの音声入力の習熟度として、タスク毎の利用回数を用いることができる。この構成によれば、タスク毎に適切な発話例を提示することができる。
また、上述したように出力するタスクの順番を決定することとしてもよい。この構成によれば、タスク毎に適切な優先度で発話例を提示することができる。また、上述したように利用割合と閾値との差に応じてタスクの順番を決定することとしてもよい。この構成によれば、例えば、通信網のサービス提供者等がユーザに音声入力によるタスクの実行をしてもらいたいと考えているタスクについての発話例を積極的に提示することができる。これにより、音声によるタスクの実行を促進させることができる。
また、入力された音声にタスクのスロットに入力するための文字列が含まれていたか否かに応じて発話例をユーザに提示することとしてもよい。この構成によっても、適切な発話例を確実に提示することができる。
また、ユーザがタスクのスロットに入力した文字列を発話例に含めることとしてもよい。この構成によれば、提示される発話例をユーザにより馴染みのあるものとすることができ、提示する発話例をより適切な発話例とすることができる。
なお、上述した実施形態では、音声認識やタスクの決定は、通信端末10以外の装置で行われることとしたが、通信端末10にそれらの機能が備えられており、通信端末10において音声によるタスクの実行の処理の全てが行われてもよい。この構成によれば、本発明による、音声によるタスク実行及びそれに応じた発話例の提示を確実に実行することが可能となる。その場合、本発明に係る装置(本実施形態に係る通信端末10に相当)は必ずしも通信機能を備えている必要はない。以上が第1実施形態の説明である。
(第2実施形態)
引き続いて、本発明の第2実施形態について説明する。図1に示すように、本実施形態に係る機能実行システムである通信端末10aは、基本的な構成について第1実施形態の通信端末10aと同様である。本実施形態においても、通信端末10aは、通信網を介して音声認識サーバ20a及び意図解釈サーバ30a等と通信を行うことができる。上述した第1実施形態では、ユーザが音声入力を行う前に実行しようとするタスクの発話例を示すものであったが、本実施形態では、ユーザが音声入力を行った後にユーザの意図と異なるタスクが実行される場合にタスクの発話例を示すものである。
以下の説明では、第1実施形態と相違する点について述べる。本実施形態では、意図解釈サーバ30aは、第1実施形態と同様に例えば、機械学習による方法で通信端末10において実行されるタスクを決定する。その際、意図解釈サーバ30aは、決定対象の候補となる各タスクについて、入力される文章に対するスコアを算出する。このスコアは、例えば、機械学習によって得られた学習モデルを用いて算出することができる。このスコアは、入力される文章からどのタスクが実行されるべきかを示す優先度である。通常、スコアが最も高いタスクが実行されるタスクとして決定される。なお、スコア毎の優先度は、必ずしもスコアでなくてもよく順序が把握できるものであればよい。
意図解釈サーバ30aは、上記のタスク毎のスコアを示す情報を決定したタスクを示す情報と合わせて通信端末10に送信する。なお、タスク毎のスコアを示す情報があれば通信端末10a側でもどのタスクを実行すればよいか判断できるので、タスク毎のスコアを示す情報のみを通信端末10aに送信することとしてもよい。
本実施形態においても、通信端末10aは、音声入力部11aと、機能実行部12aと、履歴情報取得部13aと、発話例決定部14aと、発話例出力部15aとを備えて構成される。
機能実行部12aは、意図解釈サーバ30aにおいて決定されたタスクを実行する前に、当該タスクを実行する旨をユーザに通知する。ユーザへの通知は、例えば、通信端末10aが備えるディスプレイ等の表示装置にその旨を表示出力することで行われる。ユーザは、この通知に対してタスクを実行するか、あるいはタスクの実行をキャンセルするかの入力を行うことができる。ユーザの音声入力によるタスクの実行は、必ずしもユーザの意図する機能が実行されるとは限らないからである。例えば、横浜の地図や天気を知りたいという意図で「横浜に行きたい」とユーザが発話した場合、ユーザの意図とは異なり乗換案内のタスクが実行されるタスクとして決定されることがある。
この入力は、例えば、音声入力により行われてもよいし、通信端末10aが備えるボタン等の操作部に対するユーザの操作により行われてもよい。例えば、ユーザが「この結果違う」と発話することで、音声入力によってタスクの実行がキャンセルされる。機能実行部12aは、通知に対してタスクを実行する旨の入力があった場合には当該タスクを実行し、通知に対してタスクの実行をキャンセル旨の入力があった場合には当該タスクの実行を中止する。機能実行部12aは、タスクの実行がキャンセルされたことを示す情報を履歴情報取得部13aに出力する。
機能実行部12aは、意図解釈サーバ30aから送信されたタスク毎のスコアを示す情報を受信する。機能実行部12aは、タスクの実行がキャンセルされたことを示す情報を出力する場合に、上記のタスク毎のスコアを示す情報を合わせて履歴情報取得部13aに出力する。
履歴情報取得部13aは、履歴情報として、実行されるタスクとして決定されたタスクの実行がキャンセルされたことを示す情報及びタスク毎のスコアを示す情報を取得する。履歴情報取得部13aは、これらの情報を発話例決定部14aに出力する。
発話例決定部14aは、履歴情報取得部13aからタスクの実行がキャンセルされたことを示す情報が入力されると、その時点でユーザに提示すべきタスクに応じた発話例を示すテキストを決定する。発話例決定部14aは、タスク毎のスコアを示す情報に応じて発話例を示すテキストを決定する。具体的には、発話例決定部14aは、実行されるタスクとして決定されキャンセルされたタスクに次ぐスコアを有するタスクの発話例を示すテキストを、ユーザに提示する発話例として決定する。なお、ユーザに提示する発話例に係るタスクは、必ずしも1つでなくてもよく複数であってもよい。その場合、スコアの順番で発話例が提示されるタスクが決定される。
例えば、キャンセルされたタスクが乗換案内であり、それに次ぐスコアを有するタスクが地図検索及び天気検索であった場合には、発話例決定部14aは、地図検索及び天気検索のタスクの発話例を示すテキストを、ユーザに提示する発話例として決定する。
また、発話例決定部14aは、予め設定された回数(閾値)、連続してユーザから同じタスクの実行がキャンセルされた場合に上記の発話例の決定を行うこととしてもよい。タスクの実行がキャンセルされる毎に、発話例の提示があるとユーザにとって煩わしいと感じる場合もありえるからである。その場合、発話例決定部14aは、予め設定された一定時間内に同じタスクの実行がキャンセルされたか否か、キャンセルの回数をカウントして判断する。
発話例出力部15aは、上述した第1実施形態と同様に発話例決定部14aから入力された発話例を示すテキストを出力する。なお、発話例決定部14aによる発話例の決定、及び発話例出力部15aによる発話例の出力は、ユーザによってタスクの実行がキャンセルされたタイミングで行われる。なお、例えば、連続してユーザから同じタスクの実行がキャンセルされた場合に発話例の出力を行う場合には、ユーザによってタスクの実行がキャンセルされたタイミングで発話例決定部14aが当該条件(連続して同じタスクがキャンセルされた回数が予め設定された回数に達したという条件)を満たすか否かを判断する。そして、条件を満たしたと判断された場合に、発話例決定部14aによる発話例の決定、及び発話例出力部15aによる発話例の出力を行う。
引き続いて、図6のシーケンス図を用いて、本実施形態に係る通信端末10aで実行される処理である発話例出力方法を説明する。本処理では、まず、通信端末10aが、ユーザの操作等により音声に応じたタスクの実行を行うモードにされる。続いて、ユーザによってタスクを実行させるための発話が行われ、通信端末10aでは、音声入力部11aによって音声データ(発話)が入力される(S21、機能実行ステップ)。なお、通信端末10aでは、音声に応じたタスクの実行を行うモードにされた際に第1実施形態と同様に発話例が表示出力されてもよい。
続いて、当該音声データが音声入力部11aから音声認識サーバ20aに送信される(S22、機能実行ステップ)。音声認識サーバ20aでは、当該音声が受信されて入力される(S22、機能実行ステップ)。続いて、音声認識サーバ20aでは、入力された音声に対して音声認識が行われる(S23、機能実行ステップ)。音声認識結果である文章を示す情報が音声認識サーバ20aから通信端末10に送信される(S24、機能実行ステップ)。通信端末10aでは、機能実行部12aによって、その情報が受信されて(S24、機能実行ステップ)、意図解釈サーバ30aに送信される(S25、機能実行ステップ)。
意図解釈サーバ30aでは、音声認識結果である文章を示す情報が受信されて入力される(S25、機能実行ステップ)。意図解釈サーバ30aでは、入力された文章に基づいて、通信端末10aにおいて実行されるタスクが決定される(S26、機能実行ステップ)。決定したタスクを示す情報は、意図解釈サーバ30aから通信端末10aに送信される(S27、機能実行ステップ)。
通信端末10aでは、機能実行部12aによって、決定したタスクを示す情報が受信される(S27、機能実行ステップ)。続いて、機能実行部12aによって、当該タスクを実行する旨がユーザに通知される(S28、機能実行ステップ)。続いて、機能実行部12aによってタスクの実行をキャンセルする旨が入力される。当該入力は、ユーザが当該タスクの実行をさせたくないと考えたときに、ユーザの通信端末10aに対する操作や音声入力により行われる。機能実行部12aによってタスクの実行をキャンセルする旨が入力されと機能実行部12aによって当該タスクの実行が中止される(S29、機能実行ステップ)。なお、この時点で、機能実行部12aによってタスクを実行する旨が入力された場合には、当該タスクが実行される。
タスクの実行が中止されると、機能実行部12aからタスクの実行がキャンセルされたことを示す情報、及びタスク毎のスコアを示す情報が履歴情報取得部13aに出力され、履歴情報取得部13aによって当該情報が履歴情報として取得される(S30、履歴情報取得ステップ)。履歴情報は、履歴情報取得部13aから発話例決定部14aに出力される。
続いて、発話例決定部14aによって入力された履歴情報に基づいて、発話例提示の条件を満たすか否かが判断される(S31、発話例決定ステップ)。例えば、連続してユーザから同じタスクの実行がキャンセルされたか否かが判断される。発話例提示の条件を満たさないと判断された場合は、再度、ユーザからの音声の入力を待ち、ユーザの発話があると音声入力部11aによって音声データ(発話)が入力され、上記の処理が繰り返される(S21〜)。
発話例提示の条件を満たすと判断された場合は、発話例決定部14aによって、タスク毎のスコアを示す情報に応じて発話例を示すテキストが決定される(S32、発話例決定ステップ)。決定された発話例を示すテキストは、発話例出力部15aに出力される。続いて、発話例出力部15aよって、発話例決定部14aから入力された発話例を示すテキストが、ユーザに参照可能なように表示出力される(S33、発話例出力ステップ)。ユーザは、その発話例を参照して、所望するタスクを実行するためにはどのような発話をすべきか把握することができる。その後、再度、ユーザからの音声の入力を待ち、ユーザの発話があると音声入力部11aによって音声データ(発話)が入力され、上記の処理が繰り返される(S21〜)。以上が本実施形態に係る通信端末10で実行される処理である発話例出力方法である。
上述したように本実施形態によれば、ユーザによる発話によりユーザが所望するタスクが実行されなかった場合、即ち、音声によるタスク実行が適切に行われなかった場合に、適切な発話例を確実に提示することができる。具体的には、ユーザが所望している可能性が高いタスクを実行するためのタスクの発話例をユーザに提示することができる。
10,10a…通信端末、11,11a…音声入力部、12,12a…機能実行部、13,13a…履歴情報取得部、14,14a…発話例決定部、15,15a…発話例出力部、101…CPU、102…RAM、103…ROM、104…操作部、105…通信モジュール、106…アンテナ、107…マイク、108…ディスプレイ、20,20a…音声認識サーバ、30,30a…意図解釈サーバ。

Claims (10)

  1. 音声を入力して、入力した音声に基づいて、実行される機能として決定された機能を示す実行機能情報を取得して音声による機能実行を行う機能実行手段と、
    前記機能実行手段により行われる音声による機能実行の利用履歴を示す履歴情報を取得する履歴情報取得手段と、
    前記履歴情報取得手段によって取得された履歴情報に応じて、前記機能に応じた発話例を示すテキストを決定する発話例決定手段と、
    前記発話例決定手段によって決定された発話例を示すテキストを出力する発話例出力手段と、
    を備える機能実行システム。
  2. 前記履歴情報取得手段は、前記履歴情報として前記音声による機能実行の利用回数を示す情報を取得し、
    前記発話例決定手段は、前記履歴情報取得手段によって取得された履歴情報によって示される前記音声による機能実行の利用回数に応じて、前記機能に応じた発話例を示すテキストを決定する、請求項1に記載の機能実行システム。
  3. 前記履歴情報取得手段は、前記履歴情報として前記機能毎の前記音声による機能実行の利用回数を示す情報を取得し、
    前記発話例決定手段は、前記履歴情報取得手段によって取得された履歴情報によって示される前記機能毎の前記音声による機能実行の利用回数に応じて、前記機能に応じた発話例を示すテキストを前記機能毎に決定する、請求項2に記載の機能実行システム。
  4. 前記履歴情報取得手段は、前記履歴情報として前記機能毎の前記音声による機能実行の利用回数を示す情報を取得し、
    前記発話例決定手段は、前記履歴情報取得手段によって取得された履歴情報によって示される前記機能毎の前記音声による機能実行の利用回数に応じて、前記機能に応じた発話例を示すテキストの前記機能毎の順番を決定する、請求項2又は3に記載の機能実行システム。
  5. 前記発話例決定手段は、前記履歴情報取得手段によって取得された履歴情報によって示される前記機能毎の前記音声による機能実行の利用回数に基づいて前記機能毎の機能実行の利用割合を算出して、算出した割合と前記機能毎に予め設定された閾値との差に応じて、前記機能に応じた発話例を示すテキストの前記機能毎の順番を決定する請求項4に記載の機能実行システム。
  6. 前記機能実行手段によって実行される機能には、文字列を入力して実行する機能が含まれており、
    前記履歴情報取得手段は、前記履歴情報として前記音声による機能実行の利用が入力した音声に基づく文字列の入力を伴うものであるか否かを示す情報を取得し、
    前記発話例決定手段は、前記履歴情報取得手段によって取得された履歴情報によって示される、前記音声による機能実行の利用が文字列の入力を伴うものであるか否かに応じて、前記機能に応じた発話例を示すテキストを前記機能毎に決定する、請求項1〜5の何れか一項に記載の機能実行システム。
  7. 前記機能実行手段によって実行される機能には、文字列を入力して実行する機能が含まれており、
    前記機能実行手段は、実行される機能として決定された機能を示す実行機能情報と共に当該機能に入力される文字列を示す情報を取得し、
    前記発話例決定手段は、前記機能に応じた発話例を示すテキストに、前記機能実行手段によって取得された情報によって示される当該機能に入力される文字列を含める、請求項1〜6の何れか一項に記載の機能実行システム。
  8. 前記機能実行手段は、入力した音声に基づいて決定された、前記機能毎の優先度を示す情報を取得し、
    前記履歴情報取得手段は、前記履歴情報として、実行される機能として決定された機能の実行がキャンセルされたことを示す情報を取得し、
    前記発話例決定手段は、前記履歴情報取得手段によって、実行される機能として決定された機能の実行がキャンセルされたことを示す情報が取得された場合に、前記機能実行手段によって取得された情報によって示される前記機能毎の優先度に応じて、前記機能に応じた発話例を示すテキストを決定する、請求項1〜7の何れか一項に記載の機能実行システム。
  9. 前記機能実行手段は、入力した音声に対して音声認識を行って、音声認識を行った結果に基づいて実行される機能を決定する請求項1〜8の何れか一項に記載の機能実行システム。
  10. 音声を入力して、入力した音声に基づいて、実行される機能として決定された機能を示す実行機能情報を取得して音声による機能実行を行う機能実行ステップと、
    前記機能実行ステップにおいて行われる音声による機能実行の利用履歴を示す履歴情報を取得する履歴情報取得ステップと、
    前記履歴情報取得ステップにおいて取得された履歴情報に応じて、前記機能に応じた発話例を示すテキストを決定する発話例決定ステップと、
    前記発話例決定ステップにおいて決定された発話例を示すテキストを出力する発話例出力ステップと、
    を含む発話例出力方法。
JP2013002666A 2013-01-10 2013-01-10 機能実行システム及び発話例出力方法 Active JP6122642B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013002666A JP6122642B2 (ja) 2013-01-10 2013-01-10 機能実行システム及び発話例出力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013002666A JP6122642B2 (ja) 2013-01-10 2013-01-10 機能実行システム及び発話例出力方法

Publications (2)

Publication Number Publication Date
JP2014134675A true JP2014134675A (ja) 2014-07-24
JP6122642B2 JP6122642B2 (ja) 2017-04-26

Family

ID=51412988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013002666A Active JP6122642B2 (ja) 2013-01-10 2013-01-10 機能実行システム及び発話例出力方法

Country Status (1)

Country Link
JP (1) JP6122642B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016114395A (ja) * 2014-12-12 2016-06-23 クラリオン株式会社 音声入力補助装置、音声入力補助システムおよび音声入力方法
JP2017078848A (ja) * 2015-10-19 2017-04-27 グーグル インコーポレイテッド スピーチエンドポインティング
JP2017167199A (ja) * 2016-03-14 2017-09-21 三菱自動車工業株式会社 運転支援システム
CN107464561A (zh) * 2016-06-06 2017-12-12 谷歌公司 语音动作可发现性系统
WO2018194267A1 (ko) * 2017-04-17 2018-10-25 삼성전자 주식회사 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
WO2019035371A1 (ja) * 2017-08-17 2019-02-21 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10269341B2 (en) 2015-10-19 2019-04-23 Google Llc Speech endpointing
CN110520925A (zh) * 2017-06-06 2019-11-29 谷歌有限责任公司 询问结束检测
JP2020144932A (ja) * 2015-05-27 2020-09-10 グーグル エルエルシー 提案される音声ベースのアクションクエリの提供
US10929754B2 (en) 2017-06-06 2021-02-23 Google Llc Unified endpointer using multitask and multidomain learning
JP2021067907A (ja) * 2019-10-28 2021-04-30 株式会社日立製作所 対話システム、対話プログラムおよび対話システムの制御方法
WO2021111767A1 (ja) * 2019-12-04 2021-06-10 株式会社Nttドコモ 対話支援装置
WO2021157254A1 (ja) * 2020-02-05 2021-08-12 株式会社Nttドコモ 解析装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212594A (ja) * 1998-01-22 1999-08-06 Nec Corp 音声対話装置
JP2004258233A (ja) * 2003-02-25 2004-09-16 Fujitsu Ltd 適応型音声対話システム及び方法
JP2004333543A (ja) * 2003-04-30 2004-11-25 Matsushita Electric Ind Co Ltd 音声対話システム及び音声対話方法
JP2006058641A (ja) * 2004-08-20 2006-03-02 Nissan Motor Co Ltd 音声認識装置
JP2007114475A (ja) * 2005-10-20 2007-05-10 Honda Motor Co Ltd 音声認識機器制御装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212594A (ja) * 1998-01-22 1999-08-06 Nec Corp 音声対話装置
JP2004258233A (ja) * 2003-02-25 2004-09-16 Fujitsu Ltd 適応型音声対話システム及び方法
JP2004333543A (ja) * 2003-04-30 2004-11-25 Matsushita Electric Ind Co Ltd 音声対話システム及び音声対話方法
JP2006058641A (ja) * 2004-08-20 2006-03-02 Nissan Motor Co Ltd 音声認識装置
JP2007114475A (ja) * 2005-10-20 2007-05-10 Honda Motor Co Ltd 音声認識機器制御装置

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016114395A (ja) * 2014-12-12 2016-06-23 クラリオン株式会社 音声入力補助装置、音声入力補助システムおよび音声入力方法
JP2020144932A (ja) * 2015-05-27 2020-09-10 グーグル エルエルシー 提案される音声ベースのアクションクエリの提供
US11238851B2 (en) 2015-05-27 2022-02-01 Google Llc Providing suggested voice-based action queries
JP6993466B2 (ja) 2015-05-27 2022-01-13 グーグル エルエルシー 提案される音声ベースのアクションクエリの提供
US11869489B2 (en) 2015-05-27 2024-01-09 Google Llc Providing suggested voice-based action queries
JP2017078848A (ja) * 2015-10-19 2017-04-27 グーグル インコーポレイテッド スピーチエンドポインティング
US10269341B2 (en) 2015-10-19 2019-04-23 Google Llc Speech endpointing
US11062696B2 (en) 2015-10-19 2021-07-13 Google Llc Speech endpointing
US11710477B2 (en) 2015-10-19 2023-07-25 Google Llc Speech endpointing
JP2017167199A (ja) * 2016-03-14 2017-09-21 三菱自動車工業株式会社 運転支援システム
US11929075B2 (en) 2016-06-06 2024-03-12 Google Llc Voice action discoverability system
US10741183B2 (en) 2016-06-06 2020-08-11 Google Llc Trigger phrase for voice actions of software applications
JP2019523930A (ja) * 2016-06-06 2019-08-29 グーグル エルエルシー 音声アクション発見可能性システム
CN113571058A (zh) * 2016-06-06 2021-10-29 谷歌有限责任公司 语音动作可发现性系统
CN107464561A (zh) * 2016-06-06 2017-12-12 谷歌公司 语音动作可发现性系统
CN113571058B (zh) * 2016-06-06 2022-11-11 谷歌有限责任公司 语音动作可发现性系统
WO2018194267A1 (ko) * 2017-04-17 2018-10-25 삼성전자 주식회사 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
CN110520925B (zh) * 2017-06-06 2020-12-15 谷歌有限责任公司 询问结束检测
US10929754B2 (en) 2017-06-06 2021-02-23 Google Llc Unified endpointer using multitask and multidomain learning
US10593352B2 (en) 2017-06-06 2020-03-17 Google Llc End of query detection
CN110520925A (zh) * 2017-06-06 2019-11-29 谷歌有限责任公司 询问结束检测
US11676625B2 (en) 2017-06-06 2023-06-13 Google Llc Unified endpointer using multitask and multidomain learning
US11551709B2 (en) 2017-06-06 2023-01-10 Google Llc End of query detection
US11322141B2 (en) 2017-08-17 2022-05-03 Sony Corporation Information processing device and information processing method
WO2019035371A1 (ja) * 2017-08-17 2019-02-21 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7348027B2 (ja) 2019-10-28 2023-09-20 株式会社日立製作所 対話システム、対話プログラムおよび対話システムの制御方法
JP2021067907A (ja) * 2019-10-28 2021-04-30 株式会社日立製作所 対話システム、対話プログラムおよび対話システムの制御方法
WO2021111767A1 (ja) * 2019-12-04 2021-06-10 株式会社Nttドコモ 対話支援装置
WO2021157254A1 (ja) * 2020-02-05 2021-08-12 株式会社Nttドコモ 解析装置

Also Published As

Publication number Publication date
JP6122642B2 (ja) 2017-04-26

Similar Documents

Publication Publication Date Title
JP6122642B2 (ja) 機能実行システム及び発話例出力方法
KR102145660B1 (ko) 가상 비서에서 커맨드 처리를 용이하게 하기 위한 컨텍스트 정보의 이용
EP3335190B1 (en) Device and method for providing user-customized content
EP2893526B1 (en) Context-sensitive handling of interruptions by intelligent digital assistants
EP2863300B1 (en) Function execution instruction system, function execution instruction method, and function execution instruction program
US20210134278A1 (en) Information processing device and information processing method
CN105874531B (zh) 终端设备、服务器设备以及计算机可读记录介质
AU2016213815A1 (en) Systems and methods for integrating third party services with a digital assistant
US20170148436A1 (en) Speech processing system and terminal
JP6922920B2 (ja) 情報処理装置及び情報処理方法
JP6073881B2 (ja) 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
JP2020003925A (ja) 対話システムの制御方法、対話システム及びプログラム
JP5616390B2 (ja) 応答生成装置、応答生成方法および応答生成プログラム
US20160098994A1 (en) Cross-platform dialog system
WO2018043137A1 (ja) 情報処理装置及び情報処理方法
JPWO2017175442A1 (ja) 情報処理装置、および情報処理方法
JP6110264B2 (ja) ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、プログラム、システムおよび方法
JP2019105904A (ja) サービス提供装置、サービス提供プログラム及び音声認識によるサービスを提供する方法
JP2011065526A (ja) オペレーティングシステム及びオペレーティング方法
JP5341548B2 (ja) 音声認識装置
US11942086B2 (en) Description support device and description support method
JP6081966B2 (ja) 情報検索装置、情報検索プログラム、および情報検索システム
EP3806090A1 (en) Information processing device, information processing method, and program
WO2011030404A1 (ja) オペレーティングシステム及びオペレーティング方法
JP6351440B2 (ja) 音声認識装置及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170403

R150 Certificate of patent or registration of utility model

Ref document number: 6122642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250