JP6251450B2 - 対話支援装置、方法およびプログラム、および端末 - Google Patents

対話支援装置、方法およびプログラム、および端末 Download PDF

Info

Publication number
JP6251450B2
JP6251450B2 JP2017504533A JP2017504533A JP6251450B2 JP 6251450 B2 JP6251450 B2 JP 6251450B2 JP 2017504533 A JP2017504533 A JP 2017504533A JP 2017504533 A JP2017504533 A JP 2017504533A JP 6251450 B2 JP6251450 B2 JP 6251450B2
Authority
JP
Japan
Prior art keywords
dialog
state
dialogue
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017504533A
Other languages
English (en)
Other versions
JPWO2016143131A1 (ja
Inventor
藤井 寛子
寛子 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JPWO2016143131A1 publication Critical patent/JPWO2016143131A1/ja
Application granted granted Critical
Publication of JP6251450B2 publication Critical patent/JP6251450B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、対話支援装置、方法およびプログラム、および端末に関する。
近年、スマートフォンなどの小型携帯端末の急速な普及に伴い、自由発話入力の対話システムが注目される。自由発話入力の対話システムでは、ユーザがシステムに合わせるのではなく、システムがユーザに合わせて意図推定を行うため、ユーザは決まったフレーズを使う必要がなく、自分のやりたいことを自由な表現で機器に指示できる。このような対話システムにおいて、過去の対話で実行した検索の条件を変えて、新たな検索を行う場合、対話を戻す処理が必要となる。
対話を戻す手法としては、ユーザが「戻る」と発話せずに、検索条件が排反であるかどうかにより適用すべき対話状態を選択する手法がある。
特開2001−22779号公報
しかし、上述の手法では、最新のユーザ発話は常に1つの対話状態について適用される。よって、例えばインターネットのオンラインショップで旅行や服などの商品を比較検討する場合に、ほぼ同一の条件を何度も入力する必要があり、ユーザにとって手間がかかる。
本開示は、上述の課題を解決するためになされたものであり、円滑な対話を支援することができる対話支援装置、方法およびプログラム、および端末を提供することを目的とする。
本実施形態に係る対話支援装置は、第1受理部、判定部、処理部および画面更新部を含む。第1受理部は、ユーザの意図を示す入力情報を受理する。判定部は、前記意図を推定し該意図に応じた処理を行う対話システムとユーザとの対話結果を示す対話状態に関する履歴である対話履歴のうち、前記ユーザからの指示の対象となる1以上の対話状態を対象対話状態として判定する。処理部は、前記入力情報と前記対象対話状態とを前記対話システムに入力し、該対話システムから処理結果を得る。画面更新部は、前記処理結果の表示を更新するための第1更新情報を生成する。
前提となる対話システムの一例を示す概念図。 第1の実施形態に係る対話支援装置のブロック図。 対話情報格納部に格納される対話情報テーブルの一例を示す図。 ユーザからの発話を受理する場合の対話支援装置の動作を示すフローチャート。 ユーザからの操作を受理する場合の対話支援装置の動作を示すフローチャート。 第1の実施形態に係るユーザと対話システムとの対話の具体例を示す図。 第1の実施形態に係るインタフェース画面の一例を示す図。 ユーザ発話U2に対する処理結果の表示例を示す図。 ユーザ発話U3に関する対話情報を追加したときの対話情報テーブルを示す図。 ユーザ発話U3に対する処理結果の表示例を示す図。 2つの検索結果が並列して表示される表示例を示す図。 ユーザ発話U5に関する対話情報を追加したときの対話情報テーブルを示す図。 ユーザ発話U5に対する処理結果の表示例を示す図。 第2の実施形態に係るユーザと対話システムとの対話の具体例を示す図。 ユーザ発話U13に関する対話情報を追加したときの対話情報テーブルを示す図。 ユーザ発話U13に対する処理結果の表示例を示す図。 ユーザ発話U14に関する対話情報を追加したときの対話情報テーブルを示す図。 第2の実施形態に係るインタフェース画面の表示例を示す図。 対話状態切り替えボタンを押下した場合のインタフェース画面の表示例を示す図。
以下、図面を参照しながら本実施形態に係る対話支援装置、方法およびプログラム、および端末について詳細に説明する。なお、以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。
(第1の実施形態)
本実施形態で前提となる対話システムの一例について図1の概念図を参照して説明する。
図1に示す対話システム100は、端末101と対話処理サーバ102とを含む。端末101は、例えば、ユーザ103が使用するタブレットPC、およびスマートフォンなどの携帯端末である。本実施形態では、ユーザ103が端末101に搭載されるクライアントアプリに対して音声入力を行い、音声認識をおこなって音声認識結果を得ることを前提とするが、テキスト入力するような場合でも同様に処理することができる。端末101は、音声認識結果を対話処理サーバ102に送信する。
対話処理サーバ102は、端末101とネットワーク104を介して接続され、端末101から音声認識結果を受信する。対話処理サーバ102は、音声認識結果からユーザの意図を推定し、意図に応じた処理を行う対話システムとして動作し、音声認識結果に対して対話処理を行う。対話処理サーバ102は、対話処理の処理結果を端末101に送信する。
次に、本実施形態に係る対話支援装置について図2のブロック図を参照して説明する。
本実施形態に係る対話支援装置200は、操作受理部201(第2受理部ともいう)、対話受理部202(第1受理部ともいう)、対話情報格納部203、対象判定部204、要求処理部205、対話情報更新部206および画面更新部207を含む。
なお、本実施形態に係る対話支援装置200は、図1において、対話処理サーバ102に含まれてもよいし、対話処理サーバ102とは別のサーバに含まれてもよい。対話処理サーバ102または別のサーバに対話支援装置200が含まれる場合は、端末101は、マイクなどの音声取得部、インタフェース画面を表示する表示部およびデータ通信を行う通信部を含めばよい。さらに、対話支援装置200は、端末101に含まれてもよい。
操作受理部201は、画面に対するユーザの操作を受理し、操作対象と操作内容とを得る。操作対象と操作内容との取得処理は、タブレット端末などで一般的なユーザインタフェースでの処理を用いればよく、ここでの詳細な説明は省略する。
対話受理部202は、ユーザの発話を音声信号として受理し、音声信号を音声認識することにより、音声認識結果のテキストをユーザの意図を示す入力情報として受理する。音声信号は、例えば、図1に示す端末101に搭載されるマイクロフォンに対してユーザが発話した音声を取得すればよい。音声認識処理は、いわゆるクラウドコンピューティング上の音声認識サーバ(図示せず)を利用してもよいし、端末101にインストールされた音声認識エンジンを利用してもよい。なお、対話受理部202は、ユーザがキーボードなどにより直接入力したテキストを入力情報として受理してもよい。
対話情報格納部203は、対話システムとユーザとの対話結果を示す対話状態に関する対話情報をテーブルとして格納する。テーブルは、時系列に沿って対話情報が識別されることにより、対話状態に関する履歴である対話履歴も表現する。対話情報の詳細については、図3を参照して後述する。
対象判定部204は、対話受理部202から入力情報を受け取り、対話情報格納部203に格納される対話情報を参照し、ユーザからの指示に応じて、対話履歴のうちの対象となる対話状態を対象対話状態として判定する。
要求処理部205は、対象判定部204から対話状態および入力情報を受け取り、対話状態および入力情報を対話処理システムに入力、ここでは図1の対話処理サーバ102に送信する。要求処理部205は、対話処理サーバ102において対話処理された結果である処理結果を得る。
対話情報更新部206は、操作受理部201から操作対象および操作内容を、要求処理部205から処理結果をそれぞれ取得し、対話情報格納部203に格納される対話情報を更新する。
画面更新部207は、対話情報更新部206から処理結果、操作対象および操作内容を受け取り、インタフェース画面における処理結果の表示を更新するための更新情報を生成する。インタフェース画面は、例えば、端末101のディスプレイに表示される画面であり、更新情報に基づいて随時更新される。
次に、対話情報格納部203に格納される対話情報について図3を参照して説明する。
図3に示すテーブル300は、対話状態識別子301、対話列識別子302、対話状態名303、表示状況フラグ304、時刻305およびシステム応答データ306がそれぞれ関連づけられて対話情報307として格納される。
対話状態識別子301は、各対話状態に対して付与される識別子である。対話列識別子302は、対話的に関連する対話状態のまとまりに対して付与される識別子である。対話列識別子302の付与ルールは、対話処理サーバ102で予め定義されるルールを用いる場合を想定するが、端末側で決定されるルールを用いてもよい。予め定義されるルールとしては、例えば、同一の対話シナリオに含まれる対話状態には、同一の識別子が付与されるといったものが挙げられる。
対話状態名303は、対話処理サーバ102で管理している対話状態に付与される名称である。表示状況フラグ304は、対話状態がクライアントのインタフェース画面(ここでは、端末101の画面)にどのように表示されているかを示すフラグである。本実施形態では、表示状況フラグ304が「0」である場合は処理結果を表示しないことを示し、「1」である場合はインタフェース画面に処理結果を通常表示することを示し、「2」である場合はインタフェース画面に処理結果をサムネイル表示することを示す。通常表示は、ユーザが処理結果の内容を検討する際に視認できるサイズでの表示を示す。サムネイル表示は、通常表示よりも小さい表示であり、単なる縮小表示でもよいし、検索のキーワードを含む文字列のみでもよいし、ユーザが意図した条件が理解でき、かつ通常表示の妨げにならない表示であればよい。
時刻305は、対話処理サーバ102から、処理結果を含むシステム応答を取得した時刻である。システム応答データ306は、要求処理部205からの要求に対する対話処理サーバ102の応答データ本体を示す。応答データ本体には、例えば、音声合成のテキスト、検索結果のXML、JSON形式のデータが含まれる。
具体的には、例えば、対話状態識別子301「1」、対話列識別子302「1」、対話状態名303「Search_spot(京都)」、表示状況フラグ304「0」、時刻305「2014/07/07 12:05:11」およびシステム応答データ306がそれぞれ対応付けられて、対話情報307として格納される。
次に、ユーザからの発話を受理する場合の対話支援装置200の動作について図4のフローチャートを参照して説明する。ここでは、ユーザからの発話があるごとに処理が行われるものとする。
ステップS401では、対話受理部202が、ユーザの発話を受理し、発話を音声認識したテキストを生成する。
ステップS402では、対象判定部204が、ユーザからの要求の対象となる発話を特定する。本実施形態では、対話情報に含まれる表示状況フラグが「1」、つまり通常表示である対話状態をユーザが対象とする対話状態であると判定し、表示状況フラグが「1」である対話状態を対象対話状態として得る。
ステップS403では、要求処理部205が、処理要求として、発話を音声認識したテキストと対象対話状態とを対話処理サーバ102に送信する。
ステップS404では、要求処理部205が、対話処理サーバ102から処理要求に対する処理結果を受信する。
ステップS405では、対話情報更新部206が、処理結果に基づいて、対話情報格納部203に格納される対話情報を更新する。
ステップS406では、画面更新部207が、更新された対話情報に基づいて、画面を更新するための更新情報を生成する。以上で、対話支援装置200の動作を終了する。
次に、ユーザからの操作を受理する場合の対話支援装置200の動作について図5のフローチャートを参照して説明する。ここでは、ユーザの操作を取得するたびに処理が行われるものとする。
ステップS501では、操作受理部201が、ユーザの操作を受理し、操作対象となる対話状態を判定する。
ステップS502では、操作受理部201が、操作内容として、ユーザの操作が拡大表示に対応する操作であるかどうかを判定する。拡大表示に対応する操作である場合ステップS503に進み、拡大表示に対応しない操作である場合ステップS504に進む。
ステップS503では、対話情報更新部206が、操作対象となる対話状態に関する対話情報について、表示状況フラグを「1」に更新する。
ステップS504では、操作受理部201が、操作内容として、ユーザの操作が縮小表示に対応する操作であるかどうかを判定する。縮小表示に対応する操作である場合ステップS505に進み、縮小表示に対応しない操作である場合、処理を終了する。
ステップS505では、対話情報更新部206が、操作対象となる対話状態に関する対話情報について、表示状況フラグを「2」に更新する。
ステップS506では、画面更新部207が、更新された対話情報に基づいて画面を更新するための更新情報を生成する。以上でユーザからの操作を受理する場合の対話支援装置200の動作を終了する。
次に、対話支援装置200の対話支援処理の具体例について図6から図13までを参照して説明する。
図6は、まだ旅行先など具体的なことが決まっていないユーザが、まず候補地の観光スポットを検索して比較し、次に候補地付近のホテルを検索する場合の、ユーザと対話システムとの対話例である。ユーザ発話(U1、U2・・・)とシステム応答(S1、S2・・・)とが発話の時系列順に並べられる。また、インタフェース画面へのユーザの操作がある場合は、(UI1、・・・)として発話の時系列に追加する。
以下、図6に示すユーザの発話順に沿った処理について具体的に説明する。
ここで、ユーザが対話および操作するためのインタフェース画面の一例について図7を参照して説明する。
インタフェース画面700には、表示領域701と音声認識ボタン702とが表示される。音声認識ボタン702は、音声認識開始のタイミングをユーザが通知するためのボタンであり、実際に押下可能なボタンでもよいし、画面上に形成されるボタンでもよい。ユーザが音声認識ボタン702を押下またはタッチすると、音声認識処理が開始されるとする。なお、音声認識ボタン702を押下せずに、ユーザが所定の音量以上で発話すると音声認識処理が開始されるような設計でもよい。
なお、以下では、画面更新部207が、生成した更新情報に基づいて直接インタフェース画面を更新する場合を想定する。
<ユーザ発話U1に対する処理>
ユーザがユーザ発話U1「京都の観光スポット教えて」を発話する。対話受理部202は、ユーザ発話U1を受理し、音声認識処理を行ってテキストに変換する。続いて、対象判定部204が、対話情報を参照し、インタフェース画面700に処理結果が表示されている対話状態があるか否かを判定する。ユーザ発話U1の発話時点では、インタフェース画面700に何も表示されておらず、対話情報格納部203に対話情報も格納されていないため、対象判定部204は、対話状態を「対象なし」と判定する。
要求処理部205は、ユーザ発話U1と対話状態「対象なし」との情報を含む処理要求メッセージを生成し、対話処理サーバ102に処理要求メッセージを送信する。
対話処理サーバ102では、ユーザ発話U1の対象となる対話状態がないことから、ユーザ発話を受理可能な対話シナリオを検索して実行する。ここでは、観光スポット検索処理を実行したと仮定する。対話処理サーバ102は、観光スポット検索処理の処理結果を含む応答メッセージを要求処理部205に送信する。応答メッセージは、ユーザ発話U1のテキスト、観光スポット検索処理の処理結果に加え、対話情報の要素となる対話状態識別子、対話列識別子、対話状態名および処理時刻を含む。ここでは、最初の対話状態であるので、対話状態識別子が「1」であり、対話列識別子が「1」であり、対話状態名が「Search_spot(京都)」である。
要求処理部205は、対話処理サーバ102から応答メッセージを受信する。対話情報更新部206は、要求処理部205から取得した応答メッセージに含まれるユーザ発話U1のテキスト、ユーザ発話U1に対する処理結果に対応する対話状態識別子、対話列識別子および処理時刻を用いて、対話情報格納部203に格納される対話情報を更新する。このとき、観光スポット検索処理の処理結果が表示されるので、表示状況フラグが「1」に設定される。すなわち、対話状態識別子301「1」、対話列識別子302「1」、対話状態名「Search_spot(京都)」、表示状況フラグ304「1」、時刻305「2014/07/07 12:05:11」およびシステム応答データ306が対応付けられて、対話情報307として格納される。
画面更新部207は、ユーザ発話U1に対する処理結果を表示領域701に通常表示する。なお、表示と共に対話システムからのシステム応答S1「京都の観光スポットを表示します。」を音声出力または画面表示してもよい。ここで、ユーザ発話U1に対する対話システムの処理結果が図7に示す画面表示となり、京都の観光スポットの検索結果が通常表示される。
<ユーザ発話U2に対する処理>
次に、ユーザが新たなユーザ発話U2「嵐山周辺に絞って」を発話する。
対話受理部202は、ユーザ発話U2を受理し、音声認識処理を行ってテキストに変換する。対象判定部204が、対話情報格納部203に格納される対話情報を参照して、ユーザ発話U2の対象となる対話状態を判定する。対象となる対話状態は、表示状況フラグが「1」である対話状態であり、ここでは、対話状態識別子が「1」の対話状態を対象対話状態として判定する。
要求処理部205は、ユーザ発話U2と、対象対話状態の対話情報とを含む要求メッセージを生成し、対話処理サーバ102に処理要求メッセージを送信する。
対話処理サーバ102では、ユーザ発話U2の意図を解析し、対象対話状態に対する絞り込み検索要求であると判定する。この判定については、音声対話における一般的な対話シナリオ判定を用いればよいため、ここでの詳細な説明は省略する。よって、同じまとまりの対話であるので、新たに生成される対話状態(対話状態識別子「2」)に関する対話列識別子が、対象対話状態に関する対話列識別子と同じ「1」に設定される。対話処理サーバ102は、発話の意図解析結果と、これに対応する対話シナリオとに基づいて処理(この例の場合は検索処理)を行い、検索処理の処理結果を含む応答メッセージを要求処理部205に送信する。
対話情報更新部206は、ユーザ発話U1の場合と同様に、要求処理部205から取得した応答メッセージの内容に従い、ユーザ発話U2のテキスト、ユーザ発話U2に対する処理結果に関する情報を対話情報として追加更新する。すなわち、対話状態識別子301「2」、対話列識別子302「1」、対話状態名「Search_spot(嵐山)」、表示状況フラグ304「1」、時刻305「2014/07/07 12:05:45」およびシステム応答データ306が対応付けられて、対話情報307として格納される。
また、表示領域701に表示される検索結果は、ユーザ発話U2に対する処理結果となるため、ユーザ発話U1に対応する表示状況フラグ304も合わせて更新される。すなわち、対話状態識別子301が「1」である対話情報は画面に表示されなくなるため、表示状況フラグ304が「1」から「0」に更新される。
画面更新部207は、ユーザ発話U2に対する処理結果を表示領域701に通常表示する。ユーザ発話U2に対する処理結果の表示例を図8に示す。システム応答S2「嵐山周辺の観光スポットです。」が出力され、嵐山周辺の観光スポットが通常表示される。
<ユーザ発話U3に対する処理>
次に、ユーザが新たなユーザ発話U3「伊豆にしてみて」と発話する。
対話受理部202は、ユーザ発話U3を受理し、音声認識処理を行ってテキストに変換する。対象判定部204は、対話情報格納部203に格納される対話情報を参照して、対話情報の表示状況フラグが「1」である対話状態識別子が「2」の対話情報を対象対話状態として判定する。
要求処理部205は、ユーザ発話U3と、対象対話状態の対話情報とを含む要求メッセージを生成し、対話処理サーバ102に処理要求メッセージを送信する。
対話処理サーバ102では、ユーザ発話U3の意図を解析し、今度は絞り込み検索ではなく、場所を変更した(新たな)観光スポット検索要求であると判定する。この判定も一般的な対話シナリオ判定を用いればよい。この場合、同じまとまりの対話ではないため、ユーザ発話U3を処理した結果として生成される新たに生成される対話状態(対話状態識別子「3」)には、新たな対話列識別子「2」が付与される。対話処理サーバ102は、発話の意図解析結果と対話シナリオとに基づいて処理し、検索処理の処理結果を含む応答メッセージを要求処理部205に送信する。
対話情報更新部206では、要求処理部205から取得した応答メッセージの内容に従い、ユーザ発話U3のテキスト、ユーザ発話U3に対する処理結果に関する情報を対話情報として追加更新する。すなわち、対話状態識別子301「3」、対話列識別子302「2」、対話状態名「Search_spot(伊豆)」、表示状況フラグ304「1」、時刻305「2014/07/07 12:06:20」およびシステム応答データ306が対応付けられて、対話情報307として格納される。
このとき、対話情報更新部206は、現在表示状況フラグが「1」である対話状態の対話列識別子と、追加しようとしている新たな対話状態の対話列識別子とが同じか否かを判定する。同じでない場合は、現在表示状況フラグが「1」であるフラグを「2」に変更し、新たに追加する対話状態の表示状況フラグを「1」に設定する。
ここでは、表示状況フラグが「1」である対話情報の対話状態識別子「2」の対話列識別子が「1」であり、新たな対話状態の対話列識別子は「2」であるので、対話状態識別子「2」の対話情報の表示状況フラグを「1」から「2」に変更し、新たに追加する対話状態の表示状況フラグを「1」に設定する。
ユーザ発話U3に関する対話情報を追加したときの対話情報格納部203の対話情報テーブルを図9に示す。
図9の対話情報901に示すように、対話状態識別子301が「2」である対話情報の表示状況フラグ304が「2」に変更され、対話状態識別子301が「3」である対話情報の表示状況フラグ304が「1」として設定される。
画面更新部207は、表示状況フラグが「1」から「2」へと変更された対話状態(対話状態識別子2)に対応する検索結果のサムネイルを生成し、サムネイル表示する。
ユーザ発話U3に対する処理結果の表示例を図10に示す。
図10に示すように、表示領域701に、ユーザ発話U3に対する処理結果が通常表示され、システム応答S3「伊豆の観光スポットです」が出力される。また、表示領域701の右上部のサムネイル表示領域1001に、ユーザ発話U2に対する検索結果画面がサムネイル表示される。なお、サムネイル表示に限らず、画面をタブ表示するなど、すぐに検索結果にアクセスできる表示方法であれば何でもよい。
<ユーザ発話U4に対する処理>
次に、ユーザが新たなユーザ発話U4「伊豆高原周辺に絞って」と発話する。
ユーザ発話U4に対する処理は、ユーザ発話U2およびシステム応答S2の処理と単語が異なる以外は同様であるので、ここでの説明を省略する。
<ユーザ操作UI1に対する処理>
次に、ユーザが画面上でドラッグ操作を行う場合を想定する。
ここでのドラッグ操作は、ユーザが、図10に示すインタフェース画面700上でサムネイル表示領域1001にあるサムネイルを画面中央付近に向けてドラッグする操作を想定する。ドラッグ操作が行われると、操作受理部201は、操作対象がサムネイルであると特定し、サムネイルが画面中央付近にドラッグされたことを示す情報を生成する。また、サムネイルとドラッグされたことを示す情報とに基づいて、このドラッグ操作が拡大表示指示であると判定する。対話情報更新部206は、操作受理部201からの情報をもとに、対話情報の表示状況フラグが「2」である対話状態識別子が「2」の対話情報に対し、表示状況フラグを「2」から「1」に変更する。画面更新部207は、サムネイル表示されていた対話情報の検索結果を、表示領域701に現在表示されている検索結果と並列して通常表示するように更新する。
2つの検索結果が並列して表示される表示例を図11に示す。
図11に示すように、「伊豆高原の観光スポット」の検索結果画面1101と、サムネイル表示されていた「嵐山の観光スポット」の検索結果画面1102とが同一サイズで横に並列して表示される。なお、縦に並列して表示させてもよい。また、例えば1つの検索結果が表示されており、2つのサムネイルを中央にドラッグする場合といった、3以上の検索結果を並列して表示する場合でも、同様の方法で表示すればよい。
このように並列して表示させることで、ユーザが結果画面の比較を容易に行うことができる。なお、並列した検索結果を変更する場合は、表示領域701に表示されている検索結果をインタフェース画面の外側へ向けてドラッグ操作する。これにより、操作受理部201が、このドラッグ操作が縮小表示であると判定し、対話情報更新部206が、ドラッグ操作の対象となる対話情報の表示状況フラグを「1」から「2」に変更すればよい。画面更新部207は、ドラッグされた検索結果の表示をサムネイル表示に変更すればよい。
<ユーザ発話U5に対する処理>
次に、ユーザが新たなユーザ発話U5「ホテルを見せて」を発話する。
対象判定部204が、対話情報格納部203に格納される対話情報を参照して、対話情報の表示状況フラグが「1」である対話状態識別子が「2」および「4」の2つの対話情報を対象対話状態として判定する。
要求処理部205は、ユーザ発話U5と、対話状態識別子が「2」および「4」である対話情報とを含む要求メッセージを生成し、対話処理サーバ102に処理要求メッセージを送信する。
対話処理サーバ102では、ユーザ発話U5の意図を解析し、発話の意図がホテル検索であると判定する。対話処理サーバ102は、対話状態識別子が「2」および「4」である対話状態のそれぞれに対して、ホテルを検索し、検索処理の処理結果を含む応答メッセージを要求処理部205に送信する。
対話情報更新部206は、要求処理部205から取得した応答メッセージの内容に従い、ユーザ発話U5のテキスト、ユーザ発話U5に対する処理結果に関する情報を対話情報として追加更新する。すなわち、対話状態識別子301「5」、対話列識別子302「1」、対話状態名「Search_hotel(嵐山)」、表示状況フラグ304「1」、時刻305「2014/07/07 12:07:50」およびシステム応答データ306が対応付けられた対話情報と、対話状態識別子301「6」、対話列識別子302「2」、対話状態名「Search_hotel(伊豆高原)」、表示状況フラグ304「1」、時刻305「2014/07/07 12:07:50」およびシステム応答データ306が対話情報とがそれぞれ、対話情報307として格納される。また、対話状態識別子が「2」である対話情報の表示状況フラグおよび対話状態識別子が「4」である対話情報の表示状況フラグが、それぞれ「1」から「0」に変更される。
ここで、ユーザ発話U5に関する対話情報を追加したときの対話情報格納部203の対話情報テーブルを図12に示す。
次に、ユーザ発話U5に対する処理結果の表示例を図13に示す。
図13に示すように、「伊豆高原のホテル」の検索結果1301および「嵐山のホテル」の検索結果1302がそれぞれ表示される。このように、通常表示された対話状態を対象対話状態として判定することで、ユーザが対話を続けたいと考えている対話状態を容易に選択でき、ユーザが1つの条件で発話するだけで、複数の対話状態に対して処理結果を得ることができる。
なお、対象判定部204は、表示状況フラグ304が「1」である対話状態を対象対話状態として判定しているが、サムネイル表示および通常表示を問わず、ユーザが画面上のサムネイル表示または通常表示の対話状態をタッチすることなどにより指定された対話状態を対象対話状態と判定してもよい。この場合、ユーザにより選択された対話状態の対話情報に新たに指定フラグを設定し、指定フラグが立っている対話状態が対話処理サーバに送信されるようにすればよい。また、ユーザからの発話により指定された複数の対話状態を対象対話状態と判定してもよい。発話により対象対話状態を指定する場合は、例えば、発話を音声認識したテキストと、対話状態名に含まれるキーワードとが一致した対話状態を対象対話状態として判定すればよい。
以上に示した第1の実施形態によれば、ユーザの対話およびユーザの操作に基づいて対象対話状態を判定することで、ユーザが要求を出したい1以上の対話状態を容易に指定でき、例えば、詳細な条件が確定していない相談や、見たい俳優が出ている番組の検索、インターネットのオンラインショップで旅行先、家電または服などの商品を比較検討する際の音声対話の利便性を向上させることができる。例えば、ドラマの検索などにおいて、以下のような重複した発話をする必要がなくなる。
ユーザ:「昨日のドラマを見せて」
システム:「昨日のドラマは10件あります。」−−(1)
ユーザ:「バラエティだとどう。」
システム:「昨日のバラエティは25件あります。」−−(2)
ユーザ:「俳優Aが出ている番組に絞って」
システム:「俳優Aが出ている昨日のバラエティは2件あります。」−−(3)
ユーザ:「昨日のドラマを検索して」
システム:「昨日のドラマは10件あります」−−(4)
ユーザ:「俳優Aが出ている番組に絞って」
システム:「俳優Aが出ている番組は1件あります」−−(5)
(ユーザが(3)の結果画面と(5)の結果画面とを見比べる)
ユーザ:「○○を再生して」
よって、第1の実施形態によれば、より円滑な対話を支援することができる。
(第2の実施形態)
第2の実施形態では、音声対話の途中で、ユーザが過去の発話内容を訂正する場合を想定する。
第2の実施形態に係る対話支援装置は、第1の実施形態に係る対話支援装置200と要求処理部205以外の動作は、同様の構成であるのでここでの説明を省略する。
第2の実施形態に係る要求処理部205は、第1の実施形態とほぼ同様に動作するが、ユーザ発話が、対話履歴に含まれる対話状態の条件を変更するものである場合、対話履歴に含まれる対話状態のうち、変更対象となる対話状態以後のユーザ発話を反映させた対話状態を、対話処理サーバ102から取得する点が異なる。
第2の実施形態に係る対話例について図14を参照して説明する。
図14は、テレビ番組の録画予約を行う場合のユーザと対話システムとの対話例である。ユーザは、録画予約を要求する発話を行い、対話システムは、放送日、開始時刻、放送局、および番組名をユーザに問い合わせることで番組を特定して録画予約するような対話シナリオに沿って対話が行われる。
以下、図14に示すユーザの発話順に沿った処理について具体的に説明する。
<ユーザ発話U10に対する処理>
ユーザがユーザ発話U10「録画予約がしたい」と発話する。
ユーザ発話U1の発話時点では、インタフェース画面700に何も表示されていないため、第1の実施形態のユーザ発話U1と同様の処理であるので、ここでの説明を省略する。
対話情報格納部203に対話情報、対話状態識別子301「10」、対話列識別子302「5」、対話状態名「Record_TV()」、表示状況フラグ304「1」、時刻305「2014/07/07 12:05:45」およびシステム応答データ306が対応付けられて、対話情報307として格納される。なお、録画予約処理の準備に関する結果が検索結果領域に表示されるので、表示状況フラグが「1」に設定される。
画面更新部207は、録画予約処理の準備に関する処理結果を表示領域701に表示し、あわせてシステムからのシステム応答S10「いつの番組ですか」を出力する。
<ユーザ発話U11に対する処理>
次に、ユーザが、システム応答S1「いつの番組ですか」に対する回答として、ユーザ発話U11「7月10日」と発話する。
対話受理部202は、ユーザ発話U11を受理し、音声認識処理を行ってテキストに変換する。対象判定部204は、表示状況フラグが「1」である対話状態を対象対話状態として選択する。
要求処理部205は、ユーザ発話U11と、対象の対話状態として、対話状態識別子が「10」の対話情報とを含む要求メッセージが生成する。対話処理サーバ102では、ユーザ発話U11の意図を解析し、この発話が対象の対話状態(対話状態識別子「10」)におけるシステムからの問い合わせに対する回答であると判定する。対話処理サーバ102は、新たに生成された対話状態(対話状態識別子「11」)の対話列識別子を、対話状態識別子が「10」の対話情報と同一に設定し、応答メッセージとして、要求処理部205に送信する。
対話情報更新部206は、要求処理部205から取得した応答メッセージの内容に従い、ユーザ発話U11の処理結果に関する情報を対話情報として追加更新する。すなわち、対話状態識別子301「11」、対話列識別子302「5」、対話状態名「Record_TV(date:7月10日)」、表示状況フラグ304「1」、時刻305「2014/07/07 12:05:45」およびシステム応答データ306が対応付けられて、対話情報307として格納される。なお、インタフェース画面上に表示される検索結果は、ユーザ発話U11の処理結果となるため、表示状況フラグ304もあわせて更新される。
画面更新部207は、ユーザ発話U11に対する処理結果を表示領域701に通常表示し、システム応答S11「何時から始まりますか」を出力する。
続く、ユーザ発話U12「21時から」、システム応答S12「放送局を教えてください」、ユーザ発話U13「○×放送」およびシステム応答S13「何という番組ですか」は、上述の処理と同様に行うことができるので、ここでの説明は省略する。
次に、ユーザ発話U13に関する対話情報を追加したときの対話情報格納部203の対話情報テーブルについて図15に示す。
図15に示すように、図3に示す対話情報と同様に各対話情報307が格納される。なお、対話が進むにつれ、録画処理のための条件が増えた対話情報が格納される。
次に、ユーザ発話U13に対する処理結果の表示例を図16に示す。
図16に示すように、番組予約のため、放送日、開始時刻、および放送局までが入力された状態となる。
ここで、システム応答S13に対して、ユーザがユーザ発話U14「放送日は7月11日に変更して」と発話したとする。
対象判定部204は、対話情報格納部203に格納される対話情報を参照して、対話情報の表示状況フラグが「1」である対話状態識別子が「13」の対話情報を対象対話状態として判定する。
要求処理部205は、ユーザ発話U14と対象対話状態の対話情報とを含む要求メッセージが生成する。対話処理サーバ102では、ユーザ発話U14の意図を解析し、この発話がシステム発話S4に対する発話ではなく、放送日を変更する発話であると判定する。よって、対話処理サーバ102は、現在進行中の放送日が7月10日の録画予約対話を中断して、放送日が7月11日である新たな録画予約対話の状態を生成する。
このとき、要求処理部205は、放送日に対する発話を変更した以降の対話において、変更前の対話で行われたユーザ発話が利用できる場合、変更前の対話を利用した対話状態も対話処理サーバ102から取得する。本実施例の場合、放送日に関するシステム発話よりも後で最初のシステム発話は、システム応答S11「何時から始まりますか」である。
このシステム応答S11に対して、ユーザは既にユーザ発話U12「21時から」と回答しているので、ユーザ発話U12を利用する。次のシステム応答S12「放送局を教えて下さい」に対しても、ユーザは既にユーザ発話U13「○×放送」と回答しているので、ユーザ発話U13を利用する。
続くシステム応答U13「何という番組ですか」に対しては、ユーザは未だ回答していないので、対話履歴において利用可能な対話状態は、ユーザ発話U12およびユーザ発話U13であると決定できる。
要求処理部205は、放送日の7月11日に変更したところまでの対話状態と、放送日を7月11日に変更し、かつその発話以後に続くユーザ発話ユーザ発話U4「○×放送」にした状態までの対話状態との両方を含む応答メッセージを対話処理サーバ102から受信する。
対話情報更新部206は、2つの対話状態を含む応答メッセージを取得して、対話情報を更新する。
ユーザ発話U14に関する対話情報を追加したときの対話情報格納部203の対話情報テーブルを図17に示す。
ユーザ発話U14「放送日は7月11日に変更して」の処理結果である2つの対話情報1701および1702が記録される。対話情報1701は、放送日の変更をおこなうのみで、そのほかのユーザ発話は利用していない対話状態であるので、対話状態名「Record_TV(date:7月11日)」として格納される。一方、対話情報1702は、放送日の変更を行い、対話履歴において利用可能な対話を用いる対話状態であるので、対話状態名「Record_TV(date:7月11日/stime:21時/carrier:○×放送)」として格納される。なお、表示状況フラグ「3」は、表示領域701に表示中の対話状態と置き換え可能な対話状態であることを示す。
次に、対話情報1701を表示する場合のインタフェース画面の表示例を図18に示す。
インタフェース画面上の表示領域701には、ユーザ発話に従って日付が7月11日に変更された番組予約に関する処理結果が通常表示されており、システム応答S11「何時から始まりますか」が出力される。また、画面右上に対話状態切り替えボタン1801が新たに表示される。対話状態切り替えボタン1801は、対話処理サーバ102から送信された対話情報1702に対応する対話状態を有効にするためのボタンである。
次に、対話状態切り替えボタン1801を押下した場合のインタフェース画面の表示例を図19に示す。
図19に示すように、放送日の変更が完了し、放送日「7月11日」、開始時刻「21時」、放送局「○×放送」まで対話が進んだ状態表示1901を表示する。なお、画面更新部207は、対話状態切り替えボタン1801を、図18および図19のどちらかの状態で、ユーザが新たに発話した内容が画面に表示されるタイミングで消すようにしてもよい。
以上に示した第2の実施形態によれば、対話の途中で発話内容を変更した際に、対話履歴に基づいて、他の発話内容を利用するか否かを画面上で選択することができ、音声対話の利便性を向上させ、より円滑な対話を支援することができる。
上述の実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した対話支援装置による効果と同様な効果を得ることも可能である。上述の実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RW、Blu−ray(登録商標)Discなど)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータまたは組み込みシステムが読み取り可能な記録媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の対話支援装置と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合又は読み込む場合はネットワークを通じて取得又は読み込んでもよい。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
なお、本実施形態におけるコンピュータまたは組み込みシステムは、記録媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100・・・対話システム、101・・・端末、102・・・対話処理サーバ、103・・・ユーザ、104・・・ネットワーク、200・・・対話支援装置、201・・・操作受理部、202・・・対話受理部、203・・・対話情報格納部、204・・・対象判定部、205・・・要求処理部、206・・・対話情報更新部、207・・・画面更新部、300・・・テーブル、301・・・対話状態識別子、302・・・対話列識別子、303・・・対話状態名、304・・・表示状況フラグ、305・・・時刻、306・・・システム応答データ、307,901・・・対話情報、700・・・インタフェース画面、701・・・表示領域、702・・・音声認識ボタン、1001・・・サムネイル表示領域、1101,1102・・・検索結果画面、1301,1302・・・検索結果、1701,1702・・・対話情報、1801・・・対話状態切り替えボタン、1901・・・状態表示。

Claims (10)

  1. ユーザの意図を示す入力情報を受理する第1受理部と、
    前記意図を推定し該意図に応じた処理を行う対話システムとユーザとの対話結果を示す対話状態の識別子と、該対話状態を通常表示させるかサムネイル表示させるかを示す表示フラグとを含む対話情報を、関連づけて格納する格納部と、
    前記ユーザの操作が、前記対話状態の表示フラグを変更する操作である場合、前記対話情報を更新する対話情報更新部と、
    前記対話状態に関する履歴である対話履歴のうち、前記表示フラグが通常表示を示す対話状態を対象対話状態として判定する判定部と、
    前記入力情報と前記対象対話状態とを前記対話システムに入力し、該対話システムから処理結果を得る処理部と、
    前記処理結果の表示を更新するための第1更新情報を生成する画面更新部と、
    を具備する対話支援装置。
  2. 画面に対する前記ユーザの操作を受理する第2受理部をさらに具備し、
    前記判定部は、前記操作により指定された対話状態を、前記対象対話状態として判定する請求項1に記載の対話支援装置。
  3. 前記対話情報は、対話シナリオにおける所定の対話に関連する対話状態のまとまりを示す対話列識別子をさらに含み、
    前記画面更新部は、画面に既に表示される第1対話状態の対話列識別子と、現行の第2対話状態の対話列識別子とが異なる場合、第1対話状態をサムネイル表示とするための第2更新情報を生成する請求項1に記載の対話支援装置。
  4. 前記処理部は、現行の対話状態が前記対話履歴に含まれる対話状態の条件を変更するものである場合、該対話履歴に含まれる変更対象の対話状態以後の1以上の第3対話状態を取得し、
    前記画面更新部は、前記現行の対話状態と前記1以上の第3対話状態とを表示するための第3更新情報を生成する請求項1から請求項3のいずれか1項に記載の対話支援装置。
  5. 前記画面更新部は、現行の対話状態に加え、前記第3対話状態を表示するかどうかを選択させる切り替え表示を表示させるための第4更新情報を生成する請求項4に記載の対話支援装置。
  6. 前記画面更新部は、複数の対話状態に対してそれぞれ前記処理結果が生成される場合、該処理結果を並列して表示させるための第5更新情報を生成する請求項1から請求項5のいずれか1項に記載の対話支援装置。
  7. 前記入力情報は、前記ユーザの発話の音声認識結果である請求項1から請求項6のいずれか1項に記載の対話支援装置。
  8. ユーザの意図を示す入力情報を受理し、
    前記意図を推定し該意図に応じた処理を行う対話システムとユーザとの対話結果を示す対話状態の識別子と、該対話状態を通常表示させるかサムネイル表示させるかを示す表示フラグとを含む対話情報を、関連づけて格納部に格納し、
    前記ユーザの操作が、前記対話状態の表示フラグを変更する操作である場合、前記対話情報を更新し、
    前記対話状態に関する履歴である対話履歴のうち、前記表示フラグが通常表示を示す対話状態を対象対話状態として判定し、
    前記入力情報と前記対象対話状態とを前記対話システムに入力し、該対話システムから処理結果を得、
    前記処理結果の表示を更新するための第1更新情報を生成する対話支援方法。
  9. コンピュータを、
    ユーザの意図を示す入力情報を受理する第1受理手段と、
    前記意図を推定し該意図に応じた処理を行う対話システムとユーザとの対話結果を示す対話状態の識別子と、該対話状態を通常表示させるかサムネイル表示させるかを示す表示フラグとを含む対話情報を、関連づけて格納する格納部と、
    前記ユーザの操作が、前記対話状態の表示フラグを変更する操作である場合、前記対話情報を更新する対話情報更新部と、
    前記対話状態に関する履歴である対話履歴のうち、前記表示フラグが通常表示を示す対話状態を対象対話状態として判定する判定手段と、
    前記入力情報と前記対象対話状態とを前記対話システムに入力し、該対話システムから処理結果を得る処理手段と、
    前記処理結果の表示を更新するための第1更新情報を生成する画面更新手段として機能させるための対話支援プログラム。
  10. 前記ユーザからの発話を取得し、音声認識結果を得る音声取得部と、
    前記音声認識結果を請求項1に記載の対話支援装置に送信し、処理結果を受信する通信部と、
    前記処理結果を表示する表示部と、を具備する端末。
JP2017504533A 2015-03-12 2015-03-12 対話支援装置、方法およびプログラム、および端末 Active JP6251450B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/057359 WO2016143131A1 (ja) 2015-03-12 2015-03-12 対話支援装置、方法およびプログラム、および端末

Publications (2)

Publication Number Publication Date
JPWO2016143131A1 JPWO2016143131A1 (ja) 2017-07-06
JP6251450B2 true JP6251450B2 (ja) 2017-12-20

Family

ID=56878564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017504533A Active JP6251450B2 (ja) 2015-03-12 2015-03-12 対話支援装置、方法およびプログラム、および端末

Country Status (3)

Country Link
US (2) US20170364323A1 (ja)
JP (1) JP6251450B2 (ja)
WO (1) WO2016143131A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6900996B2 (ja) * 2017-03-31 2021-07-14 日本電気株式会社 会話支援装置、会話支援方法、及びプログラム
CN107577728B (zh) * 2017-08-22 2020-06-26 北京奇艺世纪科技有限公司 一种用户请求处理方法及设备
US11114096B2 (en) * 2018-03-08 2021-09-07 Google Llc Mitigation of client device latency in rendering of remotely generated automated assistant content
US20210034678A1 (en) * 2018-04-23 2021-02-04 Ntt Docomo, Inc. Dialogue server
CN109887483B (zh) * 2019-01-04 2024-08-09 平安科技(深圳)有限公司 自助服务处理方法、装置、计算机设备及存储介质
CN111831795B (zh) * 2019-04-11 2023-10-27 北京猎户星空科技有限公司 多轮对话处理方法、装置、电子设备及存储介质
JP7249203B2 (ja) * 2019-05-22 2023-03-30 株式会社日立製作所 対話ポリシー移行装置、対話ポリシー移行方法及び対話ポリシー移行システム
US11133006B2 (en) * 2019-07-19 2021-09-28 International Business Machines Corporation Enhancing test coverage of dialogue models
CN111639167B (zh) * 2020-05-21 2024-04-16 北京声智科技有限公司 一种任务对话方法及装置
CN112000793B (zh) * 2020-08-28 2022-08-09 哈尔滨工业大学 一种面向人机交互的对话目标规划方法
CN113553413A (zh) * 2021-06-30 2021-10-26 北京百度网讯科技有限公司 对话状态的生成方法、装置、电子设备和存储介质

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05120350A (ja) 1991-10-24 1993-05-18 Nec Corp 対話型情報提供システムの画面検索装置
DE69232407T2 (de) * 1991-11-18 2002-09-12 Kabushiki Kaisha Toshiba, Kawasaki Sprach-Dialog-System zur Erleichterung von Rechner-Mensch-Wechselwirkung
JPH0863319A (ja) 1994-08-24 1996-03-08 Hitachi Ltd 情報処理装置
JP3765202B2 (ja) 1999-07-09 2006-04-12 日産自動車株式会社 対話型情報検索装置、コンピュータを用いた対話型情報検索方法及び対話型情報検索処理を行うプログラムを記録したコンピュータ読取り可能な媒体
US6993474B2 (en) * 2001-05-17 2006-01-31 Curry David G Interactive conversational speech communicator method and system
KR100457509B1 (ko) 2001-07-07 2004-11-17 삼성전자주식회사 터치스크린과 음성인식을 통해 동작 제어되는 정보단말기 및 그의 명령 실행 방법
WO2004092967A1 (ja) * 2003-04-14 2004-10-28 Fujitsu Limited 対話装置、対話方法及び対話プログラム
CN1842788B (zh) * 2004-10-08 2012-04-04 松下电器产业株式会社 对话支援装置、系统及方法
WO2006127758A2 (en) * 2005-05-26 2006-11-30 Claria Corporation Coordinated related-search feedback that assists search refinement
JP4197344B2 (ja) * 2006-02-20 2008-12-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声対話システム
US8488178B2 (en) * 2006-06-21 2013-07-16 Kyocera Document Solutions Inc. Image forming apparatus storage files with file attribution table having deletion date and flag
JP2008203559A (ja) * 2007-02-20 2008-09-04 Toshiba Corp 対話装置及び方法
US8171431B2 (en) * 2007-10-05 2012-05-01 Microsoft Corporation Handle flags
JP4934104B2 (ja) * 2008-06-06 2012-05-16 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
WO2010049514A2 (en) 2008-10-30 2010-05-06 Talkamatic Ab Dialog system
US20100201879A1 (en) * 2009-02-12 2010-08-12 Echostar Technologies L.L.C. Customizable Picture-in-Picture
JP5638896B2 (ja) * 2010-09-21 2014-12-10 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
US20120253789A1 (en) * 2011-03-31 2012-10-04 Microsoft Corporation Conversational Dialog Learning and Correction
EP2806051B1 (en) * 2012-01-18 2016-04-06 JFE Steel Corporation Method for prevention of yellowing on surface of steel sheet after pickling
JP5818753B2 (ja) * 2012-08-13 2015-11-18 株式会社東芝 音声対話システム及び音声対話方法
KR101935039B1 (ko) * 2012-09-11 2019-01-03 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP2014109897A (ja) * 2012-11-30 2014-06-12 Toshiba Corp 情報処理装置およびコンテンツ検索方法
JP2014109889A (ja) * 2012-11-30 2014-06-12 Toshiba Corp コンテンツ検索装置、コンテンツ検索方法及び制御プログラム
JP2014203208A (ja) 2013-04-03 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US9875494B2 (en) * 2013-04-16 2018-01-23 Sri International Using intents to analyze and personalize a user's dialog experience with a virtual personal assistant
KR102141116B1 (ko) * 2013-08-05 2020-08-04 삼성전자주식회사 음성 대화 서비스를 지원하는 인터페이스 장치 및 방법
US9214156B2 (en) * 2013-08-06 2015-12-15 Nuance Communications, Inc. Method and apparatus for a multi I/O modality language independent user-interaction platform
US10152987B2 (en) * 2014-06-23 2018-12-11 Google Llc Remote invocation of mobile device actions
JP2016062264A (ja) * 2014-09-17 2016-04-25 株式会社東芝 対話支援装置、方法およびプログラム
JP2016061970A (ja) * 2014-09-18 2016-04-25 株式会社東芝 音声対話装置、方法およびプログラム
WO2016151699A1 (ja) * 2015-03-20 2016-09-29 株式会社 東芝 学習装置、方法およびプログラム

Also Published As

Publication number Publication date
US10248383B2 (en) 2019-04-02
US20170337036A1 (en) 2017-11-23
US20170364323A1 (en) 2017-12-21
WO2016143131A1 (ja) 2016-09-15
JPWO2016143131A1 (ja) 2017-07-06

Similar Documents

Publication Publication Date Title
JP6251450B2 (ja) 対話支援装置、方法およびプログラム、および端末
KR102036786B1 (ko) 제안되는 보이스 기반의 액션 쿼리들을 제공
JP6351562B2 (ja) 情報処理システム、受付サーバ、情報処理方法及びプログラム
CN112581962B (zh) 在支持语音的电子设备中对语音转文本模型的场境敏感动态更新
US20150254352A1 (en) Accessing Search Results Using Multiple Different Devices
JP5684082B2 (ja) 対話支援装置、方法及びプログラム
WO2017175363A1 (ja) 情報処理システム、受付サーバ、情報処理方法及びプログラム
KR102560508B1 (ko) 대화형 어시스턴트 컨텍스트 포함하여 사후 검색 결과를 자율적으로 제공
JP7124232B2 (ja) 名前タグ表示方法及び装置
CN111949240A (zh) 交互方法、存储介质、服务程序和设备
JP2014109897A (ja) 情報処理装置およびコンテンツ検索方法
US11321756B1 (en) Voice-assisted scanning
US11120812B1 (en) Application of machine learning techniques to select voice transformations
JP2018128869A (ja) 検索結果表示装置、検索結果表示方法、及びプログラム
JP2016062264A (ja) 対話支援装置、方法およびプログラム
JP2015118710A (ja) 対話装置、方法及びプログラム
JP5242726B2 (ja) 外国語接客支援装置、外国語接客方法及びプログラム
US11855935B2 (en) Information processing system and information processing method
US11495225B2 (en) Response device, response method, and storage medium
JP2019207647A (ja) 対話型業務支援システム
JP2019207371A (ja) 音声認識結果の出力プログラム、通信装置及び音声認識結果の表示システム
JP7180747B2 (ja) 編集支援プログラム、編集支援方法、及び編集支援装置
JP6929960B2 (ja) 情報処理装置及び情報処理方法
US11533283B1 (en) Voice user interface sharing of content
WO2023210340A1 (ja) 学習装置および学習方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171124

R151 Written notification of patent or utility model registration

Ref document number: 6251450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350