JP6251450B2 - 対話支援装置、方法およびプログラム、および端末 - Google Patents
対話支援装置、方法およびプログラム、および端末 Download PDFInfo
- Publication number
- JP6251450B2 JP6251450B2 JP2017504533A JP2017504533A JP6251450B2 JP 6251450 B2 JP6251450 B2 JP 6251450B2 JP 2017504533 A JP2017504533 A JP 2017504533A JP 2017504533 A JP2017504533 A JP 2017504533A JP 6251450 B2 JP6251450 B2 JP 6251450B2
- Authority
- JP
- Japan
- Prior art keywords
- dialog
- state
- dialogue
- user
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 51
- 230000003993 interaction Effects 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 7
- 230000002452 interceptive effect Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 3
- 239000004615 ingredient Substances 0.000 claims 1
- 230000004044 response Effects 0.000 description 48
- 230000008569 process Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Acoustics & Sound (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
Description
対話を戻す手法としては、ユーザが「戻る」と発話せずに、検索条件が排反であるかどうかにより適用すべき対話状態を選択する手法がある。
本実施形態で前提となる対話システムの一例について図1の概念図を参照して説明する。
図1に示す対話システム100は、端末101と対話処理サーバ102とを含む。端末101は、例えば、ユーザ103が使用するタブレットPC、およびスマートフォンなどの携帯端末である。本実施形態では、ユーザ103が端末101に搭載されるクライアントアプリに対して音声入力を行い、音声認識をおこなって音声認識結果を得ることを前提とするが、テキスト入力するような場合でも同様に処理することができる。端末101は、音声認識結果を対話処理サーバ102に送信する。
対話処理サーバ102は、端末101とネットワーク104を介して接続され、端末101から音声認識結果を受信する。対話処理サーバ102は、音声認識結果からユーザの意図を推定し、意図に応じた処理を行う対話システムとして動作し、音声認識結果に対して対話処理を行う。対話処理サーバ102は、対話処理の処理結果を端末101に送信する。
本実施形態に係る対話支援装置200は、操作受理部201(第2受理部ともいう)、対話受理部202(第1受理部ともいう)、対話情報格納部203、対象判定部204、要求処理部205、対話情報更新部206および画面更新部207を含む。
対象判定部204は、対話受理部202から入力情報を受け取り、対話情報格納部203に格納される対話情報を参照し、ユーザからの指示に応じて、対話履歴のうちの対象となる対話状態を対象対話状態として判定する。
図3に示すテーブル300は、対話状態識別子301、対話列識別子302、対話状態名303、表示状況フラグ304、時刻305およびシステム応答データ306がそれぞれ関連づけられて対話情報307として格納される。
時刻305は、対話処理サーバ102から、処理結果を含むシステム応答を取得した時刻である。システム応答データ306は、要求処理部205からの要求に対する対話処理サーバ102の応答データ本体を示す。応答データ本体には、例えば、音声合成のテキスト、検索結果のXML、JSON形式のデータが含まれる。
ステップS401では、対話受理部202が、ユーザの発話を受理し、発話を音声認識したテキストを生成する。
ステップS402では、対象判定部204が、ユーザからの要求の対象となる発話を特定する。本実施形態では、対話情報に含まれる表示状況フラグが「1」、つまり通常表示である対話状態をユーザが対象とする対話状態であると判定し、表示状況フラグが「1」である対話状態を対象対話状態として得る。
ステップS404では、要求処理部205が、対話処理サーバ102から処理要求に対する処理結果を受信する。
ステップS405では、対話情報更新部206が、処理結果に基づいて、対話情報格納部203に格納される対話情報を更新する。
ステップS406では、画面更新部207が、更新された対話情報に基づいて、画面を更新するための更新情報を生成する。以上で、対話支援装置200の動作を終了する。
ステップS501では、操作受理部201が、ユーザの操作を受理し、操作対象となる対話状態を判定する。
ステップS502では、操作受理部201が、操作内容として、ユーザの操作が拡大表示に対応する操作であるかどうかを判定する。拡大表示に対応する操作である場合ステップS503に進み、拡大表示に対応しない操作である場合ステップS504に進む。
ステップS503では、対話情報更新部206が、操作対象となる対話状態に関する対話情報について、表示状況フラグを「1」に更新する。
ステップS505では、対話情報更新部206が、操作対象となる対話状態に関する対話情報について、表示状況フラグを「2」に更新する。
ステップS506では、画面更新部207が、更新された対話情報に基づいて画面を更新するための更新情報を生成する。以上でユーザからの操作を受理する場合の対話支援装置200の動作を終了する。
図6は、まだ旅行先など具体的なことが決まっていないユーザが、まず候補地の観光スポットを検索して比較し、次に候補地付近のホテルを検索する場合の、ユーザと対話システムとの対話例である。ユーザ発話(U1、U2・・・)とシステム応答(S1、S2・・・)とが発話の時系列順に並べられる。また、インタフェース画面へのユーザの操作がある場合は、(UI1、・・・)として発話の時系列に追加する。
ここで、ユーザが対話および操作するためのインタフェース画面の一例について図7を参照して説明する。
インタフェース画面700には、表示領域701と音声認識ボタン702とが表示される。音声認識ボタン702は、音声認識開始のタイミングをユーザが通知するためのボタンであり、実際に押下可能なボタンでもよいし、画面上に形成されるボタンでもよい。ユーザが音声認識ボタン702を押下またはタッチすると、音声認識処理が開始されるとする。なお、音声認識ボタン702を押下せずに、ユーザが所定の音量以上で発話すると音声認識処理が開始されるような設計でもよい。
ユーザがユーザ発話U1「京都の観光スポット教えて」を発話する。対話受理部202は、ユーザ発話U1を受理し、音声認識処理を行ってテキストに変換する。続いて、対象判定部204が、対話情報を参照し、インタフェース画面700に処理結果が表示されている対話状態があるか否かを判定する。ユーザ発話U1の発話時点では、インタフェース画面700に何も表示されておらず、対話情報格納部203に対話情報も格納されていないため、対象判定部204は、対話状態を「対象なし」と判定する。
次に、ユーザが新たなユーザ発話U2「嵐山周辺に絞って」を発話する。
次に、ユーザが新たなユーザ発話U3「伊豆にしてみて」と発話する。
このとき、対話情報更新部206は、現在表示状況フラグが「1」である対話状態の対話列識別子と、追加しようとしている新たな対話状態の対話列識別子とが同じか否かを判定する。同じでない場合は、現在表示状況フラグが「1」であるフラグを「2」に変更し、新たに追加する対話状態の表示状況フラグを「1」に設定する。
図9の対話情報901に示すように、対話状態識別子301が「2」である対話情報の表示状況フラグ304が「2」に変更され、対話状態識別子301が「3」である対話情報の表示状況フラグ304が「1」として設定される。
図10に示すように、表示領域701に、ユーザ発話U3に対する処理結果が通常表示され、システム応答S3「伊豆の観光スポットです」が出力される。また、表示領域701の右上部のサムネイル表示領域1001に、ユーザ発話U2に対する検索結果画面がサムネイル表示される。なお、サムネイル表示に限らず、画面をタブ表示するなど、すぐに検索結果にアクセスできる表示方法であれば何でもよい。
次に、ユーザが新たなユーザ発話U4「伊豆高原周辺に絞って」と発話する。
ユーザ発話U4に対する処理は、ユーザ発話U2およびシステム応答S2の処理と単語が異なる以外は同様であるので、ここでの説明を省略する。
次に、ユーザが画面上でドラッグ操作を行う場合を想定する。
ここでのドラッグ操作は、ユーザが、図10に示すインタフェース画面700上でサムネイル表示領域1001にあるサムネイルを画面中央付近に向けてドラッグする操作を想定する。ドラッグ操作が行われると、操作受理部201は、操作対象がサムネイルであると特定し、サムネイルが画面中央付近にドラッグされたことを示す情報を生成する。また、サムネイルとドラッグされたことを示す情報とに基づいて、このドラッグ操作が拡大表示指示であると判定する。対話情報更新部206は、操作受理部201からの情報をもとに、対話情報の表示状況フラグが「2」である対話状態識別子が「2」の対話情報に対し、表示状況フラグを「2」から「1」に変更する。画面更新部207は、サムネイル表示されていた対話情報の検索結果を、表示領域701に現在表示されている検索結果と並列して通常表示するように更新する。
図11に示すように、「伊豆高原の観光スポット」の検索結果画面1101と、サムネイル表示されていた「嵐山の観光スポット」の検索結果画面1102とが同一サイズで横に並列して表示される。なお、縦に並列して表示させてもよい。また、例えば1つの検索結果が表示されており、2つのサムネイルを中央にドラッグする場合といった、3以上の検索結果を並列して表示する場合でも、同様の方法で表示すればよい。
次に、ユーザが新たなユーザ発話U5「ホテルを見せて」を発話する。
対象判定部204が、対話情報格納部203に格納される対話情報を参照して、対話情報の表示状況フラグが「1」である対話状態識別子が「2」および「4」の2つの対話情報を対象対話状態として判定する。
次に、ユーザ発話U5に対する処理結果の表示例を図13に示す。
図13に示すように、「伊豆高原のホテル」の検索結果1301および「嵐山のホテル」の検索結果1302がそれぞれ表示される。このように、通常表示された対話状態を対象対話状態として判定することで、ユーザが対話を続けたいと考えている対話状態を容易に選択でき、ユーザが1つの条件で発話するだけで、複数の対話状態に対して処理結果を得ることができる。
システム:「昨日のドラマは10件あります。」−−(1)
ユーザ:「バラエティだとどう。」
システム:「昨日のバラエティは25件あります。」−−(2)
ユーザ:「俳優Aが出ている番組に絞って」
システム:「俳優Aが出ている昨日のバラエティは2件あります。」−−(3)
ユーザ:「昨日のドラマを検索して」
システム:「昨日のドラマは10件あります」−−(4)
ユーザ:「俳優Aが出ている番組に絞って」
システム:「俳優Aが出ている番組は1件あります」−−(5)
(ユーザが(3)の結果画面と(5)の結果画面とを見比べる)
ユーザ:「○○を再生して」
よって、第1の実施形態によれば、より円滑な対話を支援することができる。
第2の実施形態では、音声対話の途中で、ユーザが過去の発話内容を訂正する場合を想定する。
図14は、テレビ番組の録画予約を行う場合のユーザと対話システムとの対話例である。ユーザは、録画予約を要求する発話を行い、対話システムは、放送日、開始時刻、放送局、および番組名をユーザに問い合わせることで番組を特定して録画予約するような対話シナリオに沿って対話が行われる。
<ユーザ発話U10に対する処理>
ユーザがユーザ発話U10「録画予約がしたい」と発話する。
ユーザ発話U1の発話時点では、インタフェース画面700に何も表示されていないため、第1の実施形態のユーザ発話U1と同様の処理であるので、ここでの説明を省略する。
画面更新部207は、録画予約処理の準備に関する処理結果を表示領域701に表示し、あわせてシステムからのシステム応答S10「いつの番組ですか」を出力する。
次に、ユーザが、システム応答S1「いつの番組ですか」に対する回答として、ユーザ発話U11「7月10日」と発話する。
図15に示すように、図3に示す対話情報と同様に各対話情報307が格納される。なお、対話が進むにつれ、録画処理のための条件が増えた対話情報が格納される。
図16に示すように、番組予約のため、放送日、開始時刻、および放送局までが入力された状態となる。
対象判定部204は、対話情報格納部203に格納される対話情報を参照して、対話情報の表示状況フラグが「1」である対話状態識別子が「13」の対話情報を対象対話状態として判定する。
ユーザ発話U14「放送日は7月11日に変更して」の処理結果である2つの対話情報1701および1702が記録される。対話情報1701は、放送日の変更をおこなうのみで、そのほかのユーザ発話は利用していない対話状態であるので、対話状態名「Record_TV(date:7月11日)」として格納される。一方、対話情報1702は、放送日の変更を行い、対話履歴において利用可能な対話を用いる対話状態であるので、対話状態名「Record_TV(date:7月11日/stime:21時/carrier:○×放送)」として格納される。なお、表示状況フラグ「3」は、表示領域701に表示中の対話状態と置き換え可能な対話状態であることを示す。
インタフェース画面上の表示領域701には、ユーザ発話に従って日付が7月11日に変更された番組予約に関する処理結果が通常表示されており、システム応答S11「何時から始まりますか」が出力される。また、画面右上に対話状態切り替えボタン1801が新たに表示される。対話状態切り替えボタン1801は、対話処理サーバ102から送信された対話情報1702に対応する対話状態を有効にするためのボタンである。
図19に示すように、放送日の変更が完了し、放送日「7月11日」、開始時刻「21時」、放送局「○×放送」まで対話が進んだ状態表示1901を表示する。なお、画面更新部207は、対話状態切り替えボタン1801を、図18および図19のどちらかの状態で、ユーザが新たに発話した内容が画面に表示されるタイミングで消すようにしてもよい。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
Claims (10)
- ユーザの意図を示す入力情報を受理する第1受理部と、
前記意図を推定し該意図に応じた処理を行う対話システムとユーザとの対話結果を示す対話状態の識別子と、該対話状態を通常表示させるかサムネイル表示させるかを示す表示フラグとを含む対話情報を、関連づけて格納する格納部と、
前記ユーザの操作が、前記対話状態の表示フラグを変更する操作である場合、前記対話情報を更新する対話情報更新部と、
前記対話状態に関する履歴である対話履歴のうち、前記表示フラグが通常表示を示す対話状態を対象対話状態として判定する判定部と、
前記入力情報と前記対象対話状態とを前記対話システムに入力し、該対話システムから処理結果を得る処理部と、
前記処理結果の表示を更新するための第1更新情報を生成する画面更新部と、
を具備する対話支援装置。 - 画面に対する前記ユーザの操作を受理する第2受理部をさらに具備し、
前記判定部は、前記操作により指定された対話状態を、前記対象対話状態として判定する請求項1に記載の対話支援装置。 - 前記対話情報は、対話シナリオにおける所定の対話に関連する対話状態のまとまりを示す対話列識別子をさらに含み、
前記画面更新部は、画面に既に表示される第1対話状態の対話列識別子と、現行の第2対話状態の対話列識別子とが異なる場合、第1対話状態をサムネイル表示とするための第2更新情報を生成する請求項1に記載の対話支援装置。 - 前記処理部は、現行の対話状態が前記対話履歴に含まれる対話状態の条件を変更するものである場合、該対話履歴に含まれる変更対象の対話状態以後の1以上の第3対話状態を取得し、
前記画面更新部は、前記現行の対話状態と前記1以上の第3対話状態とを表示するための第3更新情報を生成する請求項1から請求項3のいずれか1項に記載の対話支援装置。 - 前記画面更新部は、現行の対話状態に加え、前記第3対話状態を表示するかどうかを選択させる切り替え表示を表示させるための第4更新情報を生成する請求項4に記載の対話支援装置。
- 前記画面更新部は、複数の対話状態に対してそれぞれ前記処理結果が生成される場合、該処理結果を並列して表示させるための第5更新情報を生成する請求項1から請求項5のいずれか1項に記載の対話支援装置。
- 前記入力情報は、前記ユーザの発話の音声認識結果である請求項1から請求項6のいずれか1項に記載の対話支援装置。
- ユーザの意図を示す入力情報を受理し、
前記意図を推定し該意図に応じた処理を行う対話システムとユーザとの対話結果を示す対話状態の識別子と、該対話状態を通常表示させるかサムネイル表示させるかを示す表示フラグとを含む対話情報を、関連づけて格納部に格納し、
前記ユーザの操作が、前記対話状態の表示フラグを変更する操作である場合、前記対話情報を更新し、
前記対話状態に関する履歴である対話履歴のうち、前記表示フラグが通常表示を示す対話状態を対象対話状態として判定し、
前記入力情報と前記対象対話状態とを前記対話システムに入力し、該対話システムから処理結果を得、
前記処理結果の表示を更新するための第1更新情報を生成する対話支援方法。 - コンピュータを、
ユーザの意図を示す入力情報を受理する第1受理手段と、
前記意図を推定し該意図に応じた処理を行う対話システムとユーザとの対話結果を示す対話状態の識別子と、該対話状態を通常表示させるかサムネイル表示させるかを示す表示フラグとを含む対話情報を、関連づけて格納する格納部と、
前記ユーザの操作が、前記対話状態の表示フラグを変更する操作である場合、前記対話情報を更新する対話情報更新部と、
前記対話状態に関する履歴である対話履歴のうち、前記表示フラグが通常表示を示す対話状態を対象対話状態として判定する判定手段と、
前記入力情報と前記対象対話状態とを前記対話システムに入力し、該対話システムから処理結果を得る処理手段と、
前記処理結果の表示を更新するための第1更新情報を生成する画面更新手段として機能させるための対話支援プログラム。 - 前記ユーザからの発話を取得し、音声認識結果を得る音声取得部と、
前記音声認識結果を請求項1に記載の対話支援装置に送信し、処理結果を受信する通信部と、
前記処理結果を表示する表示部と、を具備する端末。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/057359 WO2016143131A1 (ja) | 2015-03-12 | 2015-03-12 | 対話支援装置、方法およびプログラム、および端末 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016143131A1 JPWO2016143131A1 (ja) | 2017-07-06 |
JP6251450B2 true JP6251450B2 (ja) | 2017-12-20 |
Family
ID=56878564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017504533A Active JP6251450B2 (ja) | 2015-03-12 | 2015-03-12 | 対話支援装置、方法およびプログラム、および端末 |
Country Status (3)
Country | Link |
---|---|
US (2) | US20170364323A1 (ja) |
JP (1) | JP6251450B2 (ja) |
WO (1) | WO2016143131A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6900996B2 (ja) * | 2017-03-31 | 2021-07-14 | 日本電気株式会社 | 会話支援装置、会話支援方法、及びプログラム |
CN107577728B (zh) * | 2017-08-22 | 2020-06-26 | 北京奇艺世纪科技有限公司 | 一种用户请求处理方法及设备 |
US11114096B2 (en) * | 2018-03-08 | 2021-09-07 | Google Llc | Mitigation of client device latency in rendering of remotely generated automated assistant content |
US20210034678A1 (en) * | 2018-04-23 | 2021-02-04 | Ntt Docomo, Inc. | Dialogue server |
CN109887483B (zh) * | 2019-01-04 | 2024-08-09 | 平安科技(深圳)有限公司 | 自助服务处理方法、装置、计算机设备及存储介质 |
CN111831795B (zh) * | 2019-04-11 | 2023-10-27 | 北京猎户星空科技有限公司 | 多轮对话处理方法、装置、电子设备及存储介质 |
JP7249203B2 (ja) * | 2019-05-22 | 2023-03-30 | 株式会社日立製作所 | 対話ポリシー移行装置、対話ポリシー移行方法及び対話ポリシー移行システム |
US11133006B2 (en) * | 2019-07-19 | 2021-09-28 | International Business Machines Corporation | Enhancing test coverage of dialogue models |
CN111639167B (zh) * | 2020-05-21 | 2024-04-16 | 北京声智科技有限公司 | 一种任务对话方法及装置 |
CN112000793B (zh) * | 2020-08-28 | 2022-08-09 | 哈尔滨工业大学 | 一种面向人机交互的对话目标规划方法 |
CN113553413A (zh) * | 2021-06-30 | 2021-10-26 | 北京百度网讯科技有限公司 | 对话状态的生成方法、装置、电子设备和存储介质 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05120350A (ja) | 1991-10-24 | 1993-05-18 | Nec Corp | 対話型情報提供システムの画面検索装置 |
DE69232407T2 (de) * | 1991-11-18 | 2002-09-12 | Kabushiki Kaisha Toshiba, Kawasaki | Sprach-Dialog-System zur Erleichterung von Rechner-Mensch-Wechselwirkung |
JPH0863319A (ja) | 1994-08-24 | 1996-03-08 | Hitachi Ltd | 情報処理装置 |
JP3765202B2 (ja) | 1999-07-09 | 2006-04-12 | 日産自動車株式会社 | 対話型情報検索装置、コンピュータを用いた対話型情報検索方法及び対話型情報検索処理を行うプログラムを記録したコンピュータ読取り可能な媒体 |
US6993474B2 (en) * | 2001-05-17 | 2006-01-31 | Curry David G | Interactive conversational speech communicator method and system |
KR100457509B1 (ko) | 2001-07-07 | 2004-11-17 | 삼성전자주식회사 | 터치스크린과 음성인식을 통해 동작 제어되는 정보단말기 및 그의 명령 실행 방법 |
WO2004092967A1 (ja) * | 2003-04-14 | 2004-10-28 | Fujitsu Limited | 対話装置、対話方法及び対話プログラム |
CN1842788B (zh) * | 2004-10-08 | 2012-04-04 | 松下电器产业株式会社 | 对话支援装置、系统及方法 |
WO2006127758A2 (en) * | 2005-05-26 | 2006-11-30 | Claria Corporation | Coordinated related-search feedback that assists search refinement |
JP4197344B2 (ja) * | 2006-02-20 | 2008-12-17 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 音声対話システム |
US8488178B2 (en) * | 2006-06-21 | 2013-07-16 | Kyocera Document Solutions Inc. | Image forming apparatus storage files with file attribution table having deletion date and flag |
JP2008203559A (ja) * | 2007-02-20 | 2008-09-04 | Toshiba Corp | 対話装置及び方法 |
US8171431B2 (en) * | 2007-10-05 | 2012-05-01 | Microsoft Corporation | Handle flags |
JP4934104B2 (ja) * | 2008-06-06 | 2012-05-16 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
WO2010049514A2 (en) | 2008-10-30 | 2010-05-06 | Talkamatic Ab | Dialog system |
US20100201879A1 (en) * | 2009-02-12 | 2010-08-12 | Echostar Technologies L.L.C. | Customizable Picture-in-Picture |
JP5638896B2 (ja) * | 2010-09-21 | 2014-12-10 | 任天堂株式会社 | 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法 |
US20120253789A1 (en) * | 2011-03-31 | 2012-10-04 | Microsoft Corporation | Conversational Dialog Learning and Correction |
EP2806051B1 (en) * | 2012-01-18 | 2016-04-06 | JFE Steel Corporation | Method for prevention of yellowing on surface of steel sheet after pickling |
JP5818753B2 (ja) * | 2012-08-13 | 2015-11-18 | 株式会社東芝 | 音声対話システム及び音声対話方法 |
KR101935039B1 (ko) * | 2012-09-11 | 2019-01-03 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어 방법 |
JP2014109897A (ja) * | 2012-11-30 | 2014-06-12 | Toshiba Corp | 情報処理装置およびコンテンツ検索方法 |
JP2014109889A (ja) * | 2012-11-30 | 2014-06-12 | Toshiba Corp | コンテンツ検索装置、コンテンツ検索方法及び制御プログラム |
JP2014203208A (ja) | 2013-04-03 | 2014-10-27 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
US9875494B2 (en) * | 2013-04-16 | 2018-01-23 | Sri International | Using intents to analyze and personalize a user's dialog experience with a virtual personal assistant |
KR102141116B1 (ko) * | 2013-08-05 | 2020-08-04 | 삼성전자주식회사 | 음성 대화 서비스를 지원하는 인터페이스 장치 및 방법 |
US9214156B2 (en) * | 2013-08-06 | 2015-12-15 | Nuance Communications, Inc. | Method and apparatus for a multi I/O modality language independent user-interaction platform |
US10152987B2 (en) * | 2014-06-23 | 2018-12-11 | Google Llc | Remote invocation of mobile device actions |
JP2016062264A (ja) * | 2014-09-17 | 2016-04-25 | 株式会社東芝 | 対話支援装置、方法およびプログラム |
JP2016061970A (ja) * | 2014-09-18 | 2016-04-25 | 株式会社東芝 | 音声対話装置、方法およびプログラム |
WO2016151699A1 (ja) * | 2015-03-20 | 2016-09-29 | 株式会社 東芝 | 学習装置、方法およびプログラム |
-
2015
- 2015-03-12 US US15/421,125 patent/US20170364323A1/en not_active Abandoned
- 2015-03-12 WO PCT/JP2015/057359 patent/WO2016143131A1/ja active Application Filing
- 2015-03-12 JP JP2017504533A patent/JP6251450B2/ja active Active
-
2017
- 2017-08-09 US US15/672,993 patent/US10248383B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10248383B2 (en) | 2019-04-02 |
US20170337036A1 (en) | 2017-11-23 |
US20170364323A1 (en) | 2017-12-21 |
WO2016143131A1 (ja) | 2016-09-15 |
JPWO2016143131A1 (ja) | 2017-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6251450B2 (ja) | 対話支援装置、方法およびプログラム、および端末 | |
KR102036786B1 (ko) | 제안되는 보이스 기반의 액션 쿼리들을 제공 | |
JP6351562B2 (ja) | 情報処理システム、受付サーバ、情報処理方法及びプログラム | |
CN112581962B (zh) | 在支持语音的电子设备中对语音转文本模型的场境敏感动态更新 | |
US20150254352A1 (en) | Accessing Search Results Using Multiple Different Devices | |
JP5684082B2 (ja) | 対話支援装置、方法及びプログラム | |
WO2017175363A1 (ja) | 情報処理システム、受付サーバ、情報処理方法及びプログラム | |
KR102560508B1 (ko) | 대화형 어시스턴트 컨텍스트 포함하여 사후 검색 결과를 자율적으로 제공 | |
JP7124232B2 (ja) | 名前タグ表示方法及び装置 | |
CN111949240A (zh) | 交互方法、存储介质、服务程序和设备 | |
JP2014109897A (ja) | 情報処理装置およびコンテンツ検索方法 | |
US11321756B1 (en) | Voice-assisted scanning | |
US11120812B1 (en) | Application of machine learning techniques to select voice transformations | |
JP2018128869A (ja) | 検索結果表示装置、検索結果表示方法、及びプログラム | |
JP2016062264A (ja) | 対話支援装置、方法およびプログラム | |
JP2015118710A (ja) | 対話装置、方法及びプログラム | |
JP5242726B2 (ja) | 外国語接客支援装置、外国語接客方法及びプログラム | |
US11855935B2 (en) | Information processing system and information processing method | |
US11495225B2 (en) | Response device, response method, and storage medium | |
JP2019207647A (ja) | 対話型業務支援システム | |
JP2019207371A (ja) | 音声認識結果の出力プログラム、通信装置及び音声認識結果の表示システム | |
JP7180747B2 (ja) | 編集支援プログラム、編集支援方法、及び編集支援装置 | |
JP6929960B2 (ja) | 情報処理装置及び情報処理方法 | |
US11533283B1 (en) | Voice user interface sharing of content | |
WO2023210340A1 (ja) | 学習装置および学習方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171124 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6251450 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |