JP2018072560A - 情報処理システム、情報処理装置及び情報処理方法 - Google Patents

情報処理システム、情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP2018072560A
JP2018072560A JP2016212049A JP2016212049A JP2018072560A JP 2018072560 A JP2018072560 A JP 2018072560A JP 2016212049 A JP2016212049 A JP 2016212049A JP 2016212049 A JP2016212049 A JP 2016212049A JP 2018072560 A JP2018072560 A JP 2018072560A
Authority
JP
Japan
Prior art keywords
topic
utterance
topic data
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016212049A
Other languages
English (en)
Inventor
恵 多比良
Megumi Tahira
恵 多比良
匠見 馬場
Takumi Baba
匠見 馬場
岳 今井
Takeshi Imai
岳 今井
美和 岡林
Miwa Okabayashi
美和 岡林
松本 達郎
Tatsuro Matsumoto
達郎 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016212049A priority Critical patent/JP2018072560A/ja
Priority to US15/729,948 priority patent/US20180122369A1/en
Publication of JP2018072560A publication Critical patent/JP2018072560A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Abstract

【課題】多様な対話を継続する。
【解決手段】ユーザとの間で対話を行う情報処理システムであって、前記ユーザの発話から、該ユーザの意図と、前記発話のコンテキストとを抽出する抽出部と、抽出された前記意図と前記コンテキストとに基づいて、前記意図の実施状況を含むトピックデータを生成するトピック生成部と、生成された前記トピックデータの実施状況に応じて、発話内容を生成する発話生成部と、を有する情報処理システムが提供される。
【選択図】図1

Description

本発明は、情報処理システム、情報処理装置及び情報処理方法に関する。
ユーザと対話を行う対話システムが知られている。このような対話システムでは、例えば、ユーザからの発話に対して予め登録された応答を行ったり、予め決められたシナリオに従った発話をユーザに対して行ったりすることで、ユーザとの対話を実現している。
特開2001−188782号公報
しかしながら、上記の従来技術では、例えば、人間同士が対話を行うように、新たな話題(トピック)を取り入れながら対話を行うことが困難であった。このため、対話システムをある程度の期間利用していくと、対話システムからの応答がパターン化してしまい、ユーザが対話に飽きてしまうことがあった。
開示の技術は、多様な対話を継続することを目的としている。
開示の技術は、ユーザとの間で対話を行う情報処理システムであって、前記ユーザの発話から、該ユーザの意図と、前記発話のコンテキストとを抽出する抽出部と、抽出された前記意図と前記コンテキストとに基づいて、前記意図の実施状況を含むトピックデータを生成するトピック生成部と、生成された前記トピックデータの実施状況に応じて、発話内容を生成する発話生成部と、を有する。
多様な対話を継続することができる。
第一の実施形態に係る対話システムにおける対話の一例を説明する図(1/2)である。 第一の実施形態に係る対話システムにおける対話の一例を説明する図(2/2)である。 第一の実施形態に係る対話システムを実現するコンピュータの一例のハードウェア構成を示す図である。 第一の実施形態に係る対話システムの機能構成の一例を示す図である。 トピックデータの詳細な構成の一例を示す図である。 第一の実施形態に係る対話時における全体処理の一例を示すフローチャートである。 第一の実施形態に係る新規トピックの生成処理の一例を示すフローチャートである。 第一の実施形態に係るトピックの選択処理(対話時)の一例を示すフローチャートである。 第一の実施形態に係るトピックの優先付け処理の一例を示すフローチャートである。 第一の実施形態に係る発話内容の生成及び出力処理の一例を示すフローチャートである。 第二の実施形態に係る対話システムにおける閑話時の発話の一例を説明する図である。 第二の実施形態に係る対話システムの機能構成の一例を示す図である。 第二の実施形態に係る閑話時における全体処理の一例を示すフローチャートである。 第二の実施形態に係るトピックの選択処理(閑話時)の一例を示すフローチャートである。 第三の実施形態に係る対話システムにおいて、アプリからの通知によりトピックを更新する場合の一例を説明する図である。 第三の実施形態に係る対話システムの機能構成の一例を示す図である。 第三の実施形態に係る対話時における全体処理の一例を示すフローチャートである。 第三の実施形態に係るアプリ連携処理の一例を示すフローチャートである。
以下、本発明の実施形態について添付の図面を参照しながら説明する。
[第一の実施形態]
まず、本実施形態に係る対話システム100における対話について、図1及び図2を参照しながら説明する。図1及び図2は、第一の実施形態に係る対話システム100における対話の一例を説明する図である。
本実施形態に係る対話システム100は、ユーザからの発話に応じて、この発話内容に対する応答を発話することで、ユーザとの間で対話を行う情報処理装置(コンピュータ)又は情報処理システムである。本実施形態に係る対話システム100には、例えば、スマートフォンやタブレット端末、携帯電話、PC(パーソナルコンピュータ)、ロボット等に内蔵される組み込み型のコンピュータ等を用いることができる。
図1及び図2に示すように、本実施形態に係る対話システム100は、ユーザの発話から意図やコンテキストを抽出する音声解析処理部110と、意図やコンテキストからトピック(話題)の生成や選択等を行うトピック管理処理部120とを有する。また、本実施形態に係る対話システム100は、選択されたトピックから発話内容を生成する対話生成処理部130と、トピックを示すデータ(トピックデータ)1000を記憶するトピックDB(データベース)210とを有する。
ここで、ユーザの発話には、意図が含まれる発話と、意図が含まれない発話とが存在する。意図とは、ユーザが未来に行うことを所望若しくは予定している内容、又はユーザが未来に行う必要があると認識している内容のことである。意図には、例えば、「○○をしたい」や「○○をしようかな」等の願望(例えば、「ABC公園に行きたい」等)と、「○○をしなくちゃ」や「○○をする必要がある」等の義務(例えば、「部屋の掃除をしなくちゃ」等)とが含まれる。
また、コンテキストとは、ユーザの発話に含まれる場所や人、時期、時間、動作の完了等のことである。
図1に示すように、本実施形態に係る対話システム100は、例えば「ネモフィラきれいだなー。見に行きたいなー。」等の発話D11をユーザが行った場合、音声解析処理部110により、この発話D11に含まれる意図(「ネモフィラを見たい」)を抽出する。次に、本実施形態に係る対話システム100は、トピック管理処理部120により、抽出された意図に対応するラベル「ネモフィラを見る」と、このラベルが示す内容の実施状況「継続中」とを含むトピックデータ1000を生成して、トピックDB210に格納する。
ここで、ラベルとは、意図を端的に表す情報(例えば、意図が「ネモフィラを見たい」の場合、ラベルは「ネモフィラを見る」となる。)のことである。また、実施状況とは、ラベルが示す内容(例えば「ネモフィラを見る」)の実施の状況のことである。実施状況には、例えば、ラベルが示す内容を未だ実施していないことを示す「継続中」、ラベルが示す内容の実施が完了したことを示す「実施完了」、ラベルが示す内容を実施しない(又は実施できない)ことを示す「不実施」等がある。
なお、トピックデータ1000は、ラベル及び実施状況の他に、ラベルが示す内容が実施される場所及び時期、ラベルが示す内容をユーザと一緒に実施する人等の情報が含まれる。以降では、トピックデータ1000に含まれるデータ項目のうち、実施状況や場所、時期、人等の情報を格納するデータ項目のことを「スロット」とも称する。なお、トピックデータ1000の詳細な構成については後述する。
そして、本実施形態に係る対話システム100は、対話生成処理部130により、場所や人、時期等を示すスロットを埋めるための発話内容を生成して、ユーザに対して発話内容を発話(出力)する。その後、本実施形態に係る対話システム100は、トピック管理処理部120により、ユーザへの発話に対する応答の発話からトピックデータ1000を更新する。
すなわち、本実施形態に係る対話システム100は、例えば、場所を示すスロットを埋めるための発話内容「どこで見られますか?」を生成して、この発話内容を出力することで、発話D12を行う。そして、本実施形態に係る対話システム100は、例えば、ユーザから「ABC公園だよ。」との応答の発話D13があった場合、トピックデータ1000の場所を示すスロットを「ABC公園」に更新する。
同様に、本実施形態に係る対話システム100は、対話生成処理部130により、時期を示すスロットを埋めるための発話内容「いつ行きますか?」を生成して、この発話内容を出力することで、発話D14を行う。そして、本実施形態に係る対話システム100は、例えば、ユーザから「来年の4月頃かな。」との応答の発話D15があった場合、トピックデータ1000の時期を示すスロットを、「来年の4月」を示す「2016年4月」に更新する。
このように、本実施形態に係る対話システム100は、意図を含む発話をユーザが行った場合、この意図からトピックデータ1000を生成して、トピックDB210で管理する。また、本実施形態に係る対話システム100は、トピックデータ1000を生成した場合、このトピックデータ1000のスロット(場所や人、時期等)を埋めるための発話をユーザに対して行う。
なお、図1に示す例では、ユーザの発話に含まれる意図に対応するラベルのトピックデータ1000がトピックDB210に格納されていない場合(すなわち、ユーザが、新たな意図を含む発話を行った場合)について説明した。ユーザの発話に含まれる意図に対応するラベルのトピックデータ1000がトピックDB210に既に格納されている場合は、後述する図2に示す例と同様に、この発話から抽出されたコンテキストに応じたトピックデータ1000がトピックDB210から選択される。
図2に示すように、本実施形態に係る対話システム100は、例えば「今日は出張でABC公園の近くを通ったんだ。」等の発話(意図を含まない発話)D21をユーザが行った場合、音声解析処理部110により、この発話D21のコンテキストを抽出する。次に、本実施形態に係る対話システム100は、トピック管理処理部120により、抽出されたコンテキストに応じたトピックデータ1000をトピックDB210から選択する。
なお、コンテキストに応じたトピックデータ1000とは、例えば、コンテキストとして場所「ABC公園」が抽出された場合、場所を示すスロットに「ABC公園」が設定されているトピックデータ1000のことである。
そして、本実施形態に係る対話システム100は、対話生成処理部130により、選択されたトピックデータ1000の空きスロットを埋めるための発話内容や実施状況を更新するための発話内容等を生成して、ユーザに対して発話内容を発話(出力)する。その後、本実施形態に係る対話システム100は、トピック管理処理部120により、ユーザへの発話に対する応答の発話からトピックデータ1000を更新する。なお、空きスロットとは、情報が設定されていないスロット(又はブランクやNULL値が設定されているスロット)のことである。
すなわち、本実施形態に係る対話システム100は、例えば、選択されたトピックデータ1000から発話内容「そういえば来年の4月頃にABC公園にネモフィラを見に行きたいと言ってましたね。誰と行きますか?」を生成する。そして、本実施形態に係る対話システム100は、この発話内容を出力することで、発話D22を行う。その後、本実施形態に係る対話システム100は、例えば、ユーザから「そうだった。乙さんを誘ってみよう。」との応答の発話D23があった場合、トピックデータ1000の人を示すスロットを「乙さん」に更新する。
このように、本実施形態に係る対話システム100は、意図を含まない発話をユーザが行った場合、この発話から抽出されるコンテキストに応じたトピックデータ1000をトピックDB210から選択する。そして、本実施形態に係る対話システム100は、選択したトピックデータ1000のスロットや実施状況等を更新するための発話をユーザに対して行う。
以上のように、本実施形態に係る対話システム100では、「○○をしたい」や「○○をしようかな」等の意図を含む発話から新たな話題(トピック)を立ち上げて、このトピックを示すトピックデータ1000をトピックDB210で管理する。そして、本実施形態に係る対話システム100は、ユーザが行った発話のコンテキストから過去のトピックデータ1000を選択して、このトピックデータ1000のスロットや実施状況等を更新するための発話をユーザに対して行う。
したがって、本実施形態に係る対話システム100は、ユーザが様々な意図を含む発話を行うことにより、様々なトピック(話題)について、ユーザと対話を行うことができるようになる。このため、ユーザは、飽きることなく、長期的に多様な対話を継続することができるようになる。
また、本実施形態に係る対話システム100は、ユーザの発話から抽出されたコンテキストに応じたトピック(話題)について、ユーザとの間で対話を行うため、例えば、過去のユーザの意図(例えば、「○○に行きたい」)を思い出させることもできるようになる。
なお、図1及び図2に示す対話システム100の構成は、一例であって、他の構成であっても良い。例えば、対話システム100が一台の情報処理装置で実現されている場合、音声解析処理部110、トピック管理処理部120、対話生成処理部130及びトピックDB210は、当該一台の情報処理装置が有していても良い。一方で、例えば、対話システム100が複数台の情報処理装置で実現されている場合、音声解析処理部110、トピック管理処理部120、対話生成処理部130及びトピックDB210を、それぞれ同一又は異なる情報処理装置が有していても良い。
次に、本実施形態に係る対話システム100を実現するコンピュータ300のハードウェア構成について、図3を参照しながら説明する。図3は、第一の実施形態に係る対話システム100を実現するコンピュータ300の一例のハードウェア構成を示す図である。本実施形態に係る対話システム100は、例えば、1以上のコンピュータ300により実現される。
図3に示すように、コンピュータ300は、入力装置301と、表示装置302と、外部I/F303と、通信I/F304と、ROM(Read Only Memory)305とを有する。また、コンピュータ300は、RAM(Random Access Memory)306と、CPU(Central Processing Unit)307と、記憶装置308と、音声入力装置309と、音声出力装置310とを有する。これら各ハードウェアは、それぞれがバスBで相互に接続されている。
入力装置301は、例えば各種ボタンやタッチパネル、キーボード、マウス等であり、コンピュータ300に各種の操作信号を入力するのに用いられる。表示装置302は、例えばディスプレイ等であり、コンピュータ300による各種の処理結果を表示する。なお、コンピュータ300は、入力装置301及び表示装置302の少なくとも一方を有していなくても良い。
外部I/F303は、外部装置とのインタフェースである。外部装置には、記録媒体303a等がある。コンピュータ300は、外部I/F303を介して、記録媒体303aの読み取り及び/又は書き込みを行うことができる。
なお、記録媒体303aには、例えば、SDメモリカード(SD memory card)やUSBメモリ、CD(Compact Disk)、DVD(Digital Versatile Disk)等がある。
通信I/F304は、コンピュータ300をネットワークに接続するためのインタフェースである。コンピュータ300は、通信I/F304を介して、他のコンピュータ300等と通信を行うことができる。
ROM305は、電源を切ってもデータを保持することができる不揮発性の半導体メモリである。RAM306は、プログラムやデータを一時保持する揮発性の半導体メモリである。CPU307は、例えば記憶装置308やROM305等からプログラムやデータをRAM306上に読み出して、各種処理を実行する演算装置である。
記憶装置308は、例えばHDD(Hard Disk Drive)やSSD(solid state drive)等であり、プログラムやデータを格納している不揮発性のメモリである。記憶装置308に格納されるプログラムやデータには、例えば、本実施形態を実現するプログラムや基本ソフトウェアであるOS(Operating System)、OS上で動作する各種アプリケーション等がある。
音声入力装置309は、例えばマイクロフォン等であり、ユーザからの発話等の音声を入力する。音声出力装置310は、例えばスピーカ等であり、対話システム100からの発話等の音声を出力する。
本実施形態に係る対話システム100は、図3に示すコンピュータ300により、後述する各種処理が実現される。
次に、本実施形態に係る対話システム100の機能構成について、図4を参照しながら説明する。図4は、第一の実施形態に係る対話システム100の機能構成の一例を示す図である。
図4に示すように、対話システム100の音声解析処理部110は、音声入力受付部111と、音声認識部112と、解析部113とを有する。音声解析処理部110は、対話システム100にインストールされた1以上のプログラムが、CPU307に実行させる処理により実現される。
音声入力受付部111は、ユーザからの発話(音声)の入力を受け付ける。音声認識部112は、音声入力受付部111が入力を受け付けた音声の音声認識を行って、例えば、音声をテキストに変換する。解析部113は、音声認識部112による音声認識の結果を解析して、意図とコンテキストとを抽出する。
すなわち、解析部113は、例えば、音声が変換されたテキストに対して、形態素解析や意味解析等の自然言語処理を行うことにより、意図(例えば、「○○をしたい」や「○○をする必要がある」等)と、コンテキスト(例えば、場所や人、時期等)とを抽出する。
対話システム100のトピック管理処理部120は、トピック生成部121と、トピック選択部122と、選択中トピック管理部123とを有する。トピック管理処理部120は、対話システム100にインストールされた1以上のプログラムが、CPU307に実行させる処理により実現される。
トピック生成部121は、解析部113により抽出された意図からトピックデータ1000を生成する。すなわち、トピック生成部121は、解析部113により抽出された意図に対応するラベルと、実施状況「継続中」とが含まれるトピックデータ1000を生成する。なお、トピック生成部121は、解析部113により抽出された意図と同一の意図から生成されたトピックデータ1000がトピックDB210に既に格納されている場合には、トピックデータ1000の生成を行わない。
そして、トピック生成部121は、生成したトピックデータ1000をトピックDB210に格納する。
トピック選択部122は、トピック生成部121により生成されたトピックデータ1000又は解析部113により抽出されたコンテキストに対応するトピックデータ1000を、トピックDB210に格納されているトピックデータ1000の中から選択する。
すなわち、トピック選択部122は、ユーザの発話からトピックデータ1000が生成された場合、この生成されたトピックデータ1000を選択する。一方、トピック選択部122は、ユーザの発話からトピックデータ1000が生成されなかった場合、この発話から抽出されたコンテキストに対応するトピックデータ1000を、トピックDB210に格納されているトピックデータ1000の中から選択する。
以降では、トピック選択部122により選択されたトピックデータ1000を「選択中トピックデータ1000」とも表す。
選択中トピック管理部123は、トピック選択部122により選択されたトピックデータ1000(選択中トピックデータ1000)を管理する。すなわち、選択中トピック管理部123は、例えば、選択中トピックデータ1000を識別する識別情報(後述するトピックID)を所定の記憶領域で保持することにより、選択中トピックデータ1000を管理する。また、選択中トピック管理部123は、例えば、ユーザとの間で対話がなされずに所定の時間が経過した場合、選択中トピックデータ1000の識別情報を所定の記憶領域から削除する。
また、選択中トピック管理部123は、ユーザからの応答の発話等に応じて、選択中トピックデータ1000の更新を行う。
すなわち、選択中トピック管理部123は、ユーザの発話等に応じて、選択中トピックデータ1000の空きスロットに情報(例えば、場所や人、時期等)を設定することで、選択中トピックデータ1000を更新する。また、選択中トピック管理部123は、ユーザの発話等に応じて、選択中トピックデータ1000のスロットの情報を更新(例えば、実施状況を「継続中」から「実施完了」に更新)する。
対話システム100の対話生成処理部130は、発話内容生成部131と、発話内容出力部132とを有する。対話生成処理部130は、対話システム100にインストールされた1以上のプログラムが、CPU307に実行させる処理により実現される。
発話内容生成部131は、トピック選択部122により選択された選択中トピックデータ1000から発話内容を生成する。すなわち、発話内容生成部131は、例えば、選択中トピックデータ1000の空きスロットを埋めるための発話内容を生成する。
発話内容出力部132は、発話内容生成部131により生成された発話内容を、音声により出力する。発話内容出力部132により発話内容が出力されることで、対話システム100は、ユーザに対する発話を行うことができる。なお、発話内容出力部132は、発話内容を音声により出力する場合に限られず、例えば、発話内容を示すテキストを表示(出力)しても良い。
対話システム100のトピックDB210は、トピックデータ1000を格納する。トピックDB210は、例えば記憶装置308を用いて実現可能である。トピックDB210は、例えば、対話システム100とネットワークを介して接続される記憶装置等を用いて実現されていても良い。なお、以降では、トピックDB210に格納されている複数のトピックデータ1000について、それぞれを区別するときは、「トピックデータ1000−1」、「トピックデータ1000−2」、「トピックデータ1000−3」等と表す。
ここで、トピックDB210に格納されているトピックデータ1000の詳細について、図5を参照しながら説明する。図5は、トピックデータ1000の詳細な構成の一例を示す図である。
図5に示すように、トピックDB210には、例えば、トピックデータ1000−1、トピックデータ1000−2、トピックデータ1000−3等の1以上のトピックデータ1000が格納されている。
これらのトピックデータ1000は、データ項目として、トピックIDと、生成日時と、更新日時と、ラベルと、実施状況と、場所と、人と、時期と、選択回数と、関連とを有する。なお、上述したように、これらのデータ項目のうち、例えば、実施状況や場所、人、時期等のデータ項目は「スロット」とも称される。また、これらに加えて、関連等のデータ項目が「スロット」と称されても良い。なお、これらスロットのうち、場所を示すスロット、人を示すスロット及び時期を示すスロットを、特に、「必須スロット」とも表す。
トピックIDは、トピックデータ1000を識別する識別情報である。生成日時は、トピックデータ1000が生成された日時である。更新日時は、トピックデータ1000が更新された日時(すなわち、トピックデータ1000の少なくとも1つのデータ項目が更新された日時)である。
ラベルは、ユーザの発話に含まれる意図を端的に表す情報である。実施状況は、ラベルが示す内容の実施の状況のことである。実施状況には、例えば、ラベルが示す内容を未だ実施していないことを示す「継続中」、ラベルが示す内容の実施が完了したことを示す「実施完了」、ラベルが示す内容を実施しないことを示す「不実施」等がある。
場所は、ラベルが示す内容が実施される場所の情報である。人は、ラベルが示す内容をユーザと一緒に実施する人の情報である。時期は、ラベルが示す内容を実施する時期の情報である。
選択回数は、トピックデータ1000がトピック選択部122により選択された回数の情報である。関連は、トピックデータ1000に関連する種々の付随的な情報である。なお、トピックデータ1000には、例えば、トピックデータ1000がトピック選択部122により選択された頻度の情報が設定されるデータ項目「頻度」を有していても良い。
このように、トピックDB210に格納されているトピックデータ1000には、ラベルや実施状況、場所、人、時期等のデータ項目(スロット)が含まれる。これにより、本実施形態に係る対話システム100は、ユーザとの間における対話の話題(トピック)の実施状況や実施する場所、人、時期等を管理することができる。
なお、本実施形態では、トピックデータ1000は互いに独立であるものとして説明するが、トピックデータ1000同士が関係付けられていても良い。例えば、ラベル「海外旅行に行く」のトピックデータ1000と、ラベル「アメリカ旅行に行く」のトピックデータ1000とが親子関係となるようにトピックDB210に格納されていても良い。これにより、関係する話題(トピック)を関係付けてトピックDB210に管理することができる。
次に、本実施形態に係る対話システム100の処理の詳細について説明する。以降では、本実施形態に係る対話システム100の対話時における全体処理について、図6を参照しながら説明する。図6は、第一の実施形態に係る対話時における全体処理の一例を示すフローチャートである。図6に示す対話時おける全体処理は、例えば、ユーザの発話(音声)が入力される毎に行われる。
まず、音声解析処理部110の音声入力受付部111は、ユーザからの発話(音声)の入力を受け付ける(ステップS601)。
次に、音声解析処理部110の音声認識部112は、音声入力受付部111が入力を受け付けた音声の音声認識を行う(ステップS602)。すなわち、音声認識部112は、音声認識技術により、音声入力受付部111が入力を受け付けた音声を、例えば、テキストに変換する。
次に、音声解析処理部110の解析部113は、音声認識部112による音声認識の結果を解析して、意図とコンテキストとを抽出する(ステップS603)。すなわち、解析部113は、例えば、音声が変換されたテキストに対して、種々の自然言語処理を行うことにより、意図とコンテキストとを抽出する。
例えば、音声が変換されたテキストが「明日、乙さんとABC公園に行きたい。」であったとする。この場合、解析部113により抽出される意図は、「ABC公園に行きたい」となる。また、解析部113により抽出されるコンテキストは、時期を示す「明日」、人を示す「乙さん」、場所を示す「ABC公園」、動作を示す「行く」となる。
また、例えば、音声が変換されたテキストが「昨日、乙さんとABC公園に行った。」であったとする。この場合、解析部113により意図は抽出されない(すなわち、ユーザの発話に意図は含まれない。)。一方、解析部113により抽出されるコンテキストは、時期を示す「昨日」、人を示す「乙さん」、場所を示す「ABC公園」、動作を示す「行く」となる。更に、このとき、解析部113は、「行った」から動作の完了を抽出する。
次に、トピック管理処理部120の選択中トピック管理部123は、選択中トピックデータ1000があるか否かを判定する(ステップS604)。すなわち、選択中トピック管理部123は、例えば、選択中トピックデータ1000のトピックIDが所定の記憶領域に記憶されているか否かを判定する。
ステップS604において、選択中トピックデータ1000がないと判定された場合、トピック管理処理部120のトピック生成部121は、解析部113により意図が抽出されたか否かを判定する(ステップS605)。
ステップS605において、意図が抽出されたと判定された場合、トピック管理処理部120のトピック生成部121は、新規トピックの生成処理を行う(ステップS606)。
ここで、新規トピックの生成処理の詳細について、図7を参照しながら説明する。図7は、第一の実施形態に係る新規トピックの生成処理の一例を示すフローチャートである。
まず、トピック生成部121は、解析部113により抽出された意図と同一の意図から生成されたトピックデータ1000がトピックDB210に格納されているか否かを判定する(ステップS701)。
すなわち、例えば、解析部113により抽出された意図が「ABC公園に行きたい」であったとする。この場合、トピック生成部121は、この意図に対応するラベル「ABC公園に行く」を含むトピックデータ1000がトピックDB210に格納されているか否かを判定する。
ここで、意図に対応するラベルとは、例えば、意図に含まれる動詞を原形(終止形)にしたものである。例えば、意図が「ABC公園に行きたい」や「掃除をしなくちゃ」等である場合、ラベルは、それぞれ「ABC公園に行く」や「掃除をする」等とすれば良い。
ステップS701において、同一の意図から生成されたトピックデータ1000がトピックDB210に格納されていない場合、トピック生成部121は、トピックデータ1000を生成する(ステップS702)。
すなわち、トピック生成部121は、解析部113により抽出された意図に対応するラベルと、実施状況「継続中」とを含むトピックデータ1000を生成する。このとき、トピック生成部121は、解析部113により抽出されたコンテキストを、このコンテキストに対応するスロットに設定する。例えば、ユーザの発言が「明日、ABC公園に行きたい」等である場合、トピック生成部121は、時期を示すスロットに明日の日付を設定する。同様に、例えば、ユーザの発言が「明日、乙さんとABC公園に行きたい」等である場合、トピック生成部121は、時期を示すスロットに明日の日付を設定すると共に、人を示すスロットに乙さんを設定する。
更に、このとき、トピック生成部121は、トピックIDを示すデータ項目にトピックデータ1000を識別する識別情報を設定すると共に、生成日時を示すデータ項目にトピックデータ1000を生成した日時を設定する。
なお、トピック生成部121は、例えば、場所、人、時期等を示すスロットを空きスロットとしても良い。
次に、トピック生成部121は、生成したトピックデータ1000をトピックDB210に格納する(ステップS703)。これにより、新規トピックのトピックデータ1000がトピックDB210に格納される。なお、トピック生成部121は、トピックデータ1000の生成を行った場合、例えば、このトピックデータ1000を生成したことを示すフラグ(新規トピック生成フラグ)を「1」に更新する。
一方、ステップS701において、同一の意図から生成されたトピックデータ1000がトピックDB210に格納されている場合、トピック生成部121は、処理を終了する。この場合、トピックデータ1000は生成されない。
図6に戻る。ステップS605において、意図が抽出されなかったと判定された場合、又はステップS606に続いて、トピック管理処理部120のトピック選択部122は、トピックの選択処理(対話時)を行う(ステップS607)。すなわち、トピック選択部122は、上記のステップS606で生成されたトピックデータ1000又は解析部113により抽出されたコンテキストに対応するトピックデータ1000を、トピックDB210に格納されているトピックデータ1000から選択する。
ここで、トピックの選択処理(対話時)の詳細について、図8を参照しながら説明する。図8は、第一の実施形態に係るトピックの選択処理(対話時)の一例を示すフローチャートである。
まず、トピック選択部122は、新規トピックのトピックデータ1000が生成されたか否かを判定する(ステップS801)。すなわち、トピック選択部122は、図7に示す新規トピックの生成処理において、トピックデータ1000が生成されたか否かを判定する。これは、トピック選択部122は、例えば、新規トピック生成フラグが「1」であるか否かを判定すれば良い。
ステップS801において、新規トピックのトピックデータ1000が生成されたと判定された場合、トピック選択部122は、当該トピックデータ1000をトピックDB210から取得する(ステップS802)。
次に、トピック選択部122は、トピックDB210から取得したトピックデータ1000を選択中トピックデータ1000とする(ステップS803)。すなわち、トピック選択部122は、トピックDB210から取得したトピックデータ1000のトピックIDを、例えば、所定の記憶領域に格納する。
これにより、トピック選択部122により、新規トピックのトピックデータ1000が選択される。なお、このとき、トピック選択部122は、例えば、新規トピック生成フラグを「0」にする。
ステップS801において、新規トピックのトピックデータ1000が生成されていないと判定された場合、トピック選択部122は、解析部113により抽出されたコンテキストに合致するトピックデータ1000をトピックDB210から取得する(ステップS804)。
ここで、コンテキストに合致するトピックデータ1000とは、例えば、解析部113により抽出されたコンテキストが、このコンテキストに対応するスロットに設定されているトピックデータ1000のことである。例えば、コンテキストが「ABC公園」である場合、コンテキストに合致するトピックデータ1000とは、場所を示すスロットに「ABC公園」が設定されているトピックデータ1000のことである。また、例えば、コンテキストが「ABC公園」と「乙さん」とである場合、コンテキストに合致するトピックデータ1000とは、場所を示すスロットに「ABC公園」、人を示すスロットに「乙さん」が設定されているトピックデータ1000のことである。
なお、コンテキストが2つ以上である場合には、少なくとも1つのコンテキストが、このコンテキストに対応するスロットに設定されているトピックデータ1000をコンテキストに合致するものとしても良い。すなわち、例えば、コンテキストが「ABC公園」と「乙さん」とである場合、場所を示すスロットに「ABC公園」が設定されている又は人を示すスロットに「乙さん」が設定されているトピックデータ1000を、コンテキストに合致するものとしても良い。
以降では、上記のステップS801においてトピックDB210から取得されたトピックデータ1000の集合を、便宜上、「選択候補トピックデータ集合」とも表す。
次に、トピック選択部122は、トピックDB210から取得したトピックデータ1000のうち、実施状況が「不実施」のトピックデータ1000を除外する(ステップS805)。すなわち、トピック選択部122は、選択候補トピックデータ集合の中から、実施状況が「不実施」のトピックデータ1000を削除する。
例えば、上記のステップS804において、実施状況「継続中」のトピックデータ1000−1と、実施状況「不実施」のトピックデータ1000−2と、実施状況「継続中」のトピックデータ1000−3とが取得されたものとする。この場合、選択候補トピックデータ集合には、トピックデータ1000−1と、トピックデータ1000−2と、トピックデータ1000−3とが含まれる。
このとき、トピック選択部122は、選択候補トピックデータ集合の中から、実施状況「不実施」のトピックデータ1000−2を削除する。これにより、選択候補トピックデータ集合には、トピックデータ1000−1と、トピックデータ1000−3とが含まれるようになる。
次に、トピック選択部122は、上記のステップS805における除外後のトピックデータ1000の数を特定する(ステップS806)。すなわち、トピック選択部122は、上記のステップS805における選択候補トピックデータ集合に含まれるトピックデータ1000の数を特定する。
ステップS805において、トピックデータ1000の数が「1」であると特定された場合、トピック選択部122は、ステップS803の処理を行う。すなわち、トピック選択部122は、選択候補トピックデータ集合に含まれるトピックデータ1000を、選択中トピックデータ1000とする。
ステップS806において、トピックデータ1000の数が「0」であると特定された場合、トピック選択部122は、処理を終了させる。この場合、トピックデータ1000の選択は行われない。
ステップS806において、トピックデータ1000の数が「2」以上であると特定された場合、トピック選択部122は、トピックの優先付け処理を行う(ステップS807)。トピックの優先付け処理とは、選択候補トピックデータ集合に含まれる複数のトピックデータ1000に対して優先度を設定する処理である。
ここで、トピックの優先付け処理の詳細について、図9を参照しながら説明する。図9は、第一の実施形態に係るトピックの優先付け処理の一例を示すフローチャートである。
まず、トピック選択部122は、実施状況が「継続中」のトピックデータ1000があるか否かを判定する(ステップS901)。すなわち、トピック選択部122は、選択候補トピックデータ集合の中に、実施状況が「継続中」のトピックデータ1000があるか否かを判定する。
ステップS901において、実施状況が「継続中」のトピックデータ1000が存在すると判定された場合、トピック選択部122は、実施状況が「継続中」以外のトピックデータ1000を除外する(ステップS902)。すなわち、トピック選択部122は、選択候補トピックデータ集合の中から、実施状況が「継続中」以外のトピックデータ1000(言い換えれば、実施状況が「実施完了」のトピックデータ1000)を削除する。
次に、トピック選択部122は、上記のステップS902における除外後のトピックデータ1000の数を特定する(ステップS903)。すなわち、トピック選択部122は、上記のステップS902における選択候補トピックデータ集合に含まれるトピックデータ1000の数を特定する。
ステップS903において、トピックデータ1000の数が「1」であると特定された場合、トピック選択部122は、トピックデータ1000に優先度を設定する(ステップS904)。この場合、トピック選択部122は、選択候補トピックデータ集合に含まれるトピックデータ1000に対して、任意の優先度を設定すれば良い。
ステップS903において、トピックデータ1000の数が「2」以上であると特定された場合、トピック選択部122は、現在の日時から時期が近い順に、トピックデータ1000に優先度を設定する(ステップS905)。
すなわち、トピック選択部122は、選択候補トピックデータ集合に含まれるトピックデータ1000の優先度を、当該トピックデータ1000の時期が現在の日時と近い順に高くなるように設定する。これにより、最も近い将来に実施することが予想される内容のトピックに対して、最も高い優先度を設定することができる。
なお、例えば、トピックデータ1000の時期が設定されていない場合(時期を示すスロットが空きスロットである場合)には、トピック選択部122は、当該トピックデータ1000に対して、例えば、最も低い優先度を設定すれば良い。または、トピック選択部122は、例えば、他のスロット(場所を示すスロットや人を示すスロット等)と、解析部113により抽出されたコンテキストとの合致度に応じて優先度を設定しても良い。
また、トピック選択部122は、選択候補トピックデータ集合に含まれるトピックデータ1000の優先度をランダムに設定しても良い。
一方、ステップS901において、実施状況が「継続中」のトピックデータ1000が存在しないと判定された場合、トピック選択部122は、選択回数が少ない順に、優先度を設定する(ステップS906)。すなわち、トピック選択部122は、選択候補トピックデータ集合に含まれるトピックデータ1000(実施状況が「実施完了」のトピックデータ1000)の優先度を、選択回数が少ない順に高くなるように設定する。これにより、実施が完了した内容のトピックについて、選択回数が最も少ないトピック(言い換えれば、最も対話されていないトピック)に対して、最も高い優先度を設定することができる。なお、トピック選択部122は、例えば、トピックデータ1000の優先度をランダムに設定しても良い。
以上により、選択候補トピックデータ集合に含まれるトピックデータ1000に対して優先度が設定される。
図8に戻る。ステップS807に続いて、トピック選択部122は、選択候補トピックデータ集合に含まれるトピックデータ1000の中から、最も高い優先度が設定されているトピックデータ1000を選択中トピックデータ1000とする(ステップS808)。すなわち、トピック選択部122は、最も高い優先度が設定されているトピックデータ1000のトピックIDを、例えば、所定の記憶領域に格納する。また、このとき、選択中トピック管理部123は、選択中トピックデータ1000の選択回数に「1」を加算する。
以上により、トピックDB210に格納されているトピックデータ1000の中から、一のトピックデータ1000(選択中トピックデータ1000)が選択される。
図6に戻る。ステップS607に続いて、トピック管理処理部120の選択中トピック管理部123は、トピック選択部122によりトピックデータ1000が選択されたか否かを判定する(ステップS608)。すなわち、選択中トピック管理部123は、上記のステップS607のトピック選択処理において、トピック選択部122によりトピックデータ1000が選択されたか否かを判定する。
ステップS608において、トピックデータ1000が選択されたと判定された場合、対話生成処理部130は、発話内容の生成及び出力処理を行う(ステップS609)。対話内容の生成及び出力処理とは、選択中トピックデータ1000から発話内容を生成して、生成した発話内容を出力する処理のことである。
ここで、発話内容の生成及び出力処理の詳細について、図10を参照しながら説明する。図10は、第一の実施形態に係る発話内容の生成及び出力処理の一例を示すフローチャートである。
まず、発話内容生成部131は、選択中トピックデータ1000の実施状況を特定する(ステップS1001)。
ステップS1001において、選択中トピックデータ1000の実施状況が「継続中」であると特定された場合、発話内容生成部131は、当該選択中トピックデータ1000の必須スロットに空きがあるか否かを判定する(ステップS1002)。
ステップS1002において、選択中トピックデータ1000の必須スロットに空きがあると判定された場合、発話内容生成部131は、必須スロットの空きを埋めるための発話内容を生成する(ステップS1003)。
すなわち、例えば、選択中トピックデータ1000の空き必須スロットが場所を示すスロットである場合、発話内容生成部131は、場所を質問する発話内容を生成する。発話内容生成部131は、場所を質問する発話内容として、例えば「どこですか?」等を生成しても良いし、ラベル(「ネモフィラを見る」や「○○を買う」等)を参照して、例えば「どこで見られますか?」や「どこで買いますか?」等を生成しても良い。また、発話内容生成部131は、更に、他のスロット(人や時期を示すスロット等)を参照して、例えば「来月、どこでネモフィラを見るのですか?」や「来月、乙さんとネモフィラを見るみたいですね。どこへ見に行くのですか?」等を生成しても良い。
同様に、例えば、選択中トピックデータ1000の空き必須スロットが人を示すスロットである場合、発話内容生成部131は、人を質問する発話内容を生成する。発話内容生成部131は、人を質問する発話内容として、例えば「誰ですか?」等を生成しても良いし、ラベル(「ネモフィラを見る」や「○○を買う」等」)を参照して、例えば「誰と見ますか?」や「誰と買いますか?」等を生成しても良い。また、発話内容生成部131は、更に、他のスロット(場所や時期を示すスロット等)を参照して、例えば「来月のABC公園は誰と行くのですか?」等を生成しても良い。
同様に、例えば、選択中トピックデータ1000の空き必須スロットが時期を示すスロットである場合、発話内容生成部131は、時期を質問する発話内容を生成する。発話内容生成部131は、時期を質問する発話内容として、例えば「いつですか?」等を生成しても良いし、ラベル(「ネモフィラを見る」や「○○を買う」等」)を参照して、例えば「ネモフィラをいつ見ますか?」や「いつ買いますか?」等を生成しても良い。また、発話内容生成部131は、更に、他のスロット(場所や人を示すスロット等)を参照して、例えば「乙さんとネモフィラをいつ見るのですか?」や「ABC公園にいつ行くのですか?」等を生成しても良い。
このように、発話内容生成部131は、実施状況が「継続中」の選択中トピックデータ1000について、このトピックデータ1000のラベルやスロット等を参照して、空き必須スロットを埋めるための発話内容を生成する。
なお、選択中トピックデータ1000の空き必須スロットが複数ある場合、発話内容生成部131は、例えば、ランダムでいずれか1つの空き必須スロットを埋めるための発話内容を生成しても良いし、予め必須スロット間に優先順位が設定されていても良い。
次に、発話内容出力部132は、発話内容生成部131により生成された発話内容を、音声により出力する(ステップS1004)。なお、発話内容出力部132は、例えば、発話内容を示すテキストを表示(出力)しても良い。
ステップS1002において、選択中トピックデータ1000の必須スロットに空きがないと判定された場合、発話内容生成部131は、実施状況を確認するための発話内容を生成する(ステップS1005)。言い換えれば、発話内容生成部131は、選択中トピックデータ1000が示す内容の実施が完了したか否かを確認するための発話内容を生成する。
すなわち、例えば、発話内容生成部131は、ラベル(「ネモフィラを見る」や「○○を買う」等)を参照して、例えば、実施状況を確認するための発話内容「ネモフィラを見ましたか?」や「○○を買いましたか?」等を生成する。このように、発話内容生成部131は、実施状況が「継続中」の選択中トピックデータ1000について、このトピックデータ1000の内容をユーザが実施したか否かを確認するための発話内容を生成する。これにより、上記のステップS1004において、発話内容出力部132は、実施状況を確認するための発話内容を出力することができる。
ステップS1001において、選択中トピックデータ1000の実施状況が「実施完了」であると特定された場合、発話内容生成部131は、当該選択中トピックデータ1000から思い出話に関する発話内容を生成する(ステップS1006)。
すなわち、例えば、選択中トピックデータ1000のラベルが「ネモフィラを見る」、人を示すスロットが「乙さん」、場所を示すスロットが「ABC公園」、時期を示すスロットが「2016年4月9日」であったとする。この場合、発話内容生成部131は、例えば、思い出話に関する発話内容「そういえば、昨年の4月に、乙さんとABC公園でネモフィラを見ましたよね」等を生成する。このように、発話内容生成部131は、実施状況が「実施完了」の選択中トピックデータ1000について、思い出話に関する発話内容を生成する。これにより、上記のステップS1004において、発話内容出力部132は、思い出話に関する発話内容を出力することができる。
以上により、本実施形態に係る対話システム100は、選択中トピックデータ1000に応じた発話をユーザに対して行うことができる。
図6に戻る。ステップS604において、選択中トピックデータ1000があると判定された場合、トピック管理処理部120の選択中トピック管理部123は、選択中トピックデータ1000の更新があるか否かを判定する(ステップS610)。
すなわち、例えば、ステップS609の発話内容の生成及び出力処理において、対話生成処理部130が選択中トピックデータ1000の場所を示すスロットを埋めるための発話内容を発話したとする。このとき、選択中トピック管理部123は、この発話に対するユーザの発話(応答)から抽出されたコンテキストに場所が含まれるか否かを判定する。そして、選択中トピック管理部123は、抽出されたコンテキストに場所が含まれると判定した場合、選択中トピックデータ1000の場所を示すスロットの更新があると判定する。
同様に、例えば、ステップS609の発話内容の生成及び出力処理において、対話生成処理部130が選択中トピックデータ1000の実施状況を確認するための発話内容を発話したとする。このとき、選択中トピック管理部123は、この発話に対するユーザの発話(応答)から抽出されたコンテキストに、実施完了を示す用語(例えば、「もう見た」や「もう行った」等)が含まれるか否かを判定する。そして、選択中トピック管理部123は、抽出されたコンテキストに実施完了を示す用語が含まれると判定した場合、選択中トピックデータ1000における実施状況の更新があると判定する。
ステップS610において、選択中トピックデータ1000の更新があると判定された場合、選択中トピック管理部123は、選択中トピックデータ1000を更新する(ステップS611)。
すなわち、例えば、ステップS609の発話内容の生成及び出力処理において、対話生成処理部130が選択中トピックデータ1000の場所を示すスロットを埋めるための発話内容を発話したとする。このとき、この発話に対するユーザの発話(応答)から抽出されたコンテキストに場所「XYZ遊園地」が含まれる場合、選択中トピック管理部123は、選択中トピックデータ1000の場所を示すスロットに「XYZ遊園地」を設定(更新)する。
同様に、例えば、ステップS609の発話内容の生成及び出力処理において、対話生成処理部130が選択中トピックデータ1000の実施状況を確認するための発話内容を発話したとする。このとき、この発話に対するユーザの発話(応答)から抽出されたコンテキストに、実施完了を示す用語が含まれる場合、選択中トピック管理部123は、選択中トピックデータ1000の実施状況を「実施完了」に更新する。
このように、本実施形態に係る対話システム100の発話に対するユーザからの発話(応答)に応じて、選択中トピックデータ1000が更新される。
なお、ステップS608において、トピックデータ1000が選択されなかったと判定された場合、又は、ステップS610において、選択中トピックデータ1000の更新がないと判定された場合、対話システム100は、処理を終了する。
以上のように、本実施形態に係る対話システム100は、ユーザからの発話に含まれる意図に対応するトピックデータ1000の実施状況を管理すると共に、このトピックデータ1000の必須スロット(場所、人、時期等)を埋めるための発話を行う。また、本実施形態に係る対話システム100は、ユーザの発話に応じて、実施が完了したトピックデータ1000の思い出話に関する発話等を行うことができる。
これにより、本実施形態に係る対話システム100は、ユーザと繰り返し対話を行うことで、様々な話題(トピック)について様々な対話(場所、人、時期等の質問や思い出話等)を行うことができる。したがって、本実施形態に係る対話システム100は、ユーザとの間で、長期的に多様な対話を継続することができる。
[第二の実施形態]
次に、第二の実施形態について説明する。第二の実施形態では、閑話時(すなわち、ユーザとの間で対話を行っていないとき)にユーザに対して対話システム100が自発的に発話する場合について説明する。なお、第二の実施形態では、主に、第一の実施形態との相違点について説明し、第一の実施形態と実質的に同一の処理を行う箇所や同一の機能を有する箇所については、適宜、その説明を省略する。
まず、本実施形態に係る対話システム100における閑話時の発話について、図11を参照しながら説明する。図11は、第二の実施形態に係る対話システムにおける閑話時の発話の一例を説明する図である。
図11に示すように、本実施形態に係る対話システム100は、ユーザが近くにいることを検知するユーザ検知部140を有する。
図11に示すように、本実施形態に係る対話システム100は、ユーザ検知部140によりユーザが近くにいることを検知した場合、トピック管理処理部120により、現在の日付に応じたトピックデータ1000をトピックDB210から選択する。現在の日付に応じたトピックデータ1000とは、例えば、現在の日付に最も近い将来の時期が設定されたトピックデータ1000や現在の日付に対応する過去の時期が設定されたトピックデータ1000等のことである。以降では、現在の日付に最も近い将来の時期が設定されたトピックデータ1000がトピックDB210から選択されたものとする。
そして、本実施形態に係る対話システム100は、対話生成処理部130により、このトピックデータ1000の内容をユーザに知らせるための発話内容をユーザに対して発話(出力)する。その後、本実施形態に係る対話システム100は、ユーザへの発話に対する応答の発話からトピックデータ1000を更新する。
すなわち、本実施形態に係る対話システム100は、例えば、現在の日付(例えば2016年6月10日)と最も近い将来の時期のトピックデータ1000を選択する。このとき、このトピックデータ1000の人を示すスロットが空きスロットであった場合、本実施形態に係る対話システム100は、発話内容「そういえば、来月○○山に登りたいって言ってましたね。誰と行くのですか?」を生成する。そして、本実施形態に係る対話システム100は、この発話内容を出力することで、発話D31を行う。その後、本実施形態に係る対話システム100は、例えば、ユーザから「そうだった。乙さんを誘ってみよう。」との発話D32があった場合、トピックデータ1000の人を示すスロットを「乙さん」に更新する。
このように、本実施形態に係る対話システム100は、閑話時にユーザが近くにいる場合、現在の日付に応じたトピック(話題)を自発的に発話する。これにより、本実施形態に係る対話システム100は、ユーザとの間で対話を行うことができるようになる。また、ユーザは、本実施形態に係る対話システム100からの発話により、近い将来に実施することを予定していた内容を思い出すことができるようになる。
次に、本実施形態に係る対話システム100の機能構成について、図12を参照しながら説明する。図12は、第二の実施形態に係る対話システム100の機能構成の一例を示す図である。
図12に示すように、本実施形態に係る対話システム100は、上述したように、ユーザ検知部140を有する。当該機能部は、対話システム100にインストールされた1以上のプログラムが、CPU307に実行させる処理により実現される。
ユーザ検知部140は、例えば人感センサ等により、所定の範囲内にユーザがいることを検知することで、ユーザが近くにいるか否かを判定する。
次に、本実施形態に係る対話システム100の処理の詳細について説明する。以降では、本実施形態に係る対話システム100の閑話時における全体処理について、図13を参照しながら説明する。図13は、第二の実施形態に係る閑話時における全体処理の一例を示すフローチャートである。図13に示す閑話時における全体処理は、例えば、閑話時において所定の時間毎に行われる。
まず、ユーザ検知部140は、ユーザが近くにいるか否かを判定する(ステップS1301)。すなわち、ユーザ検知部140は、所定の範囲内にいるユーザを検知することで、ユーザが近くにいるか否かを判定する。
なお、本実施形態では、ユーザ検知部140によりユーザが近くにいるか否かを判定するものとしたが、これに限られず、例えば、更に、ユーザが対話可能な状態であるか否かを判定しても良い。ユーザが対話可能な状態とは、例えば、ユーザが起きている状態やユーザの正面が対話システム100の方向を向いている状態、ユーザが何等かの作業等を行っていない状態等が挙げられる。
ステップS1301において、ユーザが近くにいないと判定された場合、対話システム100は、処理を終了する。
一方、ステップS1301において、ユーザが近くにいると判定された場合、トピック管理処理部120のトピック選択部122は、トピックの選択処理(閑話時)を行う(ステップS1302)。すなわち、トピック選択部122は、現在の日付に応じたトピックデータ1000を、トピックDB210に格納されているトピックデータ1000から選択する。
ここで、トピックの選択処理(閑話時)の詳細について、図14を参照しながら説明する。図14は、第二の実施形態に係るトピックの選択処理(閑話時)の一例を示すフローチャートである。
まず、トピック選択部122は、現在の日付に応じたトピックデータ1000をトピックDB210から取得する(ステップS1401)。すなわち、トピック選択部122は、例えば、現在の日付に最も近い将来の時期が設定されたトピックデータ1000や現在の日付に対応する過去の時期が設定されたトピックデータ1000等を取得する。
より具体的には、例えば、現在の日付が「2016年4月10日」であったとする。この場合、トピック選択部122は、例えば、現在の日付から1月以内(すなわち、「2016年4月11日」〜「2016年5月10日」)の時期が設定されたトピックデータ1000を取得する。また、トピック選択部122は、例えば、現在の日付から1年前の時期(すなわち、「2015年4月10日」)やその前後の時期(すなわち、「2015年4月9日」や「2015年4月11日」等)が設定されたトピックデータ1000を取得する。
続くステップS1402〜ステップS1406の処理は、図8のステップS805〜ステップS808の処理と同様であるため、その説明を省略する。
以上により、トピックDB210に格納されているトピックデータ1000の中から、現在の日付に応じた一のトピックデータ1000(選択中トピックデータ1000)が選択される。
図13に戻る。ステップS1302に続いて、選択中トピック管理部123は、トピック選択部122によりトピックデータ1000が選択されたか否かを判定する(ステップS1303)。
ステップS1303において、トピックデータ1000が選択されなかったと判定された場合、対話システム100は、処理を終了する。この場合、本実施形態に係る対話システム100は、発話を行わない。
一方、ステップS1303において、トピックデータ1000が選択されたと判定された場合、対話生成処理部130は、発話内容の生成及び出力処理を行う(ステップS1304)。なお、発話内容の生成及び出力処理は、図10と同様であるため、その説明を省略する。
これにより、例えば、選択中トピックデータ1000の実施状況が「継続中」である場合、発話内容出力部132は、必須スロットを埋めるための発話や実施状況を確認するための発話を出力する。また、例えば、選択中トピックデータ1000の実施状況が「実施完了」である場合、発話内容出力部132は、思い出話に関する発話を出力する。
以上のように、本実施形態に係る対話システム100は、閑話時に、現在の日付に応じたトピックデータ1000の発話(実施状況の確認や空きスロットを埋めるための質問、思い出話等)をユーザに対して自発的に行うことができる。これにより、ユーザは、例えば、近い将来に実施することを予定していた内容を認識することができたり、過去に実施した内容を思い出したりすることができる。
[第三の実施形態]
次に、第三の実施形態について説明する。第三の実施形態では、トピックデータ1000の実施状況が「実施完了」に更新された場合に、例えば、所定のアプリケーションで作成された写真やブログ(blog)記事等の情報を、当該トピックデータ1000に関連付ける場合について説明する。すなわち、第三の実施形態では、トピックデータ1000の実施状況が「実施完了」に更新された場合に、所定のアプリケーションから通知された情報(例えば、写真やブログ記事のURL(Uniform Resource Locator)等)で当該トピックデータ1000を更新する。
なお、第三の実施形態では、主に、第一の実施形態との相違点について説明し、第一の実施形態と実質的に同一の処理を行う箇所や同一の機能を有する箇所については、適宜、その説明を省略する。
まず、本実施形態に係る対話システム100において、アプリケーション400からの通知によりトピックデータ1000を更新する場合について、図15を参照しながら説明する。図15は、第三の実施形態に係る対話システム100において、アプリケーション400からの通知によりトピックを更新する場合の一例を説明する図である。
ここで、アプリケーション400は、例えば、SNS(Social Networking Service)を提供するアプリケーションやウェブブラウザ、ブログ投稿アプリケーション、ゲームアプリケーション、地図アプリケーション等の種々のアプリケーションプログラムである。
アプリケーション400は、例えば、対話システム100とは異なるスマートフォンやタブレット端末等の各種の情報処理装置に搭載(インストール)されていても良いし、対話システム100に搭載されていても良い。また、アプリケーション400は、例えば、対話システム100又は当該対話システム100との異なる情報処理装置に搭載されたブラウザ等から利用可能なWebアプリケーションであっても良い。
以降では、一例として、アプリケーション400は、SNSに写真を投稿することができるアプリケーションプログラムであるものとして説明する。アプリケーション400は、例えば、写真の投稿を行った場合、SNSに投稿された写真のURLを対話システム100に通知するものとする。なお、アプリケーション400を「アプリ400」とも表す。
図15に示すように、本実施形態に係る対話システム100は、アプリ400からの通知を受信するアプリ連携部150と、アプリ400から受信した通知(以降では、「アプリ通知情報」とも表す。)を記憶するアプリ通知記憶部220とを有する。
図15に示すように、選択中トピックデータ1000の実施状況を「実施完了」に更新する発話D41をユーザが行った場合、トピック管理処理部120により、選択中トピックデータ1000の実施状況は「実施完了」に更新される。なお、選択中トピックデータ1000の実施状況を「実施完了」に更新する発話とは、例えば、「見た」、「見てきた」、「行った」、「行ってきた」等の動作の完了を示す発話のことである。
選択中トピックデータ1000の実施状況が「実施完了」に更新された場合、本実施形態に係る対話システム100は、アプリ連携部150により、アプリ通知情報がアプリ通知記憶部220に記憶されているか否かを判定する。そして、アプリ通知情報がアプリ通知記憶部220に記憶されている場合、本実施形態に係る対話システム100は、対話生成処理部130により、当該アプリ通知情報が選択中トピックデータ1000に関連するか否かを確認するための発話内容を生成する。その後、本実施形態に係る対話システム100は、生成した発話内容を、ユーザに対して発話(出力)する。
また、本実施形態に係る対話システム100は、ユーザへの発話に対する応答の発話から、アプリ通知情報と選択中トピックデータ1000とが関連すると判定された場合、選択中トピックデータ1000を更新する。
すなわち、本実施形態に係る対話システム100は、例えば、アプリ通知情報が選択中トピックデータ1000に関連するか否かを確認するための発話内容「よかったですね。SNSに投稿していたのは、その写真ですか?」を生成して、この発話内容を出力することで、発話D42を行う。
また、本実施形態に係る対話システム100は、例えば、「うん。乙さんに撮ってもらったんだ。」との応答の発話D42があった場合、アプリ通知情報と選択中トピックデータ1000と関連があると判定する。そして、本実施形態に係る対話システム100は、選択中トピックデータ1000の関連を示すスロットに、アプリ通知情報が示すURL(SNSに投稿された写真のURL)を設定する。
このように、本実施形態に係る対話システム100は、選択中トピックデータ1000の実施状況が「実施完了」となった場合に、この選択中トピックデータ1000に関連するアプリ通知情報を、関連を示すスロットに設定する。これにより、本実施形態に係る対話システム100では、例えば、実施状況が「実施完了」のトピックデータ1000から思い出話に関する発話内容を生成する場合に、関連を示すスロットに設定された情報(例えば写真のURL等)もユーザに提供することができる。
次に、本実施形態に係る対話システム100の機能構成について、図16を参照しながら説明する。図16は、第三の実施形態に係る対話システム100の機能構成の一例を示す図である。
図16に示すように、本実施形態に係る対話システム100は、上述したように、アプリ連携部150と、アプリ通知記憶部220とを有する。アプリ連携部150は、対話システム100にインストールされた1以上のプログラムが、CPU307に実行させる処理により実現される。また、アプリ通知記憶部220は、例えば記憶装置308を用いて実現可能である。なお、アプリ通知記憶部220は、例えば、対話システム100ネットワークを介して接続される記憶装置等を用いて実現されていても良い。
アプリ連携部150は、アプリ400からのアプリ通知情報を受信して、アプリ通知記憶部220に格納する。アプリ通知記憶部220は、アプリ連携部150が受信したアプリ通知情報を記憶する。
次に、本実施形態に係る対話システム100の処理の詳細について説明する。以降では、本実施形態に係る対話システム100の対話時における全体処理について、図17を参照しながら説明する。図17は、第三の実施形態に係る対話時における全体処理の一例を示すフローチャートである。なお、図17のステップS1701〜ステップS1711の処理は、図6のステップS601〜ステップS611の処理と同様であるため、その説明を省略する。
ステップS1710において、選択中トピックデータ1000の更新がないと判定された場合、又は、ステップS1711に続いて、選択中トピック管理部123は、選択中トピックデータ1000の実施状況が「実施完了」であるか否かを判定する(ステップS1712)。
ステップS1712において、選択中トピックデータ1000の実施状況が「実施完了」でないと判定された場合、対話システム100は、処理を終了する。
一方、ステップS1712において、選択中トピックデータ1000の実施状況が「実施完了」であると判定された場合、対話システム100は、アプリ連携処理を行う(ステップS1713)。アプリ連携処理とは、実施状況が「実施完了」である選択中トピックデータ1000に関連するアプリ通知情報を、この選択中トピックデータ1000の関連を示すスロットに設定する処理である。
ここで、アプリ連携処理の詳細について、図18を参照しながら説明する。図18は、第三の実施形態に係るアプリ連携処理の一例を示すフローチャートである。
まず、アプリ連携部150は、アプリ400から通知があったか否かを判定する(ステップS1801)。すなわち、アプリ連携部150は、アプリ通知情報がアプリ通知記憶部220に記憶されているか否かを判定する。
ステップS1801において、アプリ400から通知がなかったと判定された場合、アプリ連携部150は、処理を終了する。
一方、ステップS1801において、アプリ400から通知があったと判定された場合、アプリ連携部150は、アプリ通知情報をアプリ通知記憶部220から取得する(ステップS1802)。なお、例えば、アプリ通知記憶部220に複数のアプリ通知情報が記憶されている場合、アプリ連携部150は、これら複数のアプリ通知情報のうち、1つのアプリ通知情報を取得すれば良い。
次に、対話生成処理部130の発話内容生成部131は、アプリ連携部150により取得されたアプリ通知情報が選択中トピックデータ1000に関連するか否かを確認するための発話内容を生成する(ステップS1803)。
すなわち、例えば、アプリ通知情報がSNSに投稿された写真のURLである場合、発話内容生成部131は、発話内容「SNSに投稿していたのは、その写真ですか?」等を生成する。発話内容生成部131は、選択中トピックデータ1000の場所を示すスロットを参照して、例えば、発話内容「SNSに投稿していたのは、ABC公園の写真ですか?」等を生成しても良い。
また、例えば、アプリ通知情報がアプリ400(例えば、地図アプリ)から通知された位置情報(例えば、「ABC公園」を示す位置情報)である場合、発話内容生成部131は、発話内容「今日、ABC公園に行ったのですか?」等を生成しても良い。
このように、発話内容生成部131は、アプリ通知情報が、実施状況が「実施完了」の選択中トピックデータ1000と関連があるか否かを確認するための発話内容を生成する。
次に、発話内容出力部132は、発話内容生成部131により生成された発話内容を、音声により出力する(ステップS1804)。これにより、本実施形態に係る対話システム100は、アプリ通知情報が選択中トピックデータ1000と関連があるか否かを確認するための発話を行うことができる。
その後、この発話に対する応答の発話として、アプリ通知情報が選択中トピックデータ1000と関連あることを示す発話をユーザが行った場合、上記のステップS1711において、選択中トピック管理部123は、選択中トピックデータ1000を更新する。すなわち、この場合、選択中トピック管理部123は、選択中トピックデータ1000の関連を示すスロットに、アプリ通知情報(例えば、SNSに投稿された写真のURL、ユーザが訪れた場所の位置情報等)を設定する。
以上により、選択中トピックデータ1000の関連を示すスロットには、選択中トピックデータ1000に関連する様々な情報が設定される。したがって、本実施形態に係る対話システム100では、例えば、実施状況が「実施完了」のトピックデータ1000から思い出話に関する発話内容を生成する場合に、様々なアプリ400から通知された情報(例えば写真のURL等)もユーザに提供することができる。
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
以上の説明に関し、更に以下の項を開示する。
(付記1)
ユーザとの間で対話を行う情報処理システムであって、
前記ユーザの発話から、該ユーザの意図と、前記発話のコンテキストとを抽出する抽出部と、
抽出された前記意図と前記コンテキストとに基づいて、前記意図の実施状況を含むトピックデータを生成するトピック生成部と、
生成された前記トピックデータの実施状況に応じて、発話内容を生成する発話生成部と、
を有する情報処理システム。
(付記2)
生成された前記トピックデータを記憶する記憶部と、
前記発話から前記意図が抽出されなかった場合、抽出された前記コンテキストに応じたトピックデータを前記記憶部から取得する取得部と、を有し、
前記発話生成部は、
取得された前記トピックデータの実施状況に応じて、発話内容を生成する、付記1に記載の情報処理システム。
(付記3)
前記取得部は、
前記ユーザとの間で対話を行っていない場合、現在の日付に応じたトピックデータを前記記憶部から取得する、付記2に記載の情報処理システム。
(付記4)
ユーザとの間で対話を行う情報処理装置であって、
前記ユーザの発話から、該ユーザの意図と、前記発話のコンテキストとを抽出する抽出部と、
抽出された前記意図と前記コンテキストとに基づいて、前記意図の実施状況を含むトピックデータを生成するトピック生成部と、
生成された前記トピックデータの実施状況に応じて、発話内容を生成する発話生成部と、
を有する情報処理装置。
(付記5)
生成された前記トピックデータを記憶する記憶部と、
前記発話から前記意図が抽出されなかった場合、抽出された前記コンテキストに応じたトピックデータを前記記憶部から取得する取得部と、を有し、
前記発話生成部は、
取得された前記トピックデータの実施状況に応じて、発話内容を生成する、付記4に記載の情報処理装置。
(付記6)
前記取得部は、
前記ユーザとの間で対話を行っていない場合、現在の日付に応じたトピックデータを前記記憶部から取得する、付記5に記載の情報処理装置。
(付記7)
ユーザとの間で対話を行うコンピュータに、
前記ユーザの発話から、該ユーザの意図と、前記発話のコンテキストとを抽出し、
抽出された前記意図と前記コンテキストとに基づいて、前記意図の実施状況を含むトピックデータを生成し、
生成された前記トピックデータの実施状況に応じて、発話内容を生成する、
処理を実行させるためのプログラム。
(付記8)
生成された前記トピックデータを記憶する記憶部を有する前記コンピュータに、
前記発話から前記意図が抽出されなかった場合、抽出された前記コンテキストに応じたトピックデータを前記記憶部から取得する、処理を実行させ、
前記発話内容を生成する処理は、
取得された前記トピックデータの実施状況に応じて、発話内容を生成する、付記7に記載のプログラム。
(付記9)
前記取得する処理は、
前記ユーザとの間で対話を行っていない場合、現在の日付に応じたトピックデータを前記記憶部から取得する、付記8に記載のプログラム。
100 対話システム
110 音声解析処理部
111 音声入力受付部
112 音声認識部
113 解析部
120 トピック管理処理部
121 トピック生成部
122 トピック選択部
123 選択中トピック管理部
130 対話生成処理部
131 発話内容生成部
132 発話内容出力部
210 トピックDB

Claims (5)

  1. ユーザとの間で対話を行う情報処理システムであって、
    前記ユーザの発話から、該ユーザの意図と、前記発話のコンテキストとを抽出する抽出部と、
    抽出された前記意図と前記コンテキストとに基づいて、前記意図の実施状況を含むトピックデータを生成するトピック生成部と、
    生成された前記トピックデータの実施状況に応じて、発話内容を生成する発話生成部と、
    を有する情報処理システム。
  2. 生成された前記トピックデータを記憶する記憶部と、
    前記発話から前記意図が抽出されなかった場合、抽出された前記コンテキストに応じたトピックデータを前記記憶部から取得する取得部と、を有し、
    前記発話生成部は、
    取得された前記トピックデータの実施状況に応じて、発話内容を生成する、請求項1に記載の情報処理システム。
  3. 前記取得部は、
    前記ユーザとの間で対話を行っていない場合、現在の日付に応じたトピックデータを前記記憶部から取得する、請求項2に記載の情報処理システム。
  4. ユーザとの間で対話を行う情報処理装置であって、
    前記ユーザの発話から、該ユーザの意図と、前記発話のコンテキストとを抽出する抽出部と、
    抽出された前記意図と前記コンテキストとに基づいて、前記意図の実施状況を含むトピックデータを生成するトピック生成部と、
    生成された前記トピックデータの実施状況に応じて、発話内容を生成する発話生成部と、
    を有する情報処理装置。
  5. ユーザとの間で対話を行うコンピュータに、
    前記ユーザの発話から、該ユーザの意図と、前記発話のコンテキストとを抽出し、
    抽出された前記意図と前記コンテキストとに基づいて、前記意図の実施状況を含むトピックデータを生成し、
    生成された前記トピックデータの実施状況に応じて、発話内容を生成する、
    処理を実行させるためのプログラム。
JP2016212049A 2016-10-28 2016-10-28 情報処理システム、情報処理装置及び情報処理方法 Pending JP2018072560A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016212049A JP2018072560A (ja) 2016-10-28 2016-10-28 情報処理システム、情報処理装置及び情報処理方法
US15/729,948 US20180122369A1 (en) 2016-10-28 2017-10-11 Information processing system, information processing apparatus, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016212049A JP2018072560A (ja) 2016-10-28 2016-10-28 情報処理システム、情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2018072560A true JP2018072560A (ja) 2018-05-10

Family

ID=62022509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016212049A Pending JP2018072560A (ja) 2016-10-28 2016-10-28 情報処理システム、情報処理装置及び情報処理方法

Country Status (2)

Country Link
US (1) US20180122369A1 (ja)
JP (1) JP2018072560A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015521999A (ja) * 2012-07-03 2015-08-03 ヘプタレス セラピューティクス リミテッドHeptares Therapeutics Limited オレキシン受容体アンタゴニスト
JP2020057350A (ja) * 2018-08-29 2020-04-09 楠 信子 個人毎の思い出話実行システム
WO2020136733A1 (ja) * 2018-12-25 2020-07-02 富士通株式会社 対話装置、対話方法及び対話プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10592649B2 (en) 2017-08-09 2020-03-17 Nice Ltd. Authentication via a dynamic passphrase
JP7044167B2 (ja) * 2018-09-28 2022-03-30 富士通株式会社 対話装置、対話方法及び対話プログラム
CN112560458A (zh) * 2020-12-09 2021-03-26 杭州艾耕科技有限公司 基于端到端深度学习模型的文章标题生成方法
CN115240659B (zh) * 2022-09-21 2023-01-06 深圳市北科瑞声科技股份有限公司 分类模型训练方法、装置、计算机设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6839669B1 (en) * 1998-11-05 2005-01-04 Scansoft, Inc. Performing actions identified in recognized speech
US6757362B1 (en) * 2000-03-06 2004-06-29 Avaya Technology Corp. Personal virtual assistant
EP1585042A1 (en) * 2004-04-06 2005-10-12 Sony Deutschland GmbH Method for serving complex user requests
US8140335B2 (en) * 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US9336298B2 (en) * 2011-06-16 2016-05-10 Microsoft Technology Licensing, Llc Dialog-enhanced contextual search query analysis
US8346563B1 (en) * 2012-04-10 2013-01-01 Artificial Solutions Ltd. System and methods for delivering advanced natural language interaction applications
US10055681B2 (en) * 2013-10-31 2018-08-21 Verint Americas Inc. Mapping actions and objects to tasks
US10091140B2 (en) * 2015-05-31 2018-10-02 Microsoft Technology Licensing, Llc Context-sensitive generation of conversational responses
US10204097B2 (en) * 2016-08-16 2019-02-12 Microsoft Technology Licensing, Llc Efficient dialogue policy learning

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015521999A (ja) * 2012-07-03 2015-08-03 ヘプタレス セラピューティクス リミテッドHeptares Therapeutics Limited オレキシン受容体アンタゴニスト
JP2020057350A (ja) * 2018-08-29 2020-04-09 楠 信子 個人毎の思い出話実行システム
WO2020136733A1 (ja) * 2018-12-25 2020-07-02 富士通株式会社 対話装置、対話方法及び対話プログラム

Also Published As

Publication number Publication date
US20180122369A1 (en) 2018-05-03

Similar Documents

Publication Publication Date Title
KR102622737B1 (ko) 가상 비서에서 커맨드 처리를 용이하게 하기 위한 컨텍스트 정보의 이용
US10733983B2 (en) Parameter collection and automatic dialog generation in dialog systems
JP2018072560A (ja) 情報処理システム、情報処理装置及び情報処理方法
CN110140168B (zh) 上下文热词
JP6799082B2 (ja) 音声アクション発見可能性システム
CN106201424B (zh) 一种信息交互方法、装置及电子设备
CN104282302B (zh) 用于识别语音和文本的设备和方法
KR102298481B1 (ko) 제3자 서비스를 디지털 어시스턴트와 통합하기 위한 시스템 및 방법
CN109710727B (zh) 用于自然语言处理的系统和方法
US10860289B2 (en) Flexible voice-based information retrieval system for virtual assistant
CN105265005A (zh) 用于由语音命令发起的紧急呼叫的系统和方法
CN106796788A (zh) 基于用户反馈来改善自动语音识别
US10838954B1 (en) Identifying user content
KR20130034630A (ko) 컨텍스트 정보를 이용한 음성 인식 복구
US11972095B2 (en) Voice assistant-enabled client application with user view context and multi-modal input support
KR102312993B1 (ko) 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치
KR102536944B1 (ko) 음성 신호 처리 방법 및 장치
US10861453B1 (en) Resource scheduling with voice controlled devices
KR20210042520A (ko) 전자 장치 및 이의 제어 방법
US11789696B2 (en) Voice assistant-enabled client application with user view context
JP2015052745A (ja) 情報処理装置、制御方法、及びプログラム
KR20220049743A (ko) 인공지능 디바이스와 연동하여 음성 기록을 관리하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체
KR20210098250A (ko) 전자 장치 및 이의 제어 방법
KR102446300B1 (ko) 음성 기록을 위한 음성 인식률을 향상시키는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체
KR20230034246A (ko) 음성을 텍스트로 변환한 음성 기록에서 유사 발음의 단어를 포함하여 검색하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체