JP5965175B2 - 応答生成装置、応答生成方法および応答生成プログラム - Google Patents

応答生成装置、応答生成方法および応答生成プログラム Download PDF

Info

Publication number
JP5965175B2
JP5965175B2 JP2012072556A JP2012072556A JP5965175B2 JP 5965175 B2 JP5965175 B2 JP 5965175B2 JP 2012072556 A JP2012072556 A JP 2012072556A JP 2012072556 A JP2012072556 A JP 2012072556A JP 5965175 B2 JP5965175 B2 JP 5965175B2
Authority
JP
Japan
Prior art keywords
information
word
utterance
meaning
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012072556A
Other languages
English (en)
Other versions
JP2013205999A (ja
Inventor
衣織 西田
衣織 西田
吉克 舩坂
吉克 舩坂
健一 磯
健一 磯
美晴 永田
美晴 永田
輝喜 津田
輝喜 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2012072556A priority Critical patent/JP5965175B2/ja
Publication of JP2013205999A publication Critical patent/JP2013205999A/ja
Application granted granted Critical
Publication of JP5965175B2 publication Critical patent/JP5965175B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、応答生成装置、応答生成方法および応答生成プログラムに関する。
従来、ユーザからの発話を受け付けたユーザ端末から音声に関するデータを受信し、音声に関するデータを用いてユーザが要求する情報を特定し、ユーザの発話に対する応答を生成する応答生成サーバが知られている。例えば、応答生成サーバは、ユーザからの質問に係る音声に関するデータをユーザ端末から受け付け、受け付けた音声に関するデータをテキスト化してテキストデータに変換し、テキストデータに基づいて、質問の意味を理解し、質問に対する応答を生成する。
特開2012−48406号公報 特開2007−310824号公報
しかしながら、上述した従来の技術では、ユーザの発話に含まれる単語のうち、異なる意味の単語の候補が複数ある場合には、ユーザの発話の意図を的確に理解することが出来ず、適切な応答ができない場合がある。例えば、路線検索で用いられる地名等について、異音同字、同音異字、同音同字の地名が複数存在する場合があり、ユーザが発話した地名等がどの表記に対応するものかを判別することができないため、ユーザの質問の意味を的確に理解することができず、適切な応答ができない場合がある。
本願は、上記に鑑みてなされたものであって、ユーザの発話の意図を的確に把握し、適切な応答を行うことを目的とする。
本願に係る応答生成装置は、ユーザが発話した情報である発話情報と、ユーザ端末が保持する情報として、過去の発話情報に関する履歴情報または過去のサービスの利用履歴に関する利用履歴情報を取得する取得手段と、前記取得手段によって取得された発話情報から抽出された単語が、異なる複数の意味有する場合には、前記過去の発話情報に関する履歴情報または前記過去のサービスの利用履歴に関する利用履歴情報に含まれる単語の意味に基づいて、前記複数の意味から一つの意味を選択する選択手段と、前記発話情報から抽出された単語を、前記選択手段によって選択された意味を有する単語として、サービスに対する要求情報を生成する要求生成手段と、前記検索条件に基づいて取得したサービス情報を用いて、前記発話情報に対する応答情報を生成する応答生成手段と、を備えたことを特徴とする。
本願に係る応答生成装置、応答生成方法および応答生成プログラムは、ユーザの発話の意図を的確に把握し、適切な応答を行うことができるという効果を奏する。
図1は、第1の実施形態に係るネットワークシステムの構成例を示す図である。 図2は、第1の実施形態に係る応答生成サーバの構成例を示す図である。 図3は、第1の実施形態に係る応答生成サーバの記憶部によって記憶されるユーザ辞書の一例を示す図である。 図4は、第1の実施形態に係る応答生成サーバの記憶部によって記憶されるサーバ辞書の一例を示す図である。 図5は、第1の実施形態に係るユーザ端末の構成例を示す図である。 図6は、第1の実施形態に係るネットワークシステムによる処理の手順を示すシーケンス図である。 図7は、第1の実施形態に係る応答生成サーバによる処理の手順を示すフローチャートである。 図8は、第1の実施形態に係るユーザ端末の応答画像の一例を説明するための図である。
以下に、本願に係る応答生成装置、応答生成方法および応答生成プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る応答生成装置、応答生成方法および応答生成プログラムが限定されるものではない。
(第1の実施形態)
図1〜図8を用いて、本願に係る応答生成装置、応答生成方法および応答生成プログラムの第1の実施形態について説明する。
〔1−1.構成〕
まず、図1を用いて、第1の実施形態に係る応答生成サーバが含まれるネットワークシステムの構成について説明する。図1は、第1の実施形態に係るネットワークシステムの構成例を示す図である。図1に例示するように、第1の実施形態に係るネットワークシステムには、応答生成サーバ10と、ユーザ端末20と、音声認識サーバ30と、路線API(Application Program Interface)サーバ41、天気APIサーバ42と、Web検索APIサーバ43と、音声合成サーバ50とが含まれる。
応答生成サーバ10と、ユーザ端末20と、音声認識サーバ30と、路線APIサーバ41、天気APIサーバ42と、Web検索APIサーバ43と、音声合成サーバ50とは、ネットワーク60を介して、無線通信又は有線通信を行う。なお、以下の説明では、路線APIサーバ41、天気APIサーバ42と、Web検索APIサーバ43を区別する必要がない場合には、これらを総称して「APIサーバ40」と表記する場合がある。また、路線APIサーバ41、天気APIサーバ42、Web検索APIサーバ43は、APIサーバの一例であり、これらに限定されない。
〔1−1(1).応答生成サーバ10の構成〕
次に、図2を用いて、応答生成サーバ10の構成について説明する。図2は、第1の実施形態に係る応答生成サーバの構成例を示す図である。応答生成サーバ10は、ユーザ端末20によって送信される発話のテキストデータと、ユーザ端末20が保持する情報(例えば、現在位置を示す位置情報など)とに応じて、ユーザの発話に対する応答生成情報をユーザ端末20に送信するコンピュータである。応答生成サーバ10は、通信部11と、制御部12と、記憶部13とを有する。なお、以下の説明では、応答生成サーバ10が、APIサーバ40からXML(Extensible Markup Language)形式のデータを取得する場合を例にして説明するが、これに限定されるものではなく、例えば、JSON(Java(登録商標) Script Object Notation)形式のデータやPHP(Personal Home Page)シリアライズ形式のデータをAPIサーバ40から取得するようにしてもよい。
通信部11は、ネットワーク60を介してユーザ端末20、APIサーバ40および音声合成サーバ50との間で各種データを送受信する。通信部110は、例えば、NIC等に該当する。
記憶部13は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置である。記憶部13は、図3に例示するユーザ辞書と、図4に例示するサーバ辞書とを記憶する。ここで、ユーザ辞書とは、ユーザごとに登録される辞書であり、サーバ辞書とは、サーバが管理する辞書である。図3は、第1の実施形態に係る応答生成サーバの記憶部によって記憶されるユーザ辞書の一例を示す図である。図4は、第1の実施形態に係る応答生成サーバの記憶部によって記憶されるサーバ辞書の一例を示す図である。
例えば、図3に例示するように、記憶部13は、ユーザ辞書として、単語の漢字を示す「漢字」と、単語の読みを示す「読み」と、単語に該当する駅名を示す「駅名」とを対応付けて記憶する。例えば、図3の例を挙げて説明すると、ユーザ辞書は、同じ漢字を用いる「日本橋」について、それぞれ読みが「にっぽんばし」、「にほんばし」、「にほんばし」であることを記憶し、駅名がそれぞれ「日本橋(大阪)」、「日本橋(東京都)」、「日本橋(水上)」であることを記憶している。ここで、「日本橋(大阪)」と「日本橋(東京都)」とは、字が同じであるが、読みが異なるため、異音同字である。なお、ユーザ辞書は、異音同字だけでなく、同音異字や同音同字なども記憶しているものとする。例えば、同音異字の例としては、仙台(宮城県:せんだい)と川内(鹿児島県:川内)などの例がある。また、同音同字の例としては、長谷(神奈川県:はせ)と長谷(富山県:はせ)などの例がある。
また、図4に例示するように、記憶部13は、サーバ辞書として、単語に該当する駅名を示す「駅名」と、単語の読みを示す「読み」と、単語の駅名が位置する「位置情報」とを対応付けて記憶する。例えば、図4の例を挙げて説明すると、ユーザ辞書は、同じ漢字を用いる「日本橋」について、それぞれ読みが「にっぽんばし」、「にほんばし」、「にほんばし」であることを記憶し、位置情報がそれぞれ「緯度X1 経度Y1」、「緯度X2 緯度Y2」、「緯度X3 経度Y3」であることを記憶している。
図2に戻って、制御部12は、応答生成サーバ10を対話サーバとして動作させる制御部であり、ユーザ端末20から受信したユーザが今回発話したテキストデータ及びその他の情報(位置情報、過去の発話情報、利用履歴情報)に応じて、発話のAPIサーバから情報を取得し、応答発話用の中間表記と応答発話用のテキストデータとHTMLデータをユーザ端末20に送信する。
具体的には、制御部12は、ユーザが今回発話したテキストデータと、ユーザ端末20が保持する情報(位置情報や対話履歴、利用履歴)を用いて、同音異字、異音同字、同音同字の単語の候補からユーザが意図した単語を選択し、選択された単語として発話情報に含まれる単語の意味を特定し、発話情報とユーザ端末20が保持する情報とを用いて、検索条件を生成して、ユーザの発話に対する応答発話用の中間表記と応答発話用のテキストデータとHTMLデータとをユーザ端末20に送信する。制御部12は、例えば、CPUやMPU等により実現され、記憶部13に予め記憶されているコンピュータプログラムを実行することにより、取得部12a、選択部12b、要求生成部12c、変換部12d、音声合成指示部12e、応答生成部12fによる処理を実現する。
なお、応答生成サーバ10が有する各処理部は、以下に説明する情報処理の機能や作用を実現又は実行する。
〔1−1(2).ユーザ端末20の構成〕
次に、図5を用いて、ユーザ端末20の構成について説明する。図5は、第1の実施形態に係るユーザ端末20の構成例を示す図である。図5に示すように、ユーザ端末20は、携帯電話機、スマートフォン、PDA(Personal Digital Assistant)、タブレット型PC、ノート型PC、デスクトップ型PC等の情報処理装置である。ユーザ端末20は、図5に例示するように、通信部21と、マイク22と、スピーカ23と、表示部24と、アプリ25と、メモリ26とを有する。
通信部21は、ネットワーク60を介して応答生成サーバ10および音声認識サーバ30との間で各種データを送受信する。通信部21は、例えば、携帯端末やスマートフォンの場合には、アンテナや通信制御を行う電子回路等である。例えば、ユーザ端末20がノート型PCやデスクトップ型PCである場合には、NIC(Network Interface Card)等に該当する。通信部21は、例えば、ユーザ端末20がタブレット型PCである場合には、アンテナや通信制御を行う電子回路等である。
マイク22は、ユーザ端末20の利用者が発話した音声入力を受け付ける入力デバイスである。スピーカ23は、ユーザ端末20の利用者が発話した音声入力に対する応答音声を出力する出力デバイスである。また、表示部24は、各種情報を表示する表示デバイスであり、例えばタッチパネルや液晶ディスプレイ等である。表示部24は、例えば、応答発話表示用のテキストデータと発話意図に応じてHTMLデータとを表示する。
アプリ25は、利用者が発話した音声入力を受け付けると、音声データを音声認識サーバ30に送信し、音声認識サーバ30から発話のテキストデータを受信する。また、アプリ25は、発話のテキストデータや過去の発話情報を応答生成サーバ10に送信し、応答生成サーバ10からHTML(Hyper Text Markup Language)等の言語で記述されたデータ、応答発話用の中間表記および応答発話表示用のテキストデータなどを受信する。また、アプリ25は、ユーザ端末20の利用者が発話した音声入力に対する応答音声を出力したり、HTML等の言語で記述されたデータを表示したりする。アプリ25は、CPUやMPU等により実現され、音声データ送信部25a、テキストデータ受信部25b、テキストデータ送信部25c、HTMLデータ受信部25d、表示制御部25eによる処理を実現する。
メモリ26は、履歴記憶部26aおよび位置情報記憶部26bを有する。メモリ26は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子等の記憶装置である。履歴記憶部26aは、発話のテキストデータとともに送信される、過去の発話に関する履歴情報を記憶する。位置情報記憶部26bは、発話のテキストデータとともに送信される、ユーザ端末10の現在位置を示す位置情報を記憶する。なお、メモリ26は、履歴情報や位置情報のほかに、データの閲覧や検索の利用履歴に関する利用履歴情報やユーザの自宅の住所などの個人情報を記憶していてもよい。これらの情報は、位置情報と同様に、発話のテキストデータとともに応答生成サーバ10に送信してもよい。
なお、ユーザ端末20が有する各処理部は、以下に説明する情報処理の機能や作用を実現又は実行する。
〔1−2(1).作用(ネットワークシステム)〕
次に、図6を用いて、第1の実施形態に係るネットワークシステムによる全体の処理手順について説明する。図6は、第1の実施形態に係るネットワークシステムによる処理の手順を示すシーケンス図である。図6に例示するように、ユーザ端末20は、アプリケーションの起動指示を受け付けると、アプリケーションを起動する(ステップS1)。そして、ユーザ端末20の音声データ送信部25aは、ユーザの発話を検知すると、発話の音声データをsocket通信により音声認識サーバ30へ送信する(ステップS2)。例えば、ユーザ端末20の音声データ送信部25aは、発話の音声データとして、異音同字を含む「にっぽんばしからにほんばしまで」を送信する。
そして、音声認識サーバ30は、発話の音声データを受信すると、音声データをテキストデータに変換する(ステップS3)。そして、音声認識サーバ30のテキストデータ送信部25cは、変換した発話のテキストデータをユーザ端末20に送信する(ステップS4)。例えば、音声認識サーバ30のテキストデータ送信部25cは、テキストデータとして、異音同字を含む「日本橋から日本橋まで」を送信する。
続いて、ユーザ端末20のテキストデータ受信部25bが、音声認識サーバ30から発話のテキストデータを受信すると、テキストデータ送信部25cは、発話のテキストデータや、過去3回分の発話に関する履歴情報や位置情報等のユーザ端末20が保持する情報を応答生成サーバ10に送信する(ステップS5)。なお、ユーザ端末20のテキストデータ送信部25cは、発話のテキストデータ、ユーザが発話した過去3回分の発話情報のほかに、ユーザ端末20の現在位置を示す位置情報、過去にAPIサーバを利用した利用履歴に関する利用履歴などを応答生成サーバ10に送信する。
続いて、応答生成サーバ10の取得部12aが、発話のテキストデータやユーザ端末20が保持する情報を受け付けると、選択部12bは、発話情報に含まれる単語のうち、同一の読みで異なる意味の単語の候補が複数ある場合、同一の文字で異なる意味の異なる意味の単語の候補が複数ある場合、または、同一の読みおよび同一の文字で異なる意味の異なる意味の単語の候補が複数ある場合には、発話のテキストデータとユーザ端末20が記憶する情報とを用いて、複数の単語の候補から一つの単語を選択する。例えば、選択部12bは、発話のテキストデータに日本橋が含まれており、日本橋の候補地が日本橋(大阪)、日本橋(東京都)、日本橋(水上バス)と複数ある場合には、各候補地と現在位置との距離をそれぞれ比較し、最も近い候補地を選択する。
そして、応答生成サーバ10の要求生成部12cは、応答の生成に必要なデータの検索条件を指定し、APIサーバ40に対してデータの要求を行う(ステップS6)。具体的には、応答生成サーバ10の要求生成部12cは、選択部12bに選択された単語として発話情報に含まれる単語の意味を特定し、発話情報とユーザ端末20が記憶する情報とを用いて、サービス提供サーバに対して情報を要求する検索条件を生成し、該検索条件をAPIサーバ40に送信する。例えば、応答生成サーバ10の要求生成部12cは、検索条件として、「FROM=日本橋(大阪)TO=日本橋(東京都)」をAPIサーバ40に送信する。
続いて、応答生成サーバ10の要求生成部12cは、検索条件をAPIサーバ40に送信して応答生成に必要なデータを要求する(ステップS7)。そして、APIサーバ40は、受信した検索条件に従って、XMLデータを取得する処理を行う(ステップS8)。例えば、応答生成サーバ10は、出発地「日本橋(大阪)」、目的地「日本橋(東京都)」で経路探索する検索条件を受け付けると、日本橋(大阪)から日本橋(東京都)までの乗り換え情報や、電車賃に関する情報などを取得する処理を行う。そして、APIサーバ40は、取得したXMLデータを応答生成サーバ10に送信する(ステップS9)。
そして、応答生成サーバ10の変換部12dは、APIサーバ40からXMLデータを受信すると、予め記憶されたフォーマットに従って、XMLデータからデータを抽出し、XMLデータをHTMLデータに変換する(ステップS10)。例えば、応答生成サーバ10の変換部12dは、路線検索に関するXMLデータを受信すると、乗り換えに関するフォーマットに従って、XMLデータから駅名や乗車時間の情報を抽出し、XMLデータをHTMLデータに変換する。続いて、応答生成サーバ10の音声合成指示部12eは、応答発話表示用のテキストデータを音声合成サーバ50に送信する(ステップS11)。そして、音声合成サーバ50は、応答発話表示用のテキストデータから音声を合成する音声合成処理を行って、応答発話用の中間表記を生成する(ステップS12)。そして、音声合成サーバ50は、応答発話用の中間表記を応答生成サーバ10に送信する(ステップS13)。
続いて、応答生成サーバ10の応答生成部12fは、応答発話用の中間表記と応答発話表示用のテキストデータとHTMLデータとをユーザ端末20に送信する(ステップS14)。そして、ユーザ端末20のHTMLデータ受信部25dは、受信した応答発話表示用のテキストデータの履歴情報とHTMLデータの履歴情報とを格納する(ステップS15)。続いて、ユーザ端末20の表示制御部25eは、応答発話用の中間表記を用いて、応答の音声を出力するとともに、応答発話表示用のテキストデータとHTMLデータとを用いて、応答内容を表示する(ステップS16)。
〔1−2(2).作用(応答生成サーバ)〕
次に、図7を用いて、第1の実施形態に係る応答生成サーバ10による処理手順について説明する。図7は、第1の実施形態に係る応答生成サーバ10による処理の手順を示すフローチャートである。図7に例示するように、応答生成サーバ10の取得部12aは、ユーザが今回発話したテキストデータ及びユーザが発話した過去の発話の履歴情報等を受信したか否かを判定する(ステップS101)。なお、取得部12aは、今回発話されたテキストデータ、ユーザが発話した過去3回分の発話情報の他にも、ユーザ端末20の現在位置を示す位置情報、過去にAPIサーバを利用した利用履歴に関する利用履歴などを受信する。
そして、取得部12aは、ユーザにより今回発話されたテキストデータ及び履歴情報等を受信したと判定すると(ステップS101肯定)、取得部12aは、受信したテキストデータから発話の意味理解処理を行う(ステップS102)。例えば、取得部12aは、意味理解処理として、ユーザにより今回発話されたテキストデータ「日本橋から日本橋まで」である場合には、出発地パラメータが「日本橋」であり目的地パラメータが「日本橋」である乗り換え情報を検索する発話情報「PRAM_FROM:日本橋 TO=日本橋」に変換する。
そして、選択部12bは、発話情報に含まれる単語のうち、異なる意味の単語の候補が複数ある場合には、記憶部13に記憶されたユーザ辞書から読みを取得する(ステップS103)。上記の例では、「PRAM_FROM:日本橋 TO=日本橋」に含まれる二つの「日本橋」のそれぞれの読みとして「にっぽんばし」、「にほんばし」を取得し、検索条件「PRAM_FROM:日本橋 TO=日本橋」を「PRAM_FROM:にっぽんばし TO=にほんばし」に変換する。
そして、選択部12bは、サーバ辞書から読みをキーにして候補地を取得する(ステップS104)。図4の例を用いて説明すると、選択部12bは、読みが「にっぽんばし」の候補地として、「日本橋(大阪)」を取得する。また、選択部12bは、読みが「にほんばし」の候補地として、「日本橋(東京都)」と「日本橋(水上バス)」とを取得する。ここで、選択部12bは、各候補地について、それぞれ位置情報をサーバ辞書から取得する。
そして、選択部12bは、取得した候補地が複数であるか否かを判定する(ステップS105)。この結果、選択部12bは、取得した候補地が複数である場合には(ステップS105肯定)、候補地と現在地の距離を取得する(ステップS106)。例えば、選択部12bは、上述した例では、読みが「にほんばし」の候補地として、二つの候補地(「日本橋(東京都)」と「日本橋(水上バス)」)があるので、候補地が複数あると判定し、現在地と日本橋(東京都)との距離、および、現在地と日本橋(水上バス)との距離をそれぞれ取得する。
そして、選択部12bは、各候補地と現在地との距離を取得し、各距離を比較した結果、現在地との距離が最も短い候補地を選択する(ステップS107)。上記の例において、例えば、選択部12bは、現在地と日本橋(東京都)との距離と、現在地と日本橋(水上バス)との距離とを比較し、現在地と日本橋(東京都)との距離の方が短かった場合には、ユーザが発話した「にほんばし」については、「日本橋(東京都)」であるものと推定し、「日本橋(東京都)」を選択する。
つまり、ユーザの発話に含まれる地名のうち候補地が複数あるような地名の場合には、現在地とより近い候補地をユーザとより密接に関係する地名であると推定し、現在地との距離が最も短い候補地を選択することで、異音同字、同音異字、同音同字の地名が複数存在する場合であっても、ユーザに発話の意図を明確にすることができる。なお、現在地との距離が最も短い候補地を選択する場合に限定されることはなく、現在地との距離が最も遠い候補地を選択するようにしてもよい。また、現在地について複数の候補がある場合には、現在地との距離が最も遠い候補地を選択し、目的地について複数の候補がある場合には、現在地との距離が最も近い候補地を選択するようにしてもよい。
そして、要求生成部12cは、選択された候補地に基づいて、検索条件を生成し、APIサーバ40に応答に必要なデータの検索を指示する(ステップS108)。例えば、要求生成部12cは、検索条件として、出発地パラメータ「日本橋(大阪)」から目的地パラメータ「日本橋(東京都)」までの乗り換え情報を要求する検索条件を生成し、路線APIサーバ41に応答に必要なデータの検索を指示する。また、ステップS105において、選択部12bは、取得した候補地が複数でない場合には(ステップS105否定)、選択された候補地に基づいて、検索条件を生成し、APIサーバ40に応答に必要なデータの検索を指示する(ステップS108)。
その後、応答生成サーバ10は、APIサーバ40からXMLデータを受信してXMLデータをHTMLデータに変換し、音声合成サーバ50から応答発話用の中間表記を受信した後に、応答発話用の中間表記と応答発話表示用のテキストデータとHTMLデータとをユーザ端末20に送信する(図6のステップS10〜S14参照)。
そして、ユーザ端末20の表示制御部25eは、応答発話用の中間表記と応答発話表示用のテキストデータとHTMLデータとを受信すると、応答発話用の中間表記を用いて、応答の音声を出力するとともに、応答発話表示用のテキストデータとHTMLデータとを用いて、応答内容を表示する。ここで、図8の例を用いて、ユーザの発話に対してユーザ端末20の表示部24に表示される応答画像の一例を説明する。図8は、第1の実施形態に係るユーザ端末20の応答画像の一例を説明するための図である。
まず、図8の例を用いて説明すると、応答画像の上部に、発話用のテキストデータ(音声認識サーバ30から受信したデータ)が表示され、発話用のテキストデータの下部に乗り換え情報に関するHTMLデータが表示されている。具体的には、図8に例示するように、発話用のテキストデータとして「日本橋から日本橋」が表示されている。また、発話用のテキストデータの下部に、乗り換え情報に関するHTMLデータとして、出発地「日本橋(大阪)」から目的地「日本橋(東京都)」までの乗り換え情報が表示されている。なお、図8の例では、乗り換え情報の一部のみが表示されているものとし、ユーザの操作により画面をスクロールさせることで、表示されていない乗り換え情報についても閲覧することができる。
ここで、図8の例では、ユーザが「日本橋(にっぽんばし)から日本橋(にほんばし)」と発話し、上述したように、日本橋と同音同字および異音同字の地名が複数あることから、今回の発話だけでは、どの日本橋を意図しているかが分からない。このような場合に、第1の実施の形態に係る応答生成サーバ10では、例えば、読みから地名の候補を取得するとともに、地名の候補が複数ある場合には、現在地との距離が近い地名の候補を選択することで、出発地のパラメータが「日本橋(大阪)」であり、目的地のパラメータ「日本橋(東京都)」であることを推定し、出発地「日本橋(大阪)」から目的地「日本橋(東京都)」までの乗り換え情報を生成する。このため、ユーザ端末20が出発地「日本橋(大阪)」とし目的地「日本橋(東京都)」とした乗り換え情報を表示させることができる結果、発話の内容に異音同字、同音異字、同音同字の単語が複数存在する場合であっても、ユーザの発話の意図を的確に把握し、適切な応答を行うことが可能である。
〔1−3.効果〕
上述してきたように、第1の実施形態に係る応答生成サーバ10は、ユーザが発話した情報である発話情報と、ユーザ端末20が保持する情報とを取得し、取得された発話情報に含まれる単語のうち、異なる意味の単語の候補が複数ある場合には、発話情報とユーザ端末20が保持する情報とを用いて、複数の単語の候補から一つの単語を選択する。そして、応答生成サーバ10は、選択された単語の意味で特定した発話情報を用いて、サービスに対する検索条件を生成し、検索条件に基づいて取得したサービス情報を用いて、発話情報に対する応答情報を生成する。
これにより、第1の実施形態に係る応答生成サーバ10は、ユーザが発話した内容に含まれる単語のうち、異なる意味の単語の候補が複数ある場合であっても、発話情報とユーザ端末20が保持する情報(例えば、位置情報等)とを用いて、単語の意味を適切に推定し、ユーザの発話の意図を的確に把握し、適切な応答を行うことを可能にする。
また、第1の実施形態に係る応答生成サーバ10は、取得された発話情報に含まれる単語のうち、同一の読みで異なる意味の単語の候補が複数ある場合、同一の文字で異なる意味の異なる意味の単語の候補が複数ある場合、または、同一の読みおよび同一の文字で異なる意味の異なる意味の単語の候補が複数ある場合には、発話情報とユーザ端末20が保持する情報とを用いて、複数の単語の候補から一つの単語を選択する。
これにより、第1の実施形態に係る応答生成サーバ10は、ユーザが発話した内容に含まれる単語のうち、異音同字、同音異字、同音同字の単語が複数存在する場合であっても、発話情報とユーザ端末20が保持する情報(例えば、位置情報等)とを用いて、単語の意味を適切に推定し、ユーザの発話の意図を的確に把握し、適切な応答を行うことを可能にする。
また、第1の実施形態に係る応答生成サーバ10は、ユーザ端末20が保持する情報として、該ユーザ端末20の位置情報、過去の発話情報に関する履歴情報、過去のサービスの利用履歴に関する利用履歴情報のいずれか一つまたは複数を取得し、取得された発話情報に含まれる単語のうち、異なる意味の単語の候補が複数ある場合には、取得されたユーザ端末20の位置情報、過去の発話情報に関する履歴情報、過去のサービスの利用履歴に関する利用履歴情報のいずれか一つまたは複数を用いて、複数の単語の候補から一つの単語を選択する。
これにより、第1の実施形態に係る応答生成サーバ10は、ユーザ端末20の位置情報、過去の発話情報に関する履歴情報、過去にAPIサーバ40を利用した利用履歴に関する利用履歴情報を用いて、単語の意味をより適切に推定することができる結果、ユーザの発話の意図を的確に把握し、適切な応答を行うことを可能にする。
また、第1の実施形態に係る応答生成サーバ10は、取得された発話情報に含まれる地名のうち、場所の異なる複数の地名の候補がある場合には、取得された位置情報を用いて、該地名の候補のうち、ユーザ端末20の位置と最も近い地名を選択する。
これにより、第1の実施形態に係る応答生成サーバ10は、ユーザの発話に含まれる地名のうち候補地が複数あるような地名の場合には、現在地とより近い候補地をユーザとより密接に関係する地名であると推定し、現在地との距離が最も短い候補地を選択することで、異音同字、同音異字、同音同字の地名が複数存在する場合であっても、ユーザに発話の意図を明確にすることを可能にする。
(第2の実施形態)
本願に係る応答生成装置、応答生成方法および応答生成プログラムは、上述した第1の実施形態以外にも種々の異なる形態にて実施されてよい。第2の実施形態では、他の実施形態について説明する。
〔2−1.単語の意味推定〕
上述した第1の実施形態においては、地名について複数の候補地がある場合については、ユーザ端末20の位置情報を用いて、現在地との距離が最も短い候補地を選択する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、発話情報に含まれる単語のうち、異なる意味の単語の候補が複数ある場合には、過去の発話情報に関する履歴情報を用いて、過去の発話に含まれる単語を選択してもよい。つまり、ユーザの発話に含まれる単語のうち候補が複数ある単語について、過去にユーザが発話したことがある場合には、過去にユーザが発話した際の単語の意味と同じであると推定し、過去の発話に含まれる単語を選択する。
また、例えば、発話情報に含まれる単語のうち、異なる意味の単語の候補が複数ある場合には、過去にAPIサーバ40を利用した利用履歴に関する利用履歴情報を用いて、APIサーバ40から取得した情報に含まれる単語を選択するようにしてもよい。つまり、ユーザの発話に含まれる単語のうち候補が複数ある単語について、過去にユーザが閲覧したり、検索したりした単語の意味と同じであると推定し、APIサーバ40から取得した情報に含まれる単語を選択する。このように、履歴情報や利用履歴情報を用いて、単語の意味をより適切に推定することができる結果、ユーザの発話の意図を的確に把握し、適切な応答を行うことを可能にする。
〔2−2.履歴情報〕
上述した第1の実施形態においては、応答生成サーバ10が履歴情報をユーザ端末20から受信する場合を説明した。しかしながら、実施形態はこれに限定されるものではなく、応答生成サーバ10が履歴情報を管理するようにしてもよい。例えば、応答生成サーバ10は、ユーザ端末20を一意に識別する識別情報などを用いて、ユーザ端末20ごとに履歴情報を管理するようにしてもよい。
〔2−3.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上述した応答生成サーバ10は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。
また、特許請求の範囲に記載した「手段」は、「部(section、module、unit)」や「回路」などに読み替えることができる。例えば、応答生成手段は、応答生成部や応答生成回路に読み替えることができる。
10 応答生成サーバ
11 通信部
12 制御部
12a 取得部
12b 選択部
12c 要求生成部
12d 変換部
12e 音声合成指示部
12f 応答生成部
13 記憶部
20 ユーザ端末
21 マイク
22 スピーカ
23 アプリ
23a 音声データ送信部
23b テキストデータ受信部
23c テキストデータ送信部
23d HTMLデータ受信部
23e 表示制御部
24 メモリ
24a 履歴記憶部
24b 位置情報記憶部
30 音声認識サーバ
41 路線APIサーバ
42 天気APIサーバ
43 Web検索APIサーバ

Claims (4)

  1. 演算処理装置を有する応答生成装置であって、
    前記演算処理装置は、
    ユーザが発話した情報である発話情報と、ユーザ端末が保持する情報であって、過去の発話情報に関する履歴情報または過去のサービスの利用履歴に関する情報である利用履歴情報とを、前記ユーザ端末から送信された情報として取得し、
    所定の記憶部に登録された辞書情報であって、単語の読みと当該単語が有する意味とを対応付けた第1の辞書情報、および、単語が有する意味と当該単語の読みと位置情報とを対応付けた第2の辞書情報を用いて、前記取得された発話情報から抽出された単語が、異なる複数の意味を有するか否かを判定し、異なる複数の意味を有すると判定された場合には、前記過去の発話情報に関する履歴情報または前記過去のサービスの利用履歴に関する利用履歴情報に含まれる単語の意味に基づいて、前記複数の意味から一つの意味を選択し、
    前記発話情報から抽出された単語を、前記選択された意味を有する単語として用いて、前記発話情報からサービスに対する検索条件を生成し、
    前記検索条件に基づいて取得したサービス情報を用いて、前記発話情報に対する応答を前記ユーザ端末に出力させるための情報である応答情報を生成する
    処理を実行することを特徴とする応答生成装置。
  2. 前記演算処理装置は、前記複数の意味から一つの意味を選択する処理として、前記記憶部に登録された第1の辞書および第2の辞書を用いて、取得された発話情報から抽出された単語に、同一の読みで異なる意味の単語が複数含まれる場合、同一の文字で異なる意味の単語が複数含まれる場合、または、同一の読みおよび同一の文字で異なる意味の単語が複数含まれる場合には、前記過去の発話情報に関する履歴情報または前記過去のサービスの利用履歴に関する利用履歴情報に含まれる単語の意味に基づいて、前記複数の意味から一つの意味を各単語ごとに選択する
    処理を実行することを特徴とする請求項1に記載の応答生成装置。
  3. コンピュータで実行される応答生成方法であって、
    前記コンピュータが有する演算処理装置が、
    ユーザが発話した情報である発話情報と、ユーザ端末が保持する情報であって、過去の発話情報に関する履歴情報または過去のサービスの利用履歴に関する情報である利用履歴情報とを、前記ユーザ端末から送信された情報として取得し、
    所定の記憶部に登録された辞書情報であって、単語の読みと当該単語が有する意味とを対応付けた第1の辞書情報、および、単語が有する意味と当該単語の読みと位置情報とを対応付けた第2の辞書情報を用いて、前記取得された発話情報から抽出された単語が、異なる複数の意味を有するか否かを判定し、異なる複数の意味を有すると判定された場合には、前記過去の発話情報に関する履歴情報または前記過去のサービスの利用履歴に関する利用履歴情報に含まれる単語の意味に基づいて、前記複数の意味から一つの意味を選択し、
    前記発話情報から抽出された単語を、前記選択された意味を有する単語として用いて、前記発話情報からサービスに対する検索条件を生成し、
    前記検索条件に基づいて取得したサービス情報を用いて、前記発話情報に対する応答を前記ユーザ端末に出力させるための情報である応答情報を生成する
    処理を実行することを特徴とする応答生成方法。
  4. コンピュータが有する演算処理装置に、
    ユーザが発話した情報である発話情報と、ユーザ端末が保持する情報であって、過去の発話情報に関する履歴情報または過去のサービスの利用履歴に関する情報である利用履歴情報とを、前記ユーザ端末から送信された情報として取得し、
    所定の記憶部に登録された辞書情報であって、単語の読みと当該単語が有する意味とを対応付けた第1の辞書情報、および、単語が有する意味と当該単語の読みと位置情報とを対応付けた第2の辞書情報を用いて、前記取得された発話情報から抽出された単語が、異なる複数の意味を有するか否かを判定し、異なる複数の意味を有すると判定された場合には、前記過去の発話情報に関する履歴情報または前記過去のサービスの利用履歴に関する利用履歴情報に含まれる単語の意味に基づいて、前記複数の意味から一つの意味を選択し、
    前記発話情報から抽出された単語を、前記選択された意味を有する単語として用いて、前記発話情報からサービスに対する検索条件を生成し、
    前記検索条件に基づいて取得したサービス情報を用いて、前記発話情報に対する応答を前記ユーザ端末に出力させるための情報である応答情報を生成する
    処理を実行させるための応答生成プログラム。
JP2012072556A 2012-03-27 2012-03-27 応答生成装置、応答生成方法および応答生成プログラム Active JP5965175B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012072556A JP5965175B2 (ja) 2012-03-27 2012-03-27 応答生成装置、応答生成方法および応答生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012072556A JP5965175B2 (ja) 2012-03-27 2012-03-27 応答生成装置、応答生成方法および応答生成プログラム

Publications (2)

Publication Number Publication Date
JP2013205999A JP2013205999A (ja) 2013-10-07
JP5965175B2 true JP5965175B2 (ja) 2016-08-03

Family

ID=49525038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012072556A Active JP5965175B2 (ja) 2012-03-27 2012-03-27 応答生成装置、応答生成方法および応答生成プログラム

Country Status (1)

Country Link
JP (1) JP5965175B2 (ja)

Families Citing this family (121)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
BR112015018905B1 (pt) 2013-02-07 2022-02-22 Apple Inc Método de operação de recurso de ativação por voz, mídia de armazenamento legível por computador e dispositivo eletrônico
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3008641A1 (en) 2013-06-09 2016-04-20 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
CN106471570B (zh) 2014-05-30 2019-10-01 苹果公司 多命令单一话语输入方法
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9711141B2 (en) * 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US10504518B1 (en) 2018-06-03 2019-12-10 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
JP2022021349A (ja) * 2018-11-28 2022-02-03 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057490A (ja) * 1998-08-06 2000-02-25 Fujitsu Ten Ltd ナビゲーション装置
JP3683504B2 (ja) * 2001-02-14 2005-08-17 日本電信電話株式会社 音声利用型情報検索装置および音声利用型情報検索プログラムと該プログラムを記録した記録媒体
JP2002304410A (ja) * 2001-04-03 2002-10-18 Canon Inc 自然言語処理システム及び方法
EP1848192A4 (en) * 2005-02-08 2012-10-03 Nippon Telegraph & Telephone END DEVICE, SYSTEM, METHOD AND PROGRAM FOR INFORMATION COMMUNICATION AND RECORDING MEDIUM WHICH RECORDED THE PROGRAM
JP2008204416A (ja) * 2007-02-19 2008-09-04 Yasuhiro Yamazaki 高度情報収得システム
JP5042799B2 (ja) * 2007-04-16 2012-10-03 ソニー株式会社 音声チャットシステム、情報処理装置およびプログラム
JP5028172B2 (ja) * 2007-07-13 2012-09-19 アルパイン株式会社 ナビゲーション装置
JP5266761B2 (ja) * 2008-01-10 2013-08-21 日産自動車株式会社 情報案内システムおよびその認識辞書データベース更新方法
JP2009250779A (ja) * 2008-04-07 2009-10-29 Kenwood Corp ナビゲーション装置、プログラム、及びナビゲーション方法
US20110258228A1 (en) * 2008-12-26 2011-10-20 Pioneer Corporation Information output system, communication terminal, information output method and computer product

Also Published As

Publication number Publication date
JP2013205999A (ja) 2013-10-07

Similar Documents

Publication Publication Date Title
JP5965175B2 (ja) 応答生成装置、応答生成方法および応答生成プログラム
JP5616390B2 (ja) 応答生成装置、応答生成方法および応答生成プログラム
KR101881985B1 (ko) 컨텍스트에 기초한 음성 인식 문법 선택
US9190048B2 (en) Speech dialogue system, terminal apparatus, and data center apparatus
US20170148439A1 (en) Location-Based Responses to Telephone Requests
US8515766B1 (en) Voice application finding and user invoking applications related to a single entity
US8682640B2 (en) Self-configuring language translation device
JP5886103B2 (ja) 応答生成装置、応答生成システム、応答生成方法および応答生成プログラム
RU2010132214A (ru) Способы и устройства для осуществления распределенных многомодальных приложений
JP2013140269A (ja) 音声認識装置
CN112509562A (zh) 用于文本后处理的方法、装置、电子设备和介质
JP5558284B2 (ja) 音声認識システム、音声認識方法、および音声認識プログラム
US20180052658A1 (en) Information processing device and information processing method
JP2012088370A (ja) 音声認識システム、音声認識端末、およびセンター
WO2019000881A1 (zh) 导航方法、装置、设备及计算机可读存储介质
US20220093097A1 (en) Electronic device and control method therefor
US20240119216A1 (en) Method and apparatus, electronic device and storage media for content presentation
WO2019000879A1 (zh) 导航方法、装置、设备及计算机可读存储介质
JP5754177B2 (ja) 音声認識装置、音声認識システム、音声認識方法及びプログラム
Sheppard et al. Development of voice commands in digital signage for improved indoor navigation using google assistant SDK
JP2014123353A (ja) ヘルプを提供する方法、コンピュータプログラム及びコンピュータ
CN112395844B (zh) 拼音生成方法、装置和电子设备
JP5461615B2 (ja) 応答生成装置、応答生成方法および応答生成プログラム
JP6353199B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2017181631A (ja) 情報制御装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140718

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150403

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150413

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160701

R150 Certificate of patent or registration of utility model

Ref document number: 5965175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350