JP2016212135A - 音声入力装置、音声入力方法、およびプログラム - Google Patents

音声入力装置、音声入力方法、およびプログラム Download PDF

Info

Publication number
JP2016212135A
JP2016212135A JP2015092569A JP2015092569A JP2016212135A JP 2016212135 A JP2016212135 A JP 2016212135A JP 2015092569 A JP2015092569 A JP 2015092569A JP 2015092569 A JP2015092569 A JP 2015092569A JP 2016212135 A JP2016212135 A JP 2016212135A
Authority
JP
Japan
Prior art keywords
input
item
voice
recognition result
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015092569A
Other languages
English (en)
Other versions
JP6434363B2 (ja
Inventor
隆朗 福冨
Takaaki Fukutomi
隆朗 福冨
学 岡本
Manabu Okamoto
学 岡本
孝 中村
Takashi Nakamura
孝 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015092569A priority Critical patent/JP6434363B2/ja
Publication of JP2016212135A publication Critical patent/JP2016212135A/ja
Application granted granted Critical
Publication of JP6434363B2 publication Critical patent/JP6434363B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】音声認識結果と処理結果を対応付けて利用者に表示する。【解決手段】音声認識部2は、入力音声を音声認識して形態素解析された音声認識結果を生成する。音声認識結果処理部3は、音声認識結果から所定の入力項目に対応する情報を抽出し、各入力項目に対応する項目出力内容を生成する。処理内容表示部4は、音声認識結果に項目出力内容を対応付けて表示し、入力項目のうち対応する項目出力内容が存在しない入力項目があればその旨を表示する。【選択図】図1

Description

この発明は、音声認識技術に関し、特に、複数の項目へ発話により入力を行う音声入力技術に関する。
音声を用いた入力インタフェースとして、利用者の音声認識結果を入力内容として利用するものが広く知られている。例えば、音声認識結果を用いたウェブ検索機能は多くのスマートフォン端末に実装されている。ウェブ検索で用いられている音声入力インタフェースでは、音声認識結果をそのまま、あるいは整形や言い換え等を行った上で検索語として利用している。この場合、利用者が発声した発話と検索語が一対一となる。
しかしながら、スケジュール管理やアドレス帳登録など、意味合いの異なる複数の入力項目を埋めるアプリケーションも存在する。複数の入力項目を埋めるアプリケーションやサービスに従来の音声入力技術を用いる場合、例えば、以下のような入力形式が考えられる。
(1)音声認識を用いた音声インタフェースの多くは一般的に入力するフィールドと一対一に紐付いているため、複数の項目を入力する場合は、項目毎に音声入力を行い、音声認識結果を項目に投入し、利用者に表示する。
(2)対話的に各項目の情報を利用者から聞き出して入力する。
上記(1)の形式では、複数項目の入力に用いると各項目数分の発声および音声認識処理が必要となり、入力完了までに時間がかかり効率が悪い。上記(2)の形式では、観光案内など日常的には利用しないものであればよいが、予定投入アプリケーションなど同じ利用者が日常的に利用するものでは同様のやり取りを毎回行う必要が生じるため不便である。
日常的に繰り返し利用するアプリケーションでは、一度の発声で複数の項目に対応した情報を抽出し、投入を行えると利便性が高い。ひとつの発話から複数の必要な情報を抽出する技術は一般的なテキスト解析技術を用いることで実現可能である(例えば、非特許文献1参照)。例えば、鉄道の経路検索アプリケーションにおいて、「東京駅から横須賀駅まで」と発話することで、東京駅を出発駅とし、横須賀駅を到着駅として抽出し、経路を検索することができる。これは発話する文法やルールを予めアプリケーションが保持しておくことにより実現できる。従来の音声入力では、投入された結果、あるいは、アプリケーションが解釈して処理した結果(前述の例の場合、経路検索結果)のみが利用者に表示される。
ローネン・フェルドマン、"テキストマイニングハンドブック"、東京電機大学出版局、pp. 126-132、2010年
しかしながら、アプリケーションで必要な項目が容易に想定される程度に少ない場合(上述の例では、「出発駅」、「到着駅」)は、発話と結果の結びつきがわかりやすいが、予定登録アプリケーションのように、多数の項目(例えば、「開始日時」、「終了日時」、「場所」、「予定の内容」、「参加者」など)から構成される入力の場合、結果(投入された項目)のみ利用者に表示しても、どのように話せばよかったのか、自分が話した言葉がどのように解釈されたのか、どのような言葉が受け付けられるのか、理解することが難しい。入力項目が多いほど、利用者がどのように話せばよいか推測することは困難である。
この発明の目的は、このような点に鑑みて、音声認識結果と処理結果を対応付けて利用者に表示することができる音声入力技術を提供することである。
上記の課題を解決するために、この発明の音声入力装置は、入力音声を音声認識して形態素解析された音声認識結果を生成する音声認識部と、音声認識結果から所定の入力項目に対応する情報を抽出し、各入力項目に対応する項目出力内容を生成する音声認識結果処理部と、音声認識結果に項目出力内容を対応付けて表示し、入力項目のうち対応する項目出力内容が存在しない入力項目があればその旨を表示する処理内容表示部と、を含む。
この発明の音声入力技術は、音声認識結果と処理結果を対応付けて利用者に表示することができる。これにより利用者は、どのように話せばよいか、どのような発話が受け入れてもらえるのか、といったアプリケーションの仕様を理解することが容易となり、アプリケーション活用の習熟効果がある。
図1は、音声入力装置の機能構成を例示する図である。 図2は、音声入力方法の処理手続きを例示する図である。 図3は、音声入力インタフェースの初期状態を例示する図である。 図4は、音声認識結果処理部の処理手続きを例示する図である。 図5は、処理内容表示部の処理手続きを例示する図である。 図6は、利用者へ表示される処理内容の例を示す図である。 図7は、音声入力インタフェースの完了状態を例示する図である。
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
実施形態の音声入力装置は、図1に例示するように、音声入力部1、音声認識部2、音声認識結果処理部3、処理内容表示部4、および処理結果投入部5を含む。この音声入力装置が、図2に例示する各ステップの処理を行うことにより実施形態の音声入力方法が実現される。
音声入力装置は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。音声入力装置は、例えば、中央演算処理装置の制御のもとで各処理を実行する。音声入力装置に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて読み出されて他の処理に利用される。また、音声入力装置が備える各処理部の少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。
図2を参照して、実施形態の音声入力方法の処理手続きを説明する。
ステップS1において、音声入力部1へ利用者の音声が入力され、入力音声信号が生成される。入力音声信号は音声認識部2へ送る。音声入力部1は、例えば、利用者の操作により音声の取得を開始する。図3は、音声入力装置が利用者に示す音声入力インタフェースの例である。例えば、画面左上に配置されたマイクのアイコンが付されたボタン10を利用者が押下することで、音声入力部1は音声の取得を開始する。なお、この例では音声認識すべきタスクは予め決定されているものとし、タスク名がタスク表示欄11で表示されている。タスクの入力項目は予め定められている。図3の例は、予定投入アプリケーションであり、入力項目としては、タイトル12、日付13(開始日付〜終了日付)、時間14(開始時刻〜終了時刻)、実施場所15、参加者16、および内容17が定められている。
ステップS2において、音声入力部2は、入力音声に対して音声認識処理を行い、音声認識結果を出力する。音声認識結果は、利用者の発声した内容のテキスト情報だけではなく、形態素の品詞情報や読み情報も含まれる。音声認識処理には、例えば、参考文献1に記載の音声認識技術を用いることができる。音声認識結果は音声認識結果処理部3へ送られる。
〔参考文献1〕野田喜昭、山口義和、大附克年、今村明弘、“音声認識エンジンVoiceRexを開発”、NTT技術ジャーナル、vol. 11、no. 12、pp. 14-17、1999年
ステップS3において、音声認識結果処理部3は、音声認識結果から所定の入力項目に対応する情報を抽出し、各入力項目に対応する項目出力内容を生成する。この際、情報の抽出ができなかった入力項目が、予め定めたルール(以下、補完ルールと呼ぶ。)に従って補完することが可能な場合には、その補完ルールに従って情報を設定した補完情報を生成する。また、情報を抽出できた入力項目が情報を一意に特定できない内容であった場合には、予め定めたルール(以下、補正ルールと呼ぶ。)に従って情報を補正して項目出力内容を更新する。
図4を参照して、音声認識結果処理部3の動作をより詳しく説明する。
ステップS31において、音声認識結果処理部3は、音声認識結果から入力項目に対応する情報を抽出する。入力項目は予め定められており、図3の例では、「タイトル」、「開始日付」、「終了日付」、「開始時刻」、「終了時刻」、「実施場所」、「参加者」、「内容」である。日付や時刻のように、限られた候補のみが入力可能な項目であれば、予め候補発話集合データを準備しておき、音声認識結果と比較することで情報を抽出することができる。例えば、「3月20日にA社と打ち合わせをする」という発話から日付に該当する「3月20日」のみを抽出する。また、タイトルなどを音声認識結果から抽出する場合は、日時や時刻などの情報を除いた内容語のみを抽出し、タイトルとすることができる。例えば、「3月20日にA社と打ち合わせをする」という発話から「3月20日に」を除いた「A社と打ち合わせ」のみを抽出する。これらは一般的なテキスト解析技術で実現可能である。
ステップS32において、音声認識結果処理部3は、音声認識結果から抽出した情報が一意に特定できない内容であった場合、補正ルールに従って情報を補正する。例えば、音声認識結果から「3月20日」という情報を抽出した場合に、その「3月20日」は何年の3月20日なのか明確ではない。このとき補正ルールとして、日付については将来に向かって直近の日に特定することを定めておき、「2015年3月20日」と補正することが考えられる。同様に、音声認識結果から「日曜日」という情報を抽出した場合に、その「日曜日」は今週なのか来週以降のいずれの日曜日なのか明確ではない。このとき上記のような補正ルールを用いて、「2015年3月8日」のように特定の日付に変換することが可能である。
このようにして、音声認識結果処理部3では、音声認識結果を入力として、各項目のラベル情報(例えば、「日付」、「時刻」、「内容」など)と、それぞれに対応する項目出力内容(例えば、「3月20日の17時にA社と打ち合わせをする」という発話であれば、「2015年3月20日」、「17時」、「A社と打ち合わせ」など)と、それぞれを抽出した元となった音声認識結果(例えば、「3月20日」、「17時」、「A社と打ち合わせ」など)と、音声認識結果全文(例えば、「3月20日の17時にA社と打ち合わせをする」など)を出力する。
ステップS33において、音声認識結果処理部3は、処理続行に必要な入力項目が抽出できているかを判定する。抽出できている場合には処理を完了し、ラベル情報、項目出力内容、および音声認識結果を処理内容表示部4へ送る。いずれかの入力項目が抽出できていない場合にはステップS34へ処理を進める。
ステップS34において、音声認識結果処理部3は、情報を抽出できなかった入力項目(以下、入力不足項目と呼ぶ。)に対して補完が可能か否かを判定する。すなわち、入力不足項目に対して補完ルールが存在するかどうか、存在する場合には補完ルールに従って情報の設定が可能であるか、を判定する。補完ルールとは、例えば、予定投入アプリケーションの場合で、音声認識結果から日付に関する情報が抽出できなかった際に、当日の日付を代用するなど、タスクに応じてどのように補完するかを規定したルールである。補完可能な入力項目が存在する場合にはステップS35へ処理を進める。補完可能な項目が存在しない場合にはステップS36へ処理を進める。
ステップS35において、音声認識結果処理部3は、入力不足項目に対して補完ルールに従って情報を設定した補完情報を生成する。ラベル情報、項目出力内容、補完情報、および音声認識結果は処理内容表示部4へ送られる。
ステップS36において、音声認識結果処理部3は、音声認識結果から抽出できず補完もできなかった入力不足項目に関する不足情報を生成する。ラベル情報、項目出力内容、不足情報、および音声認識結果は処理内容表示部4へ送られる。
ステップS4において、処理内容表示部4は、音声認識結果に項目出力内容を対応付けて表示する。入力項目のうち対応する項目出力内容が存在しない入力項目があれば、必要な入力項目が抽出できなかった旨を表示する。この際、利用者の発話でどのような情報が欠けていたのかを併せて表示する。入力項目の補完が行われた場合は、音声認識結果に項目出力内容に加えて補完情報を対応付けて表示する。すなわち、処理内容表示部4は、入力必須の情報が欠けている点だけではなく、正しく抽出された入力項目、補完された入力項目についても表示を行う。これにより、利用者は自身の発話のどこがエラーとみなされたかだけでなく、どこまでが受け入れられたのかも知ることができる。したがって、アプリケーションの理解度が高まる効果が期待できる。
処理内容表示部4は、ラベル情報、音声認識結果、項目出力内容、補完情報、および不足情報を用いて表示内容を決定する。例えば、開始時刻、終了時刻、および実施場所の入力が必須の予定投入アプリケーションにおいて、「3月20日にAさんと打ち合わせ」と発話した場合に、ラベル情報は「開始日付」、「終了日付」、「開始時刻」、「終了時刻」、「実施場所」、「参加者」、「内容」といった入力可能な全項目名が設定されている。項目出力内容は、音声認識結果から抽出された情報、もしくは補正ルールに従って更新された情報であり、ラベル毎に「開始日付:2015年3月20日」、「参加者:Aさん」、「内容:打ち合わせ」が設定されている。補完情報は、音声認識結果から抽出できなかったが補完することができた「開始時刻:10:00」、「終了時刻:10:30」、「終了日付:3月20日」が設定されている。不足情報は、必須の入力項目ながら抽出も補完もできなかった「実施場所」が入る。
図5を参照して、処理内容表示部4の動作をより詳しく説明する。
ステップS41において、処理内容表示部4は、ラベル情報、項目出力内容、および音声認識結果を用いて、音声認識結果とラベル情報の対応付けを行う。具体的には、図6(A)に示す音声認識結果とラベル情報の対応付け例のように、音声認識結果と各ラベルとの対応がわかるように表示を行う。図6(A)の例では、「3月20日」という音声認識結果を「開始日付」という入力項目に対して対応付けたことを、下線とラベルを付すことによって示している。
ステップS42において、処理内容表示部4は、各入力項目において音声認識結果と項目出力内容が異なるか否かを判定する。音声認識結果と項目出力内容が異なる場合は、ステップS43へ処理を進める。音声認識結果と項目出力内容がすべて等しい場合は、ステップS44へ処理を進める。
ステップS43において、処理内容表示部4は、音声認識結果と項目出力内容が異なる場合は、音声認識結果から抽出された情報が補正された結果であるため、発話内容がどのように解釈されたかがわかるように対応付けて表示する。具体的には、図6(B)に示す項目出力内容表示例のように、「3月20日」という音声認識結果を「2015年3月20日」という内容と解釈して項目出力内容を更新したことを示す。
ステップS44において、処理内容表示部4は、入力項目の補完が行われたこと、および入力項目に不足があることを利用者へ通知する。補完情報がある場合、例えば、図6(C)に示す補完情報表示例のように、どのように補完処理が行われたかがわかるように表示する。不足情報がある場合、例えば、図6(D)に示す入力不足情報表示例のように、入力が必須な項目が何であるかわかるように利用者に表示する。
不足情報がある場合には、利用者が処理内容の表示を確認した後に処理を終了する。利用者は音声入力から再度やり直すことができ、入力不足項目に対応する情報を含めて発話することが可能となる。不足情報がない場合には、必須の入力項目がすべて設定されている場合であるため、処理を続行する。
ステップS5において、処理結果投入部5は、音声認識インタフェースの各入力欄に各ラベルに対応する項目出力内容を投入する。図7は、音声入力インタフェースに対して処理結果を投入した状態の例である。図7の例では、タイトル12、日付13、参加者16、および内容17は音声認識結果から抽出された内容が入力されており、時間14は補完された内容が入力されている。実施場所15は一回目の発話で入力不足項目として表示され、再度の発話において入力された内容である。
上記のように構成することにより、この発明の音声入力技術は、音声認識結果から抽出できた項目、所定のルールに従って補完された項目、所定のルールに従って自動的に解釈された項目のそれぞれの内容を利用者へ表示することができる。これにより、利用者は自身の発話がどのように処理されたのかを詳細に確認することができるため、そのアプリケーションが必要とする入力項目について理解することが容易となり、アプリケーションの習熟効果が向上する。
この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
1 音声入力部
2 音声認識部
3 音声認識結果処理部
4 処理内容表示部
5 処理結果投入部

Claims (5)

  1. 入力音声を音声認識して形態素解析された音声認識結果を生成する音声認識部と、
    上記音声認識結果から所定の入力項目に対応する情報を抽出し、各入力項目に対応する項目出力内容を生成する音声認識結果処理部と、
    上記音声認識結果に上記項目出力内容を対応付けて表示し、上記入力項目のうち対応する項目出力内容が存在しない入力項目があればその旨を表示する処理内容表示部と、
    を含む音声入力装置。
  2. 請求項1に記載の音声入力装置であって、
    上記音声認識結果処理部は、情報を抽出できなかった入力項目に対して予め定めた補完ルールに従って情報を設定した補完情報を生成するものであり、
    上記処理内容表示部は、上記音声認識結果に上記項目出力内容とともに上記補完情報を対応付けて表示するものである、
    音声入力装置。
  3. 請求項1または2に記載の音声入力装置であって、
    上記音声認識結果処理部は、情報を抽出できた入力項目に対して予め定めた補正ルールに従って抽出された情報を補正して上記項目出力内容を更新するものである、
    音声入力装置。
  4. 音声認識部が、入力音声を音声認識して形態素解析された音声認識結果を生成する音声認識ステップと、
    音声認識結果処理部が、上記音声認識結果から所定の入力項目に対応する情報を抽出し、各入力項目に対応する項目出力内容を生成する音声認識結果処理ステップと、
    処理内容表示部が、上記音声認識結果に上記項目出力内容を対応付けて表示し、上記入力項目のうち対応する項目出力内容が存在しない入力項目があればその旨を表示する処理内容表示ステップと、
    を含む音声入力方法。
  5. 請求項1から3のいずれかに記載の音声入力装置としてコンピュータを機能させるためのプログラム。
JP2015092569A 2015-04-30 2015-04-30 音声入力装置、音声入力方法、およびプログラム Active JP6434363B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015092569A JP6434363B2 (ja) 2015-04-30 2015-04-30 音声入力装置、音声入力方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015092569A JP6434363B2 (ja) 2015-04-30 2015-04-30 音声入力装置、音声入力方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2016212135A true JP2016212135A (ja) 2016-12-15
JP6434363B2 JP6434363B2 (ja) 2018-12-05

Family

ID=57549603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015092569A Active JP6434363B2 (ja) 2015-04-30 2015-04-30 音声入力装置、音声入力方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6434363B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019061532A (ja) * 2017-09-27 2019-04-18 トヨタ自動車株式会社 サービス提供装置及びサービス提供プログラム
JP2019091007A (ja) * 2017-11-16 2019-06-13 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 音声対話方法、装置、端末、サーバ及び可読記憶媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002023783A (ja) * 2000-07-13 2002-01-25 Fujitsu Ltd 対話処理システム
JP2004333641A (ja) * 2003-05-01 2004-11-25 Nippon Telegr & Teleph Corp <Ntt> 音声入力処理方法、音声対話用表示制御方法、音声入力処理装置、音声対話用表示制御装置、音声入力処理プログラム、音声対話用表示制御プログラム
JP2007179239A (ja) * 2005-12-27 2007-07-12 Kenwood Corp スケジュール管理装置及びプログラム
WO2011093025A1 (ja) * 2010-01-29 2011-08-04 日本電気株式会社 入力支援システム、方法、およびプログラム
WO2013134106A2 (en) * 2012-03-08 2013-09-12 Mobile Technologies, Llc Device for extracting information from a dialog
JP2014203018A (ja) * 2013-04-09 2014-10-27 北海道Nsソリューションズ株式会社 入力処理装置、入力処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002023783A (ja) * 2000-07-13 2002-01-25 Fujitsu Ltd 対話処理システム
JP2004333641A (ja) * 2003-05-01 2004-11-25 Nippon Telegr & Teleph Corp <Ntt> 音声入力処理方法、音声対話用表示制御方法、音声入力処理装置、音声対話用表示制御装置、音声入力処理プログラム、音声対話用表示制御プログラム
JP2007179239A (ja) * 2005-12-27 2007-07-12 Kenwood Corp スケジュール管理装置及びプログラム
WO2011093025A1 (ja) * 2010-01-29 2011-08-04 日本電気株式会社 入力支援システム、方法、およびプログラム
WO2013134106A2 (en) * 2012-03-08 2013-09-12 Mobile Technologies, Llc Device for extracting information from a dialog
JP2014203018A (ja) * 2013-04-09 2014-10-27 北海道Nsソリューションズ株式会社 入力処理装置、入力処理方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019061532A (ja) * 2017-09-27 2019-04-18 トヨタ自動車株式会社 サービス提供装置及びサービス提供プログラム
JP2019091007A (ja) * 2017-11-16 2019-06-13 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 音声対話方法、装置、端末、サーバ及び可読記憶媒体
US11335339B2 (en) 2017-11-16 2022-05-17 Baidu Online Network Technology (Beijing) Co., Ltd. Voice interaction method and apparatus, terminal, server and readable storage medium

Also Published As

Publication number Publication date
JP6434363B2 (ja) 2018-12-05

Similar Documents

Publication Publication Date Title
JP5796496B2 (ja) 入力支援システム、方法、およびプログラム
US20180232203A1 (en) Method for user training of information dialogue system
CN104380373B (zh) 用于名称发音的系统和方法
CN103714048B (zh) 用于校正文本的方法和系统
US20150179173A1 (en) Communication support apparatus, communication support method, and computer program product
US20130144619A1 (en) Enhanced voice conferencing
US20030097251A1 (en) Multilingual conversation assist system
KR20080031357A (ko) 대안들의 목록을 사용하는 오인된 단어들의 다시 받아쓰기
CN105592343A (zh) 针对问题和回答的显示装置和方法
CN105336326A (zh) 用于使用上下文信息的语音识别修复的方法和系统
JP2006349954A (ja) 対話システム
JP6675788B2 (ja) 検索結果表示装置、検索結果表示方法、及びプログラム
EP3648032A1 (en) Information inputting method, information inputting device, and information inputting system
JP2015176099A (ja) 対話システム構築支援装置、方法、及びプログラム
EP2682931B1 (en) Method and apparatus for recording and playing user voice in mobile terminal
CN106601256B (zh) 语音识别的方法及移动终端
WO2016136207A1 (ja) 音声対話装置、音声対話システム、音声対話装置の制御方法、および、プログラム
JP6434363B2 (ja) 音声入力装置、音声入力方法、およびプログラム
JP6596373B2 (ja) 表示処理装置及び表示処理プログラム
CN110008445A (zh) 事件抽取方法及装置、电子设备
US10990351B2 (en) Voice-based grading assistant
WO2019225028A1 (ja) 翻訳装置、システム、方法及びプログラム並びに学習方法
EP3951775A1 (en) Method for generating speaker-marked text
JP2013182353A (ja) 音声文字変換作業支援装置、音声文字変換システム、音声文字変換作業支援方法及びプログラム
JP6639431B2 (ja) 用件判定装置、要約文表示装置、用件判定方法、要約文表示方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181108

R150 Certificate of patent or registration of utility model

Ref document number: 6434363

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150