JPWO2011093025A1 - 入力支援システム、方法、およびプログラム - Google Patents

入力支援システム、方法、およびプログラム Download PDF

Info

Publication number
JPWO2011093025A1
JPWO2011093025A1 JP2011551742A JP2011551742A JPWO2011093025A1 JP WO2011093025 A1 JPWO2011093025 A1 JP WO2011093025A1 JP 2011551742 A JP2011551742 A JP 2011551742A JP 2011551742 A JP2011551742 A JP 2011551742A JP WO2011093025 A1 JPWO2011093025 A1 JP WO2011093025A1
Authority
JP
Japan
Prior art keywords
data
input
database
support system
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011551742A
Other languages
English (en)
Other versions
JP5796496B2 (ja
Inventor
雅弘 西光
雅弘 西光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011551742A priority Critical patent/JP5796496B2/ja
Publication of JPWO2011093025A1 publication Critical patent/JPWO2011093025A1/ja
Application granted granted Critical
Publication of JP5796496B2 publication Critical patent/JP5796496B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

入力支援システム(1)は、複数の項目に対するデータを蓄積するデータベース(10)と、音声データ(D0)に音声認識処理を行った結果、得られた入力データと、データベース(10)の項目に対するデータとを比較して、入力データに類似するデータをデータベースから抽出する抽出部(104)と、抽出されたデータをデータベース(10)に登録する候補として提示する提示部(106)と、を備える。

Description

本発明は、入力支援システム、方法、およびプログラムに関し、特に、音声認識を用いたデータ入力を支援する入力支援システム、方法、およびプログラムに関する。
この種の音声認識を用いたデータ入力により営業活動で得られた情報処理を支援する営業支援システムの一例が特許文献1(特開2005−284607号公報)に記載されている。特許文献1の営業支援システムは、通話機能と通信機能とを有するクライアント端末とインターネット網によって接続可能な、営業活動に関する営業情報ファイルを文書形式で保存するデータベースと、該データベース内において特定の営業情報ファイルを検索する処理を行う検索処理部と、を有する営業支援サーバと、前記クライアント端末と電話網によって接続可能な、音声データを認識し文書データに変換する音声認識機能を有する音声認識サーバと、から構成されている。
この構成により、利用者である例えば営業マンは、電話による会話形式で営業に関する報告をテキスト化して営業支援システムへ登録することができる。文字を大量にタイプしなければならない入力項目に対しては、営業支援システムから音声認識システムに切り替えることにより、文字入力が不自由なケースにおいても最終的に文字データとしてサーバ内に残すことができる。
特開2005−284607号公報
上述した営業支援システムにおいては、音声認識における認識誤りは不可避であり、また、発話される音声には、言い間違いや「えーっと」といった冗長な表現が含まれるため、たとえ誤りなく音声認識処理が行えたとしても、認識結果そのものを入力データとして採用することが難しいという問題点があった。
本発明の目的は、上述した課題である音声認識によるデータ入力を適切に、精度および効率よく行う入力支援システム、方法、およびプログラムを提供することにある。
本発明の入力支援システムは、
複数の項目に対するデータを蓄積するデータベースと、
音声データに音声認識処理を行った結果、得られた入力データと、前記データベースに蓄積されている前記データとを比較して、前記入力データに類似するデータを前記データベースから抽出する抽出手段と、
抽出された前記データを前記データベースに登録する候補として提示する提示手段と、を備える。
本発明の入力支援装置のデータ処理方法は、
複数の項目に対するデータを蓄積するデータベースを備えた入力支援装置のデータ処理方法であって、
音声データに音声認識処理を行った結果、得られた入力データと、前記データベースに蓄積されている前記データとを比較して、前記入力データに類似するデータを前記データベースから抽出し、
抽出された前記データを前記データベースに登録する候補として提示する。
本発明のコンピュータプログラムは、
複数の項目に対するデータを蓄積するデータベースを備えた入力支援装置を実現するコンピュータに、
音声データに音声認識処理を行った結果、得られた入力データと、前記データベースに蓄積されている前記データとを比較して、前記入力データに類似するデータを前記データベースから抽出する手順と、
抽出された前記データを前記データベースに登録する候補として提示する手順と、を実行させるためのコンピュータプログラムである。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。
また、本発明のデータ処理方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明のデータ処理方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障しない範囲で変更することができる。
さらに、本発明のデータ処理方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。
本発明によれば、音声認識によるデータ入力を適切に、精度および効率よく行う入力支援システム、方法、およびプログラムが提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
本発明の実施の形態に係る入力支援システムの構成を示す機能ブロック図である。 本発明の実施の形態の入力支援システムのデータベースの構造の一例を示す図である。 本発明の実施の形態に係る入力支援システムの動作の一例を示すフローチャートである。 本発明の実施の形態に係る入力支援システムの動作を説明するための図である。 本発明の実施の形態に係る入力支援システムの構成を示す機能ブロック図である。 本発明の実施の形態に係る入力支援システムの要部構成を示すブロック図である。 本発明の実施の形態に係る入力支援システムの提示部に提示される画面の一例を示す図である。 本発明の実施の形態に係る入力支援システムの動作の一例を示すフローチャートである。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
(第1の実施の形態)
図1は、本発明の実施の形態に係る入力支援システム1の構成を示す機能ブロック図である。
同図に示すように、本実施形態の入力支援システム1は、複数の項目に対するデータを蓄積するデータベース10と、音声データD0に音声認識処理を行った結果、得られた入力データと、データベース10に蓄積されているデータとを比較して、入力データに類似するデータをデータベース10から抽出する抽出部104と、抽出されたデータをデータベースに登録する候補として提示する提示部106と、を備える。また、本実施形態の入力支援システム1において、提示部106が提示した候補の中から、項目に対して登録するデータの選択を受け付ける受付部108と、受け付けたデータを、データベース10の対応する項目に登録する登録部110と、をさらに備える。
具体的には、入力支援システム1は、複数の項目に対するデータを蓄積するデータベース10と、データベース10へのデータ入力を支援する入力支援装置100と、を備える。入力支援装置100は、音声認識処理部102と、抽出部104と、提示部106と、受付部108と、登録部110と、を備える。
ここで、入力支援装置100は、たとえば、図示しないCPU(Central Processing Unit)やメモリ、ハードディスク、および通信装置を備え、キーボードやマウス等の入力装置やディスプレイやプリンタ等の出力装置と接続されるサーバコンピュータやパーソナルコンピュータ、またはそれらに相当する装置により実現することができる。そして、CPUが、ハードディスクに記憶されるプログラムをメモリに読み出して実行することにより、上記各ユニットの各機能を実現することができる。
なお、以下の各図において、本発明の本質に関わらない部分の構成については省略してあり、図示されていない。
また、入力支援システム1の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶ユニット、ネットワーク接続用インタフェースを中心にハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。以下説明する各図は、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
本実施形態において、たとえば、営業活動を支援する営業支援システムにおいて、顧客の企業情報や商談の進捗、営業日報などをはじめとする営業業務情報に関する種々の入力項目が膨大な数、準備されているものとする。これらの営業業務情報は、入力支援システム1のデータベース10に蓄積され、営業実績の分析、顧客や企業分析、営業マンの成績評価、将来の営業活動計画や経営戦略など様々に役立てられる。
データベース10は、たとえば、顧客に関する顧客情報として、顧客属性、顧客の声、競合情報、顧客との接触履歴などを含むことができる。顧客属性は、顧客の基本情報(企業名、住所、電話番号、従業員数、業種名など)や、顧客の与信情報などを含むことができる。顧客の声には、戦略、ニーズ、要望、意見、およびクレームなどを含み、例えば、「顧客は「グローバル化」、「環境対応」に関するソリューションを求めている」といった情報を含むことができる。
また、競合情報は、競合取引先とその取引量・期間などに関する情報を含むことができる。顧客との接触履歴は、「いつ、誰が、誰に、どこで、何を、反応および結果は?」といった情報を含むことができる。
さらに、データベース10は、商談(案件)の情報や営業パーソンの活動の情報などを含むことができる。たとえば、商談(案件)の情報は、見込み数、商談(案件)数、商談期間など、一顧客における商談数や商談に要する期間などの情報や、進捗状況(初回訪問→ヒアリング→提案→見積→稟議→受注)、案件受注の確度など、現在の進捗フェーズと受注できる確率などの情報や、予算、決裁者、ニーズ、タイミングなど、商談における予算取りの状況や決裁者、決裁のタイミングに関する情報などを含むことができる。
さらに、営業パーソンの活動の情報は、PDCAサイクル(Plan-Do-Check-Act cycle)のPLAN(計画)−DO(実行)など、担当顧客/商談数の把握と活動(訪問)計画などの情報や、情報の収集など、上記顧客情報に関する情報を確認しているかのチェックなどの情報や、ネクストアクション、期限など、次のアクションを具体化したものを入力した情報や、活動量、活動傾向など、これまでに費やした総工数(時間)や時間の使い方などの情報などを含むことができる。
図2に、本実施形態の入力支援システム1における、データベース10の構造の一例を示す。本実施形態では、営業支援システムを例として説明する。図2では、説明を簡単にするために、データベース10の蓄積データのうち、たとえば、日報データを含むデータ群を示しているが、データベース10の構造は、これに限定されるものではなく、上述したように、様々な情報が互いに関連付けられて蓄積されているものとする。たとえば、図2のデータ項目の訪問先の社名、部署、担当者などの情報は、顧客情報の一部であり、顧客情報と互いに関連付けることができる。
図1に戻り、音声認識処理部102は、たとえば、ユーザが発話した音声を取得して生成された音声データD0を入力し、音声認識処理を行い、その結果を、入力データとして出力する。音声認識結果は、たとえば、音声データの音声特徴量や、音素、音節、単語などを含む。
なお、ユーザは、たとえば、営業先に出向いた後、携帯電話機などの携帯端末(不図示)からサーバ(不図示)に電話をかけ、音声にて営業報告を行い、サーバに音声データを記録させることができる。あるいは、ICレコーダなどの録音装置(不図示)を用いてユーザの発話音声を録音した後、録音装置からサーバに音声データをアップロードしてもよい。あるいは、パーソナルコンピュータ(PC:Personal Computer)(不図示)に、マイク(不図示)を設け、マイクでユーザの発話音声を収録し、PCからサーバにネットワークを介して音声データをアップロードしてもよい。これらのユーザが発話した音声データの取得手段や方法は、様々な形態が考えられ、本発明の本質に関わらないので、詳細な説明は省略する。
なお、上述したように、ユーザが外出先でユーザ端末(不図示)として、携帯電話機などを用いた場合、GPS(Global Positioning System)機能を用いて出先の位置情報を取得したり、カメラによる撮像機能を用いて撮影した画像データを取得したり、ICレコーダ機能を用いて、音声データを録音することもでき、これらの情報を入力支援システム1のサーバに無線通信機能を用いてネットワークを介して送信し、蓄積することもできる。
本実施形態のサーバは、たとえば、ウェブサーバであり、ユーザは、ユーザ端末のブラウザ機能を用いて、所定のURLアドレスにアクセスし、音声データを含む情報をアップロードすることで、サーバに情報を送信することができる。必要に応じて、サーバにはユーザ認証によりログインしてから、アクセスできるように、サーバにユーザ認識機能を備えてもよい。
また、本発明の入力支援システム1は、SaaS(Software As A Service)型のサービスとして、ユーザに提供することもできる。
あるいは、所定のメールアドレスに音声データを含む情報ファイルを添付してメール送信することで、サーバに情報を送信する構成としてもよい。以上のようにして音声データD0は、入力支援システム1に入力され、音声認識処理部102により音声認識処理され、テキストデータ化されて、入力データとして抽出部104に出力されることとなる。
抽出部104は、音声認識処理部102から得られた入力データと、データベース10に蓄積されているデータとを比較して、入力データに類似するデータをデータベース10から抽出する。ここで、音声認識処理部102による認識結果は、図示されない記憶部に記憶しておき、必要に応じて、抽出部104により読み出して、処理するようにしてもよい。音声認識結果と、データベース10のデータとのマッチング処理方法は、様々なものが考えられ、本発明の本質には関わらないので、詳細な説明は省略する。
また、本実施形態では、抽出部104が、データベース10から音声認識結果と「類似」するデータを抽出する構成としたが、たとえば、音声認識結果と完全に一致するデータのみを抽出するようにすることもできる。あるいは、抽出部104が、音声認識結果の確からしさの度合などに応じて、類似度を変更できるようにしてもよく、所定以上の類似度を有するものを抽出するようにしてもよい。
本実施形態では、抽出部104は、データベース10に既に登録されているデータから抽出するので、「えーー」などの冗長な表現は、データベース10に存在しないため、候補として抽出されることがない。また、音声認識処理部102により、認識間違いがあった場合にも、抽出部104では、データベース10に存在する類似したデータが抽出されるので、抽出されたデータを確認することができ、正しいデータを選択することが可能になる。
なお、抽出部104における抽出処理において、音声認識処理部102から得られた結果の中に「えーー」などの冗長な表現が含まれている場合、これらの表現については抽出処理を行わないようにするのが好ましい。たとえば、これらの冗長な表現を除外対象として、データベース10または入力支援装置100の記憶部(不図示)に予め登録しておく。そして、音声認識処理部102により冗長な表現の認識結果が得られた場合には、抽出部104が、除外対象の冗長な表現か否かを記憶部を参照して確認し、冗長な表現を認識結果から除外する処理を行うようにしてもよい。
提示部106は、たとえば、入力支援装置100が有する表示部(不図示)に、抽出部104が抽出したデータをデータベース10に登録する候補として画面に表示させて、ユーザに提示する。あるいは、提示部106は、入力支援装置100にネットワークを介して接続された入力支援装置100とは別のユーザの端末の表示部(不図示)に、この画面を表示させてもよい。
提示部106は、たとえば、候補をプルダウン式のリストや、ラジオボタンやチェックボックス、あるいは、フリーテキスト入力欄などのユーザインタフェースで、ユーザに候補を提示するとともに、提示した候補を選択させる。
受付部108は、入力支援装置100が有する操作部(不図示)をユーザに利用させて、提示部106が提示した候補の中から、各項目に対して登録するデータを選択させ、選択されたデータを項目に対応付けて受け付ける。また、上述したように、入力支援装置100にネットワークを介して接続された入力支援装置100とは別のユーザの端末の操作部(不図示)をユーザが用いた場合の操作を受け付けることもできる。提示部106によって提示された内容をユーザは確認しながら、適宜、プルダウンメニューやチェックボックスでデータを選択し直したり、テキストボックスの内容を修正および追加することができる。受付部108は、ユーザによって選択または入力されたデータを受け付ける。
登録部110は、受付部108が受け付けたデータを、データベース10の新たなレコードとして対応する項目にそれぞれ登録する。
本実施形態のコンピュータプログラムは、上述した複数の項目に対するデータを蓄積するデータベース10を備えた入力支援装置100を実現するコンピュータに、音声データD0に音声認識処理を行った結果、得られた入力データと、データベース10に蓄積されているデータとを比較して、入力データに類似するデータをデータベース10から抽出する手順と、抽出されたデータをデータベース10に登録する候補として提示する手順と、を実行させるように記述されている。
本実施形態のコンピュータプログラムは、コンピュータで読み取り可能な記憶媒体に記録されてもよい。記録媒体は特に限定されず、様々な形態のものが考えられる。また、プログラムは、記録媒体からコンピュータのメモリにロードされてもよいし、ネットワークを通じてコンピュータにダウンロードされ、メモリにロードされてもよい。
上述のような構成において、本実施の形態の入力支援システム1における入力支援装置100のデータ処理方法を以下に説明する。図3は、本実施形態の入力支援システム1の動作の一例を示すフローチャートである。
本実施形態の入力支援装置のデータ処理方法は、複数の項目に対するデータを蓄積するデータベース10を備えた入力支援装置のデータ処理方法であって、音声データD0に音声認識処理を行った結果、得られた入力データと、データベース10に蓄積されているデータとを比較して、入力データに類似するデータをデータベース10から抽出し、抽出されたデータをデータベース10に登録する候補として提示する。
このように構成された本実施形態の入力支援システム1の動作について、以下に説明する。
以下、図1乃至図4を用いて説明する。
まず、ユーザは、営業活動の報告を作成するために、発話にて活動報告を行い、その音声データを収録する。上述したように、音声データの収録方法は、様々な方法があるが、ここでは、たとえば、ICレコーダ(不図示)を用いて音声データを収録し、図1の入力支援装置100にアップロードした音声データを入力支援装置100の音声認識処理部102が受け付けるものとする(図3のステップS101)。音声認識処理部102が入力された音声データD0を音声認識処理し(図3のステップS103)、その結果を入力データとして抽出部104に受け渡す。
抽出部104が、音声認識処理部102から得られた入力データと、データベース10に蓄積されたデータとを比較して、入力データに類似するデータをデータベース10から抽出する(図3のステップS105)。そして、提示部106が、図3のステップS105で抽出されたデータをデータベース10に登録する候補として、表示部に表示させて、ユーザに提示する(図3のステップS107)。そして、ユーザが候補の中から、項目毎に登録するデータを選択すると、受付部108が、候補の中から、項目毎に登録するデータの選択を受け付ける(図3のステップS109)。そして、登録部110が、受け付けたデータを、データベース10の対応する項目に新規レコードとして登録する(図3のステップS111)。
より具体的には、たとえば、図4に示すように、音声データD0のような発話をユーザが行ったとすると、音声認識処理部102(図1)によって音声データD0の音声認識処理が行われ(図4のステップS1)、認識結果入力データD1として、たとえば、単語毎の複数のデータd1、d2、・・・が得られる。図4では、単語毎にデータが区切られているが、これに限定されるものではなく、文節や文章毎などに区切ることもできる。また、図4では、説明を簡単にするために、一部のデータのみを示してある。
図4の認識結果入力データD1の各データは、データベース10のデータと比較される(図4のステップS3)。ここで、たとえば、認識結果入力データD1のデータd5の「高梨さん」は「高橋さん」を誤認識した結果であり、この「高梨さん」に対するデータがデータベース10に存在しない。抽出部104(図1)は、「高梨さん」に類似するデータとして、たとえば、担当者の項目12の中からレコードR1、R2に対応する2つのデータ「高橋」と「田中」を含むデータを抽出する。また、図4の認識結果入力データD1のデータd1の「えーー」は、冗長な表現であり、データベース10との比較で、該当するデータが存在しないため、類似データは抽出されないこととなる。
そして、提示部106(図1)が、抽出されたデータをデータベース10に登録する候補として、表示部(不図示)に表示させて、ユーザに提示する(図4のステップS5)。たとえば、図4の画面120のように、抽出部104(図1)により抽出された2つのデータ「高橋」と「田中」を含む候補リスト122として提示部106が提示する。
たとえば、項目12毎に、このような候補リスト122をそれぞれ設け、提示部106により抽出されたデータを候補リスト122として表示させ、各項目12毎に、ユーザに登録するデータを選択させることができる。
もし、データベース10の中に認識結果入力データD1に該当するデータがない場合、このように抽出部104によってデータベース10から類似するデータが抽出されれば、認識結果入力データD1のデータの代わりに、その抽出されたデータが入力データの候補として採用されることとなる。
また、この例のように、認識結果の「高梨」と完全に一致するデータがなかった場合、抽出された類似データとともに、認識結果の「高梨」も、別途ユーザに提示して、確認できるようにしてもよい。
たとえば、図4では、データベース10の項目12のうち、担当者のデータを選択する場合の画面120の例を示している。図4の画面120の候補リスト122から「高橋」がユーザにより選択されると(図4の124)、受付部108(図1)がデータベース10の担当者に登録するデータとして、「高橋」を受け付ける(図4のステップS7)。図4の画面120の登録ボタン126をユーザが操作すると、登録部110(図1)が、受け付けたデータを、新たな日報のレコードに含まれるデータのうち、データベース10の項目12の「担当者」に対するデータとして登録する。さらに、新たな日報のレコードに含まれる他の項目12のデータも同様に各項目12に対するデータがそれぞれ登録される。
このように、本実施形態の入力支援システム1によれば、音声データを認識した結果得られた図4の認識結果入力データD1の中から、冗長な表現であるデータd1の「えーー」は削除され、さらに誤認識されたデータd5の「高梨さん」は正しく「高橋」に変更されて、データベース10の各項目12に入力データを登録できることとなる。
以上説明したように、本発明の実施の形態に係る入力支援システム1によれば、音声認識によるデータ入力を適切に、精度および効率よく行うことができる。
この構成によれば、音声認識結果の中から、既にデータベース10に蓄積されているデータから入力候補として提示できるので、音声認識結果の誤りによるデータの間違いや関係のない発言や言い間違いなどによる不適切なデータを排除できる。統一された表現で、データを蓄積していくことができるので、データを閲覧する時に見やすくなり、また、データの解析や活用がしやすくなる。入力時に、データの修正作業も大幅に削減でき、作業効率が向上する。
さらに、データベース10から抽出されたデータをユーザに提示するので、ユーザに適切な表現を提示できる。そのため、ユーザはどのような表現がより適切なのかを見て覚えることができるので、より適切な統一された表現で発話するようになり、データの入力精度が向上する。
(第2の実施の形態)
図5は、本発明の実施の形態に係る入力支援システム2の構成を示す機能ブロック図である。
本実施形態の入力支援システム2は、上記実施の形態とは、入力データがデータベース10のどの項目に対応するかを特定する点で相違する。
本実施形態の入力支援システム2は、上記実施形態の構成に加え、音声データの音声認識処理を行う音声認識処理部202と、複数の項目に対するデータ毎の音声特徴情報に基づいて、音声認識処理部202により音声データを音声認識処理して得られる入力データの中から、各項目に対応する部分をそれぞれ特定する特定部206と、をさらに備え、抽出部204は、データベース10を参照し、特定された入力データの各部分と、各部分に対応する項目に対するデータベース10のデータとを比較して、入力データの各部分に類似するデータをデータベース10の対応する項目から抽出する。
また、本実施形態の入力支援システム2において、提示部106は、特定部206により特定された項目に、抽出部204により抽出された候補のデータを対応付けて提示する。
具体的には、同図に示すように、本実施形態の入力支援システム2は、図1の上記実施形態の入力支援システム1の入力支援装置100に替えて、入力支援装置200を備える。入力支援装置200は、図1の上記実施形態の入力支援装置100と同様な構成を有する、提示部106、受付部108、および登録部110に加え、さらに、音声認識処理部202と、抽出部204と、特定部206と、音声特徴情報記憶部(図中、「音声特徴情報」と示す)210と、を備える。
音声特徴情報記憶部210は、複数の項目に対するデータの音声特徴情報を記憶する。本実施形態において、音声特徴情報記憶部210は、たとえば、図6に示すように、複数の項目別言語モデル212(M1、M2、・・・、Mn)(ここで、nは自然数)を含む。すなわち、各項目に適した言語モデルが、それぞれ設けられる。ここで言う、言語モデルとは、音声認識用の単語辞書とその辞書に含まれる単語同士の繋がり易さを規定するものである。音声特徴情報記憶部210の各項目別言語モデル212は、音声特徴情報記憶部210に蓄積された各項目のデータに基づいて、各項目専用に構築することができる。なお、音声特徴情報記憶部210は、入力支援装置200に含まれなくてもよく、他の記憶装置やデータベース10に含まれてもよい。
本実施形態において、音声認識処理部202は、各項目別言語モデル212を用いて音声データD0を音声認識処理することができる。音声認識処理部202は、項目毎に適切な項目別言語モデル212を用いて音声認識処理を行うので、認識精度が向上する。
特定部206は、音声認識処理部202で、音声データの各部分をそれぞれ各項目別言語モデル212を用いて認識した結果の中から、得られた入力データの各部分について、認識の確からしさなどのスコアに基づいて、認識結果の良好な部分を採用し、採用されたデータ部分の音声認識処理に使用した項目別言語モデル212に対応する項目を、そのデータ部分の項目と特定する。
さらに、音声特徴情報記憶部210は、複数の項目にそれぞれ関連付けられた複数の発話表現情報を記憶する発話表現情報記憶部(不図示)を含んでもよい。具体的には、たとえば、音声特徴情報記憶部210の発話表現情報記憶部は、複数の項目に対応する音声データとその音声認識結果を関連付けて記憶する。
この場合、特定部206は、音声認識処理部202が音声認識した結果と音声データD0と発話表現情報に基づいて、項目に関連する発話表現に類似する表現部分を音声データD0から抽出し、抽出された表現部分を関連する項目のデータであると特定する。すなわち、特定部206は、発話表現情報記憶部を参照し、一連の音声データD0とその音声認識結果の中から、発話表現情報記憶部に記憶されている発話表現に類似している部分を抽出することで、各項目に対するデータ部分を特定することができる。
また、図6に示すように、本実施形態のデータベース10は、複数の項目別データ群220(DB1、DB2、・・・、DBn)(ここで、nは自然数)を含む。
抽出部204は、データベース10を参照し、特定された入力データの各部分と、各部分に対応する項目に対する項目別データ群220の中のデータとを比較して、入力データの各部分に類似するデータを抽出する。上記実施形態のように、データベース10内の全てのデータを検索する例に比較して、本実施形態では、データベース10内の予め項目別に分けられたデータを含む項目別データ群220の中のデータを検索して、類似するデータを抽出することができるので、検索処理効率がよく、処理速度が速くなり、また抽出されるデータの正確さが増すこととなる。
本実施形態において、提示部106は、予め報告書の書式として記憶部(不図示)に登録されているフォーマットに従って、抽出部204が抽出した項目別のデータの候補を、日報に必要な項目の所定の位置にそれぞれ表示させることができる。本実施形態の入力支援システム2は、様々な書式を記憶部に登録することができるものとする。これらの報告書は、プリンタ(不図示)を用いて印字出力することができる。
図7に、提示部106に表示される営業活動の日報画面150の一例を示す。同図に示すように、抽出部204によって抽出された各データの候補が日報画面150に表示される。たとえば、営業活動をした日付、時刻、顧客名、先方担当などのデータは、プルダウンメニュー152で表示されている。また、対象商品などは、チェックボックス154で表示されている。また、メモ欄として、テキストボックス156などで、その他の情報、たとえば、音声認識結果そのものを全て表示してもよいし、各項目に当てはまらなかった認識結果のみを表示するなどしてもよい。また、提示部106は、入力支援装置200にネットワークを介して接続された入力支援装置200とは別のユーザの端末の表示部(不図示)に、この日報画面150を表示させてもよい。
図7の日報画面150にて、ユーザは内容を確認しながら、適宜、プルダウンメニュー152やチェックボックス154でデータを選択し直したり、テキストボックス156の内容を修正および追加することができる。
図5に戻り、登録部110は、受付部108が受け付けたデータを、データベース10の対応する項目にそれぞれ登録する。たとえば、図7の日報画面150の確認ボタン158を操作することで、最終的な入力データを確認する画面(不図示)に移行させ、ユーザが内容を確認後に、登録部110に登録させる登録ボタン(不図示)の押下により、登録処理を行うようにしてもよい。
このように構成された本実施形態の入力支援システム2の動作について、以下に説明する。図8は、本実施形態の入力支援システム2の動作の一例を示すフローチャートである。以下、図5乃至8を用いて説明する。図8のフローチャートは、図3の上記実施形態のフローチャートと同様なステップS101とステップS111を含むとともに、さらに、ステップS203〜ステップS209を含む。
ユーザにより報告書作成のために発話した音声を収録された音声データを、図5の入力支援装置200の音声認識処理部202が受け付ける(図8のステップS101)。音声認識処理部202が、各項目別言語モデル212を用いて音声データD0の音声認識処理を行うとともに、特定部206が音声認識処理部202で、音声データの各部分をそれぞれ各項目別言語モデル212を用いて認識した結果の中から、認識の確からしさなどのスコアに基づいて、認識結果の良好な部分を採用し、採用されたデータ部分の音声認識処理に使用した項目別言語モデル212に対応する項目を、そのデータ部分の項目と特定する(図8のステップS203)。
抽出部204が、音声認識処理部202から得られた入力データの各部分について、データベース10の特定部206により特定された項目に対するデータとを比較して、入力データの各部分に類似するデータをデータベース10の特定されたデータの中から抽出する(図8のステップS205)。そして、提示部106が、図8のステップS205で抽出された各項目のデータをデータベース10の各項目に登録する候補として、たとえば、図7の日報画面150などを表示部に表示させて、ユーザに提示する(図8のステップS207)。
そして、受付部108が、候補の中から、項目毎に登録するデータの選択を受け付ける(図8のステップS209)。そして、登録部110が、受け付けたデータを、データベース10の対応する項目に登録する(図8のステップS111)。たとえば、図2に示すように、データベース10に新たなレコード(ID0003)の各項目にデータがそれぞれ登録されることとなる。
以上説明したように、本発明の実施の形態に係る入力支援システム2によれば、上記実施形態と同様の効果を奏するとともに、項目毎の音声特徴情報に基づいて、一連の音声データから各項目に対応する部分を抽出して、項目を特定できる。これにより、入力データを各項目に対応付けて提示し、ユーザに選択させることができるので、より入力精度が向上する。また、ユーザは項目別に分類されたデータの中から該当するデータを選択することができるので、入力操作が楽になる。また、項目別言語モデル212を設けることで、音声認識精度が向上し、認識誤りを低減させることができる。また、所定の条件を満たせば、自動的に入力データを項目に登録することも可能になる。
また、図7の日報画面150のような定型の書式をユーザに提示することができるので、閲覧し易いという効果がある。さらに、定型の書式で、ユーザに適切な表現を提示できる。そのため、ユーザはどのような表現がより適切なのかを見て覚えることができるので、より適切な統一された表現で発話するようになり、さらに、入力精度が向上する。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
たとえば、上記実施形態の入力支援システム2において、特定部206により特定された項目に、候補のデータを対応付け、所定の条件に基づいて候補の中からデータを選択して、データベース10に自動的に登録する自動登録部(不図示)をさらに備えてもよい。
この構成によれば、自動的に各項目にデータを対応付けて登録することができるので、効率がよい。とくに、ユーザが発話表現を適切にできるようになり、音声認識結果の精度も向上した場合、自動的に登録されたデータの信頼性も向上することとなる。ここで、選択条件としては、たとえば、音声認識結果との類似度を高いものを優先的に選択する条件や、音声認識結果の確からしさが所定値より高く、かつ類似度が所定レベル以上とする条件、またはユーザによって予め設定された優先順位などである。
上記実施形態の入力支援システム1(または入力支援システム2)において、さらに、音声データに音声認識処理を行った結果、得られた入力データと、抽出部104(または抽出部204)により抽出された入力データに類似するデータと、に基づいて、項目に対する新たな入力データの候補を生成する生成部(不図示)を備えることができる。この構成において、提示部106は、生成部が生成した候補を項目に対するデータとして提示することができる。
この構成によれば、たとえば、入力データとデータベース10に蓄積されているデータに基づいて、新たなデータを候補として生成して、ユーザに提示することができる。たとえば、「本日」とユーザが発話した場合、データベース10に登録されている「日付」の項目に対するデータに基づいて、たとえば、音声データの録音日の情報などから、報告日の新たな入力データの候補として、「本日」と認識された結果を録音日の日付である「2010年1月10日」に変化し、入力データの候補として生成することができる。
あるいは、「明日、再度、訪問します。」などの音声データが入力された場合、報告の日付、あるいは、音声データファイルのタイムスタンプなどが「2010年1月11日」であれば、「明日」に対応する新たな入力データの候補として、「2010年1月12日」を生成することができる。
また、ユーザが音声データとともに、訪問先などの位置情報を、たとえば、ユーザ端末のGPS機能を用いて入力支援装置100(または入力支援装置200)に送信してもよい。生成部は、抽出部104(または抽出部204)にこの位置情報に基づいて、データベース10に登録されている顧客情報を検索させ、得られた情報に基づいて、訪問先の顧客を特定し、訪問先の顧客の情報の候補として生成することができる。
上記入力支援システムにおいて、生成部は、音声データに音声認識処理を行った結果、得られた入力データに対してアノテーション処理を行い、タグ情報を付与し、新たな項目の候補として生成することができる。
この構成によれば、音声データに対するタグ情報として、たとえば、タイトル、カテゴリ、備考などを新たに付与することができ、より入力の効率を向上することができる。
上記入力支援システムにおいて、互いに関連のある複数の音声データを時系列に受け付け、音声データの差分の部分を抽出する差分抽出部(不図示)をさらに備えてもよい。抽出部104または抽出部204は、差分抽出部により抽出された差分の部分について音声認識処理を行い、得られた入力データの差分と、データベース10に蓄積されているデータとを比較して、入力データの差分に類似するデータをデータベース10から抽出することができる。
この構成によれば、関連する音声データについて、時系列に並べて差分を求めることで、差分の部分についてのみ、データベース10への登録を行うことができる。関連する案件に関する音声データなどで、変化があった部分のみをデータベース10に登録でするので、無駄なデータを重複して登録することを防ぐことができる。これにより、データベース10の記憶容量を大幅に削減できる。また、提示されたデータの確認を、差分以外の項目のデータについては省略して提示しなかったり、確認不要であることをユーザに通知する構成とすることができる。また、登録に関する処理の負荷を低減でき、処理速度も速くすることができる。
また、上記実施形態の提示部106は、たとえば、営業結果の成否を示す項目のデータについて、成功は丸「○」、不成功はバツ「×」などの記号で区別したり、あるいは、色分けしたり、強調表示や点滅表示など、視認効果のある表記方法を用いてユーザに提示するようにしてもよい。この構成によれば、一目で結果をユーザが区別して認識できるので視認性が向上し、選択ミスを防ぐことができる。また、作成された報告書を閲覧するユーザにとっても見やすさが向上するという効果がある。
さらに、上記実施形態の入力支援システムにおいて、報告書などに必要な項目のうち、音声データから得られなかったものをデータ不足項目として抽出する不足抽出部(不図示)と、抽出されたデータ不足をユーザに通知する通知部(不図示)と、をさらに備えてもよい。提示部106は、抽出されたデータ不足項目の候補を提示し、ユーザにデータの選択を促すことができる。この構成によれば、必要な情報を不足なく、適切な表現で入力されることができるので、データベース10に蓄積されるデータの利用価値が上がるという効果を奏する。
また、上記実施形態の入力支援システムにおいて、さらに、提示部106によって提示した項目データの候補について、ユーザによる修正の指示を受け付け、データベース10の対応する項目のデータとしてさらに登録または上書きによる更新処理を行う更新部を備えてもよい。さらに、音声認識処理された結果、得られた入力データを提示部106によりユーザに提示してもよい。提示された入力データの中から、一部を取り出し、新たな項目のデータとするユーザの指示を受け付け、データベース10に新たな項目を作成し、取り出した一部のデータを登録する項目編集部をさらに備えてもよい。さらに、項目編集部は、既存の項目の削除や項目の変更指示を受け付け、データベース10の項目を削除または変更する処理を行うこともできる。
これらの構成によれば、既存のデータベース10のデータを更新したり、項目を新たに追加したり、削除、変更などを行うことができる。
以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
なお、本発明において利用者に関する情報を取得、利用する場合は、これを適法に行うものとする。
この出願は、2010年1月29日に出願された日本出願特願2010−018848号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (12)

  1. 複数の項目に対するデータを蓄積するデータベースと、
    音声データに音声認識処理を行った結果、得られた入力データと、前記データベースに蓄積されている前記データとを比較して、前記入力データに類似するデータを前記データベースから抽出する抽出手段と、
    抽出された前記データを前記データベースに登録する候補として提示する提示手段と、を備える入力支援システム。
  2. 請求項1に記載の入力支援システムにおいて、
    前記提示手段が提示した前記候補の中から、前記項目に対して登録するデータの選択を受け付ける受付手段と、
    受け付けた前記データを、前記データベースの対応する前記項目に登録する登録手段と、をさらに備える入力支援システム。
  3. 請求項1または2に記載の入力支援システムにおいて、
    前記音声データの音声認識処理を行う音声認識手段と、
    複数の前記項目に対する前記データ毎の音声特徴情報に基づいて、前記音声認識手段により前記音声データを音声認識処理して得られる前記入力データの中から、各項目に対応する部分をそれぞれ特定する特定手段と、をさらに備え、
    前記抽出手段は、前記データベースを参照し、特定された前記入力データの各部分と、前記各部分に対応する前記項目に対する前記データベースの前記データとを比較して、前記入力データの前記各部分に類似するデータを前記データベースの対応する前記項目から抽出する入力支援システム。
  4. 請求項3に記載の入力支援システムにおいて、
    前記提示手段は、前記特定手段により特定された前記項目に、前記抽出手段により抽出された前記候補の前記データを対応付けて提示する入力支援システム。
  5. 請求項3または4に記載の入力支援システムにおいて、
    前記特定手段により特定された前記項目に、前記候補の前記データを対応付け、所定の条件に基づいて前記候補の中からデータを選択して、前記データベースに自動的に登録する自動登録手段をさらに備える入力支援システム。
  6. 請求項3乃至5いずれかに記載の入力支援システムにおいて、
    前記音声認識手段は、複数の前記項目毎に、複数の言語モデルを用いて前記音声データの音声認識処理を行い、
    前記特定手段は、前記音声認識手段により、前記音声データの前記各部分について、それぞれ複数の前記言語モデルで音声認識処理を行った結果、得られた入力データの前記各部分について、認識の確からしさに基づいて、認識結果の良好なものが得られた言語モデルの項目を特定し、前記入力データの前記部分は、特定された項目のデータであると特定する入力支援システム。
  7. 請求項3乃至6いずれかに記載の入力支援システムにおいて、
    複数の前記項目にそれぞれ関連付けられた複数の発話表現情報を記憶する表現記憶装置を備え、
    前記特定手段は、前記音声認識手段が音声認識処理を行う時に、前記音声データと前記発話表現情報に基づいて、前記項目に関連する発話表現に類似する表現部分を前記音声データから抽出し、抽出された前記表現部分を関連する項目のデータであると特定する入力支援システム。
  8. 請求項1乃至7いずれかに記載の入力支援システムにおいて、
    前記音声データに音声認識処理を行った結果、得られた前記入力データまたは前記抽出手段により抽出された前記入力データに類似するデータに基づいて、前記項目に対する入力データの新たな候補を生成する生成手段をさらに備え、
    前記提示手段は、前記生成手段が生成した前記候補を前記項目に対するデータとして提示する入力支援システム。
  9. 請求項8に記載の入力支援システムにおいて、
    前記生成手段は、前記音声データに音声認識処理を行った結果、得られた前記入力データに対してアノテーション処理を行い、タグ情報を付与し、新たな項目の候補として生成する入力支援システム。
  10. 請求項1乃至9いずれかに記載の入力支援システムにおいて、
    互いに関連のある複数の前記音声データを時系列に受け付け、前記音声データの差分の部分を抽出する差分抽出手段をさらに備え、
    前記抽出手段は、前記差分抽出手段により抽出された前記差分の前記部分について音声認識処理を行い、得られた入力データの前記差分と、前記データベースに蓄積されている前記データとを比較して、前記入力データの前記差分に類似するデータを前記データベースから抽出する入力支援システム。
  11. 複数の項目に対するデータを蓄積するデータベースを備えた入力支援装置のデータ処理方法であって、
    音声データに音声認識処理を行った結果、得られた入力データと、前記データベースに蓄積されている前記データとを比較して、前記入力データに類似するデータを前記データベースから抽出し、
    抽出された前記データを前記データベースに登録する候補として提示する入力支援装置のデータ処理方法。
  12. 複数の項目に対するデータを蓄積するデータベースを備えた入力支援装置を実現するコンピュータに、
    音声データに音声認識処理を行った結果、得られた入力データと、前記データベースに蓄積されている前記データとを比較して、前記入力データに類似するデータを前記データベースから抽出する手順と、
    抽出された前記データを前記データベースに登録する候補として提示する手順と、を実行させるためのコンピュータプログラム。
JP2011551742A 2010-01-29 2011-01-17 入力支援システム、方法、およびプログラム Active JP5796496B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011551742A JP5796496B2 (ja) 2010-01-29 2011-01-17 入力支援システム、方法、およびプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010018848 2010-01-29
JP2010018848 2010-01-29
PCT/JP2011/000201 WO2011093025A1 (ja) 2010-01-29 2011-01-17 入力支援システム、方法、およびプログラム
JP2011551742A JP5796496B2 (ja) 2010-01-29 2011-01-17 入力支援システム、方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2011093025A1 true JPWO2011093025A1 (ja) 2013-05-30
JP5796496B2 JP5796496B2 (ja) 2015-10-21

Family

ID=44319024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011551742A Active JP5796496B2 (ja) 2010-01-29 2011-01-17 入力支援システム、方法、およびプログラム

Country Status (3)

Country Link
US (1) US20120330662A1 (ja)
JP (1) JP5796496B2 (ja)
WO (1) WO2011093025A1 (ja)

Families Citing this family (153)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0721987B2 (ja) * 1991-07-16 1995-03-08 株式会社愛知電機製作所 真空切替遮断器
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8762156B2 (en) * 2011-09-28 2014-06-24 Apple Inc. Speech recognition repair using contextual information
JP5455997B2 (ja) * 2011-09-29 2014-03-26 株式会社東芝 営業管理システム及び入力支援プログラム
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
CN104969289B (zh) 2013-02-07 2021-05-28 苹果公司 数字助理的语音触发器
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US9761224B2 (en) * 2013-04-25 2017-09-12 Mitsubishi Electric Corporation Device and method that posts evaluation information about a facility at which a moving object has stopped off based on an uttered voice
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
KR101959188B1 (ko) 2013-06-09 2019-07-02 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
KR101587625B1 (ko) * 2014-11-18 2016-01-21 박남태 음성제어 영상표시 장치 및 영상표시 장치의 음성제어 방법
US20160275942A1 (en) * 2015-01-26 2016-09-22 William Drewes Method for Substantial Ongoing Cumulative Voice Recognition Error Reduction
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
JP6434363B2 (ja) * 2015-04-30 2018-12-05 日本電信電話株式会社 音声入力装置、音声入力方法、およびプログラム
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10831996B2 (en) 2015-07-13 2020-11-10 Teijin Limited Information processing apparatus, information processing method and computer program
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
JP6762819B2 (ja) * 2016-09-14 2020-09-30 株式会社東芝 入力支援装置およびプログラム
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US20190005125A1 (en) * 2017-06-29 2019-01-03 Microsoft Technology Licensing, Llc Categorizing electronic content
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
CN109840062B (zh) * 2017-11-28 2022-10-28 株式会社东芝 输入辅助装置以及记录介质
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
JP2019191713A (ja) * 2018-04-19 2019-10-31 ヤフー株式会社 決定プログラム、決定方法、及び決定装置
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
JP6621151B2 (ja) * 2018-05-21 2019-12-18 Necプラットフォームズ株式会社 情報処理装置、システム、方法及びプログラム
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
JP7111758B2 (ja) 2020-03-04 2022-08-02 株式会社東芝 音声認識誤り訂正装置、音声認識誤り訂正方法及び音声認識誤り訂正プログラム
US11043220B1 (en) 2020-05-11 2021-06-22 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
JP7291440B1 (ja) 2022-10-07 2023-06-15 株式会社プレシジョン プログラム、情報処理装置、方法及びシステム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05216493A (ja) * 1992-02-05 1993-08-27 Nippon Telegr & Teleph Corp <Ntt> オペレータ支援型音声認識装置
JP3340163B2 (ja) * 1992-12-08 2002-11-05 株式会社東芝 音声認識装置
JP3581648B2 (ja) * 2000-11-27 2004-10-27 キヤノン株式会社 音声認識システム、情報処理装置及びそれらの制御方法、プログラム
JP4604178B2 (ja) * 2004-11-22 2010-12-22 独立行政法人産業技術総合研究所 音声認識装置及び方法ならびにプログラム
WO2007097176A1 (ja) * 2006-02-23 2007-08-30 Nec Corporation 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム
WO2008001486A1 (fr) * 2006-06-29 2008-01-03 Nec Corporation Dispositif et programme de traitement vocal, et procédé de traitement vocal
US20090271195A1 (en) * 2006-07-07 2009-10-29 Nec Corporation Speech recognition apparatus, speech recognition method, and speech recognition program
US20090204392A1 (en) * 2006-07-13 2009-08-13 Nec Corporation Communication terminal having speech recognition function, update support device for speech recognition dictionary thereof, and update method
WO2008114708A1 (ja) * 2007-03-14 2008-09-25 Nec Corporation 音声認識システム、音声認識方法、および音声認識処理プログラム

Also Published As

Publication number Publication date
WO2011093025A1 (ja) 2011-08-04
US20120330662A1 (en) 2012-12-27
JP5796496B2 (ja) 2015-10-21

Similar Documents

Publication Publication Date Title
JP5796496B2 (ja) 入力支援システム、方法、およびプログラム
US10635392B2 (en) Method and system for providing interface controls based on voice commands
US10217462B2 (en) Automating natural language task/dialog authoring by leveraging existing content
CN109360550B (zh) 语音交互系统的测试方法、装置、设备和存储介质
US10824798B2 (en) Data collection for a new conversational dialogue system
US9111540B2 (en) Local and remote aggregation of feedback data for speech recognition
CN111666746B (zh) 会议纪要的生成方法及装置、电子设备及存储介质
CN107612814A (zh) 用于生成候选回复信息的方法和装置
CN105657129A (zh) 通话信息获取方法和装置
JP2009528614A (ja) 一般推薦語および広告推薦語自動完成方法およびシステム
US20130262104A1 (en) Procurement System
CN111222837A (zh) 智能化面试的方法、系统、设备及计算机存储介质
WO2023129255A1 (en) Intelligent character correction and search in documents
EP3573051A1 (en) Information processing device, information processing method, and program
US8275613B2 (en) All voice transaction data capture—dictation system
CN110347696B (zh) 数据转换方法、装置、计算机设备以及存储介质
KR20160101302A (ko) 고객센터 상담 자동 요약 및 분류 시스템 및 그 방법
JP7064680B1 (ja) プログラムコード自動生成システム
JP2010224667A (ja) 文字入力支援装置及び文字入力支援方法
KR102492008B1 (ko) 회의록 관리 방법 및 장치
EP3535664A1 (en) Data collection for a new conversational dialogue system
JP6434363B2 (ja) 音声入力装置、音声入力方法、およびプログラム
JP5455997B2 (ja) 営業管理システム及び入力支援プログラム
CN114462364B (zh) 录入信息的方法和装置
JP7257010B2 (ja) 検索支援サーバ、検索支援方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150803

R150 Certificate of patent or registration of utility model

Ref document number: 5796496

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150