JP2022030754A - 入力支援システム、入力支援方法およびプログラム - Google Patents
入力支援システム、入力支援方法およびプログラム Download PDFInfo
- Publication number
- JP2022030754A JP2022030754A JP2020134972A JP2020134972A JP2022030754A JP 2022030754 A JP2022030754 A JP 2022030754A JP 2020134972 A JP2020134972 A JP 2020134972A JP 2020134972 A JP2020134972 A JP 2020134972A JP 2022030754 A JP2022030754 A JP 2022030754A
- Authority
- JP
- Japan
- Prior art keywords
- text data
- input
- unit
- input item
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
Abstract
【課題】入力操作の簡易性を向上させる。
【解決手段】端末装置を備える入力支援システムは、取得部と認識部と入力項目表示部と認識結果表示部と受け付け部とを備える。取得部は利用者の発話音声を示す発話音声データを取得する。認識部は発話音声データを音声認識してテキストデータを生成する。入力項目表示部は、テキストデータと対応付けられる入力項目を含む複数の入力項目を表示する。認識結果表示部は、テキストデータを表示する。受け付け部は、入力項目表示部によって表示された複数の入力項目から、認識結果表示部によって表示されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける。受け付け部は、複数の入力項目が端末装置の表示画面の一部に表示されかつテキストデータが端末装置の表示画面の他の一部に表示されている状態で、テキストデータと対応付けられる入力項目を選択する操作を受け付ける。
【選択図】図1
【解決手段】端末装置を備える入力支援システムは、取得部と認識部と入力項目表示部と認識結果表示部と受け付け部とを備える。取得部は利用者の発話音声を示す発話音声データを取得する。認識部は発話音声データを音声認識してテキストデータを生成する。入力項目表示部は、テキストデータと対応付けられる入力項目を含む複数の入力項目を表示する。認識結果表示部は、テキストデータを表示する。受け付け部は、入力項目表示部によって表示された複数の入力項目から、認識結果表示部によって表示されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける。受け付け部は、複数の入力項目が端末装置の表示画面の一部に表示されかつテキストデータが端末装置の表示画面の他の一部に表示されている状態で、テキストデータと対応付けられる入力項目を選択する操作を受け付ける。
【選択図】図1
Description
本発明の実施形態は、入力支援システム、入力支援方法およびプログラムに関する。
従来から、ユーザによる情報の入力を支援することが行われている。例えば、ユーザが発話した内容に対応する音声デジタルデータに対する音声認識処理が行われ、音声デジタルデータから変換されたテキストデータが生成される。
ところで、ユーザは、情報処理装置によって生成されたテキストデータを、複数の項目のうちのいずれかの項目に対応付けて入力(保存)しなければならない。
ところが、この従来技術では、情報処理装置によって生成されたテキストデータを、複数の項目のうちのいずれかの項目に対応付けて入力(保存)するための支援が行われない。
そのため、この従来技術では、ユーザが、情報処理装置によって生成されたテキストデータをどの項目に対応付けて入力(保存)すべきか迷ってしまうおそれがある。つまり、ユーザが入力操作を簡易に行うことができないおそれがある。
ところで、ユーザは、情報処理装置によって生成されたテキストデータを、複数の項目のうちのいずれかの項目に対応付けて入力(保存)しなければならない。
ところが、この従来技術では、情報処理装置によって生成されたテキストデータを、複数の項目のうちのいずれかの項目に対応付けて入力(保存)するための支援が行われない。
そのため、この従来技術では、ユーザが、情報処理装置によって生成されたテキストデータをどの項目に対応付けて入力(保存)すべきか迷ってしまうおそれがある。つまり、ユーザが入力操作を簡易に行うことができないおそれがある。
また、従来から、救急搬送時における情報伝達を支援することが行われている。例えば、救急搬送時になされた会話音声が音声認識されてテキストデータに変換される。
ところで、この従来技術では、情報処理装置によって生成されたテキストデータを複数の項目のうちのいずれかの項目に対応付ける処理が、例えば救急隊員、患者自身、患者の家族等の関係者などのような救急受入の要求者(つまり、人間)によって行われるのではなく、情報処理装置によって行われる。
そのため、情報処理装置によって生成されたテキストデータが、救急受入の要求者が意図しない項目に対応付けられてしまうおそれがある。
つまり、この従来技術では、テキストデータを複数の項目のうちのいずれかの項目に対応付ける処理が人間によって行われないため、当然のことながら、テキストデータを複数の項目のうちのいずれかの項目に対応付ける人間の操作の簡易性を向上させることはできない。
ところで、この従来技術では、情報処理装置によって生成されたテキストデータを複数の項目のうちのいずれかの項目に対応付ける処理が、例えば救急隊員、患者自身、患者の家族等の関係者などのような救急受入の要求者(つまり、人間)によって行われるのではなく、情報処理装置によって行われる。
そのため、情報処理装置によって生成されたテキストデータが、救急受入の要求者が意図しない項目に対応付けられてしまうおそれがある。
つまり、この従来技術では、テキストデータを複数の項目のうちのいずれかの項目に対応付ける処理が人間によって行われないため、当然のことながら、テキストデータを複数の項目のうちのいずれかの項目に対応付ける人間の操作の簡易性を向上させることはできない。
本発明が解決しようとする課題は、入力操作の簡易性を向上させることができる入力支援システム、入力支援方法およびプログラムを提供することである。
実施形態の入力支援システムは、端末装置を備える入力支援システムであって、発話音声データ取得部と音声認識部と入力項目表示部と認識結果表示部と入力項目選択操作受け付け部とを備える。発話音声データ取得部は利用者の発話音声を示す発話音声データを取得する。音声認識部は発話音声データ取得部によって取得された発話音声データを音声認識してテキストデータを生成する。入力項目表示部は音声認識部によって生成されたテキストデータと対応付けられる入力項目を含む複数の入力項目を表示する。認識結果表示部は音声認識部によって生成されたテキストデータを音声認識部による認識結果として表示する。入力項目選択操作受け付け部は入力項目表示部によって表示された複数の入力項目から、認識結果表示部によって表示されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける。入力項目表示部は、複数の入力項目を端末装置の表示画面の一部に表示し、認識結果表示部は、テキストデータを端末装置の表示画面の他の一部に表示する。入力項目選択操作受け付け部は、入力項目表示部が複数の入力項目を表示しており、かつ、認識結果表示部がテキストデータを表示している状態で、テキストデータと対応付けられる入力項目を選択する操作を受け付ける。
以下、実施形態の入力支援システム、入力支援方法およびプログラムを、図面を参照して説明する。
<第1実施形態>
図1は第1実施形態の入力支援システム1の構成の一例を示す図である。
図1に示す例では、入力支援システム1が、端末装置11と処理サーバ12とを備えている。端末装置11と処理サーバ12とは、例えばネットワーク(図示せず)などを介して通信可能に構成されている。
端末装置11は、入力項目情報取得部11Aと、入力項目表示部11Bと、発話音声データ取得部11Cと、認識結果表示部11Dと、認識結果選択操作受け付け部11Eと、入力可能項目活性化部11Fと、入力項目選択操作受け付け部11Gと、自動入力部11Hとを備えている。
入力項目情報取得部11Aは、入力支援システム1を利用して入力(保存)される情報(テキストデータ)に対応付けられる項目(入力項目)に関する情報である入力項目情報を、例えば入力支援システム1の外部から取得する。入力項目情報には、項目名に関する情報、入力形式に関する情報などが含まれる。
入力項目表示部11Bは、入力支援システム1を利用して入力(保存)されるテキストデータと対応付けられる入力項目を含む複数の入力項目を端末装置11の表示画面に表示する。
発話音声データ取得部11Cは、入力支援システム1の利用者の発話音声を示す発話音声データを取得する。
図1は第1実施形態の入力支援システム1の構成の一例を示す図である。
図1に示す例では、入力支援システム1が、端末装置11と処理サーバ12とを備えている。端末装置11と処理サーバ12とは、例えばネットワーク(図示せず)などを介して通信可能に構成されている。
端末装置11は、入力項目情報取得部11Aと、入力項目表示部11Bと、発話音声データ取得部11Cと、認識結果表示部11Dと、認識結果選択操作受け付け部11Eと、入力可能項目活性化部11Fと、入力項目選択操作受け付け部11Gと、自動入力部11Hとを備えている。
入力項目情報取得部11Aは、入力支援システム1を利用して入力(保存)される情報(テキストデータ)に対応付けられる項目(入力項目)に関する情報である入力項目情報を、例えば入力支援システム1の外部から取得する。入力項目情報には、項目名に関する情報、入力形式に関する情報などが含まれる。
入力項目表示部11Bは、入力支援システム1を利用して入力(保存)されるテキストデータと対応付けられる入力項目を含む複数の入力項目を端末装置11の表示画面に表示する。
発話音声データ取得部11Cは、入力支援システム1の利用者の発話音声を示す発話音声データを取得する。
ここで、図1に示す例では、入力支援システム1の利用者の発話音声を発話音声データ(例えばデジタルデータ)にデータ化する機能が端末装置11に備えられているが、例えば端末装置11の他にICレコーダが用いられる例などのような他の例では、入力支援システム1の利用者の発話音声を発話音声データにデータ化する機能が端末装置11に備えられていなくてもよい。この例では、端末装置11の外部において、入力支援システム1の利用者の発話音声が発話音声データにデータ化され、発話音声データ取得部11Cが、端末装置11の外部から、その発話音声データを取得する。
図1に示す例では、処理サーバ12が、音声認識部12Aと、フィラー除去部12Bとを備えている。音声認識部12Aは、発話音声データ取得部11Cによって取得された発話音声データを音声認識してテキストデータを生成する。つまり、音声認識部12Aは、発話音声データ取得部11Cによって取得された発話音声データをテキストデータに変換する。
フィラー除去部12Bは、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声に含まれる例えば「えーと」、「えー」、「あー」、「あのー」、「そのー」等のフィラー(言い淀みを含む)を検出する。また、フィラー除去部12Bは、フィラーを検出した場合に、フィラーに対応するテキストデータを、音声認識部12Aによって生成されるテキストデータから除去する。
フィラー除去部12Bは、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声に含まれる例えば「えーと」、「えー」、「あー」、「あのー」、「そのー」等のフィラー(言い淀みを含む)を検出する。また、フィラー除去部12Bは、フィラーを検出した場合に、フィラーに対応するテキストデータを、音声認識部12Aによって生成されるテキストデータから除去する。
ここで、図1に示す例では、音声認識部12Aおよびフィラー除去部12Bが、端末装置11とは別個に設けられた処理サーバ12に備えられているが、他の例では、処理サーバ12が設けられず、音声認識部12Aおよびフィラー除去部12Bが端末装置11に備えられていてもよい。さらに他の例では、音声認識部12Aとフィラー除去部12Bとが、異なる複数のサーバに備えられていてもよい。
図1に示す例では、認識結果表示部11Dが、音声認識部12Aによって生成されたテキストデータを音声認識部12Aによる認識結果として端末装置11の表示画面に表示する。
入力項目選択操作受け付け部11Gは、入力項目表示部11Bによって表示された複数の入力項目から、認識結果表示部11Dによって表示されたテキストデータ(詳細には、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ)と対応付けられる入力項目を選択する操作を受け付ける。
さらに上述した入力項目表示部11Bは、複数の入力項目を端末装置11の表示画面の一部に表示する。また、上述した認識結果表示部11Dは、音声認識部12Aによって生成されたテキストデータを端末装置11の表示画面の他の一部に表示する。入力項目選択操作受け付け部11Gは、入力項目表示部11Bが複数の入力項目を端末装置11の表示画面に表示しており、かつ、認識結果表示部11Dが音声認識部12Aによって生成されたテキストデータを端末装置11の表示画面に表示している状態で、音声認識部12Aによって生成されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける。
そのため、図1に示す例では、入力支援システム1の利用者は、端末装置11の表示画面に表示されている複数の入力項目とテキストデータとを確認しながら、テキストデータと対応付けられる入力項目を複数の入力項目から選択する操作を容易に行うことができる。
入力項目選択操作受け付け部11Gは、入力項目表示部11Bによって表示された複数の入力項目から、認識結果表示部11Dによって表示されたテキストデータ(詳細には、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ)と対応付けられる入力項目を選択する操作を受け付ける。
さらに上述した入力項目表示部11Bは、複数の入力項目を端末装置11の表示画面の一部に表示する。また、上述した認識結果表示部11Dは、音声認識部12Aによって生成されたテキストデータを端末装置11の表示画面の他の一部に表示する。入力項目選択操作受け付け部11Gは、入力項目表示部11Bが複数の入力項目を端末装置11の表示画面に表示しており、かつ、認識結果表示部11Dが音声認識部12Aによって生成されたテキストデータを端末装置11の表示画面に表示している状態で、音声認識部12Aによって生成されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける。
そのため、図1に示す例では、入力支援システム1の利用者は、端末装置11の表示画面に表示されている複数の入力項目とテキストデータとを確認しながら、テキストデータと対応付けられる入力項目を複数の入力項目から選択する操作を容易に行うことができる。
また、利用者の発話音声には、無音区間が含まれる場合がある。
そこで、図1に示す例では、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声に、無音区間が含まれる場合に、音声認識部12Aは、発話音声データ取得部11Cによって取得された発話音声データのうちの無音区間よりも前の部分に対応するテキストデータである無音区間前テキストデータと、発話音声データ取得部11Cによって取得された発話音声データのうちの無音区間よりも後の部分に対応するテキストデータである無音区間後テキストデータとを生成する。
また、認識結果表示部11Dは、音声認識部12Aによって生成された無音区間前テキストデータと無音区間後テキストデータとを表示する。
認識結果選択操作受け付け部11Eは、認識結果表示部11Dによって表示されている無音区間前テキストデータおよび無音区間後テキストデータから、入力項目選択操作受け付け部11Gが受け付ける操作によって選択される入力項目と対応付けられるテキストデータを選択する操作を受け付ける。
そのため、図1に示す例では、入力支援システム1の利用者は、認識結果選択操作受け付け部11Eに対する操作を複数回実行することによって、無音区間によって区切られた複数のテキストデータのそれぞれを複数の入力項目のそれぞれに対応付ける操作を容易に行うことができる。
例えば、無音区間は、音声入力ボタン(マイクのボタン)をオフにすることによって、発話音声データに含められる。つまり、この例では、発話音声データが、利用者によって手動で、無音区間前テキストデータと無音区間後テキストデータとに区切られる。
他の例では、例えば入力支援システム1の管理者などによって、発話音声データが無音区間前テキストデータと無音区間後テキストデータとに手動で区切られてもよい。
さらに他の例では、入力支援システム1が、文脈で発話音声データの区切りを判断する機能を有し、発話音声データを無音区間前テキストデータと無音区間後テキストデータとに自動で区切ってもよい。
そこで、図1に示す例では、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声に、無音区間が含まれる場合に、音声認識部12Aは、発話音声データ取得部11Cによって取得された発話音声データのうちの無音区間よりも前の部分に対応するテキストデータである無音区間前テキストデータと、発話音声データ取得部11Cによって取得された発話音声データのうちの無音区間よりも後の部分に対応するテキストデータである無音区間後テキストデータとを生成する。
また、認識結果表示部11Dは、音声認識部12Aによって生成された無音区間前テキストデータと無音区間後テキストデータとを表示する。
認識結果選択操作受け付け部11Eは、認識結果表示部11Dによって表示されている無音区間前テキストデータおよび無音区間後テキストデータから、入力項目選択操作受け付け部11Gが受け付ける操作によって選択される入力項目と対応付けられるテキストデータを選択する操作を受け付ける。
そのため、図1に示す例では、入力支援システム1の利用者は、認識結果選択操作受け付け部11Eに対する操作を複数回実行することによって、無音区間によって区切られた複数のテキストデータのそれぞれを複数の入力項目のそれぞれに対応付ける操作を容易に行うことができる。
例えば、無音区間は、音声入力ボタン(マイクのボタン)をオフにすることによって、発話音声データに含められる。つまり、この例では、発話音声データが、利用者によって手動で、無音区間前テキストデータと無音区間後テキストデータとに区切られる。
他の例では、例えば入力支援システム1の管理者などによって、発話音声データが無音区間前テキストデータと無音区間後テキストデータとに手動で区切られてもよい。
さらに他の例では、入力支援システム1が、文脈で発話音声データの区切りを判断する機能を有し、発話音声データを無音区間前テキストデータと無音区間後テキストデータとに自動で区切ってもよい。
図1に示す例では、入力可能項目活性化部11Fが、入力項目表示部11Bによって表示された複数の入力項目のうち、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータと対応付け可能な入力項目である候補入力項目の表示を活性化する。
そのため、図1に示す例では、入力支援システム1の利用者は、活性化させられた端末装置11の表示画面に表示された候補入力項目を確認することによって、認識結果表示部11Dによって表示されたテキストデータと対応付け可能な入力項目を容易に理解することができる。
そのため、図1に示す例では、入力支援システム1の利用者は、活性化させられた端末装置11の表示画面に表示された候補入力項目を確認することによって、認識結果表示部11Dによって表示されたテキストデータと対応付け可能な入力項目を容易に理解することができる。
図1に示す例において、自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータと入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目との対応付けを実行する。また、自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータを、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目の表示欄(つまり、端末装置11の表示画面上の選択された入力項目の表示欄)に含める処理を実行する。
詳細には、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声にフィラーが含まれる場合に、自動入力部11Hは、フィラーに対応するテキストデータがフィラー除去部12Bによって除去された後のテキストデータであるフィラー除去後テキストデータを、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目の表示欄に含める処理を実行する。
一方、認識結果表示部11Dは、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声にフィラーが含まれる場合に、フィラーに対応するテキストデータがフィラー除去部12Bによって除去される前のテキストデータであるフィラー除去前テキストデータを端末装置11の表示画面に表示する。
そのため、図1に示す例では、入力支援システム1の利用者は、認識結果表示部11Dによって表示されたフィラー除去前テキストデータを確認することによって、自分の発話音声にフィラーが含まれるか否かを容易に把握することができる。
また、入力支援システム1の利用者は、認識結果表示部11Dによって表示されたフィラー除去前テキストデータと、自動入力部11Hによって入力項目の表示欄に含められたフィラー除去後テキストデータとを確認することによって、自分の発話音声に含まれるフィラーに対応するテキストデータが除去されたことを容易に把握することができる。
詳細には、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声にフィラーが含まれる場合に、自動入力部11Hは、フィラーに対応するテキストデータがフィラー除去部12Bによって除去された後のテキストデータであるフィラー除去後テキストデータを、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目の表示欄に含める処理を実行する。
一方、認識結果表示部11Dは、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声にフィラーが含まれる場合に、フィラーに対応するテキストデータがフィラー除去部12Bによって除去される前のテキストデータであるフィラー除去前テキストデータを端末装置11の表示画面に表示する。
そのため、図1に示す例では、入力支援システム1の利用者は、認識結果表示部11Dによって表示されたフィラー除去前テキストデータを確認することによって、自分の発話音声にフィラーが含まれるか否かを容易に把握することができる。
また、入力支援システム1の利用者は、認識結果表示部11Dによって表示されたフィラー除去前テキストデータと、自動入力部11Hによって入力項目の表示欄に含められたフィラー除去後テキストデータとを確認することによって、自分の発話音声に含まれるフィラーに対応するテキストデータが除去されたことを容易に把握することができる。
図2は第1実施形態の入力支援システム1の端末装置11の表示画面の一例を示す図である。
図2に示す例では、第1実施形態の入力支援システム1の端末装置11が商談記録の入力に用いられている。
図2(A)に示す段階では、端末装置11の発話音声データ取得部11C(図1参照)が、入力支援システム1の利用者の発話音声「○○○○○○○の紹介です。次回は社長さんに紹介することになりました。」を示す発話音声データを取得する。
処理サーバ12(図1参照)の音声認識部12A(図1参照)は、発話音声データ取得部11Cによって取得された発話音声データを音声認識してテキストデータを生成する。
詳細には、図2(A)に示す例では、入力支援システム1の利用者の発話音声に無音区間が含まれる。そこで、音声認識部12Aは、発話音声データ取得部11Cによって取得された発話音声データのうちの無音区間よりも前の部分に対応するテキストデータである無音区間前テキストデータ「○○○○○○○の紹介です。」と、発話音声データ取得部11Cによって取得された発話音声データのうちの無音区間よりも後の部分に対応するテキストデータである無音区間後テキストデータ「次回は社長さんに紹介することになりました。」とを生成する。
端末装置11の認識結果表示部11D(図1参照)は、音声認識部12Aによって生成された無音区間前テキストデータ「○○○○○○○の紹介です。」と無音区間後テキストデータ「次回は社長さんに紹介することになりました。」とを端末装置11の表示画面の右側部分(図2(A)に「音声メモ画面」と示す部分)に表示する。詳細には、認識結果表示部11Dは、タイムスタンプ「2020/06/11(木)10:23:40」を含めて無音区間前テキストデータ「○○○○○○○の紹介です。」を端末装置11の表示画面の右側部分に表示すると共に、タイムスタンプ「2020/06/11(木)10:23:54」を含めて無音区間後テキストデータ「次回は社長さんに紹介することになりました。」を端末装置11の表示画面の右側部分に表示する。
図2に示す例では、第1実施形態の入力支援システム1の端末装置11が商談記録の入力に用いられている。
図2(A)に示す段階では、端末装置11の発話音声データ取得部11C(図1参照)が、入力支援システム1の利用者の発話音声「○○○○○○○の紹介です。次回は社長さんに紹介することになりました。」を示す発話音声データを取得する。
処理サーバ12(図1参照)の音声認識部12A(図1参照)は、発話音声データ取得部11Cによって取得された発話音声データを音声認識してテキストデータを生成する。
詳細には、図2(A)に示す例では、入力支援システム1の利用者の発話音声に無音区間が含まれる。そこで、音声認識部12Aは、発話音声データ取得部11Cによって取得された発話音声データのうちの無音区間よりも前の部分に対応するテキストデータである無音区間前テキストデータ「○○○○○○○の紹介です。」と、発話音声データ取得部11Cによって取得された発話音声データのうちの無音区間よりも後の部分に対応するテキストデータである無音区間後テキストデータ「次回は社長さんに紹介することになりました。」とを生成する。
端末装置11の認識結果表示部11D(図1参照)は、音声認識部12Aによって生成された無音区間前テキストデータ「○○○○○○○の紹介です。」と無音区間後テキストデータ「次回は社長さんに紹介することになりました。」とを端末装置11の表示画面の右側部分(図2(A)に「音声メモ画面」と示す部分)に表示する。詳細には、認識結果表示部11Dは、タイムスタンプ「2020/06/11(木)10:23:40」を含めて無音区間前テキストデータ「○○○○○○○の紹介です。」を端末装置11の表示画面の右側部分に表示すると共に、タイムスタンプ「2020/06/11(木)10:23:54」を含めて無音区間後テキストデータ「次回は社長さんに紹介することになりました。」を端末装置11の表示画面の右側部分に表示する。
また、図2(A)に示す段階では、端末装置11の認識結果選択操作受け付け部11E(図1参照)が、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されている無音区間前テキストデータ「○○○○○○○の紹介です。」および無音区間後テキストデータ「次回は社長さんに紹介することになりました。」から、入力項目選択操作受け付け部11G(図1参照)が受け付ける操作によって選択される入力項目「件名」と対応付けられるテキストデータ「○○○○○○○の紹介です。」を選択する操作を受け付ける。
端末装置11の入力項目表示部11B(図1参照)は、入力支援システム1を利用して入力(保存)されるテキストデータ「○○○○○○○の紹介です。」と対応付けられる入力項目「件名」を含む複数の入力項目「件名」、「期日のみ」、「状況」、「説明」を端末装置11の表示画面の左側部分に表示している。
端末装置11の入力項目選択操作受け付け部11Gは、入力項目表示部11Bによって端末装置11の表示画面の左側部分に表示されている複数の入力項目「件名」、「期日のみ」、「状況」、「説明」から、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されたテキストデータ「○○○○○○○の紹介です。」と対応付けられる入力項目「件名」を選択する入力支援システム1の利用者の操作を受け付ける。
その結果、端末装置11の自動入力部11H(図1参照)は、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「○○○○○○○の紹介です。」と入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「件名」との対応付けを実行する。また、自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「○○○○○○○の紹介です。」を、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「件名」の表示欄に含める処理を実行する。
端末装置11の入力項目表示部11B(図1参照)は、入力支援システム1を利用して入力(保存)されるテキストデータ「○○○○○○○の紹介です。」と対応付けられる入力項目「件名」を含む複数の入力項目「件名」、「期日のみ」、「状況」、「説明」を端末装置11の表示画面の左側部分に表示している。
端末装置11の入力項目選択操作受け付け部11Gは、入力項目表示部11Bによって端末装置11の表示画面の左側部分に表示されている複数の入力項目「件名」、「期日のみ」、「状況」、「説明」から、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されたテキストデータ「○○○○○○○の紹介です。」と対応付けられる入力項目「件名」を選択する入力支援システム1の利用者の操作を受け付ける。
その結果、端末装置11の自動入力部11H(図1参照)は、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「○○○○○○○の紹介です。」と入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「件名」との対応付けを実行する。また、自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「○○○○○○○の紹介です。」を、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「件名」の表示欄に含める処理を実行する。
更に、図2(A)に示す段階では、端末装置11の認識結果選択操作受け付け部11Eが、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されている無音区間前テキストデータ「○○○○○○○の紹介です。」および無音区間後テキストデータ「次回は社長さんに紹介することになりました。」から、入力項目選択操作受け付け部11Gが受け付ける操作によって選択される入力項目「説明」と対応付けられるテキストデータ「次回は社長さんに紹介することになりました。」を選択する操作を受け付ける。
端末装置11の入力項目表示部11Bは、入力支援システム1を利用して入力(保存)されるテキストデータ「次回は社長さんに紹介することになりました。」と対応付けられる入力項目「説明」を含む複数の入力項目「件名」、「期日のみ」、「状況」、「説明」を端末装置11の表示画面の左側部分に表示している。
端末装置11の入力項目選択操作受け付け部11Gは、入力項目表示部11Bによって端末装置11の表示画面の左側部分に表示されている複数の入力項目「件名」、「期日のみ」、「状況」、「説明」から、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されたテキストデータ「次回は社長さんに紹介することになりました。」と対応付けられる入力項目「説明」を選択する入力支援システム1の利用者の操作を受け付ける。
そのため、端末装置11の自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「次回は社長さんに紹介することになりました。」と入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「説明」との対応付けを実行する。また、自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「次回は社長さんに紹介することになりました。」を、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「説明」の表示欄に含める処理を実行する。
その結果、端末装置11の表示画面が、図2(A)に示す状態になる。
端末装置11の入力項目表示部11Bは、入力支援システム1を利用して入力(保存)されるテキストデータ「次回は社長さんに紹介することになりました。」と対応付けられる入力項目「説明」を含む複数の入力項目「件名」、「期日のみ」、「状況」、「説明」を端末装置11の表示画面の左側部分に表示している。
端末装置11の入力項目選択操作受け付け部11Gは、入力項目表示部11Bによって端末装置11の表示画面の左側部分に表示されている複数の入力項目「件名」、「期日のみ」、「状況」、「説明」から、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されたテキストデータ「次回は社長さんに紹介することになりました。」と対応付けられる入力項目「説明」を選択する入力支援システム1の利用者の操作を受け付ける。
そのため、端末装置11の自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「次回は社長さんに紹介することになりました。」と入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「説明」との対応付けを実行する。また、自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「次回は社長さんに紹介することになりました。」を、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「説明」の表示欄に含める処理を実行する。
その結果、端末装置11の表示画面が、図2(A)に示す状態になる。
次いで、図2(B)に示す段階では、端末装置11の発話音声データ取得部11Cが、入力支援システム1の利用者の発話音声「事例の資料が必要です。メールで日程をアレンジします。」を示す発話音声データを取得する。
処理サーバ12の音声認識部12Aは、発話音声データ取得部11Cによって取得された発話音声データを音声認識してテキストデータを生成する。
詳細には、図2(B)に示す例では、入力支援システム1の利用者の発話音声に無音区間が含まれる。そこで、音声認識部12Aは、発話音声データ取得部11Cによって取得された発話音声データのうちの無音区間よりも前の部分に対応するテキストデータである無音区間前テキストデータ「事例の資料が必要です。」と、発話音声データ取得部11Cによって取得された発話音声データのうちの無音区間よりも後の部分に対応するテキストデータである無音区間後テキストデータ「メールで日程をアレンジします。」とを生成する。
端末装置11の認識結果表示部11Dは、音声認識部12Aによって生成された無音区間前テキストデータ「事例の資料が必要です。」と無音区間後テキストデータ「メールで日程をアレンジします。」とを端末装置11の表示画面の右側部分に表示する。詳細には、認識結果表示部11Dは、タイムスタンプ「2020/06/11(木)10:24:10」を含めて無音区間前テキストデータ「事例の資料が必要です。」および無音区間後テキストデータ「メールで日程をアレンジします。」を端末装置11の表示画面の右側部分に表示する。
図2(B)に示す例では、テキストデータが、無音区間によって2つのテキストデータ(無音区間前テキストデータ「事例の資料が必要です。」、無音区間後テキストデータ「メールで日程をアレンジします。」)に区切られ、2つのテキストデータが端末装置11の表示画面の右側部分に表示されるが、他の例では、テキストデータが、n個の無音区間によって(n+1)個のテキストデータ(n=2の例では、3個のテキストデータ「事例の資料が必要です。」、「詳しい資料を持っている△△さんに相談が必要です。」、「メールで日程をアレンジします。」)に区切られ、(n+1)個のテキストデータが端末装置11の表示画面の右側部分に表示されてもよい。
処理サーバ12の音声認識部12Aは、発話音声データ取得部11Cによって取得された発話音声データを音声認識してテキストデータを生成する。
詳細には、図2(B)に示す例では、入力支援システム1の利用者の発話音声に無音区間が含まれる。そこで、音声認識部12Aは、発話音声データ取得部11Cによって取得された発話音声データのうちの無音区間よりも前の部分に対応するテキストデータである無音区間前テキストデータ「事例の資料が必要です。」と、発話音声データ取得部11Cによって取得された発話音声データのうちの無音区間よりも後の部分に対応するテキストデータである無音区間後テキストデータ「メールで日程をアレンジします。」とを生成する。
端末装置11の認識結果表示部11Dは、音声認識部12Aによって生成された無音区間前テキストデータ「事例の資料が必要です。」と無音区間後テキストデータ「メールで日程をアレンジします。」とを端末装置11の表示画面の右側部分に表示する。詳細には、認識結果表示部11Dは、タイムスタンプ「2020/06/11(木)10:24:10」を含めて無音区間前テキストデータ「事例の資料が必要です。」および無音区間後テキストデータ「メールで日程をアレンジします。」を端末装置11の表示画面の右側部分に表示する。
図2(B)に示す例では、テキストデータが、無音区間によって2つのテキストデータ(無音区間前テキストデータ「事例の資料が必要です。」、無音区間後テキストデータ「メールで日程をアレンジします。」)に区切られ、2つのテキストデータが端末装置11の表示画面の右側部分に表示されるが、他の例では、テキストデータが、n個の無音区間によって(n+1)個のテキストデータ(n=2の例では、3個のテキストデータ「事例の資料が必要です。」、「詳しい資料を持っている△△さんに相談が必要です。」、「メールで日程をアレンジします。」)に区切られ、(n+1)個のテキストデータが端末装置11の表示画面の右側部分に表示されてもよい。
また、図2(B)に示す段階では、「(1)追記内容を選択(複数選択可)」で示すように、端末装置11の認識結果選択操作受け付け部11Eが、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されている無音区間前テキストデータ「事例の資料が必要です。」および無音区間後テキストデータ「メールで日程をアレンジします。」から、入力項目選択操作受け付け部11Gが受け付ける操作によって選択される入力項目「説明」と対応付けられるテキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」を選択する操作を受け付ける。
つまり、図2(B)に示す例では、追記内容として、2つの追記内容(テキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」)を選択する操作が、認識結果選択操作受け付け部11Eによって受け付けられる。
また、図2(B)に示す段階では、端末装置11の入力項目表示部11Bが、入力支援システム1を利用して入力(保存)されるテキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」と対応付けられる入力項目「説明」を含む複数の入力項目「件名」、「期日のみ」、「状況」、「説明」を端末装置11の表示画面の左側部分に表示している。
図2(B)に「(2)追記項目を選択」で示すように、端末装置11の入力項目選択操作受け付け部11Gは、入力項目表示部11Bによって端末装置11の表示画面の左側部分に表示されている複数の入力項目「件名」、「期日のみ」、「状況」、「説明」から、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されたテキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」と対応付けられる入力項目「説明」を選択する入力支援システム1の利用者の操作を受け付ける。
すなわち、入力項目選択操作受け付け部11Gは、入力項目表示部11Bによって複数の入力項目「件名」、「期日のみ」、「状況」、「説明」が端末装置11の表示画面の左側部分に表示されており、かつ、認識結果表示部11Dによってテキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」が端末装置11の表示画面の右側部分に表示されている状態で、テキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」と対応付けられる入力項目「説明」を選択する入力支援システム1の利用者の操作を受け付ける。
つまり、図2(B)に示す例では、追記内容として、2つの追記内容(テキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」)を選択する操作が、認識結果選択操作受け付け部11Eによって受け付けられる。
また、図2(B)に示す段階では、端末装置11の入力項目表示部11Bが、入力支援システム1を利用して入力(保存)されるテキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」と対応付けられる入力項目「説明」を含む複数の入力項目「件名」、「期日のみ」、「状況」、「説明」を端末装置11の表示画面の左側部分に表示している。
図2(B)に「(2)追記項目を選択」で示すように、端末装置11の入力項目選択操作受け付け部11Gは、入力項目表示部11Bによって端末装置11の表示画面の左側部分に表示されている複数の入力項目「件名」、「期日のみ」、「状況」、「説明」から、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されたテキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」と対応付けられる入力項目「説明」を選択する入力支援システム1の利用者の操作を受け付ける。
すなわち、入力項目選択操作受け付け部11Gは、入力項目表示部11Bによって複数の入力項目「件名」、「期日のみ」、「状況」、「説明」が端末装置11の表示画面の左側部分に表示されており、かつ、認識結果表示部11Dによってテキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」が端末装置11の表示画面の右側部分に表示されている状態で、テキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」と対応付けられる入力項目「説明」を選択する入力支援システム1の利用者の操作を受け付ける。
詳細には、図2(B)に示す段階では、入力可能項目活性化部11Fが、入力項目表示部11Bによって端末装置11の表示画面の左側部分に表示された複数の入力項目「件名」、「期日のみ」、「状況」、「説明」のうち、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されたテキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」と対応付け可能な入力項目である候補入力項目「件名」、「説明」の表示を活性化する。
図2(B)に示す例では、入力項目選択操作受け付け部11Gが、候補入力項目「件名」、「説明」から、入力項目「説明」を選択する入力支援システム1の利用者の操作を受け付ける。
その結果、図2(C)に示すように、端末装置11の自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」と入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「説明」との対応付けを実行する。また、図2(C)に「(3)追記完了」で示すように、自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」を、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「説明」の表示欄に含める(詳細には、追記する)処理を実行する。
図2に示す例では、入力項目「説明」の表示欄が、任意のテキストデータを含めることができる自由記述型である。一方、入力項目「状況」の表示欄は、利用者がマーク「∨」をタップすることによって表示される複数の選択肢のうちの1つ「In Progress」が選択される選択肢型である。
このように、テキストデータが選択されると、対応付け可能な入力項目として、入力項目に対応つけられた型(テキスト型、数値型など)に基づいて、選択したテキストデータを入力可能な項目が選定され、候補入力項目として活性化する。尚、上述では入力項目に対応付けられた型に基づく活性化を示しているが、これに限らず、選択したテキストデータに含まれる文字列の読みを、入力項目名や、項目に入力されるべく予め対応付けられた文字列と一致または類似する場合に、候補入力項目として活性化するようにしても良い。
図2(B)に示す例では、入力項目選択操作受け付け部11Gが、候補入力項目「件名」、「説明」から、入力項目「説明」を選択する入力支援システム1の利用者の操作を受け付ける。
その結果、図2(C)に示すように、端末装置11の自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」と入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「説明」との対応付けを実行する。また、図2(C)に「(3)追記完了」で示すように、自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「事例の資料が必要です。」およびテキストデータ「メールで日程をアレンジします。」を、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「説明」の表示欄に含める(詳細には、追記する)処理を実行する。
図2に示す例では、入力項目「説明」の表示欄が、任意のテキストデータを含めることができる自由記述型である。一方、入力項目「状況」の表示欄は、利用者がマーク「∨」をタップすることによって表示される複数の選択肢のうちの1つ「In Progress」が選択される選択肢型である。
このように、テキストデータが選択されると、対応付け可能な入力項目として、入力項目に対応つけられた型(テキスト型、数値型など)に基づいて、選択したテキストデータを入力可能な項目が選定され、候補入力項目として活性化する。尚、上述では入力項目に対応付けられた型に基づく活性化を示しているが、これに限らず、選択したテキストデータに含まれる文字列の読みを、入力項目名や、項目に入力されるべく予め対応付けられた文字列と一致または類似する場合に、候補入力項目として活性化するようにしても良い。
端末装置11を利用して商談報告を行う利用者は、業務の合間に必要な情報を音声で入力しておき、後に入力しておいた情報を利用して報告データを作成する場合が多い。
そこで、図2に示す例では、上述したように音声認識結果を一時保存する機能が追加されている。そのため、入力支援システム1の利用者は、保存された音声メモを選択することによって(つまり、端末装置11の表示画面の右側部分に表示されているテキストデータを選択することによって)、そのテキストデータを、端末装置11の表示画面の左側部分に表示されている入力項目に追記することができる。
そこで、図2に示す例では、上述したように音声認識結果を一時保存する機能が追加されている。そのため、入力支援システム1の利用者は、保存された音声メモを選択することによって(つまり、端末装置11の表示画面の右側部分に表示されているテキストデータを選択することによって)、そのテキストデータを、端末装置11の表示画面の左側部分に表示されている入力項目に追記することができる。
図3は第1実施形態の入力支援システム1の端末装置11の表示画面の他の例を示す図である。
図3に示す例では、第1実施形態の入力支援システム1の端末装置11が新規商談の入力に用いられている。
図3(A)に示す段階では、端末装置11の発話音声データ取得部11Cが、入力支援システム1の利用者の発話音声「えーと、○○○○○○○の紹介です。」を示す発話音声データを取得する。
処理サーバ12の音声認識部12Aは、発話音声データ取得部11Cによって取得された発話音声データを音声認識してテキストデータを生成する。
詳細には、図3(A)に示す例では、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声「えーと、○○○○○○○の紹介です。」にフィラーが含まれている。そのため、処理サーバ12のフィラー除去部12B(図1参照)は、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声「えーと、○○○○○○○の紹介です。」に含まれるフィラーを検出する。また、フィラー除去部12Bは、フィラーに対応するテキストデータ「えーと」を、音声認識部12Aによって生成されるテキストデータ「えーと、○○○○○○○の紹介です。」から除去する。
端末装置11の認識結果表示部11Dは、音声認識部12Aによって生成されたテキストデータ「えーと、○○○○○○○の紹介です。」を端末装置11の表示画面の右側部分に表示する。
すなわち、認識結果表示部11Dは、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声「えーと、○○○○○○○の紹介です。」に含まれるフィラーに対応するテキストデータ「えーと」がフィラー除去部12Bによって除去される前のテキストデータであるフィラー除去前テキストデータ「えーと、○○○○○○○の紹介です。」を端末装置11の表示画面の右側部分に表示する。
図3に示す例では、第1実施形態の入力支援システム1の端末装置11が新規商談の入力に用いられている。
図3(A)に示す段階では、端末装置11の発話音声データ取得部11Cが、入力支援システム1の利用者の発話音声「えーと、○○○○○○○の紹介です。」を示す発話音声データを取得する。
処理サーバ12の音声認識部12Aは、発話音声データ取得部11Cによって取得された発話音声データを音声認識してテキストデータを生成する。
詳細には、図3(A)に示す例では、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声「えーと、○○○○○○○の紹介です。」にフィラーが含まれている。そのため、処理サーバ12のフィラー除去部12B(図1参照)は、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声「えーと、○○○○○○○の紹介です。」に含まれるフィラーを検出する。また、フィラー除去部12Bは、フィラーに対応するテキストデータ「えーと」を、音声認識部12Aによって生成されるテキストデータ「えーと、○○○○○○○の紹介です。」から除去する。
端末装置11の認識結果表示部11Dは、音声認識部12Aによって生成されたテキストデータ「えーと、○○○○○○○の紹介です。」を端末装置11の表示画面の右側部分に表示する。
すなわち、認識結果表示部11Dは、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声「えーと、○○○○○○○の紹介です。」に含まれるフィラーに対応するテキストデータ「えーと」がフィラー除去部12Bによって除去される前のテキストデータであるフィラー除去前テキストデータ「えーと、○○○○○○○の紹介です。」を端末装置11の表示画面の右側部分に表示する。
次いで、図3(B)に示す段階では、端末装置11の認識結果選択操作受け付け部11Eが、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されているテキストデータ「えーと、○○○○○○○の紹介です。」を、入力項目選択操作受け付け部11Gが受け付ける操作によって選択される入力項目「商談名」と対応付けられるテキストデータとして選択する操作を受け付ける。
端末装置11の入力項目表示部11Bは、入力支援システム1を利用して入力(保存)されるテキストデータ「○○○○○○○の紹介です。」と対応付けられる入力項目「商談名」を含む複数の入力項目「取引先」、「商談名」、「商談種別」、「リードソース」、「フェーズ」、「金額」、「完了予定日」、「次のステップ」、「説明」を端末装置11の表示画面の左側部分に表示している。
端末装置11の入力項目選択操作受け付け部11Gは、入力項目表示部11Bによって端末装置11の表示画面の左側部分に表示されている複数の入力項目「取引先」、「商談名」、「商談種別」、「リードソース」、「フェーズ」、「金額」、「完了予定日」、「次のステップ」、「説明」から、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されたテキストデータ「えーと、○○○○○○○の紹介です。」と対応付けられる入力項目「商談名」を選択する入力支援システム1の利用者の操作を受け付ける。
その結果、端末装置11の自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「えーと、○○○○○○○の紹介です。」と入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「商談名」との対応付けを実行する。
また、自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「えーと、○○○○○○○の紹介です。」を、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「件名」の表示欄に含める処理を実行する。
詳細には、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声「えーと、○○○○○○○の紹介です。」にフィラーが含まれるため、自動入力部11Hは、フィラー除去部12Bによってフィラーに対応するテキストデータ「えーと」が除去された後のテキストデータであるフィラー除去後テキストデータ「○○○○○○○の紹介です。」を、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「商談名」の表示欄に含める処理を実行する。
端末装置11の入力項目表示部11Bは、入力支援システム1を利用して入力(保存)されるテキストデータ「○○○○○○○の紹介です。」と対応付けられる入力項目「商談名」を含む複数の入力項目「取引先」、「商談名」、「商談種別」、「リードソース」、「フェーズ」、「金額」、「完了予定日」、「次のステップ」、「説明」を端末装置11の表示画面の左側部分に表示している。
端末装置11の入力項目選択操作受け付け部11Gは、入力項目表示部11Bによって端末装置11の表示画面の左側部分に表示されている複数の入力項目「取引先」、「商談名」、「商談種別」、「リードソース」、「フェーズ」、「金額」、「完了予定日」、「次のステップ」、「説明」から、認識結果表示部11Dによって端末装置11の表示画面の右側部分に表示されたテキストデータ「えーと、○○○○○○○の紹介です。」と対応付けられる入力項目「商談名」を選択する入力支援システム1の利用者の操作を受け付ける。
その結果、端末装置11の自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「えーと、○○○○○○○の紹介です。」と入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「商談名」との対応付けを実行する。
また、自動入力部11Hは、認識結果選択操作受け付け部11Eが受け付けた操作によって選択されたテキストデータ「えーと、○○○○○○○の紹介です。」を、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「件名」の表示欄に含める処理を実行する。
詳細には、発話音声データ取得部11Cによって取得された発話音声データが示す利用者の発話音声「えーと、○○○○○○○の紹介です。」にフィラーが含まれるため、自動入力部11Hは、フィラー除去部12Bによってフィラーに対応するテキストデータ「えーと」が除去された後のテキストデータであるフィラー除去後テキストデータ「○○○○○○○の紹介です。」を、入力項目選択操作受け付け部11Gが受け付けた操作によって選択された入力項目「商談名」の表示欄に含める処理を実行する。
すなわち、図3に示す例では、音声認識結果に含まれるフィラーを除去し、入力項目に反映する機能が追加されている。そのため、入力支援システム1の利用者は、自分の発話音声にフィラーが含まれてもよいという安心感を持ちながら入力支援システム1を利用することができる。
図4は図3に示す例において第1実施形態の入力支援システム1によって実行される処理の一例を説明するためのシーケンス図である。
図4に示す例では、ステップS1において、端末装置11の入力項目情報取得部11Aが、入力支援システム1を利用して入力(保存)される情報(テキストデータ)に対応付けられる項目(入力項目)に関する情報である入力項目情報を、例えば入力支援システム1の外部のCRM(Customer Relationship Management)システムから取得する。
例えば、複数種類の報告書のテンプレートがCRMシステムにあらかじめ用意され、顧客(入力支援システム1の利用者)の業種に応じて選択された報告書のテンプレート(入力項目情報)が、入力項目情報取得部11Aによって取得される。他の例では、入力項目情報取得部11Aが、音声認識されたテキストデータに基づいて、対応しうる入力項目情報(テンプレート)を自動で呼び出してもよい。この例では、入力項目情報取得部11Aによる入力項目情報の取得が、音声認識よりも後に実行される。また、この例では、音声認識される内容(つまり、利用者の発言内容)が多いほど、入力項目情報取得部11Aによって取得される入力項目情報(テンプレート)に含まれる項目の数が多くなる。
次いで、ステップS2では、端末装置11の入力項目表示部11Bが、入力支援システム1を利用して入力(保存)されるテキストデータと対応付けられる入力項目を含む複数の入力項目を端末装置11の表示画面の左側部分に表示する。
次いで、ステップS3では、端末装置11の発話音声データ取得部11Cが、入力支援システム1の利用者の発話音声を示す発話音声データを取得し、処理サーバ12にアップロードする。
次いで、ステップS4では、処理サーバ12の音声認識部12Aが、ステップS3において取得された発話音声データを音声認識してテキストデータを生成する。
次いで、ステップS5では、処理サーバ12のフィラー除去部12Bが、ステップS3において取得された発話音声データが示す利用者の発話音声に含まれるフィラーを検出し、フィラーに対応するテキストデータを、ステップS4において生成されたテキストデータから除去する。
図4に示す例では、ステップS1において、端末装置11の入力項目情報取得部11Aが、入力支援システム1を利用して入力(保存)される情報(テキストデータ)に対応付けられる項目(入力項目)に関する情報である入力項目情報を、例えば入力支援システム1の外部のCRM(Customer Relationship Management)システムから取得する。
例えば、複数種類の報告書のテンプレートがCRMシステムにあらかじめ用意され、顧客(入力支援システム1の利用者)の業種に応じて選択された報告書のテンプレート(入力項目情報)が、入力項目情報取得部11Aによって取得される。他の例では、入力項目情報取得部11Aが、音声認識されたテキストデータに基づいて、対応しうる入力項目情報(テンプレート)を自動で呼び出してもよい。この例では、入力項目情報取得部11Aによる入力項目情報の取得が、音声認識よりも後に実行される。また、この例では、音声認識される内容(つまり、利用者の発言内容)が多いほど、入力項目情報取得部11Aによって取得される入力項目情報(テンプレート)に含まれる項目の数が多くなる。
次いで、ステップS2では、端末装置11の入力項目表示部11Bが、入力支援システム1を利用して入力(保存)されるテキストデータと対応付けられる入力項目を含む複数の入力項目を端末装置11の表示画面の左側部分に表示する。
次いで、ステップS3では、端末装置11の発話音声データ取得部11Cが、入力支援システム1の利用者の発話音声を示す発話音声データを取得し、処理サーバ12にアップロードする。
次いで、ステップS4では、処理サーバ12の音声認識部12Aが、ステップS3において取得された発話音声データを音声認識してテキストデータを生成する。
次いで、ステップS5では、処理サーバ12のフィラー除去部12Bが、ステップS3において取得された発話音声データが示す利用者の発話音声に含まれるフィラーを検出し、フィラーに対応するテキストデータを、ステップS4において生成されたテキストデータから除去する。
次いで、ステップS6では、端末装置11の認識結果表示部11Dが、ステップS4において生成されたテキストデータを音声認識部12Aによる認識結果として端末装置11の表示画面の右側部分に表示する。
次いで、ステップS7では、端末装置11の認識結果選択操作受け付け部11Eが、ステップS6において表示されたテキストデータから、端末装置11の入力項目選択操作受け付け部11Gが受け付ける操作によって選択される入力項目と対応付けられるテキストデータを選択する操作を受け付ける。
次いで、ステップS8では、端末装置11の入力可能項目活性化部11Fが、ステップS2において表示された複数の入力項目のうち、ステップS7において受け付けられた操作によって選択されたテキストデータと対応付け可能な入力項目である候補入力項目の表示を活性化する。
次いで、ステップS9では、端末装置11の入力項目選択操作受け付け部11Gが、ステップS2において表示された複数の入力項目から、ステップS7において受け付けられた操作によって選択されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける。
すなわち、ステップS9において、入力項目選択操作受け付け部11Gは、複数の入力項目が表示されており、かつ、ステップS4において生成されたテキストデータが表示されている状態で、ステップS4において生成されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける。
次いで、ステップS7では、端末装置11の認識結果選択操作受け付け部11Eが、ステップS6において表示されたテキストデータから、端末装置11の入力項目選択操作受け付け部11Gが受け付ける操作によって選択される入力項目と対応付けられるテキストデータを選択する操作を受け付ける。
次いで、ステップS8では、端末装置11の入力可能項目活性化部11Fが、ステップS2において表示された複数の入力項目のうち、ステップS7において受け付けられた操作によって選択されたテキストデータと対応付け可能な入力項目である候補入力項目の表示を活性化する。
次いで、ステップS9では、端末装置11の入力項目選択操作受け付け部11Gが、ステップS2において表示された複数の入力項目から、ステップS7において受け付けられた操作によって選択されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける。
すなわち、ステップS9において、入力項目選択操作受け付け部11Gは、複数の入力項目が表示されており、かつ、ステップS4において生成されたテキストデータが表示されている状態で、ステップS4において生成されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける。
次いで、ステップS10では、端末装置11の自動入力部11Hが、ステップS7において受け付けられた操作によって選択されたテキストデータとステップS9において受け付けられた操作によって選択された入力項目との対応付けを実行する。
また、ステップS10では、自動入力部11Hが、ステップS7において受け付けられた操作によって選択されたテキストデータを、ステップS9において受け付けられた操作によって選択された入力項目の表示欄(つまり、端末装置11の表示画面上の選択された入力項目の表示欄)に含める処理を実行する。
次いで、ステップS11では、端末装置11が、端末装置11に入力された内容(端末装置11の表示画面に表示されている内容)を保存する(CRMシステムに登録する)処理を実行する。
図3および図4に示す例では、発話音声データ取得部11Cが発話音声データを取得し、音声認識部12Aがテキストデータを生成した後に、フィラー除去部12Bが、発話音声に含まれるフィラーに対応するテキストデータを除去する。他の例では、入力項目へ入力する際に処理サーバ12と通信を行い、フィラー除去部12Bがフィラーを除去してもよい。例えば、入力項目への入力を行う際に、該当のテキストデータのフィラーの判定となった個所はどこなのか表示し、そのフィラー除去をするかしないか、利用者に選択させてもよい。
また、ステップS10では、自動入力部11Hが、ステップS7において受け付けられた操作によって選択されたテキストデータを、ステップS9において受け付けられた操作によって選択された入力項目の表示欄(つまり、端末装置11の表示画面上の選択された入力項目の表示欄)に含める処理を実行する。
次いで、ステップS11では、端末装置11が、端末装置11に入力された内容(端末装置11の表示画面に表示されている内容)を保存する(CRMシステムに登録する)処理を実行する。
図3および図4に示す例では、発話音声データ取得部11Cが発話音声データを取得し、音声認識部12Aがテキストデータを生成した後に、フィラー除去部12Bが、発話音声に含まれるフィラーに対応するテキストデータを除去する。他の例では、入力項目へ入力する際に処理サーバ12と通信を行い、フィラー除去部12Bがフィラーを除去してもよい。例えば、入力項目への入力を行う際に、該当のテキストデータのフィラーの判定となった個所はどこなのか表示し、そのフィラー除去をするかしないか、利用者に選択させてもよい。
多くの企業で顧客との関係維持を目的に、自社営業担当者の訪問記録等のやりとりを専用のCRMシステムに登録することを推進している。
しかし、日常業務である顧客とのやりとりを全て登録することは、入力を行う営業担当者にとって負担に感じられることも多く、十分なデータが集まりづらい。
昨今、こうしたシステムへの入力の簡易化に音声認識技術の活用が進んでいるが、CRMシステムは顧客管理を円滑に行うことを目的に入力項目の種類を選択型や数値型等に分けていることが多く、発話を音声認識技術でテキスト化したものの、この項目型に合わせて必要情報のみを入力するのに手間がかかる課題がある。またモバイルによる音声入力にあった使い方として、外出中の隙間時間に発話したいというニーズがある。
しかし、日常業務である顧客とのやりとりを全て登録することは、入力を行う営業担当者にとって負担に感じられることも多く、十分なデータが集まりづらい。
昨今、こうしたシステムへの入力の簡易化に音声認識技術の活用が進んでいるが、CRMシステムは顧客管理を円滑に行うことを目的に入力項目の種類を選択型や数値型等に分けていることが多く、発話を音声認識技術でテキスト化したものの、この項目型に合わせて必要情報のみを入力するのに手間がかかる課題がある。またモバイルによる音声入力にあった使い方として、外出中の隙間時間に発話したいというニーズがある。
第1実施形態の入力支援システム1では、上記の課題とニーズを解決することができ、自社営業担当者の音声からCRMシステムへの入力を簡易に行うことが可能となる。
上述したように、第1実施形態の入力支援システム1は、CRMシステムの入力項目の情報と、自社営業担当者の声を音声認識した結果を取り込み、CRMシステムへのデータ登録を想定した項目選択や言い淀み等のフィラー除去を行う。音声認識結果は端末装置11の表示画面に表示され、利用者の操作により、項目入力を可能とする。
第1実施形態の入力支援システム1を用いることによって、営業担当者は、外出中の隙間時間にCRMシステムへの入力を音声で簡易に行うことができる。
上述したように、第1実施形態の入力支援システム1は、CRMシステムの入力項目の情報と、自社営業担当者の声を音声認識した結果を取り込み、CRMシステムへのデータ登録を想定した項目選択や言い淀み等のフィラー除去を行う。音声認識結果は端末装置11の表示画面に表示され、利用者の操作により、項目入力を可能とする。
第1実施形態の入力支援システム1を用いることによって、営業担当者は、外出中の隙間時間にCRMシステムへの入力を音声で簡易に行うことができる。
[適用例]
第1実施形態の入力支援システム1が適用される一例では、端末装置11として機能するスマートフォンから、音声認識部12Aとして機能するエージェントAI(人工知能)に音声で営業報告が行われる。
第1実施形態の入力支援システム1を用いることによって、営業や保守業務等の報告にかかる負荷を軽減し、働き方改革を促進することができる。
スマートフォンから音声入力で報告内容をCRMシステムに登録することができる。
第1実施形態の入力支援システム1を用いることによって、複数ある入力内容を音声で一括登録できるクラウドサービスを提供することができ、移動時間を活用した営業報告や業務報告が可能になり、タイムリーな報告で報告数の向上を実現することができる。
第1実施形態の入力支援システム1はフィラー除去機能を有するため、自然な言葉遣い(話し方)での音声入力が可能になり、入力を簡単に行うことができる。
第1実施形態の入力支援システム1の利用者の移動中の時間を活用することができ、タイムリーに報告を行うことができる。
第1実施形態の入力支援システム1が適用される一例では、端末装置11として機能するスマートフォンから、音声認識部12Aとして機能するエージェントAI(人工知能)に音声で営業報告が行われる。
第1実施形態の入力支援システム1を用いることによって、営業や保守業務等の報告にかかる負荷を軽減し、働き方改革を促進することができる。
スマートフォンから音声入力で報告内容をCRMシステムに登録することができる。
第1実施形態の入力支援システム1を用いることによって、複数ある入力内容を音声で一括登録できるクラウドサービスを提供することができ、移動時間を活用した営業報告や業務報告が可能になり、タイムリーな報告で報告数の向上を実現することができる。
第1実施形態の入力支援システム1はフィラー除去機能を有するため、自然な言葉遣い(話し方)での音声入力が可能になり、入力を簡単に行うことができる。
第1実施形態の入力支援システム1の利用者の移動中の時間を活用することができ、タイムリーに報告を行うことができる。
<第2実施形態>
以下、本発明の入力支援システム、入力支援方法およびプログラムの第2実施形態について説明する。
第2実施形態の入力支援システム1は、後述する点を除き、上述した第1実施形態の入力支援システム1と同様に構成されている。従って、第2実施形態の入力支援システム1によれば、後述する点を除き、上述した第1実施形態の入力支援システム1と同様の効果を奏することができる。
以下、本発明の入力支援システム、入力支援方法およびプログラムの第2実施形態について説明する。
第2実施形態の入力支援システム1は、後述する点を除き、上述した第1実施形態の入力支援システム1と同様に構成されている。従って、第2実施形態の入力支援システム1によれば、後述する点を除き、上述した第1実施形態の入力支援システム1と同様の効果を奏することができる。
第1実施形態の入力支援システム1では、入力項目情報取得部11Aが、入力項目情報をCRMシステム(図4参照)から取得するが、第2実施形態の入力支援システム1では、入力項目情報取得部11Aが、入力項目情報をCRMシステム以外のものから取得する。
つまり、第2実施形態の入力支援システム1は、顧客との関係維持以外のこと(介護記録の入力、救急搬送時の情報伝達など)を目的として用いられる。
つまり、第2実施形態の入力支援システム1は、顧客との関係維持以外のこと(介護記録の入力、救急搬送時の情報伝達など)を目的として用いられる。
<変形例>
区切られたテキストデータ(図2、図3における吹き出し)のうち、1つあるいは複数のものを指定すると、端末装置11の入力可能項目活性化部11Fは、インプット可能な入力項目をアクティブに(活性化)するが、指定されたテキストデータと入力項目の対応付けは、例えば入力型だけではなく、キーワードや指定されたテキストデータの内容等としてもよい。例えば、指定されたテキストデータの中に、「特定の会社名」「地名」等、場所に関するキーワードが含まれている場合は入力項目「訪問場所」が活性化される。また、AI等、文脈を理解する機能を持った構成を設けることにより、指定されたテキストデータの文脈に合った入力項目を活性化したり、入力項目に既に入力されている内容と指定されたテキストデータの内容を比較することで、該当する入力項目を活性化したりしても良い。
区切られたテキストデータ(図2、図3における吹き出し)のうち、1つあるいは複数のものを指定すると、端末装置11の入力可能項目活性化部11Fは、インプット可能な入力項目をアクティブに(活性化)するが、指定されたテキストデータと入力項目の対応付けは、例えば入力型だけではなく、キーワードや指定されたテキストデータの内容等としてもよい。例えば、指定されたテキストデータの中に、「特定の会社名」「地名」等、場所に関するキーワードが含まれている場合は入力項目「訪問場所」が活性化される。また、AI等、文脈を理解する機能を持った構成を設けることにより、指定されたテキストデータの文脈に合った入力項目を活性化したり、入力項目に既に入力されている内容と指定されたテキストデータの内容を比較することで、該当する入力項目を活性化したりしても良い。
入力支援システム1において、テキストデータをインプットするための入力項目が複数組み合わされた、報告書のテンプレート(入力項目情報)が、予め用意されており、テキストデータの内容に基づいて、該当するテンプレートを呼び出してもよい。
複数の報告書を作成したい場合に、報告書を1つずつ作成可能であってもつまり、1つの報告書に対して入力を完了し保存すると、次の報告書がインプット可能となってもよい。
あるいは、複数の報告書を同時進行で作成可能であってもよい。つまり、保存をしなくても区切られたテキストデータ(吹き出し)を指定すると、テキストデータの内容に基づいて該当の報告書が読み出され、インプット可能となってもよい。
該当の報告書を読み出す仕組みとして、例えば指定したテキストデータ(吹き出し)のキーワードや文脈等から、報告書に必要な入力項目が追加されていく、あるいは、適切な報告書のテンプレートが呼び出される、指定したテキストデータのキーワードや文脈等から、複数作成途中の報告書が存在する場合に、該当する報告書が特定される等が可能である。
複数の報告書を作成したい場合に、報告書を1つずつ作成可能であってもつまり、1つの報告書に対して入力を完了し保存すると、次の報告書がインプット可能となってもよい。
あるいは、複数の報告書を同時進行で作成可能であってもよい。つまり、保存をしなくても区切られたテキストデータ(吹き出し)を指定すると、テキストデータの内容に基づいて該当の報告書が読み出され、インプット可能となってもよい。
該当の報告書を読み出す仕組みとして、例えば指定したテキストデータ(吹き出し)のキーワードや文脈等から、報告書に必要な入力項目が追加されていく、あるいは、適切な報告書のテンプレートが呼び出される、指定したテキストデータのキーワードや文脈等から、複数作成途中の報告書が存在する場合に、該当する報告書が特定される等が可能である。
以上説明した少なくともひとつの実施形態によれば、入力支援システム1は、端末装置11を備える入力支援システム1であって、発話音声データ取得部11Cと音声認識部12Aと入力項目表示部11Bと認識結果表示部11Dと入力項目選択操作受け付け部11Gとを備える。発話音声データ取得部11Cは利用者の発話音声を示す発話音声データを取得する。音声認識部12Aは発話音声データ取得部11Cによって取得された発話音声データを音声認識してテキストデータを生成する。入力項目表示部11Bは音声認識部12Aによって生成されたテキストデータと対応付けられる入力項目を含む複数の入力項目を表示する。認識結果表示部11Dは音声認識部12Aによって生成されたテキストデータを音声認識部12Aによる認識結果として表示する。入力項目選択操作受け付け部11Gは入力項目表示部11Bによって表示された複数の入力項目から、認識結果表示部11Dによって表示されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける。入力項目表示部11Bは、複数の入力項目を端末装置11の表示画面の一部に表示し、認識結果表示部11Dは、テキストデータを端末装置11の表示画面の他の一部に表示する。入力項目選択操作受け付け部11Gは、入力項目表示部11Bが複数の入力項目を表示しており、かつ、認識結果表示部11Dがテキストデータを表示している状態で、テキストデータと対応付けられる入力項目を選択する操作を受け付ける。それにより、入力操作の簡易性を向上させることができる。
なお、上述した実施形態(変形例を含む)における入力支援システム1の少なくとも一部の機能をコンピュータで実現するようにしても良い。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM、DVD-ROM、USBメモリ等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…入力支援システム、11…端末装置、11A…入力項目情報取得部、11B…入力項目表示部、11C…発話音声データ取得部、11D…認識結果表示部、11E…認識結果選択操作受け付け部、11F…入力可能項目活性化部、11G…入力項目選択操作受け付け部、11H…自動入力部、12…処理サーバ、12A…音声認識部、12B…フィラー除去部
Claims (7)
- 端末装置を備える入力支援システムであって、
利用者の発話音声を示す発話音声データを取得する発話音声データ取得部と、
前記発話音声データ取得部によって取得された発話音声データを音声認識してテキストデータを生成する音声認識部と、
前記音声認識部によって生成されたテキストデータと対応付けられる入力項目を含む複数の入力項目を表示する入力項目表示部と、
前記音声認識部によって生成されたテキストデータを前記音声認識部による認識結果として表示する認識結果表示部と、
前記入力項目表示部によって表示された複数の入力項目から、前記認識結果表示部によって表示されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける入力項目選択操作受け付け部とを備え、
前記入力項目表示部は、複数の入力項目を前記端末装置の表示画面の一部に表示し、
前記認識結果表示部は、前記音声認識部によって生成されたテキストデータを前記端末装置の表示画面の他の一部に表示し、
前記入力項目選択操作受け付け部は、前記入力項目表示部が複数の入力項目を表示しており、かつ、前記認識結果表示部が前記音声認識部によって生成されたテキストデータを表示している状態で、前記音声認識部によって生成されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける、
入力支援システム。 - 前記発話音声データ取得部によって取得された発話音声データが示す利用者の発話音声に、無音区間が含まれる場合に、
前記音声認識部は、前記発話音声データ取得部によって取得された発話音声データのうちの無音区間よりも前の部分に対応するテキストデータである無音区間前テキストデータと、前記発話音声データ取得部によって取得された発話音声データのうちの無音区間よりも後の部分に対応するテキストデータである無音区間後テキストデータとを生成し、
前記認識結果表示部は、前記音声認識部によって生成された無音区間前テキストデータと無音区間後テキストデータとを表示し、
前記認識結果表示部によって表示されている無音区間前テキストデータおよび無音区間後テキストデータから、前記入力項目選択操作受け付け部が受け付ける操作によって選択される入力項目と対応付けられるテキストデータを選択する操作を受け付ける認識結果選択操作受け付け部を備える、
請求項1に記載の入力支援システム。 - 前記入力項目表示部によって表示された複数の入力項目のうち、前記認識結果選択操作受け付け部が受け付けた操作によって選択されたテキストデータと対応付け可能な入力項目である候補入力項目の表示を活性化する入力可能項目活性化部を備える、
請求項2に記載の入力支援システム。 - 前記認識結果選択操作受け付け部が受け付けた操作によって選択されたテキストデータと前記入力項目選択操作受け付け部が受け付けた操作によって選択された入力項目との対応付けを実行し、前記認識結果選択操作受け付け部が受け付けた操作によって選択されたテキストデータを、前記入力項目選択操作受け付け部が受け付けた操作によって選択された入力項目の表示欄に含める処理を実行する自動入力部を備える、
請求項2に記載の入力支援システム。 - 前記発話音声データ取得部によって取得された発話音声データが示す利用者の発話音声に含まれるフィラーに対応するテキストデータを、前記音声認識部によって生成されるテキストデータから除去するフィラー除去部を備え、
前記認識結果表示部は、前記フィラー除去部によってフィラーに対応するテキストデータが除去される前のテキストデータであるフィラー除去前テキストデータを表示し、
前記自動入力部は、前記フィラー除去部によってフィラーに対応するテキストデータが除去された後のテキストデータであるフィラー除去後テキストデータを、前記入力項目選択操作受け付け部が受け付けた操作によって選択された入力項目の表示欄に含める処理を実行する、
請求項4に記載の入力支援システム。 - 少なくとも端末装置を用いる入力支援方法であって、
利用者の発話音声を示す発話音声データを取得する発話音声データ取得ステップと、
前記発話音声データ取得ステップにおいて取得された発話音声データを音声認識してテキストデータを生成する音声認識ステップと、
前記音声認識ステップにおいて生成されたテキストデータと対応付けられる入力項目を含む複数の入力項目を表示する入力項目表示ステップと、
前記音声認識ステップにおいて生成されたテキストデータを前記音声認識ステップにおける認識結果として表示する認識結果表示ステップと、
前記入力項目表示ステップにおいて表示された複数の入力項目から、前記認識結果表示ステップにおいて表示されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける入力項目選択操作受け付けステップとを備え、
前記入力項目表示ステップでは、複数の入力項目が前記端末装置の表示画面の一部に表示され、
前記認識結果表示ステップでは、前記音声認識ステップにおいて生成されたテキストデータが前記端末装置の表示画面の他の一部に表示され、
前記入力項目選択操作受け付けステップでは、複数の入力項目が表示されており、かつ、前記音声認識ステップにおいて生成されたテキストデータが表示されている状態で、前記音声認識ステップにおいて生成されたテキストデータと対応付けられる入力項目を選択する操作が受け付けられる、
入力支援方法。 - 少なくとも端末装置に搭載されたコンピュータに、
利用者の発話音声を示す発話音声データを取得する発話音声データ取得ステップと、
前記発話音声データ取得ステップにおいて取得された発話音声データを音声認識してテキストデータを生成する音声認識ステップと、
前記音声認識ステップにおいて生成されたテキストデータと対応付けられる入力項目を含む複数の入力項目を表示する入力項目表示ステップと、
前記音声認識ステップにおいて生成されたテキストデータを前記音声認識ステップにおける認識結果として表示する認識結果表示ステップと、
前記入力項目表示ステップにおいて表示された複数の入力項目から、前記認識結果表示ステップにおいて表示されたテキストデータと対応付けられる入力項目を選択する操作を受け付ける入力項目選択操作受け付けステップとを実行させるためのプログラムであって、
前記入力項目表示ステップでは、複数の入力項目が前記端末装置の表示画面の一部に表示され、
前記認識結果表示ステップでは、前記音声認識ステップにおいて生成されたテキストデータが前記端末装置の表示画面の他の一部に表示され、
前記入力項目選択操作受け付けステップでは、複数の入力項目が表示されており、かつ、前記音声認識ステップにおいて生成されたテキストデータが表示されている状態で、前記音声認識ステップにおいて生成されたテキストデータと対応付けられる入力項目を選択する操作が受け付けられる、
プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020134972A JP2022030754A (ja) | 2020-08-07 | 2020-08-07 | 入力支援システム、入力支援方法およびプログラム |
PCT/JP2021/029175 WO2022030595A1 (ja) | 2020-08-07 | 2021-08-05 | 入力支援システム、入力支援方法およびプログラム |
US18/164,126 US11983465B2 (en) | 2020-08-07 | 2023-02-03 | Input assistance system, input assistance method, and non-volatile recording medium storing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020134972A JP2022030754A (ja) | 2020-08-07 | 2020-08-07 | 入力支援システム、入力支援方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022030754A true JP2022030754A (ja) | 2022-02-18 |
Family
ID=80118143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020134972A Pending JP2022030754A (ja) | 2020-08-07 | 2020-08-07 | 入力支援システム、入力支援方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022030754A (ja) |
WO (1) | WO2022030595A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3090341U (ja) * | 2002-05-29 | 2002-12-06 | 船井電機株式会社 | 会話ログ記録/表示機能付き携帯端末機器 |
JP2015035099A (ja) * | 2013-08-08 | 2015-02-19 | 株式会社東芝 | 電子カルテ作成装置 |
JP6926175B2 (ja) * | 2016-03-16 | 2021-08-25 | 株式会社東芝 | 表示支援装置、方法およびプログラム |
JP6962849B2 (ja) * | 2018-03-30 | 2021-11-05 | 本田技研工業株式会社 | 会議支援装置、会議支援制御方法およびプログラム |
-
2020
- 2020-08-07 JP JP2020134972A patent/JP2022030754A/ja active Pending
-
2021
- 2021-08-05 WO PCT/JP2021/029175 patent/WO2022030595A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20230185525A1 (en) | 2023-06-15 |
WO2022030595A1 (ja) | 2022-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11586808B2 (en) | Insertion of standard text in transcription | |
EP2030198B1 (en) | Applying service levels to transcripts | |
US6434526B1 (en) | Network application software services containing a speech recognition capability | |
US8825478B2 (en) | Real time generation of audio content summaries | |
US7184539B2 (en) | Automated call center transcription services | |
US10832803B2 (en) | Automated system and method for improving healthcare communication | |
US9111540B2 (en) | Local and remote aggregation of feedback data for speech recognition | |
CN115427958A (zh) | 语音识别和内容去识别 | |
CN111009233A (zh) | 语音处理方法、装置、电子设备及存储介质 | |
US20180349556A1 (en) | Medical documentation systems and methods | |
JP4837887B2 (ja) | ユーザ・グループに固有のパターン処理システム | |
JP7049010B1 (ja) | プレゼンテーション評価システム | |
WO2022030595A1 (ja) | 入力支援システム、入力支援方法およびプログラム | |
US11983465B2 (en) | Input assistance system, input assistance method, and non-volatile recording medium storing program | |
WO2019003395A1 (ja) | コールセンター会話内容表示システム、方法及びプログラム | |
JP6434363B2 (ja) | 音声入力装置、音声入力方法、およびプログラム | |
CN113035188A (zh) | 通话文本生成方法、装置、设备及存储介质 | |
US11861298B1 (en) | Systems and methods for automatically populating information in a graphical user interface using natural language processing | |
JP2021018664A (ja) | 情報処理システム、情報処理方法、及びプログラム | |
JP6820632B1 (ja) | 情報処理装置、及びプログラム | |
JP2023109604A (ja) | 覚書作成プログラム | |
WO2022124399A1 (ja) | 情報処理装置 | |
JP7169031B1 (ja) | プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末 | |
US20230110684A1 (en) | System and method of reinforcing general purpose natural language models with acquired subject matter | |
JP2020052105A (ja) | 音声処理装置、音声処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230707 |