JP6852478B2 - 通信端末、通信プログラム及び通信方法 - Google Patents

通信端末、通信プログラム及び通信方法 Download PDF

Info

Publication number
JP6852478B2
JP6852478B2 JP2017048205A JP2017048205A JP6852478B2 JP 6852478 B2 JP6852478 B2 JP 6852478B2 JP 2017048205 A JP2017048205 A JP 2017048205A JP 2017048205 A JP2017048205 A JP 2017048205A JP 6852478 B2 JP6852478 B2 JP 6852478B2
Authority
JP
Japan
Prior art keywords
data
voice
communication terminal
voice data
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017048205A
Other languages
English (en)
Other versions
JP2018151533A (ja
JP2018151533A5 (ja
Inventor
章敬 中島
章敬 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017048205A priority Critical patent/JP6852478B2/ja
Priority to US15/900,913 priority patent/US10468029B2/en
Publication of JP2018151533A publication Critical patent/JP2018151533A/ja
Publication of JP2018151533A5 publication Critical patent/JP2018151533A5/ja
Application granted granted Critical
Publication of JP6852478B2 publication Critical patent/JP6852478B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Description

本発明は、通信端末、通信プログラム及び通信方法に関する。
従来から、音声データをテキストデータに変換する音声認識サービスを利用して、音声と対応したテキストデータを表示させる技術が普及している。
具体的には、例えば、会議システムにおいて、音声認識サービスにより発言者の音声データをテキストデータに変換し、聞き手が使用しているディスプレイに、発言者の音声データに対応したテキストデータを表示させる技術が知られている(特許文献1)。
従来の会議システムでは、音声データが入力された後に、この音声データが音声認識サービスに送信されてテキストデータに変換されるため、音声データが再生されるタイミングとテキストデータが表示されるタイミングにずれが生じる。
そのため、従来では、再生される音声データの内容と、表示されるテキストデータの内容とが対応せず、聞き手に違和感を与える、音声データの内容の理解を妨げる等の可能性があった。
開示の技術は、上記事情に鑑みてなされたものであり、再生中の音声データと、表示されるテキストデータとを対応させることを目的としている。
開示の技術は、集音装置により集音した音声データの送受信を行う通信端末であって、前記音声データを前記通信端末とネットワークを介して接続された音声認識装置へ送信し、前記音声認識装置から前記音声データの音声認識結果であるテキストデータを受信する通信部と、前記音声データを再生し、前記音声データが再生されている期間中に前記テキストデータを表示装置に表示させる出力部と、前記音声データに対する加工を行うか否かを判定する加工判定部と、前記音声データに対し、前記音声データの再生時間を延ばす加工を行う音声加工部と、を有し、前記加工判定部は、前記音声データの受信が開始されてから、前記テキストデータを受信するまでの期間が、所定の期間よりも長いとき、前記音声加工部による加工を行うものと判定する
再生中の音声データと、表示されるテキストデータとを対応させることができる。
通信システムのシステム構成の一例を示す図である。 第一の実施形態の通信システムの動作の概略を説明するシーケンス図である。 比較例となる通信システムの動作の概略を説明するシーケンス図である。 第一の実施形態の通信端末のハードウェア構成の一例を示す図である。 第一の実施形態の通信端末の有する各装置の機能を説明する図である。 第一の実施形態の通信システムの動作を説明するシーケンス図である。 第一の実施形態の通信端末の動作を説明する図である。 第一の実施形態の通信端末の表示装置の表示例を示す図である。 第二の実施形態の通信端末の有する各装置の機能を説明する図である。 第二の実施形態の通信システムの動作を説明するシーケンス図である。 第二の実施形態の通信端末の動作を説明するフローチャートである。 第二の実施形態の通信端末の動作を説明する図である。
(第一の実施形態)
以下に図面を参照して、第一の実施形態について説明する。図1は、通信システムのシステム構成の一例を示す図である。
本実施形態の通信システム100は、通信端末200−1、200−2と、サーバ装置300と、を有する。通信システム100において、通信端末200−1、200−2、サーバ装置300のそれぞれは、ネットワークNを介して接続される。また、本実施形態の通信システム100は、ネットワークNを介して、音声データをテキストデータに変換する音声認識装置400と接続される。
本実施形態の通信システム100において、通信端末200−1、200−2は、例えば電子黒板等であっても良く、サーバ装置300は、例えばテレビ会議を実現するためのテレビ会議用のサーバ装置等であっても良い。以下の説明において、通信端末200−1、200−2のそれぞれを区別しない場合には、通信端末200と呼ぶ。
本実施形態の通信端末200は、マイク等の集音装置を有しており、集音装置によって集音された音声データを、サーバ装置300と、音声認識装置400とに送信する。また、本実施形態の通信端末200は、手書き入力された文字や画像等を示すストローク情報、画面をキャプチャした画像データ等を、サーバ装置300に送信する。さらに、本実施形態の通信端末200は、カメラ等の撮像装置を有しており、撮像装置によって撮像された画像データを、サーバ装置300に送信する。
本実施形態の音声認識装置400は、例えば、人工知能により提供されるサービスである。音声認識装置400は、受信した音声データを音声認識機能によりテキストデータとし、サーバ装置300へ送信する。尚、本実施形態の音声データは、通信端末200の周辺で発話した人の声や、人の声以外の様々な音等、集音装置が集音した全ての音の音声データである。したがって、本実施形態では、通信端末200の周辺で発話した人の声を示す発話データは、音声データの一部である。
本実施形態のサーバ装置300は、受信したストローク情報や画像データ、音声データ等を格納する。また、本実施形態のサーバ装置300は、音声認識装置400から送信されたテキストデータを、音声データと対応付けて格納する。以下の説明では、通信端末200からサーバ装置300に送信される各種のデータをコンテンツデータと呼ぶ。したがって、本実施形態のコンテンツデータは、音声データ、画像データ、ストローク情報等を含む。
また、本実施形態のサーバ装置300は、例えば、ある会議において通信端末200が使用された場合、会議名と、会議中に取得したコンテンツデータと、音声データから変換されたテキストデータとが対応付けられて格納されても良い。言い換えれば、サーバ装置300では、通信端末200から取得したコンテンツデータが、会議毎に格納されても良い。
本実施形態の通信システム100では、例えば、通信端末200−1の利用者と、通信端末200−2の利用者とにより、テレビ会議を行うことができる。この場合、サーバ装置300は、通信端末200−1、200−2のそれぞれから入力された情報を、通信端末200−1、200−2のそれぞれの画面に表示させ、情報を共有させる。
具体的には、通信システム100の通信端末200は、一方の通信端末200において撮像された画像データと集音された音声データとを、サーバ装置300を介して、他方の通信端末200に送信する。
他方の通信端末200は、サーバ装置300から受信した画像データを表示装置に表示させ、音声データを再生する。また、他方の通信端末200は、受信した音声データを音声認識装置400へ送信してテキストデータとし、このテキストデータを表示装置に表示させる。
ここで、本実施形態の通信端末200では、サーバ装置300から受信した音声データが再生されている期間中に、この音声データの音声認識結果であるテキストデータを表示装置に表示させる。
本実施形態では、この処理により、通信端末200において、再生される音声データと、表示されるテキストデータとを対応させる。
尚、図1では、通信端末200の一例として、電子黒板としているが、これに限定されない。本実施形態の通信端末200は、集音装置と表示装置を有しており、外部の装置(サーバ装置300、音声認識装置400)と通信を行うことができる端末であれば良い。具体的には、本実施形態の通信端末200は、例えば、一般的なコンピュータ、タブレット型端末、スマートフォン等がある。また、その他にも、各種の電子機器に本実施形態を適用することができる。
以下に、図2及び図3を参照して、本実施形態の通信システム100の動作の概略について説明する。図2は、第一の実施形態の通信システムの動作の概略を説明するシーケンス図である。
本実施形態の通信システム100において、通信端末200−1は、撮像された画像データと集音された音声データとをサーバ装置300へ送信する(ステップS201)。サーバ装置300は、受信した画像データと音声データとを、通信端末200−2に送信する(ステップS202)。
通信端末200−2は、画像データと音声データとを受信すると、音声データを音声認識装置400へ送信する(ステップS203)。また、通信端末200−2は、受信した画像データと音声データとを、一時的に保持する(ステップS204)。
続いて、通信端末200−2は、音声認識装置400から、ステップS203で送信した音声データの音声認識結果であるテキストデータを受信すると(ステップS205)、画像データと音声データを再生させ、受信したテキストデータを表示させる(ステップS206)。
このように、本実施形態の通信端末200では、音声データを受信した場合には、この音声データの音声認識結果のテキストデータを取得するまで、音声データの再生を行わずに待機する。
以下に、図3を参照して、本実施形態が適用されない通信システムの動作を説明する。図3は、比較例となる通信システムの動作の概略を説明するシーケンス図である。
図3のステップS301からステップS303までの処理は、図2のステップS201からステップS203までの処理と同様であるから、説明を省略する。
通信端末2−2は、ステップS303において音声データを音声認識装置400に送信すると、サーバ装置300から受信した画像データと音声データとを再生する(ステップS304)。続いて、通信端末2−2は、音声認識装置400からテキストデータを受信し(ステップS305)、受信したテキストデータを表示装置に表示させる(ステップS306)。
このように、図3の例では、通信端末2−2は、音声データを受信すると、テキストデータに変換される前に音声データの再生を開始する。したがって、図3の例では、テキストデータを受信して表示するまでの間に、音声データの再生が終了する可能性がある。この場合、通信端末2−2では、表示装置に表示されたテキストデータは、すでに再生が終了した音声データと対応するものとなる。よって、図3の例では、再生される音声データと表示されるテキストデータとが対応しない。
これに対し、図2に示す本実施形態の通信端末200−2は、音声データを受信した後に、この音声データの音声認識結果であるテキストデータを受信するまで、音声データの再生を保留する。そして、通信端末200−2は、テキストデータを受信した後に、音声データの再生とテキストデータの表示とを行う。したがって、本実施形態によれば、音声データが再生されている期間中に、この音声データの音声認識結果であるテキストデータを表示させることができ、音声データとテキストデータとを対応させることができる。
以下に、本実施形態の通信端末200について説明する。図4は、第一の実施形態の通信端末のハードウェア構成の一例を示す図である。
本実施形態の通信端末200は、入力装置21と、表示装置22と、外部I/F23と、通信I/F24と、ROM25(Read Only Memory)とを有する。また、本実施形態の通信端末200は、RAM(Random Access Memory)26と、CPU(Central Processing Unit)27と、HDD(Hard Disk Drive)28と、集音装置29と、撮像装置30と、を有する。これらの各ハードウェアは、それぞれがバスB1で接続されている。
入力装置21は、タッチパネル等であり、ユーザによる各種操作(例えば、音声テキスト変換(日本語)や音声テキスト変換(英語)等の機能の選択操作)を入力するのに用いられる。表示装置22は、ディスプレイ等であり、各種情報(例えば、音声テキスト変換(日本語)による変換結果を示すテキストや音声データ等)を表示する。尚、本実施形態では、タッチパネルが、入力装置と21と表示装置22の両方を兼ねていても良い。
外部I/F23は、外部装置とのインターフェースである。外部装置には、記録媒体23a等がある。これにより、通信端末200は、外部I/F23を介して、記録媒体23a等の読み取りや書き込みを行うことができる。なお、記録媒体23aには、例えば、USBメモリやCD、DVD、SDメモリカード等がある。
通信I/F24は、通信端末200をネットワークN1等に接続するためのインターフェースである。これにより、通信端末200は、通信I/F24を介して、他の装置(と通信を行うことができる。
HDD28は、プログラムやデータを格納している不揮発性の記憶装置である。HDD28に格納されるプログラムやデータには、通信端末200全体を制御する基本ソフトウェアであるOS(Operating System)、OS上において各種機能を提供するアプリケーションプログラム等がある。
また、HDD28は、格納しているプログラムやデータを所定のファイルシステム及び/又はDB(データベース)により管理している。なお、通信端末200は、HDD28に代えて、記録媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)を有していても良い。
ROM25は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリである。ROM25には、通信端末200の起動時に実行されるBIOS(Basic Input/Output System)、OS設定、及びネットワーク設定等のプログラムやデータが格納されている。RAM26は、プログラムやデータを一時保持する揮発性の半導体メモリである。
CPU27は、ROM25やHDD28等の記憶装置からプログラムやデータをRAM26上に読み出し、処理を実行することで、通信端末200全体の制御や機能を実現する演算装置である。
集音装置29は、例えばマイクロフォン(マイク)等であり、通信端末200の周囲の音を集音する。
撮像装置30は、例えばカメラ等であり、通信端末200の周辺の画像を撮像する。具体的には、例えば、撮像装置30は、通信端末200を用いて会議等を行っている様子等を撮像する。
本実施形態の通信端末200は、図2に示すハードウェア構成を有することにより、後述するような各種処理を実現できる。
次に、図5を参照して、本実施形態の通信端末200の機能について説明する。図5は、第一の実施形態の通信端末の有する各装置の機能を説明する図である。
本実施形態の通信端末200の機能は、CPU27がRAM26等に格納されたプログラムを読み出して実行することで実現される。
本実施形態の通信端末200は、集音部210、入力部220、出力部230、コンテンツ保持部240、バッファ処理部250、通信部260を有する。
集音部210は、集音装置29に入力された音声を音声データとして取得する。入力部220は、通信端末200の有するタッチパネル(入力装置21、表示装置22)に対して手書き入力された文字や画像を示すストローク情報や、タッチパネルに表示された画像の画像データ等を取得する。尚、本実施形態のストローク情報とは、タッチパネルに対して手書き入力が行われた場合の、利用者による一画毎の軌跡を示す点群の座標報である。
入力部220は、撮像装置30により撮影された画像データを取得する。尚、本実施形態の画像データは、動画データと静止画データの両方を含む。
出力部230は、音声データや画像データを出力する。具体的には、出力部230は、例えば、表示装置22に対して画像データを表示させたり、音声データを再生させたりする。
コンテンツ保持部240は、バッファ処理部250の指示により、音声データを一時的に保持する。本実施形態のコンテンツ保持部240は、例えば、通信部260によりサーバ装置300から受信したコンテンツデータを保持しても良いし、集音部210と入力部220により取得されたコンテンツデータを保持しても良い。また、コンテンツ保持部240は、コンテンツデータに含まれる音声データのみを保持しても良い。
バッファ処理部250は、音声データが音声認識装置400に送信された場合、音声認識装置400から音声認識結果のテキストデータを受信するまで、コンテンツデータをコンテンツ保持部240に保持させる。
通信部260は、サーバ装置300及び音声認識装置400との通信を行う。具体的には、通信部260は、集音部210、入力部220により取得したコンテンツデータをサーバ装置300へ送信する。また、通信部260は、集音部210により取得した音声データを音声認識装置400へ送信し、音声認識結果のテキストデータを受信する。また、通信部260は、他の通信端末200から送信されたコンテンツデータを、サーバ装置300を介して受信する。
次に、図6を参照して、本実施形態の通信システム100の動作について説明する。図6は、第一の実施形態の通信システムの動作を説明するシーケンス図である。
図6では、通信端末200−1が取得したコンテンツデータを、サーバ装置300を介して通信端末200−2が受信する場合の動作を示している。
本実施形態の通信システム100において、通信端末200−1は、集音部210−1により音声データを取得すると、通信部260−1へ渡す(ステップS601)。また、通信端末200−1の入力部220−2により画像データを取得すると、通信部260−1へ渡す(ステップS602)。通信端末200−1の通信部260−1は、音声データと画像データとを含むコンテンツデータをサーバ装置300へ送信する(ステップS603)。
サーバ装置300は、このコンテンツデータを、通信端末200−2へ送信する(ステップS604)。
通信端末200−2は、コンテンツデータを受信すると、通信部260−2により、コンテンツデータに含まれる音声データを音声認識装置400へ送信する(ステップS605)。また、通信部260−2は、バッファ処理部250に、コンテンツデータを渡す(ステップS606)。
バッファ処理部250−2は、コンテンツデータを受けて、コンテンツデータをコンテンツ保持部240−2へ保持させる(ステップS607)。
続いて、通信端末200−2は、通信部260−2により、音声認識装置400から、ステップS605で送信した音声データの音声認識結果のテキストデータを受信する(ステップS608)。
続いて、通信部260−2は、バッファ処理部250−2に受信したテキストデータを渡す(ステップS609)。バッファ処理部250−2は、テキストデータを受けると、コンテンツ保持部240−2からコンテンツデータを取得する(ステップS610)。
そして、バッファ処理部250−2は、出力部230−2に、コンテンツデータとテキストデータとを渡す(ステップS611)。出力部230−2は、コンテンツデータとテキストデータとを同時に出力させる(ステップS612)。
以下に、図7を参照して、本実施形態の通信端末200の動作について、さらに具体的に説明する。図7は、第一の実施形態の通信端末の動作を説明する図である。
図7の例では、本実施形態の通信端末200−2では、タイミングT1において、サーバ装置300からコンテンツデータの受信を開始し、タイミングT2において、コンテンツデータの受信を完了したものとする。
このとき、通信端末200−2は、タイミングT1において、コンテンツデータの受信を開始した直後からコンテンツデータの再生を行わず、バッファ処理部250−2により、コンテンツ保持部240−2にコンテンツデータを保持させる。
そして、通信端末200−2は、タイミングT2において、コンテンツデータの受信が完了し、タイミングT3において、テキストデータの受信が完了すると、コンテンツデータの再生と、テキストデータの表示を同時に開始する。したがって、本実施形態では、タイミングT1からタイミングT3までの期間K13は、コンテンツ保持部240−2にコンテンツデータが保持されるコンテンツ保持期間となる。
したがって、通信端末200−2では、タイミングT1からタイミングT3の間に、コンテンツデータに含まれる音声データを音声認識装置400へ送信し、音声認識結果のテキストデータを受信する。尚、本実施形態では、タイミングT2において、コンテンツデータの受信が完了した後に、音声認識装置400への音声データの送信を開始しても良いし、タイミングT1においてコンテンツデータの受信を開始したときから、音声認識装置400への音声データの送信を開始しても良い。
図7の例では、コンテンツデータの再生時間は、タイミングT3からタイミングT5までの期間K35であり、テキストデータの表示時間は、タイミングT3からタイミングT4までの期間K34となる。
したがって、本実施形態の通信端末200では、音声データを含むコンテンツデータが再生されている期間中に、この音声データと対応するテキストデータが表示装置22に表示させることができる。
このように、本実施形態によれば、再生中の音声データと、表示されるテキストデータとを対応させることができるため、聞き手に対して違和感を与えることがない。また、本実施形態によれば、音声データの再生中にテキストデータを表示することによって、音声データの内容の理解を支援することができる。
図8は、第一の実施形態の通信端末の表示装置の表示例を示す図である。図8に示す画面81は、例えば、拠点Aに設置された通信端末200−1と、拠点Bに設置された通信端末200−2とを用いてテレビ会議を行った場合の、通信端末200−1、200−2のそれぞれの表示装置22に表示される画面の例である。
画面81は、通信端末200−1の入力部220−1により取得された画像データが表示される表示領域82、通信端末200−2の入力部220−2により取得された画像データが表示される表示領域83を含む。また、画面81には、通信端末200−1の集音部210−1と、通信端末200−2の集音部210−2のそれぞれから取得された音声データから変換されたテキストデータが表示される表示領域84を含む。
本実施形態では、例えば、表示領域83において表示された利用者の画像データと音声データが再生されている期間中に、表示領域84において、この音声データと対応するテキストデータが表示される。したがって、本実施形態によれば、音声データの内容を示すテキストデータが、音声データの再生中に表示されることになる。このため、本実施形態によれば、画面81を閲覧している利用者に対して、音声データの再生のタイミングと、テキストデータの表示のタイミングのずれを感じさせることがなく、操作性を向上させることができる。
尚、本実施形態では、主に通信端末200−2の動作を説明したが、通信端末200−1と通信端末200−2は、同様の構成を有するものであり、通信端末200−1も、通信端末200−2と同様の動作を行うものである。
(第二の実施形態)
以下に図面を参照して、第二の実施形態について説明する。第二の実施形態では、コンテンツデータを受信してから音声データを再生するまでのコンテンツ保持期間に応じて、音声データに対する加工を行う点が、第一の実施形態と相違する。よって、以下の第二の実施形態の説明では、第一の実施形態との相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号を付与し、その説明を省略する。
図9は、第二の実施形態の通信端末の有する各装置の機能を説明する図である。本実施形態の通信端末200Aは、第一の実施形態の通信端末200の有する各部に加え、保持期間取得部270、加工判定部280、音声加工部290を有する。
本実施形態の保持期間取得部270は、通信部260がコンテンツデータの受信を開始してから、コンテンツデータに含まれる音声データの音声認識結果のテキストデータを受信するまでのコンテンツ保持期間を算出して取得し、記憶する。
加工判定部280は、コンテンツ保持期間に基づき、音声データに対する加工を行うか否かを判定する。具体的には、加工判定部280は、コンテンツ保持期間が所定の期間より長い期間であるか否かを判定し、所定の期間より長い期間である場合には、音声データに対する加工を行うものと判定する。また、加工判定部280は、コンテンツ保持期間が所定の期間以内である場合には、音声データに対する加工はせずに、コンテンツ保持部240により、音声データを含むコンテンツデータを保持するものと判定する。
また、本実施形態の所定の期間とは、例えば、過去にコンテンツデータを受信した際のコンテンツ保持期間の平均である。本実施形態では、例えば、加工判定部280が、保持期間取得部270によりコンテンツ保持期間が記憶される度に、所定の期間となるコンテンツ保持期間の平均を算出し、保持していても良い。
音声加工部290は、前回のコンテンツデータの受信の際に、保持期間取得部270により記憶されたコンテンツ保持期間が、予め設定された所定の期間より長い期間であった場合に、コンテンツデータに含まれる音声データを引き伸ばす加工を行う。具体的には、音声加工部290は、音声データである波形を編集することで、音声データの再生時間を延ばすようにしても良い。
尚、本実施形態の音声加工部290は、コンテンツデータに含まれる画像データが静止画の画像データである場合には、音声データについてのみ、加工を行っても良い。また、本実施形態の音声加工部290は、コンテンツデータに含まれる画像データが動画データであるは場合には、動画データに対しても、音声データに対する加工と同様の加工を行う。
例えば、コンテンツデータが、動画データであり、フレームレートが30[fps]である場合には、このフレームレートを15[fps]とすれば、コンテンツデータの再生時間を2倍にすることができる。
以下に、図10を参照して、本実施形態の通信システム100の動作について説明する。図10は、第二の実施形態の通信システムの動作を説明するシーケンス図である。
図10では、通信端末200A−1からサーバ装置300に送信されたコンテンツデータを通信端末200A−2が受信した際に、コンテンツ保持期間が所定の期間より長い期間であった場合の動作を示している。
図10のステップS1001とステップS1002の処理は、図2のステップS201とステップS202の処理と同様であるから、説明を省略する。
通信端末200A−2は、通信部260−2により、コンテンツデータを受信すると、保持期間取得部270により、前回の保持されているコンテンツ保持期間を取得する(ステップS1003)。
続いて、通信端末200A−2は、加工判定部280により、取得したコンテンツ保持期間が所定の期間より長い期間であると判定された場合に、音声加工部290により、コンテンツデータに含まれる音声データを加工する(ステップS1004)。このとき、音声加工部290は、加工後の音声データを再生したときの再生時間が、コンテンツ保持期間よりも長くなるように、音声データを引き延ばす加工を行う。
続いて、通信端末200A−2は、音声データを音声認識装置400に送信する(ステップS1005)。また、通信端末200A−2は、加工された音声データと画像データとの再生を開始する(ステップS1006)。
続いて、通信端末200A−2は、音声認識装置400より、音声データの音声認識結果のテキストデータを受信し(ステップS1007)、このテキストデータを表示装置22に表示させる(ステップS1008)。
以上のように、本実施形態では、コンテンツ保持期間の長さに応じて、音声データの再生時間が、コンテンツ保持期間よりも長くなるように加工する。したがって、本実施形態によれば、加工後の音声データの再生中に、この音声データと対応するテキストデータを表示させることができる。
以下に、図11を参照して、本実施形態の通信端末200Aの全体の動作を説明する。図11は、第二の実施形態の通信端末の動作を説明するフローチャートである。本実施形態の通信端末200Aは、コンテンツデータを受信する度に、図11の処理を実行する。
本実施形態の通信端末200Aは、通信部260により、コンテンツデータの受信を開始すると(ステップS1101)、保持期間取得部270により、前回のコンテンツデータの受信において記憶されたコンテンツ保持期間を取得する(ステップS1102)。
続いて、通信端末200Aは、加工判定部280により、コンテンツ保持期間が所定の期間より長い期間であるか否かを判定する(ステップS1103)。ステップS1103において、コンテンツ保持期間が所定の期間よりも長い場合、通信端末200Aは、後述するステップS1109へ進む。
ステップS1103において、コンテンツ保持期間が所定の期間以内である場合、通信端末200Aは、バッファ処理部250により、コンテンツデータをコンテンツ保持部240に保持させる(ステップS1104)。続いて、通信端末200Aは、通信部260により、音声データを音声認識装置400へ送信し(ステップS1105)、音声認識装置400からテキストデータを受信する(ステップS1106)。
続いて通信端末200Aは、出力部230により、コンテンツデータを再生し、テキストデータを表示させる(ステップS1107)。続いて、通信端末200Aは、保持期間取得部270により、ステップS1101でコンテンツデータの受信を開始してから、ステップS1106でテキストデータを受信するまでのコンテンツ保持期間を取得して記憶し(ステップS1108)、処理を終了する。
ステップS1103において、コンテンツ保持期間が所定の期間より長い場合、通信端末200Aは、音声加工部290により、音声データの再生時間がコンテンツ保持期間よりも長くなるように、音声データを引き伸ばす加工を行う(ステップS1109)。
続いて、通信端末200Aは、通信部260より、加工していない音声データを音声認識装置400へ送信する(ステップS1110)。また、通信端末200Aは、出力部230により、加工された音声データと、コンテンツデータに含まれる画像データと、の再生を開始する(ステップS1111)。
続いて、通信端末200Aは、通信部260により、音声認識装置400からテキストデータを受信し(ステップS1112)、出力部230により、受信したテキストデータを表示装置22に表示させ(ステップS1113)、ステップS1108へ進む。
以下に、図12を参照して、実施形態の通信端末200Aの動作について、さらに説明する。図12は、第二の実施形態の通信端末の動作を説明する図である。
図12の例では、本実施形態の通信端末200A−2では、タイミングT1において、サーバ装置300からコンテンツデータの受信を開始し、タイミングT2において、コンテンツデータの受信を完了したものとする。また、図12では、通信端末200A−2の保持期間取得部270により記憶されたコンテンツ保持期間が所定の期間より長いときの、通信端末200A−2の動作を示している。
図12の例では、タイミングT1において、コンテンツデータの受信を開始した直後からコンテンツデータの保持を行わず、コンテンツデータの再生を開始する。このとき、コンテンツデータに含まれる音声データは、コンテンツ保持期間よりも再生時間が長くなるように、加工されている。
図12において、通信端末200A−2は、タイミングT2において、コンテンツデータの受信が完了する。また、通信端末200A−2は、タイミングT3において、テキストデータを受信すると、タイミングT3からタイミングT4までの期間K34において、テキストデータを表示させる。
このとき、コンテンツデータは、まだ再生中である。図12の例では、通信端末200A−2は、タイミングT5において、加工後の音声データを含むコンテンツデータの再生が完了する。したがって、加工後の音声データを含むコンテンツデータの再生時間は、タイミングT1からタイミングT5までの期間K15となる。
したがって、本実施形態によれば、テキストデータが表示される期間K34は、加工後の音声データを含むコンテンツデータの再生時間である期間K15に含まれることになる。
このように、本実施形態では、音声データ(コンテンツデータ)を引き延ばすことで、音声データの再生中に、この音声データの音声認識結果であるテキストデータが表示されるようにすることができる。
以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。
100 通信システム
200、200A 通信端末
210 集音部
220 入力部
230 出力部
240 コンテンツ保持部
250 バッファ処理部
260 通信部
270 保持期間取得部
280 加工判定部
290 音声加工部
300 サーバ装置
400 音声認識装置
特開2011−182125号公報

Claims (7)

  1. 集音装置により集音した音声データの送受信を行う通信端末であって、
    前記音声データを前記通信端末とネットワークを介して接続された音声認識装置へ送信し、前記音声認識装置から前記音声データの音声認識結果であるテキストデータを受信する通信部と、
    前記音声データを再生し、前記音声データが再生されている期間中に前記テキストデータを表示装置に表示させる出力部と、
    前記音声データに対する加工を行うか否かを判定する加工判定部と、
    前記音声データに対し、前記音声データの再生時間を延ばす加工を行う音声加工部と、を有し、
    前記加工判定部は、前記音声データの受信が開始されてから、前記テキストデータを受信するまでの期間が、所定の期間よりも長いとき、前記音声加工部による加工を行うものと判定する、通信端末。
  2. 前記通信部により、前記音声データの受信が開始されてから、前記テキストデータの受信が完了するまでの期間、受信した前記音声データを保持させるバッファ処理部を有し、
    前記出力部は、
    前記テキストデータの受信が完了した後に、前記音声データの再生と、前記テキストデータの表示と、を同時に開始する、請求項1記載の通信端末。
  3. 前記音声加工部は、
    加工後の前記音声データの再生時間が、前記音声データの受信が開始されてから、前記テキストデータを受信するまでの期間よりも長くなるように、前記音声データの加工を行い、
    前記出力部は、
    加工後の前記音声データが再生されている期間中に前記テキストデータを表示装置に表示させる、請求項1又は2記載の通信端末。
  4. 前記所定の期間は、
    前記音声データの受信が開始されてから、前記テキストデータを受信するまでの期間の平均である、請求項2又は3記載の通信端末。
  5. 前記音声データは、
    前記表示装置に表示された画像の画像データ、前記表示装置に対して、入力された文字や画像を示すストローク情報の少なくとも何れかを含むコンテンツデータに含まれる、請求項1乃至の何れか一項に記載の通信端末。
  6. 集音装置により集音した音声データの送受信を行う通信端末による通信方法であって、前記通信端末が、
    前記音声データを前記通信端末とネットワークを介して接続された音声認識装置へ送信し、前記音声認識装置から前記音声データの音声認識結果であるテキストデータを受信する手順と、
    前記音声データを再生し、前記音声データが再生されている期間中に前記テキストデータを表示装置に表示させる手順と、
    前記音声データに対する加工を行うか否かを判定する手順と、
    前記音声データに対し、前記音声データの再生時間を延ばす加工を行う手順と、を有し、
    前記判定する手順において、前記音声データの受信が開始されてから、前記テキストデータを受信するまでの期間が、所定の期間よりも長いとき、前記加工を行う手順による加工を行うものと判定する、通信方法。
  7. 集音装置により集音した音声データの送受信を行う通信端末において実行される通信プログラムであって、
    前記音声データを前記通信端末とネットワークを介して接続された音声認識装置へ送信し、前記音声認識装置から前記音声データの音声認識結果であるテキストデータを受信する処理と、
    前記音声データを再生し、前記音声データが再生されている期間中に前記テキストデータを表示装置に表示させる処理と、
    前記音声データに対する加工を行うか否かを判定する処理と、
    前記音声データに対し、前記音声データの再生時間を延ばす加工を行う処理と、通信端末に実行させ、
    前記判定する処理において、前記音声データの受信が開始されてから、前記テキストデータを受信するまでの期間が、所定の期間よりも長いとき、前記加工を行う処理による加工を行うものと判定する、処理を前記通信端末に実行させる、通信プログラム。
JP2017048205A 2017-03-14 2017-03-14 通信端末、通信プログラム及び通信方法 Active JP6852478B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017048205A JP6852478B2 (ja) 2017-03-14 2017-03-14 通信端末、通信プログラム及び通信方法
US15/900,913 US10468029B2 (en) 2017-03-14 2018-02-21 Communication terminal, communication method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017048205A JP6852478B2 (ja) 2017-03-14 2017-03-14 通信端末、通信プログラム及び通信方法

Publications (3)

Publication Number Publication Date
JP2018151533A JP2018151533A (ja) 2018-09-27
JP2018151533A5 JP2018151533A5 (ja) 2020-11-05
JP6852478B2 true JP6852478B2 (ja) 2021-03-31

Family

ID=63519507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017048205A Active JP6852478B2 (ja) 2017-03-14 2017-03-14 通信端末、通信プログラム及び通信方法

Country Status (2)

Country Link
US (1) US10468029B2 (ja)
JP (1) JP6852478B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11049053B2 (en) 2018-03-29 2021-06-29 Ricoh Company, Ltd. Communication terminal, sharing system, communication method, and non-transitory recording medium storing program
JP7119939B2 (ja) * 2018-11-19 2022-08-17 トヨタ自動車株式会社 情報処理装置、情報処理方法およびプログラム
JP7205697B2 (ja) * 2019-02-21 2023-01-17 株式会社リコー 通信端末、共用システム、表示制御方法およびプログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW329518B (en) * 1995-12-08 1998-04-11 Sony Co Ltd Information data recording-replaying device
US5920025A (en) * 1997-01-09 1999-07-06 Yamaha Corporation Automatic accompanying device and method capable of easily modifying accompaniment style
US7668718B2 (en) * 2001-07-17 2010-02-23 Custom Speech Usa, Inc. Synchronized pattern recognition source data processed by manual or automatic means for creation of shared speaker-dependent speech user profile
JP2003209600A (ja) * 2002-01-11 2003-07-25 Canon Inc 通話システム、通話端末、方法、プログラム、及びコンピュータ読み取り可能な記憶媒体
JP2004304601A (ja) * 2003-03-31 2004-10-28 Toshiba Corp Tv電話装置、tv電話装置のデータ送受信方法
US9710819B2 (en) * 2003-05-05 2017-07-18 Interactions Llc Real-time transcription system utilizing divided audio chunks
JP4127668B2 (ja) * 2003-08-15 2008-07-30 株式会社東芝 情報処理装置、情報処理方法、およびプログラム
KR100629997B1 (ko) * 2004-02-26 2006-09-27 엘지전자 주식회사 오디오 신호의 인코딩 방법
US8125508B2 (en) * 2006-01-24 2012-02-28 Lifesize Communications, Inc. Sharing participant information in a videoconference
EP2044804A4 (en) * 2006-07-08 2013-12-18 Personics Holdings Inc PERSONAL HEARING AID AND METHOD
JP5046589B2 (ja) * 2006-09-05 2012-10-10 日本電気通信システム株式会社 電話システムと通話補助方法とプログラム
US20090037171A1 (en) * 2007-08-03 2009-02-05 Mcfarland Tim J Real-time voice transcription system
JP2010230948A (ja) * 2009-03-27 2010-10-14 Hitachi East Japan Solutions Ltd コンテンツ配信システムおよびテキスト表示方法
WO2011014927A1 (en) * 2009-08-07 2011-02-10 Access Innovation Media Pty Ltd System and method for real time text streaming
JP5014449B2 (ja) 2010-02-26 2012-08-29 シャープ株式会社 会議システム、情報処理装置、会議支援方法、情報処理方法、及びコンピュータプログラム
US8797380B2 (en) * 2010-04-30 2014-08-05 Microsoft Corporation Accelerated instant replay for co-present and distributed meetings
JP5727777B2 (ja) * 2010-12-17 2015-06-03 株式会社東芝 会議支援装置および会議支援方法
CN102270449A (zh) * 2011-08-10 2011-12-07 歌尔声学股份有限公司 参数语音合成方法和系统
US8699677B2 (en) * 2012-01-09 2014-04-15 Comcast Cable Communications, Llc Voice transcription
GB2502944A (en) * 2012-03-30 2013-12-18 Jpal Ltd Segmentation and transcription of speech
US20140123178A1 (en) * 2012-04-27 2014-05-01 Mixaroo, Inc. Self-learning methods, entity relations, remote control, and other features for real-time processing, storage, indexing, and delivery of segmented video
KR101939253B1 (ko) * 2012-05-21 2019-01-16 엘지전자 주식회사 음성 녹음 중에 탐색을 용이하게 하는 방법 및 이를 구현한 전자기기
EP2901448A4 (en) * 2012-09-26 2016-03-30 Nokia Technologies Oy METHOD, APPARATUS AND COMPUTER PROGRAM PRODUCT FOR CREATING AUDIO COMPOSITION SIGNAL
US9542936B2 (en) * 2012-12-29 2017-01-10 Genesys Telecommunications Laboratories, Inc. Fast out-of-vocabulary search in automatic speech recognition systems
KR102063766B1 (ko) * 2013-09-17 2020-01-08 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN103632666B (zh) * 2013-11-14 2016-09-28 华为技术有限公司 语音识别方法、语音识别设备和电子设备
US9641563B1 (en) 2015-11-10 2017-05-02 Ricoh Company, Ltd. Electronic meeting intelligence
US11112963B2 (en) * 2016-05-18 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for messaging

Also Published As

Publication number Publication date
JP2018151533A (ja) 2018-09-27
US10468029B2 (en) 2019-11-05
US20180268819A1 (en) 2018-09-20

Similar Documents

Publication Publication Date Title
US20030080973A1 (en) Image recording and replay apparatus
JP6060989B2 (ja) 音声録音装置、音声録音方法、及びプログラム
CN101228582B (zh) 支持音频缩略图功能的音频再现方法及设备
US10834503B2 (en) Recording method, recording play method, apparatuses, and terminals
JP2008271157A (ja) 音声強調装置及び制御プログラム
JP6852478B2 (ja) 通信端末、通信プログラム及び通信方法
CN104580888A (zh) 一种图像处理方法及终端
JP6280215B2 (ja) ビデオ会議端末、セカンダリストリームデータアクセス方法およびコンピュータ記憶媒体
CN103973955A (zh) 一种信息处理方法及电子设备
JP4572615B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP6801539B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム及び情報処理方法
US20100157097A1 (en) Voice recordable terminal and its image processing method
JP2016063477A (ja) 会議システム、情報処理方法、及びプログラム
JP2012178028A (ja) アルバム作成装置、アルバム作成装置の制御方法、及びプログラム
JP7087779B2 (ja) 端末装置、会議システム、端末装置の制御方法、及びプログラム
JP4191221B2 (ja) 記録再生装置、同時記録再生制御方法、および同時記録再生制御プログラム
JP2013183280A (ja) 情報処理装置、撮像装置、及びプログラム
JP6635093B2 (ja) 画像記録装置、画像記録方法及びプログラム
JP6802264B2 (ja) 表示装置、出力装置、および情報表示方法
WO2018225368A1 (ja) 医療用画像記録装置
JP2004215123A (ja) 画像再生装置、画像再生方法及び画像再生プログラム
JP2007047291A (ja) 音声通訳システムおよび音声通訳方法
JP7397084B2 (ja) データ作成方法及びデータ作成プログラム
JP3266761B2 (ja) 話速変換装置および話速変換装置の利用方法
JP7051987B2 (ja) 出力装置および情報表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210222

R151 Written notification of patent or utility model registration

Ref document number: 6852478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151