JP7091745B2 - 表示端末、プログラム、情報処理システム及び方法 - Google Patents

表示端末、プログラム、情報処理システム及び方法 Download PDF

Info

Publication number
JP7091745B2
JP7091745B2 JP2018051276A JP2018051276A JP7091745B2 JP 7091745 B2 JP7091745 B2 JP 7091745B2 JP 2018051276 A JP2018051276 A JP 2018051276A JP 2018051276 A JP2018051276 A JP 2018051276A JP 7091745 B2 JP7091745 B2 JP 7091745B2
Authority
JP
Japan
Prior art keywords
voice
data
voice data
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018051276A
Other languages
English (en)
Other versions
JP2019164232A (ja
JP2019164232A5 (ja
Inventor
恵介 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018051276A priority Critical patent/JP7091745B2/ja
Priority to US16/269,611 priority patent/US20190287531A1/en
Publication of JP2019164232A publication Critical patent/JP2019164232A/ja
Publication of JP2019164232A5 publication Critical patent/JP2019164232A5/ja
Application granted granted Critical
Publication of JP7091745B2 publication Critical patent/JP7091745B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/565Conversion or adaptation of application format or content
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Description

本発明は、表示端末、プログラム、情報処理システム及び方法に関する。
従来から、電子黒板を音声認識装置と連携させて、電子黒板を音声により操作したり、電子黒板によって集音された音声データをテキストデータに変換して保持したりする技術が知られている。
この技術の一例として、例えば、従来では、音声入力手段により入力された会話音声を認識して文字データに変換し、文字データから所定の条件を満たすキーワードを抽出し、抽出したキーワードに応じた画像を検索して表示させる技術が知られている。
しかしながら、従来の技術では、例えば、電子黒板の利用者が発話した内容と、集音された音声データから変換されたテキストデータの内容とが異なる場合がある。
開示の技術は、上記事情に鑑みてこれを解決すべく成されたものであり、利用者の話し方を案内する指標を提供することを目的としている。
開示の技術は、集音装置が集音した音を音声データとして取得する集音部と、前記音声データをテキストデータへ変換する音声認識部と、前記音声認識部により変換されたテキストデータを取得するテキスト取得部と、前記音声認識部によってテキストデータに変換するための最適値に関する情報を記憶する記憶部と、前記音声データに基づき生成された前記音の音量を示す情報と、前記音声データに基づき算出された音声の速度を示す情報と、前記音声データに基づき生成された前記音の音量を示す、前記音声認識部によってテキストデータに変換するための最適値に関する情報と、前記音声データに基づき算出された音声の速度を示す、前記音声認識部によってテキストデータに変換するための最適値に関する情報と、を含む指標を表示部に表示させる表示制御部と、備え、前記表示制御部は、前記音声認識部により変換したテキストデータと前記指標と共に表示する
利用者の話し方を案内する指標を提供することができる。
第一の実施形態の電子黒板の表示例を示す図である。 第一の実施形態の情報処理システムの一例を示す図である。 第一の実施形態の電子黒板のハードウェア構成の一例を示す図である。 第一の実施形態のスマートスピーカのハードウェア構成の一例を示す図である。 第一の実施形態のサーバ装置のハードウェア構成の一例を示す図である。 第一の実施形態の情報処理システムの有する各装置の機能を説明する図である。 第一の実施形態の最適値テーブルの一例を示す図である。 第一の実施形態の電子黒板の動作を説明するフローチャートである。 第一の実施形態の電子黒板による処理を説明する図である。 第一の実施形態の電子黒板の他の表示例を示す図である。 第二の実施形態の電子黒板の表示例を示す図である。 第二の実施形態の情報処理システムの有する各装置の機能を説明する図である。 第二の実施形態の閾値テーブルの一例を示す図である。 第二の実施形態の電子黒板の動作を説明するフローチャートである。 第二の実施形態の電子黒板の他の表示例を示す図である。 第三の実施形態の情報処理システムの有する各装置の機能を説明する図である。 第三の実施形態の情報処理システムの動作を説明するシーケンス図である。 第四の実施形態の情報処理システムを説明する図である。
(第一の実施形態)
以下に図面を参照して第一の実施形態について説明する。図1は、第一の実施形態の電子黒板の表示例を示す図である。
音声データ(発話データ)をテキストデータへ変換する場合、音声データの内容とテキストデータの内容との一致の度合いは、音声データの入力環境に大きく依存する。
本実施形態では、この点に着目し、音声データを取得する際に、電子黒板200に話し方の指標を表示させる。また、本実施形態では、話し方の指標と共に、音声データに基づき生成されたテキストデータを電子黒板200に表示させる。
尚、音声データの入力環境とは、主に、発話した人(発話者)とマイク等の集音装置との距離、話す速度等が挙げられる。また、入力環境には、前述した距離と速度以外にも、発話者が話す方向等が含まれても良い。
また、本実施形態における発話者の話し方の指標とは、入力される音声データの音量のと、話す速度とを、音声データをテキストデータに変換する際の最適な値として設定された最適値と比較した結果を示す情報である。
図1に示す電子黒板200では、ディスプレイに、発話者Pの話し方の指標21が表示されている。また、電子黒板200は、入力された音声データに基づき生成されテキストデータTeが表示されている。テキストデータTeの取得の仕方の詳細は後述する。
図1の例では、指標21として、入力された音声データの音量と音声スピードのそれぞれを、最適値と比較した結果を示す情報が表示されている。言い換えれば、図1の例では、電子黒板200は、発話者Pの声の大きさ(音量)と、話す速度(音声スピード)とを、最適値と比較した結果を示す情報を指標21として表示している。
本実施形態の最適値は、例えば、音声データをテキストデータに変換する場合において、最も好ましいと思われる音声データの音量を示す値と、音声スピードを示す値と、を含む。本実施形態の最適値は、電子黒板200に予め設定された値であって良い。最適値の詳細については、後述する。
本実施形態の電子黒板200は、例えば、発話者Pが発話を開始し、音声データの入力が開始されると、指標21を表示させても良い。
また、電子黒板200は、指標21として、音量の最適値及び音声スピードの最適値を、固定されたライン21aとして表示させる。また、電子黒板200は、指標21として、入力された音声データから生成された音量を示すグラフ21bの長さと、入力された音声データから算出された音声スピードを示すグラフ21cの長さとを、それぞれの最適値と比較した結果に応じて変動させる。
本実施形態では、指標21をこのように表示させることで、発話者Pの声の大きさ(音量)や話す速度(音声スピード)が最適値に近づいているか否かを、発話者Pに提示できる。つまり、本実施形態では、発話者Pの話し方の指標と、音声データから変換されたテキストデータとを表示させることで、発話者Pに対して、自身が発話した音声データが、テキストデータへの変換に適した音量と速度であるか否かを把握させることができる。
このため、本実施形態では、発話者Pに対し、指標21を参照して、電子黒板200との距離の調整や、話す速度の調整を促すことができ、音声データからテキストデータへ変換する際の精度を向上させることができる。つまり、本実施形態では、発話者Pに対して話し方の指標を提供することができる。
尚、電子黒板200のディスプレイにおいて、指標21を表示させる位置は、任意の位置であってよく、指標21の表示位置を発話者Pに設定させても良い。
以下に、本実施形態の電子黒板200について、さらに説明する。図2は、第一の実施形態の情報処理システムの一例を示す図である。
本実施形態の電子黒板200は、情報処理システム100に含まれる。本実施形態の情報処理システム100は、電子黒板200とサーバ装置300とを含む。電子黒板200とサーバ装置300とは、ネットワークを介して通信を行う。
本実施形態の情報処理システム100において、電子黒板200は、手書き入力された文字や画像等を示すストローク情報、電子黒板200の画面をキャプチャした画像データ等を、サーバ装置300に送信する。また、本実施形態の電子黒板200は、マイク等の集音装置を有しており、集音装置によって集音された音声データを、サーバ装置300に送信する。
尚、本実施形態の音声データは、集音装置が集音した全ての音を示す波形をデジタル化したデータである。したがって、本実施形態では、電子黒板200の周辺で発話した人の声を示す発話データは、音声データの一部である。
本実施形態の電子黒板200は、例えば、集音装置が集音した音声データのうち、人が発話した発話データを検出し、発話データが入力されたとき、指標21を表示させても良い。
本実施形態のサーバ装置300は、受信したストローク情報や画像データ、音声データ等を格納する。また、本実施形態のサーバ装置300は、音声データから変換されたテキストデータを、音声データと対応付けて格納する。
尚、サーバ装置300は、例えば、ある会議において電子黒板200が使用された場合、会議名と、会議中に取得したスクロール情報と、画像データと、音声データと、音声データから変換されたテキストデータとが対応付けられて格納されても良い。言い換えれば、サーバ装置300では、電子黒板200から取得した各種の情報が、会議毎に格納されても良い。
以下の説明では、電子黒板200からサーバ装置300に送信される各種のデータをコンテンツデータと呼ぶ。したがって、本実施形態のコンテンツデータは、音声データ、画像データ、動画データ、ストローク情報等を含む。
次に、図3を参照して、本実施形態の電子黒板200のハードウェア構成について説明する。図3は、第一の実施形態の電子黒板のハードウェア構成の一例を示す図である。
図3に示されているように、電子黒板200は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD(Solid State Drive)204、ネットワークI/F(Interface)205、外部機器接続I/F206、及び、無線LAN(Local Area Network)モジュール207を備えた共有端末である。尚、共有端末とは、複数の人が共有して利用することが可能な電子機器であれば良く、電子黒板200以外の電子機器であっても良い。
これらのうち、CPU201は、電子黒板200全体の動作を制御する。尚、CPU201は、例えば、複数のCPUを含んでいても良い。
ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、電子黒板用のプログラム等の各種データを記憶する。ネットワークI/F205は、通信ネットワークとの通信を制御する。外部機器接続I/F206は、USB(Universal Serial Bus)メモリ2600、外付け機器(カメラ2400、スピーカ2300、スマートスピーカ2200)との通信を制御する。無線LANモジュール207は、電子黒板200を無線LANにてネットワークに接続させる。
また、電子黒板200は、キャプチャデバイス211、GPU212、ディスプレイコントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信回路219、近距離通信回路219のアンテナ219a、及び電源スイッチ222を備えている。
これらのうち、キャプチャデバイス211は、PC410-1のディスプレイに対して映像情報を静止画または動画として表示させる。GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。ディスプレイコントローラ213は、GPU212からの入力画像をディスプレイ226(表示部)等へ出力するために画面表示の制御及び管理を行う。接触センサ214は、ディスプレイ226上に電子ペン2500や利用者の手H等が接触したことを検知する。
センサコントローラ215は、接触センサ214の処理を制御する。接触センサ214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ226の上側両端部に設置された2つ受発光装置が、ディスプレイ226に平行して複数の赤外線を放射し、ディスプレイ226の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。
電子ペンコントローラ216は、電子ペン2500と通信することで、ディスプレイ226へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路219は、NFC、Bluetooth(登録商標)等の通信回路である。
電源スイッチ222は、電子黒板200の電源のON/OFFを切り換えるためのスイッチである。
また、電子黒板200は、バスラインBを備えている。バスラインBは、図2に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
更に、電子黒板200は、RS-232Cポート223、変換コネクタ224、Bluetoothコントローラ225を有する。
RS-232Cポート223は、バスラインBと接続されており、PC410-2等をCPU201等に接続する。変換コネクタ224は、PC410-2のUSB(Universal Serial Bus)ポートに電子黒板200を接続するためのコネクタである。
Bluetoothコントローラ225は、例えば、PC410-1等と、Bluetoothによる通信を行うためのコントローラである。
尚、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。また、電子ペンコントローラ216が、電子ペン2500のペン先及びペン尻だけでなく、電子ペン2500の利用者が握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。
本実施形態の電子黒板200は、図3に示すハードウェア構成を有することにより、後述するような各種処理を実現できる。
また、本実施形態のスマートスピーカ2200は、例えば、ネットワークへの接続機能や、マイクを有しており、集音装置の1つである。また、本実施形態のスマートスピーカ2200は、例えば、人工知能を搭載しており、Wi-Fi、Bluetooth等の規格に準じた通信を行うことで音声データの収集や、音声データの再生の他の様々な用途に使用される。
本実施形態では、例えば、スマートスピーカ2200により収集された音声データから、電子黒板200に対するコマンドが取得されても良い。また、図3の例では、集音装置をスマートスピーカ2200としているが、これに限定されない。電子黒板200は、スマートスピーカ2200の代わりに、通常のマイクを有していても良い。
また、電子黒板200は、無線LANモジュール207と、スマートスピーカ2200の有するネットワークの接続機能とにより、無線にて接続されていても良い。以下に、本実施形態のスマートスピーカ2200のハードウェア構成について説明する。
図4は、第一の実施形態のスマートスピーカのハードウェア構成の一例を示す図である。
スマートスピーカ2200は、CPU2201、ROM2202、RAM2203、SSD2204、ネットワークI/F2205、外部機器接続I/F2206、及び、無線LANモジュール2207を備えた情報端末である。
CPU2201は、スマートスピーカ2200全体の動作を制御する。尚、CPU2201は、例えば、複数のCPUを含んでいても良い。
ROM2202は、CPU2201やIPL等のCPU2201の駆動に用いられるプログラムを記憶する。RAM2203は、CPU2201のワークエリアとして使用される。SSD2204は、スマートスピーカ用のプログラム等の各種データを記憶する。ネットワークI/F2205は、通信ネットワークとの通信を制御する。外部機器接続I/F2206は、USBメモリ2601、外付け機器(カメラ2401、スピーカ2301、マイク2700)との通信を制御する。無線LANモジュール2207は、スマートスピーカ2200を無線LANにてネットワークに接続させる。
また、スマートスピーカ2200は、キャプチャデバイス2211、GPU2212、ディスプレイコントローラ2213、接触センサ2214、センサコントローラ2215、電子ペンコントローラ2216、近距離通信回路2219、近距離通信回路2219のアンテナ2219a、及び電源スイッチ2222を備えている。
これらのうち、キャプチャデバイス2211は、PC411-1のディスプレイに対して映像情報を静止画または動画として表示させる。GPU(Graphics Processing Unit)2212は、グラフィクスを専門に扱う半導体チップである。ディスプレイコントローラ2213は、GPU2212からの入力画像をディスプレイ2226(表示装置)等へ出力するために画面表示の制御及び管理を行う。接触センサ2214は、ディスプレイ2226上に電子ペン2501や利用者の手H等が接触したことを検知する。
センサコントローラ2215は、接触センサ2214の処理を制御する。接触センサ2214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ2226の上側両端部に設置された2つ受発光装置が、ディスプレイ2226に平行して複数の赤外線を放射し、ディスプレイ2226の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ2214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ2215に出力し、センサコントローラ2215が、物体の接触位置である座標位置を特定する。
電子ペンコントローラ2216は、電子ペン2501と通信することで、ディスプレイ2226へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路2219は、NFC、Bluetooth(登録商標)等の通信回路である。
電源スイッチ2222は、スマートスピーカ2200の電源のON/OFFを切り換えるためのスイッチである。
また、スマートスピーカ2200は、バスラインB1を備えている。バスラインB1は、図4に示されているCPU2201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
Bluetoothコントローラ2225は、例えば、PC411-1等と、Bluetoothによる通信を行うためのコントローラである。
次に、図5を参照して、本実施形態のサーバ装置300のハードウェア構成について説明する。図5は、第一の実施形態のサーバ装置のハードウェア構成の一例を示す図である。
本実施形態のサーバ装置300は、一般のコンピュータ(外部装置)であり、それぞれバスB2で相互に接続されている入力装置31、出力装置32、ドライブ装置33、補助記憶装置34、メモリ装置35、演算処理装置36及びインターフェース装置37を有する。
入力装置31は、例えばマウスやキーボードであり、各種の情報を入力するために用いられる。出力装置32は、例えばディスプレイ等であり、各種信号の表示(出力)に用いられる。インターフェース装置37は、モデム,LANカード等を含み、ネットワークに接続する為に用いられる。
情報処理プログラムは、サーバ装置300を制御する各種プログラムの少なくとも一部である。情報処理プログラムは例えば記録媒体38の配布やネットワークからのダウンロードなどによって提供される。情報処理プログラムを記録した記録媒体38は、CD-ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
また、情報処理プログラムを記録した記録媒体38がドライブ装置33にセットされると、情報処理プログラムは記録媒体38からドライブ装置33を介して補助記憶装置34にインストールされる。ネットワークからダウンロードされた通信プログラムは、インターフェース装置37を介して補助記憶装置34にインストールされる。
補助記憶装置34は、インストールされた情報処理プログラムを格納すると共に、必要なファイル、データ等を格納する。メモリ装置35は、コンピュータの起動時に補助記憶装置34から情報処理プログラムを読み出して格納する。そして、演算処理装置36はメモリ装置35に格納された各プログラムに従って、後述するような各種処理を実現している。
次に、図6を参照して、情報処理システム100の有する各装置の機能について説明する。図6は、第一の実施形態の情報処理システムの有する各装置の機能を説明する図である。
始めに、電子黒板200の機能について説明する。以下に説明する電子黒板200の機能は、CPU201がRAM203等に格納されたプログラムを読み出して実行することで実現される。
本実施形態の電子黒板200は、集音部210、入力部220、コンテンツ変換部230、送受信部240、音量検出部250、音声スピード算出部260、テキスト取得部265、音声認識部270、表示制御部280を有する。ここで上述した各部は、CPU201がROM202等からプログラムを読み出して実行することで実現される。
また、本実施形態の電子黒板200は、記憶部290を有する。記憶部290には、最適値テーブル295が格納されている。記憶部290は、例えば、電子黒板200のROM202やHDD204等の記憶装置に設けられていても良い。
集音部210は、スマートスピーカ2200に入力された音声を音声データとして取得する。入力部220は、電子黒板200の有するディスプレイ226に対して手書き入力された文字や画像を示すストローク情報や、ディスプレイ226に表示された画像の画像データ等を取得する。尚、本実施形態のストローク情報とは、タッチパネルに対して手書き入力が行われた場合の、利用者による一画毎の軌跡を示す点群の座標報である。また、入力部220は、撮像装置30により撮影された動画データ等を取得する。
コンテンツ変換部230は、音声データ、画像データ、動画データを、サーバ装置300に保存できる形式に変換する。具体的には、コンテンツ変換部230は、音声データをAAC(Advanced Audio Coding)形式等とし、画像データや動画データをJPEG形式等とする。本実施形態のコンテンツ変換部230は、このように、各種のデータを圧縮することで、ネットワークNを介して送受信しやすく、且つ、サーバ装置300のメモリ容量を圧迫しないようにしている。また、本実施形態では、動画データは、画像データに含まれるものである。
送受信部240は、集音部210により取得された音声データをサーバ装置300と音声認識装置400とに送信する。このとき、電子黒板200は、情報処理システム100に含まれない外部端末に音声データを送信しても良い。この外部端末は、例えば、音声認識機能を有する音声認識装置であっても良い。
また、送受信部240は、入力部220により取得された画像データ、動画データ等をサーバ装置300に送信する。
本実施形態の音量検出部250は、集音部210が取得した音声データの音量を検出する。
本実施形態の音声スピード算出部260は、集音部210が取得した音声データが発話データであった場合に、発話者が話す速度を算出する。
以下に、音声スピード算出部260による、発話者が話す速度の算出について説明する。本実施形態の音声スピード算出部260は、集音部210により取得された音声データである波形から、単位時間当たりの音素の個数を求め、その個数を話す速度としても良い。尚、音素とは、時間の流れに沿って切った音韻論の最小単位である。言い換えれば、音素とは、語と語の意味を区別する機能を有する音声の最小単位である。具体的には、例えば、音素とは、「あ」、「い」等である。また、本実施形態の単位時間は、予め事前に設定されていても良い。
このように、本実施形態の音声スピード算出部260は、音声データから単位時間当たりの音素の個数を求め、その個数を話す速度とする音声速度算出部の役割を果たす。
テキスト取得部265は、集音部210により取得された音声データに基づき生成されたテキストデータを取得する。具体的には、テキスト取得部265は、集音部210が音声データを取得すると、送受信部240を介して、外部の音声認識機能を有するサーバ装置(音声認識サーバ)へ音声データを送信する。そして、テキスト取得部265は、音声認識装置に音声データから変換されたテキストデータを、送受信部240を介して取得する。尚、本実施形態の音声認識装置は、例えば、サーバ装置300が兼ねていても良いし、サーバ装置300とは別の装置であっても良い。
尚、テキスト取得部265は、音声データが音声認識部270によってテキストデータに変換された場合には、音声認識部270からテキストデータを取得すれば良い。
音声認識部270は、集音部210が取得した音声データをテキストデータに変換する音声認識機能を実現する。
表示制御部280は、記憶部290に格納された最適値テーブル295を参照し、音量検出部250が検出した音量と、音声スピード算出部260が算出した速度とを、最適値と共に電子黒板200に表示させる。最適値テーブル295の詳細は後述する。
次に、サーバ装置300の機能について説明する。本実施形態のサーバ装置300は、コンテンツデータベース310を有する。また、本実施形態のサーバ装置300は、送受信部320、コンテンツ格納部330を有する。本実施形態のサーバ装置300の有する各部は、演算処理装置36がメモリ装置35から情報処理プログラムを読み出して実行することで実現される。
本実施形態のコンテンツデータベース310は、例えば、サーバ装置300の補助記憶装置34等に設けられていても良い。
コンテンツデータベース310は、電子黒板200から受信した各種のデータ(コンテンツ)が格納される。本実施形態のコンテンツとは、音声データ、画像データ、動画データ、ストローク情報を含む。
本実施形態の送受信部320は、電子黒板200と間の情報の送受信と、音声認識装置400からの情報の受信を行う。
コンテンツ格納部330は、電子黒板200から受信したコンテンツをコンテンツデータベース310へ格納する。
次に、図7を参照して、最適値テーブル295について説明する。図7は、第一の実施形態の最適値テーブルの一例を示す図である。
本実施形態の最適値テーブル295には、音量の最適値と、発話者が話す速度の最適値とが格納されている。
音量の最適値とは、例えば、音声認識機能に対して、様々な音量の音声データを入力し、音声認識を行った結果であるテキストデータが示す内容と、音声データが示す内容との一致度が最も近くなる音量であってもよい。音量の最適値は、このような方法で予め求められ、最適値テーブル295に格納されていても良い。
話す速度の最適値とは、例えば、音声認識機能に対して、様々な速度で話した音声データを入力し、音声認識を行った結果であるテキストデータが示す内容と、音声データが示す内容との一致度が最も近くなる速度であってもよい。話す速度の最適値は、このような方法で予め求められ、最適値テーブル295に格納されていても良い。本実施形態の単位時間とは、例えば、数秒であっても良い。
次に、図8を参照して、本実施形態の電子黒板200の動作について説明する。図8は、第一の実施形態の電子黒板の動作を説明するフローチャートである。
本実施形態の電子黒板200において、音量検出部250は、音声データの入力が開始されたか否かを判定する(ステップS801)。言い換えれば、音量検出部250は、集音部210が音声データを取得したか否かを判定している。
ステップS801において、音声データが入力されない場合、音量検出部250は、音声データが入力されるまで待機する。
ステップS801において、音声データが入力されると、音量検出部250は、音声データの音量を検出する(ステップS802)。続いて、電子黒板200は、音声スピード算出部260により、単位時間が経過したか否かを判定する(ステップS803)。
ステップS803において、単位時間が経過していない場合、音声スピード算出部260は、待機する。
ステップS803において、単位時間が経過した場合、音声スピード算出部260は、単位時間辺りの音声スピード(話し方の速度)を算出する(ステップS804)。
続いて、表示制御部280は、音量検出部250が検出した音量と、音声スピード算出部260が算出した速度とを、最適値テーブル295を参照して、音量の最適値と速度の最適値とを取得する(ステップS805)。
続いて、表示制御部280は、音量検出部250が検出した音量と音量の最適値、音声スピード算出部260が算出した速度と速度の最適値、とを対応付けた指標21(図1参照)を電子黒板200に表示させる(ステップS806)。
続いて、電子黒板200は、音声データの入力が終了したか否かを判定する(ステップS807)。言い換えれば、集音部210が音声データを取得しなくなったか否かを判定する。
ステップS807において、音声データの入力が終了していない場合、つまり、音声データの入力が続いている場合、電子黒板200は、ステップS802へ戻る。
ステップS807において、音声データの入力が終了した場合、電子黒板200は、テキスト取得部265により、入力された音声データを音声認識サーバへ送信する(ステップS808)。続いて、テキスト取得部265は、音声認識サーバから、テキストデータを取得し、表示制御部280により、指標21と共にテキストデータを表示させて(ステップS809)、処理を終了する。
尚、図8の例では、音声データの入力が終了してから、音声データを音声認識サーバへ送信するものとしたが、これに限定されない。本実施形態では、音声データが入力されると、音声データの入力の終了を待たずに、任意のタイミングで音声データを音声認識サーバへ送信しても良い。
また、本実施形態では、入力された音声データをテキストデータに変換する処理を、外部の音声認識サーバで行うか、又は、音声認識部270で行うかが、電子黒板200に設定されていても良い。その場合、テキスト取得部265は、設定に基づき、テキストデータを取得すれば良い。
以下に、図9を参照して、図8に示す処理をさらに説明する。図9は、第一の実施形態の電子黒板による処理を説明する図である。
図9の例では、タイミングt1において、集音部210が音声データの取得を開始した場合の音量検出部250、音声スピード算出部260、表示制御部280の処理のタイミングを示している。
タイミングt1において、音声データの入力が開始されると、集音部210は、例えば、タイミングt1からタイミングt2までの期間K1分の音声データを取得する。
次に、音量検出部250は、タイミングt2において、期間K1の音声データが取得された直後のタイミングt21から、期間K1の間に集音部210が取得した音声データの音量を検出する処理を開始し、音量を検出する。
また、音声スピード算出部260は、音量検出部250が期間K1の音声データの音量を検出する処理を開始した直後のタイミングt22から、期間K1の音声データの音声スピードを算出する処理を開始する。
表示制御部280は、期間K1に取得した音声データの音量の検出と音声スピードの算出が完了したタイミングt23において、この音量と音声スピードとをそれぞれの最適値と共に電子黒板200に表示させる。
また、音量検出部250は、タイミングt2からタイミングt3までの期間K2において取得された音声データについて、タイミングt3の直後のタイミングt31から、期間K2の音声データの音量を検出する処理を開始する。
また、音声スピード算出部260は、音量検出部250が期間K2音声データの音量を検出する処理を開始した直後のタイミングt32から、期間K2の音声データの音声スピードを算出する処理を開始する。
表示制御部280は、期間K2に取得した音声データの音量の検出と音声スピードの算出が完了したタイミングt33において、この音量と音声スピードとをそれぞれの最適値と共に電子黒板200に表示させる。
このように、本実施形態では、音声データが入力されている間は、音声データの音量の検出と音声スピードの算出とを継続して行うため、発話者Pの話し方に対応した指標を表示させることができる。
尚、図9の例では、期間K1、K2、・・・、Knのそれぞれは、音声スピードを算出する際の単位時間であっても良い。
また、図8、図9の例では、音量検出部250による音量の検出と、音声スピード算出部260による速度の算出とを連続した処理としているが、これに限定されない。音量検出部250による音量の検出と、音声スピード算出部260による速度の算出とは、それぞれが独立した処理として実行されても良い。
その場合、表示制御部280は、音量検出部250と音声スピード算出部260のそれぞれから、個別に音量と速度とを取得し、最適値テーブル295から取得した最適値と共に指標21を表示させれば良い。
また、本実施形態では、音声データが入力されると、音量と音声スピードとそれぞれの最適値とを指標として表示させるものとしたが、これに限定されない。
図10は、第一の実施形態の電子黒板の他の表示例を示す図である。図10の例では、指標21の代わりに、指標21の表示させるためのアイコン22が表示されている。
図10の例では、アイコン22を選択する操作が行われると、表示制御部280により、アイコン22の近傍の領域23に、図1に示す指標21を表示させても良い。また、この場合、表示制御部280は、指標21が表示された状態で、再度アイコン22を選択する操作が行われると、指標21を非表示に切り替えても良い。
つまり、本実施形態の電子黒板200では、音声データの音量と音声スピードとそれぞれの最適値とを含む指標の表示/非表示を切り替えることができる。したがって、本実施形態によれば、が任意のタイミングで発話者に指標21を表示させ、発話者の音量と音声スピードと、それぞれの最適値とを提示することができ、音声データからテキストデータへ変換する際の精度を向上させることができる。
尚、指標21の表示の仕方は、図1に示す例に限定されない。指標21は、音量とその最適値と、音声スピードとその最適値とを全て数値で表示させても良い。指標21では、音量検出部250により検出された音量と、音量の最適値とを比較した結果と、音声スピード算出部260により算出された音声スピードと、音声スピードの最適値とを比較した結果と、が示されれば、どのような表示態様であっても良い。
(第二の実施形態)
以下に図面を参照して、第二の実施形態について説明する。第二の実施形態では、電子黒板と外部装置の通信の状態等を示す指標を表示させる点が第一の実施形態と相違する。よって、以下の第二の実施形態の説明では、第一の実施形態との相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態で用いた符号と同様の符号を付与し、その説明を省略する。
図11は、第二の実施形態の電子黒板の表示例を示す図である。本実施形態の電子黒板200Aでは、指標21と指標25を表示させる。
指標25は、電子黒板200Aと外部装置との通信の状態を示す情報と、電子黒板200Aの状態を示す情報とを含む。
通信の状態を示す情報とは、例えば、電子黒板200Aとサーバ装置300とを接続するネットワークの帯域の状態と、電子黒板200Aとサーバ装置300との通信にかかる遅延の状態とを含む。尚、以下の説明では、通信にかかる時間を通信遅延時間と呼ぶ。本実施形態では、通信遅延時間が長いほど、通信にかかる遅延の状態が悪く、通信遅延時間が短いほど、通信にかかる遅延の状態が良くなる。
また、電子黒板200Aの状態を示す情報とは、例えば、電子黒板200AのCPU使用率とメモリ使用率によって示される情報である。
本実施形態の指標25では、ネットワークの帯域の状態を示すアイコン25aと、通信にかかる遅延の状態を示すアイコン25bと、電子黒板200Aの状態を示すアイコン25cと、が表示される。アイコン25a、25b、25cの色は、各アイコンと対応する状態に応じて変化する。
本実施形態では、このように、各アイコンの色を、状態に応じて変化させるため、発話者Pに対して、そのときの通信の状態と、電子黒板200Aの状態とを提示することができる。
また、指標25には、アイコンの色と、色が示す状態とを対応付けを示す情報26がア含まれる。情報26では、3色の色と、3つの状態「良好」、「やや悪い」、「悪い」とが対応付けられている。
本実施形態では、指標25において、情報26をアイコンと共に表示させることで、発話者Pや電子黒板200Aの利用者に対し、通信の状態と電子黒板200Aの状態とを容易に把握させることができる。
尚、通信の状態を示す情報と電子黒板200Aの状態を示す情報の表示の仕方は、アイコンにより表示に限定されない。各状態を示す情報は、例えば、「良好」、「やや悪い」、「悪い」という文字で示されても良い。
また、図11の例では、指標25は、電子黒板200Aのディスプレイにおいて、指標21と対角線上となる位置に表示されるものとしたが、これに限定されない。指標25の表示位置は、任意の位置であって良く、発話者Pや電子黒板200Aの利用者によって設定されても良い。
また、図11の例では、指標25には、電子黒板200Aの状態を示す情報が含まれるものとしたが、これに限定されない。指標25は、電子黒板200Aと外部装置との通信の状態を示す情報のみが含まれていても良い。具体的には、指標25に含まれるアイコンは、アイコン25a、25bのみであっても良い。
次に、図12を参照して、本実施形態の情報処理システム100Aの有する各装置の機能について説明する。図12は、第二の実施形態の情報処理システムの有する各装置の機能を説明する図である。
本実施形態の電子黒板200Aは、集音部210、入力部220、コンテンツ変換部230、送受信部240、音量検出部250、音声スピード算出部260、音声認識部270、表示制御部280、通信状態取得部285、通信状態判定部286、装置状態判定部287を有する。
また、本実施形態の電子黒板200Aは、記憶部290Aを有する。記憶部290Aには、最適値テーブル295と、閾値テーブル296とが格納されている。
本実施形態の通信状態取得部285は、電子黒板200Aと外部装置との通信に用いられるネットワークの帯域と通信遅延時間を取得する。
具体的には、通信状態取得部285は、電子黒板200Aからサーバ装置300に対してデータを送信した送信時刻から、このデータに対する応答を受信した受信時刻までを通信遅延時間とする。尚、本実施形態の通信状態取得部285は、電子黒板200Aからサーバ装置300以外の装置へデータを送信してから、その応答を受信するまでの時間を計測し、通信遅延時間としても良い。
また、通信状態取得部285は、送信時刻から受信時刻までの間に伝送さたれたデータ量をネットワークの帯域として取得する。尚、本実施形態におけるネットワークの帯域とは、ネットワークの伝送路容量(ビットレート:bps)、つまりネットワークのデータ伝送能力(単位時間あたりにどれだけのデータ量を伝送できるか)を意味する。
本実施形態の通信状態判定部286は、閾値テーブル296を参照し、通信状態取得部285により取得された通信遅延時間又はネットワークの帯域に基づき、電子黒板200Aと外部装置(サーバ装置300)との通信の状態を判定する。
尚、本実施形態の通信状態判定部286は、通信遅延時間又はネットワークの帯域の何れか一方と、閾値テーブル296とに基づき通信の状態を判定するものとしたが、これに限定されない。通信状態判定部286は、通信遅延時間とネットワークの帯域の両方と、閾値テーブルとに基づき、通信の状態を判定しても良い。閾値テーブル296の詳細は後述する。
装置状態判定部287は、電子黒板200AのCPU使用率とメモリ使用率とを取得し、閾値テーブル296を参照して電子黒板200Aの状態を判定する。電子黒板200Aの状態とは、言い換えれば、電子黒板200Aにかかる処理負荷の大きさである。
また、装置状態判定部287により取得されるCPU使用率は、例えば、電子黒板200Aの有する全てのCPUのCPU使用率であっても良いし、全てのCPU使用率の平均値等であっても良いし、特定のCPUのCPU使用率であっても良い。また、装置状態判定部287により取得されるメモリ使用率は、例えば、電子黒板200Aの有する全てのメモリのメモリ使用率であっても良いし、全てのメモリ使用率の平均値等であっても良いし、特定のメモリのメモリ使用率であっても良い。以下の説明では、CPU使用率とメモリ使用率とを、装置情報と呼ぶ。
次に、図13を参照して、本実施形態の閾値テーブル296について説明する。図13は、第二の実施形態の閾値テーブルの一例を示す図である。
本実施形態の閾値テーブル296は、情報の項目として、状態、帯域、通信遅延時間、装置情報を有する。閾値テーブル296において、項目「状態」と、その他の項目とは対応付けられている。
項目「状態」の値は、電子黒板200Aと外部装置の通信の状態や、電子黒板200Aの状態を示す値である。具体的には、項目「状態」の値は、「良好」、「やや悪い」、「悪い」がある。
項目「帯域」の値は、通信状態取得部285が取得する帯域を示す。項目「通信遅延時間」の値は、通信状態取得部285が取得した通信遅延時間を示す。項目「装置状態」の値は、装置状態判定部287が取得した電子黒板200AのCPU使用率とメモリ使用率を示す。
本実施形態の通信状態判定部286は、最適値テーブル295を参照することで、電子黒板200Aと外部装置との通信の状態や、電子黒板200Aの状態が、「良好」、「やや悪い」、「悪い」に該当するかを判定することができる。
次に、図14を参照して、本実施形態の電子黒板200Aの動作について説明する。尚、指標21を表示させる動作は、第一の実施形態と同様であるから説明を省略する。
図14は、第二の実施形態の電子黒板の動作を説明するフローチャートである。図14では、指標25を表示させる処理を示している。
本実施形態の電子黒板200Aは、通信状態取得部285により、外部装置へデータを送信し(ステップS1401)、このデータに対する応答を受信する(ステップS1402)。続いて、電子黒板200Aは、通信状態取得部285により、データを送信した送信時刻と応答を受信した受信時刻と、伝送されたデータ量とから、ネットワークの帯域と通信遅延時間を取得する(ステップS1403)。
続いて、通信状態判定部286は、閾値テーブル296を参照し、ネットワークの帯域と対応する状態と、通信遅延時間と対応する状態とを判定する(ステップS1404)。
具体的には、例えば、通信状態判定部286は、ステップS1403で取得した帯域の値が、閾値テーブル296の状態「良好」と対応する範囲に含まれる場合には、帯域の状態を「良好」と判定する。また、例えば、通信状態判定部286は、ステップS1403で取得した通信遅延時間が、閾値テーブル296の状態「やや悪い」と対応する範囲に含まれる場合には、通信にかかる遅延の状態を「やや悪い」と判定する。
続いて、電子黒板200Aは、装置状態判定部287により、電子黒板200AのCPU使用率とメモリ使用率とを取得する(ステップS1405)。言い換えれば、装置状態判定部287は、電子黒板200Aの装置情報を取得する。
続いて、装置状態判定部287は、閾値テーブル296を参照し、電子黒板200Aの状態を判定する(ステップS1406)。
具体的には、例えば、装置状態判定部287は、ステップS1405で取得した装置情報(CPU使用率とメモリ使用率)が、閾値テーブル296の状態「良好」と対応する範囲内であれば、電子黒板200Aの状態を良好と判定する。
続いて、電子黒板200は、表示制御部280により、通信状態判定部286と装置状態判定部287の判定結果に応じて、指標25を表示させる(ステップS1408)。
続いて、電子黒板200Aは、外部装置との通信が終了したか否かを判定する(ステップS1409)。ステップS1409において、通信が終了していない場合、電子黒板200Aは、ステップS1401へ戻る。ステップS1409において、通信が終了した場合、電子黒板200Aは処理を終了する。
尚、本実施形態では、指標25は、指標21と同様に、非表示とすることができる。図15は、第二の実施形態の電子黒板の他の表示例を示す図である。本実施形態の電子黒板200Aでは、指標21と指標25を非表示とし、代わりにアイコン22とアイコン28が表示されている。
図15の状態で、アイコン28を選択する操作が行われると、アイコン28の近傍の領域29に指標25が表示されても良い。
このように、本実施形態では、指標25の表示と非表示とを切り替えることができる。したがって、本実施形態では、例えば、音声データを外部の音声認識装置等に送信して音声認識を行う際に、外部装置との通信の状態を発話者Pや電子黒板200Aの利用者に提示することができる。
(第三の実施形態)
以下に図面を参照して、第三の実施形態について説明する。第三の実施形態では、音量の検出と音声スピードの算出をサーバ装置で行う点が第一の実施形態と相違する。よって、以下の第三の実施形態の説明では、第一の実施形態との相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態で用いた符号と同様の符号を付与し、その説明を省略する。
図16は、第三の実施形態の情報処理システムの有する各装置の機能を説明する図である。
本実施形態の情報処理システム100Bは、電子黒板200Bとサーバ装置300Aとを有する。
本実施形態の電子黒板200Bは、集音部210、入力部220、コンテンツ変換部230、送受信部240、表示制御部280、通信状態取得部285、通信状態判定部286、装置状態判定部287、記憶部290Aを有する。
本実施形態のサーバ装置300Aは、コンテンツデータベース310、送受信部320、コンテンツ格納部330、音量検出部250、音声スピード算出部260、音声認識部270を有する。
以下に図17を参照して、本実施形態の情報処理システム100Bの動作について説明する。図17は、第三の実施形態の情報処理システムの動作を説明するシーケンス図である。
情報処理システム100Bにおいて、電子黒板200Bは、集音部210により音声データを取得し(ステップS1701)、送受信部240によりサーバ装置300Aへ送信する(ステップS1702)。
サーバ装置300Aは、音声データを受信すると、音量検出部250により音声データの音量を検出し、音声スピード算出部260により音声スピードを算出する(ステップS1703)。ステップS1703におけるサーバ装置300Aの処理は、図8のステップS801からステップS804までの処理と同様であるから、説明を省略する。
続いて、サーバ装置300Aは、送受信部320により、音声データの音量と音声スピードとを電子黒板200Bに送信する(ステップS1704)。
電子黒板200Bは、音声データの音量と音声スピードとを受信すると、表示制御部280により、最適値テーブル295を参照して指標21を表示させる(ステップS1705)。
このように、本実施形態では、音声データの音量の検出と音声スピードの算出をサーバ装置300Aで行うため、電子黒板200Bにおける処理負荷を軽減することができる。
尚、図17の例では、サーバ装置300Aが音声認識部270を有する構成としているため、サーバ装置300Aで音声認識を行っても良い。また、音声認識部270は、電子黒板200Bが有していても良い。
(第四の実施形態)
以下に図面を参照して、第四の実施形態について説明する。第四の実施形態は、情報処理システムにおいて、電子黒板の代わりに、画像投影装置を用いた点が、第一の実施形態と相違する。よって、以下の第四の実施形態の説明では、第一の実施形態との相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
図18は、第四の実施形態の情報処理システムを説明する図である。図18に示す情報処理システム100Cは、画像投影装置(プロジェクタ)700とサーバ装置300とを有する。
画像投影装置700は、例えば、画像投影装置700と接続された端末装置から入力された画像データを、スクリーン800に投影する。スクリーン800は、例えば、ホワイトボードや壁面等が代用されても良く、ディスプレイ226に相当するものとなる。
また、画像投影装置700は、電子ペンや利用者の手等の動作を検出することで、スクリーン800に対する手書き入力を検出し、スクリーン800にストローク画像を投影させる。
本実施形態の画像投影装置700は、第一乃至第三の実施形態と同様に、集音装置を有し、音声データが入力されると、音声データの音量と音声スピードとを取得して指標21をスクリーン800に投影させる。
また、画像投影装置700は、例えば、保存ボタン701が操作された場合に、サーバ装置300に画像データや音声データを送信する以外に、例えば、USBメモリ等の可搬型の記録媒体に画像データや音声データを出力し、保存させても良い。
以上のように、本実施形態では、画像投影装置700とサーバ装置300のシステムにおいても、発話者に対して、音声認識の精度を向上させるための指標を提示することができる。
尚、上述した各実施形態における情報処理システムでは、サーバは複数台でも良く、どのサーバに機能を備えさせても良い。尚、各実施形態で説明する端末(電子黒板200)と、サーバ装置300とが接続されたシステム構成は一例であり、用途や目的に応じて様々なシステム構成例があることは言うまでもない。
また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC (Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU(Graphics Processing Unit)や従来の回路モジュール等のデバイスを含むものとする。
以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。
100、100A~100C 情報処理システム
200、200A、200B 電子黒板
210 集音部
220 入力部
230 コンテンツ変換部
240 送受信部
250 音量検出部
260 音声スピード算出部
265 テキスト取得部
270 音声認識部
280 表示制御部
285 通信状態取得部
286 通信状態判定部
287 装置状態判定部
290、290A 記憶部
295 最適値テーブル
296 閾値テーブル
300、300A サーバ装置
特開2017-16296号公報

Claims (14)

  1. 集音装置が集音した音を音声データとして取得する集音部と、
    前記音声データをテキストデータへ変換する音声認識部と、
    前記音声認識部により変換されたテキストデータを取得するテキスト取得部と、
    前記音声認識部によってテキストデータに変換するための最適値に関する情報を記憶する記憶部と、
    前記音声データに基づき生成された前記音の音量を示す情報と、前記音声データに基づき算出された音声の速度を示す情報と、前記音声データに基づき生成された前記音の音量を示す、前記音声認識部によってテキストデータに変換するための最適値に関する情報と、前記音声データに基づき算出された音声の速度を示す、前記音声認識部によってテキストデータに変換するための最適値に関する情報と、を含む指標を表示部に表示させる表示制御部と、備え
    前記表示制御部は、前記音声認識部により変換したテキストデータと前記指標と共に表示する、表示端末。
  2. 前記音の音量を示す情報は、前記音声データに基づき生成された第1の音の音量を示す情報と当該情報の比較に用いるための第2の音の音量を示す情報とに基づいて比較した結果を示す情報である、請求項1記載の表示端末。
  3. 前記音声の速度を示す情報は、前記音声データに基づき算出された第1の音声の速度を示す情報と当該情報の比較に用いるための第2の音声の速度を示す情報とに基づいて比較した結果を示す情報である、請求項2記載の表示端末。
  4. 前記第2の音の音量を示す情報は、前記音声データテキストデータに変換するための音声データの音量を示す最適値である、請求項2記載の表示端末。
  5. 前記第2の音声の速度を示す情報は、前記音声データテキストデータに変換するための音声の速度を示す最適値である、請求項3記載の表示端末。
  6. 前記テキスト取得部は、
    前記表示端末とネットワークを介して通信可能な音声変換サーバへ前記音声データを送信し、その応答として、該ネットワークを介して前記テキストデータを取得する、請求項1乃至5の何れか一項に記載の表示端末。
  7. 前記音声データから、単位時間当たりの音素の個数を求め、前記個数を前記音声の速度とする音声速度算出部を有する、請求項1乃至6の何れか一項に記載の表示端末。
  8. 外部装置との通信に用いられるネットワークの帯域を示す情報と、前記外部装置との通信遅延時間とを取得する通信状態取得部と、
    前記通信状態取得部が取得した前記帯域を示す情報又は前記通信遅延時間とに基づき、前記外部装置との通信の状態を判定する通信状態判定部と、を有し、
    前記表示制御部は、
    前記通信状態判定部による判定結果を前記外部装置との通信の状態を示す指標として表示部に表示させる、請求項1乃至の何れか一項に記載の表示端末。
  9. 前記ネットワークの帯域を示す情報と、前記通信遅延時間のそれぞれについて設定された閾値と、前記通信の状態とが対応付けられた閾値テーブルが格納された記憶部を有し、
    前記通信状態判定部は、前記閾値テーブルを参照して、前記通信の状態を判定する、請求項記載の表示端末。
  10. 前記閾値テーブルにおいて、
    前記表示端末に有する演算処理装置の使用率及び前記表示端末の有するメモリ装置の使用率のそれぞれについて設定された閾値と、前記表示端末の状態とが対応付けられており、
    前記表示端末に有する演算処理装置の使用率及び前記表示端末の有するメモリ装置の使用率を取得して、前記閾値テーブルを参照して前記表示端末の状態を判定する装置状態判定部を有し、
    前記表示制御部は、
    前記通信の状態を示す指標に、前記装置状態判定部により判定結果を含める、請求項記載の表示端末。
  11. コンピュータによる方法であって、前記コンピュータが、
    集音装置が集音した音を音声データとして取得する手順と、
    前記音声データをテキストデータへ変換する手順と、
    前記音声データから変換されたテキストデータを取得する手順と、
    前記音声データを前記テキストデータに変換するための最適値に関する情報を記憶部に記憶する手順と、
    前記音声データに基づき生成された前記音の音量を示す情報と、前記音声データに基づき算出された音声の速度を示す情報と、前記音声データに基づき生成された前記音の音量を示す、前記音声データをテキストデータに変換するための最適値に関する情報と、前記音声データに基づき算出された音声の速度を示す、前記音声データをテキストデータに変換するための最適値に関する情報と、を含む指標を表示部に表示させる手順と、備え
    前記表示させる手順において、前記音声データにより変換したテキストデータと前記指標と共に表示する、方法。
  12. 集音装置が集音した音を音声データとして取得する処理と、
    前記音声データをテキストデータへ変換する処理と、
    前記音声データから変換されたテキストデータを取得する処理と、
    前記音声データを前記テキストデータに変換するための最適値に関する情報を記憶部に記憶する処理と、
    前記音声データに基づき生成された前記音の音量を示す情報と、前記音声データに基づき算出された音声の速度を示す情報と、前記音声データに基づき生成された前記音の音量を示す、前記音声データをテキストデータに変換するための最適値に関する情報と、前記音声データに基づき算出された音声の速度を示す、前記音声データをテキストデータに変換するための最適値に関する情報と、を含む指標を表示部に表示させる処理と、コンピュータに実行させ、
    前記表示させる処理において、前記音声データにより変換したテキストデータと前記指標と共に表示する、プログラム。
  13. 表示端末と、前記表示端末と通信を行う情報処理装置と、を含む情報処理システムであって、
    集音装置が集音した音を音声データとして取得する集音部と、
    前記音声データをテキストデータへ変換する音声認識部と、
    前記音声認識部により変換されたテキストデータを取得するテキスト取得部と、
    前記音声認識部によってテキストデータに変換するための最適値に関する情報を記憶する記憶部と、
    前記音声データに基づき生成された前記音の音量を示す情報と、前記音声データに基づき算出された音声の速度を示す情報と、前記音声データに基づき生成された前記音の音量を示す、前記音声認識部によってテキストデータに変換するための最適値に関する情報と、前記音声データに基づき算出された音声の速度を示す、前記音声認識部によってテキストデータに変換するための最適値に関する情報と、を含む指標を表示部に表示させる表示制御部と、備え
    前記表示制御部は、前記音声認識部により変換したテキストデータと前記指標と共に表示する、情報処理システム。
  14. 表示端末と、前記表示端末と通信を行う情報処理装置と、を含む情報処理システムによる方法であって、
    前記表示端末が、
    集音装置が集音した音を音声データとして取得する手順と、
    前記音声データをテキストデータへ変換する手順と、
    前記音声データから変換されたテキストデータを取得する手順と、
    前記音声データを前記テキストデータに変換するための最適値に関する情報を記憶部に記憶する手順と、
    前記音声データに基づき生成された前記音の音量を示す情報と、前記音声データに基づき算出された音声の速度を示す情報と、前記音声データに基づき生成された前記音の音量を示す、前記音声データをテキストデータに変換するための最適値に関する情報と、前記音声データに基づき算出された音声の速度を示す、前記音声データをテキストデータに変換するための最適値に関する情報と、を含む指標を表示部に表示させる手順と、備え
    前記表示させる手順において、前記音声データにより変換したテキストデータと前記指標と共に表示する、方法。
JP2018051276A 2018-03-19 2018-03-19 表示端末、プログラム、情報処理システム及び方法 Active JP7091745B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018051276A JP7091745B2 (ja) 2018-03-19 2018-03-19 表示端末、プログラム、情報処理システム及び方法
US16/269,611 US20190287531A1 (en) 2018-03-19 2019-02-07 Shared terminal, information processing system, and display controlling method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018051276A JP7091745B2 (ja) 2018-03-19 2018-03-19 表示端末、プログラム、情報処理システム及び方法

Publications (3)

Publication Number Publication Date
JP2019164232A JP2019164232A (ja) 2019-09-26
JP2019164232A5 JP2019164232A5 (ja) 2021-11-11
JP7091745B2 true JP7091745B2 (ja) 2022-06-28

Family

ID=67905990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018051276A Active JP7091745B2 (ja) 2018-03-19 2018-03-19 表示端末、プログラム、情報処理システム及び方法

Country Status (2)

Country Link
US (1) US20190287531A1 (ja)
JP (1) JP7091745B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111124346B (zh) * 2019-11-29 2021-07-16 维沃移动通信有限公司 电子设备及其音量调节方法
JP7316971B2 (ja) * 2020-03-30 2023-07-28 本田技研工業株式会社 会議支援システム、会議支援方法、およびプログラム
DE102022000787A1 (de) * 2021-03-26 2022-09-29 Suunto Oy Einrichtung mit einer Anzeige

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149707A (ja) 2000-11-09 2002-05-24 Sony Corp 情報端末装置および使用可能状況報知方法
JP2002342122A (ja) 2001-05-15 2002-11-29 Toshiba Corp データ処理装置及びデータ処理方法
JP2004302196A (ja) 2003-03-31 2004-10-28 Nec Corp 音声認識装置、音声認識方法及び音声認識プログラム
JP2008061060A (ja) 2006-09-01 2008-03-13 Matsushita Electric Ind Co Ltd 会議システム
JP2009187000A (ja) 2008-01-10 2009-08-20 Asahi Kasei Corp ユーザ音声診断装置及びユーザ音声診断方法
JP2012160173A (ja) 2011-01-13 2012-08-23 Nikon Corp 電子機器および電子機器の制御プログラム
JP2017015823A (ja) 2015-06-29 2017-01-19 ブラザー工業株式会社 発話練習装置、表示制御方法、及びプログラム
JP2017068061A (ja) 2015-09-30 2017-04-06 株式会社東芝 通信端末及び音声認識システム
JP2018023115A (ja) 2011-12-28 2018-02-08 株式会社リコー 表示装置、システム、表示方法及びプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149707A (ja) 2000-11-09 2002-05-24 Sony Corp 情報端末装置および使用可能状況報知方法
JP2002342122A (ja) 2001-05-15 2002-11-29 Toshiba Corp データ処理装置及びデータ処理方法
JP2004302196A (ja) 2003-03-31 2004-10-28 Nec Corp 音声認識装置、音声認識方法及び音声認識プログラム
JP2008061060A (ja) 2006-09-01 2008-03-13 Matsushita Electric Ind Co Ltd 会議システム
JP2009187000A (ja) 2008-01-10 2009-08-20 Asahi Kasei Corp ユーザ音声診断装置及びユーザ音声診断方法
JP2012160173A (ja) 2011-01-13 2012-08-23 Nikon Corp 電子機器および電子機器の制御プログラム
JP2018023115A (ja) 2011-12-28 2018-02-08 株式会社リコー 表示装置、システム、表示方法及びプログラム
JP2017015823A (ja) 2015-06-29 2017-01-19 ブラザー工業株式会社 発話練習装置、表示制御方法、及びプログラム
JP2017068061A (ja) 2015-09-30 2017-04-06 株式会社東芝 通信端末及び音声認識システム

Also Published As

Publication number Publication date
JP2019164232A (ja) 2019-09-26
US20190287531A1 (en) 2019-09-19

Similar Documents

Publication Publication Date Title
US11181980B2 (en) Natural human-computer interaction for virtual personal assistant systems
US10733987B1 (en) System and methods for providing unplayed content
US10546582B2 (en) Information processing device, method of information processing, and program
US8473099B2 (en) Information processing system, method of processing information, and program for processing information
US8606735B2 (en) Apparatus and method for predicting user's intention based on multimodal information
US10241990B2 (en) Gesture based annotations
JP7091745B2 (ja) 表示端末、プログラム、情報処理システム及び方法
US10831440B2 (en) Coordinating input on multiple local devices
CN110556127B (zh) 语音识别结果的检测方法、装置、设备及介质
CN109032345B (zh) 设备控制方法、装置、设备、服务端和存储介质
KR102193029B1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
KR20210124313A (ko) 인터랙티브 대상의 구동 방법, 장치, 디바이스 및 기록 매체
JP6514475B2 (ja) 対話装置および対話方法
JP2019159261A (ja) 電子黒板、映像表示方法、プログラム
JP7035526B2 (ja) 情報処理装置、プログラム及び情報処理方法
WO2016206647A1 (zh) 用于控制机器装置产生动作的系统
US20180268817A1 (en) Information processing apparatus, information processing method, and computer program product
CN108388399B (zh) 虚拟偶像的状态管理方法及系统
US10593077B2 (en) Associating digital ink markups with annotated content
WO2019093123A1 (ja) 情報処理装置および電子機器
KR20220111574A (ko) 전자 장치 및 그 제어 방법
CN108986818A (zh) 视频通话挂断方法、装置、设备、服务端及存储介质
CN113380275B (zh) 语音处理方法、装置、智能设备及存储介质
KR102656461B1 (ko) 사용자의 움직임에 기반하여 객체의 속성을 제어하는 전자 장치 및 그 제어 방법
US20210082427A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R151 Written notification of patent or utility model registration

Ref document number: 7091745

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151