JP2018186366A - 会議システム - Google Patents
会議システム Download PDFInfo
- Publication number
- JP2018186366A JP2018186366A JP2017086149A JP2017086149A JP2018186366A JP 2018186366 A JP2018186366 A JP 2018186366A JP 2017086149 A JP2017086149 A JP 2017086149A JP 2017086149 A JP2017086149 A JP 2017086149A JP 2018186366 A JP2018186366 A JP 2018186366A
- Authority
- JP
- Japan
- Prior art keywords
- text data
- conference
- data
- hmd
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】或る会議参加者の発言内容を聞き逃した他の会議参加者に当該発言内容を理解させる。
【解決手段】会議システムは、カメラ部および装着者から発せられる音声を集音し音声データを生成するマイク部をそれぞれが搭載する複数のヘッドマウントディスプレイと、音声データをテキストデータに変換する変換処理を行い、変換処理を行った時刻を示す時刻情報を付したテキストデータを出力する処理装置と、を備え、複数のヘッドマウントディスプレイのそれぞれは、処理装置から出力されたテキストデータを時刻情報に基づき時系列に表示していくとともに、いずれかのヘッドマウントディスプレイに搭載されたカメラ部による撮影によって得られた映像データの映像を表示する。
【選択図】図4
【解決手段】会議システムは、カメラ部および装着者から発せられる音声を集音し音声データを生成するマイク部をそれぞれが搭載する複数のヘッドマウントディスプレイと、音声データをテキストデータに変換する変換処理を行い、変換処理を行った時刻を示す時刻情報を付したテキストデータを出力する処理装置と、を備え、複数のヘッドマウントディスプレイのそれぞれは、処理装置から出力されたテキストデータを時刻情報に基づき時系列に表示していくとともに、いずれかのヘッドマウントディスプレイに搭載されたカメラ部による撮影によって得られた映像データの映像を表示する。
【選択図】図4
Description
本発明は、会議システムに関する。
従来、複数の端末機を備えた会議システムが知られている(特許文献1参照)。特許文献1の会議システムが備える複数の端末機は、会議参加者に提供される。各端末機には、IPカメラやIP電話が接続される。これにより、会議の参加者全員が同一の会議室に居なくても、会議を進めることができる。
会議参加者が発する音声が小さい場合、当該会議参加者の発言内容を他の会議参加者が聞き逃す(聞き取れない)という不都合が生じる。また、複数人の会議参加者の各発言タイミングが重複した場合にも、同様の不都合が生じ得る。この場合には、発言した会議参加者に再度発言を求めるなどの対策をとらなければならず、会議の進行に支障が出る。
本発明は、上記課題を解決するためになされたものであり、或る会議参加者の発言内容を聞き逃した他の会議参加者に当該発言内容を理解させることが可能な会議システムを提供することを目的とする。
上記目的を達成するため、本発明の会議システムは、カメラ部および装着者から発せられる音声を集音し音声データを生成するマイク部をそれぞれが搭載する複数のヘッドマウントディスプレイと、音声データをテキストデータに変換する変換処理を行い、変換処理を行った時刻を示す時刻情報を付したテキストデータを出力する処理装置と、を備える。複数のヘッドマウントディスプレイのそれぞれは、処理装置から出力されたテキストデータを時刻情報に基づき時系列に表示していくとともに、いずれかのヘッドマウントディスプレイに搭載されたカメラ部による撮影によって得られた映像データの映像を表示する。
本発明の構成では、各会議参加者にヘッドマウントディスプレイを装着させると、各会議参加者が発した音声に対応する音声データがテキストデータに変換される(各会議参加者の発言内容がテキスト化される)。そして、各会議参加者のヘッドマウントディスプレイには、各会議参加者の発言内容をテキスト化したテキストデータが表示される。これにより、或る会議参加者の発言内容を聞き逃した他の会議参加者に当該発言内容を理解させることができる。その結果、発言した会議参加者に再度発言を求めるなどの対策をとらなくてもよくなり、会議が円滑に進む。さらに、テキストデータは時系列に表示されていくので、聞き逃した発言内容に対応するテキストデータを速やかに見つけることができる。
また、本発明の構成では、各ヘッドマウントディスプレイにカメラ部が搭載され、当該カメラ部により会議の様子が撮影される。そして、各ヘッドマウントディスプレイには、いずれかのヘッドマウントディスプレイにより撮影される会議の様子が表示される。これにより、テレビ会議に必要な機器が設置された会議室でなくても、テレビ会議と同様の会議を行うことができる。
本発明によれば、或る会議参加者の発言内容を聞き逃した他の会議参加者に当該発言内容を理解させることができる。
<会議システムの構成>
図1に示すように、本実施形態の会議システム1は、複数のヘッドマウントディスプレイ2を備える。以下の説明では、ヘッドマウントディスプレイをHMDと称する。また、会議システム1は、サーバー3を備える。サーバー3は「処理装置」に相当する。
図1に示すように、本実施形態の会議システム1は、複数のヘッドマウントディスプレイ2を備える。以下の説明では、ヘッドマウントディスプレイをHMDと称する。また、会議システム1は、サーバー3を備える。サーバー3は「処理装置」に相当する。
複数のHMD2は、サーバー3と通信可能に接続される。複数のHMD2とサーバー3との間では、たとえば、インターネットやLANなどの通信ネットワークNTを介した通信が行われる。なお、複数のHMD2が互いに通信可能に接続されてもよい。
複数のHMD2は、会議の参加者に提供される。各会議参加者はHMD2を装着して会議に参加する。会議室に居ない会議参加者にもHMD2は提供される。会議室に居ない会議参加者はHMD2を装着することにより会議に参加できる。詳細は後述する。
<HMDの構成>
複数のHMD1は、互いに同じ構成を有する。したがって、ここでは、1つのHMD2の構成について説明し、他のMHD2の構成については説明を省略する。
複数のHMD1は、互いに同じ構成を有する。したがって、ここでは、1つのHMD2の構成について説明し、他のMHD2の構成については説明を省略する。
HMD2は、眼鏡型であり、眼鏡のレンズに相当する部分に種々の情報を表示する。このため、HMD2を装着した装着者からすると、眼前に種々の情報が表示されたように見える。また、HMD2は、装着者の眼前の風景(物体)を撮影する。
HMD2は、表示部21、カメラ部22、マイク部23、操作部24、HMD制御部25、HMD通信部26およびHMD記憶部27を備える。これら各部は眼鏡型のフレームに搭載される。
表示部21は、表示を行う。表示部21は、装着者の眼と対向する位置に配置される。これにより、装着者の眼前に種々の情報が表示される。たとえば、外光を透過させる光学透過型(光学シースルー型)のディスプレイ装置が表示部21として用いられる。光学透過型のディスプレイ装置からなる表示部21は、ハーフミラーを含み、表示すべき情報をハーフミラーによって装着者の目に向けて反射する。このとき、外光はハーフミラーを透過して装着者の目に入射する。
カメラ部22は、撮影を行う。カメラ部22は、CCDカメラなどを含み、装着者の視界方向の撮影が可能な位置に配置される。これにより、装着者の眼前の風景(物体)が撮影される。カメラ部22は、撮影によって得られた映像データを出力する。
なお、カメラ部22は、HMD2のフレームに対して着脱可能である。HMD2のフレームからカメラ部22を取り外した場合でも、当該カメラ部22による撮影を行える。たとえば、HMD2のフレームからカメラ部22を取り外すことにより、装着者は自身を撮影することができる。
マイク部23は、装着者から発せられた音声を集音し、当該集音した音声に対応する音声データの生成を行う。マイク部23は、マイクロフォンおよび音声処理回路を含む。マイクロフォンは、単一指向性であり、装着者の音声を集音する。音声処理回路は、マイクロフォンから出力される音声信号(電気信号)に所定の音声処理を施し、装着者の音声(マイクロフォンが集音した音声)に対応する音声データを生成する。
操作部24は、HMD2による表示や撮影に関する各種設定を行うための操作を装着者から受け付ける。なお、スマートフォンやノート型パーソナルコンピューターなど装着者が所有する携帯端末をHMD2と通信可能に接続すれば、当該携帯端末からでも、HMD2による表示や撮影に関する各種設定を行うことが可能となる。
HMD制御部25は、制御用のプログラムやデータに基づき動作するCPUを含み、HMD2を制御するための各種処理を実行する。たとえば、HMD制御部25は、表示部21による表示、カメラ部22による撮影、および、マイク部23による音声データの生成をそれぞれ制御する。また、HMD制御部25は、操作部24(あるいは、HMD2に接続された携帯端末)が装着者から受け付けた各種操作を検知する。
HMD通信部26は、HMD2を外部機器に通信可能に接続するための通信インターフェースであり、通信回路などを含む。HMD制御部25は、HMD通信部26を用いて、サーバー3と通信する(サーバー3との間でデータを送受信する)。たとえば、HMD2からサーバー3へは、音声データや映像データが送信される。
HMD記憶部27は、不揮発性メモリー(ROM)および揮発性メモリー(RAM)を含み、HMD制御部25(CPU)を動作させるためのプログラムやデータを記憶する。また、HMD記憶部27は、サーバー3から受信したデータ(後述するテキストデータなど)を記憶する。
<サーバーの構成>
サーバー3は、サーバー制御部31、サーバー通信部32およびサーバー記憶部33を備える。なお、サーバー3は、会議室に設置されてもよいし、他の場所に設置されてもよい。また、サーバー3と同様の機能を他の装置に持たせ、当該装置をサーバー3の代わりとしてもよい。たとえば、複合機のような画像形成装置にサーバー3と同様の機能を持たせてもよい。
サーバー3は、サーバー制御部31、サーバー通信部32およびサーバー記憶部33を備える。なお、サーバー3は、会議室に設置されてもよいし、他の場所に設置されてもよい。また、サーバー3と同様の機能を他の装置に持たせ、当該装置をサーバー3の代わりとしてもよい。たとえば、複合機のような画像形成装置にサーバー3と同様の機能を持たせてもよい。
サーバー制御部31は、制御用のプログラムやデータに基づき動作するCPUを含み、サーバー3を制御するための各種処理を実行する。ここで、サーバー制御部31は、所定の音声認識技術を用いて音声データの音声を認識し、音声データをテキストデータに変換する変換処理を行う。サーバー制御部31による変換処理では、複数のHMD2からそれぞれ出力される全ての音声データが処理対象となる。
サーバー通信部32は、サーバー3を外部機器に通信可能に接続するための通信インターフェースであり、通信回路などを含む。サーバー制御部31は、サーバー通信部32を用いて、複数のHMD2と通信する(複数のHMD2との間でデータを送受信する)。たとえば、サーバー3から複数のHMD2へは、後述するテキストデータが送信される。
サーバー記憶部33は、ROMおよびRAMを含み、サーバー制御部31を動作させるためのプログラムやデータを記憶する。たとえば、サーバー記憶部33には、サーバー制御部31に音声認識処理を行わせるための音声認識プログラムが記憶される。
また、サーバー記憶部33は、HDDなど大容量の記憶デバイスを含む。大容量の記憶デバイスには、複数のHMD2から出力される音声データや映像データが記憶される。また、大容量の記憶デバイスには、後述するテキストデータが記憶される。
<会議システムを用いる会議>
(概要)
会議システム1は、会議を支援するためのシステムである。会議システム1を用いる会議では、各会議参加者にHMD2が提供される。すなわち、各会議参加者がHMD2を装着する。なお、会議室とは異なる場所に居る会議参加者にもHMD2が提供される(当該会議参加者もHMD2を装着する)。
(概要)
会議システム1は、会議を支援するためのシステムである。会議システム1を用いる会議では、各会議参加者にHMD2が提供される。すなわち、各会議参加者がHMD2を装着する。なお、会議室とは異なる場所に居る会議参加者にもHMD2が提供される(当該会議参加者もHMD2を装着する)。
そして、会議システム1を用いる会議では、複数のHMD2のそれぞれに会議支援用の映像やデータが表示される。具体的に、複数のHMD2のそれぞれは、いずれかのHMD2(カメラ部22)の撮影によって得られる映像データの映像(以下、会議映像と称する場合がある)を表示する。並行して、複数のHMD2のそれぞれは、各HMD2からの音声データ(会議参加者の発言(音声)から生成されたデータ)に対してサーバー3が変換処理を行うことによって得られるテキストデータ(会議参加者の発言内容をテキスト化したデータ)を表示する。なお、或る言語のテキストデータから他の言語のテキストデータに変換する翻訳機能をサーバー3に搭載し、翻訳後のテキストデータが各HMD2に表示されるよう構成してもよい。
たとえば、図2に示すように、各HMD2(表示部21)の表示エリアは、第1表示エリア211、第2表示エリア212および第3表示エリア213の3つに区分けされる。第1表示エリア211は、会議映像を表示するための表示エリアである。第2表示エリア212は、会議参加者の発言内容をテキスト化したテキストデータを表示するための表示エリアである。第3表示エリア213は、会議参加者に眼前の様子をそのまま見せるための表示エリアである。すなわち、第3表示エリア213での表示は行われない。
(会議映像の表示)
会議の開催に際し、各会議参加者は自身のHMD2に対して表示設定を行う。表示設定では、会議で使用される複数のHMD2のいずれで撮影された会議映像をHMD2に表示するかの設定が行われる。言い換えると、各HMD2は、会議参加者が指定したHMD2で撮影された会議映像を第1表示エリア211に表示する。
会議の開催に際し、各会議参加者は自身のHMD2に対して表示設定を行う。表示設定では、会議で使用される複数のHMD2のいずれで撮影された会議映像をHMD2に表示するかの設定が行われる。言い換えると、各HMD2は、会議参加者が指定したHMD2で撮影された会議映像を第1表示エリア211に表示する。
たとえば、図3に示すように、会議参加者が5人(5人の会議参加者にそれぞれ符号A〜Eを付す)であり、そのうち会議参加者Eが会議室R1とは別の場所(部屋R2)から会議に参加するとする。
図3に示す例では、会議参加者Eは会議室R1に居ない。この場合、会議参加者Eは自身の様子(表情や態度など)を会議参加者A〜Dに見せることができない。このため、会議参加者Eの発言内容が会議参加者A〜Dに上手く伝わらないという不都合が生じ得る。しかし、会議システム1を用いると、会議参加者Eは自身の様子を会議参加者A〜Dに見せることができる。
具体的には、会議参加者A〜Dの各HMD2に会議参加者EのHMD2で撮影された会議映像が表示されるよう会議参加者A〜Dに表示設定を行わせる。そして、会議参加者EのHMD2からカメラ部22を取り外させ、会議参加者Eに自身の撮影(自撮り)を行わせる。
これにより、図4および図5に示すように、会議参加者A〜Dの各HMD2の第1表示エリア211には、会議参加者Eが自身のHMD2から取り外したカメラ部22で自身を撮影した会議映像(この場合は、会議参加者Eの自撮り映像)が表示される。図4には、会議参加者Aからの見え方を図示し、図5には、会議参加者Dからの見え方を図示する。会議参加者Aの対向位置には会議参加者Dが居るので、会議参加者Aからは第3表示エリア213を通して会議参加者Dを視認することができる。会議参加者Dの対向位置には会議参加者AおよびBが居るので、会議参加者Dからは第3表示エリア213を通して会議参加者AおよびBを視認することができる。図示しないが、会議参加者BおよびCの各HMD2の第1表示エリア211にも同様の会議映像(会議参加者Eの自撮り映像)が表示される。
各HMD2の第1表示エリア211に同じ会議映像を表示させてもよいが、異なる会議映像を表示させてもよい。たとえば、会議参加者AのHMD2に、会議参加者EのHMD2で撮影された会議映像(会議参加者Eの自撮り映像)に代えて、会議参加者B〜DのいずれかのHMD2で撮影された会議映像を表示させてもよい。すなわち、会議参加者A〜Eは自身のHMD2の第1表示エリア211に表示する会議映像を任意に設定することができる。また、会議参加者A〜Eは自身のHMD2の第1表示エリア211に会議映像が表示されないように設定することもできる。
なお、各HMD2はスピーカーを搭載する。あるいは、各HMD2はイヤフォンジャックを有する。これにより、スピーカーやイヤフォンを介して、会議室R1で使用される各HMD2が集音した音声(会議参加者A〜Dの各発言)を会議参加者Eに聞き取らせることができる。
たとえば、各HMD2は、カメラ部22による撮影によって得られた映像データをサーバー3に出力する。このとき、サーバー3は、HMD2ごとに、映像データと撮影時刻とを対応付けて記憶する。
また、各HMD2は、表示設定で指定されたHMD2(ここでは、指定HMD2と称する)の映像データをサーバー3から取得する。そして、各HMD2は、指定HMD2が撮影した会議映像を第1表示エリア211に表示する。
なお、各HMD2を互いに通信可能に接続し、各HMD2が指定HMD2から映像データを直接取得するよう構成してもよい。このように構成する場合にも、各HMD2からサーバー3への映像データの出力は行われる。
(テキストデータの表示)
複数のHMD2およびサーバー3は、各会議参加者の発言内容(音声)をテキスト化したテキストデータを表示するテキスト表示処理を行う。各HMD2は、テキスト表示処理として、サーバー3に音声データを出力する音声データ出力処理、および、第2表示アリア212にテキストデータを時系列に表示する時系列表示処理を行う。サーバー3は、テキスト表示処理として、各HMD2からの音声データをテキストデータに変換し、当該変換したテキストデータを各HMD2に出力するテキストデータ出力処理(変換処理を含む処理)を行う。
複数のHMD2およびサーバー3は、各会議参加者の発言内容(音声)をテキスト化したテキストデータを表示するテキスト表示処理を行う。各HMD2は、テキスト表示処理として、サーバー3に音声データを出力する音声データ出力処理、および、第2表示アリア212にテキストデータを時系列に表示する時系列表示処理を行う。サーバー3は、テキスト表示処理として、各HMD2からの音声データをテキストデータに変換し、当該変換したテキストデータを各HMD2に出力するテキストデータ出力処理(変換処理を含む処理)を行う。
まず、図6に示すフローチャートを参照して、各HMD2により行われる音声データ出力処理の流れを説明する。以下、1つのHMD2に着目して音声データ出力処理の流れを説明するが、他のHMD2でも同様の音声データ出力処理が行われる。
図6に示すフローチャートは、会議支援を開始する開始条件が満たされたときにスタートする。たとえば、HMD2には、会議支援用アプリケーションがインストールされる。そして、HMD制御部25は、会議支援用アプリケーションを起動するための操作を操作部24が会議参加者(装着者)から受け付けたとき、開始条件が満たされたと判断する。
ステップS1において、HMD制御部25は、マイク部23に音声が入力されたか否かを判断する。すなわち、ここでは、HMD2を装着した会議参加者が発言したか否か(会議参加者が音声を発したか否か)の判断が行われる。その結果、マイク部23に音声が入力されたとHMD制御部25が判断した場合には、ステップS2に移行する。なお、マイク部23に音声が入力されると、マイク部23は音声データを生成する。
ステップS2において、HMD制御部25は、HMD通信部26を用いて、サーバー3に音声データを出力する。そして、ステップS3に移行する。なお、ステップS1において、マイク部23に音声が入力されていないとHMD制御部25が判断した場合にも、ステップS3に移行する。
ステップS3において、HMD制御部25は、テキスト表示処理を終了する処理終了条件が満たされたか否かを判断する。たとえば、HMD制御部25は、会議支援用アプリケーションを終了するための操作を操作部24が会議参加者(装着者)から受け付けると、処理終了条件が満たされたと判断する。処理終了条件が満たされたとHMD制御部25が判断した場合、本フローは終了する。一方で、処理終了条件が満たされていないとHMD制御部25が判断した場合、ステップS1に移行する。
このような音声データ出力処理がHMD制御部25によって行われることにより、HMD2を装着した会議参加者が音声を発するごとに(発言するごとに)、当該音声に対応する音声データがHMD2からサーバー3に出力される。
次に、図7に示すフローチャートを参照して、サーバー3により行われるテキストデータ出力処理の流れを説明する。図7に示すフローチャートのスタートは、サーバー通信部32が音声データを受信したことをサーバー制御部31が検知したとき(いずれかのHMD2が音声データを出力したとき)である。
ステップS11において、サーバー制御部31は、サーバー通信部32が受信した音声データをテキストデータに変換する(変換処理を行う)。これにより、会議参加者の発言内容(音声)がテキスト化される。
ステップS12において、サーバー制御部31は、変換処理を行った時刻を認識し、変換処理を行った時刻を示す時刻情報を当該時刻情報で示される時刻に行った変換処理で得られたテキストデータに付す。そして、サーバー制御部31は、サーバー通信部32を用いて、時刻情報を付したテキストデータを全てのHMD2に出力する。
このとき、サーバー制御部31は、出力するテキストデータの基となった音声データを生成したHMD2(ここでは、対象HMD2と称する)を認識する。また、サーバー制御部31は、対象HMD2を装着している会議参加者を認識する。たとえば、会議の開催に際し、各会議参加者が装着するHMD2を示す情報がサーバー3に登録される。そして、サーバー制御部31は、各HMD2にテキストデータを出力するとき、対象HMD2を装着する会議参加者を示す装着者情報をテキストデータに付す。
さらに、サーバー制御部31は、各HMD2にテキストデータを出力するとき、出力するテキストデータの基となった音声データの音量レベルを認識する。そして、サーバー制御部31は、当該認識した音量レベルを示す音量情報をテキストデータに付す。
ステップS13において、サーバー制御部31は、変換処理を行った時刻と、当該時刻に行った変換処理で処理対象とした音声データとを対応付けてサーバー記憶部33に記憶させる。さらに、サーバー制御部31は、変換処理を行った時刻と、当該時刻に行った変換処理で得られたテキストデータとを対応付けてサーバー記憶部33に記憶させる。
なお、サーバー3は、いずれかのHMD2から音声データを受信するごとに、変換処理を含むテキストデータ出力処理を行う。すなわち、サーバー3によるテキストデータ出力処理は繰り返し行われる。これにより、会議参加者が発言するごとに、会議発言者の発言内容をテキスト化したテキストデータが全てのHMD2に出力される。
次に、図8に示すフローチャートを参照して、各HMD2により行われる時系列表示処理の流れを説明する。以下、1つのHMD2に着目して時系列表示処理の流れを説明するが、他のHMD2でも同様の時系列表示処理が行われる。
図8に示すフローチャートは、図6に示したフローチャートと同様、会議支援を開始する開始条件が満たされたときにスタートする。すなわち、HMD制御部25による時系列表示処理は音声データ出力処理と並行して行われる。
ステップS21において、HMD制御部25は、サーバー3からのテキストデータをHMD通信部26が受信したか否かを判断する。その結果、サーバー3からテキストデータを受信したとHMD制御部25が判断した場合には、ステップS22に移行する。
ステップS22において、HMD制御部25は、サーバー3から受信したテキストデータの表示を表示部21に行わせる(表示部21が第2表示エリア212にテキストデータを表示する)。このとき、HMD制御部25は、第2表示エリア212に表示すべきテキストデータに付された時刻情報で示される時刻を認識し、表示部21に時系列表示を行わせる。すなわち、表示部21は、時刻情報で示される時刻に基づきテキストデータを時系列に表示していく。具体例については、後に説明する。
ステップS22の処理後、ステップS23に移行する。ステップS21において、サーバー3からテキストデータを受信していないとHMD制御部25が判断した場合にも、ステップS23に移行する。
ステップS23において、HMD制御部25は、テキスト表示処理を終了する処理終了条件が満たされたか否かを判断する。処理終了条件が満たされたとHMD制御部25が判断した場合、本フローは終了する。一方で、処理終了条件が満たされていないとHMD制御部25が判断した場合、ステップS21に移行する。
ここで、テキストデータの時系列表示について、図3に示した会議を例にとって説明する。また、以下の説明では、図4および図5を参照し、会議参加者AおよびDの各HMD2に着目する。
たとえば、会議参加者A、B、C、DおよびEがこの順番で発言した場合、会議参加者A、B、C、DおよびEの各発言内容をテキスト化したテキストデータが全てのHMD2の第2表示エリア212に表示される。図4および図5では、会議参加者Aに対応するテキストデータを文字「a」の羅列で表し、当該テキストデータに符号ATを付す。会議参加者Bに対応するテキストデータを文字「b」の羅列で表し、当該テキストデータに符号BTを付す。会議参加者Cに対応するテキストデータを文字「c」の羅列で表し、当該テキストデータに符号CTを付す。会議参加者Dに対応するテキストデータを文字「d」の羅列で表し、当該テキストデータに符号DTを付す。会議参加者Eに対応するテキストデータを文字「e」の羅列で表し、当該テキストデータに符号ETを付す。
会議参加者A、B、C、DおよびEがこの順番で発言した場合、テキストデータAT、BT、CT、DTおよびETがこの順番で第2表示エリア212に並べられる。時刻情報で示される時刻が最も古いテキストデータATは、第2表示エリア212のうち最上段に表示される。そして、第2表示エリア212の上段から下段に向かって、テキストデータBT、CTおよびDTが順次表示され、時刻情報で示される時刻が最も新しいテキストデータETは最後尾に表示される。
図示しないが、第2表示エリア212におけるテキストデータの表示数が上限に達している場合には、時刻情報で示される時刻が最も新しいテキストデータが第2表示エリア212の最下段に表示される。この状態で、第2表示エリア212に表示すべきテキストデータが新規に追加されると、第2表示エリア212に表示中の複数のテキストデータのうち、時刻情報で示される時刻が最も古いテキストデータ(すなわち、第2表示エリア212の最上段に表示されたテキストデータ)の表示が停止され、残りのテキストデータが下段から上段に向かってシフトする。そして、第2表示エリア212の最下段に新規のテキストデータが追加表示される。以降、第2表示エリア212に表示すべきテキストデータが新規に追加されるごとに、同様の表示制御が行われる。
また、第2表示エリア212には、テキストデータごとに、テキストデータに対応する会議参加者を特定するための特定用画像20が表示される。特定用画像20の表示データは予めHMD記憶部27に記憶される。
特定用画像20を表示するための処理をHMD制御部25に行わせるため、サーバー3からのテキストデータには装着者情報が付される。HMD制御部25は、テキストデータを受信すると、当該テキストデータに付された装着者情報で示される会議参加者(装着者)に対応する特定用画像20を当該テキストデータと共に表示部21に表示させる。たとえば、特定用画像20は予め複数準備される。そして、各会議参加者は複数の特定用画像20から自身に対応付ける特定用画像20を任意に選択することができる。なお、特定用画像20の形態は特に限定されず、アイコンのような絵柄画像でもよいし、テキスト画像でもよい。
たとえば、図4および図5に示すように、テキストデータの先頭文字と隣接する位置(先頭文字の左側の位置)に特定用画像20が表示される。図4および図5では、会議参加者Aに対応する特定用画像20を「A」で示し、会議参加者Bに対応する特定用画像20を「B」で示し、会議参加者Cに対応する特定用画像20を「C」で示し、会議参加者Dに対応する特定用画像20を「D」で示し、会議参加者Eに対応する特定用画像20を「E」で示す。
(テキストデータの表示サイズ)
第2表示エリア212に表示されるテキストデータの表示サイズは、テキストデータの基となった音声データの音量レベルに応じて変化する。特に限定されないが、音量レベルは、基準レベルおよび基準レベルよりも高い高レベルの2段階に分類される。
第2表示エリア212に表示されるテキストデータの表示サイズは、テキストデータの基となった音声データの音量レベルに応じて変化する。特に限定されないが、音量レベルは、基準レベルおよび基準レベルよりも高い高レベルの2段階に分類される。
テキストデータの表示サイズを変化させる処理をHMD制御部25に行わせるため、サーバー3からのテキストデータには音量情報が付される。HMD制御部25は、テキストデータを受信すると、当該テキストデータに付された音量情報で示される音量レベルが基準レベルであるか高レベルであるかを認識する。表示するテキストデータの音量レベルが基準レベルである場合、HMD制御部25は、当該テキストデータの表示サイズが予め定められた基準サイズとなるよう表示部21に表示を行わせる。表示するテキストデータの音量レベルが高レベルである場合、HMD制御部25は、当該テキストデータの表示サイズが基準サイズよりも大きいサイズとなるよう表示部21に表示を行わせる。すなわち、表示するテキストデータの音量レベルが高いほど、テキストデータの表示サイズが大きくなる。
たとえば、図4および図5に示すテキストデータの表示サイズは基準サイズである。仮に、会議参加者Eに対応するテキストデータETの音量レベルが高レベルであった場合、図9に示すように、テキストデータETの表示サイズが基準サイズよりも大きくなる。
(表示範囲のスクロール)
第2表示エリア212に表示するテキストデータの表示範囲は任意に変更可能である。たとえば、各HMD2は、会議参加者からスクロー指示を受け付ける。スクロール指示の受け付けは、HMD2に設置された操作部24や、HMD2に通信可能に接続された携帯端末を介して行われる。
第2表示エリア212に表示するテキストデータの表示範囲は任意に変更可能である。たとえば、各HMD2は、会議参加者からスクロー指示を受け付ける。スクロール指示の受け付けは、HMD2に設置された操作部24や、HMD2に通信可能に接続された携帯端末を介して行われる。
HMD制御部25は、スクロール指示を受け付けたか否かを判断する。たとえば、HMD制御部25は、カーソルキーに対する操作を検知すると、スクロール指示を受け付けたと判断する。なお、スクロール量はカーソルキーに対する長押し時間に応じて変化する(長押し時間が長いほどスクロール量が大きくなる)。そして、HMD制御部25は、スクロール指示を受け付けると、表示部21に指示し、テキストデータの表示範囲をスクロールさせる。
たとえば、図10に示すように、破線で囲まれた範囲(当該範囲は第2表示エリア212に相当する)のテキストデータが第2表示エリア212に現在表示されているとする。図10左図に示す状態で、上カーソルキーに対する操作である第1操作を行うと、対応する時刻が現在表示中のテキストデータよりも古いテキストデータを第2表示エリア212に表示することができる(図10右図に示す状態となる)。一方で、図10右図に示す状態で、下カーソルキーに対する操作である第2操作を行うと、対応する時刻が現在表示中のテキストデータよりも新しいテキストデータを第2表示エリア212に表示することができる(図10左図に示す状態となる)。
なお、各HMD2のHMD記憶部27には、一定期間分のテキストデータしか記憶されない。このため、第1操作により指示されたスクロール量が大きければ、表示すべきテキストデータがHMD記憶部27に記憶されていない場合がある。この場合、HMD制御部25は、表示すべきテキストデータをサーバー3から取得し、表示部21に表示させる。
(第1キーワードの入力受付)
各HMD2は、HMD2を装着した会議参加者から、第1キーワードの入力を受け付ける。第1キーワードの入力の受け付けは、HMD2に設置された操作部24や、HMD2に通信可能に接続された携帯端末を介して行われる。
各HMD2は、HMD2を装着した会議参加者から、第1キーワードの入力を受け付ける。第1キーワードの入力の受け付けは、HMD2に設置された操作部24や、HMD2に通信可能に接続された携帯端末を介して行われる。
第1キーワードの入力を受け付けたHMD2のHMD制御部25は、第1処理を行う。具体的に、HMD制御部25は、表示部21に指示し、テキストデータの時系列表示を停止させる。そして、HMD制御部25は、表示部21に指示し、入力を受け付けた第1キーワードと同じ文字列を含むテキストデータを第2表示エリア212に表示させる。
たとえば、文字列「xxxxx」を含むテキストデータが存在し、いずれかのHMD2に第1キーワードとして文字列「xxxxx」が入力されたとする。この場合には、図11に示すように、第1キーワードの入力を受け付けたHMD2の第2表示エリア212の表示内容が変化する(図11上図の状態から図11下図の状態に変化する)。すなわち、第2表示エリア212での時系列表示が一旦停止される。そして、第2表示エリア212には、文字列「xxxxx」を含むテキストデータが表示される。
(第2キーワードの入力受付)
各HMD2は、HMD2を装着した会議参加者から、第2キーワードの入力を受け付ける。第2キーワードの入力の受け付けは、HMD2に設置された操作部24や、HMD2に通信可能に接続された携帯端末を介して行われる。
各HMD2は、HMD2を装着した会議参加者から、第2キーワードの入力を受け付ける。第2キーワードの入力の受け付けは、HMD2に設置された操作部24や、HMD2に通信可能に接続された携帯端末を介して行われる。
第2キーワードの入力を受け付けたHMD2のHMD制御部25は、第2処理を行う。具体的に、HMD制御部25は、表示部21に指示し、第2表示エリア212に現在表示中のテキストデータのうち、入力を受け付けた第2キーワードと同じ文字列の表示形態を変化させる(第2キーワードと同じ文字列の表示形態を他の文字列の表示形態と異ならせる)。たとえば、第2キーワードと同じ文字列の文字色を変化させてもよいし、第2キーワードと同じ文字列をハイライト表示してもよいし、第2キーワードと同じ文字列に網掛けなどの装飾を施してもよい。
たとえば、文字列「yyyyy」を含むテキストデータが存在し、いずれかのHMD2に第2キーワードとして文字列「yyyyy」が入力されたとする。この場合には、図12に示すように、第2キーワードの入力を受け付けたHMD2の第2表示エリア212の表示内容が変化する(図12上図の状態から図12下図の状態に変化する)。すなわち、第2表示エリア212に表示されたテキストデータのうち、文字列「yyyyy」の表示形態が変化する。
(音声データ、テキストデータおよび映像データの外部機器への出力)
サーバー3には、ディスプレイやスピーカーを備えるパーソナルコンピューターなどの外部機器を通信可能に接続するための通信インターフェースが設けられる。そして、サーバー3に外部機器を接続すると、サーバー3に記憶された各種データ(音声データ、テキストデータおよび映像データ)を外部機器に出力することができる。
サーバー3には、ディスプレイやスピーカーを備えるパーソナルコンピューターなどの外部機器を通信可能に接続するための通信インターフェースが設けられる。そして、サーバー3に外部機器を接続すると、サーバー3に記憶された各種データ(音声データ、テキストデータおよび映像データ)を外部機器に出力することができる。
サーバー3は、外部機器を介して、出力キーワードの入力を受け付ける。また、サーバー3は、受け付けた出力キーワードと同じ文字列を含むテキストデータを対象テキストデータと認識するとともに、対象テキストデータに付された時刻情報で示される時刻を対象時刻と認識する。そして、サーバー3は、対象テキストデータ、対象テキストデータの基となった音声データ、および、対象時刻(当該時刻を含む時間帯)に撮影された映像データ、のうち少なくとも1つを外部機器に出力する。たとえば、対象テキストデータ、音声データおよび撮影データのうち外部機器に出力するデータは任意に選択可能である。さらに、会議参加者を指定すれば、指定した会議参加者により装着されていたHMD2の映像データだけを外部機器に出力することもできる。
これにより、会議終了後、対象時刻(当該時刻を含む時間帯)の音声データや映像データを外部機器で再生することができる。なお、音声データや映像データの再生はHMD2でも行える。
本実施形態の会議システム1は、カメラ部22および会議参加者(装着者)から発せられる音声を集音し音声データを生成するマイク部23をそれぞれが搭載する複数のHMD2と、音声データをテキストデータに変換する変換処理を行い、変換処理を行った時刻を示す時刻情報を付したテキストデータを出力するサーバー3(処理装置)と、を備える。複数のHMD2のそれぞれは、サーバー3から出力されたテキストデータを時刻情報に基づき時系列に表示していくとともに、いずれかのHMD2に搭載されたカメラ部22による撮影によって得られた映像データの映像を表示する。
本実施形態の構成では、各会議参加者のHMD2に各会議参加者の発言内容をテキスト化したテキストデータが表示される。これにより、或る会議参加者の発言内容を聞き逃した他の会議参加者に当該発言内容を理解させることができる。その結果、発言した会議参加者に再度発言を求めるなどの対策をとらなくてもよくなるので、会議が円滑に進む。さらに、テキストデータは時系列に表示されていくので、聞き逃した発言内容に対応するテキストデータを速やかに見つけることができる。また、テレビ会議に必要な機器が設置された会議室でなくても、テレビ会議と同様の会議を行うことができる。
また、本実施形態では、上記のように、複数のHMD2のそれぞれは、テキストデータを表示するとき、表示するテキストデータに付された装着者情報に対応する会議参加者を特定するための特定用画像20をテキストデータと共に表示する。これにより、HMD2に表示されたテキストデータに対応する会議参加者を容易に知ることができる。
また、本実施形態では、上記のように、複数のHMD2のそれぞれは、テキストデータを表示するとき、表示するテキストデータに付された音量情報で示される音量レベルが高いほど、テキストデータの表示サイズを大きくする。これにより、HMD2に表示されたテキストデータに対応する会議参加者が大声で発言していたか否かを知ることができる。
また、本実施形態では、上記のように、複数のHMD2のそれぞれは、テキストデータの表示範囲をスクロールするスクロール指示を会議参加者から受け付け、スクロール指示を受け付けると、テキストデータの表示範囲をスクロールする。これにより、テキストデータの表示範囲を任意に変更することができるので、会議参加者の利便性が向上する。
また、本実施形態では、上記のように、複数のHMD2のそれぞれは、第1キーワードの入力を会議参加者から受け付け、第1キーワードの入力を受け付けると、受け付けた第1キーワードと同じ文字列を含むテキストデータを表示する。これにより、第1キーワードを含むテキストデータを選択的に表示させることができるので、会議参加者の利便性が向上する。たとえば、テキストデータは特定用画像20と共に表示されるので、第1キーワードを発した会議参加者を容易に特定することができる。
また、本実施形態では、上記のように、複数のHMD2のそれぞれは、第2キーワードの入力を会議参加者から受け付け、第2キーワードの入力を受け付けると、表示中のテキストデータのうち受け付けた第2キーワードと同じ文字列の表示形態を変化させる。これにより、第2キーワードを含むテキストデータの特定が容易になる。たとえば、会議中に第2キーワードが何回使われたかをカウントする作業において効果的である。
また、本実施形態では、上記のように、複数のHMD2のそれぞれは、会議参加者により指定されたHMD2が撮影した会議映像を表示する。これにより、HMD2に表示させる会議映像を任意に選択することができるので、会議参加者の利便性が向上する。
今回開示された実施形態は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記実施形態の説明ではなく特許請求の範囲によって示され、さらに、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
たとえば、「処理装置」に相当する携帯端末(たとえば、スマートフォンやノート型パーソナルコンピューターなど)を各HMD2に接続してもよい。あるいは、「処理装置」に相当する処理部(処理回路やメモリーなど)を各HMD2に内蔵してもよい。この場合には、会議システム1からサーバー3を省略することができる。
1 会議システム
2 HMD(ヘッドマウントディスプレイ)
3 サーバー(処理装置)
22 カメラ部
23 マイク部
2 HMD(ヘッドマウントディスプレイ)
3 サーバー(処理装置)
22 カメラ部
23 マイク部
Claims (9)
- カメラ部および装着者から発せられる音声を集音し音声データを生成するマイク部をそれぞれが搭載する複数のヘッドマウントディスプレイと、
前記音声データをテキストデータに変換する変換処理を行い、前記変換処理を行った時刻を示す時刻情報を付した前記テキストデータを出力する処理装置と、を備え、
前記複数のヘッドマウントディスプレイのそれぞれは、前記処理装置から出力された前記テキストデータを前記時刻情報に基づき時系列に表示していくとともに、いずれかの前記ヘッドマウントディスプレイに搭載された前記カメラ部による撮影によって得られた映像データの映像を表示することを特徴とする会議システム。 - 前記処理装置は、前記テキストデータを出力するとき、出力する前記テキストデータの基となった前記音声データを生成した前記ヘッドマウントディスプレイの装着者を示す装着者情報を前記テキストデータに付し、
前記複数のヘッドマウントディスプレイのそれぞれは、前記テキストデータを表示するとき、表示する前記テキストデータに付された前記装着者情報で示される装着者を特定するための特定用画像を前記テキストデータと共に表示することを特徴とする請求項1に記載の会議システム。 - 前記処理装置は、前記テキストデータを出力するとき、出力する前記テキストデータの基となった前記音声データの音量レベルを示す音量情報を前記テキストデータに付し、
前記複数のヘッドマウントディスプレイのそれぞれは、前記テキストデータを表示するとき、表示する前記テキストデータに付された前記音量情報で示される前記音量レベルが高いほど、前記テキストデータの表示サイズを大きくすることを特徴とする請求項1または2に記載の会議システム。 - 前記複数のヘッドマウントディスプレイのそれぞれは、前記テキストデータの表示範囲をスクロールするスクロール指示を装着者から受け付け、前記スクロール指示を受け付けると、前記表示範囲をスクロールすることを特徴とする請求項1〜3のいずれか1項に記載の会議システム。
- 前記複数のヘッドマウントディスプレイのそれぞれは、第1キーワードの入力を装着者から受け付け、前記第1キーワードの入力を受け付けると、受け付けた前記第1キーワードと同じ文字列を含む前記テキストデータを表示することを特徴とする請求項1〜4のいずれか1項に記載の会議システム。
- 前記複数のヘッドマウントディスプレイのそれぞれは、第2キーワードの入力を装着者から受け付け、前記第2キーワードの入力を受け付けると、表示中の前記テキストデータのうち受け付けた前記第2キーワードと同じ文字列の表示形態を変化させることを特徴とする請求項1〜5のいずれか1項に記載の会議システム。
- 前記複数のヘッドマウントディスプレイのそれぞれは、装着者が指定した前記ヘッドマウントディスプレイにより撮影された前記映像データの映像を表示することを特徴とする請求項1〜6のいずれか1項に記載の会議システム。
- 前記複数のヘッドマウントディスプレイのそれぞれは、前記カメラ部の着脱が可能であることを特徴とする請求項1〜7のいずれか1項に記載の会議システム。
- 前記処理装置は、前記テキストデータ、前記音声データおよび前記映像データを記憶し、
前記処理装置は、出力キーワードの入力受付を行い、前記出力キーワードの入力を受け付けると、受け付けた前記出力キーワードと同じ文字列を含む前記テキストデータを対象テキストデータと認識するとともに、前記対象テキストデータに付された前記時刻情報で示される時刻を対象時刻と認識し、前記対象テキストデータ、前記対象テキストデータの基となった前記音声データ、および、前記対象時刻に撮影された前記映像データ、のうち少なくとも1つを出力することを特徴とする請求項1〜8のいずれか1項に記載の会議システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017086149A JP2018186366A (ja) | 2017-04-25 | 2017-04-25 | 会議システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017086149A JP2018186366A (ja) | 2017-04-25 | 2017-04-25 | 会議システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018186366A true JP2018186366A (ja) | 2018-11-22 |
Family
ID=64355194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017086149A Pending JP2018186366A (ja) | 2017-04-25 | 2017-04-25 | 会議システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018186366A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020136939A (ja) * | 2019-02-21 | 2020-08-31 | 株式会社リコー | 通信端末、共用システム、表示制御方法およびプログラム |
JP2021162895A (ja) * | 2020-03-30 | 2021-10-11 | 本田技研工業株式会社 | 会議支援システム、会議支援方法、およびプログラム |
WO2024062779A1 (ja) * | 2022-09-22 | 2024-03-28 | ソニーグループ株式会社 | 情報処理装置、および情報処理システム、並びに情報処理方法 |
-
2017
- 2017-04-25 JP JP2017086149A patent/JP2018186366A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020136939A (ja) * | 2019-02-21 | 2020-08-31 | 株式会社リコー | 通信端末、共用システム、表示制御方法およびプログラム |
JP7205697B2 (ja) | 2019-02-21 | 2023-01-17 | 株式会社リコー | 通信端末、共用システム、表示制御方法およびプログラム |
JP2021162895A (ja) * | 2020-03-30 | 2021-10-11 | 本田技研工業株式会社 | 会議支援システム、会議支援方法、およびプログラム |
JP7316971B2 (ja) | 2020-03-30 | 2023-07-28 | 本田技研工業株式会社 | 会議支援システム、会議支援方法、およびプログラム |
WO2024062779A1 (ja) * | 2022-09-22 | 2024-03-28 | ソニーグループ株式会社 | 情報処理装置、および情報処理システム、並びに情報処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6200483B2 (ja) | 画像処理システム、画像処理方法、および画像処理プログラム | |
CN105981375B (zh) | 信息处理设备、控制方法、程序和系统 | |
KR20140089697A (ko) | 얼굴 인식 기반 사용자 기능 운용 방법 및 이를 지원하는 단말기 | |
JP2014115457A (ja) | 情報処理装置および記録媒体 | |
JP7270154B2 (ja) | 遠隔作業支援システム | |
JPWO2018155026A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2018186366A (ja) | 会議システム | |
JP6374854B2 (ja) | 画面共有システム及び画面共有方法 | |
JP2012129749A (ja) | 画像処理装置、画像処理方法、プログラム | |
JP2015026102A (ja) | 電子機器 | |
JP2014197802A (ja) | 作業支援システムおよびプログラム | |
CN113542611A (zh) | 一种基于语音控制启动拍照的方法 | |
CN111587570A (zh) | 信息设备、以及照相机图像共享系统 | |
JP7487663B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6064736B2 (ja) | 情報記憶装置および情報記憶プログラム | |
JP2017173530A (ja) | 音声入力支援プログラム、ヘッドマウントディスプレイ、音声入力支援方法および音声入力支援装置 | |
KR20200016085A (ko) | 정보 노출 방지 영상 제공 장치 및 방법 | |
JP7494000B2 (ja) | 作業者端末、作業支援システム | |
JP2017005616A (ja) | 端末、ビデオ会議システム、及びプログラム | |
GB2579085A (en) | Handling multiple audio input signals using a display device and speech-to-text conversion | |
JP2021180369A (ja) | 作業者端末、遠隔作業支援装置、作業支援システム | |
JP2014072642A (ja) | 動画像データ処理システム、動画像データ送信装置、及び動画像データ受信装置 | |
CN114095600B (zh) | 更换耳机主题方法、智能手机及存储介质 | |
KR20120107033A (ko) | 스마트폰을 이용한 얼굴 이미지의 감정상태 검색방법 및 그 시스템 | |
JP7139839B2 (ja) | 情報処理装置、情報処理方法およびプログラム |