JP2023046590A - 表示方法、表示装置、及び、表示システム - Google Patents

表示方法、表示装置、及び、表示システム Download PDF

Info

Publication number
JP2023046590A
JP2023046590A JP2021155267A JP2021155267A JP2023046590A JP 2023046590 A JP2023046590 A JP 2023046590A JP 2021155267 A JP2021155267 A JP 2021155267A JP 2021155267 A JP2021155267 A JP 2021155267A JP 2023046590 A JP2023046590 A JP 2023046590A
Authority
JP
Japan
Prior art keywords
terminal
area
display
image
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021155267A
Other languages
English (en)
Inventor
美孝 中進
Yoshitaka Nakashin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2021155267A priority Critical patent/JP2023046590A/ja
Priority to CN202211156077.9A priority patent/CN115865875A/zh
Priority to US17/951,548 priority patent/US20230100151A1/en
Publication of JP2023046590A publication Critical patent/JP2023046590A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】複数の話者が同時に発話した場合であっても会議を円滑に進行できるようにする。【解決手段】第1端末1Aに対応する第1画像と、第2端末1B末に対応する第2画像とを並べて第1領域に表示することと、第1端末1Aが検出した第1音声と、第2端末1Bが検出した第2音声とが重複した場合に、第1音声の内容を示す第1テキスト画像を第1画像と対応付けて第1領域に表示し、かつ、第2音声の内容を示す第2テキスト画像を第2画像と対応付けて第1領域に表示することと、第1テキスト画像を、第1領域とは異なる第2領域に移動させる操作を受け付けた場合に、第1テキスト画像を第2領域に表示することと、を含む、表示方法。【選択図】図1

Description

本発明は、表示方法、表示装置、及び、表示システムに関する。
従来、コンピューターを利用する音声会議システムやビデオ会議システムが知られている。例えば、特許文献1は、音声会議システムにおいて複数の参加者が同時に喋った場合に音声が不明瞭になるという問題を解消するため、話者の優先度に応じて音声レベルを調整する構成を開示している。
特開2007-96555号公報
上述のように、複数の話者の発話が重複すると、音声が不明瞭になってしまい、発話の内容が聞き取りにくくなる。この問題に対し、特許文献1に開示された構成では、優先度が高い話者の発話が聞き取りやすくなるが、他の話者の発話は、より聞き取り難くなる。このため、複数の話者が同時に発話した場合には、いずれかの話者に再度の発話を求める必要があり、会議の効率が低下するという課題があった。
本開示の一態様は、第1端末に対応する第1画像と、第2端末に対応する第2画像とを並べて第1領域に表示することと、前記第1端末が検出した第1音声と、前記第2端末が検出した第2音声とが重複した場合に、前記第1音声の内容を示す第1テキスト画像を前記第1画像と対応付けて前記第1領域に表示し、かつ、前記第2音声の内容を示す第2テキスト画像を前記第2画像と対応付けて前記第1領域に表示することと、前記第1テキスト画像を、前記第1領域とは異なる第2領域に移動させる操作を受け付けた場合に、前記第1テキスト画像を前記第2領域に表示することと、を含む、表示方法である。
本開示の別の一態様は、ディスプレイと、前記ディスプレイを制御する制御回路と、を含み、前記制御回路は、前記ディスプレイを制御することによって、第1端末に対応する第1画像と、第2端末に対応する第2画像とを並べて第1領域に表示することと、前記第1端末が検出した第1音声と、前記第2端末が検出した第2音声とが重複した場合に、前記ディスプレイを制御することによって、前記第1音声の内容を示す第1テキスト画像を前記第1画像と対応付けて前記第1領域に表示し、かつ、前記第2音声の内容を示す第2テキスト画像を前記第2画像と対応付けて前記第1領域に表示することと、前記第1テキスト画像を、前記第1領域とは異なる第2領域に移動させる操作を受け付けた場合に、前記ディスプレイを制御することによって、前記第1テキスト画像を前記第2領域に表示することと、を実行する、表示装置である。
本開示の別の一態様は、第1マイクを有する第1端末と、第2マイクを有する第2端末と、ディスプレイを有する第3端末と、を含み、前記第3端末は、前記ディスプレイの第1領域に、前記第1端末に対応する第1画像と、前記第2端末に対応する第2画像とを並べて表示し、前記第1端末が第1マイクにより検出した第1音声の内容を示す第1テキスト画像を前記第1画像と対応付けて前記第1領域に表示し、かつ、前記第2端末が第2マイクにより検出した第2音声の内容を示す第2テキスト画像を前記第2画像と対応付けて表示し、前記第1テキスト画像を、前記第1領域から前記ディスプレイの第2領域に移動させる操作を受け付けた場合に、前記第2領域に前記第1テキスト画像を表示する、表示システムである。
実施形態に係る会議システムの構成の一例を示す図。 会議システムの動作の概要を示す説明図。 会議の実行状態の例を示す説明図。 会議システムを構成する装置のブロック図。 サーバーの動作を示すフローチャート。 会議画面の一例を示す図。 会議画面の一例を示す図。 会議画面の一例を示す図。 会議画面の一例を示す図。
[1.会議システムの概要]
以下、図面を参照して本実施形態について説明する。
図1は、本実施形態に係る会議システム100の構成の一例を示す図である。
会議システム100は、複数のユーザーUがコンピューターを利用し、音声を共有して会議を行うシステムである。会議システム100は、複数のユーザーUがそれぞれ使用する複数の端末1、及び、サーバー50を備える。端末1及びサーバー50は、通信ネットワーク7により相互にデータ通信可能に接続される。会議システム100は、表示システムの一例に対応する。
会議システム100に含まれる端末1の数に制限はない。また、サーバー50は、1台のコンピューターであってもよいし、複数のコンピューターで構成されてもよく、クラウドサーバーであってもよい。
本実施形態では、図1に示すように、3台の端末1を利用して会議を行う例を説明する。以下の説明では、3台の端末1を、第1端末1A、第2端末1B、及び第3端末1Cと呼ぶ。これらを区別しない場合に端末1と記載する。第1端末1A、第2端末1B、及び、第3端末1Cは、通信機能を有するコンピューターである。具体的には、デスクトップ型PC(Personal Computer)、タブレット型PC、スマートフォン等である。第3端末1Cは表示装置の一例に対応する。第1端末1A及び第2端末1Bも同様である。
図1に示す例では、第1端末1Aは拠点S1に設置され、第2端末1Bは拠点S2に設置され、第3端末1Cは拠点S3に設置される。拠点S1、S2、S3の地理的関係は制限されない。拠点S1、S2、S3は、互いに離れた場所であってもよいし、同一の建物内の場所であってもよいし、同一の室内において互いに仕切られた場所であってもよい。以下の説明において、拠点S1、S2、S3を区別しない場合は拠点Sと記載する。
端末1を使用するユーザーUの人数に制限はない。例えば、1台の端末1を複数のユーザーUが使用して会議に参加してもよい。端末1が、可搬型のコンピューターである場合、ユーザーUは端末1を持ち運んで使用してもよい。本実施形態では、第1端末1Aを1人のユーザーU1が使用し、第2端末1Bを2人のユーザーU2A、U2Bが使用し、第3端末1Cを1人のユーザーU3が使用する。ユーザーU1、U2A、U2B、U3を区別しない場合にユーザーUと記載する。
通信ネットワーク7は、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。また、専用回線、公衆回線網、インターネット等を含んで構成されるグローバルネットワークであってもよい。
第1端末1Aは、第1ディスプレイ14、キーボード15a、マウス15b、カメラ16、マイク17、及び、スピーカー18を有する。これらの各機器は、第1端末1Aの本体に有線または無線で接続される。各機器の少なくとも1つが、第1端末1Aの本体に一体に組み込まれていてもよい。いずれの場合も、これらの機器を、第1端末1Aの第1ディスプレイ14、第1端末1Aのマイク17等と称する場合がある。第1ディスプレイ14は、液晶ディスプレイパネル、有機EL(Electro-Luminescence)パネル、プラズマディスプレイパネル等の表示パネルを有する表示装置である。キーボード15a及びマウス15bはユーザーU1が入力操作に使用する入力装置である。カメラ16はユーザーU1を撮影する。マイク17は、ユーザーU1の音声を集音する。スピーカー18は、会議の音声を出力する。ユーザーU1は、これらの各機器を使用して会議に参加する。マイク17は第1マイクの一例に対応する。
第2端末1Bは、第2ディスプレイ24、キーボード25a、カメラ26、マイク27、及び、スピーカー28を備える。これらの各機器は、第2端末1Bの本体に有線または無線で接続される。第2ディスプレイ24、キーボード25a、カメラ26、マイク27、及び、スピーカー28は、それぞれ、第1ディスプレイ14、キーボード15a、カメラ16、マイク17、及び、スピーカー18と同様に構成される。マイク27は第2マイクの一例に対応する。
カメラ26はユーザーU2A、U2Bを撮影する。マイク27は、ユーザーU2A、U2Bの音声を集音する。スピーカー28は、会議の音声を出力する。ユーザーU2A、U2Bは、これらの各機器を使用して会議に参加する。
第3端末1Cは、第3ディスプレイ34、キーボード35a、カメラ36、マイク37、及び、スピーカー38を備える。これらの各機器は、第3端末1Cの本体に有線または無線で接続される。第3ディスプレイ34、キーボード35a、カメラ36、マイク37、及び、スピーカー38は、それぞれ、第1ディスプレイ14、キーボード15a、カメラ16、マイク17、及び、スピーカー18と同様に構成される。
カメラ36はユーザーU3を撮影する。マイク37は、ユーザーU3の音声を集音する。スピーカー38は、会議の音声を出力する。ユーザーU3は、これらの各機器を使用して会議に参加する。
図2は、会議システム100の動作の概要を示す説明図である。
会議システム100を利用して実行される会議は、複数のユーザーUが、少なくとも互いの音声を共有することによって行われる。また、会議システム100は、カメラ16、26、36によって撮影した画像や映像を共有して会議を行う構成であってもよい。本実施形態では、会議システム100は、カメラ16、26、36によって撮影した映像を共有して会議を行う。
図2には、第1端末1A、第2端末1B、第3端末1Cからサーバー50に送信されるデータとして、映像データD1A、D1B、D1C、音声データD2A、D2B、D2C、操作データD3A、D3B、D3Cを示す。以下の説明では、映像データD1A、D1B、D1Cを区別しない場合は映像データD1と記載する。同様に、音声データD2A、D2B、D2Cを区別しない場合は音声データD2と記載し、操作データD3A、D3B、D3Cを区別しない場合は操作データD3と記載する。
また、サーバー50は、第1端末1A、第2端末1B、及び第3端末1Cに、表示データD4A、D4B、D4C、及び、統合音声データD5A、D5B、D5Cを送信する。以下の説明において、表示データD4A、D4B、D4Cを区別しない場合は表示データD4と記載し、統合音声データD5A、D5B、D5Cを区別しない場合は統合音声データD5と記載する。
第1端末1Aは、カメラ16により撮影した映像に基づく映像データD1A、及び、マイク17により集音した音声に基づく音声データD2Aを、サーバー50に送信する。また、第1端末1Aは、キーボード15aまたはマウス15bによる操作を受け付けた場合に、受け付けた操作に基づく操作データD3Aを、サーバー50に送信する。
第2端末1Bは、第1端末1Aと同様に、映像データD1B、音声データD2B、及び、操作データD3Bを、サーバー50に送信する。第3端末1Cは、映像データD1C、音声データD2C、及び、操作データD3Cを、サーバー50に送信する。
サーバー50は、会議システム100による会議の音声を各々の端末1に配信する。サーバー50は、音声データD2A、D2B、D2Cに基づいて統合音声データD5を生成する。統合音声データD5は、第1端末1Aがマイク17で検出した音声と、第2端末1Bがマイク27で検出した音声と、第3端末1Cがマイク37で検出した音声とを含む。第1端末1A、第2端末1B、及び、第3端末1Cは、統合音声データD5に基づいて、スピーカー18、28、38から音声を出力する。これにより、会議システム100を利用する全てのユーザーUが、他のユーザーUの音声を聞くことができ、音声による会議を行うことができる。
サーバー50は、拠点Sにおけるハウリングを防止するため、第1端末1A、第2端末1B及び第3端末1Cに送信する統合音声データD5を異なるデータとしてもよい。例えば、サーバー50は、音声データD2B、D2Cに基づく音声を含み、音声データD2Aに基づく音声を含まない統合音声データD5Aを、第1端末1Aに送信してもよい。この場合、第1端末1Aは、第2端末1Bが検出した音声と第3端末1Cが検出した音声とをスピーカー18から出力する。ユーザーU1は、ユーザーU2A、U2B、U3が発した音声を聞くことができる。また、第1端末1AはユーザーU1自身が発した音声をスピーカー18から出力しないので、ユーザーU1に違和感を抱かせたり、ユーザーU1の声が反響したりすることがなく、スムーズに会議を行うことができる。
この場合、サーバー50は、音声データD2A、D2Cに基づく音声を含み、音声データD2Bに基づく音声を含まない統合音声データD5Bを、第2端末1Bに送信してもよい。また、サーバー50は、音声データD2A、D2Bに基づく音声を含み、音声データD2Cに基づく音声を含まない統合音声データD5Cを、第3端末1Cに送信してもよい。
サーバー50は、第1端末1Aに対して表示データD4Aを送信する。第1端末1Aは、表示データD4Aに基づいて、第1ディスプレイ14に画像を表示する。同様に、サーバー50は、第2端末1Bに対して表示データD4Bを送信し、第3端末1Cに対して表示データD4Cを送信する。第2端末1Bは表示データD4Bに基づいて第2ディスプレイ24に画像を表示し、第3端末1Cは表示データD4Cに基づいて第3ディスプレイ34に画像を表示する。
図3は、会議の実行状態の例を示す説明図であり、拠点S3における会議の実行状態を示す。図3に示す例では、第3ディスプレイ34に会議画面61が表示される。会議画面61は、第3ディスプレイ34の表示領域34aに配置される画面である。
会議画面61には、表示枠611a、及び表示枠611bが配置される。表示枠611a、611bは、第3端末1Cとは異なる端末1に関する画像が表示される領域である。表示枠611は第1端末1Aに対応する領域であり、表示枠611bは第2端末1Bに対応する領域である。表示枠611a、611b、及び後述する表示枠611cを区別しない場合は表示枠611と記載する。
表示枠611aには、ユーザー画像621aが表示される。ユーザー画像621aは、第1端末1Aを使用するユーザーU1に対応する画像である。ユーザー画像621aはカメラ16で撮像した画像に限定されない。ユーザー画像621aは、ユーザーU1に対応する画像として、第1端末1Aまたはサーバー50が記憶する画像であってもよい。ユーザー画像621aは、映像データD1Aに基づいてサーバー50が生成する画像であってもよい。
表示枠611bには、ユーザー画像621b、621cが表示される。ユーザー画像621bは、第2端末1Bを使用するユーザーU2Aに対応する画像であり、ユーザー画像621cはユーザーU2Bに対応する画像である。ユーザー画像621b、621cは、第2端末1Bまたはサーバー50が記憶する画像であってもよい。ユーザー画像621b、621cは、映像データD1Bに基づいてサーバー50が生成する画像であってもよい。ユーザー画像621a、621b、621c、及び後述するユーザー画像621dを区別しない場合はユーザー画像621と記載する。
本実施形態では、表示枠611aに、タグ631aが配置される。タグ631aは、マイク17が集音した音声の内容を示すテキストである。例えば、サーバー50は、音声データD2Aに対する音声認識処理を実行して、音声データD2Aをテキストデータに変換することによって、タグ631aを生成する。会議システム100は、例えば、タグ631aの内容を、ユーザーU1が音声を発する毎に更新する。この場合、タグ631aは、ユーザーU1の1回の発話の内容を示すテキスト画像である。
また、表示枠611bにはタグ631b、631cが配置される。タグ631b、631cは、マイク27が集音した音声の内容を示すテキストである。例えば、サーバー50は、音声データD2Bに対する音声認識処理を実行して、音声データD2Bをテキストデータに変換することによって、タグ631b、631cを生成する。マイク27は、ユーザーU2A、U2Bの音声を集音する。このため、音声データD2Bには複数の人物が発した音声が含まれる。タグ631a、631b、631c、及び後述するタグ631dを区別しない場合はタグ631と記載する。タグ631は、第1テキスト画像、及び、第2テキスト画像の一例に対応する。
会議システム100では、音声データD2Bに含まれる音声が、ユーザーU毎に区別される。図3に示すタグ631b、631cは、マイク27が集音した音声の内容を示している。タグ631bは2人のユーザーU2A、U2Bのいずれかの発話の内容を示し、タグ631cは、タグ631bとは異なるユーザーU2が発した音声の内容を示す。従って、タグ631b、631cが対応する発話者が異なるため、タグ631bとタグ631cは、異なる表示態様で表示される。すなわち、タグ631bは第1の視覚表現で表示され、タグ631cは第2の視覚表現で表示される。この場合、タグ631aは第1音声の内容を示す第1テキスト画像の一例であり、タグ631bは第3音声の内容を示す第3テキスト画像の一例である。
タグ631の視覚表現とは、ユーザーUの視覚により認識可能な特徴を指す。具体的には、視覚表現とは、フォントの属性、枠の形態、及び、装飾の少なくともいずれかを含む。フォントの属性とは、例えば、フォント、フォントサイズ、フォントの色が挙げられる。枠の形態とは、枠の有無、枠の色、枠の太さ、枠の大きさが挙げられる。装飾とは、フォントの背景色、枠の外側の装飾、一時的に表示される装飾が挙げられる。タグ631bとタグ631cとは、視覚的に区別できるように異なる視覚表現で表示される。
第3ディスプレイ34が会議画面61を表示することによって、ユーザーU3は、会議の他の参加者であるユーザーU1、U2A、U2Bの画像を見ることができる。ユーザーU3が会議画面61を見ながら発話V1を行うことにより、ユーザーU1、U2A、U2B、U3の相互の会話が可能となる。また、ユーザー画像621a、621b、621cが、映像データD1A、D1Bに基づく映像である場合、ユーザーU3は、表示枠611a、611bを見ることによって会議の他の参加者であるユーザーU1、U2A、U2Bの状態を見ることができる。
図3に示す会議画面61は一例であり、例えば、ユーザーU3に対応する表示枠611が配置されてもよい。具体的には、会議画面61において、表示枠611a、611bと重ならない位置に、ユーザーU3に対応する表示枠611が配置される。そして、表示枠611に、ユーザーU3に対応するユーザー画像621と、ユーザーU3の発話の内容を示すタグ631とが表示される。
タグ631a、631b、631cは、常時表示されてもよいし、所定の条件が成立するときにのみ表示されてもよい。所定の条件とは、例えば、ユーザーU3がタグ631a、631b、631cを表示するよう設定を行うこと、或いは、複数のユーザーUの発話が重なることが挙げられる。複数のユーザーUが発話したタイミングが重複する場合、スピーカー38から出力される音声が聞き取りにくくなる。このような場合にタグ631a、631b、631cを表示することによって、発話の内容を目視により確認できるため、会議の円滑な進行を促すことができる。
会議システム100により会議を実行する間、第1端末1A及び第2端末1Bは、第3端末1Cと同様に会議画面61を表示する。例えば、第1端末1Aは、第2端末1B及び第3端末1Cに対応する表示枠611が配置される会議画面61を、第1ディスプレイ14により表示する。また、例えば、第2端末1Bは、第1端末1A及び第3端末1Cに対応する表示枠611が配置される会議画面61を、第2ディスプレイ24により表示する。
[2.会議システムを構成する装置の構成]
図4は、会議システム100を構成する装置のブロック図である。
図4に示すように、第1端末1Aは、第1制御回路11を有し、第1制御回路11に第1ディスプレイ14、入力装置15、カメラ16、マイク17、スピーカー18、及び通信装置19が接続される。
入力装置15は、ユーザーUが入力操作に使用する装置であり、例えば、キーボード15a及びマウス15bである。入力装置15は、第1ディスプレイ14の表示パネルに重ねて設置されるタッチセンサーであってもよく、その他の装置であってもよい。
通信装置19は、通信ネットワーク7に接続され、通信ネットワーク7を介してサーバー50とデータ通信を実行する装置である。通信装置19は、例えば、通信ケーブルを接続するコネクター及び通信インターフェイス回路を備える。通信装置19は、アンテナ及び無線通信回路を備え、無線通信回線を通じて通信ネットワーク7に接続される構成であってもよい。
第1制御回路11は、プロセッサー12、及び、メモリー13を備える。プロセッサー12は、CPU(Central Processing UniT)やMPU(Micro-processingunit)等で構成される。プロセッサー12は、プログラムを実行することにより、第1端末1Aの各部を制御する。
メモリー13は、プロセッサー12が実行するプログラムやデータを不揮発的に記憶する記憶装置である。メモリー13は、磁気的記憶装置、フラッシュROM(Read Only Memory)等の半導体記憶素子、或いはその他の種類の不揮発性記憶装置により構成される。メモリー13は、プロセッサー12のワークエリアを構成するRAM(Random Access Memory)を含んでもよい。メモリー13は、第1制御回路11により処理されるデータや、プロセッサー12が実行する制御プログラムを記憶する。
プロセッサー12は、カメラ16の撮影データを取得し、撮影データに基づき映像データD1Aを生成する。プロセッサー12は、マイク17が集音した音声をデジタル音声データに変換する。プロセッサー12は、デジタル音声データに基づき音声データD2Aを生成する。プロセッサー12は、入力装置15による入力を受け付けて、受け付けた入力に基づき操作データD3Aを生成する。
プロセッサー12は、通信装置19を制御して、映像データD1A、音声データD2A、及び操作データD3Aをサーバー50に送信する。
プロセッサー12は、サーバー50が送信する表示データD4A及び統合音声データD5Aを、通信装置19によって受信する。プロセッサー12は、表示データD4Aに基づいて第1ディスプレイ14を制御することにより、第1ディスプレイ14に会議画面61を表示させる。プロセッサー12は、統合音声データD5Aに基づく音声をスピーカー18から出力させる。
第2端末1B、及び、第3端末1Cは、第1端末1Aと同様に構成される。第2端末1Bは、第2制御回路21を有し、第2制御回路21に第2ディスプレイ24、入力装置25、カメラ26、マイク27、スピーカー28、及び通信装置29が接続される。
入力装置25は、ユーザーUが入力操作に使用する装置であり、例えば、キーボード25aである。入力装置25は、第2ディスプレイ24の表示パネルに重ねて設置されるタッチセンサーであってもよく、その他の装置であってもよい。
通信装置29は、通信装置19と同様に構成される装置であり、通信ネットワーク7に接続され、通信ネットワーク7を介してサーバー50とデータ通信を実行する。通信装置29は、例えば、通信ケーブルを接続するコネクター及び通信インターフェイス回路を備える。通信装置29は、アンテナ及び無線通信回路を備え、無線通信回線を通じて通信ネットワーク7に接続される構成であってもよい。
第2制御回路21は、プロセッサー22、及び、メモリー23を備える。プロセッサー22は、CPUやMPU等で構成される。プロセッサー22は、プログラムを実行することにより、第2端末1Bの各部を制御する。プロセッサー22の具体的構成はプロセッサー12と同様であり、メモリー23の具体的構成はメモリー13と同様である。
プロセッサー22は、カメラ26の撮影データを取得し、撮影データに基づき映像データD1Bを生成する。プロセッサー22は、マイク27が集音した音声をデジタル音声データに変換する。プロセッサー22は、デジタル音声データに基づき音声データD2Bを生成する。プロセッサー22は、入力装置25による入力を受け付けて、受け付けた入力に基づき操作データD3Bを生成する。
プロセッサー22は、通信装置29を制御して、映像データD1B、音声データD2B、及び操作データD3Bをサーバー50に送信する。
プロセッサー22は、サーバー50が送信する表示データD4B及び統合音声データD5Bを、通信装置29によって受信する。プロセッサー22は、表示データD4Bに基づいて第2ディスプレイ24を制御することにより、第2ディスプレイ24に会議画面61を表示させる。プロセッサー22は、統合音声データD5Bに基づく音声をスピーカー28から出力させる。
第3端末1Cは、第3制御回路31を有し、第3制御回路31に第3ディスプレイ34、入力装置35、カメラ36、マイク37、スピーカー38、及び通信装置39が接続される。第3ディスプレイ34はディスプレイの一例に対応し、第3制御回路31は制御回路の一例に対応する。
入力装置35は、ユーザーUが入力操作に使用する装置であり、例えば、キーボード25aである。入力装置35は、第3ディスプレイ34の表示パネルに重ねて設置されるタッチセンサーであってもよく、その他の装置であってもよい。
通信装置39は、通信装置19と同様に構成される装置であり、通信ネットワーク7に接続され、通信ネットワーク7を介してサーバー50とデータ通信を実行する。通信装置39は、例えば、通信ケーブルを接続するコネクター及び通信インターフェイス回路を備える。通信装置39は、アンテナ及び無線通信回路を備え、無線通信回線を通じて通信ネットワーク7に接続される構成であってもよい。
第3制御回路31は、プロセッサー32、及び、メモリー33を備える。プロセッサー32は、CPUやMPU等で構成される。プロセッサー32は、プログラムを実行することにより、第3端末1Cの各部を制御する。プロセッサー32の具体的構成はプロセッサー12と同様であり、メモリー33の具体的構成はメモリー13と同様である。
プロセッサー32は、カメラ36の撮影データを取得し、撮影データに基づき映像データD1Cを生成する。プロセッサー32は、マイク37が集音した音声をデジタル音声データに変換する。プロセッサー32は、デジタル音声データに基づき音声データD2Cを生成する。プロセッサー32は、入力装置35による入力を受け付けて、受け付けた入力に基づき操作データD3Cを生成する。
プロセッサー32は、通信装置39を制御して、映像データD1C、音声データD2C、及び操作データD3Cをサーバー50に送信する。
プロセッサー32は、サーバー50が送信する表示データD4C及び統合音声データD5Cを、通信装置39によって受信する。プロセッサー32は、表示データD4Cに基づいて第3ディスプレイ34を制御することにより、第3ディスプレイ34に会議画面61を表示させる。プロセッサー32は、統合音声データD5Cに基づく音声をスピーカー38から出力させる。
サーバー50は、サーバー制御回路51を有し、サーバー制御回路51に通信装置54が接続される。通信装置54は、通信ネットワーク7に接続され、通信ネットワーク7を介して端末1とデータ通信を実行する。通信装置54は、例えば、通信ケーブルを接続するコネクター及び通信インターフェイス回路を備える。通信装置54は、アンテナ及び無線通信回路を備え、無線通信回線を通じて通信ネットワーク7に接続される構成であってもよい。
サーバー制御回路51は、プロセッサー52、及び、メモリー53を備える。プロセッサー52は、CPUやMPU等で構成される。プロセッサー52は、プログラムを実行することにより、第3端末1Cの各部を制御する。プロセッサー52の具体的構成はプロセッサー12と同様であり、メモリー53の具体的構成はメモリー13と同様である。
プロセッサー52は、メモリー53が記憶する制御プログラム531を実行することによって、通信制御部521、端末識別部522、音声解析部523、表示データ生成部524、及び、データ処理部525として機能する。
通信制御部521は、通信装置54を制御して、端末1との間でデータ通信を実行させる。通信制御部521は、端末1が送信する映像データD1、音声データD2、及び、操作データD3を、通信装置54によって受信させる。また、通信制御部521は、後述するようにプロセッサー52が生成する表示データD4及び統合音声データD5を、端末1に送信する。
端末識別部522は、端末1から映像データD1を受信した場合に、映像データD1を送信した端末1を識別する。同様に、端末識別部522は、音声データD2を受信した場合に、音声データD2の送信元の端末1を識別し、端末1から操作データD3を受信した場合に、操作データD3の送信元の端末1を識別する。
音声解析部523は、通信装置54により受信した音声データD2を解析し、音声データD2に含まれるユーザーUの音声を、ユーザーUの発話内容を示すテキストデータに変換する。音声解析部523は、音声データD2に含まれる音声が1人のユーザーUの音声か、複数のユーザーUの音声かを判定する。音声解析部523は、音声データD2が複数のユーザーUの音声を含む場合に、音声データD2に含まれる音声をユーザーU毎に分類してから、各々のユーザーUの発話内容を示すテキストデータを生成する。
音声解析部523は、複数の端末1から受信した音声データD2に基づいて、統合音声データD5を生成する。音声解析部523は、全ての端末1に共通する統合音声データD5を生成してもよい。また、音声解析部523は、互いに異なる音声を含む統合音声データD5A、D5B、D5Cを生成してもよい。例えば、音声解析部523は、マイク17で集音された音声を含まない統合音声データD5Aと、マイク27で集音された音声を含まない統合音声データD5Bと、マイク37で集音された音声を含まない統合音声データD5Cとを生成してもよい。
表示データ生成部524は、表示データD4を生成する。表示データ生成部524は、会議に参加している各々のユーザーUに対応するユーザー画像621を生成する。例えば、表示データ生成部524は、ユーザーU1に対応するユーザー画像621aを、カメラ16の撮影画像をもとに生成する。この場合、表示データ生成部524は、映像データD1Aの解像度の調整等を実行することにより、ユーザー画像621aを生成する。また、表示データ生成部524は、予めユーザーU1に対応付けて記憶された静止画像を、ユーザー画像621aとしてもよい。表示データ生成部524は、会議システム100を利用するユーザーU2A、U2B、及びユーザーU3のそれぞれに対応するユーザー画像621を、同様に生成する。
表示データ生成部524は、会議システム100を利用する会議に参加している各々のユーザーUに対応するユーザー画像621を用いて、会議画面61を表示するための表示データD4を生成する。表示データ生成部524は、会議に参加している各々の端末1に対応する表示枠611を配置し、表示枠611の中にユーザー画像621を配置することによって、表示データD4を生成する。
表示データ生成部524は、音声解析部523が生成したテキストデータを含む表示データD4を生成することが可能である。この場合、表示データ生成部524は、音声解析部523が生成したテキストデータを、テキストデータに対応するユーザーUのユーザー画像621に重ねて配置し、表示データD4を生成する。さらに、表示データ生成部524は、テキストデータを、特定の視覚表現で表示するための表示データD4を生成してもよい。
表示データ生成部524は、会議に参加している全ての端末1に共通する表示データD4を生成してもよいし、端末1ごとに異なる表示データD4を生成してもよい。具体的には、表示データ生成部524は、互いに異なる表示データD4A、D4B、D4Cを生成してもよい。この場合、表示データD4Aは、ユーザーU1を除くユーザーUのユーザー画像621を含み、ユーザーU1に対応するユーザー画像621aを含まない。
また、表示データ生成部524は、操作データD3に基づいて、後述する第1領域64と、第2領域65とを含む会議画面62を表示するための表示データD4を生成する。会議画面62、第1領域64及び第2領域65については後述する。
データ処理部525は、操作データD3に基づき、議事録データ532を生成し、或いは議事録データ532を更新して、メモリー53に記憶させる。
[3.会議システムの動作]
図5は、サーバー50の動作を示すフローチャートである。本実施形態では、図2に示したように、端末1から映像データD1、音声データD2及び操作データD3を受信し、表示データD4及び統合音声データD5を生成および送信する機能を、サーバー50が実行する例を説明する。図5に示す動作はサーバー50が有するサーバー制御回路51によって実行される。
図5は、1つの表示データD4を生成する処理を示す。この処理は、表示データD4A、D4B、D4Cのいずれかを生成する場合に実行される。従って、サーバー50が表示データD4A、D4B、D4Cを生成する場合、表示データD4毎に図5の処理が実行される。また、サーバー50が全ての端末1に共通の表示データD4を送信する場合は、図5の処理によって共通の表示データD4が生成される。
ステップST11において、サーバー制御回路51は、端末1から受信した音声データD2から音声を検出し、ユーザーUの発話があったか否かを判定する。発話がないと判定した場合(ステップST11;NO)、サーバー制御回路51はステップST11に戻り、ステップST11の判定を所定時間後に実行する。発話があったと判定した場合(ステップST11;YES)、サーバー制御回路51はステップST12に移行する。
ステップST12において、サーバー制御回路51は、音声データD2から検出した音声を解析する。例えば、サーバー制御回路51は、ステップST12において音声データD2の内容を示すテキストデータを生成する。ステップST13において、サーバー制御回路51は、発話を行ったユーザーUと、発話を行ったユーザーUが使用する端末1を特定する。ステップST13で、サーバー制御回路51は、少なくとも、ステップST11で検出した音声を検出して音声データD2を送信した端末1を特定し、ステップST11で検出した音声と端末1とを対応付ける。例えば、サーバー制御回路51は、音声データD2に含まれる端末1の識別情報に基づいて、音声データD2を送信した端末1を識別し、識別した端末1と、音声データD2に含まれる音声とを対応付ける。
ステップST14で、サーバー制御回路51は、検出した音声において2人以上のユーザーUの音声が重複しているか否かを判定する。2人以上のユーザーUの音声が重複していないと判定した場合(ステップST14;NO)、サーバー制御回路51はステップST15に移行する。ステップST15で、サーバー制御回路51は、表示データD4を受信する端末1においてテキスト表示の設定がONにされているか否かを判定する。
第3端末1Cは、ユーザーU3が入力装置35を操作することによって、テキスト表示のONとOFFを設定できる。テキスト表示がONに設定された場合、第3端末1Cは、タグ631を含む会議画面61を表示する。また、テキスト表示がOFFにされた場合、タグ631は非表示となる。すなわち、タグ631を含まない会議画面61が第3ディスプレイ34に表示される。第3端末1Cは、第3端末1Cにおけるテキスト表示がONまたはOFFに設定された場合、テキスト表示の設定状態を示すデータを含む操作データD3Cを、サーバー50に送信する。第1端末1A、及び第2端末1Bも同様である。従って、サーバー制御回路51は、端末1から送信された操作データD3に基づいて、テキスト表示の設定状態を判定できる。
ステップST15で、テキスト表示の設定がONでないと判定した場合(ステップST15;NO)、サーバー制御回路51は、後述するステップST19に移行する。
ステップST15で、テキスト表示の設定がONであると判定した場合(ステップST15;YES)、サーバー制御回路51は、ステップST16に移行する。ステップST16で、サーバー制御回路51は、ユーザーUの発話の内容を示すテキストデータに基づき、タグ631の画像を生成する。ステップST16で、サーバー制御回路51は、さらに、ステップST12で特定した端末1に対応するユーザー画像621にタグ631が重なるように、タグ631とユーザー画像621の配置を決定し、ステップST19に移行する。
サーバー制御回路51は、ステップST14において2人以上のユーザーUの音声が重複していると判定した場合(ステップST14;YES)、ステップST17に移行する。ステップST17で、サーバー制御回路51は、1つの端末1から送信された音声データD2に2人以上のユーザーUの音声が含まれるか否かを判定する。
サーバー制御回路51は、1つの端末1から送信された音声データD2に2人以上のユーザーUの音声が含まれると判定した場合(ステップST17;YES)、ステップST18に移行する。ステップST18で、サーバー制御回路51は、1つの端末1から送信された音声データD2の内容を示すテキストデータに基づき、タグ631を生成する。サーバー制御回路51は、ステップST18で、2人以上のユーザーUの発話のそれぞれに対応する、複数のタグ631を生成する。さらに、サーバー制御回路51は、ステップST18で生成した複数のタグ631に、異なる視覚表現を付与して、各々のタグ631の配置を決定する。詳細には、サーバー制御回路51は、複数のタグ631が互いに重ならないように、各々のタグ631の表示位置を決定する。そして、これら複数のタグ631が、ステップST13で識別した端末1に対応するユーザー画像621に重なるように、タグ631の配置を決定する。
ステップST18の処理の後、サーバー制御回路51はステップST19に移行する。
サーバー制御回路51は、ステップST17において、1つの端末1から送信された音声データD2に2人以上のユーザーUの音声が含まれないと判定した場合(ステップST17;NO)、ステップST16に移行する。
ステップST19で、サーバー制御回路51は、ステップST16またはステップST18において決定したユーザー画像621とタグ631との配置に基づいて、表示データD4を生成または更新し、端末1に送信する。これにより、端末1において、会議画面が表示され、或いは、会議画面が更新される。
ステップST20において、サーバー制御回路51は、端末1が送信した操作データD3を解析することにより、会議画面の表示中に、タグ631を第1領域64の外に移動させる入力が行われたか否かを判定する。
ここで、タグ631に対する入力の詳細について、図6~図9を参照して説明する。
図6、図7、図8及び図9は、会議画面62の一例を示す図である。図6~図9には、第3端末1Cが第3ディスプレイ34に会議画面62を表示する例を示す。
図6に示すように、会議画面62は、第1領域64及び第2領域65を含む。第1領域64には、ユーザーU1に対応するユーザー画像621a、及び、ユーザーU2A、U2Bに対応するユーザー画像621b、621cが配置される。ユーザー画像621aは、第1端末1Aに対応する表示枠611aに配置される。また、ユーザー画像621b、621cは、第2端末1Bに対応する表示枠611bに配置される。ユーザー画像621aは第1画像の一例に対応し、ユーザー画像621b及びユーザー画像621cを含む、第2端末1Bに対応する画像が、第2画像の一例に対応する。
図6には、第3端末1CにおいてユーザーU2がテキスト表示をONに設定した場合、及び、複数のユーザーUが発話したタイミングが重なった場合に表示される会議画面62を示す。この会議画面62には、タグ631a、631b、631cが配置される。タグ631aは、第1端末1Aがマイク17により集音した音声の内容を示す画像であるから、ユーザー画像621aに重ねて配置される。タグ631b、631cは、第2端末1Bがマイク27により集音した音声の内容を示す画像であるから、ユーザー画像621b、621cに重ねて配置される。タグ631bとタグ631cは、異なる視覚表現で表示される。サーバー制御回路51は、タグ631b、631cを、それぞれユーザー画像621bとユーザー画像621cのどちらに対応するかを特定せずに、表示枠611bに表示する。また、サーバー制御回路51は、タグ631b、631cを、それぞれユーザー画像621bとユーザー画像621cのどちらに対応するかを特定してもよい。
会議画面62には、第3端末1Cに対応する表示枠611cが配置される。表示枠611cには、第3端末1Cを使用するユーザーU3に対応するユーザー画像621d、及び、第3端末1Cがマイク37により集音した音声の内容を示すタグ631dが配置される。表示枠611cを配置するか否かは、例えば、入力装置35の入力により設定変更可能であってもよい。すなわち、図3のように第3ディスプレイ34に表示する会議画面に、第3端末1Cに対応する表示を含めない構成と、図6のように第3端末1Cに対応する表示を含める構成とを、入力装置35の入力により切り替え可能な構成であってもよい。
このように、第1領域64は、会議システム100を利用して会議に参加するユーザーUに関する画像を表示する領域である。
会議画面61、62には、複数のユーザーUの発話が重複した場合に、発話の内容を示すテキスト画像であるタグ631a~631dが表示される。これにより、会議における発話を聞き取りにくい状況が発生しても、ユーザーUが、発話の内容を容易に知ることができる。このため、発話の内容を聞き返したり、発話を繰り返したりする場面が少ないため、会議を円滑に進行させることができる。
また、ユーザーUは、テキスト表示をONにする設定を行うことによって、発話が重複しないときにもタグ631a~631dを表示させることができる。これにより、発話の内容を視覚的に確認できる。
第2領域65は、第1領域64に表示されたタグ631a~631dのうち、選択されたタグ631を表示する領域である。図6に符号OP1で示すように、タグ631aを第2領域65に移動させる入力が行われると、タグ631aと同じ内容の保留タグ651が第2領域65に表示される。保留タグ651が第2領域65に表示される状態を、図7に示す。入力OP1は、テキスト画像を第2領域に移動させる操作の一例に対応する。
第2領域65には、1または複数の保留タグ651が表示可能である。図7の例では、第2領域65に、タグ631aと同じ内容を示すテキスト画像が保留タグ651aとして表示される。保留タグ651a、及び後述する保留タグ651bを区別しない場合、保留タグ651と記載する。保留タグ651は、第1テキスト画像、及び、第2テキスト画像の一例に対応する。
第1領域64に表示されるタグ631は、ユーザーUが発話を行う毎に更新される。これに対し、保留タグ651は、タグ631の更新とは関係なく、第2領域65に継続して表示される。このため、第2領域65に保留タグ651を表示することによって、入力OP1により選択されたタグ631の内容を、ユーザーUが継続して視認できるようにする効果が得られる。
入力OP1を受け付ける端末1は制限されず、会議に参加する全ての端末1において入力OP1を行うことが可能である。すなわち、図6の会議画面62が表示された状態で、第1端末1Aの入力装置15により入力OP1が行われた場合、及び、第2端末1Bの入力装置25により入力OP1が行われた場合も、保留タグ651が第2領域65に表示される。
第2領域65の表示は、会議システム100の会議に参加する全ての端末1に表示される。このため、会議に参加する全てのユーザーUが第2領域65の表示を視認できる。例えば、ユーザーU3の操作により入力OP1が行われた場合、第1端末1A、第2端末1B、及び第3端末1Cの全てが、第2領域65を表示する。この動作は、サーバー制御回路51が、表示データD4A、D4B、D4Cの全てに、第2領域65及び保留タグ651を配置することによって実現される。
端末1は、入力OP1が行われない間は第2領域65を非表示としてもよい。具体的には、第1端末1A、第2端末1B及び第3端末1Cのいずれかにおいて入力OP1が行われるまで、端末1は、第2領域65を表示せず、第1領域64のみを表示してもよい。この場合、会議画面62は第1領域64を有し、第2領域65を有しない画面となる。この表示態様は、サーバー制御回路51が第1領域64の内容のみを含む表示データD4を生成して端末1に送信することにより実現できる。
この場合、第1端末1A、第2端末1B及び第3端末1Cのいずれかにおいて入力OP1を受け付けた場合に、第2領域65の表示が開始される。入力OP1の態様は、タグ631を第1領域64から第2領域65に移動させる操作に限らず、タグ631を第1領域64の外に向けて移動させる操作であればよい。そして、入力OP1によってタグ631が第1領域64の外に向けて移動された場合、サーバー制御回路51は、第1領域64及び第2領域65を含み、選択されたタグ631に対応する保留タグ651が配置された表示データD4を生成し、端末1に送信する。
図8及び図9は、第2領域65に対する入力を受け付けた場合の表示例を示す。
端末1では、図8に示すように、第2領域65に表示された保留タグ651に対する入力OP2を受け付けることができる。入力OP2は、保留タグ651に対応付けて他の発話を第2領域65に表示させるための入力である。入力OP2は、例えば、マウス15bやタッチパネル等のポインティングデバイスによる操作である。具体的には、入力OP2は、保留タグ651をクリックする操作、保留タグ651に対するメニュー画面を用いて保留タグ651を選択する操作、等である。入力OP2は、選択操作の一例に対応する。
例えば、第2端末1Bが入力装置25により入力OP2を受け付けた場合、図9に示すように、入力OP2の後にマイク27により集音した音声の内容を示す保留タグ651bが、第2領域65に表示される。図9には、マイク27によって集音した音声の内容を示すタグ631bが、第1領域64に表示される。さらに、タグ631bと同じ内容を示すテキスト画像である保留タグ651bが、第2領域65に表示される。このように、端末1が保留タグ651aに対する入力OP2を受け付けると、入力OP2の後に集音された音声の内容を示す保留タグ651bが、保留タグ651aに対応付けて第2領域65に表示される。
このように、第2領域65に保留タグ651aが配置された後は、ユーザーUの発話の内容を示す保留タグ651bが、保留タグ651aに対応付けて第2領域65に配置される。ユーザーUは、入力OP2を行うことによって、その後の自身の発話の内容を保留タグ651bとして第2領域65に表示させることができる。その他のユーザーUも、同様に、保留タグ651a或いは保留タグ651bに対して入力OP2を行うことによって、ユーザーU自身の発話の内容を示すテキスト画像を、新たな保留タグ651として第2領域65に表示させることができる。
会議に参加する全てのユーザーUは、入力OP2を行うことができる。例えば、ユーザーU1は、ユーザーU1を含む全てのユーザーUに対応するタグ631に入力OP2を行うことができる。ユーザーU2A、U2B、U3も同様である。これにより、会議に参加する全てのユーザーUが、保留タグ651を選択することによって、自分の発言を保留タグ651に関連付けて第2領域65に表示させることができる。
会議において特定の発話を第2領域65に保留タグ651として表示させることによって、特定の話題に関する会話を継続することができる。例えば、会議に参加するユーザーUの一部のみが特定の話題について議論を継続することができる。これにより、多くの話題を扱う会議をより円滑に進行させることができる。
さらに、第1領域64には、端末1を使用するユーザーU自身に対応するユーザー画像621とタグ631を表示させてもよい。例えば、第3端末1Cは、表示枠611cにユーザーU3のユーザー画像621dとタグ631dを表示してもよい。この場合、ユーザーU3は、ユーザーU3の発話の内容を目視により確認できる。さらに、ユーザーU3は、タグ631dを第2領域65に移動させる入力OP1を行うことによって、ユーザーU3の発話の内容を保留タグ651とすることができる。
図5のステップST20で、サーバー制御回路51は、入力OP1が実行されたか否かを判定する。サーバー制御回路51は、タグ631を移動させる操作が行われたと判定した場合、すなわち、入力OP1が行われたと判定した場合(ステップST20;YES)、ステップST21に移行する。ステップST21で、サーバー制御回路51は、入力OP1の対象となったタグ631を第2領域65に配置する。続いて、サーバー制御回路51は、ステップST22において、第2領域65に移動されたタグ631の内容を議事録データ532に追加し、議事録データ532を更新し、ステップST23に移行する。また、サーバー制御回路51は、タグ631を移動させる操作が行われていないと判定した場合(ステップST20;NO)、ステップST23に移行する。
議事録データ532は、会議の内容を記録したデータである。サーバー制御回路51は、会議システム100によって行われた会議の記録として、保留タグ651に含まれるテキストデータを保存する。ステップST21~ST22で、サーバー制御回路51は、第2領域65に保留タグ651を配置する毎に、新たに配置した保留タグ651に含まれるテキストデータを議事録データ532に追加して、メモリー53に記憶させる。
ステップST23において、サーバー制御回路51は、ステップST12で解析した発話が、保留タグ651を選択する入力OP2の後に発話された音声であるか否かを判定する。入力OP2の後に発話された音声でないと判定した場合(ステップST23;NO)、サーバー制御回路51は、後述するステップST26に移行する。
入力OP2の後に発話された音声であると判定した場合(ステップST23;YES)、サーバー制御回路51は、ステップST24に移行する。ステップST24で、サーバー制御回路51は、ステップST16またはステップST18で配置したタグ631と同じ内容の保留タグ651を、入力OP2で選択された保留タグ651に並べて、第2領域65に配置する。続くステップST25で、サーバー制御回路51は、ステップST24で配置した保留タグ651の内容を議事録データ532に追加して、議事録データ532を更新し、ステップST26に移行する。
ステップST26で、サーバー制御回路51は、表示データD4を更新し、更新した表示データD4を端末1に送信する。
図5のステップST23-ST24において、サーバー制御回路51は、保留タグ651を選択する入力OP2の後に発話された音声については、発話の内容を示す保留タグ651を第2領域65に表示する例を説明したが、この動作を解除可能であってもよい。例えば、第1端末1A、第2端末1B、及び第3端末1Cにおいて、入力OP2の後に、保留タグ651の選択を解除する解除操作を受け付けてもよい。解除操作は、例えば、入力装置15、25、35を利用してユーザーUが行う操作である。具体的には、解除操作は、キーボード15aのESCキーの操作や、入力OP2と同じ操作が挙げられる。
第1端末1Aが解除操作を受け付けた場合、その後にマイク17によって検出されるユーザーU1の発話は、第2領域65に保留タグ651として表示されない。このユーザーU1の発話の内容が、タグ631として第1領域64に表示されてもよい。また、テキスト表示の設定がOFFの場合、ユーザーU1の発話の内容は第1領域64に表示されない。第2端末1B、及び、第3端末1Cにおいても同様である。
解除操作を受け付けることによって、入力OP2による保留タグ651の選択を解除可能である場合、会議の進行中に、発話の内容を保留タグ651として表示させる動作と、保留タグ651として表示させない動作とを切り替え可能である。これにより、特定の内容についての議論と、会議の全体の議論とを使い分けることができ、より一層の利便性の向上を図ることができる。
[4.実施形態の作用]
以上説明したように、会議システム100において実行される表示方法は、第1端末1Aに対応するユーザー画像621aと、第2端末1Bに対応するユーザー画像621bとを並べて第1領域64に表示することを含む。この表示方法は、第1端末1Aが検出した第1音声と、第2端末1Bが検出した第2音声とが重複した場合に、特定の表示を行う。この特定の表示は、第1音声の内容を示すタグ631aをユーザー画像621aと対応付けて第1領域64に表示し、かつ、第2音声の内容を示すタグ631bをユーザー画像621bと対応付けて第1領域64に表示することを含む。また、タグ631aを第1領域64とは異なる第2領域65に移動させる操作を受け付けた場合に、タグ631aを第2領域65に保留タグ651aとして表示することと、を含む。
この表示方法によれば、第1端末1Aが集音した音声と第2端末1Bが集音した音声とが重複した場合に、タグ631a、631bを表示することにより、発話が重複して聞きにくくなった場合であっても、発話の内容をユーザーUが視覚により認識できる。このため、発話のやり直しの要求など、会議の遅延を招く事象を抑制できる。さらに、操作に応じて、発話の内容を示すタグ631aが、ユーザー画像621が表示される第1領域64とは別の第2領域65に表示される。このため、会議で発話された内容のうち、特定の内容を他のユーザーUに注目させることができる。これにより、会議システム100を利用する会議を、円滑に進行させることができる。例えば、会議に参加するユーザーUに、タグ631を見せることによって会議の内容を正確に認識させることができ、第2領域65に保留タグ651aを表示することによって、特定の内容についての議論を深めることができる。
上記表示方法において、第1端末1Aが第1ディスプレイ14の表示領域に第1領域64および第2領域65を表示させる。そして、第1端末1Aが、第1ディスプレイ14の第1領域64に表示させたタグ631aを第2領域65に移動させる入力OP1を受け付けた場合に、第1ディスプレイ14によってタグ631aを第2領域65に保留タグ651aとして表示させてもよい。この場合、第1端末1Aを使用するユーザーU1は、ユーザーU1の発話の内容を示すタグ631aを第2領域65に移動させ、他のユーザーU2A、U2B、U3を、ユーザーU1の発話の内容に着目させることができる。これにより、ユーザーU1は、ユーザーU1が発話した内容を繰り返し発話することなく、その内容について議論を継続できるので、会議をより円滑に進行させることができる。
上記表示方法において、タグ631aとタグ631bを第1領域64に表示することは、第3端末1Cが有する第3ディスプレイ34の表示領域に第1領域64を表示することを含む。タグ631aを第2領域65に表示することは、第3端末1Cが、タグ631aを第2領域65に移動させる操作を受け付けた場合に、タグ631aを第2領域65に保留タグ651aとして表示させることを含む。
この場合、第3端末1Cを使用するユーザーU3は、ユーザーU1の発話の内容を示すタグ631aを第2領域65に移動させ、他のユーザーU1、U2A、U2Bを、ユーザーU1の発話の内容に着目させることができる。これにより、ユーザーU1が発話した内容をユーザーU1或いはユーザーU3が繰り返し発話しなくても、その内容について議論を継続できるので、会議をより円滑に進行させることができる。
上記表示方法において、第1端末1Aがマイク17により検出した第1音声と第2端末1Bがマイク27により検出した第2音声とが重複しない場合に、第1領域64にタグ631a、631bを表示しなくてもよい。この場合、第1領域64における表示を簡素化することにより、ユーザーUが音声の聞き取りに集中しやすくなる効果や、ユーザー画像621に注目しやすくなる効果が期待できる。
上記表示方法において、タグ631aをユーザー画像621aと対応付けて表示することは、ユーザー画像621aにタグ631aを重ねて表示することを含む。また、タグ631bをユーザー画像621bと対応付けて表示することは、ユーザー画像621bにタグ631bを重ねて表示することを含む。ユーザー画像621とタグ631とが重ねて表示されるので、発話の内容を示すタグ631と、発話を行ったユーザーUのユーザー画像621との対応が、分かりやすいので、会議をより円滑に進行させることができる。
上記表示方法は、タグ631aが表示された後、第1端末1Aが新たな第1音声を検出した場合に、第1領域64に表示されたタグ631aを、新たな第1音声の内容に基づく新たなタグ631aに更新することと、第2領域65に表示された保留タグ651aを更新しないことと、を含む。これにより、ユーザーUの発話に応じて第1領域64のタグ631を更新することにより、第1領域64の表示を、会議の進行に追従させることができる。このため、会議をより円滑に進行させることができる。さらに、第2領域65の保留タグ651を、発話に応じて更新しないので、特定の発話の内容を継続してユーザーUに見せることができる。このため、特定の内容について議論を継続しやすくする効果が期待できる。
上記表示方法は、第2領域65に表示された保留タグ651aを選択する選択操作である入力OP2を第2端末1Bによって受け付けることを含む。また、第2端末1Bが入力OP2を受け付けた場合に、入力OP2の後に第2端末1Bがマイク27によって検出する第2音声の内容を示す保留タグ651bを、第2領域65に表示することを含む。これにより、第2領域65に表示された保留タグ651に関連付けてユーザーUが発話を行い、この発話の内容を第2領域65に表示させることができる。従って、特定の内容について議論を行うことが容易であるため、会議をより円滑に進行させることができる。
上記表示方法は、選択操作の後に、第2領域65に表示された保留タグ651aの選択を解除する解除操作を第2端末1Bによって受け付ける。第2端末1Bによって解除操作を受け付けた場合に、解除操作の後に第2端末1Bが検出する第2音声の内容を示すタグ631bを、ユーザー画像621bと対応付けて第1領域64に表示する。これにより、保留タグ651の選択を解除することができる。このため、会議の進行中に、発話の内容を保留タグ651として表示させる動作と、保留タグ651として表示させない動作とを切り替え可能である。これにより、特定の内容についての議論と、会議の全体の議論とを使い分けることができ、より一層の利便性の向上を図ることができる。
上記表示方法は、選択操作の後に、第2領域65に表示された第1テキスト画像の選択を解除する解除操作を第2端末1Bによって受け付ける。上記表示方法は、第2端末1Bによって解除操作を受け付けた場合に、解除操作の後に第2端末1Bが検出する第2音声の内容を示すテキスト画像を表示しない方法であってもよい。この場合、保留タグ651の選択を解除することができる。このため、会議の進行中に、発話の内容を保留タグ651として表示させる動作と、保留タグ651として表示させない動作とを切り替え可能である。さらに、保留タグ651の選択を解除した後の会議画面62の表示を簡素化できる。
上記表示方法において、タグ631を第1領域64の外に向けて移動させる操作である入力OP1を受け付けた場合に、第2領域65の表示を開始してもよい。この場合、入力OP1が行われるまで、第1ディスプレイ14、第2ディスプレイ24或いは第3ディスプレイ34の表示領域を第1領域64の表示に利用できる。従って、会議をより円滑に進行させることができる。
上記表示方法は、第2端末1Bがマイク27によって第1音声と第3音声とを取得することを含む。さらに、上記表示方法は、第1音声の内容を示すタグ631bを第1の視覚表現で表示し、第3音声の内容を示すタグ631cを第1の視覚表現とは異なる第2の視覚表現で表示することを含む。このため、複数のユーザーUの音声に対応するタグ631が、ユーザーU毎に、異なる視覚表現で表示される。このため、複数のタグ631が、異なるユーザーUが発話した内容であるのか、1人のユーザーUが発話した内容であるのかを、他のユーザーUが視覚的に知ることができる。
表示装置としての第3端末1Cは、第3ディスプレイ34と、第3ディスプレイ34を制御する第3制御回路31と、を含む。第3制御回路31は、第3ディスプレイ34を制御することによって、第1端末1Aに対応するユーザー画像621aと、第2端末1Bに対応するユーザー画像621bとを並べて第1領域64に表示することと、第1端末1Aが検出した第1音声と、第2端末1Bが検出した第2音声とが重複した場合に、第3ディスプレイ34を制御することによって、第1音声の内容を示す第1テキスト画像であるタグ631aをユーザー画像621aと対応付けて表示し、かつ、第2音声の内容を示す第2テキスト画像であるタグ631bをユーザー画像621bと対応付けて第1領域64に表示することと、タグ631aを、第1領域64とは異なる第2領域65に移動させる入力OP1を受け付けた場合に、第3ディスプレイ34を制御することによって、タグ631aに対応する保留タグ651aを第2領域65に表示することと、を実行する。
これにより、第1端末1Aが集音した音声と第2端末1Bが集音した音声とが重複した場合に、第3端末1Cの第3ディスプレイ34に、ユーザー画像621aと対応付けてタグ631aが表示され、ユーザー画像621bと対応付けてタグ631bが表示される。このため、発話が重複して聞きにくくなった場合であっても、発話の内容をユーザーU3が視覚により認識できるので、発話のやり直しの要求など、会議の遅延を招く事象を抑制できる。さらに、入力OP1に応じて、発話の内容を示すタグ631aが、ユーザー画像621が表示される第1領域64とは別の第2領域65に表示される。このため、ユーザーU3が入力OP1を行うことによって、会議で発話された特定の内容を、他のユーザーU1、U2A、U2Bに注目させることができる。これにより、会議システム100を利用する会議を、円滑に進行させることができる。例えば、会議に参加するユーザーUに、タグ631を見せることによって会議の内容を正確に認識させることができ、第2領域65に保留タグ651aを表示することによって、特定の内容についての議論を深めることができる。
会議システム100は、マイク17を有する第1端末1Aと、マイク27を有する第2端末1Bと、第3ディスプレイ34を有する第3端末1Cと、を含む。第3端末1Cは、第3ディスプレイ34の第1領域64に、第1端末1Aに対応するユーザー画像621aと、第2端末1Bに対応するユーザー画像621bとを並べて表示する。第3端末1Cは、第1端末1Aがマイクにより検出した第1音声の内容を示すタグ631aをユーザー画像621aと対応付けて第1領域64に表示し、かつ、第2端末1Bがマイク27により検出した第2音声の内容を示すタグ631bをユーザー画像621bと対応付けて表示する。タグ631aを第1領域64から第3ディスプレイ34の第2領域65に移動させる操作である入力OP1を受け付けた場合に、第2領域65に保留タグ651aを表示する。
これにより、第1端末1Aが集音した音声と第2端末1Bが集音した音声とが重複した場合に、第3ディスプレイ34の第1領域64に、ユーザー画像621aと対応付けてタグ631aが表示され、ユーザー画像621bと対応付けてタグ631bが表示される。このため、発話が重複して聞きにくくなった場合であっても、発話の内容をユーザーU3が視覚により認識できるので、発話のやり直しの要求など、会議の遅延を招く事象を抑制できる。さらに、入力OP1に応じて、発話の内容を示すタグ631aが、ユーザー画像621が表示される第1領域64とは別の第2領域65に表示される。これにより、会議システム100を利用する会議を、円滑に進行させることができる。例えば、会議に参加するユーザーUに、タグ631を見せることによって会議の内容を正確に認識させることができ、第2領域65に保留タグ651aを表示することによって、特定の内容についての議論を深めることができる。
会議システム100において、第3端末1Cがタグ631aをユーザー画像621aと対応付けて第1領域64に表示し、かつ、第2端末1Bがマイク27により検出した第2音声の内容を示すタグ631bをユーザー画像621bと対応付けて表示する場合に、第2端末1Bは、第2ディスプレイ24の第1領域64にユーザー画像621aを表示し、第1端末1Aが検出した第1音声の内容を示すタグ631aを、ユーザー画像621aと対応付けて第1領域64に表示してもよい。
この場合、第3ディスプレイ34の第1領域64にユーザー画像621aとタグ631aとが表示され、第2ディスプレイ24の第1領域64にユーザー画像621aとタグ631aとが対応付けて表示される。これにより、会議システム100による会議に参加する複数のユーザーUが、ディスプレイの第1領域64に表示されるユーザー画像621a及びタグ631aにより、発話を行ったユーザーUと、発話の内容とを視認できる。このため、会議で発話された内容を他のユーザーUと共有できるので、会議を円滑に進行させることができる。
会議システム100において、第3端末1Cによって、タグ631aを第1領域64から第3ディスプレイ34の第2領域65に移動させる操作である入力OP1を受け付けた場合に、第3端末1Cが第2領域65に保留タグ651aを表示し、第2端末1Bは第2ディスプレイ24の第2領域65にタグ631aに対応する保留タグ651aを表示してもよい。
この場合、入力OP1に応じて、発話の内容を示すタグ631aが第3ディスプレイ34の第2領域65に表示され、タグ631aが第2ディスプレイ24の第2領域65に表示される。このため、入力OP1を契機として、会議で発話された特定の内容を、会議システム100の会議に参加する複数のユーザーUで共有し、互いに注目させることができる。これにより、会議システム100を利用する会議を、円滑に進行させることができる。例えば、会議に参加するユーザーUに、タグ631を見せることによって会議の内容を正確に認識させることができ、第2領域65に保留タグ651aを表示することによって、特定の内容についての議論を深めることができる。
[5.他の実施形態]
上記各実施形態は本発明を適用した一具体例を示すものであり、本発明はこれに限定されるものではない。
例えば、上記実施形態では、図2に示したように、端末1から映像データD1、音声データD2及び操作データD3を受信し、表示データD4及び統合音声データD5を生成および送信する機能を、サーバー50が実行する例を説明した。本開示の構成はこれに限定されない。例えば、第1端末1A、第2端末1B、及び第3端末1Cのいずれかが、サーバー50の機能を実行してもよい。すなわち、サーバー制御回路51が有する通信制御部521、端末識別部522、音声解析部523、表示データ生成部524及びデータ処理部525と同等の機能部を、第1端末1A、第2端末1B、及び第3端末1Cのいずれかが有する構成であってもよい。また、第1端末1Aが音声解析部523と同様の機能を備え、マイク17により検出した音声を解析してテキストデータを生成し、音声データD2Aにテキストデータを含めてサーバー50に送信する構成であってもよい。この場合、サーバー50は、音声データD2Aを解析してテキストデータを生成する処理を省略できる。また、第2端末1B、第3端末1Cも同様の構成とすることができる。
また、第2端末1Bが音声解析部523と同様の機能を備え、マイク27により検出した音声に、ユーザーU2Aが発話した音声とユーザーU2Bが発話した音声とが含まれるか否かを解析し、判定する構成であってもよい。この場合、第2端末1Bは、マイク27により検出した音声からテキストデータを生成し、生成したテキストデータを、発話者であるユーザーU2AとユーザーU2Bに対応付ける処理を行う。第2端末1Bは、音声データD2Bに、マイク27により検出した音声のテキストデータと、各々のテキストデータとユーザーU2A、U2Bとの対応を示すデータとを含めてサーバー50に送信する。この場合、サーバー50は、音声データD2Bを解析して、発話したユーザーUを識別する処理を省略できる。
サーバー50が端末1に送信する表示データD4の内容やデータフォーマットは制限されない。例えば、表示データD4Aは、第1ディスプレイ14に表示される会議画面61、62のデータであってもよい。また、表示データD4Aは、第1端末1Aが会議画面61、62を表示するために必要なデータであり、第1端末1Aは、表示データD4Aに基づき会議画面61、62のデータを生成する処理を行ってもよい。表示データD4B、表示データD4Cについても同様である。
また、図4に示した各機能部は、機能的構成を示すものであって、具体的な実装形態を制限しない。例えば、サーバー50が、サーバー制御回路51の各機能部に個別に対応するハードウェアを実装する必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、或いは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、会議システム100の他の各部の具体的な細部構成についても、趣旨を逸脱しない範囲で任意に変更可能である。
また、例えば、図5に示す動作のステップ単位は、会議システム100の動作の理解を容易にするために、主な処理内容に応じて分割したものであり、処理単位の分割の仕方や名称によって、本開示が限定されることはない。処理内容に応じて、多くのステップ単位に分割してもよい。また、1つのステップ単位が多くの処理を含むように分割してもよい。また、そのステップの順番は、本開示の趣旨に支障のない範囲で適宜に入れ替えてもよい。
1…端末、1A…第1端末、1B…第2端末、1C…第3端末(表示装置)、11…第1制御回路、12…プロセッサー、13…メモリー、14…第1ディスプレイ(ディスプレイ)、15…入力装置、15a…キーボード、15b…マウス、16…カメラ、17…マイク(第1マイク)、18…スピーカー、19…通信装置、21…第2制御回路、22…プロセッサー、23…メモリー、24…第2ディスプレイ(ディスプレイ)、25…入力装置、25a…キーボード、26…カメラ、27…マイク(第2マイク)、28…スピーカー、29…通信装置、31…第3制御回路(制御回路)、32…プロセッサー、33…メモリー、34…第3ディスプレイ(ディスプレイ)、35…入力装置、35a…キーボード、36…カメラ、37…マイク、38…スピーカー、39…通信装置、50…サーバー、51…サーバー制御回路、52…プロセッサー、53…メモリー、54…通信装置、61…会議画面、62…会議画面、64…第1領域、65…第2領域、100…会議システム(表示システム)、532…議事録データ、621、621c、621d…ユーザー画像、621a…ユーザー画像(第1画像)、621b…ユーザー画像(第2画像)、631、631a、631b、631c、631d…タグ(第1テキスト画像、第2テキスト画像)、651、651a、651b…保留タグ(第1テキスト画像、第2テキスト画像)、D1、D1A、D1B、D1C…映像データ、D2、D2A、D2B、D2C…音声データ、D3、D3A、D3B、D3C…操作データ、D4、D4A、D4B、D4C…表示データ、D5、D5A、D5B、D5C…統合音声データ、OP1…入力、OP2…入力(選択操作)、S、S1、S2、S3…拠点、U、U1、U2A、U2B、U3…ユーザー、V1…発話。

Claims (11)

  1. 第1端末に対応する第1画像と、第2端末に対応する第2画像とを並べて第1領域に表示することと、
    前記第1端末が検出した第1音声と、前記第2端末が検出した第2音声とが重複した場合に、前記第1音声の内容を示す第1テキスト画像を前記第1画像と対応付けて前記第1領域に表示し、かつ、前記第2音声の内容を示す第2テキスト画像を前記第2画像と対応付けて前記第1領域に表示することと、
    前記第1テキスト画像を、前記第1領域とは異なる第2領域に移動させる操作を受け付けた場合に、前記第1テキスト画像を前記第2領域に表示することと、
    を含む、表示方法。
  2. 前記第1テキスト画像及び前記第2テキスト画像を前記第1領域に表示することは、第3端末が有するディスプレイに前記第1領域を表示することを含み、
    前記第1テキスト画像を前記第2領域に表示することは、前記第3端末が、前記第1テキスト画像を前記第2領域に移動させる操作を受け付けた場合に、前記第1テキスト画像を前記第2領域に表示させることを含む、請求項1に記載の表示方法。
  3. 前記第1テキスト画像を前記第1画像と対応付けて表示することは、前記第1画像に前記第1テキスト画像を重ねて表示することを含み、
    前記第2テキスト画像を前記第2画像と対応付けて表示することは、前記第2画像に前記第2テキスト画像を重ねて表示することを含む、請求項1または請求項2に記載の表示方法。
  4. 前記第1領域に前記第1テキスト画像が表示された後、前記第1端末が新たな前記第1音声を検出した場合に、前記第1領域に表示された前記第1テキスト画像を、前記新たな前記第1音声の内容に基づく新たな前記第1テキスト画像にすることと、
    前記第2領域に表示された前記第1テキスト画像を更新しないことと、を含む、請求項1から請求項3のいずれか1項に記載の表示方法。
  5. 前記第2領域に表示された前記第1テキスト画像を選択する選択操作を前記第2端末によって受け付けた場合に、前記選択操作の後に前記第2端末が検出する前記第2音声の内容を示す前記第2テキスト画像を、前記第2領域に表示する、請求項1から請求項4のいずれか1項に記載の表示方法。
  6. 前記選択操作の後に、前記第2領域に表示された前記第1テキスト画像の選択を解除する解除操作を前記第2端末によって受け付けた場合に、前記解除操作の後に前記第2端末が検出する前記第2音声の内容を示す前記第2テキスト画像を、前記第2画像と対応付けて前記第1領域に表示する、請求項5に記載の表示方法。
  7. 前記選択操作の後に、前記第2領域に表示された前記第1テキスト画像の選択を解除する解除操作を前記第2端末によって受け付けた場合に、前記解除操作の後に前記第2端末が検出する前記第2音声の内容を示す前記第2テキスト画像を表示しない、請求項5に記載の表示方法。
  8. 前記第1テキスト画像を、前記第1領域の外に向けて移動させる操作を受け付けた場合に、前記第2領域の表示を開始する、請求項1から請求項7のいずれか1項に記載の表示方法。
  9. 前記第1端末がマイクによって第1音声と第3音声とを取得することと、
    前記第1音声の内容を示す前記第1テキスト画像を第1の視覚表現で表示し、かつ、前記第3音声の内容を示す第3テキスト画像を前記第1の視覚表現とは異なる第2の視覚表現で表示することと、をさらに含む、請求項1から請求項8のいずれか1項に記載の表示方法。
  10. ディスプレイと、
    前記ディスプレイを制御する制御回路と、を含み、
    前記制御回路は、
    前記ディスプレイを制御することによって、第1端末に対応する第1画像と、第2端末に対応する第2画像とを並べて第1領域に表示することと、
    前記第1端末が検出した第1音声と、前記第2端末が検出した第2音声とが重複した場合に、前記ディスプレイを制御することによって、前記第1音声の内容を示す第1テキスト画像を前記第1画像と対応付けて前記第1領域に表示し、かつ、前記第2音声の内容を示す第2テキスト画像を前記第2画像と対応付けて前記第1領域に表示することと、
    前記第1テキスト画像を、前記第1領域とは異なる第2領域に移動させる操作を受け付けた場合に、前記ディスプレイを制御することによって、前記第1テキスト画像を前記第2領域に表示することと、
    を実行する、表示装置。
  11. 第1マイクを有する第1端末と、
    第2マイクを有する第2端末と、
    ディスプレイを有する第3端末と、を含み、
    前記第3端末は、
    前記ディスプレイの第1領域に、前記第1端末に対応する第1画像と、前記第2端末に対応する第2画像とを並べて表示し、
    前記第1端末が第1マイクにより検出した第1音声の内容を示す第1テキスト画像を前記第1画像と対応付けて前記第1領域に表示し、かつ、前記第2端末が第2マイクにより検出した第2音声の内容を示す第2テキスト画像を前記第2画像と対応付けて表示し、
    前記第1テキスト画像を、前記第1領域から前記ディスプレイの第2領域に移動させる操作を受け付けた場合に、前記第2領域に前記第1テキスト画像を表示する、表示システム。
JP2021155267A 2021-09-24 2021-09-24 表示方法、表示装置、及び、表示システム Pending JP2023046590A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021155267A JP2023046590A (ja) 2021-09-24 2021-09-24 表示方法、表示装置、及び、表示システム
CN202211156077.9A CN115865875A (zh) 2021-09-24 2022-09-22 显示方法、显示装置以及显示系统
US17/951,548 US20230100151A1 (en) 2021-09-24 2022-09-23 Display method, display device, and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021155267A JP2023046590A (ja) 2021-09-24 2021-09-24 表示方法、表示装置、及び、表示システム

Publications (1)

Publication Number Publication Date
JP2023046590A true JP2023046590A (ja) 2023-04-05

Family

ID=85661067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021155267A Pending JP2023046590A (ja) 2021-09-24 2021-09-24 表示方法、表示装置、及び、表示システム

Country Status (3)

Country Link
US (1) US20230100151A1 (ja)
JP (1) JP2023046590A (ja)
CN (1) CN115865875A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116524910B (zh) * 2023-06-25 2023-09-08 安徽声讯信息技术有限公司 一种基于麦克风的文稿预制方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8140980B2 (en) * 2003-08-05 2012-03-20 Verizon Business Global Llc Method and system for providing conferencing services
US20150120825A1 (en) * 2013-10-25 2015-04-30 Avaya, Inc. Sequential segregated synchronized transcription and textual interaction spatial orientation with talk-over
US10423321B2 (en) * 2017-11-02 2019-09-24 Dell Products L. P. Defining a zone to perform an action in a dual-screen tablet
US11404049B2 (en) * 2019-12-09 2022-08-02 Microsoft Technology Licensing, Llc Interactive augmentation and integration of real-time speech-to-text
CN111818294A (zh) * 2020-08-03 2020-10-23 上海依图信息技术有限公司 结合音视频的多人会议实时展示的方法、介质和电子设备

Also Published As

Publication number Publication date
CN115865875A (zh) 2023-03-28
US20230100151A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
JP7230394B2 (ja) テレビ会議装置及びテレビ会議プログラム
US10984386B2 (en) Interview system
JP6548045B2 (ja) 会議システム、会議システム制御方法、およびプログラム
US20200106884A1 (en) Information processing apparatus, information processing method, and program
JP2019029984A (ja) 情報処理装置、情報処理方法、映像データ、プログラム、及び情報処理システム
KR102178176B1 (ko) 사용자 단말, 화상 통화 장치, 화상 통화 시스템 및 그 제어방법
JP2017112545A (ja) 会議支援システム
JP7427408B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2018174439A (ja) 会議支援システム、会議支援方法、会議支援装置のプログラム、および端末のプログラム
JP2000184345A (ja) マルチモーダルコミュニケーション支援装置
JP2023046590A (ja) 表示方法、表示装置、及び、表示システム
US20220377177A1 (en) Conferencing System, Server, Information Processing Device and Non-Transitory Recording Medium
JPH04323689A (ja) 会議進行支援装置
JP6859807B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6730651B1 (ja) 音声変換装置、音声変換システム及びプログラム
JP2019179480A (ja) 会議システム、会議システム制御方法およびプログラム
JP2009060220A (ja) コミュニケーションシステム及びコミュニケーションプログラム
KR102178174B1 (ko) 사용자 단말, 방송 장치, 이를 포함하는 방송 시스템 및 그 제어방법
JP7152453B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム
JP7452299B2 (ja) 会話支援システム、会話支援方法及びプログラム
JP2007086935A (ja) 多重ワーク支援システムおよび多重ワーク支援方法
JPH1141578A (ja) 電子会議システム
JP7000547B1 (ja) プログラム、方法、情報処理装置、システム
JP7384730B2 (ja) 会議支援システム、会議支援方法、およびプログラム
JP2019179081A (ja) 会議支援装置、会議支援制御方法およびプログラム