JP2023121274A - Method for controlling conference system, terminal device, and program - Google Patents

Method for controlling conference system, terminal device, and program Download PDF

Info

Publication number
JP2023121274A
JP2023121274A JP2022024527A JP2022024527A JP2023121274A JP 2023121274 A JP2023121274 A JP 2023121274A JP 2022024527 A JP2022024527 A JP 2022024527A JP 2022024527 A JP2022024527 A JP 2022024527A JP 2023121274 A JP2023121274 A JP 2023121274A
Authority
JP
Japan
Prior art keywords
terminal
user
speech
image
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022024527A
Other languages
Japanese (ja)
Inventor
拓生 大西
Takuo Onishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2022024527A priority Critical patent/JP2023121274A/en
Publication of JP2023121274A publication Critical patent/JP2023121274A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

To provide a method for promoting equalization of opportunities for speech when executing a conference by using a plurality of terminals.SOLUTION: A method for controlling a conference system 100 includes: displaying a first image corresponding to a first terminal with a first size based on a first speech amount indicating the time length of a first voice input from the first terminal; and displaying a second image corresponding to a second terminal side by side with the first image with a second size based on a second speech amount indicating the time length of a second voice input from the second terminal. When the first speech amount is larger than the second speech amount, the first size is smaller than the second size.SELECTED DRAWING: Figure 1

Description

本発明は、会議システムの制御方法、端末装置、及び、プログラムに関する。 The present invention relates to a conference system control method, a terminal device, and a program.

従来、コンピューターを利用する会議システムが知られている。例えば、特許文献1は、管理サーバー及び参加者端末を備えるシステムにおいて、発言頻度の多い参加者よりも発言頻度の少ない参加者に優先して発言権を与える構成を開示している。この構成によれば、参加者の発言機会を均等化する、とされている。 Conventionally, a conference system using a computer is known. For example, Patent Literature 1 discloses a configuration in which, in a system including a management server and participant terminals, the right to speak is given to participants who speak less frequently than participants who speak more frequently. According to this configuration, it is said that the opportunities for the participants to speak are equalized.

特開2003-304337号公報Japanese Patent Application Laid-Open No. 2003-304337

特許文献1の構成は管理サーバーが発言権を与える構成である。発言機会を均等化する手法としてどのような手法が好ましいかは、ユーザーや、会議のスタイルによっても異なるため、手法の多様化が望まれていた。このため、発言機会の均等化を促進する新たな手法が望まれていた。 The configuration of Patent Document 1 is a configuration in which the management server gives the right to speak. Since what kind of method is preferable as a method for equalizing opportunities to speak differs depending on the user and the style of the meeting, diversification of the method has been desired. Therefore, a new technique for promoting equalization of speaking opportunities has been desired.

本開示の一態様は、第1端末から入力される第1音声の時間長を示す第1発言量に基づく第1の大きさで、前記第1端末に対応する第1画像を表示することと、第2端末から入力される第2音声の時間長を示す第2発言量に基づく第2の大きさで、前記第1画像と並べて、前記第2端末に対応する第2画像を表示することと、を含み、前記第1発言量が前記第2発言量よりも大きい場合には、前記第1の大きさは前記第2の大きさよりも小さい、会議システムの制御方法である。 An aspect of the present disclosure is to display a first image corresponding to the first terminal with a first size based on a first speech volume indicating a duration of a first voice input from the first terminal. displaying a second image corresponding to the second terminal alongside the first image in a second size based on a second utterance volume indicating the time length of the second voice input from the second terminal; and , wherein when the first speech volume is greater than the second speech volume, the first magnitude is smaller than the second magnitude.

本開示の別の一態様は、制御回路を含み、前記制御回路は、第1端末から入力される第1音声の時間長を示す第1発言量に基づく第1の大きさで、前記第1端末に対応する第1画像を表示装置に出力することと、第2端末から入力される第2音声の時間長を示す第2発言量に基づく第2の大きさで、前記第1画像と並べて、前記第2端末に対応する第2画像を前記表示装置に出力することと、を実行し、前記第1発言量が前記第2発言量よりも多い場合には、前記第1の大きさは前記第2の大きさよりも小さい、端末装置である。 Another aspect of the present disclosure includes a control circuit, wherein the control circuit outputs the first voice at a first magnitude based on a first speech volume indicating a duration of a first voice input from a first terminal. outputting a first image corresponding to the terminal to a display device, and arranging the image side by side with the first image in a second size based on a second utterance volume indicating a time length of a second voice input from the second terminal; and outputting a second image corresponding to the second terminal to the display device, and if the first speech volume is greater than the second speech volume, the first magnitude is A terminal device smaller than the second size.

本開示の別の一態様は、第1端末、第2端末、及び、第3端末と通信可能なコンピューターが実行するプログラムであって、前記コンピューターに、前記第1端末から入力される第1音声の時間長を示す第1発言量に基づく第1の大きさで、前記第1端末に対応する第1画像を前記第3端末によって表示することと、前記第2端末から入力される第2音声の時間長を示す第2発言量に基づく第2の大きさで、前記第1画像と並べて、前記第2端末に対応する第2画像を前記第3端末によって表示することと、を実行させ、前記第1発言量が前記第2発言量よりも大きい場合には、前記第1の大きさは前記第2の大きさよりも小さい、プログラム。 Another aspect of the present disclosure is a program executed by a computer communicable with a first terminal, a second terminal, and a third terminal, wherein a first voice input from the first terminal to the computer displaying, by the third terminal, a first image corresponding to the first terminal at a first size based on a first speech volume indicating a duration of a second voice input from the second terminal; causing the third terminal to display a second image corresponding to the second terminal alongside the first image in a second size based on a second amount of speech indicating the length of time of A program according to claim 1, wherein said first magnitude is smaller than said second magnitude when said first speech volume is greater than said second speech volume.

実施形態に係る会議システムの構成の一例を示す図。The figure which shows an example of a structure of the conference system which concerns on embodiment. 会議システムの動作の概要を示す説明図。Explanatory diagram showing an overview of the operation of the conference system. 会議システムを構成する装置のブロック図。FIG. 2 is a block diagram of devices that make up the conference system; 端末に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on a terminal. 端末に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on a terminal. サーバーの動作例を示すフローチャート。4 is a flowchart showing an example of server operation. サーバーの動作例を示すフローチャート。4 is a flowchart showing an example of server operation.

[1.会議システムの概要]
以下、図面を参照して本実施形態について説明する。
図1は、本実施形態に係る会議システム100の構成の一例を示す図である。
会議システム100は、複数のユーザーUがコンピューターを利用し、音声及び映像を共有して会議を行うシステムである。会議システム100は、複数のユーザーUがそれぞれ使用する複数の端末1、及び、サーバー50を備える。端末1及びサーバー50は、通信ネットワーク7により相互にデータ通信可能に接続される。
[1. Overview of conference system]
Hereinafter, this embodiment will be described with reference to the drawings.
FIG. 1 is a diagram showing an example of the configuration of a conference system 100 according to this embodiment.
The conference system 100 is a system in which a plurality of users U use computers to hold a conference by sharing audio and video. A conference system 100 includes a plurality of terminals 1 used by a plurality of users U and a server 50 . The terminal 1 and the server 50 are connected by a communication network 7 so as to be able to communicate with each other.

会議システム100に含まれる端末1の数に制限はない。また、サーバー50は、1台のコンピューターであってもよいし、複数のコンピューターで構成されてもよく、クラウドサーバーであってもよい。サーバー50は、制御装置の一例に対応する。サーバー50が端末1とは異なる装置として会議システム100に含まれる構成は一例である。例えば、会議システム100において会議に参加するいずれかの端末1が、サーバー50の機能を具備していてもよい。 The number of terminals 1 included in the conference system 100 is not limited. Also, the server 50 may be a single computer, may be composed of a plurality of computers, or may be a cloud server. Server 50 corresponds to an example of a control device. A configuration in which the server 50 is included in the conference system 100 as a device different from the terminal 1 is an example. For example, any terminal 1 participating in a conference in the conference system 100 may have the functions of the server 50 .

本実施形態では、図1に示すように、4台の端末1を利用して会議を行う例を説明する。以下の説明では、4台の端末1を、端末1A、1B、1C、1Dと呼ぶ。これらを区別しない場合に端末1と記載する。端末1A、端末1B、端末1C、及び、端末1Dは、通信機能を有するコンピューターである。具体的には、デスクトップ型PC(Personal Computer)、タブレット型PC、スマートフォン等である。端末1A、1B、1C、1Dは、端末装置の一例に対応する。 In this embodiment, as shown in FIG. 1, an example of holding a conference using four terminals 1 will be described. In the following description, the four terminals 1 are called terminals 1A, 1B, 1C, and 1D. Terminal 1 is used when these terminals are not distinguished from each other. Terminal 1A, terminal 1B, terminal 1C, and terminal 1D are computers having a communication function. Specifically, they are desktop PCs (Personal Computers), tablet PCs, smartphones, and the like. Terminals 1A, 1B, 1C, and 1D correspond to examples of terminal devices.

図1に示す例では、端末1Aは拠点S1に設置され、端末1Bは拠点S2に設置され、端末1Cは拠点S3に設置され、端末1Dは拠点S4に設置される。拠点S1~S4の地理的関係は制限されない。拠点S1~S4は、互いに離れた場所であってもよいし、同一の建物内の場所であってもよいし、同一の室内において互いに仕切られた場所であってもよい。以下の説明において、拠点S1~S4を区別しない場合は拠点Sと記載する。 In the example shown in FIG. 1, the terminal 1A is installed at the site S1, the terminal 1B is installed at the site S2, the terminal 1C is installed at the site S3, and the terminal 1D is installed at the site S4. The geographic relationship of sites S1-S4 is not restricted. The bases S1 to S4 may be separated from each other, may be located in the same building, or may be located in the same room separated from each other. In the following description, the bases S1 to S4 are referred to as bases S when they are not distinguished.

端末1を使用するユーザーUの人数に制限はない。例えば、1台の端末1を複数のユーザーUが使用して会議に参加してもよい。端末1が、可搬型のコンピューターである場合、ユーザーUは端末1を持ち運んで使用してもよい。本実施形態では、端末1AをユーザーU1が使用し、端末1BをユーザーU2が使用し、端末1CをユーザーU3が使用し、端末1DをユーザーU4が使用する。ユーザーU1、U2、U3、U4を区別しない場合にユーザーUと記載する。 The number of users U using the terminal 1 is not limited. For example, one terminal 1 may be used by multiple users U to participate in a conference. If the terminal 1 is a portable computer, the user U may carry and use the terminal 1 . In this embodiment, the terminal 1A is used by the user U1, the terminal 1B is used by the user U2, the terminal 1C is used by the user U3, and the terminal 1D is used by the user U4. Users U1, U2, U3, and U4 are referred to as user U when not distinguished.

通信ネットワーク7は、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。また、専用回線、公衆回線網、インターネット等を含んで構成されるグローバルネットワークであってもよい。 The communication network 7 may be a LAN (Local Area Network) or a WAN (Wide Area Network). Alternatively, it may be a global network including a dedicated line, a public line network, the Internet, and the like.

端末1Aは、ディスプレイ14a、キーボード151a、マウス152a、カメラ16a、マイク17a、及び、スピーカー18aを有する。これらの各機器は、端末1Aの本体に有線または無線で接続される。各機器の少なくとも1つが、端末1Aの本体に一体に組み込まれていてもよい。いずれの場合も、これらの機器を、端末1Aのディスプレイ14a、端末1Aのマイク17a等と称する場合がある。ディスプレイ14aは、表示パネルを有し、表示パネルの表示領域141aに画像や文字を表示する表示装置である。ディスプレイ14aの表示パネルは、例えば、液晶ディスプレイパネル、有機EL(Electro-Luminescence)パネル、プラズマディスプレイパネル等である。キーボード151a及びマウス152aはユーザーU1が入力操作に使用する入力装置である。カメラ16aはユーザーU1を撮影する。マイク17aは、ユーザーU1の音声を集音する。スピーカー18aは、会議の音声を出力する。ユーザーU1は、これらの各機器を使用して会議に参加する。 Terminal 1A has display 14a, keyboard 151a, mouse 152a, camera 16a, microphone 17a, and speaker 18a. Each of these devices is wired or wirelessly connected to the main body of the terminal 1A. At least one of each device may be integrally incorporated into the main body of the terminal 1A. In either case, these devices may be referred to as the display 14a of the terminal 1A, the microphone 17a of the terminal 1A, and the like. The display 14a is a display device that has a display panel and displays images and characters in a display area 141a of the display panel. The display panel of the display 14a is, for example, a liquid crystal display panel, an organic EL (Electro-Luminescence) panel, a plasma display panel, or the like. A keyboard 151a and a mouse 152a are input devices used by the user U1 for input operations. Camera 16a photographs user U1. The microphone 17a collects the voice of the user U1. The speaker 18a outputs conference audio. User U1 uses each of these devices to participate in the conference.

端末1Bは、ディスプレイ14b、キーボード151b、マウス152b、カメラ16b、マイク17b、及び、スピーカー18bを備える。これらの各機器は、端末1Bの本体に有線または無線で接続される。ディスプレイ14bは、ディスプレイ14aと同様に表示パネルを有し、表示パネルの表示領域141bに画像や文字を表示する表示装置である。キーボード151b、カメラ16b、マイク17b、及び、スピーカー18bは、それぞれ、キーボード151a、カメラ16a、マイク17a、及び、スピーカー18aと同様に構成される。 Terminal 1B includes display 14b, keyboard 151b, mouse 152b, camera 16b, microphone 17b, and speaker 18b. Each of these devices is wired or wirelessly connected to the main body of the terminal 1B. The display 14b has a display panel like the display 14a, and is a display device that displays images and characters in a display area 141b of the display panel. Keyboard 151b, camera 16b, microphone 17b, and speaker 18b are configured similarly to keyboard 151a, camera 16a, microphone 17a, and speaker 18a, respectively.

カメラ16bはユーザーU2を撮影する。マイク17bは、ユーザーU2の音声を集音する。スピーカー18bは、会議の音声を出力する。ユーザーU2は、これらの各機器を使用して会議に参加する。 Camera 16b photographs user U2. The microphone 17b collects the voice of the user U2. The speaker 18b outputs conference audio. User U2 uses each of these devices to participate in the conference.

端末1Cは、ディスプレイ14c、キーボード151c、マウス152c、カメラ16c、マイク17c、及び、スピーカー18cを備える。これらの各機器は、端末1Cの本体に有線または無線で接続される。ディスプレイ14cは、ディスプレイ14aと同様に表示パネルを有し、表示パネルの表示領域141cに画像や文字を表示する表示装置である。キーボード151c、カメラ16c、マイク17c、及び、スピーカー18cは、それぞれ、キーボード151a、カメラ16a、マイク17a、及び、スピーカー18aと同様に構成される。 Terminal 1C includes display 14c, keyboard 151c, mouse 152c, camera 16c, microphone 17c, and speaker 18c. Each of these devices is wired or wirelessly connected to the main body of the terminal 1C. The display 14c has a display panel like the display 14a, and is a display device that displays images and characters in a display area 141c of the display panel. The keyboard 151c, camera 16c, microphone 17c, and speaker 18c are configured similarly to the keyboard 151a, camera 16a, microphone 17a, and speaker 18a, respectively.

カメラ16cはユーザーU3を撮影する。マイク17cは、ユーザーU3の音声を集音する。スピーカー18cは、会議の音声を出力する。ユーザーU3は、これらの各機器を使用して会議に参加する。 Camera 16c captures user U3. The microphone 17c collects the voice of the user U3. The speaker 18c outputs conference audio. User U3 uses each of these devices to participate in the conference.

端末1Dは、ディスプレイ14d、キーボード151d、マウス152d、カメラ16d、マイク17d、及び、スピーカー18dを備える。これらの各機器は、端末1Dの本体に有線または無線で接続される。ディスプレイ14dは、ディスプレイ14aと同様に表示パネルを有し、表示パネルの表示領域141dに画像や文字を表示する表示装置である。キーボード151d、カメラ16d、マイク17d、及び、スピーカー18dは、それぞれ、キーボード151a、カメラ16a、マイク17a、及び、スピーカー18aと同様に構成される。 Terminal 1D includes display 14d, keyboard 151d, mouse 152d, camera 16d, microphone 17d, and speaker 18d. Each of these devices is wired or wirelessly connected to the main body of the terminal 1D. The display 14d is a display device that has a display panel like the display 14a and displays images and characters in a display area 141d of the display panel. The keyboard 151d, the camera 16d, the microphone 17d, and the speaker 18d are configured similarly to the keyboard 151a, the camera 16a, the microphone 17a, and the speaker 18a, respectively.

カメラ16dはユーザーU4を撮影する。マイク17dは、ユーザーU4の音声を集音する。スピーカー18dは、会議の音声を出力する。ユーザーU4は、これらの各機器を使用して会議に参加する。
ディスプレイ14a、14b、14c、14dを区別しない場合、ディスプレイ14と記載する。
Camera 16d captures user U4. The microphone 17d collects the voice of the user U4. The speaker 18d outputs conference audio. User U4 uses each of these devices to participate in the conference.
The displays 14a, 14b, 14c and 14d will be referred to as the display 14 when not distinguished.

図2は、会議システム100の動作の概要を示す説明図である。
会議システム100を利用して実行される会議は、複数のユーザーUが、少なくとも互いの音声を共有することによって行われる。また、会議システム100は、カメラ16a、16b、16c、16dによって撮影した画像や映像を共有して会議を行う構成であってもよい。本実施形態では、会議システム100は、カメラ16a、16b、16c、16dによって撮影した映像を共有して会議を行う。
FIG. 2 is an explanatory diagram showing an overview of the operation of the conference system 100. As shown in FIG.
A conference held using the conference system 100 is held by a plurality of users U sharing at least their voices. Also, the conference system 100 may be configured to hold a conference by sharing images and videos captured by the cameras 16a, 16b, 16c, and 16d. In this embodiment, the conference system 100 conducts a conference by sharing images captured by the cameras 16a, 16b, 16c, and 16d.

端末1A、端末1B、端末1C、端末1Dからサーバー50に送信されるデータを端末データD1と呼ぶ。端末データD1は、端末1Aが送信する端末データD11、端末1Bが送信する端末データD12、端末1Cが送信する端末データD13、及び、端末1Dが送信する端末データD14を含む。 Data transmitted from the terminals 1A, 1B, 1C, and 1D to the server 50 is called terminal data D1. The terminal data D1 includes terminal data D11 transmitted by the terminal 1A, terminal data D12 transmitted by the terminal 1B, terminal data D13 transmitted by the terminal 1C, and terminal data D14 transmitted by the terminal 1D.

サーバー50は、端末1A、1B、1C、1Dに、サーバーデータD2を送信する。サーバーデータD2は、サーバーデータD21、D22、D23、D24を含む。 Server 50 transmits server data D2 to terminals 1A, 1B, 1C, and 1D. Server data D2 includes server data D21, D22, D23, and D24.

端末1Aは、カメラ16aにより撮影した映像に基づく映像データ、マイク17aにより集音した音声に基づく音声データ、及び、キーボード151aまたはマウス152aの操作に基づく操作データを含む端末データD11を、サーバー50に送信する。同様に、端末1Bは、カメラ16bにより撮影した映像に基づく映像データ、マイク17bにより集音した音声に基づく音声データ、及び、キーボード151bまたはマウス152bの操作に基づく操作データを含む端末データD11を、サーバー50に送信する。端末1Cは、カメラ16cにより撮影した映像に基づく映像データ、マイク17cにより集音した音声に基づく音声データ、及び、キーボード151cまたはマウス152cの操作に基づく操作データを含む端末データD11を、サーバー50に送信する。端末1Dは、カメラ16dにより撮影した映像に基づく映像データ、マイク17dにより集音した音声に基づく音声データ、及び、キーボード151dまたはマウス152dの操作に基づく操作データを含む端末データD11を、サーバー50に送信する。 The terminal 1A transmits terminal data D11 including video data based on video captured by the camera 16a, audio data based on audio collected by the microphone 17a, and operation data based on operation of the keyboard 151a or mouse 152a to the server 50. Send. Similarly, the terminal 1B sends terminal data D11 including video data based on video captured by the camera 16b, audio data based on audio collected by the microphone 17b, and operation data based on the operation of the keyboard 151b or mouse 152b. Send to server 50 . The terminal 1C sends terminal data D11 including video data based on video captured by the camera 16c, audio data based on audio collected by the microphone 17c, and operation data based on operation of the keyboard 151c or mouse 152c to the server 50. Send. The terminal 1D transmits to the server 50 terminal data D11 including video data based on video captured by the camera 16d, audio data based on audio collected by the microphone 17d, and operation data based on operation of the keyboard 151d or mouse 152d. Send.

サーバー50は、会議システム100による会議の音声、及び、会議中の各々のユーザーUの映像を各々の端末1に配信する。サーバー50は、端末データD1に含まれる音声データに基づいて、統合音声データを生成する。統合音声データは、マイク17a、17b、17c、17dの各々によって集音された音声を含む。サーバー50は、端末データD1に含まれる映像データに基づいて、表示データを生成する。表示データは、カメラ16a、16b、16c、16dの各々によって撮影された映像を含む。 The server 50 distributes the audio of the conference by the conference system 100 and the video of each user U during the conference to each terminal 1 . The server 50 generates integrated voice data based on the voice data included in the terminal data D1. Integrated audio data includes audio collected by each of the microphones 17a, 17b, 17c, and 17d. The server 50 generates display data based on the video data included in the terminal data D1. The display data includes images captured by each of the cameras 16a, 16b, 16c, and 16d.

端末1Aは、サーバーデータD21を受信し、サーバーデータD21に含まれる統合音声データに基づいてスピーカー18aから音声を出力する。また、端末1Aは、サーバーデータD21に含まれる表示データをディスプレイ14aによって表示する。同様に、端末1Bは、サーバーデータD22に基づいて、スピーカー18bからの音声出力、及び、ディスプレイ14bによる表示を行う。端末1Cは、サーバーデータD23に基づいて、スピーカー18cからの音声出力、及び、ディスプレイ14cによる表示を行う。端末1Dは、サーバーデータD24に基づいて、スピーカー18dからの音声出力、及び、ディスプレイ14dによる表示を行う。これにより、会議システム100を利用する全てのユーザーUが、他のユーザーUの音声を聞くことができ、音声による会議を行うことができる。 The terminal 1A receives the server data D21 and outputs sound from the speaker 18a based on the integrated sound data included in the server data D21. Also, the terminal 1A displays the display data included in the server data D21 on the display 14a. Similarly, the terminal 1B performs audio output from the speaker 18b and display on the display 14b based on the server data D22. The terminal 1C performs audio output from the speaker 18c and display on the display 14c based on the server data D23. The terminal 1D performs audio output from the speaker 18d and display on the display 14d based on the server data D24. As a result, all users U using the conference system 100 can hear the voices of other users U, and can hold voice conferences.

サーバー50は、端末1A、端末1B、端末1C及び端末1Dに送信する統合音声データを、異なるデータとしてもよい。例えば、サーバー50は、マイク17aにより集音された音声を含まないサーバーデータD21を、端末1Aに送信する。この場合、スピーカー18aは、マイク17aにより集音された音声を出力しない。すなわち、ユーザーU1の声がスピーカー18aから出力されない。これにより、ユーザーU1は、スピーカー18aからユーザーU1の声を聞くことがないので、ユーザーU1の違和感を回避できる。サーバー50は、同様の制御を、サーバーデータD22、D23、D24に対しても実行可能である。 The server 50 may transmit different integrated audio data to the terminals 1A, 1B, 1C, and 1D. For example, the server 50 transmits to the terminal 1A server data D21 that does not contain the sound collected by the microphone 17a. In this case, the speaker 18a does not output the sound collected by the microphone 17a. That is, the voice of user U1 is not output from speaker 18a. As a result, the user U1 does not hear the voice of the user U1 through the speaker 18a, so that the user U1 can avoid discomfort. The server 50 can perform similar control on server data D22, D23, and D24.

端末1Aは、カメラ16aの撮影画像を加工した映像データを含む端末データD11を生成してもよい。或いは、端末1Aは、カメラ16aの撮影画像を含まない端末データD11を生成してもよい。この場合、端末1Aは、カメラ16aの撮影画像の代わりにダミーの映像データを含む端末データD11を送信してもよいし、映像データを含まない端末データD11を送信してもよい。サーバー50は、映像データを含まない端末データD11を受信した場合に、端末1Aに対応付けて予め記憶しているアイコン画像を利用してサーバーデータD2を生成してもよい。端末1B、端末1C及び端末1Dについても同様である。 The terminal 1A may generate terminal data D11 including video data obtained by processing the image captured by the camera 16a. Alternatively, the terminal 1A may generate terminal data D11 that does not include the image captured by the camera 16a. In this case, the terminal 1A may transmit the terminal data D11 containing dummy video data instead of the image captured by the camera 16a, or may transmit the terminal data D11 containing no video data. When the server 50 receives the terminal data D11 that does not include the video data, the server 50 may generate the server data D2 using an icon image that is associated with the terminal 1A and stored in advance. The same applies to terminal 1B, terminal 1C, and terminal 1D.

[2.会議システムを構成する装置の構成]
図3は、会議システム100を構成する装置のブロック図である。
図3には、端末1A及びサーバー50の機能的構成について図示する。端末1B、端末1C及び端末1Dは、端末1Aと同様に構成されるため、端末1B、端末1C、及び端末1Dの構成について詳細な図示を省略する。
[2. Configuration of Devices Constituting Conference System]
FIG. 3 is a block diagram of devices that make up the conference system 100. As shown in FIG.
FIG. 3 illustrates functional configurations of the terminal 1A and the server 50. As shown in FIG. Since the terminals 1B, 1C and 1D are configured in the same manner as the terminal 1A, detailed illustrations of the configurations of the terminals 1B, 1C and 1D are omitted.

図3に示すように、端末1Aは、制御回路11を有し、制御回路11にディスプレイ14a、入力装置15、カメラ16a、マイク17a、スピーカー18a、及び通信装置19が接続される。 As shown in FIG. 3, the terminal 1A has a control circuit 11 to which a display 14a, an input device 15, a camera 16a, a microphone 17a, a speaker 18a, and a communication device 19 are connected.

入力装置15は、ユーザーUが入力操作に使用する装置である。入力装置15は、例えば、キーボード151a及びマウス152aを含む。入力装置15は、ディスプレイ14aの表示パネルに重ねて設置されるタッチセンサーであってもよいし、その他の装置であってもよい。 The input device 15 is a device that the user U uses for input operations. The input device 15 includes, for example, a keyboard 151a and a mouse 152a. The input device 15 may be a touch sensor placed over the display panel of the display 14a, or may be another device.

通信装置19は、通信ネットワーク7に接続され、通信ネットワーク7を介してサーバー50とデータ通信を実行する。通信装置19は、例えば、通信ケーブルを接続するコネクター及び通信インターフェイス回路を備える。通信装置19は、アンテナ及び無線通信回路を備え、無線通信回線を通じて通信ネットワーク7に接続される構成であってもよい。 The communication device 19 is connected to the communication network 7 and performs data communication with the server 50 via the communication network 7 . The communication device 19 includes, for example, a connector for connecting a communication cable and a communication interface circuit. The communication device 19 may include an antenna and a wireless communication circuit, and may be configured to be connected to the communication network 7 through a wireless communication line.

制御回路11は、プロセッサー12、及び、メモリー13を備える。プロセッサー12は、例えば、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、或いはその他の集積回路により構成される。プロセッサー12は、単一のプロセッサーであっても、複数のプロセッサーであってもよい。プロセッサー12は、プログラムを実行することにより、端末1Aの各部を制御する。 The control circuit 11 has a processor 12 and a memory 13 . The processor 12 is configured by, for example, a CPU (Central Processing Unit), MPU (Micro-Processing Unit), or other integrated circuits. Processor 12 may be a single processor or multiple processors. Processor 12 controls each part of terminal 1A by executing a program.

メモリー13は、プロセッサー12が実行するプログラムやデータを不揮発的に記憶する記憶装置である。メモリー13は、磁気的記憶装置、フラッシュROM(Read Only Memory)等の半導体記憶素子、或いはその他の種類の不揮発性記憶装置により構成される。メモリー13は、プロセッサー12のワークエリアを構成するRAM(Random Access Memory)を含んでもよい。メモリー13は、制御回路11により処理されるデータや、プロセッサー12が実行する制御プログラムを記憶する。 The memory 13 is a storage device that stores programs and data executed by the processor 12 in a non-volatile manner. The memory 13 is composed of a semiconductor storage device such as a magnetic storage device, a flash ROM (Read Only Memory), or other types of non-volatile storage devices. The memory 13 may include a RAM (Random Access Memory) forming a work area of the processor 12 . The memory 13 stores data processed by the control circuit 11 and control programs executed by the processor 12 .

プロセッサー12は、カメラ16aの撮影データを取得し、撮影データに基づき映像データを生成する。プロセッサー12は、マイク17aが集音した音声をデジタル音声データに変換する。プロセッサー12は、デジタル音声データに基づき音声データを生成する。プロセッサー12は、入力装置15による入力を受け付けて、受け付けた入力に基づき操作データを生成する。 The processor 12 acquires the photographed data of the camera 16a and generates video data based on the photographed data. The processor 12 converts the voice collected by the microphone 17a into digital voice data. Processor 12 generates audio data based on the digital audio data. The processor 12 receives input from the input device 15 and generates operation data based on the received input.

プロセッサー12は、映像データ、音声データ、及び操作データを含む端末データD11を生成し、通信装置19によってサーバー50に送信する。 The processor 12 generates terminal data D<b>11 including video data, audio data, and operation data, and transmits the terminal data D<b>11 to the server 50 via the communication device 19 .

プロセッサー12は、サーバー50が送信するサーバーデータD21を、通信装置19によって受信する。プロセッサー12は、サーバーデータD21に含まれる表示データに基づいてディスプレイ14aを制御することにより、ディスプレイ14aに会議画面61を表示させる。プロセッサー12は、サーバーデータD21に含まれる統合音声データに基づく音声をスピーカー18aから出力させる。 The processor 12 receives the server data D<b>21 transmitted by the server 50 through the communication device 19 . The processor 12 causes the display 14a to display the conference screen 61 by controlling the display 14a based on the display data included in the server data D21. The processor 12 causes the speaker 18a to output sound based on the integrated sound data included in the server data D21.

端末1B、端末1C、及び、端末1Dは、端末1Aと同様に構成される。すなわち、端末1B、端末1C、及び、端末1Dは、プロセッサーを含む制御回路を備える。端末1B、端末1C、及び、端末1Dは、プロセッサーの制御によって、サーバー50からサーバーデータD2を受信して音声出力及び表示を行う。また、端末1B、端末1C、及び、端末1Dは、プロセッサーの制御によって、音声データ、映像データ、及び操作データを含む端末データD1を生成して、サーバー50に送信する。 Terminal 1B, terminal 1C, and terminal 1D are configured in the same manner as terminal 1A. That is, terminal 1B, terminal 1C, and terminal 1D are provided with control circuits including processors. The terminals 1B, 1C, and 1D receive the server data D2 from the server 50 under the control of the processor, and perform audio output and display. Also, the terminals 1B, 1C, and 1D generate terminal data D1 including audio data, video data, and operation data under the control of the processors, and transmit the terminal data D1 to the server 50 .

サーバー50は、サーバー制御回路51を有する。サーバー制御回路51には通信装置54が接続される。通信装置54は、通信ネットワーク7に接続され、通信ネットワーク7を介して端末1とデータ通信を実行する。通信装置54は、例えば、通信ケーブルを接続するコネクター及び通信インターフェイス回路を備える。通信装置54は、アンテナ及び無線通信回路を備え、無線通信回線を通じて通信ネットワーク7に接続される構成であってもよい。 The server 50 has a server control circuit 51 . A communication device 54 is connected to the server control circuit 51 . The communication device 54 is connected to the communication network 7 and performs data communication with the terminal 1 via the communication network 7 . The communication device 54 includes, for example, a connector for connecting a communication cable and a communication interface circuit. The communication device 54 may include an antenna and a wireless communication circuit, and may be configured to be connected to the communication network 7 through a wireless communication line.

サーバー制御回路51は、プロセッサー52、及び、メモリー53を備える。プロセッサー52は、CPU、MPU、或いは、その他の集積回路により構成される。プロセッサー52は、プログラムを実行することにより、端末1Cの各部を制御する。プロセッサー52の具体的構成は、例えば、プロセッサー12と同様であり、メモリー53の具体的構成はメモリー13と同様である。サーバー制御回路51は、コンピューターの一例に対応する。 The server control circuit 51 has a processor 52 and a memory 53 . The processor 52 is composed of a CPU, MPU, or other integrated circuits. Processor 52 controls each part of terminal 1C by executing a program. The specific configuration of the processor 52 is, for example, similar to that of the processor 12 , and the specific configuration of the memory 53 is similar to that of the memory 13 . The server control circuit 51 corresponds to an example of a computer.

プロセッサー52は、メモリー53が記憶する制御プログラム531を実行することによって、通信制御部521、設定部522、端末識別部523、音声処理部524、及び、表示処理部525として機能する。メモリー53は、制御プログラム531、及び、会議データ532を記憶する。会議データ532は、会議に関する情報を含む。会議に関する情報は、例えば、ユーザーUが端末1を操作して入力される。会議に関する情報は、例えば、会議の日時、開始時刻、終了時刻、参加するユーザーU、会議のタイトルである。会議データ532は、会議の実行中にサーバー制御回路51が生成する情報を含んでもよい。 The processor 52 functions as a communication control unit 521 , a setting unit 522 , a terminal identification unit 523 , an audio processing unit 524 and a display processing unit 525 by executing a control program 531 stored in the memory 53 . The memory 53 stores a control program 531 and conference data 532 . Meeting data 532 includes information about meetings. Information about the conference is input by the user U operating the terminal 1, for example. The information about the conference is, for example, the date and time of the conference, the start time, the end time, the participating users U, and the title of the conference. Conference data 532 may include information generated by server control circuit 51 during execution of the conference.

通信制御部521は、通信装置54を制御して、端末1との間でデータ通信を実行させる。通信制御部521は、端末1が送信する端末データD1を、通信装置54によって受信させる。通信制御部521は、プロセッサー52が生成するサーバーデータD2を、端末1に送信する。 The communication control unit 521 controls the communication device 54 to perform data communication with the terminal 1 . The communication control unit 521 causes the communication device 54 to receive the terminal data D1 transmitted by the terminal 1 . The communication control unit 521 transmits server data D2 generated by the processor 52 to the terminal 1 .

設定部522は、端末データD1に含まれる操作データに基づいて、会議システム100を利用する会議に関する設定を行う。 The setting unit 522 sets the conference using the conference system 100 based on the operation data included in the terminal data D1.

端末識別部523は、端末1から端末データD1を受信した場合に、端末データD1を送信した端末1を識別する。本実施形態の会議システム100は、1台の端末1を1人のユーザーUが使用する。このため、端末識別部523が端末1を識別した結果は、ユーザーUを識別した結果と見なすことができる。例えば、音声処理部524は、端末識別部523によって端末データD1の送信元が端末1Aであると識別された場合、この端末データD1がユーザーU1の音声を含むデータであると見なす。 When the terminal data D1 is received from the terminal 1, the terminal identification unit 523 identifies the terminal 1 that has transmitted the terminal data D1. In the conference system 100 of this embodiment, one user U uses one terminal 1 . Therefore, the result of identifying the terminal 1 by the terminal identification unit 523 can be regarded as the result of identifying the user U. FIG. For example, when the terminal identification unit 523 identifies that the terminal 1A is the transmission source of the terminal data D1, the audio processing unit 524 regards the terminal data D1 as data including the audio of the user U1.

音声処理部524は、端末データD1に含まれる音声データを処理する。音声処理部524は、例えば、端末データD1に含まれる音声データに基づいて、統合音声データを生成する。音声処理部524は、全ての端末1に共通する統合音声データを生成してもよいし、端末1毎に異なる統合音声データを生成してもよい。 The audio processing unit 524 processes audio data included in the terminal data D1. The audio processing unit 524 generates integrated audio data, for example, based on the audio data included in the terminal data D1. The voice processing unit 524 may generate integrated voice data common to all terminals 1 or may generate different integrated voice data for each terminal 1 .

音声処理部524は、端末データD1に含まれる音声データを解析する。音声処理部524は、音声データに含まれるユーザーUの音声を検出する機能を有し、ユーザーUが発話を開始したこと、及び、ユーザーUの発話が終了したことを検出する。 The audio processing unit 524 analyzes the audio data included in the terminal data D1. The voice processing unit 524 has a function of detecting the voice of the user U included in the voice data, and detects that the user U has started speaking and that the user U has finished speaking.

音声処理部524は、ユーザーUの発言量を算出する。発言量は、発言の時間の長さ、すなわち発言の時間長であってもよいし、会議における発言回数であってもよいし、発言頻度であってもよい。発言頻度とは会議における単位時間あたりの発言回数をいう。本実施形態では一例として、発言量を、ユーザーUが発話した時間長とする。時間長は、秒、分、時間、或いはその他の単位で表現される。より詳細には、発言量は、ユーザーUの発話が開始してから終了するまでの時間の長さである。これを、発話時間の時間長と呼ぶ。 The voice processing unit 524 calculates the amount of user U's speech. The amount of speech may be the length of time of speech, that is, the length of time of speech, the number of speeches in a conference, or the frequency of speech. Speech frequency refers to the number of speeches per unit time in a conference. In this embodiment, as an example, the amount of speech is the length of time that the user U has spoken. The length of time may be expressed in seconds, minutes, hours, or some other unit. More specifically, the amount of speech is the length of time from when user U's speech starts to when it ends. This is called the time length of speech time.

音声処理部524は、会議の実行中、端末1を使用するユーザーUごとに、発話時間の時間長を積算する。例えば、音声処理部524は、会議の実行中、ユーザーU1の発話の終了を検出した場合に、発話時間の時間長をメモリー13に記憶させる。その後、音声処理部524は、ユーザーU1の発話の終了を検出すると、検出した発話時間の時間長を、メモリー13に記憶されているユーザーU1の発言時間の時間長に加算することにより、発話時間の積算値を算出する。音声処理部524は、算出した発話時間の積算値をメモリー13に記憶させる。発話時間の積算値は、例えば、会議データ532に含まれる。音声処理部524は、会議に参加するユーザーU毎に、発話時間の積算値を更新する処理を実行する。このため、会議データ532は、会議の参加者であるユーザーU毎に、発話時間の積算値を含む。音声処理部524は、発話時間の積算値を更新する処理を、会議が終了するまで継続する。音声処理部524は、会議が終了した後に、メモリー13が記憶するユーザーU毎の発話時間の積算値をリセットしてもよい。 The voice processing unit 524 accumulates the length of speech time for each user U who uses the terminal 1 during the execution of the conference. For example, when detecting the end of user U1's speech during the execution of the conference, the speech processing unit 524 causes the memory 13 to store the length of speech time. After that, when the speech processing unit 524 detects the end of the speech by the user U1, the speech processing unit 524 adds the detected speech duration to the speech duration of the user U1 stored in the memory 13, thereby calculating the speech duration. Calculate the integrated value of The voice processing unit 524 causes the memory 13 to store the calculated integrated value of the speech time. The integrated value of speech time is included in the conference data 532, for example. The voice processing unit 524 executes a process of updating the integrated value of speech time for each user U who participates in the conference. Therefore, the conference data 532 includes an integrated value of speech time for each user U who is a participant in the conference. The voice processing unit 524 continues the process of updating the integrated value of the speech time until the conference ends. The voice processing unit 524 may reset the integrated value of the speech time for each user U stored in the memory 13 after the conference ends.

本実施形態では、サーバー50は、音声処理部524が積算する発話時間の時間長の積算値を、発言量の指標として用いる。いずれか1人のユーザーUの発話時間の時間長の積算値は、第1発言量の一例に対応する。この場合、他のユーザーUのうち1人のユーザーUの発話時間の時間長の積算値は、第2発言量の一例に対応する。 In this embodiment, the server 50 uses the integrated value of the length of speech time accumulated by the voice processing unit 524 as an index of the amount of speech. The integrated value of the speech duration of any one user U corresponds to an example of the first speech volume. In this case, the integrated value of the speech duration of one user U among the other users U corresponds to an example of the second speech volume.

表示処理部525は、会議用の画面を表示するための表示データを生成する。表示処理部525は、表示データと、統合音声データとを含むサーバーデータD2を生成して、端末1に送信する。 The display processing unit 525 generates display data for displaying a conference screen. The display processing unit 525 generates server data D<b>2 including display data and integrated audio data, and transmits the generated server data D<b>2 to the terminal 1 .

表示処理部525は、カメラ16aの撮影画像、カメラ16bの撮影画像、カメラ16cの撮影画像、及び、カメラ16dの撮影画像を含む会議画面61を端末1が表示するための表示データを生成する。 The display processing unit 525 generates display data for the terminal 1 to display the conference screen 61 including the image captured by the camera 16a, the image captured by the camera 16b, the image captured by the camera 16c, and the image captured by the camera 16d.

図4は、端末1に表示される画面の一例を示す図であり、会議画面61の例を示す。会議画面61は、端末1が、サーバーデータD2に基づいて表示する画面であり、会議の実行中に表示される。図4には端末1Aがディスプレイ14aに表示する会議画面61を示すが、端末1B、1C、1Dも同様の会議画面61を表示する。 FIG. 4 is a diagram showing an example of the screen displayed on the terminal 1, and shows an example of the conference screen 61. As shown in FIG. The conference screen 61 is displayed by the terminal 1 based on the server data D2, and is displayed during the execution of the conference. FIG. 4 shows the conference screen 61 displayed on the display 14a by the terminal 1A, but the terminals 1B, 1C, and 1D also display similar conference screens 61. FIG.

会議画面61は、複数の表示枠611a、611b、611c、611dを有する。これらを総称して表示枠611と記載する。表示枠611は、1つの端末1に対応する表示領域である。表示枠611には、端末1を使用するユーザーUのユーザー画像621が表示される。会議画面61は、詳細には、ユーザー画像621a、621b、621c、621dを含む。これらを区別しない場合にユーザー画像621と記載する。ユーザー画像621a、621b、621c、621dのいずれかは第1画像の一例に対応し、他のいずれかは第2画像の一例に対応する。 The conference screen 61 has a plurality of display frames 611a, 611b, 611c, 611d. These are collectively described as a display frame 611 . A display frame 611 is a display area corresponding to one terminal 1 . A user image 621 of the user U who uses the terminal 1 is displayed in the display frame 611 . The conference screen 61 specifically includes user images 621a, 621b, 621c, and 621d. When these are not distinguished, they are described as a user image 621 . Any of the user images 621a, 621b, 621c, and 621d corresponds to an example of the first image, and any of the others corresponds to an example of the second image.

ユーザー画像621aは、ユーザーU1に対応する画像であり、端末1Aに対応する画像であるともいえる。ユーザー画像621aは、端末1Aがカメラ16aによって撮影した映像に基づく、映像または静止画像である。例えば、表示処理部525は、端末データD11に含まれる映像データに基づき、ユーザー画像621aを生成する。ユーザー画像621aは、カメラ16aの撮影画像と同一の画像であってもよいし、カメラ16aの撮影画像を加工した画像であってもよい。例えば、ユーザー画像621aは、カメラ16aの撮影画像をトリミングした画像であってもよい。また、ユーザー画像621aは、カメラ16aの撮影画像とは関係のない画像であってもよい。例えば、ユーザー画像621aは、サーバー50が端末1Aに対応付けてメモリー53に記憶するアイコンやダミー画像であってもよい。 The user image 621a is an image corresponding to the user U1, and can be said to be an image corresponding to the terminal 1A. The user image 621a is a video or still image based on video captured by the terminal 1A with the camera 16a. For example, the display processing unit 525 generates the user image 621a based on the video data included in the terminal data D11. The user image 621a may be the same image as the image captured by the camera 16a, or may be an image obtained by processing the image captured by the camera 16a. For example, the user image 621a may be an image obtained by trimming the image captured by the camera 16a. Also, the user image 621a may be an image unrelated to the captured image of the camera 16a. For example, the user image 621a may be an icon or a dummy image that the server 50 stores in the memory 53 in association with the terminal 1A.

ユーザー画像621bは、ユーザーU2に対応する画像であり、端末1Bに対応する画像であるともいえる。ユーザー画像621bは、端末1Bがカメラ16bによって撮影した映像に基づく、映像または静止画像である。例えば、表示処理部525は、端末データD12に含まれる映像データに基づき、ユーザー画像621bを生成する。ユーザー画像621bは、カメラ16bの撮影画像と同一の画像であってもよいし、カメラ16bの撮影画像を加工した画像であってもよい。また、ユーザー画像621bは、カメラ16bの撮影画像とは関係のない画像であってもよい。 The user image 621b is an image corresponding to the user U2, and can be said to be an image corresponding to the terminal 1B. The user image 621b is a video or a still image based on video captured by the terminal 1B with the camera 16b. For example, the display processing unit 525 generates the user image 621b based on the video data included in the terminal data D12. The user image 621b may be the same image as the image captured by the camera 16b, or may be an image obtained by processing the image captured by the camera 16b. Also, the user image 621b may be an image unrelated to the captured image of the camera 16b.

ユーザー画像621c、及び、ユーザー画像621dはユーザー画像621a、621bと同様の画像である。すなわち、ユーザー画像621cは、ユーザーU3に対応する画像であり、端末1Cに対応する画像であるともいえる。ユーザー画像621dは、ユーザーU4に対応する画像であり、端末1Dに対応する画像であるともいえる。これらのユーザー画像621c、621dは、カメラ16c、16dの撮影画像、カメラ16c、16dの撮影画像を加工した画像、或いは、カメラ16c、16dの撮影画像とは関係のない画像である。 A user image 621c and a user image 621d are images similar to the user images 621a and 621b. That is, the user image 621c is an image corresponding to the user U3, and can be said to be an image corresponding to the terminal 1C. The user image 621d is an image corresponding to the user U4, and can be said to be an image corresponding to the terminal 1D. These user images 621c and 621d are images captured by the cameras 16c and 16d, images obtained by processing the images captured by the cameras 16c and 16d, or images unrelated to the images captured by the cameras 16c and 16d.

例えば、サーバー50は、ユーザー画像621a、621b、621c、621dとして使用するダミー画像やアイコンの画像を、メモリー53に記憶する。表示処理部525は、端末1の操作により指示された場合、或いは、事前に設定された場合に、メモリー53が記憶するダミー画像やアイコンの画像を、ユーザー画像621a、621b、621c、621dとして使用する。 For example, the server 50 stores in the memory 53 dummy images and icon images used as the user images 621a, 621b, 621c, and 621d. The display processing unit 525 uses dummy images and icon images stored in the memory 53 as the user images 621a, 621b, 621c, and 621d when instructed by the operation of the terminal 1 or when set in advance. do.

表示枠611aは、ユーザー画像621aが配置される領域である。表示枠611bはユーザー画像621bが配置される領域であり、表示枠611cはユーザー画像621cが配置される領域である。表示枠611dは、ユーザー画像621dが配置される領域である。 The display frame 611a is an area in which the user image 621a is arranged. A display frame 611b is an area in which a user image 621b is arranged, and a display frame 611c is an area in which a user image 621c is arranged. The display frame 611d is an area in which the user image 621d is arranged.

表示処理部525は、会議の開始時において、ユーザー画像621a、621b、621c、621dの大きさが均等となる表示データを生成する。ユーザー画像621aの大きさとは、例えば、ユーザー画像621aの面積、会議画面61に占めるユーザー画像621aの面積の割合である。ユーザー画像621aの大きさは、会議画面61の縦方向におけるユーザー画像621aのサイズ、及び、会議画面61の水平方向におけるユーザー画像621aのサイズであってもよい。ユーザー画像621b、621c、621dの大きさについても同様である。表示枠611a、611b、611c、611dの大きさやアスペクト比は、ユーザー画像621a、621b、621c、621dに合わせて適宜に決定される。 The display processing unit 525 generates display data in which the sizes of the user images 621a, 621b, 621c, and 621d are uniform at the start of the conference. The size of the user image 621 a is, for example, the area of the user image 621 a or the ratio of the area of the user image 621 a to the conference screen 61 . The size of the user image 621 a may be the size of the user image 621 a in the vertical direction of the conference screen 61 and the size of the user image 621 a in the horizontal direction of the conference screen 61 . The same applies to the sizes of the user images 621b, 621c, and 621d. The sizes and aspect ratios of the display frames 611a, 611b, 611c, and 611d are appropriately determined according to the user images 621a, 621b, 621c, and 621d.

表示処理部525は、音声処理部524により積算されるユーザーUの発話時間の積算値に基づいて、ユーザー画像621a、621b、621c、621dの少なくともいずれかの大きさを決定する。本実施形態では、各ユーザーUの発話時間の積算値の大きさの相対的な関係に対応させて、ユーザー画像621a、621b、621c、621dの相対的な大きさを決定する。 The display processing unit 525 determines the size of at least one of the user images 621 a , 621 b , 621 c , and 621 d based on the integrated value of the speech time of the user U that is integrated by the audio processing unit 524 . In the present embodiment, the relative sizes of the user images 621a, 621b, 621c, and 621d are determined in accordance with the relative relationship between the integrated values of the speech times of the users U. FIG.

例えば、表示処理部525は、ユーザーU1の発言量に基づく大きさでユーザー画像621aが表示されるように表示データを生成する。また、表示処理部525は、ユーザーU2の発言量に基づく大きさでユーザー画像621bが表示されるように表示データを生成する。そして、ユーザーU1の発言量が、ユーザーU2の発言量より大きい場合は、ユーザー画像621aの大きさをユーザー画像621bの大きさよりも小さくする。言い換えれば、表示処理部525は、ユーザーU1の発言量がユーザーU2の発言量より小さい場合、ユーザー画像621aの大きさを、ユーザー画像621bの大きさよりも大きくする。 For example, the display processing unit 525 generates display data so that the user image 621a is displayed in a size based on the speech volume of the user U1. In addition, the display processing unit 525 generates display data so that the user image 621b is displayed in a size based on the speech volume of the user U2. Then, when the amount of speech by user U1 is greater than the amount of speech by user U2, the size of user image 621a is made smaller than the size of user image 621b. In other words, the display processing unit 525 makes the size of the user image 621a larger than the size of the user image 621b when the amount of speech by the user U1 is smaller than the amount of speech by the user U2.

図5は、端末1に表示される画面の一例を示す図であり、会議画面61においてユーザー画像621の大きさを変化させた例を示す。
図5には、ユーザーU1、U2、U4、U3の順に発言量が小さい場合の会議画面61の例を示す。ユーザーU1とユーザーU2の発言量は等しく、ユーザーU1、U2、U3、U4の中で発言量が最も小さい。この場合、ユーザーU1に対応するユーザー画像621a、及び、ユーザーU2に対応するユーザー画像621bの大きさは、ユーザー画像621c及びユーザー画像621dの大きさよりも大きい。また、ユーザーU3の発言量が最も大きいことを想定すると、ユーザーU3に対応するユーザー画像621cの大きさは、ユーザー画像621a、621b、621dよりも小さい。また、ユーザーU1とユーザーU2の発言量が等しいので、ユーザー画像621aの大きさとユーザー画像621bの大きさとは、ほぼ等しい。
FIG. 5 is a diagram showing an example of a screen displayed on the terminal 1, and shows an example of changing the size of the user image 621 on the conference screen 61. As shown in FIG.
FIG. 5 shows an example of the conference screen 61 when the amount of speech is smaller in the order of users U1, U2, U4, and U3. User U1 and user U2 have the same amount of speech, and the amount of speech is the smallest among users U1, U2, U3, and U4. In this case, the sizes of the user image 621a corresponding to the user U1 and the user image 621b corresponding to the user U2 are larger than the sizes of the user images 621c and 621d. Also, assuming that user U3 speaks the most, the size of user image 621c corresponding to user U3 is smaller than user images 621a, 621b, and 621d. In addition, since user U1 and user U2 speak the same amount, the size of user image 621a and the size of user image 621b are almost the same.

図5は、表示処理部525が、ユーザー画像621のアスペクト比を維持する例を示している。すなわち、ユーザー画像621の大きさとして、ユーザー画像621の面積を採用する場合、縦方向のユーザー画像621のサイズを採用する場合、及び、水平方向のユーザー画像621のサイズを採用する場合のいずれも、図5に示す表示態様となる。ユーザー画像621の大きさとして、会議画面61に占めるユーザー画像621の面積の割合を採用する場合も同様である。また、表示枠611a、611b、611c、611dの大きさやアスペクト比は、ユーザー画像621a、621b、621c、621dに合わせて適宜に決定される。表示処理部525は、ユーザー画像621のアスペクト比を維持しなくてもよい。例えば、縦方向のユーザー画像621のサイズを基準として、発話量に基づくユーザー画像621の大きさを決定してもよい。 FIG. 5 shows an example in which the display processing unit 525 maintains the aspect ratio of the user image 621. FIG. That is, when adopting the area of the user image 621 as the size of the user image 621, when adopting the size of the user image 621 in the vertical direction, and when adopting the size of the user image 621 in the horizontal direction , the display form shown in FIG. The same is true when using the ratio of the area of the user image 621 to the conference screen 61 as the size of the user image 621 . Also, the sizes and aspect ratios of the display frames 611a, 611b, 611c, and 611d are appropriately determined according to the user images 621a, 621b, 621c, and 621d. The display processing unit 525 does not have to maintain the aspect ratio of the user image 621. For example, the size of the user image 621 in the vertical direction may be used as a reference to determine the size of the user image 621 based on the amount of speech.

表示処理部525は、発言量の大きいユーザーUに対応するユーザー画像621の大きさを、他のユーザーUに対応するユーザー画像621の大きさよりも小さくする。このため、発言量が多いユーザーUほど、ユーザー画像621の大きさが小さくされる。表示処理部525は、ユーザー画像621の大きさの下限を有していてもよい。この場合、表示処理部525は、発言量が閾値より大きいユーザーUに対応するユーザー画像621の大きさを、設定された下限値とする。つまり、ユーザー画像621の大きさは下限値以上の大きさである。これにより、ユーザーUの発言量が大きい場合であっても、ユーザー画像621の大きさが下限値を下回ることはない。下限値、及び、閾値は、例えば、予めサーバー50がメモリー53に記憶している。下限値は、例えば、標準的な大きさのディスプレイ14を用いてユーザー画像621を表示したときに、ユーザー画像621が目視で視認できる程度の大きさである。下限値は、標準的な大きさのディスプレイ14を用いてユーザー画像621を表示した場合の縦方向及び横方向の長さで規定されてもよいし、ユーザー画像621の表示解像度または表示画素数で規定されてもよい。或いは、下限値は、ディスプレイ14の表示解像度または表示画素数に対するユーザー画像621の表示解像度または画素数が占める割合で規定されてもよい。また、下限値は、ディスプレイ14において会議画面61が表示される領域においてユーザー画像621が占める割合で規定されてもよい。 The display processing unit 525 makes the size of the user image 621 corresponding to the user U whose speech volume is large smaller than the size of the user images 621 corresponding to other users U. FIG. Therefore, the size of the user image 621 is made smaller for the user U who speaks more. The display processing unit 525 may have a lower limit for the size of the user image 621 . In this case, the display processing unit 525 sets the size of the user image 621 corresponding to the user U whose speech volume is greater than the threshold as the set lower limit. That is, the size of the user image 621 is equal to or larger than the lower limit. As a result, the size of the user image 621 does not fall below the lower limit even when the amount of speech by the user U is large. The lower limit value and the threshold value are stored in advance in the memory 53 by the server 50, for example. The lower limit value is, for example, a size that allows the user image 621 to be visually recognized when the user image 621 is displayed using the standard-sized display 14 . The lower limit may be defined by the vertical and horizontal lengths when the user image 621 is displayed using the standard size display 14, or by the display resolution or the number of display pixels of the user image 621. may be specified. Alternatively, the lower limit value may be defined by the ratio of the display resolution or the number of pixels of the user image 621 to the display resolution or the number of pixels of the display 14 . Also, the lower limit value may be defined by the ratio of the user image 621 to the area where the conference screen 61 is displayed on the display 14 .

このように、会議画面61におけるユーザー画像621a、621b、621c、621dの大きさが、ユーザーU1、U2、U3、U4の発言量に応じて決定され、発言量の小さいユーザーUのユーザー画像621が、他の少なくとも1つのユーザー画像621よりも相対的に大きく表示される。言い換えれば、発言量の大きいユーザーUのユーザー画像621が、相対的に小さく表示される。このため、会議において発言量が小さいユーザーUの画像が、より目立つように表示されるので、該当するユーザーUに対して発言を促すことができる。また、会議において発言量が大きいユーザーUの画像が、相対的に小さく表示されるので、該当するユーザーUに対して発言の抑制を促すことができる。さらに、会議システム100において会議に参加する全ての端末1が表示する会議画面61において、ユーザー画像621a、621b、621c、621dが、ユーザーU1、U2、U3、U4の発言量に基づく大きさで表示される。このため、発言量の少ないユーザーUのユーザー画像621が大きく表示されることによって、会議に参加する複数のユーザーUに対し、発言量の少ないユーザーUに発言機会を与えることを促す効果が期待できる。 In this way, the sizes of the user images 621a, 621b, 621c, and 621d on the conference screen 61 are determined according to the amount of speech of the users U1, U2, U3, and U4, and the user image 621 of the user U, whose amount of speech is small, is , is displayed relatively larger than at least one other user image 621 . In other words, the user image 621 of the user U whose speaking volume is large is displayed relatively small. As a result, the image of the user U whose speech volume is small in the conference is displayed more conspicuously, so that the corresponding user U can be encouraged to speak. In addition, since the image of the user U who speaks a lot in the conference is displayed in a relatively small size, it is possible to encourage the user U in question to refrain from speaking. Further, on the conference screen 61 displayed by all the terminals 1 participating in the conference in the conference system 100, user images 621a, 621b, 621c, and 621d are displayed in sizes based on the speech volume of the users U1, U2, U3, and U4. be done. Therefore, by displaying the user image 621 of the user U with a small amount of speech in a large size, it is possible to expect an effect of encouraging a plurality of users U participating in the conference to give the user U with a small amount of speech an opportunity to speak. .

[3.会議システムの動作]
図6及び図7は、サーバー50の動作例を示すフローチャートである。これらの図を参照して、会議システム100の動作について説明する。会議システム100の動作において、端末1A、1B、1C、1Dのうちいずれか1つの端末は第1端末の一例に対応し、他の端末のうちいずれか1つが第2端末の一例に対応する。ステップST11-ST16は音声処理部524により実行され、ステップST17-ST19は表示処理部525により実行される。
[3. Operation of conference system]
6 and 7 are flowcharts showing an operation example of the server 50. FIG. The operation of the conference system 100 will be described with reference to these figures. In the operation of the conference system 100, any one of terminals 1A, 1B, 1C, and 1D corresponds to an example of a first terminal, and any one of the other terminals corresponds to an example of a second terminal. Steps ST11-ST16 are executed by the audio processing section 524, and steps ST17-ST19 are executed by the display processing section 525. FIG.

ステップST11で、サーバー50は、発話の検出を開始する。発話の検出は、サーバー50が端末1から受信した端末データD1を解析することによって、ユーザーUの発話が開始されたことを検出する処理である。 In step ST11, the server 50 starts detecting speech. The speech detection is a process of detecting that the user U has started speaking by analyzing the terminal data D1 received from the terminal 1 by the server 50 .

ステップST12で、サーバー50は、発話が開始されたか否かを判定する。発話が開始されていない場合(ステップST12;NO)、サーバー50は、ステップST12の判定を所定時間周期で繰り返す。発話が開始されたと判定した場合(ステップST12;YES)、サーバー50は、ステップST13に移行する。 In step ST12, the server 50 determines whether or not speech has started. If the speech has not started (step ST12; NO), the server 50 repeats the determination of step ST12 at predetermined time intervals. If it is determined that speech has started (step ST12; YES), the server 50 proceeds to step ST13.

ステップST13で、サーバー50は、発話したユーザーUを特定する。具体的には、サーバー50は、ステップST12で発話を検出した端末データD1を送信した端末1を特定し、この端末1を使用するユーザーUが発話をしたと決定する。 In step ST13, the server 50 identifies the user U who has spoken. Specifically, the server 50 identifies the terminal 1 that transmitted the terminal data D1 whose speech was detected in step ST12, and determines that the user U using this terminal 1 has spoken.

ステップST14で、サーバー50は、発話が終了したか否かを判定する。発話が終了していない場合(ステップST14;NO)、サーバー50は、ステップST14の判定を所定時間周期で繰り返す。発話が終了したと判定した場合(ステップST14;YES)、サーバー50は、ステップST15に移行する。 In step ST14, the server 50 determines whether or not the speech has ended. If the speech has not ended (step ST14; NO), the server 50 repeats the determination of step ST14 at predetermined time intervals. When determining that the speech has ended (step ST14; YES), the server 50 proceeds to step ST15.

ステップST15で、サーバー50は、発話時間の時間長を算出する。サーバー50は、ステップST12で発話の開始を検出してからステップST14で発話の終了を検出するまでの時間を、発話時間の時間長とする。続いて、ステップST16で、サーバー50は、メモリー53が記憶する発話時間の積算値、すなわち発言量を更新する。サーバー50は、ステップST13で特定されたユーザーUに対応付けてメモリー53が記憶する発言量に、ステップST15で算出した発話時間の時間長を加算して、メモリー53が記憶する発言量を更新する。 In step ST15, the server 50 calculates the length of speech time. The server 50 takes the time from detecting the start of speech in step ST12 to detecting the end of speech in step ST14 as the length of speech time. Subsequently, in step ST16, the server 50 updates the integrated value of speech time stored in the memory 53, that is, the speech volume. The server 50 updates the speech volume stored in the memory 53 by adding the speech duration calculated in step ST15 to the speech volume stored in the memory 53 in association with the user U identified in step ST13. .

ステップST17で、サーバー50は、表示データ生成処理を実行することによって、サーバーデータD2を生成し、端末1に送信する。ステップST17の表示データ生成処理の詳細は、図7を参照して後述する。 In step ST<b>17 , the server 50 generates server data D<b>2 by executing display data generation processing, and transmits the server data D<b>2 to the terminal 1 . Details of the display data generation process in step ST17 will be described later with reference to FIG.

ステップST18で、サーバー50は、会議が終了したか否かを判定する。会議が終了していない場合(ステップST18;NO)、サーバー50はステップST12に戻る。会議が終了した場合(ステップST18;YES)、サーバー50は図6の処理を終了する。 At step ST18, the server 50 determines whether or not the conference has ended. If the conference has not ended (step ST18; NO), the server 50 returns to step ST12. If the conference has ended (step ST18; YES), the server 50 ends the processing of FIG.

図7は、ステップST17の表示データ生成処理の詳細を示す。
ステップST21で、サーバー50は、メモリー53が記憶する発言量を参照し、発言量が閾値より大きいユーザーUがいるか否かを判定する。発言量が閾値より大きいユーザーUがいない場合(ステップST21;NO)、サーバー50はステップST22に移行する。また、発言量が閾値より大きいユーザーUがいる場合(ステップST21;YES)、サーバー50はステップST27に移行する。
FIG. 7 shows details of the display data generation process in step ST17.
In step ST21, the server 50 refers to the amount of speech stored in the memory 53 and determines whether or not there is a user U whose amount of speech is greater than the threshold. If there is no user U whose speech volume is greater than the threshold (step ST21; NO), the server 50 proceeds to step ST22. Also, if there is a user U whose speech volume is greater than the threshold (step ST21; YES), the server 50 proceeds to step ST27.

ステップST22で、サーバー50は、メモリー53が各ユーザーUに対応付けて記憶する発言量の比を算出する。続いて、サーバー50は、ステップST23で、メモリー53が各ユーザーUに対応付けて記憶する発言量の逆比を算出する。逆比とは、ステップST22で算出した比の逆数の比である。例えば、ステップST22で算出されたユーザーU1、U2、U3、U4の発言量の比が1:1:2:3であった場合、ステップST23で算出される逆比は、1:1:1/2:1/3である。 In step ST22, the server 50 calculates the speech volume ratio stored in the memory 53 in association with each user U. FIG. Subsequently, the server 50 calculates the inverse ratio of the amount of speech stored in the memory 53 in association with each user U in step ST23. The inverse ratio is the ratio of the reciprocal of the ratio calculated in step ST22. For example, if the speech volume ratio of users U1, U2, U3, and U4 calculated in step ST22 is 1:1:2:3, the inverse ratio calculated in step ST23 is 1:1:1/ 2:1/3.

ステップST24で、サーバー50は、ステップST23で算出した逆比に合わせて、ユーザー画像621の大きさを決定する。具体的には、サーバー50は、ユーザー画像621a、621b、621c、621dの大きさの比が、ステップST23で算出した逆比の通りになるように、ユーザー画像621a、621b、621c、621dの大きさを決定する。例えば、ユーザーU1、U2、U3、U4の発言量の比が1:1:2:3であった場合、ユーザー画像621a、621b、621c、621dの大きさは、1:1:1/2:1/3となる。 At step ST24, the server 50 determines the size of the user image 621 according to the inverse ratio calculated at step ST23. Specifically, the server 50 adjusts the sizes of the user images 621a, 621b, 621c, and 621d so that the ratio of the sizes of the user images 621a, 621b, 621c, and 621d is equal to the inverse ratio calculated in step ST23. determine the For example, if the speech volume ratio of users U1, U2, U3, and U4 is 1:1:2:3, the sizes of user images 621a, 621b, 621c, and 621d are 1:1:1/2: 1/3.

ステップST25で、サーバー50は、ステップST24で決定したユーザー画像621の大きさに従って、ユーザー画像621を含む会議画面61の表示データを生成する。サーバー50は、ステップST26で、会議画面61の表示データを含むサーバーデータD2を生成し、端末1に送信する。これにより、端末1がディスプレイ14に表示する画面が更新され、各々の端末1が表示するユーザー画像621の大きさが、発言量に対応する大きさに変更される。 At step ST25, the server 50 generates display data of the conference screen 61 including the user image 621 according to the size of the user image 621 determined at step ST24. The server 50 generates server data D2 including the display data of the conference screen 61 and transmits it to the terminal 1 in step ST26. As a result, the screen displayed on the display 14 by the terminal 1 is updated, and the size of the user image 621 displayed by each terminal 1 is changed to the size corresponding to the amount of speech.

また、ステップST27で、サーバー50は、発言量が閾値より大きいユーザーUのユーザー画像621の大きさを、下限値に設定する。続いて、ステップST28で、サーバー50は、メモリー53が各ユーザーUに対応付けて記憶する発言量の比を算出する。サーバー50は、ステップST29で、メモリー53が各ユーザーUに対応付けて記憶する発言量の逆比を算出する。逆比とは、ステップST28で算出した比の逆数の比である。例えば、ステップST28で算出されたユーザーU1、U2、U3、U4の発言量の比が1:1:2:5であった場合、ステップST23で算出される逆比は、1:1:1/2:1/5である。 Also, in step ST27, the server 50 sets the size of the user image 621 of the user U whose speech volume is greater than the threshold to the lower limit. Subsequently, in step ST28, the server 50 calculates the speech volume ratio stored in the memory 53 in association with each user U. FIG. The server 50 calculates the inverse ratio of the amount of speech stored in the memory 53 in association with each user U in step ST29. The inverse ratio is the ratio of the reciprocal of the ratio calculated in step ST28. For example, if the speech volume ratio of users U1, U2, U3, and U4 calculated in step ST28 is 1:1:2:5, the inverse ratio calculated in step ST23 is 1:1:1/ 2:1/5.

ステップST30で、サーバー50は、ユーザー画像621の大きさの下限値と、ステップST29で算出した逆比とに合わせて、ユーザー画像621の大きさを決定する。具体的には、サーバー50は、下限値に設定されたユーザー画像621を除く、他のユーザー画像621の大きさを、ステップST29で算出した逆比の通りになるように決定する。例えば、ユーザーU1、U2、U3、U4の発言量の比が1:1:2:5であった場合、ユーザーU4に対応するユーザー画像621dの大きさは下限値に設定される。例えば、下限値が1/4である場合、サーバー50は、ユーザー画像621a、621b、621c、621dの大きさを、大きさの比がユーザーU1、U2、U3の発言量の逆比である1:1:1/2:1/4となるように決定する。 In step ST30, the server 50 determines the size of the user image 621 according to the lower limit of the size of the user image 621 and the inverse ratio calculated in step ST29. Specifically, the server 50 determines the sizes of the other user images 621, excluding the user image 621 set to the lower limit, so as to follow the inverse ratio calculated in step ST29. For example, if the speech volume ratio of users U1, U2, U3, and U4 is 1:1:2:5, the size of the user image 621d corresponding to user U4 is set to the lower limit. For example, if the lower limit is 1/4, the server 50 sets the sizes of the user images 621a, 621b, 621c, and 621d to 1, where the ratio of sizes is the inverse ratio of the amount of speech of users U1, U2, and U3. : 1:1/2:1/4.

ステップST30で、サーバー50は、発言量の逆比となるように決定したユーザー画像621の大きさが、下限値未満とならないように処理を行う。上述の例では、ユーザー画像621a、621b、621cの大きさを、下限値よりも大きくなるように決定する。ステップST30の処理後、サーバー50はステップST25に移行する。 In step ST30, the server 50 performs processing so that the size of the user image 621 determined to be the inverse ratio of the amount of speech does not fall below the lower limit. In the above example, the sizes of the user images 621a, 621b, and 621c are determined to be larger than the lower limit. After the processing of step ST30, the server 50 proceeds to step ST25.

ステップST24及びステップST30において、サーバー50は、複数のユーザー画像621が会議画面61において重なることを許容してもよい。具体的には、会議画面61において複数のユーザー画像621が重なって表示されるように、ユーザー画像621の大きさを決定してもよい。この場合、会議画面61に対するユーザー画像621の大きさの制約が緩和されるため、発言量を反映した大きさでユーザー画像621を端末1に表示させることができる。 In steps ST24 and ST30, the server 50 may allow multiple user images 621 to overlap on the conference screen 61. FIG. Specifically, the size of the user images 621 may be determined such that a plurality of user images 621 are displayed in an overlapping manner on the conference screen 61 . In this case, since restrictions on the size of the user image 621 with respect to the conference screen 61 are relaxed, the user image 621 can be displayed on the terminal 1 in a size that reflects the amount of speech.

また、図7には、サーバー50が、ユーザー画像621a、621b、621c、621dの大きさの比が発言量の大きさの逆比となるように処理を行う例を示したが、これは一例である。例えば、サーバー50は、ユーザーU1、U2、U3、U4の発言量を大きい順に並べることにより、発言量の順位を生成する。この場合、サーバー50は、ユーザー画像621a、621b、621c、621dの大きさが、発言量の順位の逆順となるように、ユーザー画像621a、621b、621c、621dの大きさを決定してもよい。この例では、ユーザー画像621a、621b、621c、621dの大きさを、発言量の大きさを反映した大きさとすることができる。また、サーバー50は、ユーザー画像621a、621b、621c、621dの大きさを詳細に算出する必要がないので、処理負荷を軽減できる。この例において、サーバー50は、ユーザー画像621の大きさを段階的に設定してもよい。すなわち、サーバー50において、ユーザー画像621の大きさが予め段階的に設定されてもよい。この場合、サーバー50は、ユーザー画像621の大きさを、予め設定された大きさから選択すればよいので、サーバー50の処理負荷を、より一層軽減できる。 Also, FIG. 7 shows an example in which the server 50 performs processing so that the size ratio of the user images 621a, 621b, 621c, and 621d is the inverse ratio of the amount of speech, but this is just an example. is. For example, the server 50 generates the ranking of the amount of speech by arranging the amounts of speech of the users U1, U2, U3, and U4 in descending order. In this case, the server 50 may determine the sizes of the user images 621a, 621b, 621c, and 621d so that the sizes of the user images 621a, 621b, 621c, and 621d are in reverse order of the order of speech volume. . In this example, the sizes of the user images 621a, 621b, 621c, and 621d can be set to reflect the amount of speech. Moreover, since the server 50 does not need to calculate the sizes of the user images 621a, 621b, 621c, and 621d in detail, the processing load can be reduced. In this example, the server 50 may set the size of the user image 621 in stages. That is, in the server 50, the size of the user image 621 may be set stepwise in advance. In this case, the server 50 can select the size of the user image 621 from preset sizes, so that the processing load on the server 50 can be further reduced.

[4.実施形態の作用]
以上説明したように、会議システム100の制御方法は、第1端末から入力される第1音声の時間長を示す第1発言量に基づく第1の大きさで、第1端末に対応する第1画像を表示することを含む。この制御方法は、第2端末から入力される第2音声の時間長を示す第2発言量に基づく第2の大きさで、第1画像と並べて、第2端末に対応する第2画像を表示することを含む。この制御方法において、第1発言量が第2発言量よりも大きい場合には、第1の大きさは第2の大きさよりも小さい。ここで、第1端末は、会議システム100において端末1A、1B、1C、1Dのいずれにも適用可能である。第2端末は、端末1A、1B、1C、1Dのうち第1端末でないいずれかの端末1とすることができる。
[4. Action of Embodiment]
As described above, the control method of the conference system 100 is to set the first voice input from the first terminal to the first voice corresponding to the first terminal at the first magnitude based on the first speech volume indicating the time length of the first voice input from the first terminal. Including displaying images. In this control method, the second image corresponding to the second terminal is displayed side by side with the first image at a second size based on the second speech volume indicating the time length of the second voice input from the second terminal. including doing In this control method, the first magnitude is smaller than the second magnitude when the first speech volume is greater than the second speech volume. Here, the first terminal can be applied to any of the terminals 1A, 1B, 1C, and 1D in the conference system 100. FIG. The second terminal may be any one of the terminals 1A, 1B, 1C, 1D that is not the first terminal.

この方法によれば、第1端末から入力される音声の発言量と第2端末から入力される音声の発言量とが異なる場合に、発言量の少ない第2端末に対応する第2画像が、第1画像よりも大きく表示される。このため、発言量が小さいユーザーUに対応する画像が、発言量が大きいユーザーUに対応する画像よりも大きく表示される。これにより、会議において発言量が小さいユーザーUの画像が、より目立つように表示されるので、該当するユーザーUに対して発言を促すことができる。従って、会議における発言機会の偏りを抑制し、発言機会の均等化を促進できる。 According to this method, when the utterance volume of the voice input from the first terminal is different from the utterance volume of the voice input from the second terminal, the second image corresponding to the second terminal with the smaller utterance volume is It is displayed larger than the first image. Therefore, the image corresponding to the user U whose speech volume is small is displayed larger than the image corresponding to the user U whose speech volume is large. As a result, the image of the user U whose speaking volume is small in the conference is displayed more conspicuously, so that the corresponding user U can be encouraged to speak. Therefore, it is possible to suppress bias in speaking opportunities in the conference and promote equalization of speaking opportunities.

上記制御方法において、第1発言量が第2発言量よりも小さい場合には、第1の大きさは第2の大きさよりも大きい。このため、発言量の大きいユーザーUに対応する画像が、相対的に小さく表示される。これにより、会議において発言量が大きいユーザーUの画像が、相対的に小さく表示されるので、該当するユーザーUに対して発言の抑制を促すことができる。従って、会議における発言機会の偏りを抑制し、発言機会の均等化を促進できる。 In the above control method, when the first speech volume is smaller than the second speech volume, the first magnitude is greater than the second magnitude. Therefore, the image corresponding to the user U who speaks a lot is displayed in a relatively small size. As a result, the image of the user U who speaks a lot in the conference is displayed in a relatively small size, so that the corresponding user U can be urged to refrain from speaking. Therefore, it is possible to suppress bias in speaking opportunities in the conference and promote equalization of speaking opportunities.

上記制御方法において、第1の大きさは、第1の大きさの下限値以上の大きさである。これにより、相対的に小さく表示される画像の視認性を確保できる。 In the above control method, the first magnitude is equal to or greater than the lower limit of the first magnitude. Thereby, the visibility of the image displayed relatively small can be ensured.

上記制御方法において、第1発言量が閾値より大きい場合には、第1の大きさは下限値である。このため、負荷の軽い処理によって、発言量が閾値より大きいユーザーUに対応する画像を相対的に小さくすることができる。 In the above control method, when the first speech volume is greater than the threshold, the first magnitude is the lower limit. Therefore, the image corresponding to the user U whose speech volume is larger than the threshold can be made relatively small by processing with a light load.

上記制御方法において、第1発言量と第2発言量とが等しい場合には、第1の大きさと第2の大きさとは等しい。これにより、会議における発言量が均等に近い場合に、発言機会の偏りを生じさせない効果が期待できる。 In the above control method, when the first speech volume is equal to the second speech volume, the first magnitude and the second magnitude are equal. As a result, when the amount of speech in a conference is nearly equal, the effect of not causing bias in speaking opportunities can be expected.

上記制御方法は、第1端末及び第2端末を利用する会議が開始されてからの第1音声の時間長を積算することによって、第1発言量を算出することを含む。上記制御方法は、会議が開始されてからの第2音声の時間長を積算することによって第2発言量を算出することを含む。これにより、会議が開始されてから発言の時間長を積算することによって発言量を求めることができる。この方法によれば、会議が開始されてからの発言量に応じて画像の大きさを決定することができ、発言量の変化を反映するように画像の大きさを変化させることもできる。このため、会議中に発言機会の偏りを抑制し、発言機会の均等化を促進する効果が期待できる。 The control method includes calculating the first speech volume by accumulating the time length of the first voice after the conference using the first terminal and the second terminal is started. The above control method includes calculating the second speech volume by accumulating the time length of the second voice after the conference is started. As a result, the amount of speech can be obtained by accumulating the time length of speech from the start of the conference. According to this method, the size of the image can be determined according to the amount of speech after the conference is started, and the size of the image can be changed so as to reflect the change in the amount of speech. Therefore, it is possible to expect an effect of suppressing bias in speaking opportunities during a conference and promoting equalization of speaking opportunities.

会議システム100を構成する端末1は、制御回路11を含む。制御回路11は、第1端末から入力される第1音声の時間長を示す第1発言量に基づく第1の大きさで、第1端末に対応する第1画像を表示装置に表示する。制御回路11は、第2端末から入力される第2音声の時間長を示す第2発言量に基づく第2の大きさで、第1画像と並べて、第2端末に対応する第2画像を表示装置に表示する。第1発言量が第2発言量よりも多い場合には、第1の大きさは第2の大きさよりも小さい。この構成は、例えば、表示装置として、ディスプレイ14aを有する端末1A、ディスプレイ14bを有する端末1B、ディスプレイ14cを有する端末1C、及び、ディスプレイ14dを有する端末1Dのいずれにも適用できる。また、第1端末は、会議システム100において端末1A、1B、1C、1Dのいずれにも適用可能である。第2端末は、端末1A、1B、1C、1Dのうち第1端末でないいずれかの端末1とすることができる。 A terminal 1 that constitutes the conference system 100 includes a control circuit 11 . The control circuit 11 displays the first image corresponding to the first terminal on the display device with a first size based on the first speech amount indicating the time length of the first voice input from the first terminal. The control circuit 11 displays the second image corresponding to the second terminal side by side with the first image in a second size based on the second speech volume indicating the time length of the second voice input from the second terminal. display on the device. The first magnitude is smaller than the second magnitude when the first speech volume is greater than the second speech volume. This configuration can be applied to any of terminal 1A having display 14a, terminal 1B having display 14b, terminal 1C having display 14c, and terminal 1D having display 14d, for example. Also, the first terminal can be applied to any of the terminals 1A, 1B, 1C, and 1D in the conference system 100. FIG. The second terminal may be any one of the terminals 1A, 1B, 1C, 1D that is not the first terminal.

この構成によれば、第1端末から入力される音声の発言量と第2端末から入力される音声の発言量とが異なる場合に、ディスプレイ14に、発言量の少ない第2端末に対応する第2画像が、第1画像よりも大きく表示される。このため、発言量が小さいユーザーUに対応する画像が、発言量が大きいユーザーUに対応する画像よりも大きく表示される。これにより、会議において発言量が小さいユーザーUの画像が、より目立つように表示されるので、該当するユーザーUに対して発言を促すことができる。従って、会議における発言機会の偏りを抑制し、発言機会の均等化を促進できる。 According to this configuration, when the utterance volume of the voice input from the first terminal and the utterance volume of the voice input from the second terminal are different, the display 14 displays the number corresponding to the second terminal with the smaller utterance volume. Two images are displayed larger than the first image. Therefore, the image corresponding to the user U whose speech volume is small is displayed larger than the image corresponding to the user U whose speech volume is large. As a result, the image of the user U whose speaking volume is small in the conference is displayed more conspicuously, so that the corresponding user U can be encouraged to speak. Therefore, it is possible to suppress bias in speaking opportunities in the conference and promote equalization of speaking opportunities.

会議システム100は、第1端末と、第2端末と、第3端末と、を含む。会議システム100は、第1端末から入力される第1音声の時間長を示す第1発言量に基づく第1の大きさで、第1端末に対応する第1画像を第3端末によって表示する。会議システム100は、第2端末から入力される第2音声の時間長を示す第2発言量に基づく第2の大きさで、第1画像と並べて、第2端末に対応する第2画像を第3端末によって表示する。会議システム100において、第1発言量が第2発言量よりも大きい場合には、第1の大きさは第2の大きさよりも小さい。 Conference system 100 includes a first terminal, a second terminal, and a third terminal. The conference system 100 causes the third terminal to display the first image corresponding to the first terminal in a first size based on the first speech volume indicating the time length of the first voice input from the first terminal. The conference system 100 arranges the second image corresponding to the second terminal side by side with the first image at a second size based on the second speech volume indicating the time length of the second voice input from the second terminal. 3 Display by terminal. In conference system 100, when the first speech volume is greater than the second speech volume, the first magnitude is smaller than the second magnitude.

会議システム100は、第3端末によって、第1端末に対応する画像および第2端末に対応する画像を表示させる。この構成において、第1端末から入力される音声の発言量と第2端末から入力される音声の発言量とが異なる場合に、発言量の少ない第2端末に対応する画像が、第1端末に対応する画像よりも相対的に大きく表示される。このため、会議において発言量が小さいユーザーUの画像が、より目立つように表示されるので、該当するユーザーUに対して発言を促すことができる。従って、会議における発言機会の偏りを抑制し、発言機会の均等化を促進できる。 The conference system 100 causes the third terminal to display an image corresponding to the first terminal and an image corresponding to the second terminal. In this configuration, when the utterance volume of the voice input from the first terminal is different from the utterance volume of the voice input from the second terminal, the image corresponding to the second terminal with the smaller utterance volume is displayed on the first terminal. It appears relatively larger than the corresponding image. As a result, the image of the user U whose speech volume is small in the conference is displayed more conspicuously, so that the corresponding user U can be encouraged to speak. Therefore, it is possible to suppress bias in speaking opportunities in the conference and promote equalization of speaking opportunities.

制御プログラム531は、第1端末、第2端末、及び、第3端末と通信可能なコンピューターであるサーバー50が実行するプログラムである。制御プログラム531は、サーバー50に、第1端末から入力される第1音声の時間長を示す第1発言量に基づく第1の大きさで、第1端末に対応する第1画像を第3端末によって表示することを実行させる。また、第2端末から入力される第2音声の時間長を示す第2発言量に基づく第2の大きさで、第1画像と並べて、第2端末に対応する第2画像を第3端末によって表示することを実行させる。ここで、第1発言量が第2発言量よりも大きい場合には、第1の大きさは第2の大きさよりも小さい。 The control program 531 is a program executed by the server 50, which is a computer capable of communicating with the first terminal, second terminal, and third terminal. The control program 531 causes the server 50 to transmit the first image corresponding to the first terminal to the third terminal with the first size based on the first speech volume indicating the time length of the first voice input from the first terminal. causes the display to be performed. Also, a second image corresponding to the second terminal is displayed by the third terminal in a second size based on the second speech volume indicating the time length of the second voice input from the second terminal, side by side with the first image. Make it do what it displays. Here, when the first speech volume is larger than the second speech volume, the first magnitude is smaller than the second magnitude.

このプログラムによれば、サーバー50が、第3端末によって、第1端末に対応する画像および第2端末に対応する画像を表示させる。サーバー50は、第3端末により、第1端末から入力される音声の発言量と第2端末から入力される音声の発言量とが異なる場合に、発言量の少ない第2端末に対応する画像を、第1端末に対応する画像よりも相対的に大きく表示させる。このため、会議において発言量が小さいユーザーUの画像が、より目立つように表示されるので、該当するユーザーUに対して発言を促すことができる。従って、会議における発言機会の偏りを抑制し、発言機会の均等化を促進できる。 According to this program, the server 50 causes the third terminal to display an image corresponding to the first terminal and an image corresponding to the second terminal. When the utterance volume of the voice input from the first terminal and the utterance volume of the voice input from the second terminal are different from the third terminal, the server 50 displays an image corresponding to the second terminal with the smaller utterance volume. , is displayed relatively larger than the image corresponding to the first terminal. As a result, the image of the user U whose speech volume is small in the conference is displayed more conspicuously, so that the corresponding user U can be encouraged to speak. Therefore, it is possible to suppress bias in speaking opportunities in the conference and promote equalization of speaking opportunities.

[5.他の実施形態]
上記各実施形態は本発明を適用した一具体例を示すものであり、本発明はこれに限定されるものではない。
[5. Other embodiments]
Each of the above embodiments shows a specific example to which the present invention is applied, and the present invention is not limited to this.

上記実施形態では、端末1が表示装置としてディスプレイ14を備える構成を例に挙げて説明したが、表示装置はディスプレイ14に限定されない。例えば、端末1は、表示装置として、スクリーン等の投写面に画像を投写するプロジェクターを備えてもよい。 In the above embodiment, the terminal 1 includes the display 14 as a display device. However, the display device is not limited to the display 14 . For example, the terminal 1 may include, as a display device, a projector that projects an image onto a projection surface such as a screen.

会議システム100において、端末1がサーバー50に送信する端末データD1、及び、サーバー50が端末1に送信するサーバーデータD2のデータフォーマットは制限されない。例えば、サーバーデータD2に含まれる表示データは、端末1が表示する会議画面61のデータであってもよいし、端末1が表示データに基づいて会議画面61のデータを生成する処理を行ってもよい。 In the conference system 100, the data formats of the terminal data D1 that the terminal 1 transmits to the server 50 and the server data D2 that the server 50 transmits to the terminal 1 are not limited. For example, the display data included in the server data D2 may be the data of the conference screen 61 displayed by the terminal 1, or the terminal 1 may generate the data of the conference screen 61 based on the display data. good.

サーバー50が生成するサーバーデータD21、D22、D23、D24は、異なる表示データを含んでもよいし、共通の表示データを含んでもよい。サーバーデータD21、D22、D23、D24が共通の表示データを含む場合、会議システム100に参加する全てのユーザーUに、発言量に基づく大きさでユーザー画像621を見せることができる。また、サーバー50は、サーバーデータD21、D22、D23、D24の表示データを異ならせることによって、特定のユーザーUが使用する端末1によって、発言量に基づく大きさでユーザー画像621を表示してもよい。例えば、発言量が最も小さいユーザーUが使用する端末1、或いは、発言量が最も大きいユーザーUが使用する端末1を対象として、発言量に基づく大きさでユーザー画像621を表示してもよい。この場合、発言量の偏りを生じているユーザーUに対し、発言の促進、または、発言の抑制を促すことができる。 The server data D21, D22, D23, and D24 generated by the server 50 may contain different display data or may contain common display data. When the server data D21, D22, D23, and D24 include common display data, all users U participating in the conference system 100 can be shown the user image 621 in a size based on the speaking volume. Further, the server 50 may display the user image 621 in a size based on the amount of speech on the terminal 1 used by the specific user U by changing the display data of the server data D21, D22, D23, and D24. good. For example, the user image 621 may be displayed in a size based on the amount of speech, targeting the terminal 1 used by the user U with the smallest amount of speech or the terminal 1 used by the user U with the largest amount of speech. In this case, it is possible to prompt the user U, who has a biased amount of speech, to promote speech or suppress speech.

また、図3に示した各機能部は、機能的構成を示すものであって、具体的な実装形態を制限しない。例えば、サーバー50が、サーバー制御回路51の各機能部に個別に対応するハードウェアを実装する必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、或いは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、会議システム100の他の各部の具体的な細部構成についても、趣旨を逸脱しない範囲で任意に変更可能である。 Moreover, each functional unit shown in FIG. 3 shows a functional configuration, and does not limit a specific implementation form. For example, the server 50 does not need to implement hardware individually corresponding to each functional unit of the server control circuit 51, and the configuration is such that one processor executes a program to realize the functions of a plurality of functional units. Of course, it is also possible. Further, a part of the functions realized by software in the above embodiments may be realized by hardware, or a part of the functions realized by hardware may be realized by software. In addition, the specific detailed configuration of other units of the conference system 100 can be arbitrarily changed without departing from the scope.

また、例えば、図6及び図7に示す動作のステップ単位は、会議システム100の動作の理解を容易にするために、主な処理内容に応じて分割したものであり、処理単位の分割の仕方や名称によって、本開示が限定されることはない。処理内容に応じて、多くのステップ単位に分割してもよい。また、1つのステップ単位が多くの処理を含むように分割してもよい。また、そのステップの順番は、本開示の趣旨に支障のない範囲で適宜に入れ替えてもよい。 Further, for example, the operation step units shown in FIGS. 6 and 7 are divided according to the main processing contents in order to facilitate understanding of the operation of the conference system 100. The disclosure is not limited by any name or name. It may be divided into many steps depending on the processing contents. Also, one step unit may be divided so as to include many processes. Also, the order of the steps may be changed as appropriate within the scope of the present disclosure.

1、1A、1B、1C、1D…端末(端末装置)、7…通信ネットワーク、11…制御回路、12…プロセッサー、13…メモリー、14、14a、14b、14c、14d…ディスプレイ、16a、16b、16c、16d…カメラ、17a、17b、17c、17d…マイク、18a、18b、18c、18d…スピーカー、50…サーバー、51…サーバー制御回路、52…プロセッサー、53…メモリー、54…通信装置、100…会議システム、521…通信制御部、522…設定部、523…端末識別部、524…音声処理部、531…制御プログラム(プログラム)、532…会議データ、621、621a、621b、621c、621d…ユーザー画像、U、U1、U2、U3、U4…ユーザー。 1, 1A, 1B, 1C, 1D... terminal (terminal device), 7... communication network, 11... control circuit, 12... processor, 13... memory, 14, 14a, 14b, 14c, 14d... display, 16a, 16b, 16c, 16d... camera, 17a, 17b, 17c, 17d... microphone, 18a, 18b, 18c, 18d... speaker, 50... server, 51... server control circuit, 52... processor, 53... memory, 54... communication device, 100 Conference system 521 Communication control unit 522 Setting unit 523 Terminal identification unit 524 Audio processing unit 531 Control program (program) 532 Conference data 621, 621a, 621b, 621c, 621d User images, U, U1, U2, U3, U4 . . . users.

Claims (8)

第1端末から入力される第1音声の時間長を示す第1発言量に基づく第1の大きさで、前記第1端末に対応する第1画像を表示することと、
第2端末から入力される第2音声の時間長を示す第2発言量に基づく第2の大きさで、前記第1画像と並べて、前記第2端末に対応する第2画像を表示することと、を含み、
前記第1発言量が前記第2発言量よりも大きい場合には、前記第1の大きさは前記第2の大きさよりも小さい、会議システムの制御方法。
displaying a first image corresponding to the first terminal at a first size based on a first speech volume indicating a duration of a first voice input from the first terminal;
Displaying a second image corresponding to the second terminal side by side with the first image at a second size based on a second amount of speech indicating a time length of a second voice input from the second terminal. , including
The method of controlling a conference system, wherein the first magnitude is smaller than the second magnitude when the first speech volume is greater than the second speech volume.
前記第1発言量が前記第2発言量よりも小さい場合には、前記第1の大きさは前記第2の大きさよりも大きい、請求項1に記載の会議システムの制御方法。 2. The method of controlling a conference system according to claim 1, wherein said first magnitude is greater than said second magnitude when said first speech volume is smaller than said second speech volume. 前記第1の大きさは、前記第1の大きさの下限値以上の大きさである、請求項1または2に記載の会議システムの制御方法。 3. The conference system control method according to claim 1, wherein said first size is equal to or greater than a lower limit value of said first size. 前記第1発言量が閾値より大きい場合には、前記第1の大きさは前記下限値である、請求項3に記載の会議システムの制御方法。 4. The conference system control method according to claim 3, wherein said first magnitude is said lower limit value when said first speech volume is greater than a threshold. 前記第1発言量と前記第2発言量とが等しい場合には、前記第1の大きさと前記第2の大きさとは等しい、請求項1から3のいずれか1項に記載の会議システムの制御方法。 4. The control of the conference system according to any one of claims 1 to 3, wherein when said first speech volume and said second speech volume are equal, said first magnitude and said second magnitude are equal. Method. 前記第1端末及び前記第2端末を利用する会議が開始されてからの前記第1音声の時間長を積算することによって、前記第1発言量を算出することと、
前記会議が開始されてからの前記第2音声の時間長を積算することによって前記第2発言量を算出することと、を含む、請求項1から4のいずれか1項に記載の会議システムの制御方法。
calculating the first speech volume by accumulating the time length of the first voice after the conference using the first terminal and the second terminal is started;
5. The conference system according to any one of claims 1 to 4, comprising: calculating the second speech volume by accumulating the time length of the second voice after the conference is started. control method.
制御回路を含み、
前記制御回路は、
第1端末から入力される第1音声の時間長を示す第1発言量に基づく第1の大きさで、前記第1端末に対応する第1画像を表示装置に出力することと、
第2端末から入力される第2音声の時間長を示す第2発言量に基づく第2の大きさで、前記第1画像と並べて、前記第2端末に対応する第2画像を前記表示装置に出力することと、を実行し、
前記第1発言量が前記第2発言量よりも多い場合には、前記第1の大きさは前記第2の大きさよりも小さい、端末装置。
including a control circuit,
The control circuit is
outputting a first image corresponding to the first terminal to a display device at a first magnitude based on a first speech volume indicating a duration of a first voice input from the first terminal;
displaying a second image corresponding to the second terminal on the display device in a second size based on a second amount of speech indicating a time length of the second voice input from the second terminal, side by side with the first image; and run the
The terminal device, wherein the first magnitude is smaller than the second magnitude when the first speech volume is greater than the second speech volume.
第1端末、第2端末、及び、第3端末と通信可能なコンピューターが実行するプログラムであって、
前記コンピューターに、
前記第1端末から入力される第1音声の時間長を示す第1発言量に基づく第1の大きさで、前記第1端末に対応する第1画像を前記第3端末によって表示することと、
前記第2端末から入力される第2音声の時間長を示す第2発言量に基づく第2の大きさで、前記第1画像と並べて、前記第2端末に対応する第2画像を前記第3端末によって表示することと、を実行させ、
前記第1発言量が前記第2発言量よりも大きい場合には、前記第1の大きさは前記第2の大きさよりも小さい、プログラム。
A program executed by a computer capable of communicating with a first terminal, a second terminal, and a third terminal,
on said computer;
displaying, by the third terminal, a first image corresponding to the first terminal at a first size based on a first speech volume indicating a duration of a first voice input from the first terminal;
The second image corresponding to the second terminal is displayed in the third size side by side with the first image at a second size based on the second speech volume indicating the time length of the second voice input from the second terminal. display by the terminal and run
A program according to claim 1, wherein said first magnitude is smaller than said second magnitude when said first speech volume is greater than said second speech volume.
JP2022024527A 2022-02-21 2022-02-21 Method for controlling conference system, terminal device, and program Pending JP2023121274A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022024527A JP2023121274A (en) 2022-02-21 2022-02-21 Method for controlling conference system, terminal device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022024527A JP2023121274A (en) 2022-02-21 2022-02-21 Method for controlling conference system, terminal device, and program

Publications (1)

Publication Number Publication Date
JP2023121274A true JP2023121274A (en) 2023-08-31

Family

ID=87797970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022024527A Pending JP2023121274A (en) 2022-02-21 2022-02-21 Method for controlling conference system, terminal device, and program

Country Status (1)

Country Link
JP (1) JP2023121274A (en)

Similar Documents

Publication Publication Date Title
JP7230394B2 (en) Teleconferencing device and teleconferencing program
US9179098B2 (en) Video conferencing
US9473741B2 (en) Teleconference system and teleconference terminal
WO2011109578A1 (en) Digital conferencing for mobile devices
JP2011061450A (en) Conference communication system, method, and program
JP2005303736A (en) Video display method of video conference system, user terminal used with video conference system, and program therefor
JP2019117998A (en) Web conference system, control method of web conference system, and program
JP2023121274A (en) Method for controlling conference system, terminal device, and program
US20230093298A1 (en) Voice conference apparatus, voice conference system and voice conference method
JP5272820B2 (en) Video conference apparatus, video conference system, video conference method, and video conference program
JP2011082867A (en) Communication apparatus and communication conference system
US20230100151A1 (en) Display method, display device, and display system
JP4990520B2 (en) Communication terminal and display method thereof
JP2019117997A (en) Web conference system, control method of web conference system, and program
WO2022000158A1 (en) Videoconference user interface layout based on face detection
JP2006270425A (en) Method and program for outputting sound, and information processor
JP4054775B2 (en) Video display method and video display control method in video conference system, user terminal and server computer used in video conference system, program for user terminal and server computer program used in video conference system
JP2005151002A (en) Remote conference system
JP2023119712A (en) Method for controlling conference system, conference system, and program
US20070097222A1 (en) Information processing apparatus and control method thereof
JP2010028299A (en) Conference photographed image processing method, conference device, and the like
JP2023177875A (en) Conference control device, conference control method, and computer program
JP2005110045A (en) Information processor and method thereof
JP4850509B2 (en) Communication terminal device and image display method in communication terminal device
JP2007150917A (en) Communication terminal and display method thereof