JP2024054871A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2024054871A
JP2024054871A JP2024001887A JP2024001887A JP2024054871A JP 2024054871 A JP2024054871 A JP 2024054871A JP 2024001887 A JP2024001887 A JP 2024001887A JP 2024001887 A JP2024001887 A JP 2024001887A JP 2024054871 A JP2024054871 A JP 2024054871A
Authority
JP
Japan
Prior art keywords
user
information processing
request
selection
whisper
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024001887A
Other languages
Japanese (ja)
Inventor
祥平 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2024001887A priority Critical patent/JP2024054871A/en
Publication of JP2024054871A publication Critical patent/JP2024054871A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】 オンラインでの会議等において特定の個人との対話を可能にすること【解決手段】 Web会議に参加する第1のユーザから第2のユーザとの耳打ち会話の要求を受け付ける要求受付手段と、前記要求受付手段で受け付けた耳打ち会話の要求の要求先である前記第2のユーザから、耳打ち会話への対応方法の選択を受け付ける選択受付手段と、前記選択受付手段により選択を受け付けた対応方法に応じて、前記第1のユーザおよび前記第2のユーザの音声の配信を制御する制御手段と、を備えることを特徴とする情報処理システム【選択図】 図1[Problem] To enable conversation with a specific individual in an online conference or the like [Solution] An information processing system comprising: a request receiving means for receiving a request for a whispered conversation with a second user from a first user participating in a Web conference; a selection receiving means for receiving a selection of a response method to the whispered conversation from the second user who is the destination of the request for the whispered conversation received by the request receiving means; and a control means for controlling distribution of the voices of the first user and the second user according to the response method selected and received by the selection receiving means. [Selected Figure] Figure 1

Description

本発明は、情報処理システム、情報処理方法、プログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.

昨今、リモートワーク推進の流れが加速したことにより、会議についても対面でのリアルな空間で行うのではなく、オンラインでの会議(Web会議)での開催が多くなっている。このようなリモートコミュニケーションは物理的に会議室を確保する必要がなくなるメリットがある反面、同じ空間を共有し対面で会話できない性質から、対面では起こりえない不都合が生じることがある。 Recently, as the trend towards promoting remote work has accelerated, more meetings are being held online (web conferences) rather than in real, face-to-face spaces. While this type of remote communication has the advantage of eliminating the need to secure a physical conference room, it can also lead to inconveniences that would not occur in face-to-face situations, as participants share the same space and cannot converse face-to-face.

特許文献1には、リモートコミュニケーションの課題の一つである「発話の衝突」を解決する技術について開示されている。具体的には次の発話者を予測し発話者を強調表示することで、発話の衝突を低減させる技術について記載されている。 Patent Document 1 discloses a technology that solves one of the issues with remote communication, "collisions of speech." Specifically, the technology describes a technology that reduces collisions of speech by predicting the next speaker and highlighting that speaker.

特開2017-111643号公報JP 2017-111643 A

特許文献1に記載の技術は、発言が会議参加者全体に共有されることを前提としているが、会話では発言したい内容が特定の個人に対してのみ伝えたい内容であることも多い。 The technology described in Patent Document 1 assumes that comments are shared with all conference participants, but in conversations, the content of what is said is often intended only for specific individuals.

そこで、本発明は、オンラインでの会議等において特定の個人との対話を可能にする仕組みを提供することを目的とする。 The present invention aims to provide a mechanism that enables dialogue with specific individuals during online conferences, etc.

本発明の情報処理システムは、Web会議に参加する第1のユーザから第2のユーザとの耳打ち会話の要求を受け付ける要求受付手段と、前記要求受付手段で受け付けた耳打ち会話の要求の要求先である前記第2のユーザから、耳打ち会話への対応方法の選択を受け付ける選択受付手段と、前記選択受付手段により選択を受け付けた対応方法に応じて、前記第1のユーザおよび前記第2のユーザの音声の配信を制御する制御手段と、を備えることを特徴とする。 The information processing system of the present invention is characterized by comprising a request receiving means for receiving a request for a whispered conversation between a first user participating in a Web conference and a second user, a selection receiving means for receiving a selection of a method of responding to the whispered conversation from the second user who is the recipient of the request for the whispered conversation received by the request receiving means, and a control means for controlling the distribution of the voices of the first user and the second user according to the response method selected and received by the selection receiving means.

本発明によれば、オンラインでの会議等において特定の個人との対話が可能となる。 The present invention makes it possible to have conversations with specific individuals during online meetings, etc.

本発明を適用可能な情報処理システムの構成の一例を示す図FIG. 1 is a diagram showing an example of the configuration of an information processing system to which the present invention can be applied. クライアント端末101やサーバ装置102として用いられる情報処理装置のハードウェア構成の一例を示すブロック図FIG. 1 is a block diagram showing an example of the hardware configuration of an information processing device used as a client terminal 101 or a server device 102. 本発明の処理内容を示すフローチャートFlowchart showing the processing contents of the present invention ステップS302の処理の詳細を示すフローチャートFlowchart showing details of the process in step S302 ステップS304の処理の詳細を示すフローチャートFlowchart showing details of the process in step S304 ステップS308の処理の詳細を示すフローチャートFlowchart showing details of the process in step S308 ステップS608の処理の詳細を示すフローチャートFlowchart showing details of the process in step S608 クライアント端末101に表示される画面の一例An example of a screen displayed on the client terminal 101 クライアント端末101に表示される画面の一例An example of a screen displayed on the client terminal 101 クライアント端末101に表示される画面の一例An example of a screen displayed on the client terminal 101 クライアント端末101に表示される画面の一例An example of a screen displayed on the client terminal 101 本発明の概要について説明した図FIG. 1 is a diagram for explaining the outline of the present invention.

以下、図面を参照して、本発明の実施形態を詳細に説明する。 The following describes an embodiment of the present invention in detail with reference to the drawings.

図1は、本発明を適用可能な情報処理システムの構成の一例を示す図である。 Figure 1 shows an example of the configuration of an information processing system to which the present invention can be applied.

図1に示す通り、クライアント端末101とサーバ装置102とがネットワーク110を介して通信可能に接続されている。 As shown in FIG. 1, a client terminal 101 and a server device 102 are connected to each other so as to be able to communicate with each other via a network 110.

クライアント端末101は、Web会議等の参加ユーザが利用し操作する端末であり、図8~図11に示す画面が表示される端末である。また、クライアント端末101は図1に示す通り複数がネットワーク110を介して接続されている。これはWeb会議に参加するユーザが一人一台用いることを前提とした構成である。クライアント端末101は、具体的にはパーソナルコンピュータ(ノートPCやデスクトップPC等)やタブレット端末、スマートフォンなどが用いられるが、これらに限られるものではない。 The client terminal 101 is a terminal used and operated by users participating in a Web conference or the like, and is a terminal on which the screens shown in Figures 8 to 11 are displayed. In addition, as shown in Figure 1, multiple client terminals 101 are connected via a network 110. This configuration assumes that each user participating in a Web conference will use one terminal. Specific examples of the client terminal 101 include, but are not limited to, personal computers (such as notebook PCs or desktop PCs), tablet terminals, and smartphones.

サーバ装置102は、Web会議棟におけるクライアント端末間のデータのやり取りを制御する装置である。クライアント端末101に対するユーザの操作等に基づき、クライアント端末からユーザの音声データや画像データを受信し、他のクライアント端末に配信する機能を備える。図1ではサーバ装置102は1台のみ図示しているが、複数のサーバ装置が相互に連携するシステムやいわゆるクラウドシステムであっても良い。 The server device 102 is a device that controls data exchange between client terminals in the Web conference building. It has the function of receiving user voice data and image data from the client terminal 101 based on user operations on the client terminal 101, and distributing the data to other client terminals. Although only one server device 102 is shown in FIG. 1, the system may be a system in which multiple server devices work together, or a so-called cloud system.

図2は、本発明のクライアント端末101やサーバ装置102として用いられる情報処理装置のハードウェア構成の一例を示すブロック図である。 Figure 2 is a block diagram showing an example of the hardware configuration of an information processing device used as the client terminal 101 or server device 102 of the present invention.

図2に示すように、情報処理装置は、システムバス200を介してCPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、記憶装置204、入力コントローラ205、音声コントローラ206、ビデオコントローラ207、メモリコントローラ208、よび通信I/Fコントローラ209が接続される。 As shown in FIG. 2, the information processing device is connected to a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, a storage device 204, an input controller 205, an audio controller 206, a video controller 207, a memory controller 208, and a communication I/F controller 209 via a system bus 200.

CPU201は、システムバス200に接続される各デバイスやコントローラを統括的に制御する。 The CPU 201 provides overall control over each device and controller connected to the system bus 200.

ROM202あるいは外部メモリ213は、CPU201が実行する制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、本情報処理方法を実現するためのコンピュータ読み取り実行可能なプログラムおよび必要な各種データ(データテーブルを含む)を保持している。 The ROM 202 or external memory 213 holds the BIOS (Basic Input/Output System) and OS (Operating System), which are control programs executed by the CPU 201, computer-readable and executable programs for implementing this information processing method, and various necessary data (including data tables).

RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ213からRAM203にロードし、ロードしたプログラムを実行することで各種動作を実現する。 RAM 203 functions as the main memory, work area, etc. of CPU 201. CPU 201 loads programs and the like required for executing processing from ROM 202 or external memory 213 into RAM 203, and executes the loaded programs to realize various operations.

入力コントローラ205は、キーボード210や不図示のマウス等のポインティングデバイス等の入力装置からの入力を制御する。入力装置がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができることとする。 The input controller 205 controls input from input devices such as a keyboard 210 and a pointing device such as a mouse (not shown). If the input device is a touch panel, the user can give various instructions by pressing (touching with a finger, etc.) icons, cursors, or buttons displayed on the touch panel.

また、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。 The touch panel may also be a touch panel capable of detecting positions touched by multiple fingers, such as a multi-touch screen.

ビデオコントローラ207は、ディスプレイ212などの外部出力装置への表示を制御する。ディスプレイは本体と一体になったノート型パソコンのディスプレイも含まれるものとする。なお、外部出力装置はディスプレイに限ったものははく、例えばプロジェクタであってもよい。また、前述のタッチ操作を受け付け可能な装置については、入力装置も提供する。 The video controller 207 controls the display on an external output device such as a display 212. The display also includes the display of a notebook computer that is integrated with the main body. Note that the external output device is not limited to a display, and may be, for example, a projector. In addition, for devices that can accept the aforementioned touch operations, an input device is also provided.

なおビデオコントローラ207は、表示制御を行うためのビデオメモリ(VRAM)を制御することが可能で、ビデオメモリ領域としてRAM203の一部を利用することもできるし、別途専用のビデオメモリを設けることも可能である。 The video controller 207 can control a video memory (VRAM) for display control, and can use part of the RAM 203 as a video memory area, or can provide a separate dedicated video memory.

メモリコントローラ208は、外部メモリ213へのアクセスを制御する。外部メモリとしては、ブートプログラム、各種アプリケーション、フォントデータ、ユーザファイル、編集ファイル、および各種データ等を記憶する外部記憶装置(ハードディスク)、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等を利用可能である。 The memory controller 208 controls access to the external memory 213. The external memory can be an external storage device (hard disk) that stores the boot program, various applications, font data, user files, edit files, and various data, a flexible disk (FD), or a compact flash (registered trademark) memory connected to a PCMCIA card slot via an adapter.

通信I/Fコントローラ209は、ネットワークを介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信やISDNなどの電話回線、および携帯電話の4G回線、5G回線等を用いた通信が可能である。 The communication I/F controller 209 connects and communicates with external devices via a network, and executes communication control processing on the network. For example, communication using TCP/IP, telephone lines such as ISDN, and 4G and 5G lines for mobile phones are possible.

尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ212上での表示を可能としている。また、CPU201は、ディスプレイ212上の不図示のマウスカーソル等でのユーザ指示を可能とする。 The CPU 201 can display the outline font on the display 212 by, for example, executing a process of expanding (rasterizing) the outline font in a display information area in the RAM 203. The CPU 201 can also allow the user to give instructions using a mouse cursor (not shown) on the display 212.

次に図12を用いて本発明の概要について説明する。 Next, an overview of the present invention will be explained using Figure 12.

Web会議が開始されると、図12(1)に示すように会議参加者の画像(インカメラ等で撮影された画像)を含む画面が、各会議参加者のクライアント端末101に表示される。図12(1)はユーザA,B、C、Dの4名が会議に参加していることを示している。なお、会議に参加しているすべての参加者の画像を表示しなくても良く、予め定められた人数だけ表示するような構成であっても良い。 When a Web conference is started, a screen including images of the conference participants (images taken by an in-camera, etc.) is displayed on the client terminal 101 of each conference participant, as shown in FIG. 12 (1). FIG. 12 (1) shows that four users, A, B, C, and D, are participating in the conference. Note that it is not necessary to display images of all participants in the conference, and a configuration may be used in which only a predetermined number of people are displayed.

ここで、ユーザAがユーザBの領域を所定の操作(一定時間継続してクリックする操作やタップする操作等)により選択することで、ユーザBとの耳打ちを要求する。耳打ちの要求がなされると画面は図12(2)のようにユーザAの画像がユーザBの画像の領域に表示され、ユーザAの領域にはユーザAを識別する情報(氏名等)が表示される。 Here, user A selects user B's area with a specific operation (such as clicking or tapping continuously for a certain period of time) to request a whisper with user B. When a whisper request is made, the image of user A is displayed in the area of user B's image on the screen as shown in Figure 12 (2), and information identifying user A (such as name) is displayed in user A's area.

耳打ちを要求されたユーザBは図11に示す応答選択インタフェースを介して要求に対応する応答方法を選択する。耳打ちを許可する旨の応答が選択されると図12(3)の画面に遷移し、耳打ち会話が開始される。 When a whisper is requested, User B selects a response method that corresponds to the request via the response selection interface shown in FIG. 11. When a response that allows the whisper is selected, the screen transitions to that shown in FIG. 12 (3), and the whisper conversation begins.

耳打ち会話が開始されると、ユーザAとユーザBの音声は、耳打ち相手にのみ伝わるように制御される(この場合だとユーザAの音声はユーザBにのみ伝わり、ユーザBの音声はユーザAにのみ伝わる)。なお、他の会議参加者の音声はユーザA、Bにも聞こえる状態であるが、所定の操作(例えば耳打ち相手のユーザの画像が表示された領域を選択する操作等)が行われている間は、他の会議参加者の音声の音量を下げるよう制御する。これにより耳打ち相手の音声が聞こえやすくなる。 When a whispered conversation begins, the voices of user A and user B are controlled so that they can only be heard by the person they are whispering to (in this case, user A's voice is only heard by user B, and user B's voice is only heard by user A). Note that the voices of the other conference participants can also be heard by users A and B, but while a specific operation is being performed (such as an operation to select the area displaying the image of the user they are whispering to), the volume of the voices of the other conference participants is controlled to be lowered. This makes it easier to hear the voice of the person they are whispering to.

そして耳打ち会話が終了すると、画面は図12(1)の画面に戻る。音声についても会議参加者全員に伝わるようになる。 When the whispered conversation ends, the screen returns to that shown in Figure 12 (1). The audio will now be transmitted to all conference participants.

以上のように、本発明の耳打ち機能を用いることで、会議中において所望のユーザとだけ会話をすることが可能となる。 As described above, by using the whisper function of the present invention, it is possible to talk only with desired users during a conference.

次に図3~図7のフローチャートを用いて本発明の処理内容について説明する。 Next, the processing steps of the present invention will be explained using the flowcharts in Figures 3 to 7.

図3は、クライアント端末101のCPU201が所定の制御プログラムを読み出して実行する処理である。 Figure 3 shows the process in which the CPU 201 of the client terminal 101 reads and executes a specific control program.

ステップS301では、他のユーザから耳打ち応答リクエストを受信したかを判定する。耳打ち応答リクエストとは、他のユーザに対して耳打ち(Web会議参加者の中で耳打ち相手には音声を届け、それ以外の参加者には音声を届けない機能)に対応できるかの確認の要求であり、他のユーザによりクライアント端末101が操作されることで発行されサーバ装置102を介して受信するリクエストである。 In step S301, it is determined whether a whisper response request has been received from another user. A whisper response request is a request to another user to confirm whether they can respond to a whisper (a function that delivers audio to the person being whispered to among Web conference participants, but not to other participants), and is a request issued by another user operating the client terminal 101 and received via the server device 102.

耳打ち応答リクエストを受信した場合(ステップS301:YES)は処理をステップS302に移行し、受信していない場合はステップS303に移行する。 If a whisper response request is received (step S301: YES), the process proceeds to step S302; if not, the process proceeds to step S303.

図9にユーザBがユーザAから耳打ち応答リクエストを受信した際に表示される画面の一例を示す。図9に示す通り、ユーザAの画像がユーザBの領域に小さく表示されている。なお、この表示画面は一例であり、どのユーザからどのユーザに対して耳打ち応答リクエストが送信されたのかを識別可能な表示であればいずれの形態であっても良い。 Figure 9 shows an example of a screen that is displayed when user B receives a whisper response request from user A. As shown in Figure 9, a small image of user A is displayed in user B's area. Note that this display screen is just an example, and any form of display may be used as long as it is possible to identify which user sent the whisper response request to which user.

ステップS302では、耳打ち応答リクエストに対する応答処理を行う。応答処理の詳細は図4のフローチャートを用いて説明する。 In step S302, a response process is performed to the whisper response request. Details of the response process are explained using the flowchart in FIG. 4.

ステップS303では、耳打ち会話リクエストを受信したかを判定する。耳打ち会話リクエストとは、耳打ち機能を用いた会話をしたい旨の要求であり、他のユーザが利用するクライアント端末101から発行されサーバ装置102を介して受信するリクエストである。 In step S303, it is determined whether a whisper conversation request has been received. A whisper conversation request is a request to have a conversation using the whisper function, and is a request issued from a client terminal 101 used by another user and received via the server device 102.

ステップS304では、耳打ち会話(聞き手)の処理の処理を実行する。詳細は図5のフローチャートを用いて説明する。 In step S304, processing of the whispered conversation (listener) is executed. Details will be explained using the flowchart in FIG. 5.

ステップS305では、所定の選択操作(例えば、画面に表示された他のユーザが表示された領域に対して、所定時間以上継続してクリックする操作やタップする操作など。耳打ち機能を示すアイコン等を表示し当該アイコンの選択を受け付ける操作であっても良い。)を受け付けているかを判定する。受け付けている場合(ステップS305;YES)は処理をステップS306に移行し、受け付けていない場合(ステップS305:NO)は本フローチャートの処理を終了する。 In step S305, it is determined whether a predetermined selection operation (for example, an operation of clicking or tapping continuously for a predetermined period of time or more on an area displayed by another user on the screen, or an operation of displaying an icon indicating a whisper function and accepting the selection of that icon) has been accepted. If it has been accepted (step S305: YES), the process proceeds to step S306, and if it has not been accepted (step S305: NO), the process of this flowchart ends.

ステップS306では、ステップS305で選択操作が行われていると判定された領域に係るユーザ(ユーザが利用するクライアント端末)が耳打ち機能をON(有効)にしているかを判定する。各ユーザ(ユーザが利用するクライアント端末)が耳打ち機能をONにしているか否かの情報は、サーバ装置102が各クライアント端末から収集して管理し、各クライアント端末に対して配信されるものとする。 In step S306, it is determined whether the user (client terminal used by the user) associated with the area determined in step S305 to have had a selection operation performed has the whisper function ON (enabled). Information on whether each user (client terminal used by the user) has the whisper function ON is collected from each client terminal, managed by the server device 102, and distributed to each client terminal.

耳打ち相手のユーザが耳打ち機能をONにしている場合(ステップS306:YES)は、処理をステップS307に移行する。ONにしていない場合(ステップS306:NO)は処理をステップS301に戻す。 If the user you are whispering to has the whisper function turned on (step S306: YES), the process proceeds to step S307. If the user does not have the whisper function turned on (step S306: NO), the process returns to step S301.

ステップS307では、耳打ち相手のユーザに対して耳打ち応答リクエストを送信する。 In step S307, a whisper response request is sent to the user to whom the whisper was spoken.

ステップS308では、耳打ち応答待ち処理を行う。耳打ち応答待ち処理の詳細は図6のふーチャートを用いて説明する。 In step S308, a process of waiting for a whispered response is performed. The details of the process of waiting for a whispered response are explained using the flowchart in FIG. 6.

次に図4のフローチャートを用いて、ステップS302に示す応答処理の詳細を説明する。 Next, the response process shown in step S302 will be described in detail using the flowchart in FIG.

まず耳打ち応答リクエストを受信した際の画面について説明する。 First, let me explain what appears on the screen when a whisper response request is received.

クライアント端末101は、耳打ち応答リクエストお受信すると、図9に一例を示す画面を表示する。図9はユーザAがユーザBに対して耳打ち応答リクエストを送信し、ユーザBが耳打ち応答リクエストを受信した際に表示される画面の一例である。この画面が表示された状態で、ユーザBのクライアント端末が自分(ユーザB)の表示された領域に対して所定の選択操作を受け付けると、図11に一例を示す応答選択インタフェースが表示される。ユーザBのクライアント端末はこの応答選択インタフェースを介してユーザBから応答方法の選択を受け付けることで、ユーザAに対してリクエストに対する返答を行う。 When the client terminal 101 receives a whisper response request, it displays a screen, an example of which is shown in FIG. 9. FIG. 9 is an example of a screen that is displayed when user A sends a whisper response request to user B and user B receives the whisper response request. When this screen is displayed and user B's client terminal accepts a specified selection operation in the displayed area for user B (user B), a response selection interface, an example of which is shown in FIG. 11, is displayed. User B's client terminal accepts a selection of a response method from user B via this response selection interface, and responds to the request from user A.

図11の応答選択インタフェースには「声」「文」「〇」「×」の4種類の受付部が表示され、いずれかの受付部の選択を受け付けることで耳打ち応答リクエストに対する返答が選択される。なお受付部の中心にある丸印はクリック操作やタップ操作が行われた場所を示している。受付部の選択は、当該丸印の場所から受付部の方向にフリック操作等が行われることで受け付けることが可能であるが、選択受付の方法はフリック操作に限られず、いずれの方法であっても良い。 The response selection interface in FIG. 11 displays four types of reception areas: "Voice," "Text," "O," and "X." A response to a whispered response request is selected by accepting the selection of one of the reception areas. Note that the circle in the center of the reception area indicates the location where a click or tap operation was performed. The selection of a reception area can be accepted by performing a flick operation or the like from the location of the circle in the direction of the reception area, but the method of accepting the selection is not limited to a flick operation and any method may be used.

以下、図4を用いて応答処理について説明する。 The response process is explained below using Figure 4.

ステップS401では、図11に示す受付部のうち「文」の選択を受け受けたかを判定する。選択を受け付けた場合(ステップS401:YES)は処理をステップS402に移行し、選択を受け付けていない場合(ステップS402:NO)は処理をステップS403に移行する。 In step S401, it is determined whether a selection of "Sentence" has been received from the reception unit shown in FIG. 11. If a selection has been received (step S401: YES), the process proceeds to step S402. If a selection has not been received (step S402: NO), the process proceeds to step S403.

ステップS402では、耳打ち応答リクエストの送信元に対して文字で応答する旨のテキストを送信する。なお、文字で応答する旨とは、耳打ち応答リクエストの送信元であるユーザと音声ではなくテキストによるやり取り(例えばチャット等)を行う旨の応答である。テキストによる応答が選択された場合、耳打ちリクエストの送信元と送信先のユーザとでやり取りされるチャット画面(不図示)が表示されるものとする。 In step S402, text is sent to the sender of the whisper response request to indicate that a text response will be sent. Note that a text response is a response to communicate with the user who sent the whisper response request by text (e.g., chat) rather than by voice. If a text response is selected, a chat screen (not shown) is displayed for communication between the sender and destination users of the whisper request.

ステップS403では、受付部のうち「声」の選択を受け付けたかの判定をする。「声」の選択を受け付けた場合(ステップS403:YES)は処理をステップS404に移行し、受け付けていない場合(ステップS403:NO)は処理をステップS405に移行する。なお、「声」とは音声によるやり取りを行う旨の応答である。 In step S403, it is determined whether the selection of "voice" has been received from the reception section. If the selection of "voice" has been received (step S403: YES), the process proceeds to step S404. If the selection of "voice" has not been received (step S403: NO), the process proceeds to step S405. Note that "voice" is a response indicating that communication will be conducted by voice.

ステップS404では耳打ち応答リクエストの送信元に対して耳打ち応答レスポンスを送信する。そして本フローチャートを終了する。 In step S404, a whisper response is sent to the sender of the whisper response request. This flowchart then ends.

ステップS405では、受付部のうち「〇」の選択を受け付けたかを判定する。選択を受け付けた場合(ステップS405:YES)は処理をステップS406に移行し、受け付けていない場合(ステップS405:NO)は処理をステップS407に移行する。 In step S405, it is determined whether the selection of "O" has been received from the reception section. If a selection has been received (step S405: YES), the process proceeds to step S406. If a selection has not been received (step S405: NO), the process proceeds to step S407.

なお、「〇」とは、耳打ちに応じる旨の応答である。 Note that "〇" is a response indicating that you agree to the whisper.

ステップS406では、耳打ち応答リクエストの送信元に対してリクエストに応じる旨のテキストを送信する。 In step S406, text is sent to the sender of the whisper response request indicating that the request will be responded to.

「文」「声」「〇」が選択されると、クライアント端末101には図10に一例を示す画面が表示され、ユーザAB館において耳打ち機能が利用されていることを示す表示となる。 When "Sentence," "Voice," and "Circle" are selected, the client terminal 101 displays a screen, an example of which is shown in FIG. 10, indicating that the whisper function is being used in User A and B buildings.

ステップS407では、受付部のうち「×」の選択を受け付けたかの判定をする。「×」の選択を受け付けた場合(ステップS407:YES)は処理をステップS408に移行し、受け付けていない場合(ステップS407:NO)は処理をステップ401に戻す。 In step S407, it is determined whether the selection of "x" has been received from the reception section. If the selection of "x" has been received (step S407: YES), the process proceeds to step S408. If the selection of "x" has not been received (step S407: NO), the process returns to step S401.

なお、「×」とは耳打ちに応じられない旨の応答である。 Note that "x" is a response that means you cannot respond to a whisper.

ステップS408では、耳打ち応答リクエストの送信元に対してリクエストに応じられない旨のテキストを送信する。 In step S408, a text message is sent to the sender of the whisper response request indicating that the request cannot be fulfilled.

ステップS409では、耳打ち応答リクエストの送信元に対して簡易応答レスポンスを送信する。 In step S409, a simple response is sent to the sender of the whisper response request.

以上の処理により、耳打ち応答リクエストを受信したユーザは、耳打ち相手のユーザに対してどのような方法で応答するのか/応答できるのかを伝えることが可能となる。 Through the above process, a user who receives a whisper response request can inform the other user how they will/can respond.

次に図5のフローチャートを用いて耳打ち会話(聞き手)の処理について説明する。 Next, we will explain the processing of whispered conversations (listener) using the flowchart in Figure 5.

詳細は後述するが、図5のフローチャートを実行する際にはクライアント端末101の表示部には図10に示す画面が表示されている。すなわち、耳打ちを行うユーザ(図10においてはユーザAとユーザB)の画像はユーザBの表示領域に表示(均等に分割されて表示)され、ユーザAの表示領域にはユーザAを特定する情報(氏名など)が表示される。 Although details will be described later, when the flowchart in FIG. 5 is executed, the screen shown in FIG. 10 is displayed on the display unit of the client terminal 101. That is, the image of the user performing the whisper (user A and user B in FIG. 10) is displayed (evenly divided and displayed) in the display area of user B, and information identifying user A (such as name) is displayed in the display area of user A.

ステップS501では、耳打ち相手(話し手)のユーザが表示された領域に対してクリック操作やタップ操作などの所定の操作が行われているかを判定する。 In step S501, it is determined whether the user to whom the whisper is being made (the speaker) has performed a predetermined operation, such as a click or tap, on the displayed area.

所定の操作が行われている場合(ステップS501:YES)は、処理をステップS501に移行すい、所定の操作が行われていない場合(ステップS501:NO)は、処理をステップS503に移行する。 If the specified operation has been performed (step S501: YES), the process proceeds to step S501. If the specified operation has not been performed (step S501: NO), the process proceeds to step S503.

ステップS502では、耳打ち相手のユーザ以外のユーザ(会議参加者)の音声のボリュームを設定値まで下げる(所定の値に設定する)。そして処理をステップS501に戻す。すなわち、所定の操作が行われている間は、耳打ち相手のユーザ以外のユーザ(会議参加者)の音声のボリュームを設定値まで下げる。 In step S502, the volume of the voices of users (conference participants) other than the user who is the person being whispered to is lowered to a set value (set to a predetermined value). Then, the process returns to step S501. In other words, while the predetermined operation is being performed, the volume of the voices of users (conference participants) other than the user who is the person being whispered to is lowered to the set value.

ステップS503では、耳打ち相手のユーザ以外のユーザ(会議参加者)の音声のボリュームを既定値(各クライアント端末にて設定された値)にする。 In step S503, the voice volume of users (conference participants) other than the user to whom the whisper was made is set to the default value (the value set on each client terminal).

ステップS504では、耳打ち相手のユーザから終了しクエストを受信したかを判定する。受信した場合(ステップS504:YES)は本フローチャートを終了し、受信していない場合(ステップS504:NO)は処理をステップS505に移行する。 In step S504, it is determined whether a completion quest has been received from the whispered user. If a completion quest has been received (step S504: YES), this flowchart ends, and if a completion quest has not been received (step S504: NO), the process proceeds to step S505.

ステップS505では耳打ち相手のユーザが表示された領域に対してダブルクリック操作やダブルタップ操作などの所定の操作(耳打ちを終了する操作)が行われたかを判定する。 In step S505, it is determined whether the user to whom you wish to whisper has performed a predetermined operation (an operation to end the whisper), such as a double-click or double-tap, on the displayed area.

所定の操作が行われた場合(ステップS505;YES)は処理をステップS506に移行し、行われていない場合(ステップS505:NO)は処理をステップS501に戻す。 If the specified operation has been performed (step S505: YES), the process proceeds to step S506; if not (step S505: NO), the process returns to step S501.

ステップS506では耳打ち相手のユーザに対して耳打ち機能を終了する旨のリクエストを送信する。 In step S506, a request to end the whisper function is sent to the user to whom the whisper was directed.

次に図6のフローチャートを用いてステップS308の応答待ち処理について説明する。 Next, the response waiting process in step S308 will be explained using the flowchart in FIG. 6.

ステップS601では、耳打ち応答リクエストを送信したユーザの画像を縮小して、耳打ち相手のユーザの画像に重ねて表示する。 In step S601, the image of the user who sent the whisper response request is reduced in size and displayed superimposed on the image of the user who whispered.

ステップS602では、耳打ち応答リクエストを送信したユーザの領域に当該ユーザの名称(氏名などのユーザを識別する情報)を表示する。 In step S602, the name of the user (information that identifies the user, such as a name) is displayed in the area of the user who sent the whisper response request.

ステップS601、ステップS602の処理により、図9に一例を示す画面が表示される。 The processing of steps S601 and S602 causes a screen, an example of which is shown in Figure 9, to be displayed.

ステップS603では、耳打ち応答リクエストを送信したユーザの音声を耳打ち相手のユーザにのみ聞こえるように設定する。なお、この処理は耳打ち相手のユーザ以外の会議参加者に対して音声が聞こえないよう制御する処理であり、完全に音声を遮断するよう制御することに限られず、人間の耳には聞こえない程度の小さな音量にする処理も含むものとする。 In step S603, the voice of the user who sent the whisper response request is set so that it can only be heard by the user to whom the whisper was made. Note that this process is a process of controlling the voice so that it cannot be heard by conference participants other than the user to whom the whisper was made, and is not limited to controlling the voice to be completely blocked, but also includes a process of reducing the volume to a level that cannot be heard by the human ear.

ステップS604では、耳打ち相手のユーザから耳打ち応答レスポンスを受信したかを判定する。受信した場合(ステップS604;YES)は処理をステップS607に移行し、受信していない場合(ステップS604:NO)は処理をステップS605に移行する。 In step S604, it is determined whether a whisper response has been received from the user who was the whisper destination. If a whisper response has been received (step S604: YES), the process proceeds to step S607. If a whisper response has not been received (step S604: NO), the process proceeds to step S605.

ステップS605では、耳打ち相手のユーザから簡易応答レスポンスを受信したかを判定する。受信した場合(ステップS605:YES)は処理をステップS609に移行し、受信していない場合(ステップS605:NO)は処理をステップS606に移行する。 In step S605, it is determined whether a simple response has been received from the whispered user. If a simple response has been received (step S605: YES), the process proceeds to step S609. If a simple response has not been received (step S605: NO), the process proceeds to step S606.

ステップS606では、耳打ち相手のユーザの領域に対して所定の操作(ダブルクリック操作やダブルタップ操作など)を受け付けたかを判定する。所定の操作を受け付けた場合(ステップS606:YES)は処理をステップS609に移行し、受け付けていない場合(ステップS606:NO)は処理をステップS604に戻す。 In step S606, it is determined whether a predetermined operation (such as a double-click operation or a double-tap operation) has been received in the whispered user's area. If the predetermined operation has been received (step S606: YES), the process proceeds to step S609. If the operation has not been received (step S606: NO), the process returns to step S604.

ステップS607では、耳打ち相手のユーザに対して耳打ち会話リクエストを送信する。 In step S607, a whisper conversation request is sent to the user with whom the whisper is intended.

ステップS608では、耳打ち会話(話し手)の処理を実行する。この処理の詳細は図7のフローチャートを用いて説明する。 In step S608, the whisper conversation (speaker) process is executed. Details of this process are explained using the flowchart in FIG. 7.

ステップS609では、ステップS601で実行した縮小表示を解除し、ステップS610では自分の画像を自分の領域に表示する。この処理により図8に示す画面がクライアント端末に表示されることになる。 In step S609, the reduced display performed in step S601 is cancelled, and in step S610, the user's own image is displayed in the user's own area. This process results in the screen shown in FIG. 8 being displayed on the client terminal.

ステップS611では、人の音声が会議参加者全員に聞こえるよう制御する。 In step S611, control is performed so that the human voice can be heard by all conference participants.

以上の処理により、耳打ち機能が開始されると話し手ユーザの声は耳打ち相手にのみ聞こえるようになる。また、会議画面については、どのユーザとどのユーザとが耳打ちをしているかを識別可能な表示となる。 By performing the above process, when the whispering function is started, the voice of the speaking user will be heard only by the person being whispered to. Also, the conference screen will display a screen that makes it easy to identify which users are whispering to each other.

次に図7のフローチャートを用いてステップS608の耳打ち会話(話し手)の処理について説明する。 Next, the processing of whispered conversation (speaker) in step S608 will be explained using the flowchart in Figure 7.

ステップS701では、図10に示すように、聞き手ユーザの領域に聞き手と話し手の両ユーザの画像を表示する。この際、図10に示すように聞き手ユーザの領域を均等に分割して表示する等の表示形態とすることで、図9に示す応答待ちの状態と識別できるようにする。 In step S701, images of both the listener and the speaker are displayed in the listener user's area as shown in FIG. 10. At this time, the listener user's area may be divided equally as shown in FIG. 10, or the like, to make it possible to distinguish the state from the state of waiting for a response as shown in FIG. 9.

ステップS702では、耳打ち相手のユーザ(聞き手ユーザ)の音声を自分だけに聞こえるよう設定する。 In step S702, the user sets the voice of the user he or she is whispering to (the listener user) so that only he or she can hear it.

ステップS703では、画面における耳打ち相手のユーザの領域に対して所定の操作(クリック操作やタップ往査等)による選択を受け付けているかを判定する。受け付けている場合(ステップS703:YES)は処理をステップS704に移行し、受け付けていない場合(ステップS703:NO)は処理をステップS705に移行する。 In step S703, it is determined whether a selection has been accepted by a predetermined operation (such as a click or tap) on the area of the screen of the user to whom the message is to be whispered. If it has been accepted (step S703: YES), the process proceeds to step S704. If it has not been accepted (step S703: NO), the process proceeds to step S705.

ステップS704では、耳打ち相手のユーザ以外のユーザ(会議参加者)の音声のボリュームを設定値まで下げる(所定の値に設定する)。そして処理をステップS703に戻す。すなわち、所定の操作が行われている間は、耳打ち相手のユーザ以外のユーザ(会議参加者)の音声のボリュームを設定値まで下げる。 In step S704, the voice volume of users (conference participants) other than the user who is the person to whom the whisper is directed is lowered to a set value (set to a predetermined value). Then, the process returns to step S703. In other words, while the predetermined operation is being performed, the voice volume of users (conference participants) other than the user who is the person to whom the whisper is directed is lowered to the set value.

ステップS705では、耳打ち相手のユーザ以外のユーザ(会議参加者)の音声のボリュームを既定値(各クライアント端末にて設定された値)にする。 In step S705, the voice volume of users (conference participants) other than the user to whom the whisper was made is set to the default value (the value set on each client terminal).

ステップS706では、耳打ち相手のユーザから狩猟リクエストを受信したかを判定する。受信した場合(ステップS706:YES)は処理をステップS709に移行し、受信していない場合(ステップS706:NO)は処理をステップS707に移行する。 In step S706, it is determined whether a hunting request has been received from the whispered user. If a hunting request has been received (step S706: YES), the process proceeds to step S709. If a hunting request has not been received (step S706: NO), the process proceeds to step S707.

ステップS707では、画面における耳打ち相手のユーザの領域に対して所定の操作(ダブルクリック操作やダブルタップ操作など)による選択を受け付けているか、すなわち終了リクエストを送信する操作を受け付けているかを判定する。 In step S707, it is determined whether a selection has been made by a predetermined operation (such as a double-click or double-tap) on the area of the screen of the user to whom the whisper is to be made, i.e., whether an operation to send an end request has been accepted.

受け付けている場合(ステップS707:YES)は、処理をステップS708に移行し、受け付けていない場合(ステップS707:NO)は処理をステップS703に移行する。 If it has been accepted (step S707: YES), the process proceeds to step S708; if it has not been accepted (step S707: NO), the process proceeds to step S703.

ステップS708では、耳打ち相手のユーザに対して終了リクエストを送信する。 In step S708, an end request is sent to the user who whispered.

ステップS709では、画面表示を図9に示す画面に戻す。 In step S709, the screen display is returned to the screen shown in FIG.

ステップS710では、耳打ち相手のユーザの音声を会議参加者全員に聞こえるよう設定する。 In step S710, the voice of the user being whispered to is set so that it can be heard by all conference participants.

以上説明した耳打ち機能を用いることで、Web会議において所望のユーザとだけ会話をすることが可能となる。 By using the whisper function described above, you can talk only with desired users during a web conference.

本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 The present invention can be embodied, for example, as a system, device, method, program, or recording medium. Specifically, it may be applied to a system made up of multiple devices, or to an apparatus made up of a single device.

また、本発明におけるプログラムは、図3~図7に示すフローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は図3~図7の処理方法をコンピュータが実行可能なプログラムが記憶されている。なお、本発明におけるプログラムは図3~図7の各装置の処理方法ごとのプログラムであってもよい。 The program of the present invention is a program that enables a computer to execute the processing methods of the flowcharts shown in Figures 3 to 7, and the storage medium of the present invention stores a program that enables a computer to execute the processing methods of Figures 3 to 7. The program of the present invention may be a program for each processing method of each device in Figures 3 to 7.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し、実行することによっても本発明の目的が達成されることは言うまでもない。 As described above, it goes without saying that the object of the present invention can be achieved by supplying a recording medium on which a program that realizes the functions of the above-mentioned embodiments is recorded to a system or device, and having the computer (or CPU or MPU) of that system or device read and execute the program stored on the recording medium.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した記録媒体は本発明を構成することになる。 In this case, the program read from the recording medium itself realizes the novel functions of the present invention, and the recording medium on which the program is recorded constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、DVD-ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることが出来る。 Recording media for supplying the program may include, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a DVD-ROM, a magnetic tape, a non-volatile memory card, a ROM, an EEPROM, a silicon disk, etc.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, it goes without saying that not only are the functions of the above-mentioned embodiments realized by the computer executing a program it has read, but also that the functions of the above-mentioned embodiments can be realized by an operating system (OS) or the like running on the computer carrying out some or all of the actual processing based on the instructions of the program.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, it goes without saying that this also includes cases where a program read from a recording medium is written into a memory provided on a function expansion board inserted into a computer or a function expansion unit connected to a computer, and then a CPU or the like provided on the function expansion board or function expansion unit performs some or all of the actual processing based on the instructions of the program code, thereby realizing the functions of the above-mentioned embodiments.

また、本発明は、複数の機器から構成されるシステムに適用しても、ひとつの機器から成る装置に適用しても良い。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 The present invention may be applied to a system made up of multiple devices, or to a device made up of a single device. Needless to say, the present invention can also be applied to cases where the effects of the present invention are achieved by supplying a program to a system or device. In this case, the effects of the present invention can be enjoyed by reading a recording medium that stores a program for achieving the present invention into the system or device.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。 Furthermore, by downloading and reading a program for achieving the present invention from a server, database, etc. on a network using a communication program, the system or device can enjoy the effects of the present invention. Note that the present invention also includes configurations that combine the above-mentioned embodiments and their modified examples.

101 クライアント端末
102 サーバ装置
110 ネットワーク
101 Client terminal 102 Server device 110 Network

Claims (10)

Web会議に参加する第1のユーザから第2のユーザとの耳打ち会話の要求を受け付ける要求受付手段と、
前記要求受付手段で受け付けた耳打ち会話の要求の要求先である前記第2のユーザから、耳打ち会話への対応方法の選択を受け付ける選択受付手段と、
前記選択受付手段により選択を受け付けた対応方法に応じて、前記第1のユーザおよび前記第2のユーザの音声の配信を制御する制御手段と、
を備えることを特徴とする情報処理システム。
a request receiving means for receiving a request for whisper conversation from a first user participating in a Web conference with a second user;
a selection receiving means for receiving, from the second user who is the destination of the request for the whisper conversation received by the request receiving means, a selection of a method for responding to the whisper conversation;
a control means for controlling distribution of voices of the first user and the second user in accordance with the response method selected by the selection receiving means;
An information processing system comprising:
前記選択受付手段は、音声による応答またはテキストによる応答を含む対応方法の中から選択を受け付けることを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, characterized in that the selection receiving means receives a selection from among response methods including a voice response or a text response. 前記制御手段は、前記選択受付手段により音声による応答を受け付けた場合、前記第1のユーザおよび前記第2のユーザの音声の配信を制御することを特徴とする請求項2に記載の情報処理システム。 The information processing system according to claim 2, characterized in that the control means controls the distribution of the voices of the first user and the second user when a voice response is received by the selection receiving means. 前記制御手段は、前記第1のユーザおよび前記第2のユーザの音声を、前記第1のユーザおよび第2のユーザ以外の会議参加者に配信しないよう制御することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理システム。 The information processing system according to any one of claims 1 to 3, characterized in that the control means controls so that the voices of the first user and the second user are not distributed to conference participants other than the first user and the second user. 前記制御手段は、前記第1のユーザおよび前記第2のユーザから所定の操作を受け付けた場合、前記第1のユーザおよび第2のユーザ以外の会議参加者の音声の前記第1のユーザおよび前記第2のユーザに対する配信を制御することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理システム。 The information processing system according to any one of claims 1 to 4, characterized in that the control means, when receiving a predetermined operation from the first user and the second user, controls the distribution of the voices of conference participants other than the first user and the second user to the first user and the second user. 前記制御手段は、前記第1のユーザおよび前記第2のユーザから所定の操作を受け付けた場合、前記第1のユーザおよび第2のユーザ以外の会議参加者の音声の音量を下げて、前記第1のユーザおよび前記第2のユーザに対して配信ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理システム。 The information processing system according to any one of claims 1 to 5, characterized in that, when the control means receives a predetermined operation from the first user and the second user, it lowers the volume of the voices of the conference participants other than the first user and the second user and distributes the voices to the first user and the second user. Web会議参加者の映像をそれぞれの参加者が利用する情報処理装置に表示するよう制御する表示制御手段を備え、
前記表示制御手段は、前記耳打ち会話をしているユーザを識別可能に表示するよう制御することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理システム。
A display control means is provided for controlling the display of images of the Web conference participants on the information processing devices used by each of the participants,
7. The information processing system according to claim 1, wherein the display control means controls so that the user having the whispered conversation is displayed in an identifiable manner.
前記表示制御手段は、前記選択受付手段によりテキストによる応答の選択を受け付けた場合、前記第1のユーザおよび第2のユーザとのチャット画面を表示するよう制御することを特徴とする請求項7に記載の情報処理システム。 The information processing system according to claim 7, characterized in that the display control means controls to display a chat screen with the first user and the second user when the selection receiving means receives a selection of a text response. 情報処理システムの要求受付手段が、Web会議に参加する第1のユーザから第2のユーザとの耳打ち会話の要求を受け付ける要求受付工程と、
前記情報処理システムの選択受付手段が、前記要求受付工程で受け付けた耳打ち会話の要求の要求先である前記第2のユーザから、耳打ち会話への対応方法の選択を受け付ける選択受付工程と、
前記情報処理システムの制御手段が、前記選択受付工程により選択を受け付けた対応方法に応じて、前記第1のユーザおよび前記第2のユーザの音声の配信を制御する制御工程と、
を備えることを特徴とする情報処理方法。
A request receiving step in which a request receiving means of the information processing system receives a request for whisper conversation between a first user participating in the Web conference and a second user;
a selection receiving step in which a selection receiving means of the information processing system receives, from the second user who is the request recipient of the request for the whispered conversation received in the request receiving step, a selection of a method of responding to the whispered conversation;
a control step of controlling distribution of voices of the first user and the second user by a control means of the information processing system in accordance with the response method selected in the selection receiving step;
An information processing method comprising:
コンピュータを請求項1乃至8に記載の各手段として機能させるためのプログラム。

A program for causing a computer to function as each of the means recited in claims 1 to 8.

JP2024001887A 2021-12-28 2024-01-10 Information processing system, information processing method, and program Pending JP2024054871A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024001887A JP2024054871A (en) 2021-12-28 2024-01-10 Information processing system, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021213726A JP7421134B2 (en) 2021-12-28 2021-12-28 Information processing system, information processing method, program
JP2024001887A JP2024054871A (en) 2021-12-28 2024-01-10 Information processing system, information processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021213726A Division JP7421134B2 (en) 2021-12-28 2021-12-28 Information processing system, information processing method, program

Publications (1)

Publication Number Publication Date
JP2024054871A true JP2024054871A (en) 2024-04-17

Family

ID=87071614

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021213726A Active JP7421134B2 (en) 2021-12-28 2021-12-28 Information processing system, information processing method, program
JP2024001887A Pending JP2024054871A (en) 2021-12-28 2024-01-10 Information processing system, information processing method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021213726A Active JP7421134B2 (en) 2021-12-28 2021-12-28 Information processing system, information processing method, program

Country Status (1)

Country Link
JP (2) JP7421134B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080158337A1 (en) 2001-12-15 2008-07-03 John William Richardson Videoconference Bandwidth Selection Mechanism
US20120017149A1 (en) 2010-07-15 2012-01-19 Jeffrey Lai Video whisper sessions during online collaborative computing sessions
KR101339944B1 (en) 2012-08-06 2013-12-10 (주)디앤티 Video conference system with text message function using keyboard
US20140310680A1 (en) 2013-04-15 2014-10-16 Massively Parallel Technologies, Inc. System And Method For Collaboration

Also Published As

Publication number Publication date
JP2023097546A (en) 2023-07-10
JP7421134B2 (en) 2024-01-24

Similar Documents

Publication Publication Date Title
JP2544581B2 (en) Conference system control method, conference device, and conference system
CN105264473A (en) Unified communications application functionality in condensed and full views
WO1996038983A1 (en) Method and apparatus for controlling participant input in a conferencing environment
JP2000181846A (en) Terminal operating device
US11715386B1 (en) Queuing for a video conference session
JPH05257853A (en) Data processing system
KR102460105B1 (en) Method for providing conference service and apparatus thereof
JP4208252B2 (en) Terminal operation device
JP2017112601A (en) Information processing apparatus, information processing method, and program
KR102187005B1 (en) Method and system for group call using whisper
JP2024054871A (en) Information processing system, information processing method, and program
JP2019117997A (en) Web conference system, control method of web conference system, and program
JP2015165347A (en) information processing apparatus, information processing method, and program
JP7206481B2 (en) Information processing device, control method and program for information processing device
JP5994898B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2016163111A (en) Information processing device, information processing method, and program
JP7464853B2 (en) Information processing device, information processing method, and program
JP2020144725A (en) Information processing system and control method thereof
KR102528522B1 (en) Application processing method for providing group video call
JP6703259B2 (en) Information processing system, conference server, control method thereof, and program
US20230379435A1 (en) Meeting management apparatus, meeting management method, and non-transitory computer-readable medium
KR102178924B1 (en) Method and apparatus for providing performance of contents using virtual reality
US20230262168A1 (en) Meeting management apparatus, meeting management method and non-transitory computer-readable medium
JP2017108242A (en) Information processing apparatus, information processing method, and program
JP7143874B2 (en) Information processing device, information processing method and program