JP7421134B2 - Information processing system, information processing method, program - Google Patents

Information processing system, information processing method, program Download PDF

Info

Publication number
JP7421134B2
JP7421134B2 JP2021213726A JP2021213726A JP7421134B2 JP 7421134 B2 JP7421134 B2 JP 7421134B2 JP 2021213726 A JP2021213726 A JP 2021213726A JP 2021213726 A JP2021213726 A JP 2021213726A JP 7421134 B2 JP7421134 B2 JP 7421134B2
Authority
JP
Japan
Prior art keywords
user
information processing
request
processing system
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021213726A
Other languages
Japanese (ja)
Other versions
JP2023097546A (en
Inventor
祥平 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2021213726A priority Critical patent/JP7421134B2/en
Publication of JP2023097546A publication Critical patent/JP2023097546A/en
Application granted granted Critical
Publication of JP7421134B2 publication Critical patent/JP7421134B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理システム、情報処理方法、プログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.

昨今、リモートワーク推進の流れが加速したことにより、会議についても対面でのリアルな空間で行うのではなく、オンラインでの会議(Web会議)での開催が多くなっている。このようなリモートコミュニケーションは物理的に会議室を確保する必要がなくなるメリットがある反面、同じ空間を共有し対面で会話できない性質から、対面では起こりえない不都合が生じることがある。 Recently, as the trend toward remote work has accelerated, meetings are increasingly being held online (web conferences) rather than in real, face-to-face settings. While this type of remote communication has the advantage of eliminating the need to physically secure a conference room, it can also cause inconveniences that would not occur face-to-face, as they share the same space and cannot have face-to-face conversations.

特許文献1には、リモートコミュニケーションの課題の一つである「発話の衝突」を解決する技術について開示されている。具体的には次の発話者を予測し発話者を強調表示することで、発話の衝突を低減させる技術について記載されている。 Patent Document 1 discloses a technique for solving "conflict of speech," which is one of the problems in remote communication. Specifically, it describes a technique for reducing collisions between speeches by predicting the next speaker and highlighting the speaker.

特開2017-111643号公報JP 2017-111643 Publication

特許文献1に記載の技術は、発言が会議参加者全体に共有されることを前提としているが、会話では発言したい内容が特定の個人に対してのみ伝えたい内容であることも多い。 The technique described in Patent Document 1 is based on the premise that comments are shared by all conference participants, but in a conversation, the content to be said is often the content to be communicated only to a specific individual.

そこで、本発明は、オンラインでの会議等において特定の個人との対話を可能にする仕組みを提供することを目的とする。 Therefore, an object of the present invention is to provide a mechanism that enables dialogue with a specific individual in an online meeting or the like.

本発明の情報処理システムは、Web会議に参加する第1のユーザから第2のユーザとの耳打ち会話の要求を受け付ける要求受付手段と、前記要求受付手段で受け付けた耳打ち会話の要求の要求先である前記第2のユーザから、耳打ち会話への対応方法の選択を受け付ける選択受付手段と、前記選択受付手段により選択を受け付けた対応方法に応じて、前記第1のユーザおよび前記第2のユーザの音声の配信を制御する制御手段と、を備えることを特徴とする。 The information processing system of the present invention includes a request receiving unit that receives a request for an over-the-ear conversation with a second user from a first user participating in a web conference, and a request destination for the over-the-ear conversation request received by the request accepting unit. a selection receiving means for accepting a selection of a response method to an overheard conversation from a certain second user; A control means for controlling the distribution of audio.

本発明によれば、オンラインでの会議等において特定の個人との対話が可能となる。 According to the present invention, it is possible to interact with a specific individual in an online meeting or the like.

本発明を適用可能な情報処理システムの構成の一例を示す図A diagram showing an example of the configuration of an information processing system to which the present invention can be applied. クライアント端末101やサーバ装置102として用いられる情報処理装置のハードウェア構成の一例を示すブロック図A block diagram showing an example of the hardware configuration of an information processing device used as a client terminal 101 and a server device 102. 本発明の処理内容を示すフローチャートFlowchart showing processing contents of the present invention ステップS302の処理の詳細を示すフローチャートFlowchart showing details of the process of step S302 ステップS304の処理の詳細を示すフローチャートFlowchart showing details of the process in step S304 ステップS308の処理の詳細を示すフローチャートFlowchart showing details of the process in step S308 ステップS608の処理の詳細を示すフローチャートFlowchart showing details of the process of step S608 クライアント端末101に表示される画面の一例An example of a screen displayed on the client terminal 101 クライアント端末101に表示される画面の一例An example of a screen displayed on the client terminal 101 クライアント端末101に表示される画面の一例An example of a screen displayed on the client terminal 101 クライアント端末101に表示される画面の一例An example of a screen displayed on the client terminal 101 本発明の概要について説明した図Diagram explaining the outline of the present invention

以下、図面を参照して、本発明の実施形態を詳細に説明する。 Embodiments of the present invention will be described in detail below with reference to the drawings.

図1は、本発明を適用可能な情報処理システムの構成の一例を示す図である。 FIG. 1 is a diagram showing an example of the configuration of an information processing system to which the present invention can be applied.

図1に示す通り、クライアント端末101とサーバ装置102とがネットワーク110を介して通信可能に接続されている。 As shown in FIG. 1, a client terminal 101 and a server device 102 are communicably connected via a network 110.

クライアント端末101は、Web会議等の参加ユーザが利用し操作する端末であり、図8~図11に示す画面が表示される端末である。また、クライアント端末101は図1に示す通り複数がネットワーク110を介して接続されている。これはWeb会議に参加するユーザが一人一台用いることを前提とした構成である。クライアント端末101は、具体的にはパーソナルコンピュータ(ノートPCやデスクトップPC等)やタブレット端末、スマートフォンなどが用いられるが、これらに限られるものではない。 The client terminal 101 is a terminal used and operated by users participating in a web conference, etc., and is a terminal on which screens shown in FIGS. 8 to 11 are displayed. Further, as shown in FIG. 1, a plurality of client terminals 101 are connected via a network 110. This configuration is based on the assumption that each user participating in a web conference uses one device. Specifically, the client terminal 101 is a personal computer (such as a notebook PC or a desktop PC), a tablet terminal, or a smartphone, but is not limited to these.

サーバ装置102は、Web会議棟におけるクライアント端末間のデータのやり取りを制御する装置である。クライアント端末101に対するユーザの操作等に基づき、クライアント端末からユーザの音声データや画像データを受信し、他のクライアント端末に配信する機能を備える。図1ではサーバ装置102は1台のみ図示しているが、複数のサーバ装置が相互に連携するシステムやいわゆるクラウドシステムであっても良い。 The server device 102 is a device that controls data exchange between client terminals in the web conference building. It has a function of receiving the user's audio data and image data from the client terminal based on the user's operation on the client terminal 101, and distributing it to other client terminals. Although only one server device 102 is shown in FIG. 1, a system in which a plurality of server devices cooperate with each other or a so-called cloud system may be used.

図2は、本発明のクライアント端末101やサーバ装置102として用いられる情報処理装置のハードウェア構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of the hardware configuration of an information processing device used as the client terminal 101 and server device 102 of the present invention.

図2に示すように、情報処理装置は、システムバス200を介してCPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、記憶装置204、入力コントローラ205、音声コントローラ206、ビデオコントローラ207、メモリコントローラ208、よび通信I/Fコントローラ209が接続される。 As shown in FIG. 2, the information processing device includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, a storage device 204, an input controller 205, An audio controller 206, a video controller 207, a memory controller 208, and a communication I/F controller 209 are connected.

CPU201は、システムバス200に接続される各デバイスやコントローラを統括的に制御する。 The CPU 201 centrally controls each device and controller connected to the system bus 200.

ROM202あるいは外部メモリ213は、CPU201が実行する制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、本情報処理方法を実現するためのコンピュータ読み取り実行可能なプログラムおよび必要な各種データ(データテーブルを含む)を保持している。 The ROM 202 or external memory 213 stores a BIOS (Basic Input/Output System) and an OS (Operating System), which are control programs executed by the CPU 201, as well as computer-readable and executable programs and various necessary programs for realizing this information processing method. Holds data (including data tables).

RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ213からRAM203にロードし、ロードしたプログラムを実行することで各種動作を実現する。 The RAM 203 functions as the main memory, work area, etc. of the CPU 201. The CPU 201 loads necessary programs and the like from the ROM 202 or the external memory 213 into the RAM 203 when executing processing, and executes the loaded programs to realize various operations.

入力コントローラ205は、キーボード210や不図示のマウス等のポインティングデバイス等の入力装置からの入力を制御する。入力装置がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができることとする。 The input controller 205 controls input from input devices such as a keyboard 210 and a pointing device such as a mouse (not shown). If the input device is a touch panel, the user can issue various instructions by pressing (touching with a finger or the like) an icon, cursor, or button displayed on the touch panel.

また、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。 Further, the touch panel may be a touch panel capable of detecting positions touched by multiple fingers, such as a multi-touch screen.

ビデオコントローラ207は、ディスプレイ212などの外部出力装置への表示を制御する。ディスプレイは本体と一体になったノート型パソコンのディスプレイも含まれるものとする。なお、外部出力装置はディスプレイに限ったものははく、例えばプロジェクタであってもよい。また、前述のタッチ操作を受け付け可能な装置については、入力装置も提供する。 Video controller 207 controls display on an external output device such as display 212. The display shall also include the display of a notebook computer that is integrated with the main body. Note that the external output device is not limited to a display, but may be a projector, for example. Furthermore, an input device is also provided for the device capable of accepting the above-mentioned touch operation.

なおビデオコントローラ207は、表示制御を行うためのビデオメモリ(VRAM)を制御することが可能で、ビデオメモリ領域としてRAM203の一部を利用することもできるし、別途専用のビデオメモリを設けることも可能である。 Note that the video controller 207 can control a video memory (VRAM) for display control, and can use a part of the RAM 203 as a video memory area, or can provide a separate dedicated video memory. It is possible.

メモリコントローラ208は、外部メモリ213へのアクセスを制御する。外部メモリとしては、ブートプログラム、各種アプリケーション、フォントデータ、ユーザファイル、編集ファイル、および各種データ等を記憶する外部記憶装置(ハードディスク)、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等を利用可能である。 Memory controller 208 controls access to external memory 213. External memory can be an external storage device (hard disk) that stores boot programs, various applications, font data, user files, editing files, various data, etc., a flexible disk (FD), or a PCMCIA card slot connected via an adapter. Compact flash (registered trademark) memory and the like can be used.

通信I/Fコントローラ209は、ネットワークを介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信やISDNなどの電話回線、および携帯電話の4G回線、5G回線等を用いた通信が可能である。 The communication I/F controller 209 connects and communicates with external devices via a network, and executes communication control processing on the network. For example, communication using TCP/IP, a telephone line such as ISDN, a 4G line, a 5G line of a mobile phone, etc. is possible.

尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ212上での表示を可能としている。また、CPU201は、ディスプレイ212上の不図示のマウスカーソル等でのユーザ指示を可能とする。 Note that the CPU 201 enables display on the display 212 by, for example, executing an outline font development (rasterization) process in a display information area in the RAM 203. Further, the CPU 201 allows the user to give instructions using a mouse cursor (not shown) on the display 212.

次に図12を用いて本発明の概要について説明する。 Next, the outline of the present invention will be explained using FIG. 12.

Web会議が開始されると、図12(1)に示すように会議参加者の画像(インカメラ等で撮影された画像)を含む画面が、各会議参加者のクライアント端末101に表示される。図12(1)はユーザA,B、C、Dの4名が会議に参加していることを示している。なお、会議に参加しているすべての参加者の画像を表示しなくても良く、予め定められた人数だけ表示するような構成であっても良い。 When a web conference starts, a screen including images of conference participants (images taken with an in-camera, etc.) is displayed on the client terminal 101 of each conference participant, as shown in FIG. 12(1). FIG. 12(1) shows that four users A, B, C, and D are participating in the conference. Note that it is not necessary to display images of all participants participating in the conference, and a configuration may be adopted in which only a predetermined number of participants are displayed.

ここで、ユーザAがユーザBの領域を所定の操作(一定時間継続してクリックする操作やタップする操作等)により選択することで、ユーザBとの耳打ちを要求する。耳打ちの要求がなされると画面は図12(2)のようにユーザAの画像がユーザBの画像の領域に表示され、ユーザAの領域にはユーザAを識別する情報(氏名等)が表示される。 Here, user A requests an ear interview with user B by selecting user B's area by a predetermined operation (clicking or tapping continuously for a certain period of time, etc.). When a request for listening is made, the screen displays the image of user A in the area of the image of user B, as shown in Figure 12 (2), and the information that identifies user A (name, etc.) is displayed in the area of user A. be done.

耳打ちを要求されたユーザBは図11に示す応答選択インタフェースを介して要求に対応する応答方法を選択する。耳打ちを許可する旨の応答が選択されると図12(3)の画面に遷移し、耳打ち会話が開始される。 User B, who has been requested to listen, selects a response method corresponding to the request via the response selection interface shown in FIG. When a response to allow the listening experience is selected, the screen changes to the screen shown in FIG. 12(3), and the listening conversation begins.

耳打ち会話が開始されると、ユーザAとユーザBの音声は、耳打ち相手にのみ伝わるように制御される(この場合だとユーザAの音声はユーザBにのみ伝わり、ユーザBの音声はユーザAにのみ伝わる)。なお、他の会議参加者の音声はユーザA、Bにも聞こえる状態であるが、所定の操作(例えば耳打ち相手のユーザの画像が表示された領域を選択する操作等)が行われている間は、他の会議参加者の音声の音量を下げるよう制御する。これにより耳打ち相手の音声が聞こえやすくなる。 When a listening conversation begins, the voices of user A and user B are controlled so that they are transmitted only to the other party (in this case, user A's voice is transmitted only to user B, and user B's voice is transmitted only to user A. ). Note that the voices of other conference participants can be heard by users A and B, but while certain operations are being performed (for example, selecting an area where the image of the other user is being displayed). controls the audio volume of other conference participants to be lowered. This makes it easier to hear the other person's voice.

そして耳打ち会話が終了すると、画面は図12(1)の画面に戻る。音声についても会議参加者全員に伝わるようになる。 When the overheard conversation ends, the screen returns to the screen shown in FIG. 12(1). Audio will also be transmitted to all conference participants.

以上のように、本発明の耳打ち機能を用いることで、会議中において所望のユーザとだけ会話をすることが可能となる。 As described above, by using the listening function of the present invention, it is possible to have a conversation with only desired users during a meeting.

次に図3~図7のフローチャートを用いて本発明の処理内容について説明する。 Next, the processing contents of the present invention will be explained using the flowcharts shown in FIGS. 3 to 7.

図3は、クライアント端末101のCPU201が所定の制御プログラムを読み出して実行する処理である。 FIG. 3 shows a process in which the CPU 201 of the client terminal 101 reads and executes a predetermined control program.

ステップS301では、他のユーザから耳打ち応答リクエストを受信したかを判定する。耳打ち応答リクエストとは、他のユーザに対して耳打ち(Web会議参加者の中で耳打ち相手には音声を届け、それ以外の参加者には音声を届けない機能)に対応できるかの確認の要求であり、他のユーザによりクライアント端末101が操作されることで発行されサーバ装置102を介して受信するリクエストである。 In step S301, it is determined whether an earphone response request has been received from another user. An ear tapping response request is a request for confirmation from other users whether they can respond to ear tapping (a function that delivers audio to the other party in a web conference but does not deliver audio to other participants). This is a request issued by another user operating the client terminal 101 and received via the server device 102.

耳打ち応答リクエストを受信した場合(ステップS301:YES)は処理をステップS302に移行し、受信していない場合はステップS303に移行する。 If the earphone response request has been received (step S301: YES), the process moves to step S302, and if it has not been received, the process moves to step S303.

図9にユーザBがユーザAから耳打ち応答リクエストを受信した際に表示される画面の一例を示す。図9に示す通り、ユーザAの画像がユーザBの領域に小さく表示されている。なお、この表示画面は一例であり、どのユーザからどのユーザに対して耳打ち応答リクエストが送信されたのかを識別可能な表示であればいずれの形態であっても良い。 FIG. 9 shows an example of a screen displayed when user B receives an earphone response request from user A. As shown in FIG. 9, user A's image is displayed in a small size in user B's area. Note that this display screen is just an example, and any form of display may be used as long as it is possible to identify which user has sent the earphone response request to which user.

ステップS302では、耳打ち応答リクエストに対する応答処理を行う。応答処理の詳細は図4のフローチャートを用いて説明する。 In step S302, response processing to the earphone response request is performed. Details of the response processing will be explained using the flowchart of FIG.

ステップS303では、耳打ち会話リクエストを受信したかを判定する。耳打ち会話リクエストとは、耳打ち機能を用いた会話をしたい旨の要求であり、他のユーザが利用するクライアント端末101から発行されサーバ装置102を介して受信するリクエストである。 In step S303, it is determined whether an overheard conversation request has been received. The earphone conversation request is a request to have a conversation using the earphone function, and is a request issued from the client terminal 101 used by another user and received via the server device 102.

ステップS304では、耳打ち会話(聞き手)の処理の処理を実行する。詳細は図5のフローチャートを用いて説明する。 In step S304, processing for overhearing conversation (listener) is executed. Details will be explained using the flowchart in FIG.

ステップS305では、所定の選択操作(例えば、画面に表示された他のユーザが表示された領域に対して、所定時間以上継続してクリックする操作やタップする操作など。耳打ち機能を示すアイコン等を表示し当該アイコンの選択を受け付ける操作であっても良い。)を受け付けているかを判定する。受け付けている場合(ステップS305;YES)は処理をステップS306に移行し、受け付けていない場合(ステップS305:NO)は本フローチャートの処理を終了する。 In step S305, a predetermined selection operation (for example, an operation of continuously clicking or tapping an area where another user is displayed on the screen for a predetermined period of time or more) is performed. This may be an operation of displaying the icon and accepting the selection of the icon.) It is determined whether the icon is accepted. If it is accepted (step S305; YES), the process moves to step S306, and if it is not accepted (step S305: NO), the process of this flowchart ends.

ステップS306では、ステップS305で選択操作が行われていると判定された領域に係るユーザ(ユーザが利用するクライアント端末)が耳打ち機能をON(有効)にしているかを判定する。各ユーザ(ユーザが利用するクライアント端末)が耳打ち機能をONにしているか否かの情報は、サーバ装置102が各クライアント端末から収集して管理し、各クライアント端末に対して配信されるものとする。 In step S306, it is determined whether the user (client terminal used by the user) associated with the area in which the selection operation was determined to be performed in step S305 has turned on (enabled) the ear tapping function. Information on whether each user (client terminal used by the user) has turned on the listening function is collected and managed by the server device 102 from each client terminal, and is distributed to each client terminal. .

耳打ち相手のユーザが耳打ち機能をONにしている場合(ステップS306:YES)は、処理をステップS307に移行する。ONにしていない場合(ステップS306:NO)は処理をステップS301に戻す。 If the user who is the other party to the ear tapping function has turned on the ear tapping function (step S306: YES), the process moves to step S307. If it is not turned on (step S306: NO), the process returns to step S301.

ステップS307では、耳打ち相手のユーザに対して耳打ち応答リクエストを送信する。 In step S307, an ear tapping response request is sent to the user who is the ear listening partner.

ステップS308では、耳打ち応答待ち処理を行う。耳打ち応答待ち処理の詳細は図6のふーチャートを用いて説明する。 In step S308, a process of waiting for an earphone response is performed. The details of the earphone response waiting process will be explained using the flowchart of FIG.

次に図4のフローチャートを用いて、ステップS302に示す応答処理の詳細を説明する。 Next, details of the response process shown in step S302 will be explained using the flowchart of FIG. 4.

まず耳打ち応答リクエストを受信した際の画面について説明する。 First, the screen displayed when an earphone response request is received will be described.

クライアント端末101は、耳打ち応答リクエストお受信すると、図9に一例を示す画面を表示する。図9はユーザAがユーザBに対して耳打ち応答リクエストを送信し、ユーザBが耳打ち応答リクエストを受信した際に表示される画面の一例である。この画面が表示された状態で、ユーザBのクライアント端末が自分(ユーザB)の表示された領域に対して所定の選択操作を受け付けると、図11に一例を示す応答選択インタフェースが表示される。ユーザBのクライアント端末はこの応答選択インタフェースを介してユーザBから応答方法の選択を受け付けることで、ユーザAに対してリクエストに対する返答を行う。 Upon receiving the overhearing response request, the client terminal 101 displays a screen, an example of which is shown in FIG. FIG. 9 is an example of a screen that is displayed when user A transmits a listening response request to user B and user B receives the listening response request. When user B's client terminal accepts a predetermined selection operation for the displayed area with this screen displayed, a response selection interface, an example of which is shown in FIG. 11, is displayed. User B's client terminal responds to the request to user A by accepting a response method selection from user B via this response selection interface.

図11の応答選択インタフェースには「声」「文」「〇」「×」の4種類の受付部が表示され、いずれかの受付部の選択を受け付けることで耳打ち応答リクエストに対する返答が選択される。なお受付部の中心にある丸印はクリック操作やタップ操作が行われた場所を示している。受付部の選択は、当該丸印の場所から受付部の方向にフリック操作等が行われることで受け付けることが可能であるが、選択受付の方法はフリック操作に限られず、いずれの方法であっても良い。 The response selection interface shown in Figure 11 displays four types of reception sections: "Voice", "Text", "〇", and "×", and by accepting a selection from one of the reception sections, a response to the earphone response request is selected. . The circle in the center of the reception area indicates the location where a click or tap operation was performed. The selection of the reception section can be accepted by performing a flick operation, etc. from the place of the circle mark in the direction of the reception section, but the method of accepting the selection is not limited to the flick operation, and any method can be used. Also good.

以下、図4を用いて応答処理について説明する。 The response process will be explained below using FIG. 4.

ステップS401では、図11に示す受付部のうち「文」の選択を受け受けたかを判定する。選択を受け付けた場合(ステップS401:YES)は処理をステップS402に移行し、選択を受け付けていない場合(ステップS402:NO)は処理をステップS403に移行する。 In step S401, it is determined whether the selection of "sentence" has been received from the receiving section shown in FIG. If the selection is accepted (step S401: YES), the process moves to step S402, and if the selection is not accepted (step S402: NO), the process moves to step S403.

ステップS402では、耳打ち応答リクエストの送信元に対して文字で応答する旨のテキストを送信する。なお、文字で応答する旨とは、耳打ち応答リクエストの送信元であるユーザと音声ではなくテキストによるやり取り(例えばチャット等)を行う旨の応答である。テキストによる応答が選択された場合、耳打ちリクエストの送信元と送信先のユーザとでやり取りされるチャット画面(不図示)が表示されるものとする。 In step S402, a text indicating a written response is sent to the sender of the earphone response request. Note that the response in text means a response to communicate with the user who is the sender of the overhearing response request by text (for example, chat) rather than by voice. If a text response is selected, a chat screen (not shown) for exchange between the sender and destination user of the overhearing request will be displayed.

ステップS403では、受付部のうち「声」の選択を受け付けたかの判定をする。「声」の選択を受け付けた場合(ステップS403:YES)は処理をステップS404に移行し、受け付けていない場合(ステップS403:NO)は処理をステップS405に移行する。なお、「声」とは音声によるやり取りを行う旨の応答である。 In step S403, it is determined whether the reception section has accepted the selection of "voice". If the selection of "voice" is accepted (step S403: YES), the process moves to step S404, and if the selection of "voice" is not accepted (step S403: NO), the process moves to step S405. Note that "voice" is a response to the effect that a voice communication will be performed.

ステップS404では耳打ち応答リクエストの送信元に対して耳打ち応答レスポンスを送信する。そして本フローチャートを終了する。 In step S404, an ear tapping response is transmitted to the transmission source of the ear tapping response request. Then, this flowchart ends.

ステップS405では、受付部のうち「〇」の選択を受け付けたかを判定する。選択を受け付けた場合(ステップS405:YES)は処理をステップS406に移行し、受け付けていない場合(ステップS405:NO)は処理をステップS407に移行する。 In step S405, it is determined whether the selection of "〇" has been accepted by the reception unit. If the selection is accepted (step S405: YES), the process moves to step S406, and if the selection is not accepted (step S405: NO), the process moves to step S407.

なお、「〇」とは、耳打ちに応じる旨の応答である。 Note that "〇" indicates a response to the overhearing.

ステップS406では、耳打ち応答リクエストの送信元に対してリクエストに応じる旨のテキストを送信する。 In step S406, a text indicating that the request will be accepted is sent to the sender of the earphone response request.

「文」「声」「〇」が選択されると、クライアント端末101には図10に一例を示す画面が表示され、ユーザAB館において耳打ち機能が利用されていることを示す表示となる。 When "Sentence", "Voice", and "〇" are selected, a screen, an example of which is shown in FIG. 10, is displayed on the client terminal 101, indicating that the ear tapping function is being used in the user AB building.

ステップS407では、受付部のうち「×」の選択を受け付けたかの判定をする。「×」の選択を受け付けた場合(ステップS407:YES)は処理をステップS408に移行し、受け付けていない場合(ステップS407:NO)は処理をステップ401に戻す。 In step S407, the reception unit determines whether the selection of "x" has been accepted. If the selection of "x" is accepted (step S407: YES), the process proceeds to step S408, and if not accepted (step S407: NO), the process returns to step S401.

なお、「×」とは耳打ちに応じられない旨の応答である。 Note that "x" is a response to the effect that the user cannot respond to the overhearing.

ステップS408では、耳打ち応答リクエストの送信元に対してリクエストに応じられない旨のテキストを送信する。 In step S408, a text is sent to the sender of the earphone response request to the effect that the request cannot be responded to.

ステップS409では、耳打ち応答リクエストの送信元に対して簡易応答レスポンスを送信する。 In step S409, a simple response is transmitted to the sender of the earphone response request.

以上の処理により、耳打ち応答リクエストを受信したユーザは、耳打ち相手のユーザに対してどのような方法で応答するのか/応答できるのかを伝えることが可能となる。 Through the above process, the user who has received the overhearing response request is able to tell the other user how he/she will respond/can respond.

次に図5のフローチャートを用いて耳打ち会話(聞き手)の処理について説明する。 Next, the process of overhearing conversation (listener) will be explained using the flowchart of FIG.

詳細は後述するが、図5のフローチャートを実行する際にはクライアント端末101の表示部には図10に示す画面が表示されている。すなわち、耳打ちを行うユーザ(図10においてはユーザAとユーザB)の画像はユーザBの表示領域に表示(均等に分割されて表示)され、ユーザAの表示領域にはユーザAを特定する情報(氏名など)が表示される。 Although details will be described later, when the flowchart in FIG. 5 is executed, a screen shown in FIG. 10 is displayed on the display unit of the client terminal 101. In other words, the images of the users who perform ear tapping (user A and user B in FIG. 10) are displayed in the display area of user B (displayed in an evenly divided manner), and the information identifying user A is displayed in the display area of user A. (name, etc.) will be displayed.

ステップS501では、耳打ち相手(話し手)のユーザが表示された領域に対してクリック操作やタップ操作などの所定の操作が行われているかを判定する。 In step S501, it is determined whether the user of the listening partner (speaker) has performed a predetermined operation such as a click operation or a tap operation on the displayed area.

所定の操作が行われている場合(ステップS501:YES)は、処理をステップS501に移行すい、所定の操作が行われていない場合(ステップS501:NO)は、処理をステップS503に移行する。 If the predetermined operation has been performed (step S501: YES), the process proceeds to step S501, and if the predetermined operation has not been performed (step S501: NO), the process proceeds to step S503.

ステップS502では、耳打ち相手のユーザ以外のユーザ(会議参加者)の音声のボリュームを設定値まで下げる(所定の値に設定する)。そして処理をステップS501に戻す。すなわち、所定の操作が行われている間は、耳打ち相手のユーザ以外のユーザ(会議参加者)の音声のボリュームを設定値まで下げる。 In step S502, the volume of the voices of users (conference participants) other than the user who is listening to the ear is lowered to a set value (set to a predetermined value). Then, the process returns to step S501. That is, while a predetermined operation is being performed, the volume of the voices of users (conference participants) other than the user who is listening to the other party is lowered to the set value.

ステップS503では、耳打ち相手のユーザ以外のユーザ(会議参加者)の音声のボリュームを既定値(各クライアント端末にて設定された値)にする。 In step S503, the volume of the voices of users (conference participants) other than the user who is listening to the other party is set to a default value (a value set at each client terminal).

ステップS504では、耳打ち相手のユーザから終了しクエストを受信したかを判定する。受信した場合(ステップS504:YES)は本フローチャートを終了し、受信していない場合(ステップS504:NO)は処理をステップS505に移行する。 In step S504, it is determined whether an end quest has been received from the other user. If received (step S504: YES), this flowchart ends, and if not received (step S504: NO), the process moves to step S505.

ステップS505では耳打ち相手のユーザが表示された領域に対してダブルクリック操作やダブルタップ操作などの所定の操作(耳打ちを終了する操作)が行われたかを判定する。 In step S505, it is determined whether a predetermined operation such as a double-click operation or a double-tap operation (an operation to end the ear-talking) has been performed on the area where the ear-talking partner user is displayed.

所定の操作が行われた場合(ステップS505;YES)は処理をステップS506に移行し、行われていない場合(ステップS505:NO)は処理をステップS501に戻す。 If the predetermined operation has been performed (step S505; YES), the process moves to step S506, and if the predetermined operation has not been performed (step S505: NO), the process returns to step S501.

ステップS506では耳打ち相手のユーザに対して耳打ち機能を終了する旨のリクエストを送信する。 In step S506, a request to end the ear tapping function is sent to the user who is the ear listening partner.

次に図6のフローチャートを用いてステップS308の応答待ち処理について説明する。 Next, the response waiting process in step S308 will be explained using the flowchart in FIG.

ステップS601では、耳打ち応答リクエストを送信したユーザの画像を縮小して、耳打ち相手のユーザの画像に重ねて表示する。 In step S601, the image of the user who sent the earphone response request is reduced in size and displayed superimposed on the image of the user who is the earphone user.

ステップS602では、耳打ち応答リクエストを送信したユーザの領域に当該ユーザの名称(氏名などのユーザを識別する情報)を表示する。 In step S602, the name of the user (information identifying the user such as name) is displayed in the area of the user who sent the earphone response request.

ステップS601、ステップS602の処理により、図9に一例を示す画面が表示される。 Through the processing in steps S601 and S602, a screen, an example of which is shown in FIG. 9, is displayed.

ステップS603では、耳打ち応答リクエストを送信したユーザの音声を耳打ち相手のユーザにのみ聞こえるように設定する。なお、この処理は耳打ち相手のユーザ以外の会議参加者に対して音声が聞こえないよう制御する処理であり、完全に音声を遮断するよう制御することに限られず、人間の耳には聞こえない程度の小さな音量にする処理も含むものとする。 In step S603, the voice of the user who sent the ear tapping response request is set so that only the other user can hear the voice of the user who transmitted the ear tapping response request. Note that this process is a process to control the audio from being heard by conference participants other than the user who is listening to the audio, and is not limited to controlling to completely cut off the audio, but to a level that is inaudible to human ears. It also includes processing to reduce the volume.

ステップS604では、耳打ち相手のユーザから耳打ち応答レスポンスを受信したかを判定する。受信した場合(ステップS604;YES)は処理をステップS607に移行し、受信していない場合(ステップS604:NO)は処理をステップS605に移行する。 In step S604, it is determined whether an ear tapping response response has been received from the other user. If received (step S604; YES), the process moves to step S607; if not received (step S604: NO), the process moves to step S605.

ステップS605では、耳打ち相手のユーザから簡易応答レスポンスを受信したかを判定する。受信した場合(ステップS605:YES)は処理をステップS609に移行し、受信していない場合(ステップS605:NO)は処理をステップS606に移行する。 In step S605, it is determined whether a simple response has been received from the user who is listening to the other party. If received (step S605: YES), the process moves to step S609, and if not received (step S605: NO), the process moves to step S606.

ステップS606では、耳打ち相手のユーザの領域に対して所定の操作(ダブルクリック操作やダブルタップ操作など)を受け付けたかを判定する。所定の操作を受け付けた場合(ステップS606:YES)は処理をステップS609に移行し、受け付けていない場合(ステップS606:NO)は処理をステップS604に戻す。 In step S606, it is determined whether a predetermined operation (such as a double-click operation or a double-tap operation) has been received in the area of the user who is listening to the user. If the predetermined operation is accepted (step S606: YES), the process moves to step S609, and if not accepted (step S606: NO), the process returns to step S604.

ステップS607では、耳打ち相手のユーザに対して耳打ち会話リクエストを送信する。 In step S607, a listening conversation request is sent to the user who is the listening partner.

ステップS608では、耳打ち会話(話し手)の処理を実行する。この処理の詳細は図7のフローチャートを用いて説明する。 In step S608, processing of the overheard conversation (speaker) is executed. The details of this process will be explained using the flowchart of FIG.

ステップS609では、ステップS601で実行した縮小表示を解除し、ステップS610では自分の画像を自分の領域に表示する。この処理により図8に示す画面がクライアント端末に表示されることになる。 In step S609, the reduced display executed in step S601 is canceled, and in step S610, the user's own image is displayed in the user's own area. This process causes the screen shown in FIG. 8 to be displayed on the client terminal.

ステップS611では、人の音声が会議参加者全員に聞こえるよう制御する。 In step S611, control is performed so that the human voice can be heard by all conference participants.

以上の処理により、耳打ち機能が開始されると話し手ユーザの声は耳打ち相手にのみ聞こえるようになる。また、会議画面については、どのユーザとどのユーザとが耳打ちをしているかを識別可能な表示となる。 Through the above processing, when the ear tapping function is started, the voice of the speaker user can only be heard by the other party. Furthermore, the conference screen is displayed so that it is possible to identify which user is listening.

次に図7のフローチャートを用いてステップS608の耳打ち会話(話し手)の処理について説明する。 Next, the processing of the overheard conversation (speaker) in step S608 will be explained using the flowchart of FIG.

ステップS701では、図10に示すように、聞き手ユーザの領域に聞き手と話し手の両ユーザの画像を表示する。この際、図10に示すように聞き手ユーザの領域を均等に分割して表示する等の表示形態とすることで、図9に示す応答待ちの状態と識別できるようにする。 In step S701, as shown in FIG. 10, images of both the listener and the speaker are displayed in the listener user's area. At this time, by using a display format in which the listener user's area is equally divided and displayed as shown in FIG. 10, it is possible to distinguish it from the response waiting state shown in FIG.

ステップS702では、耳打ち相手のユーザ(聞き手ユーザ)の音声を自分だけに聞こえるよう設定する。 In step S702, settings are made so that only the user can hear the voice of the other user (listener user).

ステップS703では、画面における耳打ち相手のユーザの領域に対して所定の操作(クリック操作やタップ往査等)による選択を受け付けているかを判定する。受け付けている場合(ステップS703:YES)は処理をステップS704に移行し、受け付けていない場合(ステップS703:NO)は処理をステップS705に移行する。 In step S703, it is determined whether a selection by a predetermined operation (click operation, tapping, etc.) is accepted for the area of the user who is the listening partner on the screen. If it is accepted (step S703: YES), the process moves to step S704, and if it is not accepted (step S703: NO), the process moves to step S705.

ステップS704では、耳打ち相手のユーザ以外のユーザ(会議参加者)の音声のボリュームを設定値まで下げる(所定の値に設定する)。そして処理をステップS703に戻す。すなわち、所定の操作が行われている間は、耳打ち相手のユーザ以外のユーザ(会議参加者)の音声のボリュームを設定値まで下げる。 In step S704, the volume of the voices of users (conference participants) other than the user who is listening to the ear is lowered to a set value (set to a predetermined value). Then, the process returns to step S703. That is, while a predetermined operation is being performed, the volume of the voices of users (conference participants) other than the user who is listening to the other party is lowered to the set value.

ステップS705では、耳打ち相手のユーザ以外のユーザ(会議参加者)の音声のボリュームを既定値(各クライアント端末にて設定された値)にする。 In step S705, the volume of the voices of users (conference participants) other than the user who is listening to the other party is set to a default value (a value set at each client terminal).

ステップS706では、耳打ち相手のユーザから狩猟リクエストを受信したかを判定する。受信した場合(ステップS706:YES)は処理をステップS709に移行し、受信していない場合(ステップS706:NO)は処理をステップS707に移行する。 In step S706, it is determined whether a hunting request has been received from the user who is listening. If received (step S706: YES), the process moves to step S709, and if not received (step S706: NO), the process moves to step S707.

ステップS707では、画面における耳打ち相手のユーザの領域に対して所定の操作(ダブルクリック操作やダブルタップ操作など)による選択を受け付けているか、すなわち終了リクエストを送信する操作を受け付けているかを判定する。 In step S707, it is determined whether selection by a predetermined operation (double-click operation, double-tap operation, etc.) on the area of the earphone partner user on the screen is accepted, that is, whether an operation to send an end request is accepted.

受け付けている場合(ステップS707:YES)は、処理をステップS708に移行し、受け付けていない場合(ステップS707:NO)は処理をステップS703に移行する。 If it is accepted (step S707: YES), the process moves to step S708, and if it is not accepted (step S707: NO), the process moves to step S703.

ステップS708では、耳打ち相手のユーザに対して終了リクエストを送信する。 In step S708, a termination request is sent to the user who is listening.

ステップS709では、画面表示を図9に示す画面に戻す。 In step S709, the screen display is returned to the screen shown in FIG.

ステップS710では、耳打ち相手のユーザの音声を会議参加者全員に聞こえるよう設定する。 In step S710, settings are made so that all conference participants can hear the voice of the user who is listening to the other party.

以上説明した耳打ち機能を用いることで、Web会議において所望のユーザとだけ会話をすることが可能となる。 By using the overhearing function described above, it becomes possible to have a conversation with only desired users in a web conference.

本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 The present invention can be implemented as, for example, a system, an apparatus, a method, a program, a recording medium, or the like. Specifically, the present invention may be applied to a system consisting of a plurality of devices, or may be applied to a device consisting of a single device.

また、本発明におけるプログラムは、図3~図7に示すフローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は図3~図7の処理方法をコンピュータが実行可能なプログラムが記憶されている。なお、本発明におけるプログラムは図3~図7の各装置の処理方法ごとのプログラムであってもよい。 Further, the program in the present invention is a program that allows a computer to execute the processing methods shown in the flowcharts shown in FIGS. 3 to 7, and the storage medium of the present invention is a program that allows a computer to execute the processing methods shown in is memorized. Note that the program in the present invention may be a program for each processing method of each device shown in FIGS. 3 to 7.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し、実行することによっても本発明の目的が達成されることは言うまでもない。 As described above, a recording medium recording a program that implements the functions of the embodiments described above is supplied to a system or device, and the computer (or CPU or MPU) of the system or device reads the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by reading and executing.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium will realize the novel function of the present invention, and the recording medium on which the program is recorded constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、DVD-ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることが出来る。 Examples of recording media for supplying programs include flexible disks, hard disks, optical disks, magneto-optical disks, CD-ROMs, CD-Rs, DVD-ROMs, magnetic tapes, non-volatile memory cards, ROMs, EEPROMs, and silicon A disk or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 In addition, by executing a program read by a computer, not only the functions of the above-described embodiments are realized, but also the OS (operating system) etc. running on the computer are realized based on the instructions of the program. It goes without saying that this also includes a case where part or all of the processing is performed and the functions of the embodiments described above are realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program read from the recording medium is written into the memory of the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board It goes without saying that this also includes a case where a CPU or the like provided in a function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

また、本発明は、複数の機器から構成されるシステムに適用しても、ひとつの機器から成る装置に適用しても良い。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 Moreover, the present invention may be applied to a system made up of a plurality of devices, or to a device made up of one device. It goes without saying that the present invention can also be applied to cases where the present invention is achieved by supplying a program to a system or device. In this case, by reading a recording medium storing a program for achieving the present invention into the system or device, the system or device can enjoy the effects of the present invention.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。 Further, by downloading and reading a program for achieving the present invention from a server, database, etc. on a network using a communication program, the system or device can enjoy the effects of the present invention. Note that all configurations that are combinations of the above-described embodiments and their modifications are also included in the present invention.

101 クライアント端末
102 サーバ装置
110 ネットワーク
101 Client terminal 102 Server device 110 Network

Claims (11)

第1のユーザ、第2のユーザ、第3のユーザが参加するウェブ会議において、
第1のユーザから第2のユーザに対する特定会話の要求を受け付ける要求受付手段と、
前記要求受付手段で受け付けた特定会話の要求の要求先である第2のユーザから、音声またはテキストによる応答を含む対応方法の中から、当該特定会話への対応方法の選択を受け付ける選択受付手段と、
前記選択受付手段により音声による応答を受け付けた場合に、第1のユーザと第2のユーザとを相互に通話可能とし、第3のユーザの音声を第1のユーザ及び第2のユーザに配信し、第1のユーザと第2のユーザの音声の第3のユーザへの配信を制御する制御手段と、
を備えることを特徴とする情報処理システム。
In a web conference in which a first user, a second user, and a third user participate,
request receiving means for receiving a request for a specific conversation from a first user to a second user;
selection receiving means for receiving a selection of a response method for the specific conversation from among response methods including voice or text responses from a second user who is the requesting party for the request for the specific conversation received by the request receiving section; ,
When a voice response is accepted by the selection acceptance means, the first user and the second user are enabled to talk to each other, and the voice of the third user is distributed to the first user and the second user. , a control means for controlling the distribution of the voices of the first user and the second user to the third user ;
An information processing system comprising:
前記制御手段は、前記第1のユーザまたは前記第2のユーザから所定の操作を受け付けた場合、前記第3のユーザの音声の音量を下げて、前記第1のユーザおよび前記第2のユーザに対して配信することを特徴とする請求項に記載の情報処理システム。 When the control means receives a predetermined operation from the first user or the second user, the control means lowers the volume of the third user's voice and provides the control means to the first user and the second user. The information processing system according to claim 1 , characterized in that the information processing system is distributed to. ウェブ会議に参加するユーザの映像をそれぞれのユーザが利用する情報処理装置に表示するよう制御する表示制御手段を備え、
前記表示制御手段は、前記第1のユーザおよび第2のユーザを識別可能に表示するよう制御することを特徴とする請求項1または2に記載の情報処理システム。
comprising display control means for controlling display of images of users participating in the web conference on information processing devices used by each user;
3. The information processing system according to claim 1, wherein the display control means controls to display the first user and the second user in a distinguishable manner.
前記表示制御手段は、第1のユーザから第2のユーザに対する特定会話の要求を受け付けた場合、第2のユーザの表示領域内に第1のユーザを縮小して共に表示し、第1のユーザ及び第2のユーザの特定会話の進行中には、第2のユーザの表示領域を分割して第1のユーザと第2のユーザとを共に表示するよう制御することを特徴とする請求項3に記載の情報処理システム。When the display control means receives a request for a specific conversation from the first user to the second user, the display control means reduces the size of the first user and displays the first user within the display area of the second user. and while the second user's specific conversation is in progress, the second user's display area is divided to display the first user and the second user together. The information processing system described in . 前記表示制御手段は、第1のユーザから第2のユーザに対する特定会話の要求を受け付けた場合、第1のユーザの表示領域には第1のユーザの映像を表示せず、当該第1のユーザの表示領域に第1のユーザを識別する情報を表示するよう制御する請求項4に記載の情報処理システム。When the display control means receives a request for a specific conversation from the first user to the second user, the display control means does not display the image of the first user in the display area of the first user, and displays the image of the first user. 5. The information processing system according to claim 4, wherein information for identifying the first user is displayed in the display area of the information processing system. 前記表示制御手段は、前記要求受付手段で受け付けた特定会話の要求の要求先である前記第2のユーザから、音声またはテキストによる応答を含む特定会話への対応方法の選択を受け付ける場合、対応方法の選択肢を第2のユーザの画面に識別可能に表示するよう制御する請求項3乃至5のいずれか1項に記載の情報処理システム。When receiving a selection of a response method for a specific conversation, including a voice or text response, from the second user who is the request destination for the specific conversation request received by the request receiving device, the display control device selects a response method. The information processing system according to any one of claims 3 to 5, wherein the information processing system is controlled to display the options on the second user's screen in a discernible manner. 前記選択肢には、さらに、特定会話の要求に応じられない旨を示す選択肢が含まれることを特徴とする請求項6に記載の情報処理システム。7. The information processing system according to claim 6, wherein the options further include an option indicating that the specific conversation request cannot be met. 前記選択肢は、ユーザによる画面へのタッチ操作が行われた位置の周囲に表示され、前記ユーザによるフリック操作により対応方法の選択を受け付けることを特徴とする請求項6または7に記載の情報処理システム。The information processing system according to claim 6 or 7, wherein the options are displayed around a position where the user performs a touch operation on the screen, and the selection of a response method is accepted by a flick operation by the user. . 前記表示制御手段は、前記選択受付手段によりテキストによる応答の選択を受け付けた場合、前記第1のユーザおよび第2のユーザとのチャット画面を表示するよう制御することを特徴とする請求項乃至のいずれか1項に記載の情報処理システム。 3. The display control means controls to display a chat screen with the first user and the second user when the selection reception means accepts the selection of a text response. 8. The information processing system according to any one of 8 . 第1のユーザ、第2のユーザ、第3のユーザが参加するウェブ会議において、
情報処理システムの要求受付手段が、第1のユーザから第2のユーザに対する特定会話の要求を受け付ける要求受付工程と、
前記情報処理システムの選択受付手段が、前記要求受付工程で受け付けた特定会話の要求の要求先である第2のユーザから、音声またはテキストによる応答を含む対応方法の中から、当該特定会話への対応方法の選択を受け付ける選択受付工程と、
前記情報処理システムの制御手段が、前記選択受付工程により音声による応答を受け付けた場合に、第1のユーザと第2のユーザとを相互に通話可能とし、第3のユーザの音声を第1のユーザ及び第2のユーザに配信し、第1のユーザと第2のユーザの音声の第3のユーザへの配信を制御する制御工程と、
を備えることを特徴とする情報処理方法。
In a web conference in which a first user, a second user, and a third user participate,
a request receiving step in which the request receiving means of the information processing system receives a request for a specific conversation from a first user to a second user;
The selection receiving means of the information processing system selects a response method for the specific conversation from among response methods including a voice or text response from the second user who is the requesting party for the specific conversation request received in the request receiving step. a selection reception step of accepting a selection of a response method;
When the control means of the information processing system receives a voice response in the selection reception step, the control means enables the first user and the second user to communicate with each other, and transmits the third user's voice to the first user. a control step of distributing the audio to the user and the second user, and controlling the distribution of the audio of the first user and the second user to the third user;
An information processing method comprising:
コンピュータを、請求項1乃至のいずれか1項に記載の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means according to any one of claims 1 to 9 .
JP2021213726A 2021-12-28 2021-12-28 Information processing system, information processing method, program Active JP7421134B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021213726A JP7421134B2 (en) 2021-12-28 2021-12-28 Information processing system, information processing method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021213726A JP7421134B2 (en) 2021-12-28 2021-12-28 Information processing system, information processing method, program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024001887A Division JP2024054871A (en) 2024-01-10 Information processing system, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2023097546A JP2023097546A (en) 2023-07-10
JP7421134B2 true JP7421134B2 (en) 2024-01-24

Family

ID=87071614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021213726A Active JP7421134B2 (en) 2021-12-28 2021-12-28 Information processing system, information processing method, program

Country Status (1)

Country Link
JP (1) JP7421134B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005513875A (en) 2001-12-15 2005-05-12 トムソン ライセンシング ソシエテ アノニム Method and system for providing a private conversation channel in a video conferencing system
US20120017149A1 (en) 2010-07-15 2012-01-19 Jeffrey Lai Video whisper sessions during online collaborative computing sessions
KR101339944B1 (en) 2012-08-06 2013-12-10 (주)디앤티 Video conference system with text message function using keyboard
US20140310680A1 (en) 2013-04-15 2014-10-16 Massively Parallel Technologies, Inc. System And Method For Collaboration

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005513875A (en) 2001-12-15 2005-05-12 トムソン ライセンシング ソシエテ アノニム Method and system for providing a private conversation channel in a video conferencing system
US20120017149A1 (en) 2010-07-15 2012-01-19 Jeffrey Lai Video whisper sessions during online collaborative computing sessions
KR101339944B1 (en) 2012-08-06 2013-12-10 (주)디앤티 Video conference system with text message function using keyboard
US20140310680A1 (en) 2013-04-15 2014-10-16 Massively Parallel Technologies, Inc. System And Method For Collaboration

Also Published As

Publication number Publication date
JP2023097546A (en) 2023-07-10

Similar Documents

Publication Publication Date Title
KR102020335B1 (en) Operation Method For Message Function And Device supporting the same
US11444990B1 (en) System and method of enabling a non-host, participant-initiated breakout session in a videoconferencing system utilizing a virtual space, and simultaneously displaying a session view of a videoconferencing session and the participant-initiated breakout session
CN107005550A (en) Related communication model selection
WO2023160668A1 (en) Session message transceiving method and apparatus, electronic device and readable storage medium
JP2017111643A (en) Web conference system, information processing method, and program
CN113271376A (en) Communication control method, electronic equipment and earphone
JP7421134B2 (en) Information processing system, information processing method, program
JP2017112601A (en) Information processing apparatus, information processing method, and program
KR20170025273A (en) Method and apparatus for managing temporary floor in multipoint video communication
JP2024054871A (en) Information processing system, information processing method, and program
JP2018036688A (en) Information processing device, server device, information processing system, control method thereof, and program
JP6703259B2 (en) Information processing system, conference server, control method thereof, and program
JP2020144725A (en) Information processing system and control method thereof
JP5994898B2 (en) Information processing apparatus, information processing apparatus control method, and program
US20230379435A1 (en) Meeting management apparatus, meeting management method, and non-transitory computer-readable medium
JP2016163111A (en) Information processing device, information processing method, and program
JP2020194343A (en) Information processing system, information processing device, control method of information processing system, and program
US20230262168A1 (en) Meeting management apparatus, meeting management method and non-transitory computer-readable medium
JP2005190317A (en) Network conference server, network conference method and its program
JP7464853B2 (en) Information processing device, information processing method, and program
US11722640B2 (en) Application processing method for providing group video call
JP6886750B1 (en) Online meeting support device, online meeting support program, and online meeting support system
JP7143874B2 (en) Information processing device, information processing method and program
KR102178924B1 (en) Method and apparatus for providing performance of contents using virtual reality
JP7353402B2 (en) Terminals and programs

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R151 Written notification of patent or utility model registration

Ref document number: 7421134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151