JP2023131309A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2023131309A
JP2023131309A JP2022035980A JP2022035980A JP2023131309A JP 2023131309 A JP2023131309 A JP 2023131309A JP 2022035980 A JP2022035980 A JP 2022035980A JP 2022035980 A JP2022035980 A JP 2022035980A JP 2023131309 A JP2023131309 A JP 2023131309A
Authority
JP
Japan
Prior art keywords
user
area
information processing
processing system
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022035980A
Other languages
Japanese (ja)
Inventor
暁 竹林
Akira Takebayashi
綱希 吉川
Koki Yoshikawa
尚聡 藤原
Naoaki Fujiwara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tento Co Ltd
Original Assignee
Tento Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tento Co Ltd filed Critical Tento Co Ltd
Priority to JP2022035980A priority Critical patent/JP2023131309A/en
Publication of JP2023131309A publication Critical patent/JP2023131309A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information processing system, etc., with which it is easy for a user to overview the communication being conducted on-line.SOLUTION: According to one embodiment of the present invention, an information processing system is provided. This information processing system comprises a control unit. The control unit is constituted so as to execute each of the steps below. In a first acceptance step, a log-in request for logging-in to a space where on-line conversation is possible is accepted from a first user. In a display control step, when the log-in request is accepted, a first region where the first user exists and a second region differentiated from the first region are respectively displayed as at least a partial region in the space, in such a manner as to be visually recognizable by the first user. Here, in the second region, the atmosphere of conversation in the second region is displayed so as to be visually recognizable by the first user.SELECTED DRAWING: Figure 1

Description

特許法第30条第2項適用申請有り 令和3年10月1日に自社ウェブサイトのhttps://ebitendons.tento-net.com/にて発表Application for application of Article 30, Paragraph 2 of the Patent Act has been filed.On October 1, 2021, the company's website https://ebitendons. tento-net. Announced at com/

本発明は、情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.

近年、インターネット上でコミュニケーションをとる機会が増加し、これに伴い様々な技術開拓がなされている。たとえば、特許文献1には、ウェブ会議を実行するにあたり、ノイズ音量に応じて容易に通信方法を選択可能なウェブ会議システムが示されている。 In recent years, opportunities to communicate over the Internet have increased, and various technologies have been developed accordingly. For example, Patent Document 1 discloses a web conference system in which a communication method can be easily selected depending on the noise volume when conducting a web conference.

特開2019-117998号公報JP 2019-117998 Publication

ところで、ウェブ会議等を実行するにあたって、参加人数が多くなる場合はメンバーを少人数に区切り、グループ分けをした上で議論を促すことがある。しかしながら、自身の参加するグループ以外の議論の様子を把握することが有効であるというケースも少なくない。 By the way, when holding a web conference or the like, if there are a large number of participants, the members may be divided into small groups to encourage discussion. However, there are many cases where it is effective to keep track of discussions in groups other than the one you are participating in.

本発明では上記事情に鑑み、ユーザがオンライン上で行われているコミュニケーションを俯瞰しやすい情報処理システム等を提供することとした。 In view of the above-mentioned circumstances, the present invention provides an information processing system and the like that allows users to easily view communications taking place online.

本発明の一態様によれば、情報処理システムが提供される。この情報処理システムは、制御部を備える。制御部は、次の各ステップを実行するように構成される。第1の受付ステップでは、オンラインでの会話が可能なスペースへのログインを行うログイン要求を第1のユーザより受け付ける。表示制御ステップでは、ログイン要求を受け付けたときに、第1のユーザの存在する第1の領域と、第1の領域とは区別された第2の領域とを、それぞれスペース内の少なくとも一部の領域として第1のユーザが視認可能に表示させる。ここで、第2の領域には、第2の領域内での会話の様子が、第1のユーザが視認可能に表示される。 According to one aspect of the present invention, an information processing system is provided. This information processing system includes a control section. The control unit is configured to perform the following steps. In the first reception step, a login request for logging into a space where online conversation is possible is received from the first user. In the display control step, when the login request is received, a first area in which the first user exists and a second area that is distinct from the first area are each configured to control at least a portion of the space. The area is displayed so as to be visible to the first user. Here, in the second area, the state of the conversation within the second area is displayed so that the first user can view it.

上記態様によれば、ユーザがオンライン上で行われているコミュニケーションを俯瞰しやすい情報処理システム等が提供される。 According to the above aspect, an information processing system or the like is provided that allows a user to easily view communications taking place online.

本実施形態に係る情報処理システム1を表す構成図である。FIG. 1 is a configuration diagram showing an information processing system 1 according to the present embodiment. 第1のユーザ端末2のハードウェア構成を示すブロック図である。2 is a block diagram showing the hardware configuration of a first user terminal 2. FIG. サーバ3のハードウェア構成を示すブロック図である。3 is a block diagram showing the hardware configuration of a server 3. FIG. サーバ3における制御部33等によって実現される機能を示すブロック図である。2 is a block diagram showing functions realized by a control unit 33 and the like in the server 3. FIG. 第1のユーザ端末2に表示されるログイン画面の一例である。This is an example of a login screen displayed on the first user terminal 2. 第1のユーザ端末2に表示される表示画面の一例である。This is an example of a display screen displayed on the first user terminal 2. 第2のユーザを管理するための機能を説明するための図である。FIG. 7 is a diagram for explaining a function for managing a second user. スペースについての変形例を説明するための図である。It is a figure for explaining the modification regarding space.

以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。 Embodiments of the present invention will be described below with reference to the drawings. Various features shown in the embodiments described below can be combined with each other.

ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。 By the way, the program for implementing the software appearing in this embodiment may be provided as a non-transitory computer-readable recording medium, or may be downloaded from an external server. The program may be provided in a manner that allows the program to be started on an external computer and the function thereof is realized on the client terminal (so-called cloud computing).

また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。 Furthermore, in this embodiment, the term "unit" may include, for example, a combination of hardware resources implemented by circuits in a broad sense and software information processing that can be concretely implemented by these hardware resources. . In addition, various types of information are handled in this embodiment, and these information include, for example, the physical value of a signal value representing voltage and current, and the signal value as a binary bit collection consisting of 0 or 1. It is expressed by high and low levels or quantum superposition (so-called quantum bits), and communication and calculations can be performed on circuits in a broad sense.

また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 Further, a circuit in a broad sense is a circuit realized by at least appropriately combining a circuit, a circuit, a processor, a memory, and the like. That is, application specific integrated circuits (ASIC), programmable logic devices (for example, simple programmable logic devices (SPLD), complex programmable logic devices (COMPLEX), etc. Programmable Logic Device (CPLD), and field This includes a field programmable gate array (FPGA) and the like.

1.ハードウェア構成
本節では、本実施形態のハードウェア構成について説明する。
1. Hardware Configuration This section describes the hardware configuration of this embodiment.

1.1 情報処理システム1
図1は、本実施形態に係る情報処理システム1を表す構成図である。一態様において、情報処理システム1は第1のユーザ端末2と、サーバ3と、第2のユーザ端末4とを備え、これらがネットワーク11を通じて接続されている。これらの構成要素についてさらに説明する。なお、情報処理システム1に例示されるシステムとは、1つ又はそれ以上の装置又は構成要素からなるものである。したがって、サーバ3単体であってもシステムの一例となる。また、本実施形態に係る情報処理システム1は、第1のユーザによるスペースへのログインを行うログイン要求の受け付けと、所定の視覚情報を第1のユーザが視認可能に表示させる制御とを実行するものであるが、このログイン要求と、視覚情報の表示は必ずしも1つの第1のユーザ端末2で行われていなくてもよい。たとえば、ログイン要求のみを第1のユーザ端末2から受け付け、図示しない他の画像表示装置等に所定の視覚情報を表示させるように構成することも可能である。
1.1 Information processing system 1
FIG. 1 is a configuration diagram showing an information processing system 1 according to the present embodiment. In one embodiment, the information processing system 1 includes a first user terminal 2, a server 3, and a second user terminal 4, which are connected through a network 11. These components will be further explained. Note that a system exemplified by the information processing system 1 is composed of one or more devices or components. Therefore, even the server 3 alone is an example of a system. Further, the information processing system 1 according to the present embodiment accepts a login request for logging into a space by a first user, and performs control to display predetermined visual information so that the first user can view it. However, this login request and the display of visual information do not necessarily have to be performed by one first user terminal 2. For example, it is also possible to configure the system so that only a login request is accepted from the first user terminal 2 and predetermined visual information is displayed on another image display device (not shown) or the like.

1.2 第1のユーザ端末2
第1のユーザ端末2は、典型的にはオンラインでの会話が可能なスペースにログインしようとする第1のユーザの所有する端末である。図2は、第1のユーザ端末2のハードウェア構成を示すブロック図である。
第1のユーザ端末2は、通信部21と、記憶部22と、制御部23と、表示部24と、入力部25と、音声出力部26とを有し、これらの構成要素が第1のユーザ端末2の内部において通信バス20を介して電気的に接続されている。通信部21、記憶部22及び制御部23の説明は、後述の、サーバ3における通信部31、記憶部32及び制御部33と略同様のため省略する。
1.2 First user terminal 2
The first user terminal 2 is typically a terminal owned by a first user who wishes to log into a space where online conversations are possible. FIG. 2 is a block diagram showing the hardware configuration of the first user terminal 2. As shown in FIG.
The first user terminal 2 has a communication section 21, a storage section 22, a control section 23, a display section 24, an input section 25, and an audio output section 26, and these components are connected to the first user terminal 2. It is electrically connected within the user terminal 2 via a communication bus 20 . Descriptions of the communication unit 21, storage unit 22, and control unit 23 will be omitted because they are substantially the same as the communication unit 31, storage unit 32, and control unit 33 in the server 3, which will be described later.

表示部24は、例えば、第1のユーザ端末2の筐体に含まれるものであってもよいし、外付けされるものであってもよい。表示部24は、ユーザが操作可能なグラフィカルユーザインターフェース(Graphical User Interface:GUI)の画面を表示する。これは例えば、CRTディスプレイ、液晶ディスプレイ、有機ELディスプレイ及びプラズマディスプレイ等の表示デバイスを、第1のユーザ端末2の種類に応じて使い分けて実施することが好ましい。 The display unit 24 may be included in the casing of the first user terminal 2, or may be externally attached, for example. The display unit 24 displays a graphical user interface (GUI) screen that can be operated by the user. This is preferably implemented by using display devices such as a CRT display, a liquid crystal display, an organic EL display, and a plasma display depending on the type of the first user terminal 2, for example.

入力部25は、第1のユーザ端末2の筐体に含まれるものであってもよいし、外付けされるものであってもよい。例えば、入力部25は、表示部24と一体となってタッチパネルとして実施されてもよい。タッチパネルであれば、ユーザは、タップ操作、スワイプ操作等を入力することができる。もちろん、タッチパネルに代えて、スイッチボタン、マウス、QWERTYキーボード等を採用してもよい。すなわち、入力部25がユーザによってなされた操作入力を受け付ける。当該入力が命令信号として、通信バス20を介して制御部23に転送され、制御部23が必要に応じて所定の制御や演算を実行しうる。 The input unit 25 may be included in the housing of the first user terminal 2 or may be externally attached. For example, the input unit 25 may be integrated with the display unit 24 and implemented as a touch panel. With a touch panel, the user can input tap operations, swipe operations, and the like. Of course, a switch button, a mouse, a QWERTY keyboard, etc. may be used instead of the touch panel. That is, the input unit 25 receives operation inputs made by the user. The input is transferred as a command signal to the control unit 23 via the communication bus 20, and the control unit 23 can perform predetermined control or calculation as necessary.

音声出力部26は、例えば、第1のユーザ端末2の筐体に含まれるものであってもよいし、外付けされるものであってもよい。音声出力部26は、ユーザが認識可能な音声を出力する。音声出力部26は、無指向性スピーカーであってもよいし、指向性スピーカーであってもよいし、これらの両方を有していてもよい。 The audio output unit 26 may be included in the housing of the first user terminal 2, or may be externally attached, for example. The audio output unit 26 outputs audio that can be recognized by the user. The audio output unit 26 may be an omnidirectional speaker, a directional speaker, or both.

1.3 サーバ3
図3は、サーバ3のハードウェア構成を示すブロック図である。サーバ3は、通信部31と、記憶部32と、制御部33とを有し、これらの構成要素がサーバ3の内部において通信バス30を介して電気的に接続されている。各構成要素についてさらに説明する。
1.3 Server 3
FIG. 3 is a block diagram showing the hardware configuration of the server 3. As shown in FIG. The server 3 includes a communication section 31, a storage section 32, and a control section 33, and these components are electrically connected via a communication bus 30 inside the server 3. Each component will be further explained.

通信部31は、USB、IEEE1394、Thunderbolt(登録商標)、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、3G/LTE/5G等のモバイル通信、BLUETOOTH(登録商標)通信等を必要に応じて含めてもよい。すなわち、これら複数の通信手段の集合として実施することがより好ましい。すなわち、サーバ3は、通信部31を介して、第1のユーザ端末2や第2のユーザ端末4とネットワーク11を介して種々の情報を通信する。 Although the communication unit 31 is preferably a wired communication means such as USB, IEEE1394, Thunderbolt (registered trademark), wired LAN network communication, etc., it is also suitable for wireless LAN network communication, mobile communication such as 3G/LTE/5G, or BLUETOOTH (registered trademark). Communication etc. may be included as necessary. That is, it is more preferable to implement it as a set of these plurality of communication means. That is, the server 3 communicates various information with the first user terminal 2 and the second user terminal 4 via the network 11 via the communication unit 31 .

記憶部32は、前述の記載により定義される様々な情報を記憶する。これは、例えば、制御部33によって実行されるサーバ3に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、又は、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。特に、記憶部32は、制御部33によって実行されるサーバ3に係る種々のプログラム等を記憶している。 The storage unit 32 stores various information defined by the above description. This may be used, for example, as a storage device such as a solid state drive (SSD) that stores various programs related to the server 3 executed by the control unit 33, or as a temporary storage device related to program calculations. It can be implemented as a memory such as a random access memory (RAM) that stores information (arguments, arrays, etc.). Alternatively, a combination of these may be used. In particular, the storage unit 32 stores various programs related to the server 3 that are executed by the control unit 33.

制御部33は、サーバ3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、サーバ3に係る種々の機能を実現する。すなわち、記憶部32に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部33によって具体的に実現されることで、制御部33に含まれる各機能部として実行されうる。これらについては、2.節においてさらに詳述する。なお、制御部33は単一であることに限定されず、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。 The control unit 33 processes and controls the overall operation related to the server 3. The control unit 33 is, for example, a central processing unit (CPU) not shown. The control unit 33 implements various functions related to the server 3 by reading predetermined programs stored in the storage unit 32. That is, information processing by software stored in the storage unit 32 is specifically implemented by the control unit 33, which is an example of hardware, and can be executed as each functional unit included in the control unit 33. Regarding these, 2. Further details are provided in Sec. Note that the control section 33 is not limited to a single control section, and may be implemented so as to have a plurality of control sections 33 for each function. It may also be a combination thereof.

1.4 第2のユーザ端末4
第2のユーザ端末4は、オンラインでの通話が可能なスペースにログインしようとする第2のユーザの所有する端末である。この第2のユーザ端末4のハードウェア構成は、典型的には前述した第1のユーザ端末2のハードウェア構成と同様であり、ここでの説明を省略する。
1.4 Second user terminal 4
The second user terminal 4 is a terminal owned by a second user who wants to log into a space where online calls are possible. The hardware configuration of this second user terminal 4 is typically the same as the hardware configuration of the first user terminal 2 described above, and a description thereof will be omitted here.

2.機能構成
本節では、本実施形態の機能構成について説明する。前述の通り、記憶部32に記憶されているソフトウェアによる情報処理がハードウェアの一例である制御部33によって具体的に実現されることで、制御部33に含まれる各機能部として実行されうる。
2. Functional Configuration This section describes the functional configuration of this embodiment. As described above, the information processing by the software stored in the storage unit 32 is specifically implemented by the control unit 33, which is an example of hardware, and can be executed as each functional unit included in the control unit 33.

図4は、サーバ3における制御部33等によって実現される機能を示すブロック図である。具体的には、情報処理システム1の一例であるサーバ3は、受付部331と、表示制御部332とを備えるものである。なお、図4にはサーバ3に備えられた機能として、音声制御部333と記憶管理部334を備えた態様を示している。 FIG. 4 is a block diagram showing functions realized by the control unit 33 and the like in the server 3. Specifically, the server 3, which is an example of the information processing system 1, includes a reception section 331 and a display control section 332. Note that FIG. 4 shows an embodiment in which the server 3 includes an audio control section 333 and a storage management section 334 as functions provided therein.

受付部331は、第1のユーザから種々の要求や操作を受け付ける。この受け付ける要求や操作の詳細については後にさらに詳述する。 The reception unit 331 receives various requests and operations from the first user. Details of the accepted requests and operations will be described in more detail later.

表示制御部332は、種々の表示情報を生成して、ユーザが視認可能な表示内容を制御するように構成される。なお、表示情報とは、画面、画像、アイコン、テキスト等といった、ユーザが視認可能な態様で生成された視覚情報そのものでもよいし、例えば各種端末に画面、画像、アイコン、テキスト等の視覚情報を表示させるためのレンダリング情報であってもよい。 The display control unit 332 is configured to generate various display information and control display content that can be viewed by the user. Note that the display information may be visual information itself such as a screen, image, icon, text, etc. that is generated in a form that is visible to the user, or, for example, visual information such as a screen, image, icon, text, etc. on various terminals. It may also be rendering information for display.

音声制御部333は、音声出力が可能な構成(ハードウェア、装置等)に対して、種々の音声を発生させるように制御する。 The audio control unit 333 controls a configuration (hardware, device, etc.) capable of outputting audio to generate various types of audio.

記憶管理部334は、本実施形態の情報処理システム1に係るスペースにおいて記憶すべき種々の情報について管理するように構成される。典型的には、記憶管理部334は、ユーザの属性や個人情報、スペース内での入力・出力事項を記憶領域に記憶させるように構成される。この記憶領域は、たとえばサーバ3の記憶部32が例示されるが、その他、第1のユーザ端末2に備えられる記憶部22、第2のユーザ端末4に備えられる記憶部であってもよい。また、この記憶領域は必ずしも情報処理システム1のシステム内である必要はなく、記憶管理部334は、種々の情報を外部記憶装置などに記憶するように管理することもできる。 The storage management unit 334 is configured to manage various information to be stored in the space related to the information processing system 1 of this embodiment. Typically, the storage management unit 334 is configured to store user attributes, personal information, and input/output items within the space in a storage area. This storage area is exemplified by the storage unit 32 of the server 3, but may also be the storage unit 22 provided in the first user terminal 2 or the storage unit provided in the second user terminal 4. Further, this storage area does not necessarily need to be within the information processing system 1, and the storage management unit 334 can also manage to store various information in an external storage device or the like.

3.情報処理方法
本節では、前述した情報処理システム1の実行する情報処理方法の各ステップについて説明する。
3. Information Processing Method In this section, each step of the information processing method executed by the information processing system 1 described above will be explained.

すなわち、本実施形態の情報処理システム1は、以下の各ステップを実行する。
(ステップ1)受付部331が、オンラインでの会話が可能なスペースへのログインを行うログイン要求を第1のユーザより受け付ける。
(ステップ2)表示制御部332が、ログイン要求を受け付けたときに、第1のユーザの存在する第1の領域と、第1の領域とは区別された第2の領域とを、それぞれスペース内の少なくとも一部の領域として第1のユーザが視認可能に表示させる。ここで、第2の領域には、第2の領域内での会話の様子が、第1のユーザが視認可能に表示される。
以下、これら各工程について、第1のユーザ端末2に表示される画面を参照しつつ説明する。
なお、本実施形態の情報処理システム1の適用シーンは、ビジネス、プライベート、地域コミュニティ、その他種々の場合であってよいが、以下では教育現場に取り入れたものを例に挙げて説明する。
That is, the information processing system 1 of this embodiment executes the following steps.
(Step 1) The reception unit 331 receives a login request from a first user to log into a space where online conversation is possible.
(Step 2) When the display control unit 332 receives the login request, the display control unit 332 separates the first area where the first user is present and the second area that is distinct from the first area into the respective spaces. is displayed so that the first user can visually recognize it as at least a part of the area. Here, in the second area, the state of the conversation within the second area is displayed so that the first user can view it.
Each of these steps will be described below with reference to the screen displayed on the first user terminal 2.
Note that the information processing system 1 of this embodiment may be applied to various situations such as business, private life, local community, and others, but below, an example in which the information processing system 1 is applied to an educational field will be described.

まず、(ステップ1)について説明する。本ステップでは、サーバ3の受付部331が、第1のユーザからのログイン要求を受け付けるが、この受け付けは典型的には第1のユーザ端末2に示されるログイン画面に対する操作を介して行われる。図5は、第1のユーザ端末2に表示されるログイン画面の一例である。 First, (Step 1) will be explained. In this step, the reception unit 331 of the server 3 accepts a login request from the first user, and this acceptance is typically performed through an operation on the login screen displayed on the first user terminal 2. FIG. 5 is an example of a login screen displayed on the first user terminal 2.

図5に示される表示画面Dでは、種々の入力フォームと、入室操作を行うボタンなどが表示されている。まず、入力フォームF11では、スペースにログインしようとする際のログイン名を入力することができる。また、入力フォームF12、入力フォームF13および入力フォームF14では、スペースにログインする際に用いるカメラ、マイク、スピーカーを設定することができる。
なお、スペースにログインする際にマイクが正常に作動するかをテストすることができるように、表示画面DにはオブジェクトOBJ11が設けられている。すなわち、表示画面Dに接したユーザがマイクに対して発声することで、このオブジェクトOBJ11として示したシークバーが作動し、スペースにログインした際に、相手に伝わる音声の出力度合いをログイン者に示すことができる。
なお、表示画面Dに示されるボタンBT11を押下した場合は、自身の発声した内容がミュートとなるように構成されている。
On the display screen D shown in FIG. 5, various input forms and buttons for performing room entry operations are displayed. First, in the input form F11, it is possible to input the login name used when attempting to log into the space. Furthermore, in the input form F12, the input form F13, and the input form F14, it is possible to set the camera, microphone, and speaker used when logging into the space.
Note that an object OBJ11 is provided on the display screen D so that it is possible to test whether the microphone operates normally when logging into the space. In other words, when the user who is in contact with the display screen D speaks into the microphone, the seek bar shown as this object OBJ11 is activated, and when the user logs into the space, the degree of output of the voice transmitted to the other party is shown to the logged-in user. I can do it.
Note that when the user presses the button BT11 shown on the display screen D, the user's own voice is muted.

その他、ユーザが用いるスピーカーが正常に作動するかをテストすることができるように、ボタンBT13が設けられている。すなわち、表示画面Dに接したユーザがこのボタンBT13をクリック操作等で押下することによって、所定の音声などが発生するように構成されており、これにより、ユーザがスペースにログインしている際に、相手が発声した内容を自身が認識できるかを事前にチェックすることができる。 In addition, a button BT13 is provided so that the user can test whether the speaker used is working properly. In other words, when the user who comes into contact with the display screen D presses this button BT13 by clicking, etc., a predetermined sound etc. is generated, so that when the user is logged in to the space, , you can check in advance whether you can recognize what the other person is saying.

また、表示画面Dは、カメラが正常に作動しているかをテストするために、ログインしようとするユーザ自身を映し出す領域R100が表示されるように構成されている。この領域R100は入力フォームF12で設定したカメラが撮像した視覚情報を表示するものであり、ログインしようとするユーザが、自身が表示されるかをチェックするため用いられる。なお、表示画面Dに示されるボタンBT12を押下した場合は、カメラの撮像した内容の表示をオフとすることができる。 Furthermore, the display screen D is configured to display an area R100 in which the user attempting to log in is displayed in order to test whether the camera is operating normally. This area R100 is for displaying visual information captured by the camera set in the input form F12, and is used by a user attempting to log in to check whether he or she is displayed. Note that if the button BT12 shown on the display screen D is pressed, the display of the content captured by the camera can be turned off.

種々の情報を入力したユーザは、表示画面Dに示されるボタンBT15を押下することにより、スペースへのログイン要求を行うことができる。なお、「観覧モード」と表示されているボタンBT14を押下する場合は、上述のログイン要求に加え、自身の存在がスペース内の他のユーザから認識されないようにする秘匿要求をさらに行うことができる。なお、この秘匿要求を行った場合の効果は追って説明することとする。
以上のようにして、スペースへのログインを行うログイン要求を第1のユーザが行うことができ、サーバ3の受付部331がこれを受け付けることで、(ステップ1)が達成される。
The user who has input various information can request login to the space by pressing button BT15 shown on display screen D. Furthermore, when pressing the button BT14 that is displayed as "viewing mode", in addition to the above-mentioned login request, the user can also make a confidentiality request to prevent his/her presence from being recognized by other users in the space. . Note that the effect of making this confidentiality request will be explained later.
As described above, the first user can make a login request to log into the space, and the reception unit 331 of the server 3 accepts the request, thereby achieving (Step 1).

続いて、(ステップ2)について説明する。本ステップでは所定の視覚情報が第1のユーザが視認可能に表示される。この視覚情報について図6を用いて説明する。 Next, (Step 2) will be explained. In this step, predetermined visual information is displayed so that the first user can view it. This visual information will be explained using FIG. 6.

図6は、第1のユーザ端末2に表示される表示画面の一例である。この表示画面Dにはオンラインでの会話が可能なスペースSP1と、種々の制御を行うことが可能なオブジェクトが並んで表示されたコントロール領域CT1とが示されている。
本実施形態において、ログインした第1のユーザは、スペースSP1の中にある領域R1内に表示される(図6においては、「ABC」が第1のユーザのログイン名である。この第1のユーザの存在する領域R1を「第1のテーブル」、「第1のルーム」や「第1の領域」と称してもよい。)。
このスペースSP1内においては、上述した領域R1の他に、領域R2~R6が表示されている(なお、この領域R2~R6を総じて「第2のテーブル」、「第2のルーム」や「第2の領域」と称してもよい。)。この第1の領域と、第2の領域との各領域には、第1のユーザ以外のユーザがログインし、所定の領域に存在していることが表示される。これに加え、この領域R2~R6では、典型的にはその領域で行われている会話の様子が表示され、スペースSP1内に存在する第1のユーザは、他の領域(領域R2~R6)内での会話の様子を視認することができる。ここで、会話の様子が視認できるとは、具体的には第2の領域に存在しているユーザの顔が表示され、当該ユーザが発言していることが視認できる態様や、また第2の領域で共有している画面が第1のユーザに認識可能に表示されている様子が視認できる態様が包含される。ここで、会話の様子の表示は動画として表示されるものであってもよいし、静止画を一定の時間間隔で撮像し、撮像された静止画を一定の時間間隔で表示させるものであってもよい。
また、本実施形態においては、第1の領域と第2の領域とを互いに識別可能に表示させることが好ましく、これにより、第1のユーザが、自身の存在する領域を認識させやすくする。具体的には、第1の領域と第2の領域とに異なる色を表示することや、異なる模様を各々の領域に付す態様等がこれに相当する。また、領域R2と領域R3との関係のように、第2の領域が複数ある場合は、これらの領域間についても識別可能とすることが好ましい。なお、図6には領域ごとの名前として「ROOM1」や「ROOM2」といった名前が付されているが、この領域の名称については所定の権限を有する者が任意に設定することができる。また、スペースSP1に表示される各領域は、その領域についての説明(領域で行われる授業や会話の内容)が把握可能に表示されていてもよく、領域で取り扱う題材(電子ファイル)がダウンロード可能なアイコンが表示されていてもよい。ここで、アイコンとは、物事を簡単な絵柄で記号化し、表現するものである。例えば、アイコンとしては、該当するファイル、又はプログラムの内容を図、又は絵等で表しているものがある。また、関連性のある領域の群がある場合は、これらを一括して保存し、必要に応じてこの保存された内容を読み出すこともできる。なお、関連性のある領域の群の例としては、火曜日の授業に用いられるといった時間に関する共通性を有する領域の群や、ある特定の課目に用いられる目的に関する共通性を有する領域の群などが挙げられる。このような領域に関する設定も所定の権限がある者が行うことができる。
なお、他の領域(領域R2~R6)内での会話の様子はリアルタイムで表示されることが好ましいが、たとえば5分、又は4分、3分、2分、1分、30秒、20秒、10秒、5秒、3秒、1秒程度の誤差(表示時間の遅れ)が生じてもよい。
FIG. 6 is an example of a display screen displayed on the first user terminal 2. This display screen D shows a space SP1 in which online conversation is possible, and a control area CT1 in which objects that can be controlled in various ways are displayed side by side.
In this embodiment, the first user who has logged in is displayed in area R1 within space SP1 (in FIG. 6, "ABC" is the login name of the first user. The area R1 where the user exists may be referred to as a "first table," a "first room," or a "first area.")
In this space SP1, in addition to the above-mentioned area R1, areas R2 to R6 are displayed. 2). In each of the first area and the second area, it is displayed that a user other than the first user has logged in and is present in a predetermined area. In addition to this, in these areas R2 to R6, the state of the conversation that is typically taking place in that area is displayed, and the first user existing in space SP1 is in other areas (areas R2 to R6) You can visually check the conversation inside. Here, being able to visually confirm the state of the conversation refers to, specifically, a mode in which the face of the user who is present in the second area is displayed and it is possible to visually confirm that the user is speaking, or This includes a mode in which the first user can visually see how the screen shared in the area is displayed in a recognizable manner. Here, the display of the conversation may be displayed as a video, or still images may be captured at regular time intervals and the captured still images may be displayed at regular time intervals. Good too.
Furthermore, in this embodiment, it is preferable to display the first area and the second area so that they can be distinguished from each other, thereby making it easier for the first user to recognize the area in which he/she is present. Specifically, this includes displaying different colors in the first area and the second area, and adding different patterns to each area. Further, when there are a plurality of second regions, as in the relationship between region R2 and region R3, it is preferable that these regions also be distinguishable. Note that in FIG. 6, names such as "ROOM1" and "ROOM2" are given as names for each area, but the names of these areas can be arbitrarily set by a person with predetermined authority. Furthermore, each area displayed in space SP1 may have an explanation about the area (contents of classes and conversations held in the area) displayed in an easy-to-understand manner, and materials (electronic files) handled in the area can be downloaded. icon may be displayed. Here, an icon is something that symbolizes and expresses something with a simple picture. For example, an icon may represent the contents of a corresponding file or program in the form of a diagram or a picture. Furthermore, if there is a group of related areas, they can be saved all at once, and the saved contents can be read out as needed. Examples of a group of related areas include a group of areas that have a commonality regarding time, such as being used for Tuesday classes, and a group of areas that have a commonality regarding a purpose, such as being used for a specific lesson. Can be mentioned. Settings related to such areas can also be made by a person with predetermined authority.
Note that it is preferable that conversations in other areas (areas R2 to R6) be displayed in real time, for example, for 5 minutes, 4 minutes, 3 minutes, 2 minutes, 1 minute, 30 seconds, 20 seconds. , 10 seconds, 5 seconds, 3 seconds, or about 1 second (delay in display time) may occur.

このように領域R1に存在する第1のユーザは、他の領域にいる他のユーザの存在を認識可能であるが、逆に、他のユーザも第1のユーザが領域R1に存在していることも認識可能である。ただし、前述した秘匿要求を受け付けた場合(「観覧モード」としてログインした場合)、第1のユーザがスペース内にログイン中であっても他のユーザから第1のユーザの存在を視認不能とすることができる。
すなわち、上述のように秘匿要求を受け付けた場合は、第1のユーザがログイン中であっても、第1のユーザを表すアイコンが表示されず、また、第1のユーザが発声を行ったとしても、他のユーザに対してこの第1のユーザの発声が出力されないように音声制御が行われる。
教育現場に本情報処理システム1を適用した場合、受講生である子供の親が、子供の教育の習熟度合等を観覧するために、このような機能を用いることができ、好適である。
In this way, the first user existing in area R1 can recognize the presence of other users in other areas, but conversely, the other users also recognize the presence of the first user in area R1. It is also possible to recognize that However, if the above-mentioned anonymity request is accepted (when logged in in "viewing mode"), the presence of the first user will not be visible to other users even if the first user is logged in to the space. be able to.
In other words, if a confidentiality request is accepted as described above, even if the first user is logged in, the icon representing the first user will not be displayed, and even if the first user has uttered the utterance, the icon representing the first user will not be displayed. Also, voice control is performed so that the first user's utterances are not output to other users.
When this information processing system 1 is applied to an educational setting, it is preferable that parents of children who are students can use such a function in order to view their child's educational proficiency level.

また、本実施形態の情報処理システム1においては、音声制御部333が、第1の領域内での会話で生じた第1の音声と、第2の領域内での会話で生じた第2の音声とを第1のユーザが認識可能に発生させてもよい。
すなわち、領域R1に存在する第1のユーザは、この領域R1内での会話で生じた音声と、他の領域(たとえば領域R2と領域R3)内での会話で生じた音声との双方を認識可能であってもよい。すなわち、音声制御部333は、双方の領域での会話について第1のユーザが認識可能となるように音声出力を行うことができる。
Furthermore, in the information processing system 1 of the present embodiment, the voice control unit 333 controls the first voice generated in the conversation in the first area and the second voice generated in the conversation in the second area. The voice may be generated so that the first user can recognize it.
In other words, the first user existing in region R1 recognizes both the voice generated in the conversation within this region R1 and the voice generated in the conversation in other regions (for example, region R2 and region R3). It may be possible. That is, the audio control unit 333 can output audio so that the first user can recognize the conversation in both areas.

ここで、音声制御部333は、第2の音声の出力を第1の音声の出力よりも相対的に減衰させるように制御することができる。
すなわち、第1の領域に存在する第1のユーザが、自身の存在する領域(領域R1)で発生する音声を相対的に大きく、他の領域(領域R2~R6)で発生する音声について相対的に小さく認識するように、音声制御部333が音声の出力を制御することができる。これにより、ユーザ自身の存在する領域における音声と、他の領域における音声とを識別しやすくなる。
Here, the audio control unit 333 can control the output of the second audio to be relatively attenuated than the output of the first audio.
In other words, a first user existing in a first region makes sounds generated in the region where he/she exists (region R1) relatively loud, and sounds generated in other regions (regions R2 to R6) relatively loud. The audio control unit 333 can control the output of the audio so that it is recognized as being small. This makes it easier to distinguish between the voice in the area where the user is present and the voice in other areas.

ここで、この第2の音声の出力について、特定の周波数領域の音声出力及び/又は特定のユーザの音声出力を減衰させるように制御することもできる。
図示はしないが、第1のユーザが、所定の周波数領域(典型的には、高音領域、低音領域)や、特定のユーザについての音声出力を制限するように制御することもできる。これによっても、自身の存在する領域における音声と、他の領域における音声とを識別しやすくなる。なお、この制御は特定のユーザごとに対する制御と同様に、特定の領域ごと(すなわち、特定の領域に存在するユーザの集合体)に対しての制御であってもよく、第1のユーザの存在する領域R1に、他の領域の音声が聞こえないように設定することができる。また、このように領域R1に他の領域の音声が聞こえない状況であることを他のユーザに認識させるために、表示画面D中の領域R1にマーク等が付されて表示されてもよい。
なお、この音声出力の減衰に関する制御は、複数の技術を組み合わせてもよく、その態様は制限されない。具体的には、第1のユーザが第2の音声のある部分について音声出力の度合が減衰されていることを認識されていればよく、音声制御部333に入力された音声情報について、位相制御、時間軸上での伸張圧縮制御、ゲイン(増幅率)制御のいずれかの制御等が行われてもよい。
Here, the second audio output can also be controlled to attenuate the audio output in a specific frequency range and/or the audio output of a specific user.
Although not shown, the first user can also control to limit the audio output for a predetermined frequency range (typically, a treble range and a bass range) or for a specific user. This also makes it easier to distinguish between voices in the area where the user exists and voices in other areas. Note that this control may be a control for each specific area (that is, a collection of users existing in a specific area) as well as a control for each specific user, and the presence of the first user It is possible to set the area R1 so that audio from other areas cannot be heard. Further, in order to make other users aware that the sound from other regions cannot be heard in the region R1, a mark or the like may be added to and displayed on the region R1 on the display screen D.
Note that the control regarding the attenuation of the audio output may be performed by combining a plurality of techniques, and the manner thereof is not limited. Specifically, it is sufficient that the first user recognizes that the degree of audio output is attenuated for a certain portion of the second audio, and the phase control is performed on the audio information input to the audio control unit 333. , expansion/compression control on the time axis, gain (amplification factor) control, etc. may be performed.

さらに、音声制御部333は、情報処理システム1が複数の音声出力部を有する音声出力装置を備えるときに、スペース内における第1の領域と第2の領域との相対的な位置関係に基づいて、複数の音声出力部のそれぞれを制御することができる。
具体的な例を挙げると、「複数の音声出力部を有する音声出力装置」は、第1のユーザ端末2に備えられた左右の音声出力部を有するステレオスピーカーであり、音声制御部333は、スペースSP1内の領域間の相対的な位置関係に基づいて、このステレオスピーカーの音声出力を制御することができる。
すなわち図6においては、領域R2および領域R3が領域R1に対して左側に位置するが、この場合にあっては、領域R2および領域R3で生じた音声については、ステレオスピーカーの左側の音声出力部から出力するように制御することができる。なお、この場合であっても、ステレオスピーカーの右側の音声出力部からの出力を減衰させつつ行うことも可能である。
Furthermore, when the information processing system 1 includes an audio output device having a plurality of audio output units, the audio control unit 333 controls the , each of a plurality of audio output units can be controlled.
To give a specific example, the "audio output device having a plurality of audio output units" is a stereo speaker having left and right audio output units provided in the first user terminal 2, and the audio control unit 333 is The audio output of the stereo speakers can be controlled based on the relative positional relationship between regions within the space SP1.
That is, in FIG. 6, region R2 and region R3 are located on the left side with respect to region R1, but in this case, the sound generated in region R2 and region R3 is output from the left audio output section of the stereo speaker. It can be controlled to output from. Note that even in this case, it is also possible to attenuate the output from the right audio output section of the stereo speaker.

以上、スペースSP1にログインした第1のユーザが領域R1に存在する場合を例に挙げて説明しているが、スペースSP1にログインしている第1のユーザは、他の領域にその存在を移すこともできる。たとえば、領域R2に移行したい場合は、表示画面Dにある領域R2部分をクリック操作等で押下することにより、自身の存在する領域を移動させることができる。この場合、典型的には自身の存在する領域R2部分が表示画面Dの略中央に位置するよう表示制御される。なお、第1のユーザが他の領域に存在を移せるかどうかは、たとえば第1のユーザが所定の権限を有しているか否かで制御されていてもよい。すなわち、本実施形態の情報処理システム1においては、スペースSP1に存在する各領域のいずれかについて、所定のユーザを入室不能とするロック機能が備えられていてもよい。なお、この入室不能となった領域に対して入室を行いたい場合は所定の権限を有する者に対して申請を行い、これが許可されることで、入室可能となるように制限されていてもよい。なお、この申請はある領域に存在するユーザに対して音声(具体的にはドアをノックするようなノック音)を発生させることで行われてもよいし、ある領域における所定のユーザ操作(具体的にはドアをノックする操作)で行われてもよい。 The above explanation is based on an example in which the first user who has logged in to space SP1 exists in area R1, but the first user who has logged in to space SP1 moves his/her presence to another area. You can also do that. For example, if you want to move to area R2, you can move the area you are in by clicking on area R2 on display screen D. In this case, typically the display is controlled so that the area R2 in which it exists is positioned approximately at the center of the display screen D. Note that whether or not the first user can move his/her presence to another area may be controlled, for example, depending on whether or not the first user has a predetermined authority. That is, in the information processing system 1 of the present embodiment, a lock function may be provided for preventing a predetermined user from entering any of the areas in the space SP1. In addition, if you wish to enter the area that has become inaccessible, you may apply to a person with the specified authority, and if this is granted, you may be able to enter the area. . Note that this application may be made by making a sound (specifically, a knocking sound like knocking on a door) to a user existing in a certain area, or by making a predetermined user operation (specifically, a knocking sound like knocking on a door) in a certain area. This may also be done by knocking on the door.

また、スペースSP1にログインしているユーザは所定の目的に沿って新たな領域を開設することもできる。
すなわち、受付部331が、第2の領域と、第2の領域とは区別された第3の領域とを統合させる統合要求を第1のユーザより受け付けることができ、表示制御部332は、統合要求を受け付けたときに、第2の領域と第3の領域とを統合させた領域を第1のユーザが視認可能に表示させることができる。
Furthermore, a user who has logged in to space SP1 can also open a new area according to a predetermined purpose.
That is, the reception unit 331 can receive an integration request from the first user to integrate the second area and the third area that is distinct from the second area, and the display control unit 332 can When the request is received, an area in which the second area and the third area are integrated can be displayed so that the first user can visually recognize the area.

すなわち、スペースSP1にログインしている第1のユーザは、スペースSP1に存在するある領域(たとえば領域R6)を、他の領域(第3の領域)と統合させることができる。この他の領域(第3の領域)は、第1のユーザの存在する領域R1であってもよいし、スペースSP1内に存在する第2の領域のうちのいずれか(たとえば領域R2やR3、R4、R5等)であってもよいし、スペースSP1外にある異なるスペースの領域であってもよい。
この統合要求は、たとえば統合させる領域の有する固有のアドレスを所定のフォームに入力させることにより行うことができる。
このような統合を行うことにより、オンラインでのコミュニケーションの範囲を広げることが可能となる。
That is, the first user who is logged in to space SP1 can integrate a certain area (for example, area R6) existing in space SP1 with another area (third area). This other area (third area) may be the area R1 where the first user exists, or any one of the second areas existing within the space SP1 (for example, area R2, R3, R4, R5, etc.), or may be an area of a different space outside the space SP1.
This integration request can be made, for example, by inputting the unique address of the area to be integrated into a predetermined form.
Such integration makes it possible to expand the scope of online communication.

また、図6の表示画面D中にはコントロール領域CT1中に種々のボタンが表示されているので、このボタンの機能について説明する。 Furthermore, since various buttons are displayed in the control area CT1 on the display screen D of FIG. 6, the functions of these buttons will be explained.

ボタンBT21は、カメラのオン/オフを切り替えるボタンであり、ボタンBT22は、マイクのオン/オフを切り替える(出力可能なマイクをミュートとすることや、逆にミュートを解除する)ボタンである。 The button BT21 is a button for switching the camera on/off, and the button BT22 is a button for switching the microphone on/off (muting a microphone that can output, or conversely canceling muting).

なお、このミュート機能に関しては、第1のユーザの存在する領域R1と、その他の領域とを音声的に区別させるために用いるものであってもよい。すなわち、受付部331が、領域R1内で生じた第1の音声を領域R1とは異なる他の領域では認識不能とするミュート要求を第1のユーザより受け付けたときに、音声制御部333が、当該他の領域からはこの第1の音声を認識不能とする態様としてもよい。
この場合、第1のユーザが発声を行ったとしても、他のユーザに対してこの第1のユーザの発声が出力されないように音声制御が行われる(ただし、第1のユーザがログイン中であることを表すように、第1のユーザを表すアイコンが表示されてもよい。)。
Note that this mute function may be used to vocally distinguish the region R1 where the first user is present from other regions. That is, when the reception unit 331 receives a mute request from the first user that makes the first voice generated within the region R1 unrecognizable in another region different from the region R1, the voice control unit 333 The first voice may be made unrecognizable from the other area.
In this case, even if the first user makes a speech, voice control is performed so that the first user's speech is not output to other users (provided that the first user is currently logged in). An icon representing the first user may be displayed to indicate this.)

ボタンBT23は共有ボタンであり、自身のいる領域内で特定の画面、資料(ファイル)等を共有することができる。たとえば、図6における領域R3として特定の動画を共有している態様が示されており、第1のユーザがこのボタンBT23を用いて資料を共有する場合は、自身のいる領域R1内で、領域R3で行われているものと同様の共有を行うことができる。 The button BT23 is a share button, and allows a specific screen, material (file), etc. to be shared within the area where the button BT23 is located. For example, in the area R3 in FIG. 6, a specific video is shared, and when the first user uses this button BT23 to share materials, the area R1 in which the first user is located, Sharing similar to what is done in R3 can be done.

ボタンBT24はメガホン機能を発現させるボタンであり、この機能によれば、自身のいる領域の内外全てのユーザに対して、自身の発声を認識可能な程度に音量の出力調整をすることができる。 The button BT24 is a button that performs a megaphone function, and according to this function, the volume output can be adjusted to such a level that the user's own voice can be recognized by all users inside and outside the user's area.

ボタンBT25は種々の設定を行うことのできる画面に移行することができるボタンであり、自身の用いているカメラや、マイク、スピーカー等の設定を変更することができる。設定できる項目は概ね図5に示した項目と同様である。 The button BT25 is a button that allows you to move to a screen where you can make various settings, and allows you to change the settings of your own camera, microphone, speaker, etc. The items that can be set are generally the same as those shown in FIG.

ボタンBT26は、各領域(各テーブル)に関する情報を設定・管理するために用いるボタンである。たとえば、このボタンBT26を押下すると、図6に示されるようなスペースSP1内に領域R1~領域R6のある画面から、スペースSP1内に領域R1のみが表示される画面に切り替えることができる。その他、スペースSP1を管理する権限を有するユーザがログインしている場合では、このボタンBT26を押下することにより、各領域に参加しているユーザの名前(ログイン名と実名の片方又は双方であってよい)や、カメラやマイク等のデバイスの稼働状況を表示させることができる。典型的には、この各領域に参加しているユーザの名前と、デバイスの稼働状況とを一覧性を有するように表示させる。 The button BT26 is a button used to set and manage information regarding each area (each table). For example, by pressing this button BT26, it is possible to switch from a screen in which regions R1 to R6 are displayed in space SP1 as shown in FIG. 6 to a screen in which only region R1 is displayed in space SP1. In addition, if a user who has the authority to manage space SP1 is logged in, by pressing this button BT26, the user name (login name and real name, or both) participating in each area can be displayed. (good) and the operating status of devices such as cameras and microphones. Typically, the names of users participating in each area and the operating status of the devices are displayed in a tabular manner.

ボタンBT27はチャット機能であり、同一の領域内に存在するユーザ間でのチャットを実行することができる。このチャットはテキストのみのチャットであっても、スタンプのようなオブジェクトや画像の表示を交えたチャットであってもよい。 The button BT27 is a chat function, and allows chatting between users existing in the same area. This chat may be a text-only chat or a chat that includes display of objects such as stamps or images.

ボタンBT28は録画機能であり、ユーザがスペースSP1にログイン中で行われたこと等をレコーディングすることができる機能である。このレコーディングされた内容は記憶部22に記憶される。
なお、この録画機能はスペースSP1にログインしている第1のユーザ端末2に示される表示画面Dに表示される画面をそのまま録画するものである。また、この録画機能は、ユーザの操作に関わらず、スペースSP1にログインしている各ユーザの表情や表示画面のそれぞれを自動的に記憶管理部334により特定の記憶領域に録画するものであって、後日、ある時間領域における各ユーザの行動やリアクションなど、すべてのストリームを確認できるように構成されるものであってもよい。すなわち、後者の場合は、保存したデータを再編成できるような構成としてもよい。また、録画機能は、スペースSP1にログインしているユーザに限られず、他のスペースにログインしているユーザの顔の画像、画面共有している資料の画像を時間軸に合わせて所定の記憶領域に、保存、管理するような構成としてもよい。
The button BT28 is a recording function, and is a function that allows the user to record what is done while logged in to the space SP1. This recorded content is stored in the storage section 22.
Note that this recording function records the screen displayed on the display screen D shown on the first user terminal 2 logged into the space SP1 as it is. In addition, this recording function automatically records each of the facial expressions and display screens of each user who is logged in to the space SP1 in a specific storage area by the storage management unit 334, regardless of the user's operation. , it may be configured such that all streams, such as the actions and reactions of each user in a certain time area, can be checked at a later date. That is, in the latter case, the configuration may be such that the saved data can be reorganized. In addition, the recording function is not limited to users who are logged in to Space SP1, but also images of faces of users who are logged in to other spaces, and images of materials that are screen shared, in a predetermined storage area according to the time axis. It may also be configured to store and manage the information separately.

ボタンBT29はログアウトを行うボタンであり、これを押下することにより、スペースからログアウトすることができる。 The button BT29 is a button for logging out, and by pressing this button, the user can log out from the space.

また、本実施形態の情報処理システム1は、以下のような管理機能を有してもよい。この機能は、本情報処理システム1を教育現場に取り入れた場合にとくに有効である。 Further, the information processing system 1 of this embodiment may have the following management function. This function is particularly effective when this information processing system 1 is incorporated into an educational setting.

すなわち、表示制御部332は、スペース内に存在する第2のユーザのログイン時の名前を第1の名前として、第1のユーザに視認可能に表示させることができる。また、表示制御部332は、第1のユーザが所定の権限を有すること及び/又は第1のユーザが所定の操作を行ったことを条件として、第2のユーザの名前を、第1の名前とは異なる第2の名前(典型的には第2のユーザの実名)として、第1のユーザに視認可能に表示させることができる。 That is, the display control unit 332 can display the login name of the second user existing in the space as the first name so that the first user can see it. Further, the display control unit 332 changes the name of the second user to the first name on the condition that the first user has a predetermined authority and/or the first user performs a predetermined operation. The second name (typically, the real name of the second user) different from the first user can be visually recognized by the first user.

図7は、第2のユーザを管理するための機能を説明するための図である。すなわち、図7(a)、(b)は図6の領域R2内の様子を示すものであるが、ここで、この領域R2には「XYZ」と「OPQ」の二人のユーザが存在しているものとする。
これらユーザのログイン状況は、オブジェクトOBJ21とオブジェクトOBJ22の存在により認識することができる。すなわち、これらのオブジェクトは特定の領域に存在するユーザを表すものであり、ユーザ名の頭文字や、ユーザを印象付ける画像がこのオブジェクトに表示される。
ここで、たとえば第1のユーザがオブジェクトOBJ23(「カーソル」と称してもよい)をこのオブジェクトOBJ21に合わせると、第2のユーザである「XYZ」のログイン名がオブジェクトOBJ24として表示される(図7(a)参照)。
FIG. 7 is a diagram for explaining functions for managing the second user. That is, FIGS. 7(a) and 7(b) show the situation in area R2 of FIG. 6, and here, there are two users "XYZ" and "OPQ" in this area R2. It is assumed that
The login status of these users can be recognized by the presence of object OBJ21 and object OBJ22. That is, these objects represent users existing in a specific area, and the initials of the user's name and images that give an impression of the user are displayed on these objects.
Here, for example, when the first user points the object OBJ23 (which may also be called a "cursor") to this object OBJ21, the login name of the second user "XYZ" is displayed as the object OBJ24 (Fig. 7(a)).

さらに、第1のユーザがオブジェクトOBJ23をオブジェクトOBJ24に合わせるように操作(カーソル操作)すると、オブジェクトOBJ24が「XYZ」の実名を表すオブジェクトOBJ25に変化して表示される(図7(b)参照)。
このように実名を表示させてよいユーザか否かは、操作を行う第1のユーザが所定の権限を有しているか否かで制御されてもよい。たとえば、教育現場に本情報処理システム1が取り入れられている場合は、教師アカウントでログインしたときにこのような表示が可能に制御されていてもよい。
また、第2の名前として表示される名前は実名とは異なる態様でもよく、たとえば第2のユーザがスペースSP1以外のスペースや、その他SNS上でユーザが使用している名前であってもよい。
Furthermore, when the first user operates (cursor operation) to align object OBJ23 with object OBJ24, object OBJ24 changes to object OBJ25 representing the real name of "XYZ" and is displayed (see FIG. 7(b)). .
Whether or not the user is allowed to have his or her real name displayed in this way may be controlled depending on whether or not the first user who performs the operation has a predetermined authority. For example, if the information processing system 1 is installed in an educational setting, such a display may be enabled when logged in using a teacher account.
Further, the name displayed as the second name may be different from the real name, for example, it may be a name used by the second user in a space other than space SP1 or a name used by the user on other SNS.

以上に示したように、本実施形態の情報処理システムによれば、ユーザがオンライン上で行われているコミュニケーションを俯瞰しやすい空間が達成される。 As described above, according to the information processing system of this embodiment, a space is achieved in which the user can easily view the communication taking place online.

4.その他
本実施形態に係る情報処理システム1に関して、以下のような態様を採用してもよい。
4. Others Regarding the information processing system 1 according to the present embodiment, the following aspects may be adopted.

以上の実施形態では、情報処理システム1の構成として説明したが、コンピュータに情報処理システム1の各ステップを実行させるプログラムが提供されてもよい。 Although the above embodiment has been described as the configuration of the information processing system 1, a program that causes a computer to execute each step of the information processing system 1 may be provided.

以上の実施形態では、図6に示した表示画面D中の領域R1~R6として、それぞれが四角形として表示される態様が示されたが、各領域は四角形とは異なる形状であってもよい。図8は、スペースについての変形例を説明するための図である。図8に示される通り、スペースSP2中の各領域(領域R1~R4)は、それぞれ六角形の形状を有するように表示されてもよい。このとき、第1のユーザの存在する領域R1の六角形形状の辺に対し、他の領域を構成する形状の辺は、対向するように表示されてもよい。
このような表示内容とした上で、たとえば、音声制御部333が制御する音声出力装置をサラウンドスピーカーのように多方向から音声出力が可能な装置とすることで、各領域での発生する会話音声を、より臨場感を持たせて出力することが可能となる。
In the above embodiment, each of the regions R1 to R6 on the display screen D shown in FIG. 6 is displayed as a rectangle, but each region may have a shape different from a rectangle. FIG. 8 is a diagram for explaining a modification regarding the space. As shown in FIG. 8, each region (regions R1 to R4) in space SP2 may be displayed to have a hexagonal shape. At this time, the sides of the hexagonal shape of the region R1 where the first user exists may be displayed so as to be opposite to the sides of the hexagonal shape forming the other regions.
With such display content, for example, the audio output device controlled by the audio control unit 333 can be a device that can output audio from multiple directions, such as a surround speaker, so that the conversational audio generated in each area can be adjusted. can be output with a more realistic feeling.

以上の実施形態では、秘匿要求について図5で示されるログイン画面で受け付ける態様を示したが、秘匿要求を受け付けるタイミングはこのログイン時に限られず、ログインした後であってもよい。たとえば、図6におけるコントロール領域CT1の中に秘匿要求を受付可能なオブジェクトを設け、ユーザの必要に応じて、サーバ3が秘匿要求を受け付ける態様をとってもよい。 In the above embodiment, a mode has been shown in which the confidentiality request is accepted on the login screen shown in FIG. 5, but the timing at which the confidentiality request is accepted is not limited to this login, but may be after the login. For example, an object capable of accepting a concealment request may be provided in the control area CT1 in FIG. 6, and the server 3 may accept the concealment request according to the user's needs.

以上の実施形態では、図6中のコントロール領域CT1にあるボタンBT22を押下することで自身の発声を外部に聞こえなくする態様を示したが、このミュート機能は自動で行われていてもよい。たとえば、ログインしている第1のユーザがカメラに表示されない場合、サーバ3の受付部331が第1のユーザが不存在であることを受け付け、第1のユーザ端末2の集音した内容を他のユーザに認識不能とするように音声制御部333が制御してもよい。 In the above embodiment, a mode has been shown in which the user's own voice is made inaudible to the outside by pressing the button BT22 in the control area CT1 in FIG. 6, but this mute function may be performed automatically. For example, if the logged-in first user is not displayed on the camera, the reception unit 331 of the server 3 accepts that the first user does not exist, and transmits the sound collected by the first user terminal 2 to another user. The voice control unit 333 may control the voice so that it is unrecognizable to the user.

以上の実施形態では、図6中のコントロール領域CT1にある各種ボタンを押下することで、種々の機能を発現する態様を示したが、たとえばチャット欄に所定のコマンドを入力することで、上述の種々の機能を発現させるように構成してもよい。典型的には、この所定のコマンドは「/(スラッシュ)」と、特定の機能を対応させたコマンドとの組み合わせである。 In the above embodiment, various functions are expressed by pressing various buttons in the control area CT1 in FIG. It may be configured to exhibit various functions. Typically, this predetermined command is a combination of "/ (slash)" and a command associated with a specific function.

以上の実施形態では、図5に示されるログイン画面を介してユーザのログイン要求を受け付ける態様を示したが、必ずしもこのようなログイン画面を介してスペースへのログインを行う態様としなくてもよい。たとえば、スペース内の領域にパスワードを設定しておき、このパスワードを入力することで所定の領域に入る(すなわち、スペース内にログインする)態様とすることも可能である。 In the above embodiment, a mode was shown in which a user's login request is accepted via the login screen shown in FIG. 5, but the mode does not necessarily have to be such a mode in which login to a space is performed via such a login screen. For example, it is also possible to set a password in an area within a space, and enter this password to enter a predetermined area (that is, log into the space).

以上の実施形態では、サーバ3が種々の記憶や制御を行ったが、サーバ3に代えて、複数の外部装置が用いられてもよい。すなわち、ブロックチェーン技術等を用いて、各種情報等を分散して複数の外部装置に記憶させてもよい。 In the above embodiment, the server 3 performs various storage and control operations, but instead of the server 3, a plurality of external devices may be used. That is, various types of information may be distributed and stored in a plurality of external devices using blockchain technology or the like.

さらに、次に記載の各態様で提供されてもよい。
前記情報処理システムにおいて、音声制御ステップでは、前記第1の領域内での会話で生じた第1の音声と、前記第2の領域内での会話で生じた第2の音声とを前記第1のユーザが認識可能に発生させる、もの。
前記情報処理システムにおいて、前記音声制御ステップでは、前記第2の音声の出力を前記第1の音声の出力よりも相対的に減衰させるように制御する、もの。
前記情報処理システムにおいて、前記音声制御ステップでは、前記第2の音声の出力について、特定の周波数領域の音声出力及び/又は特定のユーザの音声出力を減衰させるように制御する、もの。
前記情報処理システムにおいて、前記音声制御ステップでは、前記情報処理システムが複数の音声出力部を有する音声出力装置を備えるときに、前記スペース内における前記第1の領域と前記第2の領域との相対的な位置関係に基づいて、複数の前記音声出力部のそれぞれを制御する、もの。
前記情報処理システムにおいて、第2の受付ステップでは、前記第1の音声を前記第1の領域とは異なる他の領域では認識不能とするミュート要求を前記第1のユーザより受け付け、前記音声制御ステップでは、前記ミュート要求を受け付けたときに、前記他の領域からは前記第1の音声を認識不能とする、もの。
前記情報処理システムにおいて、第3の受付ステップでは、前記第2の領域と、前記第2の領域とは区別された第3の領域とを統合させる統合要求を前記第1のユーザより受け付け、前記表示制御ステップでは、前記統合要求を受け付けたときに、前記第2の領域と前記第3の領域とを統合させた領域を前記第1のユーザが視認可能に表示させる、もの。
前記情報処理システムにおいて、第4の受付ステップでは、前記第1のユーザの存在が前記スペース内の他のユーザから認識されないようにする秘匿要求を受け付け、前記表示制御ステップでは、前記秘匿要求を受け付けたときに、前記第1のユーザが前記スペース内にログイン中であっても前記他のユーザから前記第1のユーザの存在を視認不能とする、もの。
前記情報処理システムにおいて、前記表示制御ステップでは、前記スペース内に存在する第2のユーザのログイン時の名前を第1の名前として、前記第1のユーザに視認可能に表示させ、前記第1のユーザが所定の権限を有すること及び/又は前記第1のユーザが所定の操作を行ったことを条件として、前記第2のユーザの名前を、前記第1の名前とは異なる第2の名前として、前記第1のユーザに視認可能に表示させる、もの。
前記情報処理システムにおいて、前記第2の名前は、前記第2のユーザの実名である、もの。
前記情報処理システムにおいて、前記表示制御ステップでは、前記第1の領域と前記第2の領域とを互いに識別可能に表示させる、もの。
情報処理方法であって、前記情報処理システムの各ステップを備える、方法。
プログラムであって、コンピュータに前記情報処理システムの各ステップを実行させる、もの。
もちろん、この限りではない。
Furthermore, each aspect described below may be provided.
In the information processing system, in the voice control step, a first voice generated in a conversation in the first area and a second voice generated in a conversation in the second area are controlled in the first voice. Something that can be recognized by a user.
In the information processing system, in the audio control step, the output of the second audio is controlled to be relatively attenuated than the output of the first audio.
In the information processing system, in the audio control step, the output of the second audio is controlled to attenuate the audio output of a specific frequency region and/or the audio output of a specific user.
In the information processing system, in the audio control step, when the information processing system includes an audio output device having a plurality of audio output units, the relative relationship between the first area and the second area in the space is determined. The device controls each of the plurality of audio output units based on the positional relationship of the plurality of audio output units.
In the information processing system, in the second reception step, a mute request to make the first voice unrecognizable in an area different from the first area is received from the first user, and in the audio control step, the mute request is received from the first user. Then, when the mute request is received, the first voice is made unrecognizable from the other area.
In the information processing system, in the third receiving step, an integration request for integrating the second area and a third area that is distinguished from the second area is received from the first user, and In the display control step, when the integration request is received, an area in which the second area and the third area are integrated is displayed so that the first user can visually recognize the area.
In the information processing system, the fourth reception step accepts a confidentiality request to prevent the presence of the first user from being recognized by other users in the space, and the display control step accepts the confidentiality request. When the first user is logged into the space, the presence of the first user is made invisible to the other users.
In the information processing system, in the display control step, a name at the time of login of a second user existing in the space is displayed as a first name so as to be visible to the first user; the second user's name as a second name different from the first name, provided that the user has a predetermined authority and/or the first user has performed a predetermined operation; , something that is visibly displayed to the first user.
In the information processing system, the second name is a real name of the second user.
In the information processing system, in the display control step, the first area and the second area are displayed so as to be distinguishable from each other.
An information processing method, comprising each step of the information processing system.
A program that causes a computer to execute each step of the information processing system.
Of course, this is not the case.

最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Finally, although various embodiments according to the present invention have been described, these are presented as examples and are not intended to limit the scope of the invention. The new embodiment can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. The embodiment and its modifications are included within the scope and gist of the invention, and are included within the scope of the invention described in the claims and its equivalents.

1 :情報処理システム
2 :第1のユーザ端末
3 :サーバ
4 :第2のユーザ端末
11 :ネットワーク
20 :通信バス
21 :通信部
22 :記憶部
23 :制御部
24 :表示部
25 :入力部
26 :音声出力部
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
331 :受付部
332 :表示制御部
333 :音声制御部
334 :記憶管理部
BT11~BT15、BT21~BT29 :ボタン
CR1 :コントロール領域
D :表示画面
F11~F14 :入力フォーム
OBJ11、OBJ21~OBJ25 :オブジェクト
R1~R6、R100 :領域
SP1、SP2 :スペース
1: Information processing system 2: First user terminal 3: Server 4: Second user terminal 11: Network 20: Communication bus 21: Communication section 22: Storage section 23: Control section 24: Display section 25: Input section 26 :Audio output section 30:Communication bus 31:Communication section 32:Storage section 33:Control section 331:Reception section 332:Display control section 333:Audio control section 334:Storage management section BT11 to BT15, BT21 to BT29:Button CR1: Control area D: Display screen F11-F14: Input form OBJ11, OBJ21-OBJ25: Objects R1-R6, R100: Area SP1, SP2: Space

Claims (13)

情報処理システムであって、
制御部を備え、
前記制御部は、次の各ステップを実行するように構成され、
第1の受付ステップでは、オンラインでの会話が可能なスペースへのログインを行うログイン要求を第1のユーザより受け付け、
表示制御ステップでは、前記ログイン要求を受け付けたときに、前記第1のユーザの存在する第1の領域と、前記第1の領域とは区別された第2の領域とを、それぞれ前記スペース内の少なくとも一部の領域として前記第1のユーザが視認可能に表示させ、
ここで、前記第2の領域には、前記第2の領域内での会話の様子が、前記第1のユーザが視認可能に表示される、もの。
An information processing system,
Equipped with a control unit,
The control unit is configured to execute the following steps,
In the first reception step, a login request to log into a space where online conversation is possible is received from the first user,
In the display control step, when the login request is received, a first area in which the first user exists and a second area that is distinct from the first area are respectively set in the space. displaying at least a portion of the area so that the first user can see it;
Here, in the second area, the state of the conversation in the second area is displayed so that the first user can view it.
請求項1に記載の情報処理システムにおいて、
音声制御ステップでは、前記第1の領域内での会話で生じた第1の音声と、前記第2の領域内での会話で生じた第2の音声とを前記第1のユーザが認識可能に発生させる、もの。
The information processing system according to claim 1,
In the voice control step, the first user can recognize a first voice generated in a conversation in the first area and a second voice generated in a conversation in the second area. Something that generates something.
請求項2に記載の情報処理システムにおいて、
前記音声制御ステップでは、前記第2の音声の出力を前記第1の音声の出力よりも相対的に減衰させるように制御する、もの。
The information processing system according to claim 2,
In the audio control step, the output of the second audio is controlled to be relatively attenuated than the output of the first audio.
請求項3に記載の情報処理システムにおいて、
前記音声制御ステップでは、前記第2の音声の出力について、特定の周波数領域の音声出力及び/又は特定のユーザの音声出力を減衰させるように制御する、もの。
The information processing system according to claim 3,
In the audio control step, the output of the second audio is controlled to attenuate the audio output in a specific frequency range and/or the audio output of a specific user.
請求項2ないし請求項4のいずれか1項に記載の情報処理システムにおいて、
前記音声制御ステップでは、前記情報処理システムが複数の音声出力部を有する音声出力装置を備えるときに、前記スペース内における前記第1の領域と前記第2の領域との相対的な位置関係に基づいて、複数の前記音声出力部のそれぞれを制御する、もの。
The information processing system according to any one of claims 2 to 4,
In the audio control step, when the information processing system includes an audio output device having a plurality of audio output units, the audio control step is based on the relative positional relationship between the first area and the second area within the space. and controlling each of the plurality of audio output units.
請求項2ないし請求項5のいずれか1項に記載の情報処理システムにおいて、
第2の受付ステップでは、前記第1の音声を前記第1の領域とは異なる他の領域では認識不能とするミュート要求を前記第1のユーザより受け付け、
前記音声制御ステップでは、前記ミュート要求を受け付けたときに、前記他の領域からは前記第1の音声を認識不能とする、もの。
The information processing system according to any one of claims 2 to 5,
In the second reception step, a mute request is received from the first user to make the first voice unrecognizable in another area different from the first area,
In the audio control step, when the mute request is received, the first audio is made unrecognizable from the other area.
請求項1ないし請求項6のいずれか1項に記載の情報処理システムにおいて、
第3の受付ステップでは、前記第2の領域と、前記第2の領域とは区別された第3の領域とを統合させる統合要求を前記第1のユーザより受け付け、
前記表示制御ステップでは、前記統合要求を受け付けたときに、前記第2の領域と前記第3の領域とを統合させた領域を前記第1のユーザが視認可能に表示させる、もの。
The information processing system according to any one of claims 1 to 6,
In the third reception step, an integration request is received from the first user to integrate the second area and a third area that is distinct from the second area,
In the display control step, when the integration request is received, an area where the second area and the third area are integrated is displayed so that the first user can visually recognize it.
請求項1ないし請求項7のいずれか1項に記載の情報処理システムにおいて、
第4の受付ステップでは、前記第1のユーザの存在が前記スペース内の他のユーザから認識されないようにする秘匿要求を受け付け、
前記表示制御ステップでは、前記秘匿要求を受け付けたときに、前記第1のユーザが前記スペース内にログイン中であっても前記他のユーザから前記第1のユーザの存在を視認不能とする、もの。
The information processing system according to any one of claims 1 to 7,
In the fourth reception step, a confidentiality request is received to prevent the presence of the first user from being recognized by other users in the space,
In the display control step, when the anonymity request is received, the presence of the first user is made invisible to the other users even if the first user is logged into the space. .
請求項1ないし請求項8のいずれか1項に記載の情報処理システムにおいて、
前記表示制御ステップでは、前記スペース内に存在する第2のユーザのログイン時の名前を第1の名前として、前記第1のユーザに視認可能に表示させ、
前記第1のユーザが所定の権限を有すること及び/又は前記第1のユーザが所定の操作を行ったことを条件として、前記第2のユーザの名前を、前記第1の名前とは異なる第2の名前として、前記第1のユーザに視認可能に表示させる、もの。
The information processing system according to any one of claims 1 to 8,
In the display control step, a name at the time of login of a second user existing in the space is displayed as a first name so as to be visible to the first user;
Provided that the first user has a predetermined authority and/or that the first user has performed a predetermined operation, the second user's name may be changed to a name different from the first name. 2, which is visibly displayed to the first user.
請求項9に記載の情報処理システムにおいて、
前記第2の名前は、前記第2のユーザの実名である、もの。
The information processing system according to claim 9,
The second name is a real name of the second user.
請求項1ないし請求項10のいずれか1項に記載の情報処理システムにおいて、
前記表示制御ステップでは、前記第1の領域と前記第2の領域とを互いに識別可能に表示させる、もの。
The information processing system according to any one of claims 1 to 10,
In the display control step, the first area and the second area are displayed so as to be distinguishable from each other.
情報処理方法であって、
請求項1ないし請求項11のいずれか1項に記載の情報処理システムの各ステップを備える、方法。
An information processing method,
A method comprising each step of the information processing system according to any one of claims 1 to 11.
プログラムであって、
コンピュータに請求項1ないし請求項11のいずれか1項に記載の情報処理システムの各ステップを実行させる、もの。
A program,
A computer that causes a computer to execute each step of the information processing system according to any one of claims 1 to 11.
JP2022035980A 2022-03-09 2022-03-09 Information processing system, information processing method, and program Pending JP2023131309A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022035980A JP2023131309A (en) 2022-03-09 2022-03-09 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022035980A JP2023131309A (en) 2022-03-09 2022-03-09 Information processing system, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2023131309A true JP2023131309A (en) 2023-09-22

Family

ID=88065687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022035980A Pending JP2023131309A (en) 2022-03-09 2022-03-09 Information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2023131309A (en)

Similar Documents

Publication Publication Date Title
EP2384565B1 (en) Methods and systems for establishing collaborative communications between devices using ambient audio
US8743743B1 (en) Management of mute and unmute requests during an electronic-conference session
US20060212147A1 (en) Interactive spatalized audiovisual system
US10586131B2 (en) Multimedia conferencing system for determining participant engagement
JP2015515643A (en) Instant communication speech recognition method and terminal
US20170187884A1 (en) Controlling output volume levels
US20230171118A1 (en) Conversation control device, conversation system, and conversation control method
US11811827B2 (en) Securing endpoints for virtual meetings
WO2022111193A1 (en) Meeting control method, apparatus, device, and medium
US20240283832A1 (en) Capturing and presenting audience response at scale
US20230033852A1 (en) Mediating participant interactions during a video webinar meeting
JP2023131309A (en) Information processing system, information processing method, and program
WO2023037514A1 (en) Web conference system, terminal device, and web conference method
JP6610076B2 (en) Information processing apparatus, information processing system, program, and recording medium
JP7143874B2 (en) Information processing device, information processing method and program
JP2018036688A (en) Information processing device, server device, information processing system, control method thereof, and program
JP7515676B1 (en) Control system, control method, and computer program
JP2022074866A (en) Information processing device, information processing method, and program
JP2024047431A (en) Control system, computer program and control method
US20240235870A1 (en) Virtual meeting configuration and execution templates
JP2023072720A (en) Conference server and conference server control method
JP7292765B1 (en) Communication controller and computer program
Rantala et al. User experiences of mobile audio conferencing with spatial audio, haptics and gestures
US20230230595A1 (en) Sidebar assistant for notetaking in sidebars during virtual meetings
Aguilera et al. Spatial audio for audioconferencing in mobile devices: Investigating the importance of virtual mobility and private communication and optimizations

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220331