JP2022179354A - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP2022179354A
JP2022179354A JP2022068638A JP2022068638A JP2022179354A JP 2022179354 A JP2022179354 A JP 2022179354A JP 2022068638 A JP2022068638 A JP 2022068638A JP 2022068638 A JP2022068638 A JP 2022068638A JP 2022179354 A JP2022179354 A JP 2022179354A
Authority
JP
Japan
Prior art keywords
information
context information
condition
users
context
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022068638A
Other languages
Japanese (ja)
Inventor
ジョン・セーヒョン
Sae Hyung Jung
博和 長谷川
Hirokazu Hasegawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ovice Inc
Original Assignee
Ovice Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ovice Inc filed Critical Ovice Inc
Publication of JP2022179354A publication Critical patent/JP2022179354A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide simpler and more user-friendly means of communication.SOLUTION: A context information acquisition unit 80 acquires context information transmitted from each of listener terminals 3 via a communication unit 19. A first condition determination unit 90 determines whether or not the context information acquired by the context information acquisition unit 80 satisfies a predetermined first condition. A second condition determination unit 92 determines whether or not the context information acquired by the context information acquisition unit 80 satisfies a predetermined second condition. An audio information management unit 84 generates audio information to be output according to the condition satisfied by the context information if a condition determination unit 82 determines that the predetermined condition is satisfied. The audio information management unit 84 transmits the generated audio information to a speaker terminal 2 and the listener terminals 3, respectively.SELECTED DRAWING: Figure 3

Description

新規性喪失の例外適用申請有り There is an application for exception to loss of novelty

本発明は、情報処理装置およびプログラムに関する。 The present invention relates to an information processing device and program.

従来、ネットワークを介して音声や動画像を参加者が共有する技術が知られている。近年では、このような技術を利用したサービスは、例えば、WEB会議やVR会議等と呼ばれ、広く普及している。例えば、特許文献1では、会議やセミナー等で主として発言するファシリテータが自身の投稿の意図を分かりやすくするための絵やマーク等を組み合わせたスタンプ情報を併記する機能に関する技術が提案されている。 Conventionally, a technology is known in which participants share voices and moving images via a network. In recent years, services using such technology are called, for example, WEB conferencing, VR conferencing, etc., and are widely used. For example, Patent Literature 1 proposes a technique related to a function for a facilitator who mainly speaks at meetings, seminars, etc., to add stamp information combining pictures, marks, etc. to make it easier to understand the intention of his/her contribution.

特開2018-136597号公報JP 2018-136597 A

しかし、上述の特許文献1に記載の技術を含む従来技術の多くは、情報の発信者(セミナーの主催者、ファシリテータ等)側から情報の受信者(セミナーの聴講者等)側に対して、発信するものがほとんどであり、情報の受信者(セミナーの聴講者等)から情報の発信者(セミナーの主催者、ファシリテータ等)への意思を伝えるには、チャット等でメッセージを送ることができる程度であり、情報の発信者の側からすれば発言の内容に対するリアクションを確認できず、会議やセミナーを進行しにくいという指摘もあった。
さらに言えば、情報の発信者及び情報の受信者のいずれであっても、自身の意思を伝える情報(スタンプやメッセージ等)は、単調なものが多く、情報伝達の方法として不十分な点も少なくなかった。
However, many of the conventional technologies, including the technology described in Patent Document 1 above, provide information from the information sender (seminar organizer, facilitator, etc.) to the information receiver (seminar audience, etc.). Most of the information is transmitted, and messages can be sent by chat etc. to convey the intention from the information receiver (seminar audience, etc.) to the information sender (seminar organizer, facilitator, etc.) It was pointed out that it was difficult for the sender of the information to confirm the reaction to the content of the statement, making it difficult to proceed with the conference or seminar.
Furthermore, regardless of whether it is the sender of information or the recipient of information, the information that conveys their intentions (stamps, messages, etc.) is often monotonous and inadequate as a method of information transmission. It was not less.

本発明は、このような状況に鑑みてなされたものであり、より簡便で、利用しやすいコミュニケーション手段を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a communication means that is simpler and easier to use.

上記目的を達成するため、本発明の一態様の情報処理装置は、
所定の情報を発信し得る第1ユーザに利用される第1端末と、
所定の情報を受信し得る複数の第2ユーザに利用される第2端末と、
サーバと、
を含む情報処理システムのうち、サーバとして機能する情報処理装置であって、
複数の前記第2ユーザのうち、1の前記第2ユーザから第1コンテキスト情報を取得する第1コンテキスト情報取得手段と、
複数の前記第2ユーザのうち、他の前記第2ユーザから第2コンテキスト情報を取得する第2コンテキスト情報取得手段と、
前記第1コンテキスト情報及び前記第2コンテキスト情報が所定の条件を満たしているか否かを判定する条件判定手段と、
前記条件が満たされている場合に音声として出力する出力情報を生成する出力情報生成手段と、
を備える。
In order to achieve the above object, an information processing device according to one aspect of the present invention includes:
a first terminal used by a first user capable of transmitting predetermined information;
a second terminal used by a plurality of second users capable of receiving predetermined information;
a server;
An information processing device that functions as a server in an information processing system that includes
a first context information acquiring means for acquiring first context information from one of the second users among the plurality of second users;
a second context information acquiring means for acquiring second context information from the other second users among the plurality of second users;
condition determination means for determining whether the first context information and the second context information satisfy a predetermined condition;
output information generating means for generating output information to be output as voice when the condition is satisfied;
Prepare.

本発明によれば、より簡便で、利用しやすいコミュニケーション手段を提供することができる。 According to the present invention, it is possible to provide communication means that are simpler and easier to use.

本発明の一実施形態の情報処理システムの構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of an information processing system according to one embodiment of the present invention; FIG. 図1の情報処理システムのうちサーバのハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a server in the information processing system of FIG. 1; FIG. 図2のサーバ、図1の講演者端末及び聴講者端末の機能的構成の一例を示す図である。3 is a diagram showing an example of functional configurations of the server of FIG. 2 and the speaker terminal and audience terminal of FIG. 1; FIG. 図1の講演者端末及び聴講者端末に表示される画像の一例を示す図である。2 is a diagram showing an example of images displayed on the speaker terminal and the audience terminal of FIG. 1; FIG. 図1の講演者端末及び聴講者端末に表示される画像の一例を示す図であり、図4の例とは異なる例を示す図である。FIG. 5 is a diagram showing an example of images displayed on the speaker terminal and the audience terminal shown in FIG. 1, and showing an example different from the example shown in FIG. 4; 図3のサーバが実行する各種処理の流れを説明するフローチャート図である。FIG. 4 is a flowchart for explaining the flow of various processes executed by the server of FIG. 3; 本発明の他の実施形態の情報処理システムを構成する情報処理端末に表示される画像の一例を示す図である。FIG. 10 is a diagram showing an example of an image displayed on an information processing terminal that constitutes an information processing system according to another embodiment of the present invention;

以下、本発明の実施形態について、図面を用いて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、図1を参照して、本発明の一実施形態にかかる情報処理システム(以下、「本システム」と呼ぶ)の構成について説明する。
図1は、本システムの構成の一例を示すブロック図である。
First, referring to FIG. 1, the configuration of an information processing system (hereinafter referred to as "this system") according to an embodiment of the present invention will be described.
FIG. 1 is a block diagram showing an example of the configuration of this system.

図1に示す通り、本システムは、サーバ1と、講演者端末2と、聴講者端末3-1乃至3-n(nは、1以上の任意の整数値)とを含む。サーバ1と、講演者端末2と、聴講者端末3-1乃至3-nとは、インターネット(Internet)等のネットワークNを介して相互に接続されている。なお、ネットワークNは、必須の要素でなく、例えば、Bluetooth(登録商標)、Wi-Fi、LAN(Local Area Network)等が利用されてもよい。
なお、以降の説明において、聴講者端末3-1乃至3-nの夫々を個々に区別する必要がない場合、これらをまとめて「聴講者端末3」と呼ぶ。
As shown in FIG. 1, this system includes a server 1, a speaker terminal 2, and audience terminals 3-1 to 3-n (n is an arbitrary integer value of 1 or more). The server 1, the speaker terminal 2, and the audience terminals 3-1 to 3-n are interconnected via a network N such as the Internet. Note that the network N is not an essential element, and for example, Bluetooth (registered trademark), Wi-Fi, LAN (Local Area Network), etc. may be used.
In the following description, when there is no need to individually distinguish between the audience terminals 3-1 to 3-n, they will be collectively referred to as "listener terminals 3".

サーバ1は、本システムの管理者等により管理される情報処理装置である。サーバ1は、講演者端末2及び聴講者端末3の夫々と、適宜、通信しながら後述する各種処理を実行する。 The server 1 is an information processing device managed by an administrator or the like of this system. The server 1 communicates with each of the speaker terminal 2 and the audience terminal 3 as appropriate, and executes various processes to be described later.

講演者端末2は、本システムに関連するWebセミナー(以下、「セミナー」と呼ぶ)において、主として発言する講演者により使用される情報処理端末である。 The speaker terminal 2 is an information processing terminal mainly used by a speaker who speaks in a web seminar related to this system (hereinafter referred to as "seminar").

聴講者端末3は、セミナーの聴講を行う聴講者により使用される情報処理端末である。なお、講演者端末2及び聴講者端末3は、例えば、パーソナルコンピュータ、スマートフォンやタブレット等の汎用型の情報処理端末等で構成される。 The audience terminal 3 is an information processing terminal used by the audience who attends the seminar. Note that the speaker terminal 2 and the audience terminal 3 are configured by, for example, general-purpose information processing terminals such as personal computers, smartphones, and tablets.

なお、講演者及び聴講者の夫々は、講演者端末2及び聴講者端末3の夫々にインストールされたアプリケーション又はWebブラウザ等を利用することで、本システムにかかるサービスの提供を受けることができる。 Note that each of the speaker and the audience can receive services related to this system by using applications or web browsers installed in the speaker terminal 2 and the audience terminal 3, respectively.

図2は、図1の情報処理システムのうちサーバのハードウェア構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of a hardware configuration of a server in the information processing system of FIG. 1. As shown in FIG.

図2に示す通り、サーバ1は、制御部11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。 As shown in FIG. 2, the server 1 includes a control unit 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input/output interface 15, an output unit 16, an input unit 17 , a storage unit 18 , a communication unit 19 and a drive 20 .

制御部11は、CPUやGPUおよび半導体メモリを含むマイクロコンピュータ等で構成され、ROM12に記録されているプログラム、または記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、制御部11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The control unit 11 is composed of a microcomputer or the like including a CPU, GPU, and semiconductor memory, and executes various processes according to programs recorded in the ROM 12 or programs loaded from the storage unit 18 to the RAM 13 .
The RAM 13 also stores data necessary for the control unit 11 to execute various processes.

制御部11、ROM12およびRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、出力部16、入力部17、記憶部18、通信部19およびドライブ20が接続されている。 Control unit 11 , ROM 12 and RAM 13 are interconnected via bus 14 . An input/output interface 15 is also connected to this bus 14 . An output unit 16 , an input unit 17 , a storage unit 18 , a communication unit 19 and a drive 20 are connected to the input/output interface 15 .

出力部16は、ディスプレイやスピーカ等で構成され、各種情報を画像や音声として出力する。 The output unit 16 includes a display, a speaker, and the like, and outputs various information as images and sounds.

入力部17は、キーボードやマウス等で構成され、各種情報を入力する。 The input unit 17 is composed of a keyboard, a mouse, etc., and inputs various information.

記憶部18は、ハードディスクやDRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNを介して他の装置(例えば、講演者端末2や聴講者端末3等)との間で通信を行う。
The storage unit 18 is composed of a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various data.
The communication unit 19 communicates with other devices (for example, the speaker terminal 2, the audience terminal 3, etc.) via a network N including the Internet.

ドライブ20は、必要に応じて設けられる。ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ20によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。また、リムーバブルメディア31は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。 A drive 20 is provided as required. A removable medium 31 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is mounted in the drive 20 as appropriate. A program read from the removable medium 31 by the drive 20 is installed in the storage unit 18 as necessary. The removable medium 31 can also store various data stored in the storage unit 18 in the same manner as the storage unit 18 .

図3は、サーバ1、講演者端末2及び聴講者端末3の機能的構成の一例を示している。 FIG. 3 shows an example of functional configurations of the server 1, the speaker terminal 2, and the audience terminal 3. As shown in FIG.

図3に示すように、サーバ1の制御部11は、各種プログラムを実行することにより、コンテキスト情報取得部80と、条件判定部82と、音声情報管理部84とが機能する。 As shown in FIG. 3, the control unit 11 of the server 1 causes a context information acquisition unit 80, a condition determination unit 82, and a voice information management unit 84 to function by executing various programs.

コンテキスト情報取得部80は、聴講者端末3のそれぞれから送信されてくるコンテキスト情報を、通信部19を介して取得する。 The context information acquisition unit 80 acquires the context information transmitted from each of the listener terminals 3 via the communication unit 19 .

条件判定部82は、コンテキスト情報取得部80で取得されたコンテキスト情報が所定の条件を満たしているか否かを判定する。すなわち、詳細は図4を参照しながら後述するが、例えば、条件判定部82は、コンテキスト情報取得部80で取得されたコンテキスト情報に所定のスタンプ情報が含まれているか否かを判定する。
ここで、条件判定部82には、第1条件判定部90と、第2条件判定部92とが設けられている。以下、第1条件判定部90と、第2条件判定部92の機能について具体的に説明する。
まず、第1条件判定部90は、コンテキスト情報取得部80で取得されたコンテキスト情報が所定の第1条件を満たしているか否かを判定する。すなわち、詳細は図5を参照しながら後述するが、例えば、第1条件判定部90は、1の聴講者から取得されたコンテキスト情報に第1のキーワード(図5の例では、「high」というテキスト)が含まれているか否かを判定する。
そして、第2条件判定部92は、コンテキスト情報取得部80で取得されたコンテキスト情報が所定の第2条件を満たしているか否かを判定する。すなわち、詳細は図5を参照しながら後述するが、例えば、第2条件判定部92は、他の聴講者から取得されたコンテキスト情報に第2のキーワード(図5の例では、「five」というテキスト)が含まれているか否かを判定する。
The condition determination unit 82 determines whether or not the context information acquired by the context information acquisition unit 80 satisfies a predetermined condition. That is, although the details will be described later with reference to FIG. 4, for example, the condition determination unit 82 determines whether or not the context information acquired by the context information acquisition unit 80 includes predetermined stamp information.
Here, the condition determination section 82 is provided with a first condition determination section 90 and a second condition determination section 92 . The functions of the first condition determination section 90 and the second condition determination section 92 will be specifically described below.
First, the first condition determination unit 90 determines whether or not the context information acquired by the context information acquisition unit 80 satisfies a predetermined first condition. That is, the details will be described later with reference to FIG. 5, but for example, the first condition determination unit 90 adds the first keyword ("high" in the example of FIG. 5) to the context information acquired from one audience member. text) is included.
Then, the second condition determination section 92 determines whether or not the context information acquired by the context information acquisition section 80 satisfies a predetermined second condition. That is, although the details will be described later with reference to FIG. 5, for example, the second condition determination unit 92 adds a second keyword ("five" in the example of FIG. 5) to the context information acquired from other listeners. text) is included.

音声情報管理部84は、条件判定部82において、所定の条件が満たされていると判定された場合に、コンテキスト情報が満たしている条件に応じて出力される音声情報を生成する。また、音声情報管理部84は、生成した音声情報を講演者端末2及び聴講者端末3の夫々へ送信する。 When the condition determination unit 82 determines that a predetermined condition is satisfied, the audio information management unit 84 generates audio information to be output according to the condition satisfied by the context information. In addition, the voice information management unit 84 transmits the generated voice information to each of the speaker terminal 2 and the audience terminal 3 .

また、図3に示すように、聴講者端末3の制御部110は、各種プログラムを実行することにより、コンテキスト情報受付部130と、音声情報取得部132と、出力情報制御部134とが機能する。
コンテキスト情報受付部130は、聴講者のそれぞれからのコンテキスト情報の入力を受け付ける。また、コンテキスト情報受付部130は、受け付けたコンテキスト情報を、サーバ1へ送信する。
Further, as shown in FIG. 3, the control unit 110 of the listener terminal 3 executes various programs to cause a context information reception unit 130, a voice information acquisition unit 132, and an output information control unit 134 to function. .
The context information reception unit 130 receives input of context information from each of the listeners. Also, the context information receiving unit 130 transmits the received context information to the server 1 .

音声情報取得部132は、サーバ1から送信されてきた音声情報を、通信部120を介して取得する。 The voice information acquisition unit 132 acquires voice information transmitted from the server 1 via the communication unit 120 .

出力情報制御部134は、各種出力情報を図示せぬ出力部を介して出力するための制御を実行する。 The output information control unit 134 executes control for outputting various kinds of output information via an output unit (not shown).

図4は、図1の講演者端末及び聴講者端末に表示される画像の一例を示す図である。図4を参照しながら、本システムにかかる音声再生を伴うスタンプ表示機能を説明する。 FIG. 4 is a diagram showing an example of images displayed on the speaker terminal and the audience terminal shown in FIG. With reference to FIG. 4, the stamp display function accompanied by voice reproduction according to this system will be described.

図4には、チャット表示領域Cと、セミナー会場を模した仮想空間(以下、「セミナー空間」と呼ぶ)が表示されている。また、セミナー会場には、講演者に対応するアイコンA、そして、聴講者の夫々に対応するアイコンB1、アイコンB2、アイコンB3の夫々が配置されている。図4の例は、本システムを介して、講演者によるセミナーを聴講者の夫々が聴講している状況である。
ここで、図4の例では、チャット表示領域Cを見るとアイコンB1乃至B3に対応するユーザの夫々により、拍手を模したアイコン(以下、「拍手スタンプ」と呼ぶ)を含むメッセージが入力され、表示されている。そして、図4のセミナー空間を見ると、アイコンB1乃至B3の左側に拍手スタンプが表示されている。これは、ユーザの夫々により拍手スタンプの表示指示がなされたことにより、仮想空間上の自身に対応するアイコンの拍手スタンプが表示されたことを示している。
なお、例えば、ユーザは、「拍手」という単語をチャット表示領域Cに入力後、変換等することで、拍手スタンプをチャット表示領域Cに入力できる。
さらに、図4の例では、この拍手スタンプの表示と合わせて、「パチパチパチ」という効果音が講演者端末2及び聴講者端末3の夫々において再生される。これにより、セミナーを行う講演者は、自身のセミナーに対する聴講者の反応をよりリアルに体感することができる。
FIG. 4 shows a chat display area C and a virtual space simulating a seminar hall (hereinafter referred to as "seminar space"). Also, in the seminar hall, an icon A corresponding to the speaker, and icons B1, B2, and B3 corresponding to the listeners, respectively, are arranged. The example of FIG. 4 shows a situation in which each of the listeners is listening to a seminar by a lecturer via this system.
Here, in the example of FIG. 4, when looking at the chat display area C, each of the users corresponding to the icons B1 to B3 inputs a message including an icon resembling applause (hereinafter referred to as "applause stamp"). is displayed. When looking at the seminar space in FIG. 4, applause stamps are displayed on the left side of the icons B1 to B3. This indicates that the applause stamp of the icon corresponding to the user in the virtual space has been displayed as a result of each user giving an instruction to display the applause stamp.
For example, the user can input the applause stamp in the chat display area C by converting the word "applause" after inputting it in the chat display area C. FIG.
Furthermore, in the example of FIG. 4, together with the display of the applause stamp, a sound effect of “clap clap clap” is reproduced on each of the speaker terminal 2 and the audience terminal 3 . As a result, the lecturer who conducts the seminar can more realistically experience the audience's reactions to his or her seminar.

さらに、図4に示しめしたアクションは、1人のユーザにより完結可能なアクションであったが、図5の実施形態に示すアクションは、基本的に2人以上のユーザが連動することで初めて完結可能なアクションである。
図5には、ミーティングに参加するユーザの夫々に対応するアイコンB4乃至B6の夫々が配置されている。図5の例は、例えば、社内の同じ部署に所属するメンバーが本システムを介して、簡易的なミーティングを行っている状況である。
図5の例では、チャット表示領域Cにおいて、アイコンB4に対応するユーザにより「high」というメッセージが、アイコンB6に対応するユーザにより「five」というメッセージが入力されている。
ここで、本システムでは、「high」と「five」という単語は互いに関連する単語として設定されており、2人以上のユーザにより「high」と「five」という単語が順番に入力されると、「パチパチパチ」という音声が出力される仕様が採用されている。具体的に図5の例でも、アイコンB4のユーザにより「high」という単語が、アイコンB6のユーザにより「five」という単語が順番に入力されている。そのため、図5の例においても、夫々のユーザの使用する情報処理端末等を介して、「パチパチパチ」という音声が出力されている。
このように本システムは、複数のユーザが連動したアクションを行うことで実現可能な機能を備えているため、夫々のユーザは、さらに連帯感を感じながらコミュニケーションを行うことができる。
Furthermore, the actions shown in FIG. 4 are actions that can be completed by one user, but the actions shown in the embodiment of FIG. 5 are basically completed only when two or more users work together. possible action.
In FIG. 5, icons B4 to B6 corresponding to users participating in the meeting are arranged. In the example of FIG. 5, for example, members belonging to the same department in the company are having a simple meeting via this system.
In the example of FIG. 5, in the chat display area C, the message "high" is input by the user corresponding to the icon B4, and the message "five" is input by the user corresponding to the icon B6.
Here, in this system, the words "high" and "five" are set as mutually related words, and when two or more users input the words "high" and "five" in order, A specification that outputs the sound "crackling" is adopted. Specifically, in the example of FIG. 5 as well, the word "high" is input by the user of the icon B4, and the word "five" is input by the user of the icon B6. Therefore, in the example of FIG. 5 as well, the voice "clap clap clap" is output via the information processing terminal or the like used by each user.
In this way, the present system has a function that can be realized by a plurality of users performing linked actions, so that each user can communicate with each other while feeling a sense of solidarity.

図6は、図3のサーバが実行する連動リアクション処理の流れの一例を示している。 FIG. 6 shows an example of the flow of linked reaction processing executed by the server of FIG.

ステップS1において、コンテキスト情報取得部80は、聴講者端末3のそれぞれから送信されてくるコンテキスト情報を、通信部19を介して取得する。 In step S<b>1 , the context information acquisition unit 80 acquires the context information transmitted from each of the audience terminals 3 via the communication unit 19 .

ステップS2において、第1条件判定部90は、1の聴講者から取得されたコンテキスト情報に第1のキーワードが含まれているか否かを判定する。
コンテキスト情報に第1のキーワードが含まれている場合、ステップS2はYESと判定され、処理はそのままステップS3に進む。
これに対して、コンテキスト情報に第1のキーワードが含まれていない場合、ステップS2はNOと判定され、処理はステップS1に戻される。
In step S2, the first condition determination unit 90 determines whether or not the first keyword is included in the context information acquired from one listener.
If the context information includes the first keyword, a determination of YES is made in step S2, and the process directly proceeds to step S3.
On the other hand, if the context information does not include the first keyword, NO is determined in step S2, and the process returns to step S1.

ステップS3において、コンテキスト情報取得部80は、新たに他の聴講者端末3から送信されてきたコンテキスト情報を、通信部19を介して取得する。 In step S<b>3 , the context information acquisition unit 80 acquires, via the communication unit 19 , context information newly transmitted from another audience member terminal 3 .

ステップS4において、第2条件判定部92は、新たに取得されたコンテキスト情報に第2のキーワードが含まれているか否かを判定する。
コンテキスト情報に第2のキーワードが含まれている場合、ステップS4はYESと判定され、処理はそのままステップS5に進む。
これに対して、コンテキスト情報に第2のキーワードが含まれていない場合、ステップS4はNOと判定され、処理はステップS3に戻される。なお、第2のキーワードが一定時間取得されない場合や第2のキーワードが含まれていないと所定の回数判定された場合は、連動リアクション処理はそのまま終了する。
In step S4, the second condition determination unit 92 determines whether or not the newly acquired context information includes the second keyword.
If the context information includes the second keyword, YES is determined in step S4, and the process directly proceeds to step S5.
On the other hand, if the context information does not include the second keyword, NO is determined in step S4, and the process returns to step S3. If the second keyword is not acquired for a certain period of time, or if it is determined that the second keyword is not included a predetermined number of times, the linked reaction process ends.

ステップS5において、音声情報管理部84は、条件判定部82において、所定の条件が満たされていると判定された場合に、コンテキスト情報が満たしている条件に応じて出力される音声情報を生成し、生成した音声情報を講演者端末2及び聴講者端末3の夫々へ送信する。これにより、サーバ1で実行される連動リアクション処理は終了する。 In step S5, when the condition determination unit 82 determines that the predetermined condition is satisfied, the voice information management unit 84 generates voice information to be output according to the condition satisfied by the context information. , the generated voice information is transmitted to the speaker terminal 2 and the audience terminal 3, respectively. Thus, the linked reaction process executed by the server 1 ends.

以上、本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and modifications, improvements, etc. within the range that can achieve the object of the present invention are included in the present invention. is.

ここで、図7を参照しながら上述の実施形態の応用である他の実施形態について説明する。
図7は、図1の講演者端末及び聴講者端末に表示される画像の一例を示す図であり、図4の例とは異なる例を示す図である。図7を参照しながら、本システムにかかる音声入力スタンプ表示機能を説明する。
図7の例では、チャット表示領域CにアイコンB1に対応するユーザのメッセージとして「!」の文字を模したアイコン(以下、「音声入力スタンプ」と呼ぶ)を含むメッセージが入力され、表示されている。本実施形態において、この音声入力スタンプは、聴講者の夫々からの一時的な音声の入力の受け付けを示すスタンプである。具体的に図7の例では、アイコンB1に対応する聴講者の使用する聴講者端末3において、10秒間任意の音声の入力が認められ、入力された音声が他の聴講者等に音声として出力される。
従来のWeb会議等のサービスにおいても、音声やカメラからの入力情報の受け付けの可否を設定することは可能である(例えば、ミュート機能)。例えば、セミナー等を聴講する場合には、講演者の音声を優先するため、聴講者は、音声等の入力を受け付けない状態でセミナー等を聴講することが普通である。しかし、そのため、講演者が聴講者の反応を確認することができなかったり、また聴講者同士のやり取りも困難なためセミナー自体が盛り上がりにくいという問題がある。
そのような問題を解決するため、図7に示す音声入力スタンプでは、講演者に対する反応を伝達することを主たる目的として、一定の条件(例えば、10秒)で音声の入力を認めそれを伝達することで、講演者や聴講者に対して、自身の反応を伝達し、より現実に近いセミナー等の運用を可能とする。
なお、従来のWeb会議等のサービス等で一時的に音声の入力を行う場合、一度、ミュート機能をOFFに設定し、音声の入力を行い、再度ミュート機能をONにするという作業を行う必要がある。さらに、従来のサービス等では、合わせてスタンプ等が表示されることもないため、急に聴講者の音声が再生されることになる。
Another embodiment, which is an application of the above embodiment, will now be described with reference to FIG.
FIG. 7 is a diagram showing an example of images displayed on the speaker terminal and audience terminal in FIG. 1, and is a diagram showing an example different from the example in FIG. The speech input stamp display function of this system will be described with reference to FIG.
In the example of FIG. 7, a message including an icon resembling the character "!" (hereinafter referred to as a "voice input stamp") is input and displayed as the user's message corresponding to the icon B1 in the chat display area C. there is In this embodiment, the voice input stamp is a stamp indicating acceptance of temporary voice input from each of the listeners. Specifically, in the example of FIG. 7, any voice input is allowed for 10 seconds at the audience terminal 3 used by the audience member corresponding to the icon B1, and the input voice is output as voice to other audience members. be done.
Even in services such as conventional web conferences, it is possible to set whether or not to accept input information from a voice or a camera (for example, a mute function). For example, when listening to a seminar or the like, priority is given to the speaker's voice, so it is common for the audience to listen to the seminar or the like in a state in which input of the voice or the like is not accepted. However, for this reason, there are problems such that the speaker cannot check the reaction of the audience, and it is difficult for the audience to communicate with each other, so that the seminar itself is difficult to liven up.
In order to solve such a problem, the voice input stamp shown in FIG. 7 recognizes voice input under a certain condition (for example, 10 seconds) and transmits it, mainly for the purpose of transmitting the reaction to the speaker. By doing so, it is possible to transmit one's own reaction to the lecturer and audience, and to operate seminars and the like that are closer to reality.
In addition, when temporarily inputting audio with services such as conventional web conferencing, it is necessary to turn off the mute function once, input audio, and then turn on the mute function again. be. Furthermore, in conventional services, etc., stamps and the like are not displayed at the same time, so the audience's voice is suddenly reproduced.

なお、図4や図7の例では、チャット表示領域Cを介して各種テキストメッセージが入力されていたが、例示であり限定されない。例えば、本システムは、チャット表示領域Cを介さずに仮想空間内に直接入力されたメッセージを表示してもよい。例えば、本システムは、チャット表示領域Cをそもそも設定しなくてもよい。 In addition, in the examples of FIGS. 4 and 7, various text messages are input via the chat display area C, but this is an example and is not limited. For example, the system may display a message directly input in the virtual space without going through the chat display area C. FIG. For example, the system may not set the chat display area C in the first place.

さらに言えば、図5の例で採用された「high」と「five」という単語は勿論例示であり限定されない。本システムは、関連性を有する任意の種別、任意の数の単語を、音声を出力するトリガとして採用してもよい。 Furthermore, the words "high" and "five" employed in the example of FIG. 5 are, of course, illustrative and not limiting. The system may employ any type and number of relevant words as triggers to output speech.

なお、図4や図7の例において、スタンプの表示指示は、チャット欄によりメッセージとして入力されるものとして説明したが限定されない。例えば、ショートカット等を用いて、より簡便に聴講者等が表示指示を与えてもよい。 Note that in the examples of FIGS. 4 and 7, the stamp display instruction is input as a message in the chat field, but the present invention is not limited to this. For example, an audience member or the like may give a display instruction more simply using a shortcut or the like.

また、図4の例において、拍手スタンプと合わせて再生される音声は「パチパチパチ」という音声であるものとして説明したが、限定されない。表示されるスタンプに適した任意の音声が再生されてもよいし、また聴講者等が再生される音声を自由にカスタマイズできてもよい。 Further, in the example of FIG. 4, the sound reproduced together with the applause stamp has been described as "clap-clap-clap", but the present invention is not limited to this. Any sound suitable for the displayed stamp may be played, or the sound played may be freely customized by the audience.

また、図4の例において、表示されるスタンプは拍手スタンプであるものとして説明したが限定されない。本システムにおいて表示されるスタンプは、既存のコミュニケーションツール等で利用されている任意のスタンプ等であってもよい。 Also, in the example of FIG. 4, the displayed stamp has been described as a clapping stamp, but the present invention is not limited to this. The stamp displayed in this system may be any stamp or the like used in existing communication tools or the like.

また、上述の実施形態及び他の実施形態において、上述の各種スタンプやメッセージ等は、キーボード等を介してユーザにより入力されるものとして説明したが、限定されない。
例えば、本システムが、各ユーザの撮像された画像等に基づいて、拍手する、手を挙げる、グッドサイン(親指を立てるジェスチャー)等の各種動作を解析し、自動で上述の各種スタンプやメッセージ等が入力される仕様を採用してもよい。
Further, in the above-described embodiment and other embodiments, the above various stamps, messages, and the like have been described as input by the user via a keyboard or the like, but the present invention is not limited to this.
For example, this system analyzes various actions such as clapping hands, raising hands, and good signs (thumbs up gestures) based on the images captured by each user, and automatically displays the various stamps and messages described above. A specification in which is input may be adopted.

また、上述の実施形態において、本システムを利用するユーザは、セミナー等を行う講演者とセミナー等を聴講する聴講者であるものとして説明したが、限定されない。本システムの利用は、単にセミナー等での利用に限られず、社内の会議、講演会、イベント、友人同士の集まり、インターネットゲーム等のあらゆる用途に利用可能である。その場合のユーザは、講演者や聴講者に限られず夫々の目的に沿った態様のユーザが本システムを利用できる。 Further, in the above-described embodiment, the users who use this system are described as being a lecturer who gives a seminar or the like and an audience member who attends the seminar or the like, but the present invention is not limited to this. The use of this system is not limited to seminars and the like, but can be used for various purposes such as in-house meetings, lectures, events, gatherings of friends, and Internet games. In that case, the users are not limited to lecturers and audience members, but can use this system according to their respective purposes.

また、上述の実施形態では説明を省略したが、上述の各種スタンプは、音声入力機能以外の任意の機能のON/OFFと紐づけられてもよい。例えば、本システムは、チャット又はショートカットキー等の操作により所定のスタンプを表示した場合に、ミュート機能、カメラ機能、仮想空間(VR会議空間や会議室等)からの退室機能等の各種機能のON/OFFを切り替える仕様を採用してもよい。 Further, although the description is omitted in the above-described embodiment, the various stamps described above may be associated with ON/OFF of any function other than the voice input function. For example, when a predetermined stamp is displayed by operating a chat or shortcut key, etc., the system turns on various functions such as a mute function, a camera function, and a function to leave the virtual space (VR conference space, conference room, etc.). A specification for switching between /OFF may be adopted.

また例えば、図1に示すシステム構成、および図2に示すサーバ1のハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。 Also, for example, the system configuration shown in FIG. 1 and the hardware configuration of the server 1 shown in FIG. 2 are merely examples for achieving the object of the present invention, and are not particularly limited.

また例えば、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。 Also, for example, the series of processes described above can be executed by hardware or by software.

また例えば、本システムを構成する各種ハードウェアの数や使用者は任意であるし、他のハードウェア等を含み構成されてもよい。さらに言えば、上述の各種ハードウェアには、同一のコンピュータ等が採用されてもよい。 Further, for example, the number and users of various hardware constituting this system are arbitrary, and the system may be configured including other hardware. Furthermore, the same computer or the like may be employed for the various types of hardware described above.

また例えば、一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであっても良い。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
即ち、例えば、上述の実施形態における各種ハードウェアには、任意のコンピュータ、任意のスマートフォン等の携帯端末等が自由に採用されてもよい。さらに言えば、各種入力部や各種出力部等の種別や内容についても任意の組み合わせが採用されてもよい。
Further, for example, when a series of processes is executed by software, a program constituting the software is installed in a computer or the like from a network or a recording medium.
The computer may be a computer built into dedicated hardware.
Also, the computer may be a computer capable of executing various functions by installing various programs, such as a server, a general-purpose smart phone, or a personal computer.
That is, for example, any computer, any mobile terminal such as a smart phone, or the like may be freely adopted as various hardware in the above-described embodiments. Furthermore, any combination of types and contents of various input units and various output units may be employed.

また例えば、このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に提供される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。 Further, for example, a recording medium containing such a program is not only constituted by a removable medium (not shown) that is provided separately from the device main body in order to provide the program to the user, but also is pre-installed in the device main body. It consists of a recording medium, etc. provided to the user in the

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理を含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
さらに言えば、フローチャートにおいて、通信は受信側と送信側は別途処理されてもよく、記載された全てのまたは一部の処理は、例えば、受信側または送信側のみで通信されてもよい。
In this specification, the steps of writing a program recorded on a recording medium are not only processes that are performed chronologically in that order, but also processes that are not necessarily chronologically processed, and that are performed in parallel or individually. It contains the processing to be performed.
Further, in this specification, the term "system" means an overall device composed of a plurality of devices, a plurality of means, or the like.
Furthermore, in the flow charts, communications may be handled separately on the receiving side and the transmitting side, and all or some of the processes described may be communicated on the receiving side or the transmitting side only, for example.

以上をまとめると、本発明が適用される情報処理システムは、次のような構成を有する各種各様の実施形態を取ることができる。
即ち、本発明が適用される情報処理装置は、
所定の情報を発信し得る第1ユーザに利用される第1端末と、
所定の情報を受信し得る複数の第2ユーザに利用される第2端末と、
サーバと、
を含む情報処理システムのうち、サーバとして機能する情報処理装置であって、
複数の前記第2ユーザのうち、1の前記第2ユーザから第1コンテキスト情報を取得する第1コンテキスト情報取得手段(例えば、コンテキスト情報取得部80)と、
複数の前記第2ユーザのうち、他の前記第2ユーザから第2コンテキスト情報を取得する第2コンテキスト情報取得手段(例えば、コンテキスト情報取得部80)と、
前記第1コンテキスト情報及び前記第2コンテキスト情報が所定の条件を満たしているか否かを判定する条件判定手段(例えば、条件判定部82)と、
前記条件が満たされている場合に音声として出力する出力情報を生成する出力情報生成手段(例えば、音声情報管理部84)と、
を備える。
In summary, the information processing system to which the present invention is applied can take various embodiments having the following configurations.
That is, the information processing apparatus to which the present invention is applied is
a first terminal used by a first user capable of transmitting predetermined information;
a second terminal used by a plurality of second users capable of receiving predetermined information;
a server;
An information processing device that functions as a server in an information processing system that includes
a first context information acquisition means (for example, a context information acquisition unit 80) for acquiring first context information from one of the plurality of second users;
a second context information acquisition means (for example, a context information acquisition unit 80) for acquiring second context information from the other second users among the plurality of second users;
condition determination means (e.g., condition determination unit 82) for determining whether the first context information and the second context information satisfy a predetermined condition;
an output information generating means (for example, a voice information management unit 84) for generating output information to be output as voice when the condition is satisfied;
Prepare.

また、前記第1コンテキスト情報及び前記第2コンテキスト情報は、テキスト情報であってもよい。 Also, the first context information and the second context information may be text information.

また、前記第1コンテキスト情報及び前記第2コンテキスト情報は、スタンプ情報であってもよい。 Also, the first context information and the second context information may be stamp information.

また、前記条件判定手段は、前記第1コンテキスト情報及び前記第2コンテキスト情報が、所定のテキスト情報の組み合わせである前記条件を満たしているか否かを判定することができる。 Also, the condition determining means can determine whether or not the first context information and the second context information satisfy the condition, which is a combination of predetermined text information.

また、前記出力情報は、音声情報であってもよい。 Also, the output information may be voice information.

1 サーバ
11 制御部
80 コンテキスト情報取得部
82 条件判定部
90 第1条件判定部
92 第2条件判定部
84 音声情報管理部
2 講演者端末
3-1乃至3-n 聴講者端末
110 制御部
130 コンテキスト情報受付部
132 音声情報取得部
134 出力情報制御部
1 server 11 control unit 80 context information acquisition unit 82 condition determination unit 90 first condition determination unit 92 second condition determination unit 84 voice information management unit 2 speaker terminal 3-1 to 3-n audience terminal 110 control unit 130 context Information reception unit 132 Voice information acquisition unit 134 Output information control unit

Claims (6)

所定の情報を発信し得る第1ユーザに利用される第1端末と、
所定の情報を受信し得る複数の第2ユーザに利用される第2端末と、
サーバと、
を含む情報処理システムのうち、サーバとして機能する情報処理装置であって、
複数の前記第2ユーザのうち、1の前記第2ユーザから第1コンテキスト情報を取得する第1コンテキスト情報取得手段と、
複数の前記第2ユーザのうち、他の前記第2ユーザから第2コンテキスト情報を取得する第2コンテキスト情報取得手段と、
前記第1コンテキスト情報及び前記第2コンテキスト情報が所定の条件を満たしているか否かを判定する条件判定手段と、
前記条件が満たされている場合に音声として出力する出力情報を生成する出力情報生成手段と、
を備える情報処理装置。
a first terminal used by a first user capable of transmitting predetermined information;
a second terminal used by a plurality of second users capable of receiving predetermined information;
a server;
An information processing device that functions as a server in an information processing system that includes
a first context information acquiring means for acquiring first context information from one of the second users among the plurality of second users;
a second context information acquiring means for acquiring second context information from the other second users among the plurality of second users;
condition determination means for determining whether the first context information and the second context information satisfy a predetermined condition;
output information generating means for generating output information to be output as voice when the condition is satisfied;
Information processing device.
前記第1コンテキスト情報及び前記第2コンテキスト情報は、テキスト情報である、
請求項1に記載の情報処理装置。
wherein the first context information and the second context information are text information;
The information processing device according to claim 1 .
前記第1コンテキスト情報及び前記第2コンテキスト情報は、スタンプ情報である、
請求項1に記載の情報処理装置。
wherein the first context information and the second context information are stamp information;
The information processing device according to claim 1 .
前記条件判定手段は、前記第1コンテキスト情報及び前記第2コンテキスト情報が、所定のテキスト情報の組み合わせである前記条件を満たしているか否かを判定する、
請求項2に記載の情報処理装置。
The condition determination means determines whether the first context information and the second context information satisfy the condition, which is a combination of predetermined text information.
The information processing apparatus according to claim 2.
前記出力情報は、音声情報である、
請求項2又は3に記載の情報処理装置。
wherein the output information is audio information;
The information processing apparatus according to claim 2 or 3.
所定の情報を発信し得る第1ユーザに利用される第1端末と、
所定の情報を受信し得る複数の第2ユーザに利用される第2端末と、
サーバと、
を含む情報処理システムのうち、サーバとして機能する情報処理装置に、
複数の前記第2ユーザのうち、1の前記第2ユーザから第1コンテキスト情報を取得する第1コンテキスト情報取得ステップと、
複数の前記第2ユーザのうち、他の前記第2ユーザから第2コンテキスト情報を取得する第2コンテキスト情報取得ステップと、
前記第1コンテキスト情報及び前記第2コンテキスト情報が所定の条件を満たしているか否かを判定する条件判定ステップと、
前記条件が満たされている場合に音声として出力する出力情報を生成する出力情報生成手段と、
を含む処理を実行させるプログラム。
a first terminal used by a first user capable of transmitting predetermined information;
a second terminal used by a plurality of second users capable of receiving predetermined information;
a server;
In an information processing system that functions as a server in an information processing system including
a first context information obtaining step of obtaining first context information from one of the plurality of second users;
a second context information obtaining step of obtaining second context information from the other second users among the plurality of second users;
a condition determination step of determining whether the first context information and the second context information satisfy a predetermined condition;
output information generating means for generating output information to be output as voice when the condition is satisfied;
A program that executes a process including
JP2022068638A 2021-05-21 2022-04-19 Information processing apparatus and program Pending JP2022179354A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2021086146 2021-05-21
JP2021086146 2021-05-21
JP2021185461 2021-11-15
JP2021185461 2021-11-15

Publications (1)

Publication Number Publication Date
JP2022179354A true JP2022179354A (en) 2022-12-02

Family

ID=84239168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022068638A Pending JP2022179354A (en) 2021-05-21 2022-04-19 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2022179354A (en)

Similar Documents

Publication Publication Date Title
US20180225131A1 (en) Context based adaptive virtual reality (vr) assistant in vr environments
JP6101973B2 (en) Voice link system
CN110597774A (en) File sharing method, system, device, computing equipment and terminal equipment
US20120017149A1 (en) Video whisper sessions during online collaborative computing sessions
TW201222271A (en) System and method for providing and managing interactive services
WO2019062667A1 (en) Method and device for transmitting conference content
US9369587B2 (en) System and method for software turret phone capabilities
KR20220109373A (en) Method for providing speech video
Martelaro et al. Using Remote Controlled Speech Agents to Explore Music Experience in Context
JP2006229903A (en) Conference supporting system, method and computer program
JP4957830B2 (en) Communication method, display device, moderator terminal device, user terminal device, and multi-user communication system including them
JP2022179354A (en) Information processing apparatus and program
JP7232846B2 (en) VOICE CHAT DEVICE, VOICE CHAT METHOD AND PROGRAM
JP7143874B2 (en) Information processing device, information processing method and program
JP6610076B2 (en) Information processing apparatus, information processing system, program, and recording medium
US11830120B2 (en) Speech image providing method and computing device for performing the same
JP2023058977A (en) Information processing device and program
US20240046540A1 (en) Speech image providing method and computing device for performing the same
Lee Real-Time mobile distance learning system for Smartphone
JP7282111B2 (en) METHOD, SYSTEM, AND COMPUTER-READABLE RECORDING MEDIUM FOR RECORDING INTERACTION IN INTERCONNECT WITH IMAGE COMMUNICATION SERVICE
JP7344612B1 (en) Programs, conversation summarization devices, and conversation summarization methods
US20230385767A1 (en) Agenda driven control of user interface environments
US20240129432A1 (en) Systems and methods for enabling a smart search and the sharing of results during a conference
US20240046951A1 (en) Speech image providing method and computing device for performing the same
WO2021235173A1 (en) Information processing device, information processing method, and program