JP7133257B1 - Program, information processing method, information processing device, and information processing system - Google Patents

Program, information processing method, information processing device, and information processing system Download PDF

Info

Publication number
JP7133257B1
JP7133257B1 JP2022004304A JP2022004304A JP7133257B1 JP 7133257 B1 JP7133257 B1 JP 7133257B1 JP 2022004304 A JP2022004304 A JP 2022004304A JP 2022004304 A JP2022004304 A JP 2022004304A JP 7133257 B1 JP7133257 B1 JP 7133257B1
Authority
JP
Japan
Prior art keywords
user
data
avatar
program
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022004304A
Other languages
Japanese (ja)
Other versions
JP2023103662A (en
Inventor
謙太郎 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KID'S PLATES CO.,LTD.
Original Assignee
KID'S PLATES CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KID'S PLATES CO.,LTD. filed Critical KID'S PLATES CO.,LTD.
Priority to JP2022004304A priority Critical patent/JP7133257B1/en
Priority to JP2022131701A priority patent/JP2023103950A/en
Application granted granted Critical
Publication of JP7133257B1 publication Critical patent/JP7133257B1/en
Publication of JP2023103662A publication Critical patent/JP2023103662A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】オンラインビデオコミュニケーションツールを利用するユーザ同士の多様なコミュニケーションを実現する。【解決手段】プロセッサを備えるコンピュータに、オンラインビデオコミュニケーションツールとして機能するアプリケーションへ映像データを出力させるプログラムであって、ユーザの撮像データを取得するステップと、撮像データに基づいて、ユーザをアバターに変換した映像データを生成するステップと、生成された映像データを出力するステップと、他のユーザの操作に応答して、当該他のユーザのアバターをユーザの映像データに合成した映像データを出力するステップと、を実行させるプログラムが提供される。【選択図】図5Kind Code: A1 A variety of communication between users using an online video communication tool is realized. A program for causing a computer with a processor to output video data to an application functioning as an online video communication tool, the program comprising steps of acquiring imaging data of a user and converting the user into an avatar based on the imaging data. a step of outputting the generated video data; and a step of outputting video data obtained by synthesizing the other user's avatar with the user's video data in response to another user's operation. and a program is provided. [Selection drawing] Fig. 5

Description

本発明は、プログラム、情報処理装置および方法に関する。 The present invention relates to a program, information processing apparatus and method.

近年、インターネットなどのネットワークを利用して、オンラインでコミュニケーションを行う技術が開発されている。例えば、特許文献1には、仮想会議に参加している参加者が自身の分身であるアバターとなって1つの仮想空間内に表示される会議システムが開示されている。 In recent years, techniques for online communication using networks such as the Internet have been developed. For example, Patent Literature 1 discloses a conference system in which participants participating in a virtual conference are displayed in one virtual space as avatars that are avatars of themselves.

特表2020-525946号公報Japanese Patent Publication No. 2020-525946

一方で、インターネットを利用したオンラインミーティングやオンラインセミナーなどを実現するオンラインビデオコミュニケーションツールが普及している。このようなオンラインビデオコミュニケーションツールを利用する際に、より多様なコミュニケーションを実現したいというニーズがある。 On the other hand, online video communication tools for realizing online meetings, online seminars, etc. using the Internet have become widespread. When using such online video communication tools, there is a need to realize more diverse communications.

本発明の目的は、オンラインビデオコミュニケーションツールを利用するユーザ同士の多様なコミュニケーションを実現することである。 An object of the present invention is to realize various types of communication between users using online video communication tools.

本発明の一態様によれば、プロセッサを備えるコンピュータに、オンラインビデオコミュニケーションツールとして機能するアプリケーションへ映像データを出力させるプログラムであって、ユーザの撮像データを取得するステップと、撮像データに基づいて、ユーザをアバターに変換した映像データを生成するステップと、生成された映像データを出力するステップと、他のユーザの操作に応答して、当該他のユーザのアバターをユーザの映像データに合成した映像データを出力するステップと、を実行させるプログラムが提供される。 According to one aspect of the present invention, there is provided a program for causing a computer having a processor to output video data to an application functioning as an online video communication tool, the program comprising the step of acquiring imaging data of a user; a step of generating video data in which a user is converted into an avatar; a step of outputting the generated video data; A program is provided that causes the step of outputting data.

本開示によれば、オンラインビデオコミュニケーションツールを利用するユーザ同士の多様なコミュニケーションを実現することができる。 According to the present disclosure, it is possible to realize various types of communication between users who use online video communication tools.

映像出力システム1の機能の概要を説明する図である。2 is a diagram for explaining an overview of functions of the video output system 1; FIG. 映像出力システム1のハードウェア構成を示すブロック図である。2 is a block diagram showing the hardware configuration of the video output system 1; FIG. ユーザ端末10の機能構成を示すブロック図である。2 is a block diagram showing the functional configuration of the user terminal 10; FIG. 管理サーバ20の機能構成を示すブロック図である。3 is a block diagram showing a functional configuration of a management server 20; FIG. 映像出力システム1の処理の流れの一例を示すフロー図である。3 is a flow diagram showing an example of the flow of processing of the video output system 1. FIG. ビデオコミュニケーション処理(S600)の処理の流れの一例を示すAn example of the processing flow of video communication processing (S600) is shown. コネクト申請処理(S700)の処理の流れの一例を示すフロー図である。FIG. 11 is a flow chart showing an example of the flow of connection application processing (S700); コネクト実施処理(S800)の処理の流れの一例を示すフロー図である。FIG. 11 is a flow chart showing an example of a process flow of connection execution processing (S800); ユーザ端末10に表示される画面例を示す図である。4 is a diagram showing an example of a screen displayed on the user terminal 10; FIG. ユーザ端末10に表示される画面例を示す図である。4 is a diagram showing an example of a screen displayed on the user terminal 10; FIG. 変形例1における画面例を説明する図である。FIG. 10 is a diagram illustrating an example of a screen in modification 1; 変形例2における画面例を説明する図である。FIG. 11 is a diagram illustrating an example of a screen in modification 2;

以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<1.第1実施形態>
(1.映像出力システム1の概要)
図1を参照して、映像出力システム1の概要を説明する。ユーザU1は、ユーザ端末10が備えるカメラ160を用いて、オンラインビデオコミュニケーションツールを利用することができる。オンラインビデオコミュニケーションツールとは、オンライン会議やオンラインセミナー、動画配信による配信者と視聴者とのコミュニケーションなどを実現し、インターネット上に配信されたユーザのビデオ(映像)データを介してユーザ同士のコミュニケーションを可能とするアプリケーションを指す。
<1. First Embodiment>
(1. Overview of video output system 1)
An overview of the video output system 1 will be described with reference to FIG. The user U1 can use the online video communication tool using the camera 160 included in the user terminal 10. FIG. Online video communication tools enable communication between distributors and viewers through online conferences, online seminars, and video distribution, and enable communication between users via user video (video) data distributed over the Internet. Refers to an application that enables

オンラインビデオコミュニケーションツールは、予めユーザ端末10にインストールされていてもよいし、クラウドサーバに対してウェブブラウザからアクセスして利用してもよい。一般に普及しているオンラインビデオコミュニケーションツールの一例としては、Zoom,Skype,GoogleMeet(いずれも登録商標)などを挙げることができる。 The online video communication tool may be installed in the user terminal 10 in advance, or may be used by accessing a cloud server from a web browser. Examples of popular online video communication tools include Zoom, Skype, and Google Meet (all registered trademarks).

図1Aに示すように、オンラインビデオコミュニケーションツールを利用する場合、通常はユーザ端末10が備えるカメラ160が撮像した撮像データD1が他のユーザの使用する端末に表示される。これにより、ユーザU1は他のユーザとビデオデータを介したコミュニケーションを実現することができる。 As shown in FIG. 1A, when using an online video communication tool, normally image data D1 captured by a camera 160 included in the user terminal 10 is displayed on a terminal used by another user. This allows user U1 to communicate with other users via video data.

一方、映像出力システム1では、図1Bに示すように、撮像データD1におけるユーザU1をアバターA1に変換した映像データE1を、オンラインビデオコミュニケーションツールに出力する。このように、映像出力システム1は、いわゆる仮想カメラソフトウェアとしての機能を備える。これにより、ユーザU1は、他のユーザが利用する端末の画面に自身の顔を出すことなく、オンラインビデオコミュニケーションを実施することができる。 On the other hand, in the video output system 1, as shown in FIG. 1B, the video data E1 in which the user U1 in the imaging data D1 is converted into the avatar A1 is output to the online video communication tool. Thus, the video output system 1 has a function as so-called virtual camera software. As a result, user U1 can conduct online video communication without showing his/her face on the screens of terminals used by other users.

映像出力システム1は、さらに、他のユーザU2からのリクエストに応答して、ユーザU1をアバターA1に変換した映像データにユーザU2をアバターA2に変換した映像を合成した合成データをオンラインビデオコミュニケーションツールに出力することができる。そのため、オンラインビデオコミュニケーションツールを利用するユーザ同士の多様なコミュニケーションを実現することが可能となる。以下、各構成を詳細に説明する。 Further, in response to a request from another user U2, the video output system 1 outputs composite data obtained by synthesizing the video data in which the user U1 has been converted into the avatar A1 and the video in which the user U2 has been converted into the avatar A2 as an online video communication tool. can be output to Therefore, it is possible to realize various types of communication between users using the online video communication tool. Each configuration will be described in detail below.

(2.映像出力システム1のハードウェア構成)
図2は、映像出力システム1の全体構成の例を示すブロック図である。映像出力システム1は、ユーザ端末10と、管理サーバ20を備える。ユーザ端末10、管理サーバ20は、例えば、ネットワーク40を介して通信接続する。ネットワーク40は、例えば、インターネット及び/又は通信事業者が提供する通信網等により実現される。
(2. Hardware Configuration of Video Output System 1)
FIG. 2 is a block diagram showing an example of the overall configuration of the video output system 1. As shown in FIG. A video output system 1 includes a user terminal 10 and a management server 20 . The user terminal 10 and the management server 20 are connected for communication via the network 40, for example. The network 40 is realized by, for example, the Internet and/or a communication network provided by a communication carrier.

本実施形態において、複数の装置の集合体を1つのサーバとしてもよい。1つ又は複数のハードウェアに対して本実施形態に係る管理サーバ20を実現することに要する複数の機能の配分の仕方は、各ハードウェアの処理能力及び/又は各サーバに求められる仕様等に鑑みて適宜決定することができる。 In this embodiment, a set of multiple devices may be used as one server. How to distribute a plurality of functions required to realize the management server 20 according to this embodiment to one or a plurality of pieces of hardware depends on the processing capability of each piece of hardware and/or the specifications required for each server. It can be determined as appropriate.

ユーザ端末10は、例えば、据え置き型のPC(Personal Computer)、又はラップトップPC等により実現される。また、ユーザ端末10は、スマートフォン、又はタブレット等の携帯端末により実現されてもよい。 The user terminal 10 is implemented by, for example, a stationary PC (Personal Computer), a laptop PC, or the like. Also, the user terminal 10 may be realized by a mobile terminal such as a smart phone or a tablet.

ユーザ端末10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、ストレージ16と、プロセッサ17とを備える。 The user terminal 10 includes a communication IF (Interface) 12 , an input device 13 , an output device 14 , a memory 15 , a storage 16 and a processor 17 .

通信IF12は、ユーザ端末10が外部の装置と通信するため、信号を入出力するためのインタフェースである。 The communication IF 12 is an interface for inputting and outputting signals for the user terminal 10 to communicate with an external device.

入力装置13は、ユーザからの入力操作を受け付けるための装置(例えば、キーボード、マウス等のポインティングデバイス、タッチパネル、タッチパッド等)である。 The input device 13 is a device (for example, a keyboard, a pointing device such as a mouse, a touch panel, a touch pad, etc.) for receiving an input operation from a user.

出力装置14は、ユーザに対して情報を提示するための装置(ディスプレイ、スピーカ等)である。 The output device 14 is a device (display, speaker, etc.) for presenting information to the user.

メモリ15は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。 The memory 15 temporarily stores programs and data processed by the programs, and is a volatile memory such as a DRAM (Dynamic Random Access Memory).

ストレージ16は、データを保存するためのものであり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。 The storage 16 is for storing data, and is, for example, a flash memory or a HDD (Hard Disc Drive).

プロセッサ17は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。 The processor 17 is hardware for executing an instruction set described in a program, and is composed of arithmetic units, registers, peripheral circuits, and the like.

管理サーバ20は、映像出力システム1を利用するユーザの管理およびユーザ認証(ログイン/ログアウト)を行う。管理サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ27とを備える。 The management server 20 manages users who use the video output system 1 and performs user authentication (login/logout). The management server 20 includes a communication IF 22 , an input/output IF 23 , a memory 25 , a storage 26 and a processor 27 .

通信IF22は、管理サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。 The communication IF 22 is an interface for inputting and outputting signals so that the management server 20 communicates with an external device.

入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、及び、ユーザに対し、情報を提示するための出力装置とのインタフェースとして機能する。 The input/output IF 23 functions as an interface with an input device for receiving input operations from the user and an output device for presenting information to the user.

メモリ25は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM等の揮発性のメモリである。 The memory 25 temporarily stores programs and data processed by the programs, and is a volatile memory such as a DRAM.

ストレージ26は、データを保存するためのものであり、例えばフラッシュメモリ、HDDである。 The storage 26 is for storing data, and is, for example, flash memory or HDD.

プロセッサ27は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。 The processor 27 is hardware for executing an instruction set described in a program, and is composed of arithmetic units, registers, peripheral circuits, and the like.

(3.映像出力システム1の機能構成)
以下、図3~図5を参照して、映像出力システム1の機能構成を説明する。
(3. Functional Configuration of Video Output System 1)
The functional configuration of the video output system 1 will be described below with reference to FIGS. 3 to 5. FIG.

(3-1.ユーザ端末10の機能構成)
図3は、第1実施形態の映像出力システム1を構成するユーザ端末10の構成を示す図である。ユーザ端末10は、インターネットなどのネットワークを介して管理サーバ20と通信可能に接続される。ユーザ端末10は、5G、LTE(Long Term Evolution)などの通信規格に対応した無線基地局、またはIEEE(Institute of Electrical and Electronics Engineers)802.11などの無線LAN(Local Area Network)規格に対応した無線LANルータ等の通信機器と通信することによりネットワークに接続される。
(3-1. Functional Configuration of User Terminal 10)
FIG. 3 is a diagram showing the configuration of the user terminal 10 that constitutes the video output system 1 of the first embodiment. The user terminal 10 is communicably connected to the management server 20 via a network such as the Internet. The user terminal 10 is a wireless base station compatible with communication standards such as 5G and LTE (Long Term Evolution), or a wireless LAN (Local Area Network) standard such as IEEE (Institute of Electrical and Electronics Engineers) 802.11. It is connected to a network by communicating with a communication device such as a wireless LAN router.

図3に示すように、ユーザ端末10は、アンテナ110と、アンテナ110に対応する無線通信部120と、操作受付部130(キーボード131およびマウス132を含む)と、音声処理部140(マイク141およびスピーカ142を含む)と、ディスプレイ150と、カメラ160と、記憶部170と、制御部180とを含む構成としてもよい。 As shown in FIG. 3, the user terminal 10 includes an antenna 110, a wireless communication unit 120 corresponding to the antenna 110, an operation reception unit 130 (including a keyboard 131 and a mouse 132), and an audio processing unit 140 (a microphone 141 and (including speaker 142 ), display 150 , camera 160 , storage unit 170 , and control unit 180 .

なお、ユーザ端末10は、図3では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路など)も有している。図3においてブロックで示される各構成は、バス等により電気的に接続される。 Note that the user terminal 10 also has functions and configurations not particularly shown in FIG. 3 (for example, a battery for retaining power, a power supply circuit for controlling power supply from the battery to each circuit, etc.). there is Each configuration indicated by a block in FIG. 3 is electrically connected by a bus or the like.

アンテナ110は、ユーザ端末10が発する信号を電波として放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信部120へ与える。 The antenna 110 radiates a signal emitted by the user terminal 10 as radio waves. Antenna 110 also receives radio waves from space and provides a received signal to radio communication section 120 .

無線通信部120は、ユーザ端末10が他の無線機器と通信するため、アンテナ110を介して信号を送受信するための変復調処理などを行う。無線通信部120は、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部180へ与える。 The wireless communication unit 120 performs modulation and demodulation processing for transmitting and receiving signals via the antenna 110 so that the user terminal 10 communicates with other wireless devices. The radio communication unit 120 modulates, demodulates, and frequency-converts radio signals transmitted and received by the user terminal 10 , and provides received signals to the control unit 180 .

操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、キーボード131と、マウス132とを含むことができる。 The operation accepting unit 130 has a mechanism for accepting user input operations. Specifically, the operation reception unit 130 can include a keyboard 131 and a mouse 132 .

音声処理部140は、音声信号の変復調を行い、マイク141から与えられる信号を変調して、変調後の信号を制御部180へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声をユーザ端末10の外部へ出力する。 The audio processing unit 140 modulates and demodulates the audio signal, modulates the signal supplied from the microphone 141 , and supplies the modulated signal to the control unit 180 . Also, the audio processing unit 140 provides an audio signal to the speaker 142 . The audio processing unit 140 is implemented by, for example, a processor for audio processing. Microphone 141 receives a voice input and provides voice signal corresponding to the voice input to voice processing section 140 . The speaker 142 converts the audio signal given from the audio processing unit 140 into audio and outputs the audio to the outside of the user terminal 10 .

ディスプレイ150は、制御部180の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ150は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現され得る。 The display 150 displays data such as images, moving images, and text under the control of the control unit 180 . The display 150 can be implemented by, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display.

カメラ160は、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ160は、例えば、撮影した画像をリアルタイムでネットワーク40へ転送可能なリアルタイムカメラ(いわゆるウェブカメラを含む)であってもよい。 The camera 160 is a device for receiving light with a light receiving element and outputting it as a photographed image. Camera 160 may be, for example, a real-time camera (including a so-called web camera) capable of transferring captured images to network 40 in real time.

記憶部170は、例えばメモリ15またはストレージ16で構成され、ユーザ端末10が使用するデータおよびプログラムを記憶する。記憶部170には、一例として、アバターデータベース282が記憶されている。アバターデータベース282はユーザが使用可能なアバターについての情報である。アバターとは、コンピュータの画面上に表示される仮想空間においてユーザの分身として表示されるキャラクターを指す。アバターデータベース282は、ユーザが使用可能なアバターの外見、属性(名称、性別、種等)、声などの情報を保持する。 The storage unit 170 is configured by, for example, the memory 15 or the storage 16 and stores data and programs used by the user terminal 10 . As an example, the storage unit 170 stores an avatar database 282 . Avatar database 282 is information about avatars available to users. An avatar is a character displayed as a user's alter ego in a virtual space displayed on a computer screen. The avatar database 282 holds information such as the appearance, attributes (name, gender, species, etc.), and voice of avatars that can be used by the user.

制御部180は、プロセッサ17が記憶部170に記憶されるプログラムを読み込み、プログラムに含まれる命令を実行することにより実現され、ユーザ端末10の動作を制御する。制御部180は、例えば予めユーザ端末10にインストールされているアプリケーションとして実現してもよい。制御部180は、プログラムに従って動作することにより、操作受付モジュール1801と、送受信モジュール1802と、通知モジュール1803と、撮像モジュール1804と、映像生成モジュール1805と、映像出力モジュール1806と、認証モジュール1807としての機能を発揮する。 The control unit 180 is implemented by the processor 17 reading a program stored in the storage unit 170 and executing instructions included in the program, and controls the operation of the user terminal 10 . The control unit 180 may be implemented as an application installed in the user terminal 10 in advance, for example. By operating according to a program, the control unit 180 operates as an operation reception module 1801, a transmission/reception module 1802, a notification module 1803, an imaging module 1804, a video generation module 1805, a video output module 1806, and an authentication module 1807. function.

操作受付モジュール1801は、キーボード131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。 The operation acceptance module 1801 performs processing for accepting a user's input operation to an input device such as the keyboard 131 or the like.

送受信モジュール1802は、ユーザ端末10が、管理サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。 The transmission/reception module 1802 performs processing for the user terminal 10 to transmit/receive data to/from an external device such as the management server 20 according to a communication protocol.

通知モジュール1803は、ユーザに対し情報を通知する処理を行う。具体的には、通知制御部184は、表示画像をディスプレイ150に表示させる処理、音声をスピーカ142に出力させる処理、振動をカメラ160に発生させる処理等を行う。 The notification module 1803 performs processing for notifying the user of information. Specifically, the notification control unit 184 performs processing for displaying a display image on the display 150, processing for outputting sound to the speaker 142, processing for causing the camera 160 to vibrate, and the like.

撮像モジュール1804は、カメラ160を機能させてユーザの撮像データを取得する。撮像モジュール1804の処理の詳細は後述する。 The imaging module 1804 operates the camera 160 to acquire imaging data of the user. Details of the processing of the imaging module 1804 will be described later.

映像生成モジュール1805は、撮像モジュール1804が取得した撮像データに基づいて、ユーザをアバターに変換した映像データを生成する。映像生成モジュール1805の処理の詳細は後述する。 The video generation module 1805 generates video data in which the user is converted into an avatar based on the imaging data acquired by the imaging module 1804 . Details of the processing of the video generation module 1805 will be described later.

映像出力モジュール1806は、映像生成モジュール1805が生成した映像データを、オンラインビデオコミュニケーションツールに出力する。映像出力モジュール1806の処理の詳細は後述する。 A video output module 1806 outputs the video data generated by the video generation module 1805 to an online video communication tool. Details of the processing of the video output module 1806 will be described later.

認証モジュール1807は、他のユーザからのコネクトのリクエストの認証を行う。認証モジュール1807の処理の詳細は後述する。 The authentication module 1807 authenticates connection requests from other users. Details of the processing of the authentication module 1807 will be described later.

ユーザは、映像出力システム1が提供するサービスを利用するために、所定のアプリケーションをユーザ端末10にインストールしてもよい。ユーザ端末10は、ユーザから、クレジットカード情報、携帯決済サービス事業者が提供する決済サービスに関する情報の登録を受け付けてもよい。 A user may install a predetermined application on the user terminal 10 in order to use the service provided by the video output system 1 . The user terminal 10 may accept registration of credit card information and information on payment services provided by mobile payment service providers from users.

(3-2.管理サーバ20の機能構成)
図4は、管理サーバ20の構成を示す図である。図4に示すように、管理サーバ20は、通信部201と、記憶部202と、入出力部203と、制御部204を備える。
(3-2. Functional Configuration of Management Server 20)
FIG. 4 is a diagram showing the configuration of the management server 20. As shown in FIG. As shown in FIG. 4 , the management server 20 includes a communication section 201 , a storage section 202 , an input/output section 203 and a control section 204 .

通信部201は、管理サーバ20がユーザ端末10等の外部の装置と通信するための処理を行う。 The communication unit 201 performs processing for the management server 20 to communicate with an external device such as the user terminal 10 .

記憶部202は、メモリ25またはストレージ26で実現され、管理サーバ20が使用するデータ及びプログラムを記憶する。一例として、記憶部202には、ユーザデータベース2021が記憶されている。ユーザデータベース2021は、映像出力システム1を利用するユーザの情報(氏名、性別、年齢、住所、ID、パスワード等)を記憶する。 The storage unit 202 is realized by the memory 25 or the storage 26 and stores data and programs used by the management server 20 . As an example, the storage unit 202 stores a user database 2021 . The user database 2021 stores information (name, gender, age, address, ID, password, etc.) of users who use the video output system 1 .

入出力部203は、ユーザからの入力操作を受け付けるための入力装置、および、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。 The input/output unit 203 functions as an interface with an input device for receiving input operations from the user and an output device for presenting information to the user.

制御部204は、プロセッサ27がプログラムに従って処理を行うことにより、以下に示す各種モジュールとして示す機能を発揮する。 The control unit 204 exhibits functions shown as various modules shown below when the processor 27 performs processing according to a program.

送受信モジュール2041は、管理サーバ20が外部の装置から通信プロトコルに従って信号を送受信する処理を制御する。 The transmission/reception module 2041 controls the process of transmitting/receiving a signal from an external device by the management server 20 according to a communication protocol.

認証モジュール2042は、ユーザ認証を行う。認証モジュール2042の処理の詳細は後述する。 Authentication module 2042 performs user authentication. Details of the processing of the authentication module 2042 will be described later.

(4.処理の流れ)
以下、図5~図8を参照し、映像出力システム1の処理の流れについて説明する。
(4. Flow of processing)
The processing flow of the video output system 1 will be described below with reference to FIGS. 5 to 8. FIG.

(4-1.映像出力システム1の処理)
図5を参照して、映像出力システム1の処理の流れの一例を説明する。ステップS511において、ユーザ端末10は、ユーザからIDとパスワードを受け付けて管理サーバ20へ送信する。ステップS521において、管理サーバ20は、ユーザ端末10が送信したIDとパスワードを受信する。
(4-1. Processing of video output system 1)
An example of the processing flow of the video output system 1 will be described with reference to FIG. In step S<b>511 , the user terminal 10 receives an ID and password from the user and transmits them to the management server 20 . In step S<b>521 , the management server 20 receives the ID and password transmitted by the user terminal 10 .

ステップS522において、管理サーバ20の認証モジュール2042は、記憶部202内のユーザデータベース2021を参照し、IDとパスワードによるログイン認証を実行する。ステップS512において、ユーザ端末10の通知モジュール1803は、管理サーバ20からの通知に基づき、ログイン認証が成功したことをディスプレイ150に表示する。 In step S522, the authentication module 2042 of the management server 20 refers to the user database 2021 in the storage unit 202 and performs login authentication using the ID and password. In step S<b>512 , the notification module 1803 of the user terminal 10 displays on the display 150 that login authentication has succeeded based on the notification from the management server 20 .

ステップS600において、ユーザ端末10は、ビデオコミュニケーション処理を実行する。ビデオコミュニケーション処理の詳細は後述する。 In step S600, the user terminal 10 executes video communication processing. Details of the video communication processing will be described later.

ステップS513において、ユーザ端末10は、ユーザからログアウトの操作を受け付ける。ステップS523において、管理サーバ20は、ログアウト処理のリクエストを受信する。 In step S513, the user terminal 10 receives a logout operation from the user. In step S523, the management server 20 receives a request for logout processing.

ステップS524において、管理サーバ20の認証モジュール2042は、ログアウト処理を実行する。ステップS514において、ユーザ端末10の通知モジュール1803は、管理サーバ20からの通知に基づき、ログアウトしたことをディスプレイ150に表示する。 In step S524, the authentication module 2042 of the management server 20 executes logout processing. In step S<b>514 , the notification module 1803 of the user terminal 10 displays on the display 150 that the user has logged out based on the notification from the management server 20 .

(4-2.ビデオコミュニケーション処理の流れ)
図6を参照して、ビデオコミュニケーション処理(S600)の処理の流れの一例を説明する。ステップS610において、ユーザ端末10の撮像モジュール1804は、カメラ160を機能させてユーザの撮像データを取得する。
(4-2. Flow of video communication processing)
An example of the processing flow of the video communication processing (S600) will be described with reference to FIG. In step S610, the imaging module 1804 of the user terminal 10 activates the camera 160 and acquires imaging data of the user.

ステップS620において、ユーザ端末10の映像生成モジュール1805は、撮像モジュール1804が取得した撮像データに基づいて、ユーザをアバターに変換した映像データを生成する。具体的には、例えば、撮像データにおけるユーザの顔における特徴点を抽出し、当該特徴点の動きをトラッキングする。その上で、アバターにおける当該特徴点に該当する箇所をトラッキングした動きに合わせて動かした動画を生成する。 In step S620, the video generation module 1805 of the user terminal 10 generates video data in which the user is converted into an avatar based on the imaging data acquired by the imaging module 1804. FIG. Specifically, for example, feature points on the user's face in the imaging data are extracted, and the movement of the feature points is tracked. Then, a moving image is generated in which the portion of the avatar corresponding to the feature point is moved according to the tracked movement.

ステップS630において、ユーザ端末10の映像出力モジュール186は、映像生成モジュール1805が生成した映像データを、オンラインビデオコミュニケーションツールとして機能するアプリケーションへ出力する。一例として、映像出力モジュール186は、オンラインビデオコミュニケーションツールとして機能するアプリケーションに設定されている仮想カメラソフトウェアからの入力を受け付ける入力チャネルに対して、映像データを出力する。 In step S630, the video output module 186 of the user terminal 10 outputs the video data generated by the video generation module 1805 to an application functioning as an online video communication tool. As an example, video output module 186 outputs video data to an input channel that accepts input from virtual camera software configured in an application functioning as an online video communication tool.

ステップS700において、コネクト申請処理が実行される。コネクト申請処理の詳細は後述する。 In step S700, connection application processing is executed. Details of the connection application processing will be described later.

ステップS800において、コネクト実施処理が実行される。コネクト実施処理の詳細は後述する。 In step S800, connection execution processing is executed. The details of the connection execution process will be described later.

(4-3.コネクト申請処理の流れ)
図7を参照して、コネクト申請処理(S700)の流れの一例を説明する。なお、以下の説明において、自身が使用するユーザ端末10のディスプレイ150に、他のユーザのアバターを表示させるユーザをオーナーともいい、当該他のユーザをゲストともいう。オーナーとゲストは、ともにオンラインビデオコミュニケーションに参加してコミュニケーションをとるユーザである。また、オーナーが使用するユーザ端末10のディスプレイ150にゲストのアバターを表示させることをコネクトともいう。また、コネクトの1単位をセッションともいい、コネクトはセッションIDで一意に管理される。
(4-3. Flow of connection application processing)
An example of the flow of the connection application process (S700) will be described with reference to FIG. In the following description, a user who displays another user's avatar on the display 150 of the user terminal 10 used by the user is also called an owner, and the other user is also called a guest. Both the owner and the guest are users who participate in online video communication and communicate with each other. Displaying a guest's avatar on the display 150 of the user terminal 10 used by the owner is also called connect. One unit of connect is also called a session, and the connect is uniquely managed by a session ID.

ステップS711において、ユーザ端末10の送受信モジュール1802は、ユーザ(オーナー)から受け付けたセッションIDを管理サーバ20へ送信する。ステップS721において、管理サーバ20の送受信モジュール2041は、セッションIDを受信する。 In step S<b>711 , the transmission/reception module 1802 of the user terminal 10 transmits the session ID received from the user (owner) to the management server 20 . In step S721, the transmission/reception module 2041 of the management server 20 receives the session ID.

ステップS712において、ユーザ端末10の送受信モジュール1802は、ユーザ(オーナー)からコネクトを許可するための操作を受け付け、管理サーバ20へ送信する。ステップS722において、管理サーバ20の送受信モジュール2041は、ユーザ(オーナー)がコネクトを許可したことを受信する。 In step S<b>712 , the transmission/reception module 1802 of the user terminal 10 receives an operation for permitting connection from the user (owner) and transmits the operation to the management server 20 . In step S722, the transmission/reception module 2041 of the management server 20 receives that the user (owner) has permitted connection.

ステップS731において、ユーザ端末10の送受信モジュール1802は、ユーザ(ゲスト)から受け付けたセッションIDを管理サーバ20へ送信する。ステップS723において、管理サーバ20の送受信モジュール2041は、セッションIDを受信する。 In step S<b>731 , the transmission/reception module 1802 of the user terminal 10 transmits the session ID received from the user (guest) to the management server 20 . In step S723, the transmission/reception module 2041 of the management server 20 receives the session ID.

ステップS732において、ユーザ端末10の送受信モジュール1802は、ユーザ(ゲスト)からコネクトのリクエストを受け付け、管理サーバ20へ送信する。ステップS724において、管理サーバ20の送受信モジュール2041は、コネクトのリクエストを受信する。 In step S<b>732 , the transmission/reception module 1802 of the user terminal 10 receives a connect request from the user (guest) and transmits it to the management server 20 . In step S724, the transmission/reception module 2041 of the management server 20 receives the connection request.

ステップS725において、管理サーバ20の送受信モジュール2041は、コネクトのリクエストをユーザ(オーナー)のユーザ端末10へ送信する。ユーザ端末10の送受信モジュール1802は、リクエストを受信する。 In step S725, the transmission/reception module 2041 of the management server 20 transmits a connect request to the user terminal 10 of the user (owner). The transmission/reception module 1802 of the user terminal 10 receives the request.

ステップS714において、ユーザ端末10の認証モジュール1807は、ユーザ(オーナー)の操作に基づいてリクエストを承認する。ステップS726において、管理サーバ20の送受信モジュール2041は、リクエストが承認されたことを受信する。これにより、ユーザ(ゲスト)によるコネクトの申請が承認され、コネクト実施処理(S800)が実行される。 In step S714, the authentication module 1807 of the user terminal 10 approves the request based on the user's (owner's) operation. In step S726, the transmission/reception module 2041 of the management server 20 receives that the request has been approved. As a result, the application for connection by the user (guest) is approved, and connection execution processing (S800) is executed.

(4-4.コネクト実施処理の流れ)
図8を参照して、コネクト実施処理(S800)の流れの一例を説明する。ステップS811およびステップS831において、ユーザ端末10の撮像モジュール1804は、カメラ160を機能させてユーザの撮像データを取得する。ステップS812およびステップS832において、ユーザ端末10の映像生成モジュール1805は、撮像モジュール1804が取得した撮像データに基づいて、ユーザをアバターに変換した映像データを生成する。
(4-4. Flow of connection execution processing)
An example of the flow of the connection execution process (S800) will be described with reference to FIG. In steps S811 and S831, the imaging module 1804 of the user terminal 10 activates the camera 160 and acquires imaging data of the user. In steps S812 and S832, the video generation module 1805 of the user terminal 10 generates video data in which the user is converted into an avatar, based on the imaging data acquired by the imaging module 1804. FIG.

ステップS833において、ユーザ端末10(ゲスト)の送受信モジュール1802は、撮像データにおけるユーザの動きをトラッキングしたトラッキングデータを、管理サーバ20へ送信する。ステップS821において、管理サーバ20の送受信モジュール2041は、トラッキングデータを受信する。 In step S<b>833 , the transmission/reception module 1802 of the user terminal 10 (guest) transmits tracking data obtained by tracking the movement of the user in the imaging data to the management server 20 . In step S821, the transmission/reception module 2041 of the management server 20 receives tracking data.

ステップS822において、管理サーバ20の送受信モジュール2041は、トラッキングデータをユーザ端末10(オーナー)へ送信する。ステップS813において、ユーザ端末10(オーナー)の送受信モジュール1802は、トラッキングデータを受信する。 In step S822, the transmission/reception module 2041 of the management server 20 transmits the tracking data to the user terminal 10 (owner). In step S813, the transmission/reception module 1802 of the user terminal 10 (owner) receives the tracking data.

ステップS814において、ユーザ端末10(ゲスト)の映像生成モジュール1805は、ステップS812で生成した映像データと、受信したトラッキングデータとに基づいて、オーナーのアバターとゲストのアバターとが1つの仮想空間内に表示されている合成データを生成する。 In step S814, the video generation module 1805 of the user terminal 10 (guest) generates the owner avatar and the guest avatar in one virtual space based on the video data generated in step S812 and the received tracking data. Generate the displayed synthetic data.

ステップS815において、ユーザ端末10(ゲスト)の映像出力モジュール1806は、合成データをオンラインビデオコミュニケーションツールとして機能するアプリケーションへ出力する。ステップS834において、ユーザ端末10(ゲスト)の映像出力モジュール1806は、ステップS832で生成した映像データからゲストのアバターを削除した映像データを、オンラインビデオコミュニケーションツールとして機能するアプリケーションへ出力する。 In step S815, the video output module 1806 of the user terminal 10 (guest) outputs the synthesized data to an application functioning as an online video communication tool. In step S834, the video output module 1806 of the user terminal 10 (guest) outputs the video data generated in step S832 with the guest's avatar removed to an application functioning as an online video communication tool.

(5.画面例)
図9および図10を参照して、ユーザ端末10のディスプレイ150に表示される画面例を説明する。
(5. Screen example)
Screen examples displayed on the display 150 of the user terminal 10 will be described with reference to FIGS. 9 and 10. FIG.

図9Aには、オーナーとしてのユーザのアバターA1が表示された映像データE1と、ゲストとしてのユーザのアバターA2が表示された映像データE2が表示されている。ステップS711において、ユーザ(オーナー)は、セッションID受付欄P1に任意のセッションIDを入力する。ステップS712において、ユーザ(オーナー)は、接続ボタンQ1を押下してコネクトの受付を管理サーバ20へ送信する。 FIG. 9A shows video data E1 in which the user's avatar A1 as the owner is displayed, and video data E2 in which the user's avatar A2 as the guest is displayed. In step S711, the user (owner) inputs an arbitrary session ID in the session ID reception field P1. In step S712, the user (owner) presses the connection button Q1 to transmit a connection acceptance to the management server 20. FIG.

図9Bに示すように、ステップS731において、ユーザ(ゲスト)は、セッションID受付欄P2aにセッションIDを入力する。ステップS732において、ユーザ(ゲスト)は、接続ボタンQ2を押下してコネクトのリクエストを管理サーバ20へ送信する。ここで、ユーザ(ゲスト)が入力したセッションIDがユーザ(オーナー)によって設定されたセッションIDと一致する場合(セッションIDの認証が成功した場合)、ステップS725において、当該コネクトのリクエストがあることを管理サーバ20がユーザ端末10(オーナー)に通知される。なお、コネクト実行時にゲストのアバターA2がオーナーのアバターA1の左右どちら側に表示されるかを設定する表示サイド設定ボタンP2bを設けてもよい。 As shown in FIG. 9B, in step S731, the user (guest) enters a session ID in the session ID reception field P2a. In step S<b>732 , the user (guest) presses the connection button Q<b>2 to transmit a connection request to the management server 20 . Here, if the session ID entered by the user (guest) matches the session ID set by the user (owner) (if authentication of the session ID is successful), in step S725, it is determined that there is a connection request. The management server 20 notifies the user terminal 10 (owner). In addition, a display side setting button P2b may be provided for setting whether the guest's avatar A2 is displayed on the left or right side of the owner's avatar A1 when the connection is executed.

図10Aに示すように、ステップS725において、当該コネクトのリクエストがあることを管理サーバ20がユーザ端末10(オーナー)に通知されると、オーナー側の画面にはゲストからのリクエストがあることが表示される。ステップS714において、オーナーが承認ボタンR1aを押下することにより、リクエストが承認される As shown in FIG. 10A, in step S725, when the management server 20 notifies the user terminal 10 (owner) of the connection request, the owner's screen displays that there is a request from the guest. be done. In step S714, the request is approved by the owner pressing the approval button R1a.

なお、オーナーは拒否ボタンR1bを押下して、当該リクエストを拒否してもよい。また、ゲストは、キャンセルボタンR2を押下してリクエストをキャンセルしてもよい。 Note that the owner may reject the request by pressing the rejection button R1b. Also, the guest may press the cancel button R2 to cancel the request.

コネクト実施処理(S800)が実行されると、オーナーのアバターA1とゲストのアバターA2とが同一の仮想空間内で表示された合成データE3がオーナーのユーザ端末10のディスプレイ150に表示される。ここで、アバターA1およびアバターA2はそれぞれオーナーおよびゲストの動きをトラッキングして生成されているため、オーナーおよびゲストの動きが反映されて表示される。 When the connection execution process (S800) is executed, synthesized data E3 in which the owner's avatar A1 and the guest's avatar A2 are displayed in the same virtual space is displayed on the display 150 of the owner's user terminal 10. FIG. Here, since the avatar A1 and the avatar A2 are generated by tracking the movements of the owner and the guest respectively, the movements of the owner and the guest are reflected and displayed.

以上のように、本実施の形態においては、映像出力システム1は、ユーザの撮像データを取得するステップと、撮像データに基づいて、ユーザをアバターに変換した映像データを生成するステップと、生成された映像データを出力するステップと、他のユーザの操作に応答して、当該他のユーザのアバターをユーザの映像データに合成した映像データを出力するステップと、を実行する。 As described above, in the present embodiment, the video output system 1 includes the step of acquiring the imaging data of the user, the step of generating video data in which the user is converted into an avatar based on the imaging data, and the generated and outputting video data obtained by synthesizing the other user's avatar with the user's video data in response to another user's operation.

これにより、オンラインビデオコミュニケーションツールを利用するユーザ同士の多様なコミュニケーションを実現することができる。また、特別なシステムを用意することなく、一般に普及しているオンラインビデオコミュニケーションツールと仮想カメラソフトウェアのみで、複数のユーザのアバター映像を合成し、アバターによるコミュニケーションを実現することができる。 As a result, various types of communication can be realized between users using the online video communication tool. In addition, without preparing a special system, it is possible to synthesize avatar images of multiple users and realize communication using avatars using only popular online video communication tools and virtual camera software.

(6.変形例1)
図11を参照して、本実施形態の変形例1について相違点を中心に説明する。変形例1では、3人のユーザのアバターを合成して1つの画面に表示させる。具体的には、図11Aおよび図11Bに示すように、オーナーとしてのユーザのアバターA1と、ゲストとしてのユーザのアバターA2およびA3を合成させた合成データE4を生成して、オーナーが使用するユーザ端末10のディスプレイ150に表示させる。このように、本開示における技術的思想は、3以上のユーザに対して適用することも可能であり、アバターを用いたコミュニケーションをより多様なものにすることができる。
(6. Modification 1)
Referring to FIG. 11, Modification 1 of the present embodiment will be described with a focus on the points of difference. In Modification 1, the avatars of three users are synthesized and displayed on one screen. Specifically, as shown in FIGS. 11A and 11B, synthesized data E4 is generated by synthesizing avatar A1 of the user as the owner and avatars A2 and A3 of the users as guests, and Displayed on the display 150 of the terminal 10 . In this way, the technical idea of the present disclosure can be applied to three or more users, and communication using avatars can be made more diverse.

(7.変形例2)
図12を参照して、本実施形態の変形例2について相違点を中心に説明する。変形例2では、合成データ内に表示されたアバターをユーザの操作によって移動させることが可能となっている。図12Aおよび図12Bに示すように、オーナーまたはゲストが使用するユーザ端末10の操作受付部130を使用した操作により、合成データE1内のアバターの動きを制御することが可能となっている。具体的には、映像生成モジュール1805が操作受付部130からの操作の内容に基づいて、アバターの動きを変化させた映像を生成し、当該映像を映像出力モジュール1806がオンラインビデオコミュニケーションとして機能するアプリケーションへ出力する。このような仕様とすることにより、合成データ内でのアバター同士によるコミュニケーションをより多様なものとすることが可能となる。
(7. Modification 2)
With reference to FIG. 12, the second modification of the present embodiment will be described with a focus on differences. In Modified Example 2, the avatar displayed in the synthesized data can be moved by the user's operation. As shown in FIGS. 12A and 12B, it is possible to control the movement of the avatar in the synthesized data E1 by operating the operation reception unit 130 of the user terminal 10 used by the owner or guest. Specifically, the video generation module 1805 generates a video in which the movement of the avatar is changed based on the details of the operation from the operation reception unit 130, and the video output module 1806 outputs the video to an application functioning as online video communication. Output to By adopting such specifications, communication between avatars in the synthesized data can be made more diverse.

<2.その他の実施形態>
以上、本発明における実施形態およびその変形例について説明したが、本開示の適用は上述の内容に限定されるものではない。
<2. Other Embodiments>
Although the embodiments of the present invention and their modifications have been described above, the application of the present disclosure is not limited to the above-described contents.

例えば、コネクト申請処理(S700)およびコネクト実施処理(S800)の内容はあくまでも一例であり、上述した態様に限定されるわけではない。例えば、ユーザ端末10が記憶部170に備えるアバターデータベース282の情報は、共通するアバターデータベース282の情報をそれぞれの端末が記憶部170に記憶していてもよいし、ゲストが使用するユーザ端末10からオーナーが使用するユーザ端末に送信してもよい。一例として、ゲストが使用するユーザ端末10からアバターデータベース282の情報を送信するタイミングとしては、コネクトをリクエストするタイミング(S732)であってもよい。また、オーナーが使用するユーザ端末10は、コネクト実施処理(S800)の終了後に、受信したアバターデータベース282の情報を削除する仕様としてもよい。 For example, the contents of the connection application process (S700) and the connection execution process (S800) are merely examples, and are not limited to the above aspects. For example, the information in the avatar database 282 provided in the storage unit 170 of the user terminal 10 may be stored in the storage unit 170 by each terminal in common with the information in the avatar database 282, or may be sent from the user terminal 10 used by the guest. You may transmit to the user terminal which an owner uses. As an example, the timing of transmitting the information of the avatar database 282 from the user terminal 10 used by the guest may be the timing of requesting connection (S732). Also, the user terminal 10 used by the owner may be designed to delete the information received from the avatar database 282 after the connection execution process (S800) is completed.

また、上記実施形態では、ゲストが使用するユーザ端末10から管理サーバ20を介してトラッキングデータをオーナーが使用するユーザ端末10に送信しているが、管理サーバを介さずに送受信をしてもよい。 Further, in the above embodiment, the tracking data is transmitted from the user terminal 10 used by the guest to the user terminal 10 used by the owner via the management server 20, but transmission and reception may be performed without going through the management server. .

また、上記実施形態において、ゲストが使用するユーザ端末10とオーナーが使用するユーザ端末10とは同様の機能を備えているため、オンラインビデオコミュニケーションを行うごとに、または、オンラインビデオコミュニケーションの間に、ゲストとオーナーが入れ替わる形でコネクト申請処理(S700)およびコネクト実施処理(S800)を実行してもよい。 In addition, in the above embodiment, since the user terminal 10 used by the guest and the user terminal 10 used by the owner have similar functions, each time online video communication is performed or during online video communication, The connection application process (S700) and the connection implementation process (S800) may be executed in such a manner that the guest and the owner are switched.

また、通信回線を介した所定情報の共有は、主にインターネットなどのWANを介して行われるが、情報処理装置間では、WANを介さずにBluetooth(登録商標)等の近距離の無線通信、及び赤外線通信等のみを介して行われてもよい。 Further, sharing of predetermined information via a communication line is mainly performed via a WAN such as the Internet. and only via infrared communication or the like.

また、上記実施形態では、各機能をユーザ端末10、管理サーバ20が備える態様の一例について説明したが、この形態に限定されることはない。すなわち、本開示における一部または全部の機能を、上記実施形態と異なる態様でユーザ端末10、管理サーバ20の一部または全部が備える構成としてもよい。 Also, in the above-described embodiment, an example of a mode in which the user terminal 10 and the management server 20 have each function has been described, but the present invention is not limited to this mode. That is, some or all of the functions in the present disclosure may be configured to be provided in some or all of the user terminal 10 and the management server 20 in a manner different from the above embodiment.

さらに、本発明は、上述のプログラムを格納する、コンピュータ読み取り可能な非一時的な記録媒体として実現してもよい。 Furthermore, the present invention may be implemented as a computer-readable non-temporary recording medium that stores the above program.

以上、本発明に係る種々の実施形態を説明したが、これらは例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While various embodiments of the invention have been described above, they are presented by way of example and are not intended to limit the scope of the invention. The novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

<付記>
以上の各実施の形態で説明した事項を以下に付記する。
(付記1)
プロセッサを備えるコンピュータに、オンラインビデオコミュニケーションツールとして機能するアプリケーションへ映像データを出力させるプログラムであって、ユーザの撮像データを取得するステップ(S610)と、撮像データに基づいて、ユーザをアバターに変換した映像データを生成するステップ(S620)と、生成された映像データを出力するステップ(S630)と、他のユーザの操作に応答して、当該他のユーザのアバターをユーザの映像データに合成した合成データを出力するステップ(S800)と、を実行させるプログラム。
(付記2)
合成データを出力するステップでは、他のユーザとして、アプリケーションが提供するオンラインビデオコミュニケーションに参加しているユーザの操作を受け付ける、付記1に記載のプログラム。
(付記3)
合成データを出力するステップにおいて、他のユーザのアバターとユーザのアバターとが1つの仮想空間内に表示された合成データを、アプリケーションに出力させる、付記1または付記2に記載のプログラム。
(付記4)
合成データを出力するステップにおいて、アプリケーションに、ユーザの使用する端末の画面に当該ユーザのアバターと他のユーザのアバターとを表示させる、付記1または付記2に記載のプログラム。
(付記5)
ユーザの動きをトラッキングしたトラッキングデータを取得し、他のユーザのトラッキングデータを受信し、両方のトラッキングデータに基づいて合成された合成データをアプリケーションに出力させる、付記1~付記4のいずれかに記載のプログラム。
(付記6)
認証が成功した他のユーザをアバターに変換した映像データを、ユーザの使用する端末の画面に出力させる、付記1~付記5のいずれかに記載のプログラム。
(付記7)
ユーザが予め設定した認証に必要な情報を、他のユーザから受け付ける、付記6に記載のプログラム。
(付記8)
ユーザからの操作に応答してユーザの使用する端末の画面に表示されたアバターの動きを制御させる、付記1~付記7のいずれかに記載のプログラム。
<Appendix>
The items described in the above embodiments are added below.
(Appendix 1)
A program for causing a computer having a processor to output video data to an application functioning as an online video communication tool, the program comprising steps of acquiring image data of a user (S610), and converting the user into an avatar based on the image data. a step of generating video data (S620); a step of outputting the generated video data (S630); A program for executing a step of outputting data (S800).
(Appendix 2)
2. The program according to appendix 1, wherein in the step of outputting the synthesized data, an operation of a user participating in online video communication provided by the application is accepted as another user.
(Appendix 3)
3. The program according to appendix 1 or appendix 2, wherein in the step of outputting the synthesized data, the application outputs synthesized data in which the other user's avatar and the user's avatar are displayed in one virtual space.
(Appendix 4)
3. The program according to appendix 1 or appendix 2, wherein in the step of outputting the synthesized data, the application displays the avatar of the user and the avatars of other users on the screen of the terminal used by the user.
(Appendix 5)
4. The method according to any one of appendices 1 to 4, wherein tracking data obtained by tracking a user's movement is obtained, another user's tracking data is received, and synthesized data synthesized based on both tracking data is output to the application. program.
(Appendix 6)
6. The program according to any one of appendices 1 to 5, for outputting video data obtained by converting another successfully authenticated user into an avatar on a screen of a terminal used by the user.
(Appendix 7)
7. The program according to appendix 6, which receives information necessary for authentication preset by a user from another user.
(Appendix 8)
7. The program according to any one of appendices 1 to 7, which controls movement of an avatar displayed on a screen of a terminal used by the user in response to an operation from the user.

1:映像出力システム、10:ユーザ端末、13:入力装置、14:出力装置、15:メモリ、16:ストレージ、17:プロセッサ、20:管理サーバ、25:メモリ、26:ストレージ、27:プロセッサ、40:ネットワーク、110:アンテナ、120:無線通信部、130:操作受付部、131:キーボード、132:マウス、140:音声処理部、141:マイク、142:スピーカ、150:ディスプレイ、160:カメラ、170:記憶部、180:制御部、184:通知制御部、186:映像出力モジュール、201:通信部、202:記憶部、203:入出力部、204:制御部、282:アバターデータベース、1801:操作受付モジュール、1802:送受信モジュール、1803:通知モジュール、1804:撮像モジュール、1805:映像生成モジュール、1806:映像出力モジュール、1807:認証モジュール、2021:ユーザデータベース、2041:送受信モジュール、2042:認証モジュール。 1: video output system, 10: user terminal, 13: input device, 14: output device, 15: memory, 16: storage, 17: processor, 20: management server, 25: memory, 26: storage, 27: processor, 40: network, 110: antenna, 120: wireless communication unit, 130: operation reception unit, 131: keyboard, 132: mouse, 140: audio processing unit, 141: microphone, 142: speaker, 150: display, 160: camera, 170: storage unit, 180: control unit, 184: notification control unit, 186: video output module, 201: communication unit, 202: storage unit, 203: input/output unit, 204: control unit, 282: avatar database, 1801: Operation reception module 1802: transmission/reception module 1803: notification module 1804: imaging module 1805: video generation module 1806: video output module 1807: authentication module 2021: user database 2041: transmission/reception module 2042: authentication module .

Claims (12)

プロセッサを備えるコンピュータに、オンラインビデオコミュニケーションツールとして機能するアプリケーションへ映像データを出力する仮想カメラソフトウェアとしての機能を実行させるプログラムであって、
前記プログラムは、ユーザ端末に、
ユーザの撮像データを取得するステップと、
前記撮像データに基づいて、前記ユーザをアバターに変換した映像データを生成するステップと、
前記生成された映像データを前記アプリケーションへ出力する第1の出力ステップと、
他のユーザの操作に応答して、当該他のユーザのアバターを前記ユーザの映像データに合成した合成データを前記アプリケーションへ出力する第2の出力ステップと、を実行させるプログラム。
A program that causes a computer with a processor to function as virtual camera software that outputs video data to an application that functions as an online video communication tool,
The program, in the user terminal,
obtaining imaging data of a user;
generating video data in which the user is converted into an avatar based on the imaging data;
a first output step of outputting the generated video data to the application ;
and a second output step of outputting synthesized data obtained by synthesizing the other user's avatar with the user's video data to the application in response to another user's operation.
前記プログラムは、前記ユーザ端末に、The program, in the user terminal,
前記他のユーザの操作に応答して、前記第1の出力ステップと、前記第2の出力ステップとを切り替えて実行させる、請求項1に記載のプログラム。2. The program according to claim 1, wherein said first output step and said second output step are switched and executed in response to said another user's operation.
前記合成データを出力するステップでは、前記他のユーザとして、前記アプリケーションが提供するオンラインビデオコミュニケーションに参加しているユーザの操作を受け付ける、請求項1または請求項2に記載のプログラム。 3. The program according to claim 1, wherein in the step of outputting said synthetic data, an operation of a user participating in online video communication provided by said application is accepted as said other user. 前記合成データを出力するステップにおいて、前記他のユーザのアバターと前記ユーザのアバターとが1つの仮想空間内に表示された合成データを、前記アプリケーションに出力させる、請求項1請求項3のいずれかに記載のプログラム。 4. The step of outputting the synthesized data, wherein the application outputs synthesized data in which the other user's avatar and the user's avatar are displayed in one virtual space. the program described in 前記合成データを出力するステップにおいて、前記アプリケーションに、前記ユーザの使用する端末の画面に当該ユーザのアバターと前記他のユーザのアバターとを表示させる、請求項1請求項3のいずれかに記載のプログラム。 4. The method according to any one of claims 1 to 3 , wherein in the step of outputting the synthesized data, the application displays the user's avatar and the other user's avatar on the screen of the terminal used by the user. program. 前記ユーザの動きをトラッキングしたトラッキングデータを取得し、前記他のユーザのトラッキングデータを受信し、両方のトラッキングデータに基づいて合成された合成データを前記アプリケーションに出力させる、請求項1~請求項のいずれかに記載のプログラム。 Claims 1 to 5 , wherein tracking data obtained by tracking movement of the user is obtained, tracking data of the other user is received, and synthesized data synthesized based on both tracking data is output to the application. A program as described in any of 認証が成功した前記他のユーザをアバターに変換した映像データを、前記ユーザの使用する端末の画面に出力させる、請求項1~請求項のいずれかに記載のプログラム。 7. The program according to any one of claims 1 to 6 , wherein video data obtained by converting the successfully authenticated other user into an avatar is output on a screen of a terminal used by the user. 前記ユーザが予め設定した前記認証に必要な情報を、前記他のユーザから受け付ける、請求項に記載のプログラム。 8. The program according to claim 7 , which receives information necessary for said authentication preset by said user from said other user. ユーザからの操作に応答して前記ユーザの使用する端末の画面に表示されたアバターの動きを制御させる、請求項1~請求項のいずれかに記載のプログラム。 9. The program according to any one of claims 1 to 8 , which controls movement of an avatar displayed on a screen of a terminal used by the user in response to an operation from the user. プロセッサを備えるコンピュータにより実行される情報処理方法であって、
前記プロセッサに、請求項1~請求項のいずれかに記載のプログラムを実行させる、情報処理方法。
An information processing method executed by a computer having a processor, comprising:
An information processing method, comprising causing the processor to execute the program according to any one of claims 1 to 9 .
プロセッサを備える情報処理装置であって、
前記プロセッサに、請求項1~請求項のいずれかに記載のプログラムを実行させる、情報処理装置。
An information processing device comprising a processor,
An information processing apparatus that causes the processor to execute the program according to any one of claims 1 to 9 .
プロセッサを備えるコンピュータを含む情報処理システムであって、
前記プロセッサに、請求項1~請求項のいずれかに記載のプログラムを実行させる、情報処理システム。
An information processing system including a computer having a processor,
An information processing system that causes the processor to execute the program according to any one of claims 1 to 9 .
JP2022004304A 2022-01-14 2022-01-14 Program, information processing method, information processing device, and information processing system Active JP7133257B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022004304A JP7133257B1 (en) 2022-01-14 2022-01-14 Program, information processing method, information processing device, and information processing system
JP2022131701A JP2023103950A (en) 2022-01-14 2022-08-22 Program, information processing method, information processor, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022004304A JP7133257B1 (en) 2022-01-14 2022-01-14 Program, information processing method, information processing device, and information processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022131701A Division JP2023103950A (en) 2022-01-14 2022-08-22 Program, information processing method, information processor, and information processing system

Publications (2)

Publication Number Publication Date
JP7133257B1 true JP7133257B1 (en) 2022-09-08
JP2023103662A JP2023103662A (en) 2023-07-27

Family

ID=83192288

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022004304A Active JP7133257B1 (en) 2022-01-14 2022-01-14 Program, information processing method, information processing device, and information processing system
JP2022131701A Pending JP2023103950A (en) 2022-01-14 2022-08-22 Program, information processing method, information processor, and information processing system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022131701A Pending JP2023103950A (en) 2022-01-14 2022-08-22 Program, information processing method, information processor, and information processing system

Country Status (1)

Country Link
JP (2) JP7133257B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014225801A (en) 2013-05-16 2014-12-04 株式会社ニコン Conference system, conference method and program
JP2015516625A (en) 2012-03-14 2015-06-11 グーグル・インク Modifying the appearance of participants during a video conference
WO2019155735A1 (en) 2018-02-07 2019-08-15 ソニー株式会社 Information processing device, information processing method, and program
JP2021005319A (en) 2019-06-27 2021-01-14 株式会社ドワンゴ Control server, distribution system, method for control, and program
JP2021010077A (en) 2019-06-28 2021-01-28 株式会社ドワンゴ Content distribution device, content distribution program, content distribution method, content display device, content display program and content display method
JP2021016083A (en) 2019-07-11 2021-02-12 株式会社リコー Communication system, information processing apparatus, communication method, and program
JP2021192524A (en) 2015-01-15 2021-12-16 日本電気株式会社 Information output device, information output system, information output method, program, and camera

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015516625A (en) 2012-03-14 2015-06-11 グーグル・インク Modifying the appearance of participants during a video conference
JP2014225801A (en) 2013-05-16 2014-12-04 株式会社ニコン Conference system, conference method and program
JP2021192524A (en) 2015-01-15 2021-12-16 日本電気株式会社 Information output device, information output system, information output method, program, and camera
WO2019155735A1 (en) 2018-02-07 2019-08-15 ソニー株式会社 Information processing device, information processing method, and program
JP2021005319A (en) 2019-06-27 2021-01-14 株式会社ドワンゴ Control server, distribution system, method for control, and program
JP2021010077A (en) 2019-06-28 2021-01-28 株式会社ドワンゴ Content distribution device, content distribution program, content distribution method, content display device, content display program and content display method
JP2021016083A (en) 2019-07-11 2021-02-12 株式会社リコー Communication system, information processing apparatus, communication method, and program

Also Published As

Publication number Publication date
JP2023103662A (en) 2023-07-27
JP2023103950A (en) 2023-07-27

Similar Documents

Publication Publication Date Title
JP6442441B2 (en) Translation system and translation method
US20200104804A1 (en) Resource reservation system, terminal setting method, and information processing apparatus
CN112312226B (en) Wheat connecting method, system, device, electronic equipment and storage medium
CN110826103B (en) Method, device, equipment and storage medium for processing document authority based on blockchain
CN111045568B (en) Virtual article processing method, device, equipment and storage medium based on block chain
KR20160031937A (en) A Simplified Secure Media based Authentication and Authorization for Cloud based Secure Services
CN104580930A (en) Group photo taking method and system
US11025603B2 (en) Service providing system, service delivery system, service providing method, and non-transitory recording medium
CN112291503A (en) Interaction method and device and electronic equipment
US11405226B1 (en) Methods and apparatus for assessing network presence
US10834595B2 (en) Service providing apparatus configured to control communication mode between communication terminals, service communicating system, service providing method and recording medium configured to perform same
JP7133257B1 (en) Program, information processing method, information processing device, and information processing system
CN110727894B (en) Target material setting method, device, equipment and storage medium
US11128623B2 (en) Service providing system, service delivery system, service providing method, and non-transitory recording medium
CN110855780A (en) Interview evaluation information sharing method, device, equipment and medium based on block chain
JP7131869B1 (en) Program, information processing method, information processing device, and information processing system
CN115086344A (en) Card sharing method and system
CN109005210A (en) The method and apparatus of information exchange
JP2020095675A (en) Resource reservation system, terminal setting method, program, utilization system, and information processing apparatus
US11936701B2 (en) Media distribution system, communication system, distribution control apparatus, and distribution control method
US11601381B2 (en) Methods and apparatus for establishing network presence
EP4297371A1 (en) Function migration method and apparatus
KR102621301B1 (en) Smart work support system for non-face-to-face office selling based on metaverse
CN115145474A (en) Function migration method and device
CN117714087A (en) File encryption transmission method, system, medium and equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220117

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R150 Certificate of patent or registration of utility model

Ref document number: 7133257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150