JP7131869B1 - Program, information processing method, information processing device, and information processing system - Google Patents

Program, information processing method, information processing device, and information processing system Download PDF

Info

Publication number
JP7131869B1
JP7131869B1 JP2022004303A JP2022004303A JP7131869B1 JP 7131869 B1 JP7131869 B1 JP 7131869B1 JP 2022004303 A JP2022004303 A JP 2022004303A JP 2022004303 A JP2022004303 A JP 2022004303A JP 7131869 B1 JP7131869 B1 JP 7131869B1
Authority
JP
Japan
Prior art keywords
user
authentication
face authentication
video communication
program according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022004303A
Other languages
Japanese (ja)
Other versions
JP2023103661A (en
Inventor
謙太郎 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KID'S PLATES CO.,LTD.
Original Assignee
KID'S PLATES CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KID'S PLATES CO.,LTD. filed Critical KID'S PLATES CO.,LTD.
Priority to JP2022004303A priority Critical patent/JP7131869B1/en
Priority to JP2022130679A priority patent/JP2023103949A/en
Application granted granted Critical
Publication of JP7131869B1 publication Critical patent/JP7131869B1/en
Publication of JP2023103661A publication Critical patent/JP2023103661A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】オンラインビデオコミュニケーションツールを利用する際に、他のユーザが使用する端末の画面にユーザの顔を出さずに、信頼性の高い本人確認を行う。【解決手段】プロセッサを備えるコンピュータに、オンラインビデオコミュニケーションツールを提供するアプリケーションへ映像データを出力させるプログラムであって、ユーザの撮像データを取得するステップと、撮像データに基づいて、ユーザをアバターに変換した映像データを生成するステップと、生成された映像データを出力するステップと、撮像データに基づいて顔認証を実行するステップと、を実行させるプログラムが提供される。【選択図】図6Kind Code: A1 A highly reliable personal identification is performed without showing a user's face on the screen of a terminal used by another user when using an online video communication tool. A program for causing a computer with a processor to output video data to an application that provides an online video communication tool, the program comprising steps of acquiring image data of a user and converting the user into an avatar based on the image data. A program is provided for executing a step of generating image data obtained by capturing images, a step of outputting the generated image data, and a step of performing face authentication based on the imaging data. [Selection drawing] Fig. 6

Description

本発明は、プログラム、情報処理装置および方法に関する。 The present invention relates to a program, information processing apparatus and method.

近年、インターネットを利用したオンラインミーティングやオンラインセミナーなどを実現するオンラインビデオコミュニケーションツールが普及している。このようなツールを利用するにあたり、本人確認を行うための技術が開発されている。例えば、特許文献1には、テレビ会議等の通信システムにおけるセキュリティ向上のために、通話開始時および通話中断後の通話再開時に顔認証などの生体認証が行われる認証技術が開示されている。 In recent years, online video communication tools for realizing online meetings, online seminars, etc. using the Internet have become widespread. In using such tools, techniques for performing identity verification have been developed. For example, Patent Literature 1 discloses an authentication technique for performing biometric authentication such as face authentication when starting a call and when resuming a call after a call is interrupted, in order to improve security in a communication system such as a video conference.

特開2015-142193号公報JP 2015-142193 A

一方で、オンラインビデオコミュニケーションツールを利用する際に、自身の分身としてのアバターを使いたいというニーズがある。このような場合、上記従来技術においては、ユーザの顔を出さずに本人認証を行うことが困難であった。 On the other hand, when using an online video communication tool, there is a need to use an avatar as one's alter ego. In such a case, in the conventional technology, it is difficult to perform personal authentication without showing the user's face.

本発明の目的は、オンラインビデオコミュニケーションツールを利用する際に、他のユーザが使用する端末の画面にユーザの顔を出さずに、信頼性の高い本人確認を行うことである。 SUMMARY OF THE INVENTION It is an object of the present invention to perform highly reliable identity verification without showing a user's face on the screen of a terminal used by another user when using an online video communication tool.

本発明の一態様によれば、プロセッサを備えるコンピュータに、オンラインビデオコミュニケーションツールを提供するアプリケーションへ映像データを出力させるプログラムであって、ユーザの撮像データを取得するステップと、撮像データに基づいて、ユーザをアバターに変換した映像データを生成するステップと、生成された映像データを出力するステップと、撮像データに基づいて顔認証を実行するステップと、を実行させるプログラムが提供される。 According to one aspect of the present invention, there is provided a program for causing a computer having a processor to output video data to an application that provides an online video communication tool, the program comprising: obtaining imaging data of a user; A program is provided for executing the steps of generating video data in which a user is converted into an avatar, outputting the generated video data, and performing face authentication based on imaging data.

本開示によれば、インターネットを利用したオンラインビデオコミュニケーションツールを利用する際に、他のユーザが使用する端末の画面にユーザの顔を出さずに本人確認を行うことが可能となる。 According to the present disclosure, when using an online video communication tool using the Internet, it is possible to perform identity verification without showing the user's face on the screen of a terminal used by another user.

映像出力システム1の機能の概要を説明する図である。2 is a diagram for explaining an overview of functions of the video output system 1; FIG. 映像出力システム1のハードウェア構成を示すブロック図である。2 is a block diagram showing the hardware configuration of the video output system 1; FIG. ユーザ端末10の機能構成を示すブロック図である。2 is a block diagram showing the functional configuration of the user terminal 10; FIG. 管理サーバ20の機能構成を示すブロック図である。3 is a block diagram showing a functional configuration of a management server 20; FIG. 顔認証サーバ30の機能構成を示すブロック図である。3 is a block diagram showing the functional configuration of a face authentication server 30; FIG. 映像出力システム1の処理の流れの一例を示すフロー図である。3 is a flow diagram showing an example of the flow of processing of the video output system 1. FIG. ビデオコミュニケーション処理(S600)の処理の流れの一例を示すフロー図である。FIG. 10 is a flow chart showing an example of a processing flow of video communication processing (S600); 顔認証処理(S700)の処理の流れの一例を示すフロー図である。FIG. 11 is a flowchart showing an example of the flow of face authentication processing (S700); 認証後処理(S800)の処理の流れの一例を示すフロー図である。FIG. 10 is a flow diagram showing an example of the flow of post-authentication processing (S800). ユーザ端末10に表示される画面例を示す図である。4 is a diagram showing an example of a screen displayed on the user terminal 10; FIG. 認証エラー時にユーザ端末10に表示される画面例を示す図である。FIG. 10 is a diagram showing an example of a screen displayed on the user terminal 10 when an authentication error occurs;

以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<1.第1実施形態>
(1.映像出力システム1の概要)
図1を参照して、映像出力システム1の概要を説明する。ユーザUは、ユーザ端末10が備えるカメラ160を用いて、オンラインビデオコミュニケーションツールを利用することができる。オンラインビデオコミュニケーションツールとは、オンライン会議やオンラインセミナー、動画配信による配信者と視聴者とのコミュニケーションなどを実現し、インターネット上に配信されたユーザのビデオ(映像)データを介してユーザ同士のコミュニケーションを可能とするアプリケーションを指す。
<1. First Embodiment>
(1. Overview of video output system 1)
An overview of the video output system 1 will be described with reference to FIG. A user U can use an online video communication tool using the camera 160 provided in the user terminal 10 . Online video communication tools enable communication between distributors and viewers through online conferences, online seminars, and video distribution, and enable communication between users via user video (video) data distributed over the Internet. Refers to an application that enables

オンラインビデオコミュニケーションツールは、予めユーザ端末10にインストールされていてもよいし、クラウドサーバに対してウェブブラウザからアクセスして利用してもよい。オンラインビデオコミュニケーションツールの一例としては、Zoom,Skype,GoogleMeet(いずれも登録商標)などを挙げることができる。 The online video communication tool may be installed in the user terminal 10 in advance, or may be used by accessing a cloud server from a web browser. Examples of online video communication tools include Zoom, Skype, and Google Meet (both registered trademarks).

図1Aに示すように、オンラインビデオコミュニケーションツールを利用する場合、通常はユーザ端末10が備えるカメラ160が撮像した撮像データD1が他のユーザの使用する端末に表示される。これにより、ユーザUは他のユーザとビデオデータを介したコミュニケーションを実現することができる。 As shown in FIG. 1A, when using an online video communication tool, normally image data D1 captured by a camera 160 included in the user terminal 10 is displayed on a terminal used by another user. This allows the user U to communicate with other users via video data.

一方、映像出力システム1では、図1Bに示すように、撮像データD1におけるユーザUをアバターAに変換した映像データD2を、オンラインビデオコミュニケーションツールに出力する。このように、映像出力システム1は、いわゆる仮想カメラソフトウェアとしての機能を備える。これにより、ユーザUは、他のユーザが利用する端末の画面に自身の顔を出すことなく、オンラインビデオコミュニケーションを実施することができる。 On the other hand, in the video output system 1, as shown in FIG. 1B, the video data D2 in which the user U in the imaging data D1 is converted into the avatar A is output to the online video communication tool. Thus, the video output system 1 has a function as so-called virtual camera software. As a result, the user U can conduct online video communication without showing his/her face on the screens of terminals used by other users.

映像出力システム1は、さらに、ユーザUをアバターAに変換した映像データD2をオンラインビデオコミュニケーションツールに出力している状態で、ユーザUの顔認証を実施することができる。そのため、映像出力システム1では、他のユーザが利用する端末の画面にユーザの顔を出すことなく、信頼性の高い本人確認を行うことが可能となる。以下、各構成を詳細に説明する。 Further, the video output system 1 can perform face recognition of the user U while outputting the video data D2 in which the user U is converted into the avatar A to the online video communication tool. Therefore, in the video output system 1, it is possible to perform highly reliable identity verification without showing the user's face on the screen of the terminal used by other users. Each configuration will be described in detail below.

(2.映像出力システム1のハードウェア構成)
図2は、映像出力システム1の全体構成の例を示すブロック図である。映像出力システム1は、ユーザ端末10と、管理サーバ20と、顔認証サーバ30を備える。ユーザ端末10、管理サーバ20、顔認証サーバ30は、例えば、ネットワーク40を介して通信接続する。ネットワーク40は、例えば、インターネット及び/又は通信事業者が提供する通信網等により実現される。
(2. Hardware Configuration of Video Output System 1)
FIG. 2 is a block diagram showing an example of the overall configuration of the video output system 1. As shown in FIG. The video output system 1 includes a user terminal 10 , a management server 20 and a face authentication server 30 . The user terminal 10, the management server 20, and the face authentication server 30 are connected for communication via the network 40, for example. The network 40 is realized by, for example, the Internet and/or a communication network provided by a communication carrier.

本実施形態において、複数の装置の集合体を1つのサーバとしてもよい。1つ又は複数のハードウェアに対して本実施形態に係る管理サーバ20及び/又は顔認証サーバ30を実現することに要する複数の機能の配分の仕方は、各ハードウェアの処理能力及び/又は各サーバに求められる仕様等に鑑みて適宜決定することができる。 In this embodiment, a set of multiple devices may be used as one server. How to distribute a plurality of functions required to realize the management server 20 and/or the face authentication server 30 according to this embodiment for one or more pieces of hardware depends on the processing capacity of each piece of hardware and/or each piece of hardware. It can be determined appropriately in view of the specifications required for the server.

ユーザ端末10は、例えば、据え置き型のPC(Personal Computer)、又はラップトップPC等により実現される。また、ユーザ端末10は、スマートフォン、又はタブレット等の携帯端末により実現されてもよい。 The user terminal 10 is implemented by, for example, a stationary PC (Personal Computer), a laptop PC, or the like. Also, the user terminal 10 may be realized by a mobile terminal such as a smart phone or a tablet.

ユーザ端末10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、ストレージ16と、プロセッサ17とを備える。 The user terminal 10 includes a communication IF (Interface) 12 , an input device 13 , an output device 14 , a memory 15 , a storage 16 and a processor 17 .

通信IF12は、ユーザ端末10が外部の装置と通信するため、信号を入出力するためのインタフェースである。 The communication IF 12 is an interface for inputting and outputting signals for the user terminal 10 to communicate with an external device.

入力装置13は、ユーザからの入力操作を受け付けるための装置(例えば、キーボード、マウス等のポインティングデバイス、タッチパネル、タッチパッド等)である。 The input device 13 is a device (for example, a keyboard, a pointing device such as a mouse, a touch panel, a touch pad, etc.) for receiving an input operation from a user.

出力装置14は、ユーザに対して情報を提示するための装置(ディスプレイ、スピーカ等)である。 The output device 14 is a device (display, speaker, etc.) for presenting information to the user.

メモリ15は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。 The memory 15 temporarily stores programs and data processed by the programs, and is a volatile memory such as a DRAM (Dynamic Random Access Memory).

ストレージ16は、データを保存するためのものであり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。 The storage 16 is for storing data, and is, for example, a flash memory or a HDD (Hard Disc Drive).

プロセッサ17は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。 The processor 17 is hardware for executing an instruction set described in a program, and is composed of arithmetic units, registers, peripheral circuits, and the like.

管理サーバ20は、映像出力システム1を利用するユーザの管理およびユーザ認証(ログイン/ログアウト)を行う。管理サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ27とを備える。 The management server 20 manages users who use the video output system 1 and performs user authentication (login/logout). The management server 20 includes a communication IF 22 , an input/output IF 23 , a memory 25 , a storage 26 and a processor 27 .

通信IF22は、管理サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。 The communication IF 22 is an interface for inputting and outputting signals so that the management server 20 communicates with an external device.

入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、及び、ユーザに対し、情報を提示するための出力装置とのインタフェースとして機能する。 The input/output IF 23 functions as an interface with an input device for receiving input operations from the user and an output device for presenting information to the user.

メモリ25は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM等の揮発性のメモリである。 The memory 25 temporarily stores programs and data processed by the programs, and is a volatile memory such as a DRAM.

ストレージ26は、データを保存するためのものであり、例えばフラッシュメモリ、HDDである。 The storage 26 is for storing data, and is, for example, flash memory or HDD.

プロセッサ27は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。 The processor 27 is hardware for executing an instruction set described in a program, and is composed of arithmetic units, registers, peripheral circuits, and the like.

顔認証サーバ30は、映像出力システム1を利用するユーザの顔認証を行う。顔認証サーバ30は、通信IF32と、入出力IF33と、メモリ35と、ストレージ36と、プロセッサ37とを備える。これらの構成は、管理サーバ20と同様であるため、説明は繰り返さない。 The face authentication server 30 performs face authentication of users who use the video output system 1 . The face authentication server 30 includes a communication IF 32 , an input/output IF 33 , a memory 35 , a storage 36 and a processor 37 . Since these configurations are the same as those of the management server 20, the description will not be repeated.

(3.映像出力システム1の機能構成)
以下、図3~図5を参照して、映像出力システム1の機能構成を説明する。
(3. Functional Configuration of Video Output System 1)
The functional configuration of the video output system 1 will be described below with reference to FIGS. 3 to 5. FIG.

(3-1.ユーザ端末10の機能構成)
図3は、第1実施形態の映像出力システム1を構成するユーザ端末10の構成を示す図である。ユーザ端末10は、インターネットなどのネットワークを介して管理サーバ20と通信可能に接続される。ユーザ端末10は、5G、LTE(Long Term Evolution)などの通信規格に対応した無線基地局、またはIEEE(Institute of Electrical and Electronics Engineers)802.11などの無線LAN(Local Area Network)規格に対応した無線LANルータ等の通信機器と通信することによりネットワークに接続される。
(3-1. Functional Configuration of User Terminal 10)
FIG. 3 is a diagram showing the configuration of the user terminal 10 that constitutes the video output system 1 of the first embodiment. The user terminal 10 is communicably connected to the management server 20 via a network such as the Internet. The user terminal 10 is a wireless base station compatible with communication standards such as 5G and LTE (Long Term Evolution), or a wireless LAN (Local Area Network) standard such as IEEE (Institute of Electrical and Electronics Engineers) 802.11. It is connected to a network by communicating with a communication device such as a wireless LAN router.

図3に示すように、ユーザ端末10は、アンテナ110と、アンテナ110に対応する無線通信部120と、操作受付部130(キーボード131およびマウス132を含む)と、音声処理部140(マイク141およびスピーカ142を含む)と、ディスプレイ150と、カメラ160と、記憶部170と、制御部180とを含む構成としてもよい。 As shown in FIG. 3, the user terminal 10 includes an antenna 110, a wireless communication unit 120 corresponding to the antenna 110, an operation reception unit 130 (including a keyboard 131 and a mouse 132), and an audio processing unit 140 (a microphone 141 and (including speaker 142 ), display 150 , camera 160 , storage unit 170 , and control unit 180 .

なお、ユーザ端末10は、図3では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路など)も有している。図3においてブロックで示される各構成は、バス等により電気的に接続される。 Note that the user terminal 10 also has functions and configurations not particularly shown in FIG. 3 (for example, a battery for retaining power, a power supply circuit for controlling power supply from the battery to each circuit, etc.). there is Each configuration indicated by a block in FIG. 3 is electrically connected by a bus or the like.

アンテナ110は、ユーザ端末10が発する信号を電波として放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信部120へ与える。 The antenna 110 radiates a signal emitted by the user terminal 10 as radio waves. Antenna 110 also receives radio waves from space and provides a received signal to radio communication section 120 .

無線通信部120は、ユーザ端末10が他の無線機器と通信するため、アンテナ110を介して信号を送受信するための変復調処理などを行う。無線通信部120は、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部180へ与える。 The wireless communication unit 120 performs modulation and demodulation processing for transmitting and receiving signals via the antenna 110 so that the user terminal 10 communicates with other wireless devices. The radio communication unit 120 modulates, demodulates, and frequency-converts radio signals transmitted and received by the user terminal 10 , and provides received signals to the control unit 180 .

操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、キーボード131と、マウス132とを含むことができる。 The operation accepting unit 130 has a mechanism for accepting user input operations. Specifically, the operation reception unit 130 can include a keyboard 131 and a mouse 132 .

音声処理部140は、音声信号の変復調を行い、マイク141から与えられる信号を変調して、変調後の信号を制御部180へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声をユーザ端末10の外部へ出力する。 The audio processing unit 140 modulates and demodulates the audio signal, modulates the signal supplied from the microphone 141 , and supplies the modulated signal to the control unit 180 . Also, the audio processing unit 140 provides an audio signal to the speaker 142 . The audio processing unit 140 is implemented by, for example, a processor for audio processing. Microphone 141 receives a voice input and provides voice signal corresponding to the voice input to voice processing section 140 . The speaker 142 converts the audio signal given from the audio processing unit 140 into audio and outputs the audio to the outside of the user terminal 10 .

ディスプレイ150は、制御部180の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ150は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現され得る。 The display 150 displays data such as images, moving images, and text under the control of the control unit 180 . The display 150 can be implemented by, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display.

カメラ160は、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ160は、例えば、撮影した画像をリアルタイムでネットワーク40へ転送可能なリアルタイムカメラ(いわゆるウェブカメラを含む)であってもよい。 The camera 160 is a device for receiving light with a light receiving element and outputting it as a photographed image. Camera 160 may be, for example, a real-time camera (including a so-called web camera) capable of transferring captured images to network 40 in real time.

記憶部170は、例えばメモリ15またはストレージ16で構成され、ユーザ端末10が使用するデータおよびプログラムを記憶する。記憶部170には、一例として、アバターデータベース282が記憶されている。アバターデータベース282はユーザが使用可能なアバターについての情報である。アバターとは、コンピュータの画面上に表示される仮想空間においてユーザの分身として表示されるキャラクターを指す。アバターデータベース282は、ユーザが使用可能なアバターの外見、属性(名称、性別、種等)、声などの情報を保持する。 The storage unit 170 is configured by, for example, the memory 15 or the storage 16 and stores data and programs used by the user terminal 10 . As an example, the storage unit 170 stores an avatar database 282 . Avatar database 282 is information about avatars available to users. An avatar is a character displayed as a user's alter ego in a virtual space displayed on a computer screen. The avatar database 282 holds information such as the appearance, attributes (name, gender, species, etc.), and voice of avatars that can be used by the user.

制御部180は、プロセッサ17が記憶部170に記憶されるプログラムを読み込み、プログラムに含まれる命令を実行することにより実現され、ユーザ端末10の動作を制御する。制御部180は、例えば予めユーザ端末10にインストールされているアプリケーションとして実現してもよい。制御部180は、プログラムに従って動作することにより、操作受付モジュール1801と、送受信モジュール1802と、通知モジュール1803と、撮像モジュール1804と、映像生成モジュール1805と、映像出力モジュール1806と、認証モジュール1807としての機能を発揮する。 The control unit 180 is implemented by the processor 17 reading a program stored in the storage unit 170 and executing instructions included in the program, and controls the operation of the user terminal 10 . The control unit 180 may be implemented as an application installed in the user terminal 10 in advance, for example. By operating according to a program, the control unit 180 operates as an operation reception module 1801, a transmission/reception module 1802, a notification module 1803, an imaging module 1804, a video generation module 1805, a video output module 1806, and an authentication module 1807. function.

操作受付モジュール1801は、キーボード131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。 The operation acceptance module 1801 performs processing for accepting a user's input operation to an input device such as the keyboard 131 or the like.

送受信モジュール1802は、ユーザ端末10が、管理サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。 The transmission/reception module 1802 performs processing for the user terminal 10 to transmit/receive data to/from an external device such as the management server 20 according to a communication protocol.

通知モジュール1803は、ユーザに対し情報を通知する処理を行う。具体的には、通知制御部184は、表示画像をディスプレイ150に表示させる処理、音声をスピーカ142に出力させる処理、振動をカメラ160に発生させる処理等を行う。 The notification module 1803 performs processing for notifying the user of information. Specifically, the notification control unit 184 performs processing for displaying a display image on the display 150, processing for outputting sound to the speaker 142, processing for causing the camera 160 to vibrate, and the like.

撮像モジュール1804は、カメラ160を機能させてユーザの撮像データを取得する。撮像モジュール1804の処理の詳細は後述する。 The imaging module 1804 operates the camera 160 to acquire imaging data of the user. Details of the processing of the imaging module 1804 will be described later.

映像生成モジュール1805は、撮像モジュール1804が取得した撮像データに基づいて、ユーザをアバターに変換した映像データを生成する。映像生成モジュール1805の処理の詳細は後述する。 The video generation module 1805 generates video data in which the user is converted into an avatar based on the imaging data acquired by the imaging module 1804 . Details of the processing of the video generation module 1805 will be described later.

映像出力モジュール1806は、映像生成モジュール1805が生成した映像データを、オンラインビデオコミュニケーションツールに出力する。映像出力モジュール1806の処理の詳細は後述する。 A video output module 1806 outputs the video data generated by the video generation module 1805 to an online video communication tool. Details of the processing of the video output module 1806 will be described later.

認証モジュール1807は、撮像モジュール1804が取得した撮像データに基づいて顔認証を実行する。認証モジュール1807の処理の詳細は後述する。 An authentication module 1807 performs face authentication based on the imaging data acquired by the imaging module 1804 . Details of the processing of the authentication module 1807 will be described later.

ユーザは、映像出力システム1が提供するサービスを利用するために、所定のアプリケーションをユーザ端末10にインストールしてもよい。ユーザ端末10は、ユーザから、クレジットカード情報、携帯決済サービス事業者が提供する決済サービスに関する情報の登録を受け付けてもよい。 A user may install a predetermined application on the user terminal 10 in order to use the service provided by the video output system 1 . The user terminal 10 may accept registration of credit card information and information on payment services provided by mobile payment service providers from users.

(3-2.管理サーバ20の機能構成)
図4は、管理サーバ20の構成を示す図である。図4に示すように、管理サーバ20は、通信部201と、記憶部202と、入出力部203と、制御部204を備える。
(3-2. Functional Configuration of Management Server 20)
FIG. 4 is a diagram showing the configuration of the management server 20. As shown in FIG. As shown in FIG. 4 , the management server 20 includes a communication section 201 , a storage section 202 , an input/output section 203 and a control section 204 .

通信部201は、管理サーバ20がユーザ端末10等の外部の装置と通信するための処理を行う。 The communication unit 201 performs processing for the management server 20 to communicate with an external device such as the user terminal 10 .

記憶部202は、メモリ25またはストレージ26で実現され、管理サーバ20が使用するデータ及びプログラムを記憶する。一例として、記憶部202には、ユーザデータベース2021が記憶されている。ユーザデータベース2021は、映像出力システム1を利用するユーザの情報(氏名、性別、年齢、住所、ID、パスワード等)を記憶する。 The storage unit 202 is realized by the memory 25 or the storage 26 and stores data and programs used by the management server 20 . As an example, the storage unit 202 stores a user database 2021 . The user database 2021 stores information (name, gender, age, address, ID, password, etc.) of users who use the video output system 1 .

入出力部203は、ユーザからの入力操作を受け付けるための入力装置、および、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。 The input/output unit 203 functions as an interface with an input device for receiving input operations from the user and an output device for presenting information to the user.

制御部204は、プロセッサ27がプログラムに従って処理を行うことにより、以下に示す各種モジュールとして示す機能を発揮する。 The control unit 204 exhibits functions shown as various modules shown below when the processor 27 performs processing according to a program.

送受信モジュール2041は、管理サーバ20が外部の装置から通信プロトコルに従って信号を送受信する処理を制御する。 The transmission/reception module 2041 controls the process of transmitting/receiving a signal from an external device by the management server 20 according to a communication protocol.

認証モジュール2042は、ユーザ認証を行う。認証モジュール2042の処理の詳細は後述する。 Authentication module 2042 performs user authentication. Details of the processing of the authentication module 2042 will be described later.

(3-3.顔認証サーバ30の機能構成)
図4は、顔認証サーバ30の構成を示す図である。図4に示すように、顔認証サーバ30は、通信部301と、記憶部302と、入出力部303と、制御部304を備える。
(3-3. Functional Configuration of Face Authentication Server 30)
FIG. 4 is a diagram showing the configuration of the face authentication server 30. As shown in FIG. As shown in FIG. 4 , the face authentication server 30 includes a communication section 301 , a storage section 302 , an input/output section 303 and a control section 304 .

通信部301は、顔認証サーバ30が管理サーバ20等の外部の装置と通信するための処理を行う。 The communication unit 301 performs processing for the face authentication server 30 to communicate with an external device such as the management server 20 .

記憶部302は、メモリ35またはストレージ36で実現され、顔認証サーバ30が使用するデータ及びプログラムを記憶する。一例として、記憶部302には、顔情報データベース3021が記憶されている。顔情報データベース3021は、予め登録された映像出力システム1を利用するユーザの顔情報を記憶する。 The storage unit 302 is realized by the memory 35 or the storage 36 and stores data and programs used by the face authentication server 30 . As an example, the storage unit 302 stores a face information database 3021 . The face information database 3021 stores face information of users using the video output system 1 registered in advance.

入出力部303は、ユーザからの入力操作を受け付けるための入力装置、および、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。 The input/output unit 303 functions as an interface with an input device for receiving input operations from the user and an output device for presenting information to the user.

制御部304は、プロセッサ37がプログラムに従って処理を行うことにより、以下に示す各種モジュールとして示す機能を発揮する。 The control unit 304 exhibits functions shown as various modules shown below when the processor 37 performs processing according to a program.

送受信モジュール3041は、顔認証サーバ30が外部の装置から通信プロトコルに従って信号を送受信する処理を制御する。 The transmission/reception module 3041 controls the process of transmitting/receiving a signal from an external device by the face authentication server 30 according to a communication protocol.

認証モジュール3042は、顔情報データベース3021を参照して、顔認証を行う。認証モジュール3042の処理の詳細は後述する。 The authentication module 3042 refers to the face information database 3021 and performs face authentication. Details of the processing of the authentication module 3042 will be described later.

(4.処理の流れ)
以下、図6~図9を参照し、映像出力システム1の処理の流れについて説明する。
(4. Flow of processing)
The processing flow of the video output system 1 will be described below with reference to FIGS. 6 to 9. FIG.

(4-1.映像出力システム1の処理)
図6を参照して、映像出力システム1の処理の流れの一例を説明する。ステップS511において、ユーザ端末10は、ユーザUからIDとパスワードを受け付けて管理サーバ20へ送信する。ステップS521において、管理サーバ20は、ユーザ端末10が送信したIDとパスワードを受信する。
(4-1. Processing of video output system 1)
An example of the processing flow of the video output system 1 will be described with reference to FIG. In step S<b>511 , the user terminal 10 receives the ID and password from the user U and transmits them to the management server 20 . In step S<b>521 , the management server 20 receives the ID and password transmitted by the user terminal 10 .

ステップS522において、管理サーバ20の認証モジュール2042は、記憶部202内のユーザデータベース2021を参照し、IDとパスワードによるログイン認証を実行する。ステップS512において、ユーザ端末10の通知モジュール1803は、管理サーバ20からの通知に基づき、ログイン認証が成功したことをディスプレイ150に表示する。 In step S522, the authentication module 2042 of the management server 20 refers to the user database 2021 in the storage unit 202 and performs login authentication using the ID and password. In step S<b>512 , the notification module 1803 of the user terminal 10 displays on the display 150 that login authentication has succeeded based on the notification from the management server 20 .

ステップS600において、ユーザ端末10は、ビデオコミュニケーション処理を実行する。ビデオコミュニケーション処理の詳細は後述する。 In step S600, the user terminal 10 executes video communication processing. Details of the video communication processing will be described later.

ステップS513において、ユーザ端末10は、ユーザUからログアウトの操作を受け付ける。ステップS523において、管理サーバ20は、ログアウト処理のリクエストを受信する。 In step S513, the user terminal 10 receives a logout operation from the user U. FIG. In step S523, the management server 20 receives a request for logout processing.

ステップS524において、管理サーバ20の認証モジュール2042は、ログアウト処理を実行する。ステップS514において、ユーザ端末10の通知モジュール1803は、管理サーバ20からの通知に基づき、ログアウトしたことをディスプレイ150に表示する。 In step S524, the authentication module 2042 of the management server 20 executes logout processing. In step S<b>514 , the notification module 1803 of the user terminal 10 displays on the display 150 that the user has logged out based on the notification from the management server 20 .

(4-2.ビデオコミュニケーション処理の流れ)
図7を参照して、ビデオコミュニケーション処理(S600)の処理の流れの一例を説明する。ステップS610において、ユーザ端末10の撮像モジュール1804は、カメラ160を機能させてユーザUの撮像データを取得する
(4-2. Flow of video communication processing)
An example of the processing flow of the video communication processing (S600) will be described with reference to FIG. In step S610, the imaging module 1804 of the user terminal 10 activates the camera 160 to acquire imaging data of the user U.

ステップS620において、ユーザ端末10の映像生成モジュール1805は、撮像モジュール1804が取得した撮像データに基づいて、ユーザをアバターに変換した映像データを生成する。具体的には、例えば、撮像データにおけるユーザの顔における特徴点を抽出し、当該特徴点の動きをトラッキングする。その上で、アバターにおける当該特徴点に該当する箇所をトラッキングした動きに合わせて動かした動画を生成する。 In step S620, the video generation module 1805 of the user terminal 10 generates video data in which the user is converted into an avatar based on the imaging data acquired by the imaging module 1804. FIG. Specifically, for example, feature points on the user's face in the imaging data are extracted, and the movement of the feature points is tracked. Then, a moving image is generated in which the portion of the avatar corresponding to the feature point is moved according to the tracked movement.

ステップS630において、ユーザ端末10の映像出力モジュール186は、映像生成モジュール1805が生成した映像データを、オンラインビデオコミュニケーションツールとして機能するアプリケーションへ出力する。一例として、映像出力モジュール186は、オンラインビデオコミュニケーションツールとして機能するアプリケーションに設定されている仮想カメラソフトウェアからの入力を受け付ける入力チャネルに対して、映像データを出力する。 In step S630, the video output module 186 of the user terminal 10 outputs the video data generated by the video generation module 1805 to an application functioning as an online video communication tool. As an example, video output module 186 outputs video data to an input channel that accepts input from virtual camera software configured in an application functioning as an online video communication tool.

ステップS640において、ユーザ端末10の認証モジュール1807は、所定の第1条件が満たされたか否かを判定する。所定の第1条件は、例えばビデオコミュニケーション処理(S600)の所要時間(例えば45分)内に、等間隔のタイミング(例えば5分間隔)で満たされる仕様としてもよいし、ランダムのタイミングで1回または複数回満たされる仕様としてもよい。また、映像出力システム1を利用してオンラインビデオコミュニケーションを主催するユーザ(例えばオンラインセミナーにおける講師)が所定の第1条件を設定可能な仕様としてもよい。一例として、ビデオコミュニケーション処理(S600)の開始から終了までの期間に顔認証を行う回数Nを設定しておき、ランダムなタイミングで第1条件がN回満たされる仕様としてもよい。 At step S640, the authentication module 1807 of the user terminal 10 determines whether or not a predetermined first condition is satisfied. The predetermined first condition may be, for example, a specification that is satisfied at regular intervals (eg, 5-minute intervals) within the required time (eg, 45 minutes) of the video communication processing (S600), or may be satisfied once at random timing. Alternatively, the specification may be satisfied multiple times. Further, the specifications may be such that a user (for example, a lecturer at an online seminar) who organizes online video communication using the video output system 1 can set a predetermined first condition. As an example, the number of times N of face authentication is set during the period from the start to the end of the video communication process (S600), and the specification may be such that the first condition is satisfied N times at random timing.

所定の第1条件が満たされた場合(ステップS640においてYES)、顔認証処理(S700)が実行される。顔認証処理の詳細は後述する。 If the predetermined first condition is satisfied (YES in step S640), face authentication processing (S700) is performed. Details of the face authentication processing will be described later.

顔認証処理(S700)の後、認証後処理(S800)が実行される。認証後処理の詳細は後述する。認証後処理の後、ステップS650が実行される。 After face authentication processing (S700), post-authentication processing (S800) is performed. Details of post-authentication processing will be described later. After the post-authentication process, step S650 is executed.

一方、所定の第1条件が満たされない場合(ステップS640においてNO)、ステップS650において、オンラインビデオコミュニケーションの終了条件が満たされたか否かが判定される。終了条件としては、予め定められた所要時間が経過したことで満たされる仕様としてもよいし、ユーザの終了操作によって満たされる仕様としてもよい。終了条件が満たされていない場合(ステップS650においてNO)、ステップS610以降の処理が繰り返される。一方、終了条件が満たされた場合、ビデオコミュニケーション処理(S600)を終了する。 On the other hand, if the predetermined first condition is not satisfied (NO in step S640), it is determined in step S650 whether or not the online video communication end condition is satisfied. The termination condition may be a specification that is satisfied when a predetermined required time has passed, or a specification that is satisfied by a user's termination operation. If the termination condition is not satisfied (NO in step S650), the processes after step S610 are repeated. On the other hand, if the termination condition is satisfied, the video communication processing (S600) is terminated.

このように、映像出力システム1では、ビデオコミュニケーション処理(S600)の間、ユーザの撮像データにおけるユーザをアバターに変換した映像データを生成して、オンラインビデオコミュニケーションツールに出力し続ける。その状態で、所定の第1条件が満たされた場合に、顔認証処理(S700)が行われる。すなわち、映像出力システム1は、顔認証処理において、撮像モジュール1804が取得した撮像データを用いて顔認証を実行させる一方で、オンラインビデオコミュニケーションツールには、当該撮像データにおけるユーザをアバターに変換した映像データを出力し続ける。このように同一の撮像データに基づいて、映像データへの変換と顔認証処理が行われる。 In this way, the video output system 1 generates video data in which the user in the user's imaging data is converted into an avatar, and continues to output the video data to the online video communication tool during the video communication processing (S600). In this state, face authentication processing (S700) is performed when a predetermined first condition is satisfied. That is, in the face authentication process, the video output system 1 executes face authentication using the imaging data acquired by the imaging module 1804, while providing the online video communication tool with an image in which the user in the imaging data is converted into an avatar. Continue to output data. In this manner, conversion to video data and face authentication processing are performed based on the same imaging data.

このような構成とすることにより、顔認証処理の間においても、オンラインビデオコミュニケーションツールを使用してオンラインビデオコミュニケーションに参加する他のユーザの端末の画面には、ユーザの撮像データは表示されずに、アバターに変換された映像データが表示される。そのため、オンラインビデオコミュニケーションに参加している他のユーザの端末の画面にユーザの顔をだすことなく、当該ユーザの顔認証を行うことが可能となる。 With such a configuration, even during the face authentication process, the captured data of the user is not displayed on the terminal screens of other users participating in the online video communication using the online video communication tool. , the video data converted into an avatar is displayed. Therefore, it is possible to perform face authentication of the user without showing the user's face on the screen of the terminal of another user participating in the online video communication.

(4-3.顔認証処理の流れ)
図8を参照して、顔認証処理(S700)の処理の流れの一例を説明する。ステップS711において、ユーザ端末10の送受信モジュール1802は、撮像モジュール1804が取得した撮像データを管理サーバ20へ送信する。ステップS721において、管理サーバ20の送受信モジュール2041は、撮像データを受信する。
(4-3. Flow of Face Authentication Processing)
An example of the flow of face authentication processing (S700) will be described with reference to FIG. In step S<b>711 , the transmission/reception module 1802 of the user terminal 10 transmits the imaging data acquired by the imaging module 1804 to the management server 20 . In step S721, the transmission/reception module 2041 of the management server 20 receives imaging data.

ステップS722において、管理サーバ20の送受信モジュール2041は、撮像データを顔認証サーバ30へ送信する。ステップS731において、顔認証サーバ30の送受信モジュール3041は、撮像データを受信する。 In step S<b>722 , the transmission/reception module 2041 of the management server 20 transmits the imaging data to the face authentication server 30 . In step S731, the transmission/reception module 3041 of the face authentication server 30 receives imaging data.

ステップS732において、顔認証サーバ30の認証モジュール3042は、記憶部302内の顔情報データベース3021を参照し、顔認証を実行する。 In step S732, the authentication module 3042 of the face authentication server 30 refers to the face information database 3021 in the storage unit 302 and executes face authentication.

ステップS733において、顔認証サーバ30の送受信モジュール3041は、認証結果を管理サーバ20へ送信する。ステップS723において、管理サーバ20の送受信モジュール2041は、認証結果を受信する。 In step S<b>733 , the transmission/reception module 3041 of the face authentication server 30 transmits the authentication result to the management server 20 . In step S723, the transmission/reception module 2041 of the management server 20 receives the authentication result.

ステップS724において、管理サーバ20の送受信モジュール2041は、認証結果をユーザ端末10へ送信する。ステップS712において、ユーザ端末10の認証モジュール1807は、認証結果を判定する。 In step S<b>724 , the transmission/reception module 2041 of the management server 20 transmits the authentication result to the user terminal 10 . In step S712, the authentication module 1807 of the user terminal 10 determines the authentication result.

(4-4.認証後処理の流れ)
図9を参照して、認証後処理(S800)の処理の流れの一例を説明する。ステップS810において、ユーザ端末10の認証モジュール1807は、認証ができた(認証OK)か否か(認証エラー)を判定する。認証OKであった場合(ステップS810において、YES)、認証後処理を終了する。一方、認証エラーだった場合(ステップS810において、NO)、ステップS820が実行される。
(4-4. Flow of post-authentication processing)
An example of the processing flow of the post-authentication processing (S800) will be described with reference to FIG. In step S810, the authentication module 1807 of the user terminal 10 determines whether or not authentication is successful (authentication OK) (authentication error). If the authentication is OK (YES in step S810), the post-authentication process is terminated. On the other hand, if there is an authentication error (NO in step S810), step S820 is executed.

ステップS820において、通知モジュール1803は、第1エラー画面E1を出力する。第1エラー画面E1の詳細は後述する。ステップS830において、認証モジュール1807は、所定の第2条件が満たされたか否かを判定する。所定の第2条件は、例えば前回の顔認証処理(ステップS700)の実行後、所定の時間後(例えば10分後)に満たされる仕様としてもよいし、所定の時間内(例えば10分内)にランダムのタイミングで満たされる仕様としてもよい。また、映像出力システム1を利用してオンラインビデオコミュニケーションを主催するユーザが所定の第2条件を設定可能な仕様としてもよい。 In step S820, the notification module 1803 outputs the first error screen E1. Details of the first error screen E1 will be described later. At step S830, the authentication module 1807 determines whether a predetermined second condition is satisfied. The predetermined second condition may be, for example, a specification that is satisfied after a predetermined period of time (for example, 10 minutes) after execution of the previous face authentication process (step S700), or within a predetermined period of time (for example, within 10 minutes). It may be a specification that is satisfied at random timing. Further, the specifications may be such that a user who organizes online video communication using the video output system 1 can set a predetermined second condition.

所定の第2条件が満たされた場合(ステップS830においてYES)、再度の顔認証処理(S750)が実行される。 If the predetermined second condition is satisfied (YES in step S830), face authentication processing (S750) is performed again.

再度の顔認証処理の後、ステップS840が実行される。ステップS840において、認証モジュール1807は、再度の顔認証の結果を判定する。認証OKであった場合(ステップS840において、YES)、認証後処理を終了する。一方、認証エラーだった場合(ステップS840において、NO)、ステップS850が実行される。 After the face authentication process is performed again, step S840 is executed. In step S840, the authentication module 1807 determines the result of face authentication again. If the authentication is OK (YES in step S840), the post-authentication process is terminated. On the other hand, if there is an authentication error (NO in step S840), step S850 is executed.

ステップS850において、通知モジュール1803は、第2エラー画面E2をディスプレイ150に出力する。第2エラー画面E2の詳細は後述する。ステップS860において、認証モジュール1807は、ユーザから受け付けたID・パスワードによる他の認証を実行する。 In step S850, the notification module 1803 outputs the second error screen E2 to the display 150. FIG. Details of the second error screen E2 will be described later. In step S860, the authentication module 1807 performs another authentication using the ID/password received from the user.

ステップS870において、認証モジュール1807は、認証の結果を判定する。認証OKだった場合(ステップS870において、YES)、認証後処理を終了する。一方、認証エラーだった場合(ステップS870において、NO)、ステップS880が実行される。 In step S870, authentication module 1807 determines the result of authentication. If the authentication is OK (YES in step S870), the post-authentication process is terminated. On the other hand, if there is an authentication error (NO in step S870), step S880 is executed.

ステップS880において、通知モジュール1803は、第3エラー画面E3を出力する。第3エラー画面E3の詳細は後述する。また、通知モジュール1803は、第3エラー画面E3を出力すると同時/代わりに、管理サーバ20へ顔認証ができなかったことを通知する。管理サーバ20は、オンラインビデオコミュニケーションを主催するユーザに、顔認証ができなかったことを通知する仕様としてもよい。 In step S880, the notification module 1803 outputs the third error screen E3. Details of the third error screen E3 will be described later. In addition, the notification module 1803 notifies the management server 20 that the face authentication was not possible at the same time or instead of outputting the third error screen E3. The management server 20 may be configured to notify the user hosting the online video communication that face authentication has failed.

(5.画面例)
図10および図11を参照して、ユーザ端末10のディスプレイ150に表示される画面例を説明する。
(5. Screen example)
Screen examples displayed on the display 150 of the user terminal 10 will be described with reference to FIGS. 10 and 11. FIG.

(5-1.正常時の画面)
図10Aに示すように、ビデオコミュニケーション処理(S700)の実行中において、ユーザ端末10のディスプレイ150には、カメラ160で撮像されたユーザUの撮像データD1が表示される。
(5-1. Normal screen)
As shown in FIG. 10A, image data D1 of user U imaged by camera 160 is displayed on display 150 of user terminal 10 during execution of video communication processing (S700).

図10Bに示すように、ビデオコミュニケーション処理の実行中において、映像出力モジュール1806は、ユーザUをアバターAに変換した映像データD2をオンラインビデオコミュニケーションツールに出力する。これにより、ビデオコミュニケーションに参加している他のユーザの端末の画面には、映像データD2が表示される。なお、ユーザUは、オンラインビデオコミュニケーションツールに撮像データD1を出力したり(いわゆる顔出しの状態)、映像データD2を出力しない(いわゆる画面オフの状態)ようにしたり選択できる仕様としてもよい。 As shown in FIG. 10B, during execution of the video communication process, the video output module 1806 outputs video data D2 in which user U is converted into avatar A to the online video communication tool. As a result, the video data D2 is displayed on the screens of the terminals of other users participating in the video communication. Note that the user U may choose to output the imaging data D1 to the online video communication tool (so-called face-up state) or not to output the video data D2 (so-called screen-off state).

図10Cに示すように、顔認証処理(S800)の実行中においては認証画面N1が表示される。このように顔認証処理が行われていることをユーザUに通知することにより、より正確な顔認証を実現することが可能となる。 As shown in FIG. 10C, an authentication screen N1 is displayed during execution of face authentication processing (S800). By notifying the user U that face authentication processing is being performed in this way, it is possible to achieve more accurate face authentication.

(5-2.認証エラー時の画面)
図11Aは第1エラー画面E1の一例を示す図である。第1エラー画面E1は、顔認証処理(S700)を行ったユーザUの端末にのみ表示される。一例として、第1エラー画面E1には、カメラの前に戻ることを促す通知が表示される。この際、再度の顔認証が実行されることをユーザに通知する仕様としてもよい。このようにすることで、再度の顔認証処理において認証エラーとなることを防ぐことができる。
(5-2. Screen for authentication error)
FIG. 11A is a diagram showing an example of the first error screen E1. The first error screen E1 is displayed only on the terminal of the user U who performed the face authentication process (S700). As an example, the first error screen E1 displays a notification prompting to return to the front of the camera. At this time, the specification may be such that the user is notified that face authentication will be performed again. By doing so, it is possible to prevent an authentication error from occurring in the second face authentication process.

図11Bは第2エラー画面E2の一例を示す図である。第2エラー画面E2は、再度の顔認証処理(S750)を行ったユーザUの端末にのみ表示される。第2エラー画面E2では、IDとパスワードでの認証を行う必要がある旨の表示がされる。これにより、顔認証が複数回エラーとなったユーザに対して、IDとパスワード等による他の認証を行わせることが可能となる。 FIG. 11B is a diagram showing an example of the second error screen E2. The second error screen E2 is displayed only on the terminal of the user U who performed the face authentication process (S750) again. On the second error screen E2, there is displayed a message to the effect that it is necessary to perform authentication using an ID and a password. As a result, it becomes possible to cause a user who has failed face authentication multiple times to perform other authentication using an ID and a password or the like.

図11Cは第3エラー画面E3の一例を示す図である。第3エラー画面E3は、一例として、オンラインビデオコミュニケーションに参加しているユーザが使用する全ての端末の画面に表示される。このようにすることで、当該オンラインビデオコミュニケーションに参加しているユーザに対して、顔認証処理を行ったユーザUが認証エラーとなり、本人でない可能性が高いことを知らせることが可能となり、オンラインビデオコミュニケーションにおけるセキュリティレベルを確保することができる。 FIG. 11C is a diagram showing an example of the third error screen E3. As an example, the third error screen E3 is displayed on the screens of all terminals used by users participating in online video communication. By doing so, it is possible to notify users participating in the online video communication that there is a high possibility that the user U who has undergone the face authentication process is an authentication error and is not the person himself/herself. A security level in communication can be ensured.

また、顔認証処理を行ったユーザUのユーザ端末10において、第3エラー画面E3を表示させると同時に/代わりに、オンラインビデオコミュニケーションツールを使用できなくさせる仕様としてもよい。このようにすることで、オンラインビデオコミュニケーションにおけるセキュリティレベルを確保することができる。 Further, the user terminal 10 of the user U who has performed the face authentication process may display the third error screen E3 and/or disable the use of the online video communication tool. By doing so, it is possible to ensure a security level in online video communication.

以上のように、本実施の形態においては、映像出力システム1は、ユーザの撮像データを取得するステップと、撮像データに基づいて、ユーザをアバターに変換した映像データを生成するステップと、生成された映像データを出力するステップと、撮像データに基づいて顔認証を実行するステップとを実行する。 As described above, in the present embodiment, the video output system 1 includes the step of acquiring the imaging data of the user, the step of generating video data in which the user is converted into an avatar based on the imaging data, and the generated a step of outputting the obtained image data; and a step of performing face authentication based on the imaging data.

これにより、オンラインビデオコミュニケーションツールを利用する際に、他のユーザの使用する端末に表示される画面にユーザの顔を出さずに、信頼性の高い本人確認を行うことが可能となる。具体的には、例えば、学校などの教育現場においてオンラインの授業を行う際に、生徒が顔出ししなくとも高い信頼性で本人確認を行うことができる。これにより、なりすましなどの不正行為を防止することができ、出欠管理が容易となる。また、オンライン会議などにおいて、顔出ししなくても本人確認することができるため、安心したコミュニケーションを実現することができる。 As a result, when using an online video communication tool, it is possible to perform highly reliable identity verification without showing the user's face on the screen displayed on the terminal used by another user. Specifically, for example, when an online class is held at an educational site such as a school, it is possible to perform identity verification with high reliability even if the student does not show his/her face. As a result, fraudulent acts such as impersonation can be prevented, and attendance management can be facilitated. In addition, in online meetings, etc., it is possible to confirm the identity without showing the person's face, so it is possible to realize secure communication.

<2.その他の実施形態>
以上、本発明における実施形態およびその変形例について説明したが、本開示の適用は上述の内容に限定されるものではない。
<2. Other Embodiments>
Although the embodiments of the present invention and their modifications have been described above, the application of the present disclosure is not limited to the above-described contents.

例えば、上記実施形態においては、再度の顔認証処理(S750)がエラーであった場合に、他の認証を行っているが、この態様に限定されることはない。例えば、顔認証を3回以上行った上で認証エラーの場合に他の認証を行ってもよいし、1回目の顔認証がエラーの場合に他の認証を行う仕様としてもよい。 For example, in the above embodiment, another authentication is performed when the face authentication process (S750) again results in an error, but the present invention is not limited to this aspect. For example, after performing face authentication three times or more, another authentication may be performed in the case of an authentication error, or another authentication may be performed in the case of an error in the first face authentication.

また、上記実施形態においては、ステップS711~ステップS731において、ユーザ端末10から管理サーバ20を介して撮像データを顔認証サーバ30へ送信しているが、この態様に限定されることはない。例えば、ユーザ端末10から顔認証サーバ30へ直接撮像データを送信する仕様としてもよい。また、認証結果についても、顔認証サーバ30からユーザ端末10へ直接送信する仕様としてもよい。 Further, in the above embodiment, in steps S711 to S731, the imaging data is transmitted from the user terminal 10 to the face authentication server 30 via the management server 20, but it is not limited to this aspect. For example, the user terminal 10 may directly transmit the imaging data to the face authentication server 30 . Also, the authentication result may be directly transmitted from the face authentication server 30 to the user terminal 10 .

また、上記実施形態においては、他の認証はIDおよびパスワードで行っているが、この態様に限定されることはなく、他の生体認証などを使用してもよい。 Also, in the above-described embodiment, other authentication is performed using an ID and a password, but the present invention is not limited to this aspect, and other biometric authentication or the like may be used.

また、他の認証が正常であった場合に、所定の時間内に再度の顔認証を行う仕様としてもよい。 Also, if other authentication is successful, the face authentication may be performed again within a predetermined period of time.

また、通信回線を介した所定情報の共有は、主にインターネットなどのWANを介して行われるが、情報処理装置間では、WANを介さずにBluetooth(登録商標)等の近距離の無線通信、及び赤外線通信等のみを介して行われてもよい。 Further, sharing of predetermined information via a communication line is mainly performed via a WAN such as the Internet. and only via infrared communication or the like.

また、上記実施形態では、各機能をユーザ端末10、管理サーバ20、顔認証サーバ30が備える態様の一例について説明したが、この形態に限定されることはない。すなわち、本開示における一部または全部の機能を、上記実施形態と異なる態様でユーザ端末10、管理サーバ20、顔認証サーバ30の一部または全部が備える構成としてもよい。 Also, in the above embodiment, an example of a mode in which the user terminal 10, the management server 20, and the face authentication server 30 have each function has been described, but the present invention is not limited to this mode. That is, some or all of the functions of the present disclosure may be configured to be provided in some or all of the user terminal 10, the management server 20, and the face authentication server 30 in a manner different from the above embodiment.

さらに、本発明は、上述のプログラムを格納する、コンピュータ読み取り可能な非一時的な記録媒体として実現してもよい。 Furthermore, the present invention may be implemented as a computer-readable non-temporary recording medium that stores the above program.

以上、本発明に係る種々の実施形態を説明したが、これらは例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While various embodiments of the invention have been described above, they are presented by way of example and are not intended to limit the scope of the invention. The novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

<付記>
以上の各実施の形態で説明した事項を以下に付記する。
(付記1)
プロセッサを備えるコンピュータに、オンラインビデオコミュニケーションツールとして機能するアプリケーションへ映像データを出力させるプログラムであって、ユーザの撮像データを取得するステップ(S610)と、撮像データに基づいて、ユーザをアバターに変換した映像データを生成するステップ(S620)と、生成された映像データを出力するステップ(S630)と、撮像データに基づいて顔認証を実行するステップ(S700)と、を実行させるプログラム。
(付記2)
顔認証を実行するステップにおいて、オンラインビデオコミュニケーションツールに、ユーザの撮像データを表示させない、付記1に記載のプログラム。
(付記3)
顔認証を実行するステップにおいて、オンラインビデオコミュニケーションツールに、アバターに変換した映像データを表示させる、付記1または付記2に記載のプログラム。
(付記4)
顔認証を実行するステップにおいて、撮像データを用いて顔認証を実行させる、付記1~付記3のいずれかに記載のプログラム。
(付記5)
顔認証がエラーとなった場合に、所定の時間内に再度の顔認証を実行させる、付記1~付記4のいずれか1項に記載のプログラム。
(付記6)
所定の時間内に再度の顔認証が実行されることを、ユーザに通知させる、付記5に記載のプログラム
(付記7)
再度の顔認証がエラーとなった場合に、顔認証以外での他の認証を実行させる、付記6に記載のプログラム。
(付記8)
他の認証がエラーとなった場合に、コンピュータをオンラインビデオコミュニケーションツールの機能を使用できない状態にさせる、付記7に記載のプログラム。
(付記9)
他の認証がエラーとなった場合に、ユーザとオンラインビデオコミュニケーションを行っている他のユーザに当該エラーを通知させる、付記7または付記8に記載のプログラム。
(付記10)
顔認証がエラーとなったことを、オンラインビデオコミュニケーションツールにおけるビデオコミュニケーションの主催者に通知させる、付記1~付記9のいずれかに記載のプログラム。
<Appendix>
The items described in the above embodiments are added below.
(Appendix 1)
A program for causing a computer having a processor to output video data to an application functioning as an online video communication tool, the program comprising steps of acquiring image data of a user (S610), and converting the user into an avatar based on the image data. A program for executing a step of generating image data (S620), a step of outputting the generated image data (S630), and a step of performing face authentication based on imaging data (S700).
(Appendix 2)
10. The program of claim 1, wherein the step of performing face authentication does not cause the online video communication tool to display the user's imaging data.
(Appendix 3)
3. The program according to appendix 1 or appendix 2, wherein in the step of performing face authentication, an online video communication tool displays video data converted into an avatar.
(Appendix 4)
3. The program according to any one of Appendices 1 to 3, wherein in the step of performing face authentication, face authentication is performed using imaging data.
(Appendix 5)
4. The program according to any one of appendices 1 to 4, wherein when face authentication results in an error, face authentication is performed again within a predetermined time.
(Appendix 6)
The program according to Supplementary Note 5 (Supplementary Note 7), which notifies the user that the face authentication will be performed again within a predetermined time.
7. The program according to appendix 6, which executes authentication other than face authentication when the second face authentication results in an error.
(Appendix 8)
8. The program of Claim 7, which renders the computer unable to use the functionality of the online video communication tool if the other authentication fails.
(Appendix 9)
9. The program according to appendix 7 or appendix 8, wherein when another authentication results in an error, other users who are in online video communication with the user are notified of the error.
(Appendix 10)
10. The program according to any one of Appendices 1 to 9, for notifying an organizer of video communication in an online video communication tool that facial recognition has failed.

1:映像出力システム、10:ユーザ端末、13:入力装置、14:出力装置、15:メモリ、16:ストレージ、17:プロセッサ、20:管理サーバ、25:メモリ、26:ストレージ、27:プロセッサ、29:プロセッサ、30:顔認証サーバ、35:メモリ、36:ストレージ、37:プロセッサ、40:ネットワーク、110:アンテナ、120:無線通信部、130:操作受付部、131:キーボード、132:マウス、140:音声処理部、141:マイク、142:スピーカ、150:ディスプレイ、160:カメラ、170:記憶部、180:制御部、184:通知制御部、186:映像出力モジュール、201:通信部、202:記憶部、203:入出力部、204:制御部、282:アバターデータベース、301:通信部、302:記憶部、303:入出力部、304:制御部、1801:操作受付モジュール、1802:送受信モジュール、1803:通知モジュール、1804:撮像モジュール、1805:映像生成モジュール、1806:映像出力モジュール、1807:認証モジュール、2021:ユーザデータベース、2041:送受信モジュール、2042:認証モジュール、3021:顔情報データベース、3041:送受信モジュール、3042:認証モジュール。 1: video output system, 10: user terminal, 13: input device, 14: output device, 15: memory, 16: storage, 17: processor, 20: management server, 25: memory, 26: storage, 27: processor, 29: processor, 30: face authentication server, 35: memory, 36: storage, 37: processor, 40: network, 110: antenna, 120: wireless communication unit, 130: operation reception unit, 131: keyboard, 132: mouse, 140: Audio processing unit, 141: Microphone, 142: Speaker, 150: Display, 160: Camera, 170: Storage unit, 180: Control unit, 184: Notification control unit, 186: Video output module, 201: Communication unit, 202 : storage unit 203: input/output unit 204: control unit 282: avatar database 301: communication unit 302: storage unit 303: input/output unit 304: control unit 1801: operation reception module 1802: transmission/reception Modules 1803: Notification module 1804: Imaging module 1805: Video generation module 1806: Video output module 1807: Authentication module 2021: User database 2041: Transmission/reception module 2042: Authentication module 3021: Face information database 3041: transmission/reception module, 3042: authentication module.

Claims (13)

プロセッサを備えるコンピュータに、オンラインビデオコミュニケーションツールとして機能するアプリケーションへ映像データを出力する仮想カメラソフトウェアとしての機能を実行させるプログラムであって、
ユーザの撮像データを取得するステップと、
前記撮像データに基づいて、前記ユーザをアバターに変換した映像データを生成するステップと、
前記生成された映像データを出力するステップと、
オンラインビデオコミュニケーションの実行中に、当該オンラインビデオコミュニケーションに参加する他のユーザが使用するユーザ端末の画面に、前記アバターに変換した映像データを表示させた状態で前記撮像データに基づいて顔認証を実行するステップと、を実行させるプログラム。
A program that causes a computer with a processor to function as virtual camera software that outputs video data to an application that functions as an online video communication tool,
obtaining imaging data of a user;
generating video data in which the user is converted into an avatar based on the imaging data;
outputting the generated video data;
During execution of online video communication, face authentication is performed based on the imaging data while the image data converted into the avatar is displayed on the screen of a user terminal used by another user participating in the online video communication. and the program that causes it to run.
前記顔認証を実行するステップにおいて、前記オンラインビデオコミュニケーションツールに、前記ユーザの撮像データを出力させない、請求項1に記載のプログラム。 2. The program according to claim 1, wherein in the step of performing face authentication, the online video communication tool does not output imaging data of the user. 前記顔認証を実行するステップにおいて、前記オンラインビデオコミュニケーションツールに、前記アバターに変換した映像データを出力させる、請求項1または請求項2に記載のプログラム。 3. The program according to claim 1, wherein in the step of performing face authentication, the online video communication tool outputs video data converted into the avatar. 前記顔認証を実行するステップにおいて、前記撮像データを用いて前記顔認証を実行させる、請求項1~請求項3のいずれかに記載のプログラム。 4. The program according to any one of claims 1 to 3, wherein in the step of performing face authentication, the imaged data is used to perform the face authentication. 前記顔認証がエラーとなった場合に、所定の時間内に再度の顔認証を実行させる、請求項1~請求項4のいずれか1項に記載のプログラム。 5. The program according to any one of claims 1 to 4, wherein when the face authentication results in an error, face authentication is performed again within a predetermined time. 所定の時間内に再度の顔認証が実行されることを、前記ユーザに通知させる、請求項5に記載のプログラム。 6. The program according to claim 5, causing the user to be notified that face authentication will be performed again within a predetermined period of time. 前記再度の顔認証がエラーとなった場合に、顔認証以外での他の認証を実行させる、請求項6に記載のプログラム。 7. The program according to claim 6, causing another authentication other than the face authentication to be executed when the repeated face authentication results in an error. 前記他の認証がエラーとなった場合に、前記コンピュータを前記オンラインビデオコミュニケーションツールの機能を使用できない状態にさせる、請求項7に記載のプログラム。 8. The program according to claim 7, which disables the computer from using the function of the online video communication tool if the other authentication fails. 前記他の認証がエラーとなった場合に、前記ユーザとオンラインビデオコミュニケーションを行っている他のユーザに当該エラーを通知させる、請求項7または請求項8に記載のプログラム。 9. The program according to claim 7 or 8, wherein when the other authentication results in an error, the other user who is conducting online video communication with the user is notified of the error. 前記顔認証がエラーとなったことを、前記オンラインビデオコミュニケーションツールにおけるビデオコミュニケーションの主催者に通知させる、請求項1~請求項9のいずれかに記載のプログラム。 10. The program according to any one of claims 1 to 9, for notifying a video communication organizer in said online video communication tool that said face recognition has failed. プロセッサを備えるコンピュータにより実行される情報処理方法であって、
前記プロセッサに、請求項1~請求項10のいずれかに記載のプログラムを実行させる、情報処理方法。
An information processing method executed by a computer having a processor, comprising:
An information processing method, comprising causing the processor to execute the program according to any one of claims 1 to 10.
プロセッサを備える情報処理装置であって、
前記プロセッサに、請求項1~請求項10のいずれかに記載のプログラムを実行させる、情報処理装置。
An information processing device comprising a processor,
An information processing apparatus that causes the processor to execute the program according to any one of claims 1 to 10.
プロセッサを備えるコンピュータを含む情報処理システムであって、
前記プロセッサに、請求項1~請求項10のいずれかに記載のプログラムを実行させる、情報処理システム。
An information processing system including a computer having a processor,
An information processing system that causes the processor to execute the program according to any one of claims 1 to 10.
JP2022004303A 2022-01-14 2022-01-14 Program, information processing method, information processing device, and information processing system Active JP7131869B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022004303A JP7131869B1 (en) 2022-01-14 2022-01-14 Program, information processing method, information processing device, and information processing system
JP2022130679A JP2023103949A (en) 2022-01-14 2022-08-18 Program, information processing method, information processor, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022004303A JP7131869B1 (en) 2022-01-14 2022-01-14 Program, information processing method, information processing device, and information processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022130679A Division JP2023103949A (en) 2022-01-14 2022-08-18 Program, information processing method, information processor, and information processing system

Publications (2)

Publication Number Publication Date
JP7131869B1 true JP7131869B1 (en) 2022-09-06
JP2023103661A JP2023103661A (en) 2023-07-27

Family

ID=83188061

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022004303A Active JP7131869B1 (en) 2022-01-14 2022-01-14 Program, information processing method, information processing device, and information processing system
JP2022130679A Pending JP2023103949A (en) 2022-01-14 2022-08-18 Program, information processing method, information processor, and information processing system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022130679A Pending JP2023103949A (en) 2022-01-14 2022-08-18 Program, information processing method, information processor, and information processing system

Country Status (1)

Country Link
JP (2) JP7131869B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015142193A (en) 2014-01-28 2015-08-03 株式会社リコー transmission terminal and program
JP2019201360A (en) 2018-05-17 2019-11-21 住友電気工業株式会社 Image processing apparatus, computer program, video call system, and image processing method
JP2021016083A (en) 2019-07-11 2021-02-12 株式会社リコー Communication system, information processing apparatus, communication method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015142193A (en) 2014-01-28 2015-08-03 株式会社リコー transmission terminal and program
JP2019201360A (en) 2018-05-17 2019-11-21 住友電気工業株式会社 Image processing apparatus, computer program, video call system, and image processing method
JP2021016083A (en) 2019-07-11 2021-02-12 株式会社リコー Communication system, information processing apparatus, communication method, and program

Also Published As

Publication number Publication date
JP2023103949A (en) 2023-07-27
JP2023103661A (en) 2023-07-27

Similar Documents

Publication Publication Date Title
US10341267B2 (en) Anonymized identifiers for secure communication systems
JP6442441B2 (en) Translation system and translation method
US9621556B2 (en) System and method for implementing a two-person access rule using mobile devices
US20200127999A1 (en) Service object allocation
KR101960062B1 (en) Content Sharing Method and Device Thereof
US9843667B2 (en) Electronic device and call service providing method thereof
CA3048208C (en) System and method for multilingual authentication access to communication system in controlled environment
JP2018511890A (en) System and method for real-time user verification in online education
US11409857B2 (en) Recording medium, information processing method, information processing apparatus, and information processing terminal
US20180247299A1 (en) Watch with SIM and Web browser
US20180124599A1 (en) Authentication for a limited data entry device
CN111368232A (en) Password sharing reflux method and device, electronic equipment and storage medium
JP2016530628A (en) Application test system and application test method
US20180063332A1 (en) Apparatus, system, and method of conference assistance
CN111324248A (en) Terminal control method, terminal control device, terminal, computer equipment and storage medium
US10893235B2 (en) Conferencing apparatus and method for switching access terminal thereof
CN112929353B (en) Method and device for realizing teleconference, server and storage medium
US20220231872A1 (en) Methods and apparatus for assessing network presence
JP7131869B1 (en) Program, information processing method, information processing device, and information processing system
CN111314442B (en) Terminal control method and device based on time-sharing control, terminal and computer equipment
US20220248072A1 (en) Systems and methods to temporarily grant access to a digital gateway
JP7133257B1 (en) Program, information processing method, information processing device, and information processing system
US20160087977A1 (en) Methods and systems for displaying biometric data during capture
JP2019159423A (en) Information processing device, data display method, program, communication system, communication method, and registration information management device
JP7319426B2 (en) Program, information processing method, and information processing terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220117

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220818

R150 Certificate of patent or registration of utility model

Ref document number: 7131869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150