JP6721727B1 - Information processing apparatus control program, information processing apparatus control method, and information processing apparatus - Google Patents

Information processing apparatus control program, information processing apparatus control method, and information processing apparatus Download PDF

Info

Publication number
JP6721727B1
JP6721727B1 JP2019001492A JP2019001492A JP6721727B1 JP 6721727 B1 JP6721727 B1 JP 6721727B1 JP 2019001492 A JP2019001492 A JP 2019001492A JP 2019001492 A JP2019001492 A JP 2019001492A JP 6721727 B1 JP6721727 B1 JP 6721727B1
Authority
JP
Japan
Prior art keywords
information
avatar
virtual space
function
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019001492A
Other languages
Japanese (ja)
Other versions
JP2020112895A (en
Inventor
翔太 塩原
翔太 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2019001492A priority Critical patent/JP6721727B1/en
Application granted granted Critical
Publication of JP6721727B1 publication Critical patent/JP6721727B1/en
Publication of JP2020112895A publication Critical patent/JP2020112895A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】仮想空間内におけるトラブル等の事象を記録可能な、情報処理装置の制御プログラム等を提供すること。【解決手段】ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間におけるユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御プログラムは、情報処理装置に、仮想空間における位置を指定する入力情報を生成する位置指定機能と、位置指定機能によって指定された位置における仮想空間の画像情報を取得する取得機能と、画像情報に含まれる1以上のアバターを抽出し、抽出されたアバターが所定の条件を満たす場合に、アバターの動作を解析する解析機能と、解析機能による解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成する生成機能と、生成機能によって生成されたテキスト情報を、所定の記憶部に記憶させる記憶機能とを実現させる。【選択図】 図1PROBLEM TO BE SOLVED: To provide a control program of an information processing device capable of recording an event such as a trouble in a virtual space. A control program of an information processing device connected to a virtual space system in which a user's motion and voice input via a user terminal are reflected in the motion and voice of a user's avatar in a virtual space The apparatus has a position specifying function for generating input information specifying a position in the virtual space, an acquisition function for acquiring image information of the virtual space at the position specified by the position specifying function, and one or more avatars included in the image information. Generates text information that describes information about the avatar's movement based on the analysis function that analyzes the movement of the avatar and the analysis result by the analysis function when the extracted avatar satisfies a predetermined condition. The function and the storage function of storing the text information generated by the generation function in a predetermined storage unit are realized. [Selection diagram]

Description

本発明は、情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置に関し、特に、仮想空間を提供するシステムで用いられる情報処理装置の制御プログラム等に関する。 The present invention relates to a control program for an information processing device, a method for controlling the information processing device, and an information processing device, and more particularly to a control program for the information processing device used in a system that provides a virtual space.

近年、ヘッドマウントディスプレイ(HMD:Head-Mounted Display)の普及と共に、HMDを用いた仮想空間を提供する様々なサービスが広がりを見せている。特に、ネットワークを介して、仮想空間上の複数のユーザがそれぞれのアバターを通じてコミュニケーションを図るサービスが人気を博している(例えば、非特許文献1)。このような仮想空間の実現において、現実世界のユーザの動きや表情をアバターに反映する技術が提案されている。(例えば、特許文献1)。 2. Description of the Related Art In recent years, with the spread of head-mounted displays (HMDs), various services for providing virtual spaces using HMDs are expanding. In particular, a service in which a plurality of users in a virtual space communicate with each other via their avatars via a network has become popular (for example, Non-Patent Document 1). In order to realize such a virtual space, a technique has been proposed in which the movement and facial expression of the user in the real world are reflected in the avatar. (For example, patent document 1).

なお、仮想空間においても、現実世界と同様に、アバター間(ユーザ間)において様々なトラブルが発生することが考えられる。このような問題に対し、例えば特許文献2では、仮想空間内での会話やチャットを健全に運営すべく、不正ユーザ、迷惑行為ユーザを早期に発見する技術が提案されている。 In the virtual space, various troubles may occur between avatars (users) as in the real world. For such a problem, for example, Patent Document 2 proposes a technique for early detection of an unauthorized user or an annoying user in order to manage conversations and chats in a virtual space soundly.

“VR CHAT”、[online]、[平成30年12月5日検索]、インターネット、<https://www.vrchat.net/#>"VR CHAT", [online], [Search on December 5, 2018], Internet, <https://www.vrchat.net/#>

特開2016−531333号公報Japanese Patent Laid-Open No. 2016-53133 特開2018−92416号公報JP, 2008-92416, A

特許文献2では、通報者としてのユーザが、迷惑行為を行うアバターを撮影し、撮影画像に関する情報が通報データとしてサーバへ送信される。しかしながら、特許文献2に記載の技術では、以下のような問題がある。 In Patent Document 2, a user as a whistleblower shoots an avatar that performs a nuisance, and information about the shot image is transmitted to the server as notification data. However, the technique described in Patent Document 2 has the following problems.

まず、通報者としてのユーザ毎に、迷惑行為か否かの判断基準が異なる。従って、不要な通報が送信されたり、逆に、真の迷惑行為が通報されないことも起こり得る。また、仮想空間の管理者側が、犯罪となり得る行為に関する情報のやり取り等、不正行為を実行可能な場所として仮想空間を提供することも起こり得る。この場合、ユーザが通報したとしても、管理者側で適切な対応が取られるとは考え難い。 First, each user as a whistleblower has different criteria for determining whether or not the act is a nuisance. Therefore, unnecessary notifications may be transmitted, or conversely, true nuisance may not be reported. It is also possible for the administrator of the virtual space to provide the virtual space as a place where fraudulent acts such as exchanging information relating to criminal acts can be performed. In this case, even if the user reports, it is unlikely that the administrator will take appropriate measures.

なお、仮想空間内で生じたトラブルを後から確認できるように、各ユーザの操作履歴を記録しておくことも考えられる。しかしながら、各アバターに対する各ユーザの操作情報には、アバターを動かすための操作情報、音声、そして、将来的には触覚などの情報も含まれてくると考えられる。それらの情報は、ユーザ数も相まって膨大なものになると考えられるため、これらの情報を記憶することは現実的ではない。 It is also possible to record the operation history of each user so that the trouble that occurred in the virtual space can be confirmed later. However, it is considered that the operation information of each user for each avatar includes operation information for moving the avatar, voice, and, in the future, information such as tactile sense. It is considered that such information will be enormous due to the number of users, and it is not realistic to store such information.

そこで、本発明は、上述のような問題を解消し、仮想空間内におけるトラブル等の事象を記録可能な、情報処理装置の制御プログラム等を提供する。 Therefore, the present invention provides a control program for an information processing apparatus, which can solve the above problems and record an event such as a trouble in a virtual space.

本発明の一実施形態に係る、ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間におけるユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御プログラムであって、当該情報処理装置に、仮想空間における位置を指定する入力情報を生成する位置入力機能と、位置入力機能によって指定された位置における仮想空間の画像情報を取得する取得機能と、画像情報に含まれる1以上のアバターを抽出し、抽出されたアバターが所定の条件を満たす場合に、アバターの動作を解析する解析機能と、解析機能による解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成する生成機能と、生成機能によって生成されたテキスト情報を、所定の記憶部に記憶させる記憶機能と、を実現させる。 Control of an information processing apparatus connected to a virtual space system in which a user's action and voice input via a user terminal are reflected in the action and voice of a user's avatar in a virtual space according to an embodiment of the present invention. A program, in the information processing device, a position input function that generates input information that specifies a position in the virtual space, an acquisition function that acquires image information of the virtual space at the position specified by the position input function, and an image. Extracts one or more avatars included in the information, and if the extracted avatars meet a predetermined condition, an analysis function that analyzes the avatar's movements and information about the avatar's movements based on the results of the analysis by the analysis function. A generation function of generating text information to be described and a storage function of storing the text information generated by the generation function in a predetermined storage unit are realized.

本発明の一実施形態に係る制御プログラムにおいて、取得機能は、仮想空間の画像情報とともに音声情報を取得し、解析機能は、アバターとともに当該アバターの音声情報を抽出し、生成機能は、所定の条件の判定に、音声情報をさらに用いてもよい。 In the control program according to the embodiment of the present invention, the acquisition function acquires the voice information together with the image information of the virtual space, the analysis function extracts the voice information of the avatar together with the avatar, and the generation function performs the predetermined condition. The voice information may be further used for the determination.

本発明の一実施形態に係る制御プログラムは、情報処理装置に、仮想空間におけるアバターの動作を特定する情報であるアノテーション情報を関連付ける関連付け機能をさらに実現させ、生成機能は、所定の条件として、抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、テキスト情報を生成してもよい。 A control program according to an embodiment of the present invention further causes an information processing apparatus to realize an association function of associating annotation information, which is information specifying an avatar's action in a virtual space, and the generation function extracts as a predetermined condition. When the annotation information associated with the created avatar includes a predetermined keyword, text information may be generated.

本発明の一実施形態に係る制御プログラムにおいて、位置入力機能は、解析機能によって抽出されたアバターが所定の条件を満たす場合に、当該アバターから所定距離内の複数の位置を指定する入力情報を生成し、取得機能は、複数の位置における、アバターに関する画像情報を取得してもよい。 In the control program according to the embodiment of the present invention, the position input function generates input information designating a plurality of positions within a predetermined distance from the avatar when the avatar extracted by the analysis function satisfies a predetermined condition. However, the acquisition function may acquire image information about the avatar at a plurality of positions.

本発明の一実施形態に係る制御プログラムにおいて、関連付け機能は、アバターの一連の動作を学習した結果に基づいて、アバターに関連付けるアノテーション情報を更新してもよい。 In the control program according to the embodiment of the present invention, the associating function may update the annotation information to be associated with the avatar based on the result of learning the series of actions of the avatar.

本発明の一実施形態に係る制御プログラムにおいて、記憶機能は、生成機能によって生成されたテキスト情報の記憶に、電子透かし又は分散型台帳技術を用いてもよい。 In the control program according to the embodiment of the present invention, the storage function may use a digital watermark or a distributed ledger technology to store the text information generated by the generation function.

本発明の一実施形態に係る制御プログラムにおいて、記憶機能は、1のアバターとして仮想空間システムに登録された登録情報をさらに記憶し、位置入力機能は、仮想空間システムにおける1のアバターの位置を入力し、取得機能は、1のアバターの視界として、仮想空間の画像情報を取得してもよい。 In the control program according to the embodiment of the present invention, the storage function further stores registration information registered in the virtual space system as one avatar, and the position input function inputs the position of one avatar in the virtual space system. However, the acquisition function may acquire the image information of the virtual space as the field of view of one avatar.

本発明の一実施形態に係る制御プログラムにおいて、1のアバターは、仮想空間において背景を透過させる透明なオブジェクトとして実現されてもよい。 In the control program according to the embodiment of the present invention, one avatar may be realized as a transparent object that makes a background transparent in the virtual space.

本発明の一実施形態に係る、ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間におけるユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御方法は、当該情報処理装置が、仮想空間における位置を指定する入力情報を生成するステップと、指定された位置における仮想空間の画像情報を取得するステップと、画像情報に含まれる1以上のアバターを抽出し、抽出するステップによって抽出されたアバターが所定の条件を満たす場合に、アバターの動作を解析するステップと、解析するステップによる解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成するステップと、生成するステップにて生成されたテキスト情報を、所定の記憶部に記憶させるステップと、を実行する。 Control of an information processing apparatus connected to a virtual space system in which a user's action and voice input via a user terminal are reflected in the action and voice of a user's avatar in a virtual space according to an embodiment of the present invention. The method is such that the information processing apparatus generates input information designating a position in the virtual space, obtaining image information of the virtual space at the designated position, and one or more avatars included in the image information. If the avatar extracted in the extracting step satisfies a predetermined condition, text information describing information about the avatar's movement is analyzed based on the analysis step of analyzing the avatar's movement and the analysis step. The generating step and the step of storing the text information generated in the generating step in a predetermined storage unit are executed.

本発明の一実施形態に係る、ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間におけるユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置は、仮想空間における位置を指定する入力情報を生成する位置入力部と、位置入力部によって指定された位置における仮想空間の画像情報を取得する取得部と、画像情報に含まれる1以上のアバターを抽出し、抽出部によって抽出されたアバターが所定の条件を満たす場合に、アバターの動作を解析する解析部と、解析部による解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成する生成部と、生成部によって生成されたテキスト情報を、所定の記憶部に記憶させる記憶制御部と、を備える。 An information processing apparatus according to an embodiment of the present invention, which is connected to a virtual space system in which a user's action and voice input via a user terminal are reflected in the action and voice of a user's avatar in a virtual space, A position input unit that generates input information that specifies a position in the virtual space, an acquisition unit that acquires image information of the virtual space at the position specified by the position input unit, and one or more avatars included in the image information are extracted. If the avatar extracted by the extraction unit satisfies a predetermined condition, an analysis unit that analyzes the motion of the avatar, and generation of text information that describes information about the motion of the avatar based on the analysis result by the analysis unit And a storage control unit that stores the text information generated by the generation unit in a predetermined storage unit.

本発明によれば、仮想空間内におけるトラブル等の事象を記録する情報処理装置の制御プログラム等を提供することができる。 According to the present invention, it is possible to provide a control program of an information processing apparatus for recording an event such as a trouble in a virtual space.

本発明の一実施形態に係る仮想空間記録システム構成の概略図である。1 is a schematic diagram of a virtual space recording system configuration according to an embodiment of the present invention. 本発明の一実施形態に係る記録サーバ(情報処理装置)、コンピュータ、及び、HMDのハードウェア構成の一例である。1 is an example of a hardware configuration of a recording server (information processing device), a computer, and an HMD according to an embodiment of the present invention. 本発明の一実施形態に係るコンピュータのソフトウェア構成の一例である。It is an example of a software configuration of a computer according to an embodiment of the present invention. 本発明の一実施形態に係る記録サーバ(情報処理装置)のソフトウェア構成の一例である。1 is an example of a software configuration of a recording server (information processing device) according to an embodiment of the present invention. (a)は、本発明の一実施形態に係る仮想空間記録システムを説明する概略図、(b)は、本発明の一実施形態に係る仮想空間記録システムにおいて記憶される情報の一例である。(A) is a schematic diagram illustrating a virtual space recording system according to an embodiment of the present invention, and (b) is an example of information stored in the virtual space recording system according to an embodiment of the present invention. 本発明の一実施形態に係るシーケンスの一例である。It is an example of a sequence according to an embodiment of the present invention. 本発明の一実施形態に係る仮想空間記録システムにおいて生成されるアノテーション情報の一例である。3 is an example of annotation information generated in the virtual space recording system according to the embodiment of the present invention. 本発明の他の実施形態に係る仮想空間記録システムを説明する概略図である。It is a schematic diagram explaining the virtual space recording system concerning other embodiments of the present invention.

以降、諸図面を参照しながら、本発明の一実施形態を詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

<システム構成>
図1は、本発明の一実施形態に係る仮想空間記録システムの構成例を示す図である。図1に示すように、仮想空間記録システム700は、ネットワーク600を介して互いに接続された、記録サーバ(情報処理装置)100と、仮想空間提供サーバ200と、各ユーザのHMDシステム500A〜500Cとを含む。記録サーバ100は、仮想空間提供サーバ200が提供する仮想空間において生じる事象を記録する(詳細は後述する)。
<System configuration>
FIG. 1 is a diagram showing a configuration example of a virtual space recording system according to an embodiment of the present invention. As shown in FIG. 1, a virtual space recording system 700 includes a recording server (information processing device) 100, a virtual space providing server 200, and HMD systems 500A to 500C of respective users, which are connected to each other via a network 600. including. The recording server 100 records an event that occurs in the virtual space provided by the virtual space providing server 200 (details will be described later).

仮想空間提供サーバ200は、仮想空間提供サービス(以降、「仮想空間サービス」と称する)の管理者側のサーバであって、ユーザA〜ユーザCそれぞれのHMDシステム500A〜500Cに仮想空間サービスを提供する。HMDシステム500A〜500Cは、ユーザが仮想空間サービスを利用するためのシステムであって、それぞれ、ユーザ端末としてのHMD400A〜400C及びコンピュータ300A〜300Cを含む。なお、図1において、ユーザはユーザA、ユーザB、ユーザCの3人を示してあるが、これに限られるものではなく、これ以上でも、これ以下でもよい。また、HMD400A〜400Cは、同一の種類のものである必要はなく、仮想空間提供サーバ200が提供する仮想空間サービスを利用可能であればその種類は問わない。 The virtual space providing server 200 is a server on the manager side of a virtual space providing service (hereinafter referred to as “virtual space service”), and provides the virtual space service to the HMD systems 500A to 500C of users A to C, respectively. To do. The HMD systems 500A to 500C are systems for users to use virtual space services, and include HMDs 400A to 400C and computers 300A to 300C as user terminals, respectively. It should be noted that although FIG. 1 shows three users, user A, user B, and user C, the number of users is not limited to this, and may be more or less. Further, the HMDs 400A to 400C do not have to be of the same type, and the types thereof do not matter as long as the virtual space service provided by the virtual space providing server 200 can be used.

なお、上述のように、ユーザXに対応するHMDシステム500やコンピュータ300等を、HMDシステムXやコンピュータ300X等と表現し、また、仮想空間サービスにおけるユーザ情報を、ユーザ情報Xと表現する。ここで、ユーザ情報とは、仮想空間サービスにおいてユーザが利用するアカウントに対応付けられたユーザの情報である。ユーザ情報は、例えば、ユーザにより入力される、又は、仮想空間サービスにより付与される、ユーザの名前、ユーザのアバター情報、ユーザの年齢、ユーザの性別、ユーザの住所、ユーザの趣味趣向、電話番号やメールアドレスなどのユーザの連絡先、ユーザの識別子(ユーザID(IDentifier))などのユーザに対応づけられた情報であってよい。 Note that, as described above, the HMD system 500, the computer 300, and the like corresponding to the user X are expressed as the HMD system X, the computer 300X, and the like, and the user information in the virtual space service is expressed as the user information X. Here, the user information is user information associated with an account used by the user in the virtual space service. The user information is, for example, the user's name, the user's avatar information, the user's age, the user's sex, the user's address, the user's hobby, or the telephone number, which is input by the user or given by the virtual space service. The information may be information associated with the user, such as the user's contact information such as a mail address, a mail address, or the user's identifier (user ID (IDentifier)).

なお、これ以降、特に区別する必要のない場合、HMDシステム500A〜500CをHMDシステム500、HMD400A〜400CをHMD400、コンピュータ300A〜300Cをコンピュータ300と総称する。 In the following description, the HMD systems 500A to 500C will be collectively referred to as the HMD system 500, the HMDs 400A to 400C will be collectively referred to as the HMD 400, and the computers 300A to 300C will be collectively referred to as the computer 300, unless otherwise specified.

ネットワーク600は、仮想空間提供サーバ200、記録サーバ100、及び、各コンピュータ300を接続する役割を担う。ネットワーク600は、これらの間でデータを送受信することができるように接続経路を提供する通信網を意味する。ネットワーク600は、無線ネットワークや有線ネットワークを含んでよい。具体的には、ネットワーク600は、ワイヤレスLAN(wireless LAN:WLAN)や広域ネットワーク(wide area network:WAN)、ISDNs(integrated service digital networks)、無線LANs、LTE(long term evolution)、LTE−Advanced、第4世代(4G)、第5世代(5G)、CDMA(code division multiple access)等である。なお、ネットワーク600は、これらの例に限られず、例えば、公衆交換電話網(Public Switched Telephone Network:PSTN)やブルートゥース(Bluetooth(登録商標))、光回線、ADSL(Asymmetric Digital Subscriber LINE)回線、衛星通信網等であってもよい。また、ネットワーク600は、これらの組み合わせであってもよい。 The network 600 has a role of connecting the virtual space providing server 200, the recording server 100, and each computer 300. The network 600 means a communication network that provides a connection path so that data can be transmitted and received between them. The network 600 may include a wireless network or a wired network. Specifically, the network 600 includes a wireless LAN (WLAN), a wide area network (WAN), ISDNs (integrated service digital networks), wireless LANs, LTE (long term evolution), LTE-Advanced, The fourth generation (4G), the fifth generation (5G), CDMA (code division multiple access), and the like. The network 600 is not limited to these examples. For example, the public switched telephone network (PSTN), Bluetooth (registered trademark), optical line, ADSL (Asymmetric Digital Subscriber LINE) line, satellite. It may be a communication network or the like. Further, the network 600 may be a combination of these.

仮想空間提供サーバ200は、典型的にはクラウド上で実現されてもよい。仮想空間提供サーバ200は、アプリケーションサーバとしての機能を有し、コンピュータ300にインストールされたアプリケーションからの要求に応じて各種処理を実行する。 The virtual space providing server 200 may be typically realized on the cloud. The virtual space providing server 200 has a function as an application server and executes various processes in response to a request from an application installed in the computer 300.

コンピュータ300では、アプリケーションプログラムに基づいて、仮想空間や、コンピュータ300のユーザ、及び、他のユーザのアバターの表示、音声の出力等が行われる。コンピュータ300は、HMD400に対し、HMD400を装着したユーザに仮想空間を提供するための情報を送信する。仮想空間を提供するための情報とは、仮想空間を表示させる表示情報、仮想空間における音声情報、及び、将来的には触覚情報等を含む。なお、動画像情報を含んでもよい。また、コンピュータ300は、HMD400を装着したユーザの動作に関する動作情報や、ユーザが発生した音声に関する音声情報(以降、「動作情報等」と称する)を、HMD400から取得し、取得した動作情報に応じて、仮想空間の表示を変化させる。また、コンピュータ300は、ネットワーク600を介して仮想空間提供サーバ200から送信された、他のユーザの動作情報に応じて、仮想空間における他のユーザのアバターを動作させる。 In the computer 300, the virtual space, the avatars of the user of the computer 300 and other users, the output of voice, and the like are performed based on the application program. The computer 300 transmits, to the HMD 400, information for providing a virtual space to a user wearing the HMD 400. The information for providing the virtual space includes display information for displaying the virtual space, audio information in the virtual space, and tactile information in the future. The moving image information may be included. The computer 300 also acquires from the HMD 400 motion information regarding the motion of the user wearing the HMD 400 and voice information regarding the voice generated by the user (hereinafter referred to as “motion information etc.”), and according to the acquired motion information. Change the display of the virtual space. In addition, the computer 300 operates the avatars of other users in the virtual space according to the operation information of the other users transmitted from the virtual space providing server 200 via the network 600.

HMD400は、ユーザの頭部に装着される。HMD400は、コンピュータ300に接続されて仮想空間をユーザに提供する。HMD400は、モニタを備える所謂ヘッドマウントディスプレイと、スマートフォンその他のモニタを有する端末を装着可能なヘッドマウント機器のいずれをも含み得る。なお、図及び本開示では、コンピュータ300に仮想空間のアプリケーションがインストールされる態様について説明するが、本発明はこれに限られるものではなく、HMD400にアプリケーションがインストールされ、また、HMD400がネットワーク600に直接接続されて、ユーザに仮想空間を提供してもよい。 The HMD 400 is mounted on the user's head. The HMD 400 is connected to the computer 300 to provide a virtual space to the user. The HMD 400 may include both a so-called head mounted display including a monitor and a head mounted device to which a terminal having a monitor such as a smartphone can be mounted. It should be noted that although the drawings and the present disclosure describe the mode in which the application of the virtual space is installed in the computer 300, the present invention is not limited to this, and the application is installed in the HMD 400, and the HMD 400 is installed in the network 600. It may be directly connected to provide the user with a virtual space.

なお、記録サーバ100、仮想空間提供サーバ200、コンピュータ300、及び、HMD400は、本開示に記載される機能、及び/又は、方法を実現できる情報処理装置であればどのような情報処理装置であってもよい。例えば、これら情報処理装置の例として、スマートフォン、携帯電話(フィーチャーフォン)、コンピュータ(例えば、デスクトップ、ラップトップ、タブレットなど)、サーバ装置、メディアコンピュータプラットホーム(例えば、ケーブル、衛星セットトップボックス、デジタルビデオレコーダなど)、ハンドヘルドコンピュータデバイス(例えば、PDA(Personal Digital Assistant)、電子メールクライアントなど)、ウェアラブル端末(例えば、メガネ型デバイス、時計型デバイスなど)、他種のコンピュータ、又はコミュニケーションプラットホームを含んでよい。 It should be noted that the recording server 100, the virtual space providing server 200, the computer 300, and the HMD 400 are any information processing devices as long as they can realize the functions and/or methods described in the present disclosure. May be. For example, examples of these information processing devices include smartphones, mobile phones (feature phones), computers (for example, desktops, laptops, tablets, etc.), server devices, media computer platforms (for example, cables, satellite set-top boxes, digital video). A recorder, etc.), a handheld computer device (eg PDA (Personal Digital Assistant), e-mail client etc.), a wearable terminal (eg glasses-type device, clock-type device etc.), another kind of computer or a communication platform. ..

<ハードウェア構成>
図2を用いて、仮想空間記録システム700に含まれる記録サーバ100、コンピュータ300、及び、HMD400のハードウェア構成について説明する。
<Hardware configuration>
The hardware configurations of the recording server 100, the computer 300, and the HMD 400 included in the virtual space recording system 700 will be described with reference to FIG.

(1)HMDシステム500のハードウェア構成
本発明の一実施形態において、仮想空間提供サービスは既存のものを用いることができ、仮想空間提供サーバ200及びHMDシステム500は既存の技術であってよい。従って、仮想空間提供サービスや仮想空間提供サーバ200の詳細な説明は省略する。なお、仮想空間提供サービスは、本開示の記載に限定されるものではない。
(1) Hardware Configuration of HMD System 500 In one embodiment of the present invention, an existing virtual space providing service can be used, and the virtual space providing server 200 and the HMD system 500 may be existing technologies. Therefore, detailed description of the virtual space providing service and the virtual space providing server 200 is omitted. The virtual space providing service is not limited to the description of the present disclosure.

コンピュータ300は、プロセッサ301と、ストレージ302と、入出力インタフェース(入出力I/F)303と、メモリ304と、通信インタフェース(通信I/F)305とを含む。各構成要素は、バスBを介して相互に接続される。 The computer 300 includes a processor 301, a storage 302, an input/output interface (input/output I/F) 303, a memory 304, and a communication interface (communication I/F) 305. The respective constituent elements are connected to each other via a bus B.

プロセッサ301は、ストレージ302に記憶されるプログラムに含まれるコード又は命令によって実現する機能や方法を実行する。メモリ304は、ストレージ302からロードしたプログラムを一時的に記憶し、プロセッサ301に対して作業領域を提供する。メモリ304には、プロセッサ301がプログラムを実行している間に生成される各種データも一時的に格納される。ストレージ302は、プログラムを記憶する。 The processor 301 executes a function or method realized by a code or instruction included in a program stored in the storage 302. The memory 304 temporarily stores the program loaded from the storage 302 and provides a work area to the processor 301. Various data generated while the processor 301 is executing the program is also temporarily stored in the memory 304. The storage 302 stores a program.

通信I/F305は、ネットワーク600を介して、他の情報処理装置である仮想空間提供サーバ200や記録サーバ100との通信を実行する。通信I/F305は、各種データを、プロセッサ301からの指示に従って、他の情報処理装置に送信する。また、通信I/F305は、他の情報処理装置から送信された各種データを受信し、プロセッサ301に伝達する。 The communication I/F 305 executes communication with the virtual space providing server 200 and the recording server 100, which are other information processing devices, via the network 600. The communication I/F 305 transmits various data to another information processing device according to an instruction from the processor 301. Further, the communication I/F 305 receives various data transmitted from another information processing device and transfers the data to the processor 301.

入出力I/F303は、HMD400との接続インタフェースであって、HMD400との間でデータの通信を行う。入出力I/F303としては、例えば、USB(Universal Serial Bus)、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)等が含まれる。なお、HMD400とコンピュータ300との間のデータの通信は、無線通信(近距離無線通信(Bluetooth,Wi-Fi等))又は有線通信を介して行われてもよい。また、入出力I/F303には、図示しない、HMD400とは別個に設けられる他のセンサであって、例えば、赤外線センサ、カメラ等が接続されてもよい。カメラは、ユーザの表情を検出可能に備えられ、ユーザの表情の変化を、アバターの表情の変化に反映させてもよい。 The input/output I/F 303 is a connection interface with the HMD 400 and performs data communication with the HMD 400. The input/output I/F 303 includes, for example, USB (Universal Serial Bus), DVI (Digital Visual Interface), HDMI (registered trademark) (High-Definition Multimedia Interface), and the like. Data communication between the HMD 400 and the computer 300 may be performed via wireless communication (near field communication (Bluetooth, Wi-Fi, etc.)) or wired communication. Further, the input/output I/F 303 may be connected to another sensor (not shown) provided separately from the HMD 400, such as an infrared sensor or a camera. The camera may be provided so as to detect the facial expression of the user, and the change in the facial expression of the user may be reflected in the change in the facial expression of the avatar.

HMD400は、ジャイロセンサ410、視線センサ420、カメラ430、マイク440、モニタ450、及び、スピーカ460を含む。モニタ450は、例えば、液晶モニタ又は有機EL(Electro Luminescence)モニタとして実現され、3次元の仮想空間を表示する。より具体的には、モニタ450には、両目の視差に基づく3次元画像がユーザに認識されるように、右目用の画像及び左目用の画像が表示される。なお、ここではモニタ450として説明しているが、網膜投影であってもよい。 The HMD 400 includes a gyro sensor 410, a line-of-sight sensor 420, a camera 430, a microphone 440, a monitor 450, and a speaker 460. The monitor 450 is realized as, for example, a liquid crystal monitor or an organic EL (Electro Luminescence) monitor, and displays a three-dimensional virtual space. More specifically, the image for the right eye and the image for the left eye are displayed on the monitor 450 so that the user can recognize the three-dimensional image based on the parallax of both eyes. Although the monitor 450 is described here, retinal projection may be used.

ジャイロセンサ410は、HMD400の傾きを検出する。なお、HMD400は、ジャイロセンサ410の他にも、加速度センサ、地磁気センサその他のセンサを含み、HMD400を装着したユーザの頭の動き(回転、傾き、向き、加速度等)を検出可能であってよい。さらに、コンピュータ300が、HMD400に備えられたセンサや、上述した別個のセンサからの出力に基づいて、HMD400の位置及び傾きを検出するように構成されてもよい。 The gyro sensor 410 detects the inclination of the HMD 400. The HMD 400 may include an acceleration sensor, a geomagnetic sensor, and other sensors in addition to the gyro sensor 410, and can detect the movement (rotation, inclination, orientation, acceleration, etc.) of the head of the user wearing the HMD 400. .. Further, the computer 300 may be configured to detect the position and the inclination of the HMD 400 based on the output of the sensor included in the HMD 400 or the above-described separate sensor.

カメラ430は、カメラ430から対象物までの深度情報を取得可能に構成され、HMD400を装着したユーザの視線方向にあるもの(例えば、ユーザの手)を3次元で表示するためのデータを取得する。例えば、カメラ430は、TOF(Time Of Flight)カメラ、ステレオカメラ、赤外線カメラ等であってよい。カメラ430は、取得した対象物の深度情報をコンピュータ300に出力する。 The camera 430 is configured to be able to acquire depth information from the camera 430 to an object, and acquires data for displaying in a three-dimensional manner an object in the line-of-sight direction of the user wearing the HMD 400 (for example, the user's hand). .. For example, the camera 430 may be a TOF (Time Of Flight) camera, a stereo camera, an infrared camera, or the like. The camera 430 outputs the acquired depth information of the target object to the computer 300.

スピーカ460は、コンピュータ300から受信した音声信号を、音声に変換してユーザに出力する。マイク440は、ユーザの発話を電気信号に変換して、コンピュータ300に出力する。視線センサ420は、ユーザの右目及び左目の視線が向けられる方向(視線)を検出する。 The speaker 460 converts the audio signal received from the computer 300 into audio and outputs the audio to the user. The microphone 440 converts the user's utterance into an electric signal and outputs the electric signal to the computer 300. The line-of-sight sensor 420 detects a direction (line of sight) in which the right and left eyes of the user are directed.

(2)記録サーバ100のハードウェア構成
記録サーバ100は、プロセッサ101と、ストレージ102と、入出力インタフェース(入出力I/F)103と、メモリ104と、通信インタフェース(通信I/F)105とを含む。各構成要素は、バスBを介して相互に接続される。
(2) Hardware Configuration of Recording Server 100 The recording server 100 includes a processor 101, a storage 102, an input/output interface (input/output I/F) 103, a memory 104, and a communication interface (communication I/F) 105. including. The respective constituent elements are connected to each other via a bus B.

記録サーバ100は、プロセッサ101と、ストレージ102と、入出力I/F103と、メモリ104と、通信I/F105との協働により、本実施形態に記載される機能や方法を実現する。例えば、本開示の機能又は方法は、メモリ104に読み込まれたプログラムに含まれる命令をプロセッサ101が実行することによって実現される。 The recording server 100 realizes the functions and methods described in the present embodiment by the cooperation of the processor 101, the storage 102, the input/output I/F 103, the memory 104, and the communication I/F 105. For example, the functions or methods of the present disclosure are realized by the processor 101 executing instructions included in the program read into the memory 104.

プロセッサ101は、ストレージ102に記憶されるプログラムに含まれるコード又は命令によって実現する機能、及び/又は、方法を実行する。プロセッサ101は、例えば、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。 The processor 101 executes a function and/or a method realized by a code or an instruction included in a program stored in the storage 102. The processor 101 is, for example, a central processing unit (CPU), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), microprocessor (microprocessor), processor core (processor core), multiprocessor (multiprocessor), ASIC (Application- Specific integrated circuit), FPGA (Field Programmable Gate Array), etc., and implemented by a logic circuit (hardware) or dedicated circuit formed in an integrated circuit (IC (Integrated Circuit) chip, LSI (Large Scale Integration)) or the like. Each process disclosed in the embodiment may be realized. Further, these circuits may be realized by one or a plurality of integrated circuits, and the plurality of processes shown in each embodiment may be realized by a single integrated circuit. Further, the LSI may be referred to as VLSI, super LSI, ultra LSI, or the like depending on the degree of integration.

メモリ104は、ストレージ102からロードしたプログラムを一時的に記憶し、プロセッサ101に対して作業領域を提供する。メモリ104には、プロセッサ101がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ104は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む。 The memory 104 temporarily stores the program loaded from the storage 102 and provides a work area to the processor 101. The memory 104 also temporarily stores various data generated while the processor 101 is executing the program. The memory 104 includes, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like.

ストレージ102は、プログラムを記憶する。ストレージ102は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含む。 The storage 102 stores a program. The storage 102 includes, for example, a HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, and the like.

通信I/F105は、ネットワークアダプタ等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク600を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F105は、ネットワーク600を介して、他の情報処理装置である仮想空間提供サーバ200やコンピュータ300との通信を実行する。通信I/F105は、各種データをプロセッサ101からの指示に従って、他の情報処理装置に送信する。また、通信I/F105は、他の情報処理装置から送信された各種データを受信し、プロセッサ101に伝達する。 The communication I/F 105 is implemented as hardware such as a network adapter, communication software, and a combination thereof, and transmits/receives various data via the network 600. The communication may be performed by wire or wireless, and any communication protocol may be used as long as mutual communication can be performed. The communication I/F 105 executes communication with the virtual space providing server 200 and the computer 300, which are other information processing devices, via the network 600. The communication I/F 105 transmits various data to another information processing device according to an instruction from the processor 101. Further, the communication I/F 105 receives various data transmitted from another information processing device and transfers the data to the processor 101.

入出力I/F103は、記録サーバ100に対する各種操作を入力する入力装置、及び、記録サーバ100で処理された処理結果を出力する出力装置を含む。入出力I/F103は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ101に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力装置は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。出力装置は、プロセッサ101で処理された処理結果を出力する。出力装置は、例えば、タッチパネル、スピーカ等を含む。 The input/output I/F 103 includes an input device that inputs various operations on the recording server 100 and an output device that outputs a processing result processed by the recording server 100. In the input/output I/F 103, the input device and the output device may be integrated, or the input device and the output device may be separated. The input device is realized by any of all types of devices that can receive an input from a user and transmit information related to the input to the processor 101, or a combination thereof. The input device includes, for example, a hardware key such as a touch panel, a touch display, and a keyboard, a pointing device such as a mouse, a camera (operation input via an image), and a microphone (operation input by voice). The output device outputs the processing result processed by the processor 101. The output device includes, for example, a touch panel, a speaker, and the like.

<機能構成>
次に、図3、図4を用いて、コンピュータ300、記録サーバ100の機能構成について説明する。
<Functional configuration>
Next, the functional configurations of the computer 300 and the recording server 100 will be described with reference to FIGS. 3 and 4.

(1)コンピュータ300の機能構成
図3に、コンピュータ300の機能構成の概略図を示す。図3に示すように、コンピュータ300は、仮想空間アプリケーション310として、表示制御部320及び仮想空間制御部330を含む。さらに、コンピュータ300は、通信制御部340、記憶部350、入出力制御部360を含む。
(1) Functional Configuration of Computer 300 FIG. 3 shows a schematic diagram of the functional configuration of the computer 300. As shown in FIG. 3, the computer 300 includes a display control unit 320 and a virtual space control unit 330 as the virtual space application 310. Further, the computer 300 includes a communication control unit 340, a storage unit 350, and an input/output control unit 360.

通信制御部340は、通信I/F305を介した他の情報処理装置との間の通信を制御する。すなわち、通信制御部340は、他の情報処理装置である仮想空間提供サーバ200、記録サーバ100、他のコンピュータ300との間の通信で取得したデータを、仮想空間アプリケーション310や記憶部350へ送信したり、仮想空間アプリケーション310や記憶部350からのデータを、他の情報処理装置へ送信したりする。 The communication control unit 340 controls communication with another information processing device via the communication I/F 305. That is, the communication control unit 340 transmits the data acquired through the communication with the virtual space providing server 200, the recording server 100, and the other computer 300, which are other information processing devices, to the virtual space application 310 and the storage unit 350. Or transmit data from the virtual space application 310 or the storage unit 350 to another information processing device.

入出力制御部360は、入出力I/F303を介した、例えばHMD400との間の通信を制御する。すなわち、入出力制御部360は、HMD400から送信されたユーザの動作情報や音声情報を、仮想空間アプリケーション310や記憶部350へ送信したり、仮想空間アプリケーション310から送信された仮想空間の表示情報や音声情報を、HMD400へ送信したりする。 The input/output control unit 360 controls communication with the HMD 400, for example, via the input/output I/F 303. That is, the input/output control unit 360 transmits the user's motion information and voice information transmitted from the HMD 400 to the virtual space application 310 and the storage unit 350, and the virtual space display information transmitted from the virtual space application 310. The voice information is transmitted to the HMD 400.

表示制御部320は、仮想空間のうちHMD400のモニタ450に表示させる画像を制御する。表示制御部320は、位置入力部321、視点入力部322、視界画像生成部323、動き検出部324、角速度検出部325、及び、視線検出部326を含む。 The display control unit 320 controls an image displayed on the monitor 450 of the HMD 400 in the virtual space. The display control unit 320 includes a position input unit 321, a viewpoint input unit 322, a visual field image generation unit 323, a motion detection unit 324, an angular velocity detection unit 325, and a visual line detection unit 326.

位置入力部321は、HMD400から送信されたユーザの動作情報に応じて、仮想空間における位置を設定する。すなわち、位置入力部321は、ユーザの歩行動作や走行動作に応じて、仮想空間内の移動先や移動距離を設定する。なお、ユーザの動作情報は、HMD400から送信されるものに限られず、図示しないコントローラから送信されてもよい。コントローラとしては、既知のものを用いることができる。又は、位置入力部321は、ユーザから直接入力された仮想空間内での移動先に基づき、仮想空間における位置を設定してもよい。視点入力部322は、HMD400の傾き(すなわち、ジャイロセンサ410の出力)と、位置入力部321によって設定された位置に応じて、ユーザの仮想空間の視界領域を設定する。視界画像生成部323は、設定された視界領域に基づいて、モニタ450に表示する仮想空間の視界画像を生成する。 The position input unit 321 sets the position in the virtual space according to the user's motion information transmitted from the HMD 400. That is, the position input unit 321 sets the moving destination and the moving distance in the virtual space according to the walking motion or the running motion of the user. The operation information of the user is not limited to that transmitted from the HMD 400, and may be transmitted from a controller (not shown). A known controller can be used as the controller. Alternatively, the position input unit 321 may set the position in the virtual space based on the destination in the virtual space directly input by the user. The viewpoint input unit 322 sets the visual field area of the virtual space of the user according to the inclination of the HMD 400 (that is, the output of the gyro sensor 410) and the position set by the position input unit 321. The visual field image generation unit 323 generates a visual field image of the virtual space displayed on the monitor 450, based on the set visual field area.

動き検出部324は、HMD400から送信されたユーザの動きを検出する。ここ検出部326は、ジャイロセンサ410や図示しない他のセンサからの出力に基づいて、ユーザの視線としてのHMD400の傾きを検出する。角速度検出部325は、ジャイロセンサ410の出力を角速度に変換し、変換した角速度を、視点入力部322及び視線検出部326に出力する。 The motion detection unit 324 detects the motion of the user transmitted from the HMD 400. The detection unit 326 detects the inclination of the HMD 400 as the line of sight of the user based on the outputs from the gyro sensor 410 and other sensors (not shown). The angular velocity detection unit 325 converts the output of the gyro sensor 410 into an angular velocity, and outputs the converted angular velocity to the viewpoint input unit 322 and the line-of-sight detection unit 326.

仮想空間制御部330は、ユーザに提供する仮想空間を制御する。仮想空間制御部330は、仮想空間生成部331、仮想オブジェクト生成部332、及び、アバター生成部333を含む。 The virtual space control unit 330 controls the virtual space provided to the user. The virtual space control unit 330 includes a virtual space generation unit 331, a virtual object generation unit 332, and an avatar generation unit 333.

仮想空間生成部331は、仮想空間を表す仮想空間データを生成し、HMD400へ出力する。仮想オブジェクト生成部332は、仮想空間に配置されるオブジェクトを生成する。オブジェクトは、例えば、仮想空間に設定されたテーマや物語に従って配置される、市街地、道路、店舗といった人工物や、森、山その他を含む風景、動物等の自然物を模したオブジェクトを含んでよい。なお、仮想オブジェクト生成部332は、仮想空間においてユーザによる操作が可能なオブジェクトを生成してもよい。操作が可能なオブジェクトとしては、例えば、ユーザの手(ユーザのアバターの手)、他のユーザのアバターの手であってよい。また、仮想オブジェクト生成部332は、仮想空間サービスの登録ユーザによるプログラムに基づいて生成される任意のオブジェクトを表示させてもよい。なお、仮想空間において生成(表示)されるオブジェクトとしては、上述のものに限られるものではなく、例えば、仮想通貨、文字、静止画、動画等様々なものを含むことができる。 The virtual space generation unit 331 generates virtual space data representing a virtual space and outputs it to the HMD 400. The virtual object generation unit 332 generates an object arranged in the virtual space. The objects may include, for example, artificial objects such as urban areas, roads, and shops arranged according to the theme or story set in the virtual space, landscapes including forests, mountains, etc., and objects simulating natural objects such as animals. The virtual object generation unit 332 may generate an object that can be operated by the user in the virtual space. The operable object may be, for example, a user's hand (user's avatar's hand) or another user's avatar's hand. Further, the virtual object generation unit 332 may display an arbitrary object generated based on the program by the registered user of the virtual space service. The objects generated (displayed) in the virtual space are not limited to those described above, and various objects such as virtual currency, characters, still images, and moving images can be included.

アバター生成部333は、仮想空間に配置されるアバターのデータを生成する。仮想空間に配置されるアバターとしては、ネットワーク600を介して接続される他のコンピュータ300の他のユーザのアバターオブジェクトであったり、ユーザのアバターオブジェクトであったりしてよい。なお、アバターオブジェクトとしては、人物、動物、ロボット、キャラクター等、ユーザによって設定された様々なものを含むことができる。 The avatar generation unit 333 generates data of an avatar placed in the virtual space. The avatar placed in the virtual space may be an avatar object of another user of another computer 300 connected via the network 600, or an avatar object of the user. Note that the avatar object may include various objects set by the user, such as a person, an animal, a robot, a character, and the like.

アバター生成部333は、角速度検出部325が出力する角速度に基づいて、HMD400の動きを、ユーザのアバターオブジェクトに反映する。また、アバター生成部333は、動き検出部324の出力に基づいて、現実空間のユーザの手の動きを含むユーザの動作を、アバターオブジェクトに反映する。また、アバター生成部333は、カメラで取得されたユーザの表情の変化や、ユーザの音声・発話内容に応じて、アバターの表情を変化させる。これは、既知の3次元画像生成技術や、HMDのユーザの顔に接触する部分に筋電センサを設けて表情を推定する技術によって行うことができる。また、アバター生成部333は、他のコンピュータ300から入力される角速度の情報などに基づいて、他のコンピュータ300の他のユーザに対応するアバターオブジェクトを動かして表示させる。 The avatar generation unit 333 reflects the movement of the HMD 400 on the avatar object of the user based on the angular velocity output by the angular velocity detection unit 325. In addition, the avatar generation unit 333 reflects the user's motion including the motion of the user's hand in the physical space on the avatar object based on the output of the motion detection unit 324. Also, the avatar generation unit 333 changes the facial expression of the avatar according to the change of the facial expression of the user acquired by the camera and the content of the voice/speech of the user. This can be performed by a known three-dimensional image generation technique or a technique of estimating a facial expression by providing a myoelectric sensor in a portion of the HMD that comes into contact with the face of the user. In addition, the avatar generation unit 333 moves and displays the avatar object corresponding to another user of the other computer 300 based on the angular velocity information input from the other computer 300.

記憶部350は、コンピュータ300が仮想空間をユーザに提供するために用いるデータを保持する。記憶部350は、仮想空間情報351や、ユーザ情報352を含む。仮想空間情報351は、仮想空間を提供するために規定された1つ以上のテンプレートや、上述したオブジェクト等を含む。 The storage unit 350 holds data used by the computer 300 to provide a virtual space to a user. The storage unit 350 includes virtual space information 351 and user information 352. The virtual space information 351 includes one or more templates defined for providing a virtual space, the above-mentioned objects, and the like.

ユーザ情報352は、HMDシステム500の制御装置としてコンピュータ300を機能させるためのプログラムや、仮想空間サービスのアプリケーションプログラム、仮想空間サービスで利用可能なコンテンツ等を保持する。これらのプログラムやコンテンツは、仮想空間サービスを提供する事業者(例えば、仮想空間提供サーバ200)や、コンテンツを提供する事業者のコンピュータや、クラウド上のデータをダウンロードすることで取得してもよい。 The user information 352 holds a program for causing the computer 300 to function as a control device of the HMD system 500, an application program of a virtual space service, contents available in the virtual space service, and the like. These programs and contents may be acquired by downloading a data on a cloud or a computer of a provider of the virtual space service (for example, the virtual space providing server 200), a computer of the provider of the content. ..

なお、仮想空間アプリケーション310の一部は、例えば、ユニティテクノロジーズ社によって提供されるUnity(登録商標)を用いて実現され得る。又は、仮想空間アプリケーション310は、各処理を実現する回路素子の組み合わせとしても実現され得る。 Note that a part of the virtual space application 310 can be realized by using Unity (registered trademark) provided by Unity Technologies, Inc., for example. Alternatively, the virtual space application 310 may be realized as a combination of circuit elements that realize each process.

(2)記録サーバ100の機能構成
図4に、記録サーバ100の機能構成の概略図を示す。図4に示すように、記録サーバ100は、仮想空間アプリケーション110として、表示制御部120及び仮想空間制御部130を含む。さらに、記録サーバ100は、通信制御部140、記憶部150、操作入力情報生成部160、画像認識部170、テキスト生成部181、及び、関連付け部182を含む。
(2) Functional Configuration of Recording Server 100 FIG. 4 shows a schematic diagram of the functional configuration of the recording server 100. As shown in FIG. 4, the recording server 100 includes a display control unit 120 and a virtual space control unit 130 as the virtual space application 110. Furthermore, the recording server 100 includes a communication control unit 140, a storage unit 150, an operation input information generation unit 160, an image recognition unit 170, a text generation unit 181, and an association unit 182.

ここで、記録サーバ100の各機能部の説明に先立ち、コンピュータ300と記録サーバ100と間の機能構成の差異について説明する。 Here, prior to the description of each functional unit of the recording server 100, the difference in the functional configuration between the computer 300 and the recording server 100 will be described.

記録サーバ100は、コンピュータ300と同様に、仮想空間サービスのアプリケーションプログラムをインストールされ、当該プログラムに基づき、仮想空間に関するデータを取得する。従って、コンピュータ300における仮想空間アプリケーション310と、記録サーバ100における仮想空間アプリケーション110との間に、機能上の差異はない。すなわち、本発明の一実施形態における仮想空間記録システムの実現にあたり、仮想空間サービスの管理者側に、何ら特別な措置を強いる必要はない。 Like the computer 300, the recording server 100 is installed with the application program of the virtual space service, and acquires the data regarding the virtual space based on the program. Therefore, there is no functional difference between the virtual space application 310 in the computer 300 and the virtual space application 110 in the recording server 100. That is, in implementing the virtual space recording system according to the embodiment of the present invention, it is not necessary to impose any special measures on the administrator side of the virtual space service.

記録サーバ100とコンピュータ300とは、記録サーバ100にはHMD400が接続されず、記録サーバ100において、仮想空間を記録する場所(位置)や方向を指定するための入力情報が、操作入力情報生成部160によって生成される点に差異の1つがある。このため、図4において、仮想空間アプリケーション110の表示制御部120に、HMD400に関する動き検出部、角速度検出部、視線検出部は図示していない。しかしながら、本発明の一実施形態において、仮想空間サービスのアプリケーションプログラムを利用する場合、これら動き検出部、角速度検出部、視線検出部が機能として含まれてもよい。 In the recording server 100 and the computer 300, the HMD 400 is not connected to the recording server 100, and in the recording server 100, the input information for designating the place (position) and the direction of recording the virtual space is the operation input information generation unit. There is one difference in the points generated by 160. Therefore, in FIG. 4, the display control unit 120 of the virtual space application 110 does not show the motion detection unit, the angular velocity detection unit, and the line-of-sight detection unit regarding the HMD 400. However, in the embodiment of the present invention, when the application program of the virtual space service is used, these motion detection unit, angular velocity detection unit, and line-of-sight detection unit may be included as functions.

上述のように、仮想空間アプリケーション110は、仮想空間アプリケーション310と同様であるため、以下では、同様の部分についての説明を省略し、異なる部分について説明する。 As described above, the virtual space application 110 is the same as the virtual space application 310, and therefore, the description of the same parts will be omitted and different parts will be described below.

操作入力情報生成部160は、HMDシステム500においてはHMD400によって生成される情報を生成する。すなわち、位置入力情報生成部161は、仮想空間における位置を指定(設定)する入力情報を生成する。視点入力情報生成部162は、仮想空間の視界領域を指定する入力情報を生成する。これら、操作入力情報生成部160によって生成される入力情報は、HMD400から送信されるデータ形式に則ったデータ形式で生成されてよい。又は、原点を設定し、当該原点からの相対位置を数値で指定するものであってよいし、座標を直接指定するものであってよい。また、視点入力情報生成部162によって生成される情報には、現在位置からの回転角、回転方向などを含む。 The operation input information generation unit 160 generates information generated by the HMD 400 in the HMD system 500. That is, the position input information generation unit 161 generates input information that specifies (sets) the position in the virtual space. The viewpoint input information generation unit 162 generates input information that specifies the field of view of the virtual space. The input information generated by the operation input information generation unit 160 may be generated in a data format according to the data format transmitted from the HMD 400. Alternatively, the origin may be set and the relative position from the origin may be designated by a numerical value, or the coordinates may be designated directly. Further, the information generated by the viewpoint input information generation unit 162 includes a rotation angle from the current position, a rotation direction, and the like.

画像認識部170は、仮想空間アプリケーション110によって生成された仮想空間に関する画像データを処理する。画像認識部170は、視界画像取得部171、解析部172を含む。視界画像取得部171は、仮想空間アプリケーション110における視界画像生成部123が生成した視界画像の情報(画像情報)を取得する。解析部172は、視界画像取得部171が取得した画像における1以上のアバターを抽出する。解析部172におけるアバターの抽出は、既存の画像解析技術を用いて行うことができる。 The image recognition unit 170 processes the image data regarding the virtual space generated by the virtual space application 110. The image recognition unit 170 includes a visual field image acquisition unit 171 and an analysis unit 172. The visual field image acquisition unit 171 acquires information (image information) on the visual field image generated by the visual field image generation unit 123 in the virtual space application 110. The analysis unit 172 extracts one or more avatars in the image acquired by the view image acquisition unit 171. Extraction of the avatar in the analysis unit 172 can be performed using an existing image analysis technique.

解析部172は、抽出されたアバターが所定の条件を満たすか否かを判定する。詳細は後述するが、所定の条件とは、仮想空間におけるトラブルの発生や、トラブルの発生に繋がり得る状態を判定可能な条件である。解析部172は、さらに、抽出されたアバターが所定の条件を満たすと判定された場合、当該アバターの動作を解析する。本開示において、解析とは、解析対象の統計的なデータを得ることを意味し、アバターの動作の解析とは、アバターの動作が時間の経過に沿ってどのように変化したかについてのデータを得ることを意味する。この、解析部172によるアバターの動作の解析やアバターの表情の解析も、既存の画像解析技術を用いることが出来る。なお、解析部172には、人工知能(AI:Artifficial Intelligence)、例えば、深層学習による解析技術が用いられてもよい。テキスト生成部181は、解析部172による解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成する。 The analysis unit 172 determines whether the extracted avatar satisfies a predetermined condition. Although the details will be described later, the predetermined condition is a condition with which it is possible to determine the occurrence of a trouble in the virtual space or a state that may lead to the occurrence of the trouble. When it is determined that the extracted avatar satisfies a predetermined condition, the analysis unit 172 further analyzes the motion of the avatar. In the present disclosure, analysis means obtaining statistical data to be analyzed, and analysis of avatar's movement refers to data about how the avatar's movement has changed over time. Means to get. The analysis of the avatar's motion and the analysis of the avatar's facial expression by the analysis unit 172 can also use the existing image analysis technology. In addition, artificial intelligence (AI: Artifficial Intelligence), for example, an analysis technique by deep learning may be used for the analysis unit 172. The text generation unit 181 generates text information that describes information regarding an avatar's action based on the analysis result by the analysis unit 172.

通信制御部140は、通信I/F105を介した他の情報処理装置との間の通信を制御する。すなわち、通信制御部140は、他の情報処理装置である仮想空間提供サーバ200、複数のコンピュータ300との間の通信で取得したデータを、仮想空間アプリケーション110や記憶部150へ送信したり、仮想空間アプリケーション110や記憶部150からのデータを、他の情報処理装置へ送信したりする。 The communication control unit 140 controls communication with another information processing device via the communication I/F 105. That is, the communication control unit 140 transmits data acquired by communication with the virtual space providing server 200, which is another information processing device, and the plurality of computers 300 to the virtual space application 110 and the storage unit 150, and the virtual space application 110 and the storage unit 150. Data from the spatial application 110 and the storage unit 150 is transmitted to another information processing device.

記憶部150は、仮想空間情報151、ユーザ情報152、条件データベース(DB)153を含む。仮想空間情報151は、仮想空間を提供するために規定された1つ以上のテンプレートや、上述したオブジェクト等を含む。条件データベース153は、上述した所定の条件を保持する。さらに、記憶部150は、テキスト生成部181によって生成されたテキスト情報を保持する。 The storage unit 150 includes virtual space information 151, user information 152, and a condition database (DB) 153. The virtual space information 151 includes one or more templates defined for providing a virtual space, the above-mentioned objects, and the like. The condition database 153 holds the above-mentioned predetermined conditions. Furthermore, the storage unit 150 holds the text information generated by the text generation unit 181.

<仮想空間における記録処理>
次に、図5を用いて、記録サーバ100が仮想空間における事象を記録する概要について説明する。図5(a)は、仮想空間10を半球で表した図である。図において、仮想空間10はアバター20A,20Bを含む状態を示してある。
<Recording process in virtual space>
Next, the outline of the recording server 100 recording an event in the virtual space will be described with reference to FIG. FIG. 5A is a diagram in which the virtual space 10 is represented by a hemisphere. In the figure, the virtual space 10 is shown to include avatars 20A and 20B.

図において、アバター30Uは、記録サーバ100の1のアカウントに対応する。図に示すように、本発明の一実施形態によれば、記録サーバ100が仮想空間サービスにおけるアカウントを有し、当該アカウントに対応付けてアバター30Uを仮想空間内に配置することができる。そして、操作入力情報生成部160は、アバター30を移動させる情報や、アバター30の視点を動かす入力情報を生成し、仮想空間アプリケーション110へ当該情報を送信することができる。これにより、仮想空間における視界画像を取得することが可能となる。 In the figure, the avatar 30U corresponds to one account of the recording server 100. As shown in the figure, according to the embodiment of the present invention, the recording server 100 has an account in the virtual space service, and the avatar 30U can be arranged in the virtual space in association with the account. Then, the operation input information generation unit 160 can generate information for moving the avatar 30 and input information for moving the viewpoint of the avatar 30, and transmit the information to the virtual space application 110. This makes it possible to acquire a view field image in the virtual space.

なおこのとき、アバター30Uは、背景を透過させる透明なオブジェクトとして実現してもよい。また、アバター30Uは、仮想空間内の通常のアバターの移動ルールに縛られる必要はなく、例えば、空間に浮いた状態での上からの俯瞰画像を取得できてもよい。即ち、本実施の形態に係る記録サーバ100に係るアバター30Uは、いわば、透明な監視カメラとして仮想空間内の画像情報を取得することができる。これにより、仮想空間の利用ユーザに記録システムを検知させず、自然な動作を行わせることが可能となる。 At this time, the avatar 30U may be realized as a transparent object that allows the background to be transparent. In addition, the avatar 30U does not need to be bound by the movement rule of a normal avatar in the virtual space, and may be, for example, capable of acquiring a bird's-eye view image from above while floating in the space. That is, the avatar 30U of the recording server 100 according to the present embodiment can, so to speak, acquire image information in the virtual space as a transparent surveillance camera. As a result, it becomes possible for the user of the virtual space to perform a natural operation without detecting the recording system.

図5(a)において、アバター30Uから延びる点線によって囲まれたフィールドは、アバター30Uの仮想的な視界領域を表す。図において、アバター30Uの視界には、アバター20A,20Bが含まれ、視界画像取得部171は、アバター20A,20Bが含まれる画像情報を取得することができる。解析部172は、アバター20A,20Bを抽出し、これらのアバターが所定の条件を満たすか否かを判定する。 In FIG. 5A, a field surrounded by a dotted line extending from the avatar 30U represents a virtual view area of the avatar 30U. In the figure, the field of view of the avatar 30U includes the avatars 20A and 20B, and the field-of-view image acquisition unit 171 can acquire image information including the avatars 20A and 20B. The analysis unit 172 extracts the avatars 20A and 20B and determines whether these avatars satisfy a predetermined condition.

所定の条件とは、仮想空間におけるトラブルに繋がりかねない状態であって、例えば、「ユーザ同士の接近」、「ジェスチャーでのやり取り」、「顔の表情が負の感情に分類される」、「受け渡しが禁止されているオブジェクトの受け渡し」等の条件や、それらの組合せであってよい。解析部172は、アバターの含まれる画像を既知の画像解析技術で解析し、アバターについて、所定の条件にあてはまる行動があった場合に、所定の条件を満たすと判定する。 The predetermined condition is a state that may lead to a trouble in the virtual space, and is, for example, “approach between users”, “interaction with gesture”, “face expression is classified as negative emotion”, “ It may be a condition such as “delivery of an object whose delivery is prohibited” or a combination thereof. The analysis unit 172 analyzes the image including the avatar by a known image analysis technique, and determines that the predetermined condition is satisfied when the avatar has an action that meets the predetermined condition.

例えば、図5では、アバター20Aとアバター20Bとが接近し、所定の条件を満たしたとする。そのため、解析部172は、アバター20Aとアバター20Bの動作の解析を開始する。テキスト生成部181は、解析部172による解析結果に基づき、アバターの動作を記述するテキスト情報を生成する。なお、その際、テキスト生成部181は、当該動作の開始時間や終了時間、仮想空間における場所についての情報を含むテキスト情報を生成してもよい。図5(b)に、生成されるテキスト情報の一例を示す。図のように、日付、事象の発生場所(場所ID)とともに、事象の内容が記録される。 For example, in FIG. 5, it is assumed that the avatar 20A and the avatar 20B approach each other and satisfy a predetermined condition. Therefore, the analysis unit 172 starts analysis of the motions of the avatar 20A and the avatar 20B. The text generation unit 181 generates text information describing the action of the avatar based on the analysis result of the analysis unit 172. At that time, the text generation unit 181 may generate text information including the start time and end time of the operation, and information about the place in the virtual space. FIG. 5B shows an example of the generated text information. As shown in the figure, the content of the event is recorded together with the date and the location (location ID) of the event.

上述のように、本発明の一実施形態によれば、アバターの動作を画像から解析し、テキスト情報として記述することができる。この際、所定の条件を満たすアバターに関してのみテキスト情報が生成されるため、仮想空間サービスの利用ユーザ毎に異なり得る不正行為の判断を一律化することができ、また、利用ユーザに負担をかけることがない。さらに、仮想空間で生じた全ての事象を記録しないため、記録するデータを削減することができる。さらに、本発明の一実施形態を実現するのに、仮想空間サービスによって提供されるアプリケーションを用いることができるため、仮想空間サービスの管理者側に負担を強いることがない。また、仮想空間における事象の記録は、視界画像の解析によって行われ、各アバターの3次元データを取得する必要はないため、アバターの動作を反映させる膨大なデータの取得を必要としない。 As described above, according to the embodiment of the present invention, the action of the avatar can be analyzed from the image and described as text information. At this time, since text information is generated only for avatars that satisfy a predetermined condition, it is possible to make uniform the determination of fraudulent behavior that may differ for each user of the virtual space service, and also to burden the user. There is no. Furthermore, since all the events that occur in the virtual space are not recorded, it is possible to reduce the amount of recorded data. Further, since the application provided by the virtual space service can be used to implement the embodiment of the present invention, the administrator of the virtual space service is not burdened. Moreover, since the recording of the event in the virtual space is performed by analyzing the visual field image and it is not necessary to acquire the three-dimensional data of each avatar, it is not necessary to acquire a huge amount of data that reflects the motion of the avatar.

なお、所定の条件の判定には、アバターの音声情報がさらに用いられてもよい。視界画像取得部171は、仮想空間アプリケーション110から、仮想空間の画像情報とともに音声情報を取得することができる。解析部172は、画像情報から、アバターと、当該アバターの音声情報を抽出し、抽出した音声情報が所定の条件を満たすか否かを判定する。音声情報に関する所定の条件は、例えば、「暴言」、「口論」、「合言葉の使用」、等とすることができる。なお、音声情報に関する所定の条件と、動作に関する所定の条件とを組み合わせて判定されてもよい。 Note that the voice information of the avatar may be further used to determine the predetermined condition. The visual field image acquisition unit 171 can acquire the audio information from the virtual space application 110 together with the image information of the virtual space. The analysis unit 172 extracts the avatar and the voice information of the avatar from the image information, and determines whether the extracted voice information satisfies a predetermined condition. The predetermined condition relating to the voice information can be, for example, “busy word”, “argument”, “use of secret word”, or the like. Note that the determination may be made by combining a predetermined condition regarding voice information and a predetermined condition regarding operation.

本発明の一実施形態によれば、音声情報を用いて、仮想空間における事象の記録の有無が判定されるため、トラブルとなり得る事象を適切に記録することができる。 According to the embodiment of the present invention, it is possible to appropriately record an event that may cause a trouble because it is determined whether or not the event is recorded in the virtual space using the audio information.

ここで、本発明の一実施形態による記録システムについて、図6を用いて説明する。図6は、記録処理における、記録サーバ100、HMDシステム500A、仮想空間提供サーバ200間のシーケンス図である。なお、HMDシステム500としてユーザAのHMDシステム500Aを示してあるが、他のHMDシステム500B,500Cも同様にネットワーク600と接続され、ユーザB、ユーザCの動作も、仮想空間における各アバターに反映されることに留意されたい。 Here, a recording system according to an embodiment of the present invention will be described with reference to FIG. FIG. 6 is a sequence diagram between the recording server 100, the HMD system 500A, and the virtual space providing server 200 in the recording process. Although the HMD system 500A of the user A is shown as the HMD system 500, the other HMD systems 500B and 500C are similarly connected to the network 600, and the actions of the user B and the user C are reflected in each avatar in the virtual space. Note that this is done.

まず、HMDシステム500Aにおいて、HMD400AはユーザAの動作情報及び音声情報を取得し、コンピュータ300Aへ送信する(ステップS21)。コンピュータ300Aは、ユーザAの動作情報及び音声情報をアバターAに反映させる表示情報及び音声情報を、HMD400Aに送信する(ステップS22)。記録サーバ100において、位置入力情報生成部161が生成した入力情報に応じて、仮想空間における位置が指定され、視点入力情報生成部162が生成した入力情報に応じて、視点(視野領域)が指定される(ステップS26)。記録サーバ100の視界画像取得部171は、仮想空間アプリケーション110によって生成された視界画像を取得し、解析部172は、視界画像に含まれる1以上のアバターを抽出する(ステップS27)。HMD400Aでは、アバターAの動作が表示され、音声が再生される(ステップS25)。 First, in the HMD system 500A, the HMD 400A acquires the operation information and the voice information of the user A and transmits them to the computer 300A (step S21). The computer 300A transmits the display information and the voice information for reflecting the operation information and the voice information of the user A on the avatar A to the HMD 400A (step S22). In the recording server 100, the position in the virtual space is specified according to the input information generated by the position input information generation unit 161, and the viewpoint (visual field area) is specified according to the input information generated by the viewpoint input information generation unit 162. (Step S26). The visual field image acquisition unit 171 of the recording server 100 acquires the visual field image generated by the virtual space application 110, and the analysis unit 172 extracts one or more avatars included in the visual field image (step S27). On the HMD 400A, the action of the avatar A is displayed and the voice is reproduced (step S25).

仮想空間提供サーバ200は、アバターAの動作情報及び音声情報を、記録サーバ100へ送信する(ステップS23)。記録サーバ100の視界画像生成部は、アバターAの動作を反映させる視界画像を生成する。視界画像取得部171は、当該視界画像に関する情報、すなわち、アバターAの動作を表示、音声(あれば)を再生させる視界画像に関する画像情報を取得し、解析部172は、画像情報に含まれるアバターAを抽出する(ステップS27)。そして、解析部172は、アバターAが所定の条件を満たすか否か判定する(ステップS28)。所定の条件を満たさない場合(ステップS28でNO)、ステップS26へ戻り仮想空間における位置を変更するか、処理を終了する。所定の条件を満たす場合(ステップS28でYES)、解析部172は、アバターAの一連の動作を解析し、テキスト生成部181は、アバターAの動作に関する情報を記述するテキスト情報を生成する(ステップS29)。 The virtual space providing server 200 transmits the motion information and the voice information of the avatar A to the recording server 100 (step S23). The visual field image generation unit of the recording server 100 generates a visual field image that reflects the motion of the avatar A. The field-of-view image acquisition unit 171 acquires information about the field-of-view image, that is, image information about the field-of-view image that displays the action of the avatar A and reproduces sound (if any), and the analysis unit 172 causes the avatar included in the image information. A is extracted (step S27). Then, the analysis unit 172 determines whether the avatar A satisfies a predetermined condition (step S28). When the predetermined condition is not satisfied (NO in step S28), the process returns to step S26 and the position in the virtual space is changed or the process ends. If the predetermined condition is satisfied (YES in step S28), the analysis unit 172 analyzes a series of motions of the avatar A, and the text generation unit 181 generates text information that describes information related to the motion of the avatar A (step). S29).

なお、図6のシーケンスにおいて、ステップの順番は厳密なものではなく、各HMDシステム500から送信されたユーザの動作情報が、仮想空間のアバターに反映され、当該仮想空間のアバターについて、記録サーバ100がリアルタイムで解析を実行することができる。 Note that in the sequence of FIG. 6, the order of steps is not strict, and the user's motion information transmitted from each HMD system 500 is reflected on the avatar in the virtual space, and the avatar in the virtual space is recorded by the recording server 100. Can perform the analysis in real time.

また、記録サーバ100は、さらに、仮想空間におけるアバターの動作を特定する情報であるアノテーション情報を関連付ける関連付け部182を備えてもよい。アノテーション情報とは、動作や状態を記述する情報を指す。本発明の一実施形態によれば、仮想空間の画像情報に基づいて、各アバターの行動を学習し、アバターの行動の規則性等に基づいて、アバターの行動を予測する。例えば、アバターの表情と、それに伴う行動(口角を上げる表情で喜ぶ、口角を下げる表情で怒る、目を細める表情で喜ぶ、目を見開く表情で驚く、両手を上げる動作で喜ぶ、肩をすくめる動作で呆れる、叫んだ後に怒る等)とを学習し、表情毎、行動毎、音声毎にアノテーション情報を関連付けて、記憶部150のユーザ情報152に記憶する。 In addition, the recording server 100 may further include an associating unit 182 that associates annotation information that is information that identifies the action of the avatar in the virtual space. Annotation information refers to information that describes an operation or state. According to one embodiment of the present invention, the action of each avatar is learned based on the image information of the virtual space, and the action of the avatar is predicted based on the regularity of the action of the avatar. For example, the avatar's facial expression and the accompanying actions (please enjoy with the expression that raises the corner of the mouth, get angry with the expression that lowers the corner of the mouth, be happy with the expression that narrows your eyes, be surprised with the expression that opens your eyes, be pleased with the movement of raising your hands, and shrug your shoulders And get angry after screaming, etc.) and associate the annotation information for each facial expression, each action, and each voice, and store them in the user information 152 of the storage unit 150.

図7に、アノテーション情報の関連付けに関するアバター情報の一例を示す。テーブルTB1は、睨む表情に対して、「睨む」、「怒り」というアノテーション情報が関連付けられている。テーブルTB2は、音声情報に対し、その音声を発声した際のユーザの動作が、アノテーション情報として関連付けられている。これらのテーブルは、ユーザ毎、すなわち、アバター毎に生成されることが好ましい。 FIG. 7 shows an example of avatar information relating to the association of annotation information. In the table TB1, annotation information of “glazing” and “anger” is associated with a staring facial expression. In the table TB2, the action of the user when the voice is uttered is associated with the voice information as annotation information. These tables are preferably generated for each user, that is, for each avatar.

テキスト生成部181は、所定の条件として、抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、テキスト情報を生成してもよい。所定のキーワードとは、トラブルの発生又は発生に繋がり得る状態を表すキーワードであって、例えば、「喧嘩」、「怒り」、「泣く」等の、一般的にネガティブな意味を有するキーワードである。例えば、画像解析により、ある表情に関連付けられたアノテーション情報に「怒り」というキーワードが含まれる場合、解析部172は、アバターが所定の条件を満たすと判定することができる。 The text generation unit 181 may generate text information when the annotation information associated with the extracted avatar includes a prescribed keyword as the prescribed condition. The predetermined keyword is a keyword that represents the occurrence of a trouble or a state that may lead to the occurrence of the trouble, and is a keyword having a generally negative meaning such as "quarrel", "anger", "crying", and the like. For example, when the annotation information associated with a certain facial expression includes the keyword “anger” by image analysis, the analysis unit 172 can determine that the avatar satisfies a predetermined condition.

ユーザによって、すなわち、アバターによって、ある動作に付随する表情や音声等は異なってくる。しかしながら上述のように、本発明の一実施形態によれば、各アバターに対し、アバターの動作を特定するアノテーション情報が関連付けられるため、各ユーザの動作がトラブルに繋がり得るか否かを、適切に判定することが可能となる。 The facial expression, voice, etc. associated with a certain action vary depending on the user, that is, the avatar. However, as described above, according to one embodiment of the present invention, since annotation information that identifies the action of the avatar is associated with each avatar, it is possible to appropriately determine whether the action of each user may lead to a trouble. It becomes possible to judge.

なお、関連付け部182は、アバターの一連の動作を学習した結果に基づいて、アバターに関連付けるアノテーション情報を更新してもよい。これにより、より精度の高い判定が可能となる。 The associating unit 182 may update the annotation information associated with the avatar, based on the result of learning the series of actions of the avatar. This enables more accurate determination.

次に、図8を用いて、本発明の他の実施形態について説明する。図8は、仮想空間10の概略図である。位置入力情報生成部161は、解析部172によって抽出されたアバターが所定の条件を満たす場合に、当該アバターから所定距離内の複数の位置を指定してもよい。例えば、図8に示すように、仮想空間10において、アバター500Cが倒れており、解析部172によって、アバター500Cが所定の条件を満たすと判定されたとする。この場合、位置入力情報生成部161は、アバター500Cから所定距離内の複数の位置を指定する入力情報を生成する。これは、例えば、アバター30Uの他に、アバター30X,30Yを、アバター500Cの周囲に配置させる入力情報に相当する。これは、アバター30X,30Yについて、仮想空間サービスに予めアカウントを登録しておき、位置入力情報生成部161が、それら複数アカウントについての入力情報を生成することで実現できる。そして、視点入力情報生成部162は、アバター500Cが視界領域に入るように視点を設定する入力情報を生成し、視界画像取得部171が、アバター30U,30X,30Yに対応する画像情報を取得してもよい。 Next, another embodiment of the present invention will be described with reference to FIG. FIG. 8 is a schematic diagram of the virtual space 10. The position input information generation unit 161 may specify a plurality of positions within a predetermined distance from the avatar when the avatar extracted by the analysis unit 172 satisfies a predetermined condition. For example, as shown in FIG. 8, it is assumed that the avatar 500C is tilted in the virtual space 10 and the analysis unit 172 determines that the avatar 500C satisfies a predetermined condition. In this case, the position input information generation unit 161 generates input information designating a plurality of positions within a predetermined distance from the avatar 500C. This corresponds to input information for arranging the avatars 30X and 30Y in addition to the avatar 30U around the avatar 500C, for example. This can be realized by registering accounts for the avatars 30X and 30Y in the virtual space service in advance and causing the position input information generation unit 161 to generate input information for the plurality of accounts. Then, the viewpoint input information generation unit 162 generates input information for setting the viewpoint so that the avatar 500C enters the visual field, and the visual field image acquisition unit 171 acquires image information corresponding to the avatars 30U, 30X, 30Y. May be.

上述の構成によれば、所定の条件を満たすと判定されたアバターの動作について、より詳細に記述するテキスト情報を生成することができる。 According to the above configuration, it is possible to generate text information that describes the action of the avatar determined to satisfy the predetermined condition in more detail.

なお、記憶部150は、テキスト生成部181によって生成されたテキスト情報の記憶に、電子透かし又は分散型台帳技術を用いてもよい。これにより、解析結果としてのテキスト情報の安全性、秘匿性を担保することができ、仮想空間サービスの管理者側によるデータの改ざんの可能性を低くすることができる。 The storage unit 150 may use a digital watermark or a distributed ledger technology to store the text information generated by the text generation unit 181. As a result, the security and confidentiality of the text information as the analysis result can be ensured, and the possibility of data tampering by the administrator of the virtual space service can be reduced.

なお、テキスト生成部181によって生成されたテキスト情報は、必要に応じて、証拠として所定の機関に送信されてもよい。 The text information generated by the text generation unit 181 may be transmitted as evidence to a predetermined institution, if necessary.

なお、リアルタイムでの解析処理が好ましいが、画像の解析処理が並行して生じたり、記録期間が長い等、負荷が高くなる場合も考えられる。この場合、所定の時間(例えば、10分等)、動画像データを記憶しておき、別の解析処理がなく負荷が低い時間に、記憶しておいた動画像データを解析してもよい。この場合、一時的に記憶容量を圧迫することになるが、解析処理が終了次第、すぐに動画像データが削除されるようにすればよい。なお、アバターが所定の条件を満たす場合、証拠としての画像情報を、テキスト情報と合わせて記憶しておいてもよい。 Note that real-time analysis processing is preferable, but it is also conceivable that the load increases due to image analysis processing occurring in parallel or a long recording period. In this case, the moving image data may be stored for a predetermined time (for example, 10 minutes), and the stored moving image data may be analyzed when the load is low without another analysis process. In this case, although the storage capacity will be temporarily squeezed, the moving image data may be deleted as soon as the analysis process is completed. If the avatar satisfies a predetermined condition, the image information as evidence may be stored together with the text information.

本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各構成部、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。また、上記実施の形態に示す構成を適宜組み合わせることとしてもよい。例えば、記録サーバ100が備えるとして説明した各構成部は、複数のサーバによって分散されて実現されてもよい。 Although the present invention has been described based on the drawings and the embodiments, it should be noted that those skilled in the art can easily make various variations and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, the functions and the like included in each constituent unit and each step can be rearranged so as not to logically contradict, and a plurality of constituent units and steps can be combined or divided into one. Is. In addition, the configurations described in the above embodiments may be combined as appropriate. For example, each component described as being included in the recording server 100 may be distributed and realized by a plurality of servers.

本開示の各実施形態のプログラムは、情報処理装置に読み取り可能な記憶媒体に記憶された状態で提供されてもよい。記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。プログラムは、例えば、ソフトウェアプログラムや情報処理装置プログラムを含む。 The program of each embodiment of the present disclosure may be provided in a state of being stored in a storage medium readable by the information processing device. The storage medium can store the program in a “non-transitory tangible medium”. The programs include, for example, software programs and information processing device programs.

記憶媒体は適切な場合、1つ又は複数の半導体ベースの、又は他の集積回路(IC)(例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向けIC(ASIC)等)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カードもしくはドライブ、任意の他の適切な記憶媒体、又はこれらの2つ以上の適切な組合せを含むことができる。記憶媒体は、適切な場合、揮発性、不揮発性、又は揮発性と不揮発性の組合せでよい。 The storage medium is, where appropriate, one or more semiconductor-based or other integrated circuits (ICs) (eg, field programmable gate array (FPGA), application specific IC (ASIC), etc.), hard Disk drive (HDD), hybrid hard drive (HHD), optical disk, optical disk drive (ODD), magneto-optical disk, magneto-optical drive, floppy diskette, floppy disk drive (FDD), magnetic tape, solid-state drive (SSD), RAM drive, secure digital card or drive, any other suitable storage medium, or any suitable combination of two or more thereof. Storage media may be volatile, non-volatile, or a combination of volatile and non-volatile, where appropriate.

また、本開示のプログラムは、当該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して、記録サーバ100に提供されてもよい。 Further, the program of the present disclosure may be provided to the recording server 100 via any transmission medium (communication network, broadcast wave, or the like) capable of transmitting the program.

また、本開示の各実施形態は、プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 Each embodiment of the present disclosure can also be realized in the form of a data signal embedded in a carrier wave in which a program is embodied by electronic transmission.

なお、本開示のプログラムは、例えば、JavaScript(登録商標)、Python等のスクリプト言語、C言語、Go言語、Swift,Koltin、Java(登録商標)等を用いて実装される。 The program of the present disclosure is implemented using, for example, a script language such as Java Script (registered trademark), Python, C language, Go language, Swift, Koltin, Java (registered trademark), or the like.

100 記録サーバ(情報処理装置)
200 仮想空間提供サーバ
300(300A〜300C) コンピュータ
400 ネットワーク
500(500A〜500C) HMDシステム
600 ネットワーク
700 仮想空間記録システム
301 プロセッサ
302 ストレージ
304 メモリ
410 ジャイロセンサ
420 視線センサ
430 カメラ
440 マイク
450 モニタ
460 スピーカ
101 プロセッサ
102 ストレージ
104 メモリ
310 仮想空間アプリケーション
320 表示制御部
321 位置入力部
322 視点入力部
323 視界画像生成部
324 検出部
325 角速度検出部
326 視線検出部
330 仮想空間制御部
331 仮想空間生成部
332 仮想オブジェクト生成部
333 アバター生成部
340 通信制御部
350 記憶部
351 仮想空間情報
352 ユーザ情報
360 入出力制御部
110 仮想空間アプリケーション
120 表示制御部
123 視界画像生成部
130 仮想空間制御部
140 通信制御部
150 記憶部
160 操作入力情報生成部
161 位置入力情報生成部
162 視点入力情報生成部
170 画像認識部
171 視界画像取得部
172 解析部
181 テキスト生成部
182 関連付け部
151 仮想空間情報
152 ユーザ情報
153 条件データベース
10 仮想空間
10A,10B,20A,20B,30U,30X,30Y アバター
100 recording server (information processing device)
200 virtual space providing server 300 (300A to 300C) computer 400 network 500 (500A to 500C) HMD system 600 network 700 virtual space recording system 301 processor 302 storage 304 memory 410 gyro sensor 420 line-of-sight sensor 430 camera 440 microphone 450 monitor 460 speaker 101 Processor 102 Storage 104 Memory 310 Virtual space application 320 Display control unit 321 Position input unit 322 Viewpoint input unit 323 Visual field image generation unit 324 Detection unit 325 Angular velocity detection unit 326 Line of sight detection unit 330 Virtual space control unit 331 Virtual space generation unit 332 Virtual object Generation unit 333 Avatar generation unit 340 Communication control unit 350 Storage unit 351 Virtual space information 352 User information 360 Input/output control unit 110 Virtual space application 120 Display control unit 123 View image generation unit 130 Virtual space control unit 140 Communication control unit 150 Storage unit 160 Operation Input Information Generation Unit 161 Position Input Information Generation Unit 162 Viewpoint Input Information Generation Unit 170 Image Recognition Unit 171 Visual Field Image Acquisition Unit 172 Analysis Unit 181 Text Generation Unit 182 Association Unit 151 Virtual Space Information 152 User Information 153 Condition Database 10 Virtual Space 10A, 10B, 20A, 20B, 30U, 30X, 30Y Avatar

Claims (9)

ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間における前記ユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御プログラムであって、
当該情報処理装置に、
前記仮想空間における位置を指定する入力情報を生成する位置入力機能と、
前記位置入力機能によって指定された位置における前記仮想空間の画像情報を取得する取得機能と、
前記画像情報に含まれる1以上のアバターを抽出し、抽出された前記アバターが所定の条件を満たす場合に、前記アバターの動作を解析する解析機能と、
前記解析機能による解析の結果に基づき、前記アバターの動作に関する情報を記述するテキスト情報を生成する生成機能と、
前記生成機能によって生成された前記テキスト情報を、所定の記憶部に記憶させる記憶機能と、
前記仮想空間におけるアバターの動作、表情、及び音声の少なくともいずれか1つを特定する情報であるアノテーション情報を関連付ける関連付け機能と、
を実現させ
前記生成機能は、前記所定の条件として、前記抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、前記テキスト情報を生成する、制御プログラム。
A control program of an information processing device connected to a virtual space system, in which a user's action and voice input via a user terminal are reflected in the action and voice of the user's avatar in the virtual space,
In the information processing device,
A position input function for generating input information designating a position in the virtual space,
An acquisition function for acquiring image information of the virtual space at the position designated by the position input function,
An analysis function of extracting one or more avatars included in the image information, and analyzing the action of the avatar when the extracted avatar satisfies a predetermined condition,
A generation function for generating text information describing information regarding the movement of the avatar, based on the result of analysis by the analysis function;
A storage function of storing the text information generated by the generation function in a predetermined storage unit,
An associating function for associating annotation information, which is information specifying at least one of the action, facial expression, and voice of the avatar in the virtual space,
Is realized ,
The control program , wherein the generation function generates the text information when the annotation information associated with the extracted avatar includes a predetermined keyword as the predetermined condition .
前記取得機能は、前記仮想空間の画像情報とともに音声情報を取得し、
前記解析機能は、前記アバターとともに当該アバターの音声情報を抽出し、
前記生成機能は、前記所定の条件の判定に、前記音声情報をさらに用いる、
ことを特徴とする請求項1に記載の制御プログラム。
The acquisition function acquires audio information together with image information of the virtual space,
The analysis function extracts voice information of the avatar together with the avatar,
The generation function further uses the voice information to determine the predetermined condition,
The control program according to claim 1, wherein:
前記位置入力機能は、前記解析機能によって抽出された前記アバターが前記所定の条件を満たす場合に、当該アバターから所定距離内の複数の位置を指定する入力情報を生成し、
前記取得機能は、前記複数の位置における、前記アバターに関する動画像情報を取得する、
ことを特徴とする請求項1又は2に記載の制御プログラム。
The position input function generates input information designating a plurality of positions within a predetermined distance from the avatar when the avatar extracted by the analysis function satisfies the predetermined condition,
The acquisition function acquires moving image information regarding the avatar at the plurality of positions,
The control program according to claim 1 or 2 , characterized in that.
前記関連付け機能は、前記アバターの一連の動作を学習した結果に基づいて、前記アバターに関連付けるアノテーション情報を更新する、
ことを特徴とする請求項1〜3のいずれか一項に記載の制御プログラム。
The associating function updates annotation information associated with the avatar based on a result of learning a series of actions of the avatar.
The control program according to any one of claims 1 to 3 , characterized in that:
前記記憶機能は、前記生成機能によって生成されたテキスト情報の記憶に、電子透かし又は分散型台帳技術を用いる、
ことを特徴とする請求項1〜のいずれか一項に記載の制御プログラム。
The storage function uses a digital watermark or a distributed ledger technology to store the text information generated by the generation function,
Control program according to any one of claims 1 to 4, characterized in that.
前記記憶機能は、1のアバターとして前記仮想空間システムに登録された登録情報をさらに記憶し、
前記位置入力機能は、前記仮想空間システムにおける前記1のアバターの位置を指定する入力情報を生成し、
前記取得機能は、前記1のアバターの視界として、前記仮想空間の画像情報を取得する、
ことを特徴とする請求項1〜のいずれか一項に記載の制御プログラム。
The storage function further stores registration information registered in the virtual space system as one avatar,
The position input function generates input information designating a position of the one avatar in the virtual space system,
The acquisition function acquires image information of the virtual space as a field of view of the avatar of 1,
Control program according to any one of claims 1 to 5, characterized in that.
前記1のアバターは、前記仮想空間において背景を透過させる透明なオブジェクトとして実現される、
ことを特徴とする請求項に記載の制御プログラム。
The first avatar is realized as a transparent object that allows a background to be transparent in the virtual space.
The control program according to claim 6 , wherein
ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間における前記ユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御方法であって、
当該情報処理装置が、
前記仮想空間における位置を指定する入力情報を生成するステップと、
前記指定された位置における前記仮想空間の画像情報を取得するステップと、
前記画像情報に含まれる1以上のアバターを抽出し、抽出された前記アバターが所定の条件を満たす場合に、前記アバターの動作を解析するステップと、
前記解析するステップによる解析の結果に基づき、前記アバターの動作に関する情報を記述するテキスト情報を生成するステップと、
前記生成するステップにて生成された前記テキスト情報を、所定の記憶部に記憶させるステップと、
前記仮想空間におけるアバターの動作、表情、及び音声の少なくともいずれか1つを特定する情報であるアノテーション情報を関連付けるステップと、
を実行し、
前記生成するステップにおいて、前記所定の条件として、前記抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、前記テキスト情報を生成する、情報処理装置の制御方法。
A control method of an information processing device connected to a virtual space system, wherein a user's action and voice input via a user terminal are reflected in the action and voice of said user's avatar in a virtual space,
The information processing device is
Generating input information designating a position in the virtual space;
Acquiring image information of the virtual space at the designated position,
Extracting one or more avatars included in the image information, and analyzing the action of the avatar when the extracted avatar satisfies a predetermined condition,
Generating text information describing information about the movement of the avatar based on the result of the analysis by the analyzing step,
Storing the text information generated in the generating step in a predetermined storage unit,
Associating annotation information, which is information specifying at least one of the action, facial expression, and voice of the avatar in the virtual space,
The execution,
The control method of the information processing device , wherein, in the step of generating, when the predetermined keyword is included in the annotation information associated with the extracted avatar as the predetermined condition, the text information is generated .
ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間における前記ユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置であって、
前記仮想空間における位置を指定する入力情報を生成する位置入力部と、
前記位置入力部によって指定された位置における前記仮想空間の画像情報を取得する取得部と、
前記画像情報に含まれる1以上のアバターを出し、抽出された前記アバターが所定の条件を満たす場合に、前記アバターの動作を解析する解析部と、
前記解析部による解析の結果に基づき、前記アバターの動作に関する情報を記述するテキスト情報を生成する生成部と、
前記生成部によって生成された前記テキスト情報を、所定の記憶部に記憶させる記憶制御部と、
前記仮想空間におけるアバターの動作、表情、及び音声の少なくともいずれか1つを特定する情報であるアノテーション情報を関連付ける関連付け部と、
を備え
前記生成部は、前記所定の条件として、前記抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、前記テキスト情報を生成する、情報処理装置。
An information processing device connected to a virtual space system in which a user's motion and voice input via a user terminal are reflected in the motion and voice of the user's avatar in the virtual space,
A position input unit that generates input information that specifies a position in the virtual space,
An acquisition unit that acquires image information of the virtual space at the position specified by the position input unit;
Out extraction of one or more avatar included in the image information, when extracted the avatar satisfies a predetermined condition, an analysis unit for analyzing the behavior of the avatar,
A generation unit that generates text information that describes information about the action of the avatar, based on the result of analysis by the analysis unit;
A storage control unit that stores the text information generated by the generation unit in a predetermined storage unit;
An associating unit for associating annotation information, which is information specifying at least one of the action, facial expression, and voice of the avatar in the virtual space,
Equipped with
The information processing apparatus , wherein the generation unit generates the text information when the annotation information associated with the extracted avatar includes a predetermined keyword as the predetermined condition .
JP2019001492A 2019-01-08 2019-01-08 Information processing apparatus control program, information processing apparatus control method, and information processing apparatus Active JP6721727B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019001492A JP6721727B1 (en) 2019-01-08 2019-01-08 Information processing apparatus control program, information processing apparatus control method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019001492A JP6721727B1 (en) 2019-01-08 2019-01-08 Information processing apparatus control program, information processing apparatus control method, and information processing apparatus

Publications (2)

Publication Number Publication Date
JP6721727B1 true JP6721727B1 (en) 2020-07-15
JP2020112895A JP2020112895A (en) 2020-07-27

Family

ID=71523882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019001492A Active JP6721727B1 (en) 2019-01-08 2019-01-08 Information processing apparatus control program, information processing apparatus control method, and information processing apparatus

Country Status (1)

Country Link
JP (1) JP6721727B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114185428A (en) * 2021-11-09 2022-03-15 北京百度网讯科技有限公司 Method and device for switching virtual image style, electronic equipment and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023167212A1 (en) * 2022-03-01 2023-09-07 株式会社KPMG Ignition Tokyo Computer program, information processing method, and information processing device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4625058B2 (en) * 2007-08-15 2011-02-02 ヤフー株式会社 Virtual space broadcasting device
JP4625057B2 (en) * 2007-08-15 2011-02-02 ヤフー株式会社 Virtual space information summary creation device
EP2227301A4 (en) * 2007-10-26 2012-02-29 Sony Comp Entertainment Us On-line monitoring of resources
JP6702322B2 (en) * 2015-06-30 2020-06-03 ソニー株式会社 Information processing apparatus, information processing method, and program
JP6836379B2 (en) * 2016-12-05 2021-03-03 株式会社コロプラ An information processing method, a device, and a program that causes a computer to execute the information processing method.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114185428A (en) * 2021-11-09 2022-03-15 北京百度网讯科技有限公司 Method and device for switching virtual image style, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP2020112895A (en) 2020-07-27

Similar Documents

Publication Publication Date Title
US11782272B2 (en) Virtual reality interaction method, device and system
US20160110922A1 (en) Method and system for enhancing communication by using augmented reality
WO2014094199A1 (en) Facial movement based avatar animation
KR20230107655A (en) Body animation sharing and remixing
JP6861287B2 (en) Effect sharing methods and systems for video
US20220197027A1 (en) Conversation interface on an eyewear device
US11553009B2 (en) Information processing device, information processing method, and computer program for switching between communications performed in real space and virtual space
JPWO2018139203A1 (en) Information processing apparatus, information processing method, and program
JP6721727B1 (en) Information processing apparatus control program, information processing apparatus control method, and information processing apparatus
EP4268056A1 (en) Conversation interface on an eyewear device
US11756251B2 (en) Facial animation control by automatic generation of facial action units using text and speech
WO2024027819A1 (en) Image processing method and apparatus, device, and storage medium
JP2020136921A (en) Video call system and computer program
US11967343B2 (en) Automated video editing
WO2017193343A1 (en) Media file sharing method, media file sharing device and terminal
KR20160039776A (en) Method, system and computer-readable recording medium for creating message containing virtual space and virtual object
US20220254082A1 (en) Method of character animation based on extraction of triggers from an av stream
US20220101000A1 (en) Qr generation system for augmented reality continuity
WO2022192883A1 (en) Automated video editing to add visual or audio effect corresponding to a detected motion of an object in the video
US20150172376A1 (en) Method for providing social network service and electronic device implementing the same
US20230342898A1 (en) Image visual quality assessment
US20230342877A1 (en) Cached cloud rendering
JP6967041B2 (en) Electronic devices, methods, programs and systems for identifier information inference using image recognition models
JP7335221B2 (en) Electronic device, method, program and system for identifier information inference using image recognition model
US20240135650A1 (en) Electronic device and method for displaying modification of virtual object and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200618

R150 Certificate of patent or registration of utility model

Ref document number: 6721727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250