JP6721727B1 - Information processing apparatus control program, information processing apparatus control method, and information processing apparatus - Google Patents
Information processing apparatus control program, information processing apparatus control method, and information processing apparatus Download PDFInfo
- Publication number
- JP6721727B1 JP6721727B1 JP2019001492A JP2019001492A JP6721727B1 JP 6721727 B1 JP6721727 B1 JP 6721727B1 JP 2019001492 A JP2019001492 A JP 2019001492A JP 2019001492 A JP2019001492 A JP 2019001492A JP 6721727 B1 JP6721727 B1 JP 6721727B1
- Authority
- JP
- Japan
- Prior art keywords
- information
- avatar
- virtual space
- function
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
【課題】仮想空間内におけるトラブル等の事象を記録可能な、情報処理装置の制御プログラム等を提供すること。【解決手段】ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間におけるユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御プログラムは、情報処理装置に、仮想空間における位置を指定する入力情報を生成する位置指定機能と、位置指定機能によって指定された位置における仮想空間の画像情報を取得する取得機能と、画像情報に含まれる1以上のアバターを抽出し、抽出されたアバターが所定の条件を満たす場合に、アバターの動作を解析する解析機能と、解析機能による解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成する生成機能と、生成機能によって生成されたテキスト情報を、所定の記憶部に記憶させる記憶機能とを実現させる。【選択図】 図1PROBLEM TO BE SOLVED: To provide a control program of an information processing device capable of recording an event such as a trouble in a virtual space. A control program of an information processing device connected to a virtual space system in which a user's motion and voice input via a user terminal are reflected in the motion and voice of a user's avatar in a virtual space The apparatus has a position specifying function for generating input information specifying a position in the virtual space, an acquisition function for acquiring image information of the virtual space at the position specified by the position specifying function, and one or more avatars included in the image information. Generates text information that describes information about the avatar's movement based on the analysis function that analyzes the movement of the avatar and the analysis result by the analysis function when the extracted avatar satisfies a predetermined condition. The function and the storage function of storing the text information generated by the generation function in a predetermined storage unit are realized. [Selection diagram]
Description
本発明は、情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置に関し、特に、仮想空間を提供するシステムで用いられる情報処理装置の制御プログラム等に関する。 The present invention relates to a control program for an information processing device, a method for controlling the information processing device, and an information processing device, and more particularly to a control program for the information processing device used in a system that provides a virtual space.
近年、ヘッドマウントディスプレイ(HMD:Head-Mounted Display)の普及と共に、HMDを用いた仮想空間を提供する様々なサービスが広がりを見せている。特に、ネットワークを介して、仮想空間上の複数のユーザがそれぞれのアバターを通じてコミュニケーションを図るサービスが人気を博している(例えば、非特許文献1)。このような仮想空間の実現において、現実世界のユーザの動きや表情をアバターに反映する技術が提案されている。(例えば、特許文献1)。 2. Description of the Related Art In recent years, with the spread of head-mounted displays (HMDs), various services for providing virtual spaces using HMDs are expanding. In particular, a service in which a plurality of users in a virtual space communicate with each other via their avatars via a network has become popular (for example, Non-Patent Document 1). In order to realize such a virtual space, a technique has been proposed in which the movement and facial expression of the user in the real world are reflected in the avatar. (For example, patent document 1).
なお、仮想空間においても、現実世界と同様に、アバター間(ユーザ間)において様々なトラブルが発生することが考えられる。このような問題に対し、例えば特許文献2では、仮想空間内での会話やチャットを健全に運営すべく、不正ユーザ、迷惑行為ユーザを早期に発見する技術が提案されている。 In the virtual space, various troubles may occur between avatars (users) as in the real world. For such a problem, for example, Patent Document 2 proposes a technique for early detection of an unauthorized user or an annoying user in order to manage conversations and chats in a virtual space soundly.
特許文献2では、通報者としてのユーザが、迷惑行為を行うアバターを撮影し、撮影画像に関する情報が通報データとしてサーバへ送信される。しかしながら、特許文献2に記載の技術では、以下のような問題がある。 In Patent Document 2, a user as a whistleblower shoots an avatar that performs a nuisance, and information about the shot image is transmitted to the server as notification data. However, the technique described in Patent Document 2 has the following problems.
まず、通報者としてのユーザ毎に、迷惑行為か否かの判断基準が異なる。従って、不要な通報が送信されたり、逆に、真の迷惑行為が通報されないことも起こり得る。また、仮想空間の管理者側が、犯罪となり得る行為に関する情報のやり取り等、不正行為を実行可能な場所として仮想空間を提供することも起こり得る。この場合、ユーザが通報したとしても、管理者側で適切な対応が取られるとは考え難い。 First, each user as a whistleblower has different criteria for determining whether or not the act is a nuisance. Therefore, unnecessary notifications may be transmitted, or conversely, true nuisance may not be reported. It is also possible for the administrator of the virtual space to provide the virtual space as a place where fraudulent acts such as exchanging information relating to criminal acts can be performed. In this case, even if the user reports, it is unlikely that the administrator will take appropriate measures.
なお、仮想空間内で生じたトラブルを後から確認できるように、各ユーザの操作履歴を記録しておくことも考えられる。しかしながら、各アバターに対する各ユーザの操作情報には、アバターを動かすための操作情報、音声、そして、将来的には触覚などの情報も含まれてくると考えられる。それらの情報は、ユーザ数も相まって膨大なものになると考えられるため、これらの情報を記憶することは現実的ではない。 It is also possible to record the operation history of each user so that the trouble that occurred in the virtual space can be confirmed later. However, it is considered that the operation information of each user for each avatar includes operation information for moving the avatar, voice, and, in the future, information such as tactile sense. It is considered that such information will be enormous due to the number of users, and it is not realistic to store such information.
そこで、本発明は、上述のような問題を解消し、仮想空間内におけるトラブル等の事象を記録可能な、情報処理装置の制御プログラム等を提供する。 Therefore, the present invention provides a control program for an information processing apparatus, which can solve the above problems and record an event such as a trouble in a virtual space.
本発明の一実施形態に係る、ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間におけるユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御プログラムであって、当該情報処理装置に、仮想空間における位置を指定する入力情報を生成する位置入力機能と、位置入力機能によって指定された位置における仮想空間の画像情報を取得する取得機能と、画像情報に含まれる1以上のアバターを抽出し、抽出されたアバターが所定の条件を満たす場合に、アバターの動作を解析する解析機能と、解析機能による解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成する生成機能と、生成機能によって生成されたテキスト情報を、所定の記憶部に記憶させる記憶機能と、を実現させる。 Control of an information processing apparatus connected to a virtual space system in which a user's action and voice input via a user terminal are reflected in the action and voice of a user's avatar in a virtual space according to an embodiment of the present invention. A program, in the information processing device, a position input function that generates input information that specifies a position in the virtual space, an acquisition function that acquires image information of the virtual space at the position specified by the position input function, and an image. Extracts one or more avatars included in the information, and if the extracted avatars meet a predetermined condition, an analysis function that analyzes the avatar's movements and information about the avatar's movements based on the results of the analysis by the analysis function. A generation function of generating text information to be described and a storage function of storing the text information generated by the generation function in a predetermined storage unit are realized.
本発明の一実施形態に係る制御プログラムにおいて、取得機能は、仮想空間の画像情報とともに音声情報を取得し、解析機能は、アバターとともに当該アバターの音声情報を抽出し、生成機能は、所定の条件の判定に、音声情報をさらに用いてもよい。 In the control program according to the embodiment of the present invention, the acquisition function acquires the voice information together with the image information of the virtual space, the analysis function extracts the voice information of the avatar together with the avatar, and the generation function performs the predetermined condition. The voice information may be further used for the determination.
本発明の一実施形態に係る制御プログラムは、情報処理装置に、仮想空間におけるアバターの動作を特定する情報であるアノテーション情報を関連付ける関連付け機能をさらに実現させ、生成機能は、所定の条件として、抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、テキスト情報を生成してもよい。 A control program according to an embodiment of the present invention further causes an information processing apparatus to realize an association function of associating annotation information, which is information specifying an avatar's action in a virtual space, and the generation function extracts as a predetermined condition. When the annotation information associated with the created avatar includes a predetermined keyword, text information may be generated.
本発明の一実施形態に係る制御プログラムにおいて、位置入力機能は、解析機能によって抽出されたアバターが所定の条件を満たす場合に、当該アバターから所定距離内の複数の位置を指定する入力情報を生成し、取得機能は、複数の位置における、アバターに関する画像情報を取得してもよい。 In the control program according to the embodiment of the present invention, the position input function generates input information designating a plurality of positions within a predetermined distance from the avatar when the avatar extracted by the analysis function satisfies a predetermined condition. However, the acquisition function may acquire image information about the avatar at a plurality of positions.
本発明の一実施形態に係る制御プログラムにおいて、関連付け機能は、アバターの一連の動作を学習した結果に基づいて、アバターに関連付けるアノテーション情報を更新してもよい。 In the control program according to the embodiment of the present invention, the associating function may update the annotation information to be associated with the avatar based on the result of learning the series of actions of the avatar.
本発明の一実施形態に係る制御プログラムにおいて、記憶機能は、生成機能によって生成されたテキスト情報の記憶に、電子透かし又は分散型台帳技術を用いてもよい。 In the control program according to the embodiment of the present invention, the storage function may use a digital watermark or a distributed ledger technology to store the text information generated by the generation function.
本発明の一実施形態に係る制御プログラムにおいて、記憶機能は、1のアバターとして仮想空間システムに登録された登録情報をさらに記憶し、位置入力機能は、仮想空間システムにおける1のアバターの位置を入力し、取得機能は、1のアバターの視界として、仮想空間の画像情報を取得してもよい。 In the control program according to the embodiment of the present invention, the storage function further stores registration information registered in the virtual space system as one avatar, and the position input function inputs the position of one avatar in the virtual space system. However, the acquisition function may acquire the image information of the virtual space as the field of view of one avatar.
本発明の一実施形態に係る制御プログラムにおいて、1のアバターは、仮想空間において背景を透過させる透明なオブジェクトとして実現されてもよい。 In the control program according to the embodiment of the present invention, one avatar may be realized as a transparent object that makes a background transparent in the virtual space.
本発明の一実施形態に係る、ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間におけるユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御方法は、当該情報処理装置が、仮想空間における位置を指定する入力情報を生成するステップと、指定された位置における仮想空間の画像情報を取得するステップと、画像情報に含まれる1以上のアバターを抽出し、抽出するステップによって抽出されたアバターが所定の条件を満たす場合に、アバターの動作を解析するステップと、解析するステップによる解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成するステップと、生成するステップにて生成されたテキスト情報を、所定の記憶部に記憶させるステップと、を実行する。 Control of an information processing apparatus connected to a virtual space system in which a user's action and voice input via a user terminal are reflected in the action and voice of a user's avatar in a virtual space according to an embodiment of the present invention. The method is such that the information processing apparatus generates input information designating a position in the virtual space, obtaining image information of the virtual space at the designated position, and one or more avatars included in the image information. If the avatar extracted in the extracting step satisfies a predetermined condition, text information describing information about the avatar's movement is analyzed based on the analysis step of analyzing the avatar's movement and the analysis step. The generating step and the step of storing the text information generated in the generating step in a predetermined storage unit are executed.
本発明の一実施形態に係る、ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間におけるユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置は、仮想空間における位置を指定する入力情報を生成する位置入力部と、位置入力部によって指定された位置における仮想空間の画像情報を取得する取得部と、画像情報に含まれる1以上のアバターを抽出し、抽出部によって抽出されたアバターが所定の条件を満たす場合に、アバターの動作を解析する解析部と、解析部による解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成する生成部と、生成部によって生成されたテキスト情報を、所定の記憶部に記憶させる記憶制御部と、を備える。 An information processing apparatus according to an embodiment of the present invention, which is connected to a virtual space system in which a user's action and voice input via a user terminal are reflected in the action and voice of a user's avatar in a virtual space, A position input unit that generates input information that specifies a position in the virtual space, an acquisition unit that acquires image information of the virtual space at the position specified by the position input unit, and one or more avatars included in the image information are extracted. If the avatar extracted by the extraction unit satisfies a predetermined condition, an analysis unit that analyzes the motion of the avatar, and generation of text information that describes information about the motion of the avatar based on the analysis result by the analysis unit And a storage control unit that stores the text information generated by the generation unit in a predetermined storage unit.
本発明によれば、仮想空間内におけるトラブル等の事象を記録する情報処理装置の制御プログラム等を提供することができる。 According to the present invention, it is possible to provide a control program of an information processing apparatus for recording an event such as a trouble in a virtual space.
以降、諸図面を参照しながら、本発明の一実施形態を詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
<システム構成>
図1は、本発明の一実施形態に係る仮想空間記録システムの構成例を示す図である。図1に示すように、仮想空間記録システム700は、ネットワーク600を介して互いに接続された、記録サーバ(情報処理装置)100と、仮想空間提供サーバ200と、各ユーザのHMDシステム500A〜500Cとを含む。記録サーバ100は、仮想空間提供サーバ200が提供する仮想空間において生じる事象を記録する(詳細は後述する)。
<System configuration>
FIG. 1 is a diagram showing a configuration example of a virtual space recording system according to an embodiment of the present invention. As shown in FIG. 1, a virtual
仮想空間提供サーバ200は、仮想空間提供サービス(以降、「仮想空間サービス」と称する)の管理者側のサーバであって、ユーザA〜ユーザCそれぞれのHMDシステム500A〜500Cに仮想空間サービスを提供する。HMDシステム500A〜500Cは、ユーザが仮想空間サービスを利用するためのシステムであって、それぞれ、ユーザ端末としてのHMD400A〜400C及びコンピュータ300A〜300Cを含む。なお、図1において、ユーザはユーザA、ユーザB、ユーザCの3人を示してあるが、これに限られるものではなく、これ以上でも、これ以下でもよい。また、HMD400A〜400Cは、同一の種類のものである必要はなく、仮想空間提供サーバ200が提供する仮想空間サービスを利用可能であればその種類は問わない。
The virtual
なお、上述のように、ユーザXに対応するHMDシステム500やコンピュータ300等を、HMDシステムXやコンピュータ300X等と表現し、また、仮想空間サービスにおけるユーザ情報を、ユーザ情報Xと表現する。ここで、ユーザ情報とは、仮想空間サービスにおいてユーザが利用するアカウントに対応付けられたユーザの情報である。ユーザ情報は、例えば、ユーザにより入力される、又は、仮想空間サービスにより付与される、ユーザの名前、ユーザのアバター情報、ユーザの年齢、ユーザの性別、ユーザの住所、ユーザの趣味趣向、電話番号やメールアドレスなどのユーザの連絡先、ユーザの識別子(ユーザID(IDentifier))などのユーザに対応づけられた情報であってよい。
Note that, as described above, the HMD system 500, the
なお、これ以降、特に区別する必要のない場合、HMDシステム500A〜500CをHMDシステム500、HMD400A〜400CをHMD400、コンピュータ300A〜300Cをコンピュータ300と総称する。
In the following description, the
ネットワーク600は、仮想空間提供サーバ200、記録サーバ100、及び、各コンピュータ300を接続する役割を担う。ネットワーク600は、これらの間でデータを送受信することができるように接続経路を提供する通信網を意味する。ネットワーク600は、無線ネットワークや有線ネットワークを含んでよい。具体的には、ネットワーク600は、ワイヤレスLAN(wireless LAN:WLAN)や広域ネットワーク(wide area network:WAN)、ISDNs(integrated service digital networks)、無線LANs、LTE(long term evolution)、LTE−Advanced、第4世代(4G)、第5世代(5G)、CDMA(code division multiple access)等である。なお、ネットワーク600は、これらの例に限られず、例えば、公衆交換電話網(Public Switched Telephone Network:PSTN)やブルートゥース(Bluetooth(登録商標))、光回線、ADSL(Asymmetric Digital Subscriber LINE)回線、衛星通信網等であってもよい。また、ネットワーク600は、これらの組み合わせであってもよい。
The
仮想空間提供サーバ200は、典型的にはクラウド上で実現されてもよい。仮想空間提供サーバ200は、アプリケーションサーバとしての機能を有し、コンピュータ300にインストールされたアプリケーションからの要求に応じて各種処理を実行する。
The virtual
コンピュータ300では、アプリケーションプログラムに基づいて、仮想空間や、コンピュータ300のユーザ、及び、他のユーザのアバターの表示、音声の出力等が行われる。コンピュータ300は、HMD400に対し、HMD400を装着したユーザに仮想空間を提供するための情報を送信する。仮想空間を提供するための情報とは、仮想空間を表示させる表示情報、仮想空間における音声情報、及び、将来的には触覚情報等を含む。なお、動画像情報を含んでもよい。また、コンピュータ300は、HMD400を装着したユーザの動作に関する動作情報や、ユーザが発生した音声に関する音声情報(以降、「動作情報等」と称する)を、HMD400から取得し、取得した動作情報に応じて、仮想空間の表示を変化させる。また、コンピュータ300は、ネットワーク600を介して仮想空間提供サーバ200から送信された、他のユーザの動作情報に応じて、仮想空間における他のユーザのアバターを動作させる。
In the
HMD400は、ユーザの頭部に装着される。HMD400は、コンピュータ300に接続されて仮想空間をユーザに提供する。HMD400は、モニタを備える所謂ヘッドマウントディスプレイと、スマートフォンその他のモニタを有する端末を装着可能なヘッドマウント機器のいずれをも含み得る。なお、図及び本開示では、コンピュータ300に仮想空間のアプリケーションがインストールされる態様について説明するが、本発明はこれに限られるものではなく、HMD400にアプリケーションがインストールされ、また、HMD400がネットワーク600に直接接続されて、ユーザに仮想空間を提供してもよい。
The
なお、記録サーバ100、仮想空間提供サーバ200、コンピュータ300、及び、HMD400は、本開示に記載される機能、及び/又は、方法を実現できる情報処理装置であればどのような情報処理装置であってもよい。例えば、これら情報処理装置の例として、スマートフォン、携帯電話(フィーチャーフォン)、コンピュータ(例えば、デスクトップ、ラップトップ、タブレットなど)、サーバ装置、メディアコンピュータプラットホーム(例えば、ケーブル、衛星セットトップボックス、デジタルビデオレコーダなど)、ハンドヘルドコンピュータデバイス(例えば、PDA(Personal Digital Assistant)、電子メールクライアントなど)、ウェアラブル端末(例えば、メガネ型デバイス、時計型デバイスなど)、他種のコンピュータ、又はコミュニケーションプラットホームを含んでよい。
It should be noted that the
<ハードウェア構成>
図2を用いて、仮想空間記録システム700に含まれる記録サーバ100、コンピュータ300、及び、HMD400のハードウェア構成について説明する。
<Hardware configuration>
The hardware configurations of the
(1)HMDシステム500のハードウェア構成
本発明の一実施形態において、仮想空間提供サービスは既存のものを用いることができ、仮想空間提供サーバ200及びHMDシステム500は既存の技術であってよい。従って、仮想空間提供サービスや仮想空間提供サーバ200の詳細な説明は省略する。なお、仮想空間提供サービスは、本開示の記載に限定されるものではない。
(1) Hardware Configuration of HMD System 500 In one embodiment of the present invention, an existing virtual space providing service can be used, and the virtual
コンピュータ300は、プロセッサ301と、ストレージ302と、入出力インタフェース(入出力I/F)303と、メモリ304と、通信インタフェース(通信I/F)305とを含む。各構成要素は、バスBを介して相互に接続される。
The
プロセッサ301は、ストレージ302に記憶されるプログラムに含まれるコード又は命令によって実現する機能や方法を実行する。メモリ304は、ストレージ302からロードしたプログラムを一時的に記憶し、プロセッサ301に対して作業領域を提供する。メモリ304には、プロセッサ301がプログラムを実行している間に生成される各種データも一時的に格納される。ストレージ302は、プログラムを記憶する。
The
通信I/F305は、ネットワーク600を介して、他の情報処理装置である仮想空間提供サーバ200や記録サーバ100との通信を実行する。通信I/F305は、各種データを、プロセッサ301からの指示に従って、他の情報処理装置に送信する。また、通信I/F305は、他の情報処理装置から送信された各種データを受信し、プロセッサ301に伝達する。
The communication I/
入出力I/F303は、HMD400との接続インタフェースであって、HMD400との間でデータの通信を行う。入出力I/F303としては、例えば、USB(Universal Serial Bus)、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)等が含まれる。なお、HMD400とコンピュータ300との間のデータの通信は、無線通信(近距離無線通信(Bluetooth,Wi-Fi等))又は有線通信を介して行われてもよい。また、入出力I/F303には、図示しない、HMD400とは別個に設けられる他のセンサであって、例えば、赤外線センサ、カメラ等が接続されてもよい。カメラは、ユーザの表情を検出可能に備えられ、ユーザの表情の変化を、アバターの表情の変化に反映させてもよい。
The input/output I/
HMD400は、ジャイロセンサ410、視線センサ420、カメラ430、マイク440、モニタ450、及び、スピーカ460を含む。モニタ450は、例えば、液晶モニタ又は有機EL(Electro Luminescence)モニタとして実現され、3次元の仮想空間を表示する。より具体的には、モニタ450には、両目の視差に基づく3次元画像がユーザに認識されるように、右目用の画像及び左目用の画像が表示される。なお、ここではモニタ450として説明しているが、網膜投影であってもよい。
The
ジャイロセンサ410は、HMD400の傾きを検出する。なお、HMD400は、ジャイロセンサ410の他にも、加速度センサ、地磁気センサその他のセンサを含み、HMD400を装着したユーザの頭の動き(回転、傾き、向き、加速度等)を検出可能であってよい。さらに、コンピュータ300が、HMD400に備えられたセンサや、上述した別個のセンサからの出力に基づいて、HMD400の位置及び傾きを検出するように構成されてもよい。
The
カメラ430は、カメラ430から対象物までの深度情報を取得可能に構成され、HMD400を装着したユーザの視線方向にあるもの(例えば、ユーザの手)を3次元で表示するためのデータを取得する。例えば、カメラ430は、TOF(Time Of Flight)カメラ、ステレオカメラ、赤外線カメラ等であってよい。カメラ430は、取得した対象物の深度情報をコンピュータ300に出力する。
The
スピーカ460は、コンピュータ300から受信した音声信号を、音声に変換してユーザに出力する。マイク440は、ユーザの発話を電気信号に変換して、コンピュータ300に出力する。視線センサ420は、ユーザの右目及び左目の視線が向けられる方向(視線)を検出する。
The
(2)記録サーバ100のハードウェア構成
記録サーバ100は、プロセッサ101と、ストレージ102と、入出力インタフェース(入出力I/F)103と、メモリ104と、通信インタフェース(通信I/F)105とを含む。各構成要素は、バスBを介して相互に接続される。
(2) Hardware Configuration of
記録サーバ100は、プロセッサ101と、ストレージ102と、入出力I/F103と、メモリ104と、通信I/F105との協働により、本実施形態に記載される機能や方法を実現する。例えば、本開示の機能又は方法は、メモリ104に読み込まれたプログラムに含まれる命令をプロセッサ101が実行することによって実現される。
The
プロセッサ101は、ストレージ102に記憶されるプログラムに含まれるコード又は命令によって実現する機能、及び/又は、方法を実行する。プロセッサ101は、例えば、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。
The
メモリ104は、ストレージ102からロードしたプログラムを一時的に記憶し、プロセッサ101に対して作業領域を提供する。メモリ104には、プロセッサ101がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ104は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む。
The
ストレージ102は、プログラムを記憶する。ストレージ102は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含む。
The
通信I/F105は、ネットワークアダプタ等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク600を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F105は、ネットワーク600を介して、他の情報処理装置である仮想空間提供サーバ200やコンピュータ300との通信を実行する。通信I/F105は、各種データをプロセッサ101からの指示に従って、他の情報処理装置に送信する。また、通信I/F105は、他の情報処理装置から送信された各種データを受信し、プロセッサ101に伝達する。
The communication I/
入出力I/F103は、記録サーバ100に対する各種操作を入力する入力装置、及び、記録サーバ100で処理された処理結果を出力する出力装置を含む。入出力I/F103は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ101に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力装置は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。出力装置は、プロセッサ101で処理された処理結果を出力する。出力装置は、例えば、タッチパネル、スピーカ等を含む。
The input/output I/
<機能構成>
次に、図3、図4を用いて、コンピュータ300、記録サーバ100の機能構成について説明する。
<Functional configuration>
Next, the functional configurations of the
(1)コンピュータ300の機能構成
図3に、コンピュータ300の機能構成の概略図を示す。図3に示すように、コンピュータ300は、仮想空間アプリケーション310として、表示制御部320及び仮想空間制御部330を含む。さらに、コンピュータ300は、通信制御部340、記憶部350、入出力制御部360を含む。
(1) Functional Configuration of
通信制御部340は、通信I/F305を介した他の情報処理装置との間の通信を制御する。すなわち、通信制御部340は、他の情報処理装置である仮想空間提供サーバ200、記録サーバ100、他のコンピュータ300との間の通信で取得したデータを、仮想空間アプリケーション310や記憶部350へ送信したり、仮想空間アプリケーション310や記憶部350からのデータを、他の情報処理装置へ送信したりする。
The
入出力制御部360は、入出力I/F303を介した、例えばHMD400との間の通信を制御する。すなわち、入出力制御部360は、HMD400から送信されたユーザの動作情報や音声情報を、仮想空間アプリケーション310や記憶部350へ送信したり、仮想空間アプリケーション310から送信された仮想空間の表示情報や音声情報を、HMD400へ送信したりする。
The input/
表示制御部320は、仮想空間のうちHMD400のモニタ450に表示させる画像を制御する。表示制御部320は、位置入力部321、視点入力部322、視界画像生成部323、動き検出部324、角速度検出部325、及び、視線検出部326を含む。
The
位置入力部321は、HMD400から送信されたユーザの動作情報に応じて、仮想空間における位置を設定する。すなわち、位置入力部321は、ユーザの歩行動作や走行動作に応じて、仮想空間内の移動先や移動距離を設定する。なお、ユーザの動作情報は、HMD400から送信されるものに限られず、図示しないコントローラから送信されてもよい。コントローラとしては、既知のものを用いることができる。又は、位置入力部321は、ユーザから直接入力された仮想空間内での移動先に基づき、仮想空間における位置を設定してもよい。視点入力部322は、HMD400の傾き(すなわち、ジャイロセンサ410の出力)と、位置入力部321によって設定された位置に応じて、ユーザの仮想空間の視界領域を設定する。視界画像生成部323は、設定された視界領域に基づいて、モニタ450に表示する仮想空間の視界画像を生成する。
The
動き検出部324は、HMD400から送信されたユーザの動きを検出する。ここ検出部326は、ジャイロセンサ410や図示しない他のセンサからの出力に基づいて、ユーザの視線としてのHMD400の傾きを検出する。角速度検出部325は、ジャイロセンサ410の出力を角速度に変換し、変換した角速度を、視点入力部322及び視線検出部326に出力する。
The
仮想空間制御部330は、ユーザに提供する仮想空間を制御する。仮想空間制御部330は、仮想空間生成部331、仮想オブジェクト生成部332、及び、アバター生成部333を含む。
The virtual
仮想空間生成部331は、仮想空間を表す仮想空間データを生成し、HMD400へ出力する。仮想オブジェクト生成部332は、仮想空間に配置されるオブジェクトを生成する。オブジェクトは、例えば、仮想空間に設定されたテーマや物語に従って配置される、市街地、道路、店舗といった人工物や、森、山その他を含む風景、動物等の自然物を模したオブジェクトを含んでよい。なお、仮想オブジェクト生成部332は、仮想空間においてユーザによる操作が可能なオブジェクトを生成してもよい。操作が可能なオブジェクトとしては、例えば、ユーザの手(ユーザのアバターの手)、他のユーザのアバターの手であってよい。また、仮想オブジェクト生成部332は、仮想空間サービスの登録ユーザによるプログラムに基づいて生成される任意のオブジェクトを表示させてもよい。なお、仮想空間において生成(表示)されるオブジェクトとしては、上述のものに限られるものではなく、例えば、仮想通貨、文字、静止画、動画等様々なものを含むことができる。
The virtual
アバター生成部333は、仮想空間に配置されるアバターのデータを生成する。仮想空間に配置されるアバターとしては、ネットワーク600を介して接続される他のコンピュータ300の他のユーザのアバターオブジェクトであったり、ユーザのアバターオブジェクトであったりしてよい。なお、アバターオブジェクトとしては、人物、動物、ロボット、キャラクター等、ユーザによって設定された様々なものを含むことができる。
The
アバター生成部333は、角速度検出部325が出力する角速度に基づいて、HMD400の動きを、ユーザのアバターオブジェクトに反映する。また、アバター生成部333は、動き検出部324の出力に基づいて、現実空間のユーザの手の動きを含むユーザの動作を、アバターオブジェクトに反映する。また、アバター生成部333は、カメラで取得されたユーザの表情の変化や、ユーザの音声・発話内容に応じて、アバターの表情を変化させる。これは、既知の3次元画像生成技術や、HMDのユーザの顔に接触する部分に筋電センサを設けて表情を推定する技術によって行うことができる。また、アバター生成部333は、他のコンピュータ300から入力される角速度の情報などに基づいて、他のコンピュータ300の他のユーザに対応するアバターオブジェクトを動かして表示させる。
The
記憶部350は、コンピュータ300が仮想空間をユーザに提供するために用いるデータを保持する。記憶部350は、仮想空間情報351や、ユーザ情報352を含む。仮想空間情報351は、仮想空間を提供するために規定された1つ以上のテンプレートや、上述したオブジェクト等を含む。
The
ユーザ情報352は、HMDシステム500の制御装置としてコンピュータ300を機能させるためのプログラムや、仮想空間サービスのアプリケーションプログラム、仮想空間サービスで利用可能なコンテンツ等を保持する。これらのプログラムやコンテンツは、仮想空間サービスを提供する事業者(例えば、仮想空間提供サーバ200)や、コンテンツを提供する事業者のコンピュータや、クラウド上のデータをダウンロードすることで取得してもよい。
The
なお、仮想空間アプリケーション310の一部は、例えば、ユニティテクノロジーズ社によって提供されるUnity(登録商標)を用いて実現され得る。又は、仮想空間アプリケーション310は、各処理を実現する回路素子の組み合わせとしても実現され得る。
Note that a part of the
(2)記録サーバ100の機能構成
図4に、記録サーバ100の機能構成の概略図を示す。図4に示すように、記録サーバ100は、仮想空間アプリケーション110として、表示制御部120及び仮想空間制御部130を含む。さらに、記録サーバ100は、通信制御部140、記憶部150、操作入力情報生成部160、画像認識部170、テキスト生成部181、及び、関連付け部182を含む。
(2) Functional Configuration of
ここで、記録サーバ100の各機能部の説明に先立ち、コンピュータ300と記録サーバ100と間の機能構成の差異について説明する。
Here, prior to the description of each functional unit of the
記録サーバ100は、コンピュータ300と同様に、仮想空間サービスのアプリケーションプログラムをインストールされ、当該プログラムに基づき、仮想空間に関するデータを取得する。従って、コンピュータ300における仮想空間アプリケーション310と、記録サーバ100における仮想空間アプリケーション110との間に、機能上の差異はない。すなわち、本発明の一実施形態における仮想空間記録システムの実現にあたり、仮想空間サービスの管理者側に、何ら特別な措置を強いる必要はない。
Like the
記録サーバ100とコンピュータ300とは、記録サーバ100にはHMD400が接続されず、記録サーバ100において、仮想空間を記録する場所(位置)や方向を指定するための入力情報が、操作入力情報生成部160によって生成される点に差異の1つがある。このため、図4において、仮想空間アプリケーション110の表示制御部120に、HMD400に関する動き検出部、角速度検出部、視線検出部は図示していない。しかしながら、本発明の一実施形態において、仮想空間サービスのアプリケーションプログラムを利用する場合、これら動き検出部、角速度検出部、視線検出部が機能として含まれてもよい。
In the
上述のように、仮想空間アプリケーション110は、仮想空間アプリケーション310と同様であるため、以下では、同様の部分についての説明を省略し、異なる部分について説明する。
As described above, the
操作入力情報生成部160は、HMDシステム500においてはHMD400によって生成される情報を生成する。すなわち、位置入力情報生成部161は、仮想空間における位置を指定(設定)する入力情報を生成する。視点入力情報生成部162は、仮想空間の視界領域を指定する入力情報を生成する。これら、操作入力情報生成部160によって生成される入力情報は、HMD400から送信されるデータ形式に則ったデータ形式で生成されてよい。又は、原点を設定し、当該原点からの相対位置を数値で指定するものであってよいし、座標を直接指定するものであってよい。また、視点入力情報生成部162によって生成される情報には、現在位置からの回転角、回転方向などを含む。
The operation input
画像認識部170は、仮想空間アプリケーション110によって生成された仮想空間に関する画像データを処理する。画像認識部170は、視界画像取得部171、解析部172を含む。視界画像取得部171は、仮想空間アプリケーション110における視界画像生成部123が生成した視界画像の情報(画像情報)を取得する。解析部172は、視界画像取得部171が取得した画像における1以上のアバターを抽出する。解析部172におけるアバターの抽出は、既存の画像解析技術を用いて行うことができる。
The
解析部172は、抽出されたアバターが所定の条件を満たすか否かを判定する。詳細は後述するが、所定の条件とは、仮想空間におけるトラブルの発生や、トラブルの発生に繋がり得る状態を判定可能な条件である。解析部172は、さらに、抽出されたアバターが所定の条件を満たすと判定された場合、当該アバターの動作を解析する。本開示において、解析とは、解析対象の統計的なデータを得ることを意味し、アバターの動作の解析とは、アバターの動作が時間の経過に沿ってどのように変化したかについてのデータを得ることを意味する。この、解析部172によるアバターの動作の解析やアバターの表情の解析も、既存の画像解析技術を用いることが出来る。なお、解析部172には、人工知能(AI:Artifficial Intelligence)、例えば、深層学習による解析技術が用いられてもよい。テキスト生成部181は、解析部172による解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成する。
The
通信制御部140は、通信I/F105を介した他の情報処理装置との間の通信を制御する。すなわち、通信制御部140は、他の情報処理装置である仮想空間提供サーバ200、複数のコンピュータ300との間の通信で取得したデータを、仮想空間アプリケーション110や記憶部150へ送信したり、仮想空間アプリケーション110や記憶部150からのデータを、他の情報処理装置へ送信したりする。
The
記憶部150は、仮想空間情報151、ユーザ情報152、条件データベース(DB)153を含む。仮想空間情報151は、仮想空間を提供するために規定された1つ以上のテンプレートや、上述したオブジェクト等を含む。条件データベース153は、上述した所定の条件を保持する。さらに、記憶部150は、テキスト生成部181によって生成されたテキスト情報を保持する。
The
<仮想空間における記録処理>
次に、図5を用いて、記録サーバ100が仮想空間における事象を記録する概要について説明する。図5(a)は、仮想空間10を半球で表した図である。図において、仮想空間10はアバター20A,20Bを含む状態を示してある。
<Recording process in virtual space>
Next, the outline of the
図において、アバター30Uは、記録サーバ100の1のアカウントに対応する。図に示すように、本発明の一実施形態によれば、記録サーバ100が仮想空間サービスにおけるアカウントを有し、当該アカウントに対応付けてアバター30Uを仮想空間内に配置することができる。そして、操作入力情報生成部160は、アバター30を移動させる情報や、アバター30の視点を動かす入力情報を生成し、仮想空間アプリケーション110へ当該情報を送信することができる。これにより、仮想空間における視界画像を取得することが可能となる。
In the figure, the
なおこのとき、アバター30Uは、背景を透過させる透明なオブジェクトとして実現してもよい。また、アバター30Uは、仮想空間内の通常のアバターの移動ルールに縛られる必要はなく、例えば、空間に浮いた状態での上からの俯瞰画像を取得できてもよい。即ち、本実施の形態に係る記録サーバ100に係るアバター30Uは、いわば、透明な監視カメラとして仮想空間内の画像情報を取得することができる。これにより、仮想空間の利用ユーザに記録システムを検知させず、自然な動作を行わせることが可能となる。
At this time, the
図5(a)において、アバター30Uから延びる点線によって囲まれたフィールドは、アバター30Uの仮想的な視界領域を表す。図において、アバター30Uの視界には、アバター20A,20Bが含まれ、視界画像取得部171は、アバター20A,20Bが含まれる画像情報を取得することができる。解析部172は、アバター20A,20Bを抽出し、これらのアバターが所定の条件を満たすか否かを判定する。
In FIG. 5A, a field surrounded by a dotted line extending from the
所定の条件とは、仮想空間におけるトラブルに繋がりかねない状態であって、例えば、「ユーザ同士の接近」、「ジェスチャーでのやり取り」、「顔の表情が負の感情に分類される」、「受け渡しが禁止されているオブジェクトの受け渡し」等の条件や、それらの組合せであってよい。解析部172は、アバターの含まれる画像を既知の画像解析技術で解析し、アバターについて、所定の条件にあてはまる行動があった場合に、所定の条件を満たすと判定する。
The predetermined condition is a state that may lead to a trouble in the virtual space, and is, for example, “approach between users”, “interaction with gesture”, “face expression is classified as negative emotion”, “ It may be a condition such as “delivery of an object whose delivery is prohibited” or a combination thereof. The
例えば、図5では、アバター20Aとアバター20Bとが接近し、所定の条件を満たしたとする。そのため、解析部172は、アバター20Aとアバター20Bの動作の解析を開始する。テキスト生成部181は、解析部172による解析結果に基づき、アバターの動作を記述するテキスト情報を生成する。なお、その際、テキスト生成部181は、当該動作の開始時間や終了時間、仮想空間における場所についての情報を含むテキスト情報を生成してもよい。図5(b)に、生成されるテキスト情報の一例を示す。図のように、日付、事象の発生場所(場所ID)とともに、事象の内容が記録される。
For example, in FIG. 5, it is assumed that the
上述のように、本発明の一実施形態によれば、アバターの動作を画像から解析し、テキスト情報として記述することができる。この際、所定の条件を満たすアバターに関してのみテキスト情報が生成されるため、仮想空間サービスの利用ユーザ毎に異なり得る不正行為の判断を一律化することができ、また、利用ユーザに負担をかけることがない。さらに、仮想空間で生じた全ての事象を記録しないため、記録するデータを削減することができる。さらに、本発明の一実施形態を実現するのに、仮想空間サービスによって提供されるアプリケーションを用いることができるため、仮想空間サービスの管理者側に負担を強いることがない。また、仮想空間における事象の記録は、視界画像の解析によって行われ、各アバターの3次元データを取得する必要はないため、アバターの動作を反映させる膨大なデータの取得を必要としない。 As described above, according to the embodiment of the present invention, the action of the avatar can be analyzed from the image and described as text information. At this time, since text information is generated only for avatars that satisfy a predetermined condition, it is possible to make uniform the determination of fraudulent behavior that may differ for each user of the virtual space service, and also to burden the user. There is no. Furthermore, since all the events that occur in the virtual space are not recorded, it is possible to reduce the amount of recorded data. Further, since the application provided by the virtual space service can be used to implement the embodiment of the present invention, the administrator of the virtual space service is not burdened. Moreover, since the recording of the event in the virtual space is performed by analyzing the visual field image and it is not necessary to acquire the three-dimensional data of each avatar, it is not necessary to acquire a huge amount of data that reflects the motion of the avatar.
なお、所定の条件の判定には、アバターの音声情報がさらに用いられてもよい。視界画像取得部171は、仮想空間アプリケーション110から、仮想空間の画像情報とともに音声情報を取得することができる。解析部172は、画像情報から、アバターと、当該アバターの音声情報を抽出し、抽出した音声情報が所定の条件を満たすか否かを判定する。音声情報に関する所定の条件は、例えば、「暴言」、「口論」、「合言葉の使用」、等とすることができる。なお、音声情報に関する所定の条件と、動作に関する所定の条件とを組み合わせて判定されてもよい。
Note that the voice information of the avatar may be further used to determine the predetermined condition. The visual field
本発明の一実施形態によれば、音声情報を用いて、仮想空間における事象の記録の有無が判定されるため、トラブルとなり得る事象を適切に記録することができる。 According to the embodiment of the present invention, it is possible to appropriately record an event that may cause a trouble because it is determined whether or not the event is recorded in the virtual space using the audio information.
ここで、本発明の一実施形態による記録システムについて、図6を用いて説明する。図6は、記録処理における、記録サーバ100、HMDシステム500A、仮想空間提供サーバ200間のシーケンス図である。なお、HMDシステム500としてユーザAのHMDシステム500Aを示してあるが、他のHMDシステム500B,500Cも同様にネットワーク600と接続され、ユーザB、ユーザCの動作も、仮想空間における各アバターに反映されることに留意されたい。
Here, a recording system according to an embodiment of the present invention will be described with reference to FIG. FIG. 6 is a sequence diagram between the
まず、HMDシステム500Aにおいて、HMD400AはユーザAの動作情報及び音声情報を取得し、コンピュータ300Aへ送信する(ステップS21)。コンピュータ300Aは、ユーザAの動作情報及び音声情報をアバターAに反映させる表示情報及び音声情報を、HMD400Aに送信する(ステップS22)。記録サーバ100において、位置入力情報生成部161が生成した入力情報に応じて、仮想空間における位置が指定され、視点入力情報生成部162が生成した入力情報に応じて、視点(視野領域)が指定される(ステップS26)。記録サーバ100の視界画像取得部171は、仮想空間アプリケーション110によって生成された視界画像を取得し、解析部172は、視界画像に含まれる1以上のアバターを抽出する(ステップS27)。HMD400Aでは、アバターAの動作が表示され、音声が再生される(ステップS25)。
First, in the
仮想空間提供サーバ200は、アバターAの動作情報及び音声情報を、記録サーバ100へ送信する(ステップS23)。記録サーバ100の視界画像生成部は、アバターAの動作を反映させる視界画像を生成する。視界画像取得部171は、当該視界画像に関する情報、すなわち、アバターAの動作を表示、音声(あれば)を再生させる視界画像に関する画像情報を取得し、解析部172は、画像情報に含まれるアバターAを抽出する(ステップS27)。そして、解析部172は、アバターAが所定の条件を満たすか否か判定する(ステップS28)。所定の条件を満たさない場合(ステップS28でNO)、ステップS26へ戻り仮想空間における位置を変更するか、処理を終了する。所定の条件を満たす場合(ステップS28でYES)、解析部172は、アバターAの一連の動作を解析し、テキスト生成部181は、アバターAの動作に関する情報を記述するテキスト情報を生成する(ステップS29)。
The virtual
なお、図6のシーケンスにおいて、ステップの順番は厳密なものではなく、各HMDシステム500から送信されたユーザの動作情報が、仮想空間のアバターに反映され、当該仮想空間のアバターについて、記録サーバ100がリアルタイムで解析を実行することができる。
Note that in the sequence of FIG. 6, the order of steps is not strict, and the user's motion information transmitted from each HMD system 500 is reflected on the avatar in the virtual space, and the avatar in the virtual space is recorded by the
また、記録サーバ100は、さらに、仮想空間におけるアバターの動作を特定する情報であるアノテーション情報を関連付ける関連付け部182を備えてもよい。アノテーション情報とは、動作や状態を記述する情報を指す。本発明の一実施形態によれば、仮想空間の画像情報に基づいて、各アバターの行動を学習し、アバターの行動の規則性等に基づいて、アバターの行動を予測する。例えば、アバターの表情と、それに伴う行動(口角を上げる表情で喜ぶ、口角を下げる表情で怒る、目を細める表情で喜ぶ、目を見開く表情で驚く、両手を上げる動作で喜ぶ、肩をすくめる動作で呆れる、叫んだ後に怒る等)とを学習し、表情毎、行動毎、音声毎にアノテーション情報を関連付けて、記憶部150のユーザ情報152に記憶する。
In addition, the
図7に、アノテーション情報の関連付けに関するアバター情報の一例を示す。テーブルTB1は、睨む表情に対して、「睨む」、「怒り」というアノテーション情報が関連付けられている。テーブルTB2は、音声情報に対し、その音声を発声した際のユーザの動作が、アノテーション情報として関連付けられている。これらのテーブルは、ユーザ毎、すなわち、アバター毎に生成されることが好ましい。 FIG. 7 shows an example of avatar information relating to the association of annotation information. In the table TB1, annotation information of “glazing” and “anger” is associated with a staring facial expression. In the table TB2, the action of the user when the voice is uttered is associated with the voice information as annotation information. These tables are preferably generated for each user, that is, for each avatar.
テキスト生成部181は、所定の条件として、抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、テキスト情報を生成してもよい。所定のキーワードとは、トラブルの発生又は発生に繋がり得る状態を表すキーワードであって、例えば、「喧嘩」、「怒り」、「泣く」等の、一般的にネガティブな意味を有するキーワードである。例えば、画像解析により、ある表情に関連付けられたアノテーション情報に「怒り」というキーワードが含まれる場合、解析部172は、アバターが所定の条件を満たすと判定することができる。
The
ユーザによって、すなわち、アバターによって、ある動作に付随する表情や音声等は異なってくる。しかしながら上述のように、本発明の一実施形態によれば、各アバターに対し、アバターの動作を特定するアノテーション情報が関連付けられるため、各ユーザの動作がトラブルに繋がり得るか否かを、適切に判定することが可能となる。 The facial expression, voice, etc. associated with a certain action vary depending on the user, that is, the avatar. However, as described above, according to one embodiment of the present invention, since annotation information that identifies the action of the avatar is associated with each avatar, it is possible to appropriately determine whether the action of each user may lead to a trouble. It becomes possible to judge.
なお、関連付け部182は、アバターの一連の動作を学習した結果に基づいて、アバターに関連付けるアノテーション情報を更新してもよい。これにより、より精度の高い判定が可能となる。
The associating
次に、図8を用いて、本発明の他の実施形態について説明する。図8は、仮想空間10の概略図である。位置入力情報生成部161は、解析部172によって抽出されたアバターが所定の条件を満たす場合に、当該アバターから所定距離内の複数の位置を指定してもよい。例えば、図8に示すように、仮想空間10において、アバター500Cが倒れており、解析部172によって、アバター500Cが所定の条件を満たすと判定されたとする。この場合、位置入力情報生成部161は、アバター500Cから所定距離内の複数の位置を指定する入力情報を生成する。これは、例えば、アバター30Uの他に、アバター30X,30Yを、アバター500Cの周囲に配置させる入力情報に相当する。これは、アバター30X,30Yについて、仮想空間サービスに予めアカウントを登録しておき、位置入力情報生成部161が、それら複数アカウントについての入力情報を生成することで実現できる。そして、視点入力情報生成部162は、アバター500Cが視界領域に入るように視点を設定する入力情報を生成し、視界画像取得部171が、アバター30U,30X,30Yに対応する画像情報を取得してもよい。
Next, another embodiment of the present invention will be described with reference to FIG. FIG. 8 is a schematic diagram of the
上述の構成によれば、所定の条件を満たすと判定されたアバターの動作について、より詳細に記述するテキスト情報を生成することができる。 According to the above configuration, it is possible to generate text information that describes the action of the avatar determined to satisfy the predetermined condition in more detail.
なお、記憶部150は、テキスト生成部181によって生成されたテキスト情報の記憶に、電子透かし又は分散型台帳技術を用いてもよい。これにより、解析結果としてのテキスト情報の安全性、秘匿性を担保することができ、仮想空間サービスの管理者側によるデータの改ざんの可能性を低くすることができる。
The
なお、テキスト生成部181によって生成されたテキスト情報は、必要に応じて、証拠として所定の機関に送信されてもよい。
The text information generated by the
なお、リアルタイムでの解析処理が好ましいが、画像の解析処理が並行して生じたり、記録期間が長い等、負荷が高くなる場合も考えられる。この場合、所定の時間(例えば、10分等)、動画像データを記憶しておき、別の解析処理がなく負荷が低い時間に、記憶しておいた動画像データを解析してもよい。この場合、一時的に記憶容量を圧迫することになるが、解析処理が終了次第、すぐに動画像データが削除されるようにすればよい。なお、アバターが所定の条件を満たす場合、証拠としての画像情報を、テキスト情報と合わせて記憶しておいてもよい。 Note that real-time analysis processing is preferable, but it is also conceivable that the load increases due to image analysis processing occurring in parallel or a long recording period. In this case, the moving image data may be stored for a predetermined time (for example, 10 minutes), and the stored moving image data may be analyzed when the load is low without another analysis process. In this case, although the storage capacity will be temporarily squeezed, the moving image data may be deleted as soon as the analysis process is completed. If the avatar satisfies a predetermined condition, the image information as evidence may be stored together with the text information.
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各構成部、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。また、上記実施の形態に示す構成を適宜組み合わせることとしてもよい。例えば、記録サーバ100が備えるとして説明した各構成部は、複数のサーバによって分散されて実現されてもよい。
Although the present invention has been described based on the drawings and the embodiments, it should be noted that those skilled in the art can easily make various variations and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, the functions and the like included in each constituent unit and each step can be rearranged so as not to logically contradict, and a plurality of constituent units and steps can be combined or divided into one. Is. In addition, the configurations described in the above embodiments may be combined as appropriate. For example, each component described as being included in the
本開示の各実施形態のプログラムは、情報処理装置に読み取り可能な記憶媒体に記憶された状態で提供されてもよい。記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。プログラムは、例えば、ソフトウェアプログラムや情報処理装置プログラムを含む。 The program of each embodiment of the present disclosure may be provided in a state of being stored in a storage medium readable by the information processing device. The storage medium can store the program in a “non-transitory tangible medium”. The programs include, for example, software programs and information processing device programs.
記憶媒体は適切な場合、1つ又は複数の半導体ベースの、又は他の集積回路(IC)(例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向けIC(ASIC)等)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カードもしくはドライブ、任意の他の適切な記憶媒体、又はこれらの2つ以上の適切な組合せを含むことができる。記憶媒体は、適切な場合、揮発性、不揮発性、又は揮発性と不揮発性の組合せでよい。 The storage medium is, where appropriate, one or more semiconductor-based or other integrated circuits (ICs) (eg, field programmable gate array (FPGA), application specific IC (ASIC), etc.), hard Disk drive (HDD), hybrid hard drive (HHD), optical disk, optical disk drive (ODD), magneto-optical disk, magneto-optical drive, floppy diskette, floppy disk drive (FDD), magnetic tape, solid-state drive (SSD), RAM drive, secure digital card or drive, any other suitable storage medium, or any suitable combination of two or more thereof. Storage media may be volatile, non-volatile, or a combination of volatile and non-volatile, where appropriate.
また、本開示のプログラムは、当該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して、記録サーバ100に提供されてもよい。
Further, the program of the present disclosure may be provided to the
また、本開示の各実施形態は、プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 Each embodiment of the present disclosure can also be realized in the form of a data signal embedded in a carrier wave in which a program is embodied by electronic transmission.
なお、本開示のプログラムは、例えば、JavaScript(登録商標)、Python等のスクリプト言語、C言語、Go言語、Swift,Koltin、Java(登録商標)等を用いて実装される。 The program of the present disclosure is implemented using, for example, a script language such as Java Script (registered trademark), Python, C language, Go language, Swift, Koltin, Java (registered trademark), or the like.
100 記録サーバ(情報処理装置)
200 仮想空間提供サーバ
300(300A〜300C) コンピュータ
400 ネットワーク
500(500A〜500C) HMDシステム
600 ネットワーク
700 仮想空間記録システム
301 プロセッサ
302 ストレージ
304 メモリ
410 ジャイロセンサ
420 視線センサ
430 カメラ
440 マイク
450 モニタ
460 スピーカ
101 プロセッサ
102 ストレージ
104 メモリ
310 仮想空間アプリケーション
320 表示制御部
321 位置入力部
322 視点入力部
323 視界画像生成部
324 検出部
325 角速度検出部
326 視線検出部
330 仮想空間制御部
331 仮想空間生成部
332 仮想オブジェクト生成部
333 アバター生成部
340 通信制御部
350 記憶部
351 仮想空間情報
352 ユーザ情報
360 入出力制御部
110 仮想空間アプリケーション
120 表示制御部
123 視界画像生成部
130 仮想空間制御部
140 通信制御部
150 記憶部
160 操作入力情報生成部
161 位置入力情報生成部
162 視点入力情報生成部
170 画像認識部
171 視界画像取得部
172 解析部
181 テキスト生成部
182 関連付け部
151 仮想空間情報
152 ユーザ情報
153 条件データベース
10 仮想空間
10A,10B,20A,20B,30U,30X,30Y アバター
100 recording server (information processing device)
200 virtual space providing server 300 (300A to 300C)
Claims (9)
当該情報処理装置に、
前記仮想空間における位置を指定する入力情報を生成する位置入力機能と、
前記位置入力機能によって指定された位置における前記仮想空間の画像情報を取得する取得機能と、
前記画像情報に含まれる1以上のアバターを抽出し、抽出された前記アバターが所定の条件を満たす場合に、前記アバターの動作を解析する解析機能と、
前記解析機能による解析の結果に基づき、前記アバターの動作に関する情報を記述するテキスト情報を生成する生成機能と、
前記生成機能によって生成された前記テキスト情報を、所定の記憶部に記憶させる記憶機能と、
前記仮想空間におけるアバターの動作、表情、及び音声の少なくともいずれか1つを特定する情報であるアノテーション情報を関連付ける関連付け機能と、
を実現させ、
前記生成機能は、前記所定の条件として、前記抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、前記テキスト情報を生成する、制御プログラム。 A control program of an information processing device connected to a virtual space system, in which a user's action and voice input via a user terminal are reflected in the action and voice of the user's avatar in the virtual space,
In the information processing device,
A position input function for generating input information designating a position in the virtual space,
An acquisition function for acquiring image information of the virtual space at the position designated by the position input function,
An analysis function of extracting one or more avatars included in the image information, and analyzing the action of the avatar when the extracted avatar satisfies a predetermined condition,
A generation function for generating text information describing information regarding the movement of the avatar, based on the result of analysis by the analysis function;
A storage function of storing the text information generated by the generation function in a predetermined storage unit,
An associating function for associating annotation information, which is information specifying at least one of the action, facial expression, and voice of the avatar in the virtual space,
Is realized ,
The control program , wherein the generation function generates the text information when the annotation information associated with the extracted avatar includes a predetermined keyword as the predetermined condition .
前記解析機能は、前記アバターとともに当該アバターの音声情報を抽出し、
前記生成機能は、前記所定の条件の判定に、前記音声情報をさらに用いる、
ことを特徴とする請求項1に記載の制御プログラム。 The acquisition function acquires audio information together with image information of the virtual space,
The analysis function extracts voice information of the avatar together with the avatar,
The generation function further uses the voice information to determine the predetermined condition,
The control program according to claim 1, wherein:
前記取得機能は、前記複数の位置における、前記アバターに関する動画像情報を取得する、
ことを特徴とする請求項1又は2に記載の制御プログラム。 The position input function generates input information designating a plurality of positions within a predetermined distance from the avatar when the avatar extracted by the analysis function satisfies the predetermined condition,
The acquisition function acquires moving image information regarding the avatar at the plurality of positions,
The control program according to claim 1 or 2 , characterized in that.
ことを特徴とする請求項1〜3のいずれか一項に記載の制御プログラム。 The associating function updates annotation information associated with the avatar based on a result of learning a series of actions of the avatar.
The control program according to any one of claims 1 to 3 , characterized in that:
ことを特徴とする請求項1〜4のいずれか一項に記載の制御プログラム。 The storage function uses a digital watermark or a distributed ledger technology to store the text information generated by the generation function,
Control program according to any one of claims 1 to 4, characterized in that.
前記位置入力機能は、前記仮想空間システムにおける前記1のアバターの位置を指定する入力情報を生成し、
前記取得機能は、前記1のアバターの視界として、前記仮想空間の画像情報を取得する、
ことを特徴とする請求項1〜5のいずれか一項に記載の制御プログラム。 The storage function further stores registration information registered in the virtual space system as one avatar,
The position input function generates input information designating a position of the one avatar in the virtual space system,
The acquisition function acquires image information of the virtual space as a field of view of the avatar of 1,
Control program according to any one of claims 1 to 5, characterized in that.
ことを特徴とする請求項6に記載の制御プログラム。 The first avatar is realized as a transparent object that allows a background to be transparent in the virtual space.
The control program according to claim 6 , wherein
当該情報処理装置が、
前記仮想空間における位置を指定する入力情報を生成するステップと、
前記指定された位置における前記仮想空間の画像情報を取得するステップと、
前記画像情報に含まれる1以上のアバターを抽出し、抽出された前記アバターが所定の条件を満たす場合に、前記アバターの動作を解析するステップと、
前記解析するステップによる解析の結果に基づき、前記アバターの動作に関する情報を記述するテキスト情報を生成するステップと、
前記生成するステップにて生成された前記テキスト情報を、所定の記憶部に記憶させるステップと、
前記仮想空間におけるアバターの動作、表情、及び音声の少なくともいずれか1つを特定する情報であるアノテーション情報を関連付けるステップと、
を実行し、
前記生成するステップにおいて、前記所定の条件として、前記抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、前記テキスト情報を生成する、情報処理装置の制御方法。 A control method of an information processing device connected to a virtual space system, wherein a user's action and voice input via a user terminal are reflected in the action and voice of said user's avatar in a virtual space,
The information processing device is
Generating input information designating a position in the virtual space;
Acquiring image information of the virtual space at the designated position,
Extracting one or more avatars included in the image information, and analyzing the action of the avatar when the extracted avatar satisfies a predetermined condition,
Generating text information describing information about the movement of the avatar based on the result of the analysis by the analyzing step,
Storing the text information generated in the generating step in a predetermined storage unit,
Associating annotation information, which is information specifying at least one of the action, facial expression, and voice of the avatar in the virtual space,
The execution,
The control method of the information processing device , wherein, in the step of generating, when the predetermined keyword is included in the annotation information associated with the extracted avatar as the predetermined condition, the text information is generated .
前記仮想空間における位置を指定する入力情報を生成する位置入力部と、
前記位置入力部によって指定された位置における前記仮想空間の画像情報を取得する取得部と、
前記画像情報に含まれる1以上のアバターを抽出し、抽出された前記アバターが所定の条件を満たす場合に、前記アバターの動作を解析する解析部と、
前記解析部による解析の結果に基づき、前記アバターの動作に関する情報を記述するテキスト情報を生成する生成部と、
前記生成部によって生成された前記テキスト情報を、所定の記憶部に記憶させる記憶制御部と、
前記仮想空間におけるアバターの動作、表情、及び音声の少なくともいずれか1つを特定する情報であるアノテーション情報を関連付ける関連付け部と、
を備え、
前記生成部は、前記所定の条件として、前記抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、前記テキスト情報を生成する、情報処理装置。 An information processing device connected to a virtual space system in which a user's motion and voice input via a user terminal are reflected in the motion and voice of the user's avatar in the virtual space,
A position input unit that generates input information that specifies a position in the virtual space,
An acquisition unit that acquires image information of the virtual space at the position specified by the position input unit;
Out extraction of one or more avatar included in the image information, when extracted the avatar satisfies a predetermined condition, an analysis unit for analyzing the behavior of the avatar,
A generation unit that generates text information that describes information about the action of the avatar, based on the result of analysis by the analysis unit;
A storage control unit that stores the text information generated by the generation unit in a predetermined storage unit;
An associating unit for associating annotation information, which is information specifying at least one of the action, facial expression, and voice of the avatar in the virtual space,
Equipped with
The information processing apparatus , wherein the generation unit generates the text information when the annotation information associated with the extracted avatar includes a predetermined keyword as the predetermined condition .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019001492A JP6721727B1 (en) | 2019-01-08 | 2019-01-08 | Information processing apparatus control program, information processing apparatus control method, and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019001492A JP6721727B1 (en) | 2019-01-08 | 2019-01-08 | Information processing apparatus control program, information processing apparatus control method, and information processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6721727B1 true JP6721727B1 (en) | 2020-07-15 |
JP2020112895A JP2020112895A (en) | 2020-07-27 |
Family
ID=71523882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019001492A Active JP6721727B1 (en) | 2019-01-08 | 2019-01-08 | Information processing apparatus control program, information processing apparatus control method, and information processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6721727B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114185428A (en) * | 2021-11-09 | 2022-03-15 | 北京百度网讯科技有限公司 | Method and device for switching virtual image style, electronic equipment and storage medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023167212A1 (en) * | 2022-03-01 | 2023-09-07 | 株式会社KPMG Ignition Tokyo | Computer program, information processing method, and information processing device |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4625058B2 (en) * | 2007-08-15 | 2011-02-02 | ヤフー株式会社 | Virtual space broadcasting device |
JP4625057B2 (en) * | 2007-08-15 | 2011-02-02 | ヤフー株式会社 | Virtual space information summary creation device |
EP2227301A4 (en) * | 2007-10-26 | 2012-02-29 | Sony Comp Entertainment Us | On-line monitoring of resources |
JP6702322B2 (en) * | 2015-06-30 | 2020-06-03 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP6836379B2 (en) * | 2016-12-05 | 2021-03-03 | 株式会社コロプラ | An information processing method, a device, and a program that causes a computer to execute the information processing method. |
-
2019
- 2019-01-08 JP JP2019001492A patent/JP6721727B1/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114185428A (en) * | 2021-11-09 | 2022-03-15 | 北京百度网讯科技有限公司 | Method and device for switching virtual image style, electronic equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2020112895A (en) | 2020-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11782272B2 (en) | Virtual reality interaction method, device and system | |
US20160110922A1 (en) | Method and system for enhancing communication by using augmented reality | |
WO2014094199A1 (en) | Facial movement based avatar animation | |
KR20230107655A (en) | Body animation sharing and remixing | |
JP6861287B2 (en) | Effect sharing methods and systems for video | |
US20220197027A1 (en) | Conversation interface on an eyewear device | |
US11553009B2 (en) | Information processing device, information processing method, and computer program for switching between communications performed in real space and virtual space | |
JPWO2018139203A1 (en) | Information processing apparatus, information processing method, and program | |
JP6721727B1 (en) | Information processing apparatus control program, information processing apparatus control method, and information processing apparatus | |
EP4268056A1 (en) | Conversation interface on an eyewear device | |
US11756251B2 (en) | Facial animation control by automatic generation of facial action units using text and speech | |
WO2024027819A1 (en) | Image processing method and apparatus, device, and storage medium | |
JP2020136921A (en) | Video call system and computer program | |
US11967343B2 (en) | Automated video editing | |
WO2017193343A1 (en) | Media file sharing method, media file sharing device and terminal | |
KR20160039776A (en) | Method, system and computer-readable recording medium for creating message containing virtual space and virtual object | |
US20220254082A1 (en) | Method of character animation based on extraction of triggers from an av stream | |
US20220101000A1 (en) | Qr generation system for augmented reality continuity | |
WO2022192883A1 (en) | Automated video editing to add visual or audio effect corresponding to a detected motion of an object in the video | |
US20150172376A1 (en) | Method for providing social network service and electronic device implementing the same | |
US20230342898A1 (en) | Image visual quality assessment | |
US20230342877A1 (en) | Cached cloud rendering | |
JP6967041B2 (en) | Electronic devices, methods, programs and systems for identifier information inference using image recognition models | |
JP7335221B2 (en) | Electronic device, method, program and system for identifier information inference using image recognition model | |
US20240135650A1 (en) | Electronic device and method for displaying modification of virtual object and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200618 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6721727 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |