JP2019133673A - Method of controlling character in virtual space - Google Patents

Method of controlling character in virtual space Download PDF

Info

Publication number
JP2019133673A
JP2019133673A JP2019021269A JP2019021269A JP2019133673A JP 2019133673 A JP2019133673 A JP 2019133673A JP 2019021269 A JP2019021269 A JP 2019021269A JP 2019021269 A JP2019021269 A JP 2019021269A JP 2019133673 A JP2019133673 A JP 2019133673A
Authority
JP
Japan
Prior art keywords
user
character
controller
input
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019021269A
Other languages
Japanese (ja)
Inventor
義仁 近藤
Yoshihito Kondo
義仁 近藤
雅人 室橋
Masato Murohashi
雅人 室橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XVI Inc
Original Assignee
XVI Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XVI Inc filed Critical XVI Inc
Priority to JP2019021269A priority Critical patent/JP2019133673A/en
Publication of JP2019133673A publication Critical patent/JP2019133673A/en
Pending legal-status Critical Current

Links

Abstract

To provide a character control method which provides a user with a deeper sense of immersion in a virtual space.SOLUTION: A method of controlling a character in a predetermined image region provided to a plurality of user devices is disclosed, the method comprising steps of: placing a character played by a first user in the predetermined image region displayed on each user device; receiving an input of the first user from a first user device; controlling motion of the character according to the input from the first user; displaying a plurality of selectable objects on each user device; acknowledging selection of one object of the plurality of objects from a user device associated with a second user; and displaying the one object in the predetermined image region. When an input from the first user for the one object is detected, the character is controlled to interact with the object.SELECTED DRAWING: Figure 8

Description

本発明は、仮想空間におけるキャラクタの制御方法に関する。詳しくは、ユーザの頭部等の身体に装着する装置、例えば、ヘッドマウントディスプレイ(Head Mounted Display:HMD)を利用したキャラクタの制御方法に関する。   The present invention relates to a method for controlling a character in a virtual space. More specifically, the present invention relates to a character control method using a device mounted on a body such as a user's head, for example, a head mounted display (HMD).

モーションキャプチャは、現実空間における演者の動きをデジタル的にキャプチャする技術であり、キャプチャした動きは、動画などのコンピュータアニメーションおよびゲーム等におけるキャラクタの動きの表現に利用される。   Motion capture is a technique for digitally capturing the movement of a performer in a real space, and the captured movement is used for computer animation such as a moving image and expression of character movement in a game or the like.

従来、モーションキャプチャ技術として、光学式や機械式等の方式が採用されている。まず、光学式の例として、演者がマーカを備えた全身スーツを装着し、部屋や撮影スタジオ等の一定の空間にマーカをトラッキングする、デジタルカメラ等の複数のトラッカを配置することで、トラッカがマーカの反射を捕捉し、フレーム毎のマーカ位置の変化を分析することで、演者の時系列の動きを空間的表現として構成する。この空間的表現を仮想空間におけるキャラクタの制御に適用することで、演者の動きをキャラクタの動きに再現することが可能となる。光学式のモーションキャプチャ技術のトラッキング精度を向上させる技術の例として、例えば、特開2012−248233号に開示される技術が挙げられる。また、機械式の例として、演者の全身に加速度・ジャイロ・地磁気センサを装着し、センサにより検出される演者の動きを仮想空間におけるキャラクタの制御に適用する方法がある。センサを利用したモーションキャプチャ技術の例として、例えば、特開2016−126500号に開示される技術が挙げられる。   Conventionally, as a motion capture technique, an optical type or a mechanical type has been adopted. First, as an optical example, the tracker is equipped with a plurality of trackers, such as digital cameras, in which a performer wears a full-body suit equipped with markers and tracks the markers in a certain space such as a room or a photography studio. By capturing the reflection of the marker and analyzing the change of the marker position for each frame, the time-series movement of the performer is constructed as a spatial expression. By applying this spatial expression to the control of the character in the virtual space, it is possible to reproduce the movement of the performer as the movement of the character. As an example of a technique for improving the tracking accuracy of the optical motion capture technique, for example, a technique disclosed in JP 2012-248233 A can be cited. Further, as an example of a mechanical type, there is a method in which an accelerometer, gyroscope, and geomagnetic sensor are attached to the entire body of the performer, and the motion of the performer detected by the sensor is applied to the control of the character in the virtual space. As an example of a motion capture technique using a sensor, for example, a technique disclosed in JP-A-2006-126500 can be cited.

特開2012−248233号公報JP 2012-248233 A 特開2016−126500号公報JP-A-2006-126500

上記文献に開示される技術は、仮想空間におけるキャラクタの制御のために、専用のモーションキャプチャシステムを採用することを必要とする。特に、演者は、マーカまたはセンサを全身に装着する必要があり、精度向上のため、マーカやセンサの数を多くすることが必要となる。   The technique disclosed in the above-mentioned document requires that a dedicated motion capture system is employed for controlling the character in the virtual space. In particular, the performer needs to wear markers or sensors throughout the body, and it is necessary to increase the number of markers and sensors in order to improve accuracy.

そこで、本発明は、現実空間における演者の動きを、キャラクタの動きとして実現しつつ、キャラクタとユーザとが一体感を共有可能な技術を提供することを目的とする。   Accordingly, an object of the present invention is to provide a technique that allows a character and a user to share a sense of unity while realizing the movement of the performer in the real space as the movement of the character.

本発明における一実施形態により提供される、仮想空間におけるキャラクタの制御方法は、複数のユーザ装置に提供される所定の画像領域におけるキャラクタの制御方法であって、複数のユーザ装置の各々のユーザ装置に表示される所定の画像領域に第1のユーザが演じるキャラクタを配置するステップと、第1のユーザ装置から第1のユーザの入力を受け付けるステップと、前記第1のユーザの入力に基づいて、前記キャラクタの動作を制御するステップと、前記各々のユーザ装置に、選択可能な複数のオブジェクトを表示するステップと、前記複数のユーザ装置のいずれかの、第2のユーザに関連付けられたユーザ装置から、前記複数のオブジェクトのうち一のオブジェクトの選択を受け付けるステップと、前記一のオブジェクトを前記所定の画像領域に表示するステップと、前記一のオブジェクトに対する前記第1のユーザの入力を検出した場合、前記キャラクタが前記オブジェクトに相互作用するよう制御させることを特徴とする。 A character control method in a virtual space provided by an embodiment of the present invention is a character control method in a predetermined image area provided to a plurality of user devices, and each user device of a plurality of user devices. A step of arranging a character played by the first user in a predetermined image area displayed on the screen, a step of receiving an input of the first user from the first user device, and an input of the first user, A step of controlling the movement of the character; a step of displaying a plurality of selectable objects on each of the user devices; and a user device associated with a second user of any of the plurality of user devices. Receiving a selection of one object among the plurality of objects; and And displaying a constant image area, when detecting an input of said first user for said one object, the character is equal to or to control so as to interact with the object.

本発明によれば、現実空間におけるユーザの動きをキャラクタの動きとして再現し、キャラクタとユーザとが一体感を共有することが可能となる。   According to the present invention, the movement of the user in the real space is reproduced as the movement of the character, and the character and the user can share a sense of unity.

第1の実施形態にかかるヘッドマウントディスプレイ110の外観の模式図を示す。The schematic diagram of the external appearance of the head mounted display 110 concerning 1st Embodiment is shown. 第1の実施形態にかかるコントローラ210の外観の模式図を示す。The schematic diagram of the external appearance of the controller 210 concerning 1st Embodiment is shown. 第1の実施形態にかかるHMDシステム300の構成図を示す。1 is a configuration diagram of an HMD system 300 according to a first embodiment. 第1の実施形態にかかるHMD110の機能構成図を示す。The functional block diagram of HMD110 concerning 1st Embodiment is shown. 第1の実施形態にかかるコントローラ210の機能構成図を示す。The functional block diagram of the controller 210 concerning 1st Embodiment is shown. 第1の実施形態にかかる画像生成装置310の機能構成図を示す。1 is a functional configuration diagram of an image generation apparatus 310 according to a first embodiment. 第1の実施形態にかかる、ユーザ装置に表示される仮想空間の一例を示す図である。It is a figure which shows an example of the virtual space displayed on a user apparatus concerning 1st Embodiment. 第1の実施形態にかかる、キャラクタの制御方法を説明するフローチャートを示す。The flowchart explaining the control method of the character concerning 1st Embodiment is shown. 第1の実施形態にかかる、キャラクタの制御方法を説明するフローチャートを示す。The flowchart explaining the control method of the character concerning 1st Embodiment is shown. 第2の実施形態にかかる、画像生成装置1010の機能構成図を示す。The functional block diagram of the image generation apparatus 1010 concerning 2nd Embodiment is shown. 第2の実施形態にかかる、ユーザ装置に表示される仮想空間の一例を示す図である。It is a figure which shows an example of the virtual space displayed on a user apparatus concerning 2nd Embodiment. 第2の実施形態にかかる、ユーザ装置に表示される仮想空間の他の一例を示す図である。It is a figure which shows another example of the virtual space displayed on a user apparatus concerning 2nd Embodiment. 第2の実施形態において、仮想空間上でキャラクタとアイテムが相互作用する処理の一例としてのフローチャートを示す。In 2nd Embodiment, the flowchart as an example of the process in which a character and an item interact on a virtual space is shown. 第3の実施形態にかかる、仮想空間上でキャラクタとアイテムが相互作用する処理の一例としてのフローチャートを示す。The flowchart as an example of the process which a character and an item interact on virtual space concerning 3rd Embodiment is shown. 画像生成装置1010のアイテムデータ格納部1054に格納されるアイテム管理テーブル1510の例を示す。An example of the item management table 1510 stored in the item data storage unit 1054 of the image generation apparatus 1010 is shown. 第4の実施形態にかかる、仮想空間上でキャラクタとアイテムが相互作用する処理の一例としてのフローチャートを示す。The flowchart as an example of the process which a character and an item interact on virtual space concerning 4th Embodiment is shown. 画像生成装置1010のユーザデータ格納部1055に格納されるユーザランキング管理テーブル1610の例を示す。An example of the user ranking management table 1610 stored in the user data storage unit 1055 of the image generation apparatus 1010 is shown. 第5の実施形態にかかる、演者ユーザ用の仮想空間ユーザインターフェースの一例を示す。An example of the virtual space user interface for performer users concerning a 5th embodiment is shown.

<実施形態1>
本発明の一実施形態に係るヘッドマウントディスプレイシステムを制御するプログラムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
<Embodiment 1>
A specific example of a program for controlling a head mounted display system according to an embodiment of the present invention will be described below with reference to the drawings. In addition, this invention is not limited to these illustrations, is shown by the claim, and intends that all the changes within the meaning and range equivalent to the claim are included. In the following description, the same reference numerals are given to the same elements in the description of the drawings, and redundant descriptions are omitted.

図1は、本実施形態にかかるヘッドマウントディスプレイ(以下:HMD)110の外観の模式図を示す。HMD110はユーザの頭部に装着され、ユーザの左右の眼前に配置されるよう表示パネル120を備える。表示パネルとしては、光学透過型と非透過型のディスプレイが考えられるが、本実施形態では、より没入感を提供可能な非透過型の表示パネルを例示する。表示パネル120には、左目用画像と右目用画像とが表示され、両目の視差を利用することにより立体感のある画像をユーザに提供することができる。左目用画像と右目用画像とを表示することができれば、左目用ディスプレイと右目用ディスプレイとを個別に備えることも可能であるし、左目用及び右目用の一体型のディスプレイを備えることも可能である。 FIG. 1 is a schematic view of the appearance of a head mounted display (hereinafter referred to as HMD) 110 according to the present embodiment. The HMD 110 is mounted on the user's head and includes a display panel 120 so as to be placed in front of the user's left and right eyes. As the display panel, an optical transmission type and a non-transmission type display are conceivable. In this embodiment, a non-transmission type display panel capable of providing a more immersive feeling is exemplified. The display panel 120 displays a left-eye image and a right-eye image, and can provide a user with a stereoscopic effect by using parallax between both eyes. If the image for the left eye and the image for the right eye can be displayed, the display for the left eye and the display for the right eye can be provided separately, or an integrated display for the left eye and the right eye can be provided. is there.

さらに、HMD110の筐体部130は、センサ140を備える。センサは、ユーザの頭部の向きや傾きといった動きを検出するために、図示しないが、例えば、磁気センサ、加速度センサ、もしくはジャイロセンサのいずれか、またはこれらの組み合わせを備えることができる。ユーザの頭部の垂直方向をY軸とし、Y軸と直交する軸のうち、表示パネル120の中心とユーザとを結ぶ、ユーザの前後方向に相当する軸をZ軸とし、Y軸及びZ軸と直交し、ユーザの左右方向に相当する軸をX軸とするとき、センサ140は、X軸まわりの回転角(いわゆる、ピッチ角)、Y軸まわりの回転角(いわゆる、ヨー角)、Z軸まわりの回転角(いわゆる、ロール角)を検出することができる。 Furthermore, the housing part 130 of the HMD 110 includes a sensor 140. Although not shown in the figure, the sensor may include, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, or a combination thereof, in order to detect movements such as the orientation and tilt of the user's head. The vertical direction of the user's head is the Y axis, and among the axes orthogonal to the Y axis, the axis corresponding to the user's front-rear direction connecting the center of the display panel 120 and the user is the Z axis, and the Y axis and the Z axis And the axis corresponding to the left and right direction of the user is the X axis, the sensor 140 has a rotation angle around the X axis (so-called pitch angle), a rotation angle around the Y axis (so-called yaw angle), Z A rotation angle around the axis (so-called roll angle) can be detected.

さらに、またはセンサ140に代えて、HMD110の筐体部130は、複数の光源150(例えば、赤外光LED、可視光LED)を備えることもでき、HMD110の外部(例えば、室内等)に設置されたカメラ(例えば、赤外光カメラ、可視光カメラ)がこれらの光源を検出することで、特定の空間におけるHMD110の位置、向き、傾きを検出することができる。または、同じ目的で、HMD110に、HMD110の筐体部130に設置された光源を検出するためのカメラを備えることもできる。 In addition, or instead of the sensor 140, the housing unit 130 of the HMD 110 can include a plurality of light sources 150 (for example, infrared light LEDs and visible light LEDs) and is installed outside the HMD 110 (for example, indoors). The detected camera (for example, an infrared light camera or a visible light camera) detects these light sources, so that the position, orientation, and inclination of the HMD 110 in a specific space can be detected. Alternatively, for the same purpose, the HMD 110 may be provided with a camera for detecting a light source installed in the housing part 130 of the HMD 110.

さらに、HMD110の筐体部130は、アイトラッキング・センサを備えることもできる。アイトラッキング・センサは、ユーザの左目及び右目の視線方向及び注視点を検出するために用いられる。アイトラッキング・センサとしては様々な方式が考えられるが、例えば、左目および右目に弱い赤外光を照射してできる角膜上の反射光の位置を基準点とし、反射光の位置に対する瞳孔の位置により視線方向を検出し、左目及び右目の視線方向の交点を注視点として検出する方法などが考えられる。 Further, the housing part 130 of the HMD 110 can include an eye tracking sensor. The eye tracking sensor is used to detect the gaze direction and the gazing point of the user's left eye and right eye. Various types of eye tracking sensors are conceivable. For example, the position of the reflected light on the cornea formed by irradiating the left eye and the right eye with weak infrared light is used as a reference point, and depending on the position of the pupil relative to the position of the reflected light. A method of detecting the line-of-sight direction and detecting the intersection of the left-eye and right-eye line-of-sight directions as a gazing point is conceivable.

図2は、本実施形態にかかるコントローラ210の外観の模式図を示す。コントローラ210により、仮想空間内において、ユーザが所定の入力を行うことをサポートすることができる。コントローラ210は、左手用220及び右手用230のコントローラのセットとして構成することができる。左手用コントローラ220及び右手用コントローラ230は、各々操作用トリガーボタン240、赤外線LED250、センサ260、ジョイスティック270、メニューボタン280を有することができる。   FIG. 2 is a schematic diagram of the appearance of the controller 210 according to the present embodiment. The controller 210 can support the user to perform a predetermined input in the virtual space. The controller 210 may be configured as a set of left hand 220 and right hand 230 controllers. The left hand controller 220 and the right hand controller 230 may each include an operation trigger button 240, an infrared LED 250, a sensor 260, a joystick 270, and a menu button 280.

操作用トリガーボタン240は、コントローラ210のグリップ235を把持したときに、中指及び人差し指でトリガーを引くような操作を行うことを想定した位置に240a、240bとして配置される。コントローラ210の両側面から下方にリング状に形成されるフレーム245には、複数の赤外線LED250が備えられ、コントローラ外部に備えられるカメラ(図示せず)により、これらの赤外線LEDの位置を検出することで、特定の空間におけるコントローラ210の位置、向き及び傾きを検出することができる。   The operation trigger button 240 is arranged as 240a and 240b at positions that are assumed to perform an operation of pulling the trigger with the middle finger and the index finger when the grip 235 of the controller 210 is gripped. A frame 245 formed in a ring shape downward from both side surfaces of the controller 210 is provided with a plurality of infrared LEDs 250, and the position of these infrared LEDs is detected by a camera (not shown) provided outside the controller. Thus, the position, orientation and inclination of the controller 210 in a specific space can be detected.

また、コントローラ210は、コントローラ210の向きや傾きといった動きを検出するために、センサ260を内蔵することができる。センサ260として、図示しないが、例えば、磁気センサ、加速度センサ、もしくはジャイロセンサのいずれか、またはこれらの組み合わせを備えることができる。さらに、コントローラ210の上面には、ジョイスティック270及びメニューボタン280を備えることができる。ジョイスティック270は、基準点を中心に360度方向に動かすことができ、コントローラ210のグリップ235を把持したときに、親指で操作されることが想定される。メニューボタン280もまた同様に、親指で操作されることが想定される。さらに、コントローラ210は、コントローラ210を操作するユーザの手に振動を与えるためのバイブレータ(図示せず)を内蔵することもできる。ボタンやジョイスティックを介したユーザの入力内容やセンサ等を介したコントローラ210の位置、向き及び傾きといった情報を出力するため、また、ホストコンピュータからの情報を受信するために、コントローラ210は、入出力部及び通信部を有する。 In addition, the controller 210 can incorporate a sensor 260 in order to detect movements such as the orientation and inclination of the controller 210. Although not illustrated, the sensor 260 can include, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, or a combination thereof. Furthermore, a joystick 270 and a menu button 280 can be provided on the upper surface of the controller 210. The joystick 270 can be moved 360 degrees around the reference point, and is assumed to be operated with the thumb when the grip 235 of the controller 210 is gripped. Similarly, it is assumed that the menu button 280 is operated with the thumb. Furthermore, the controller 210 can incorporate a vibrator (not shown) for applying vibration to the hand of the user who operates the controller 210. In order to output information such as the input contents of the user via a button or joystick, the position, orientation, and tilt of the controller 210 via a sensor or the like, and to receive information from the host computer, the controller 210 has an input / output Part and a communication part.

ユーザがコントローラ210を把持し、各種ボタンやジョイスティックを操作することの有無、及び赤外線LEDやセンサにより検出される情報によって、システムはユーザの手の動きや姿勢を決定し、仮想空間内において擬似的にユーザの手を表示させ、動作させることができる。 The system determines the movement and posture of the user's hand based on whether the user holds the controller 210 and operates various buttons and joysticks, and information detected by the infrared LED and sensor. The user's hand can be displayed and operated.

図3は、本実施形態にかかるHMDシステム300の構成図を示す。HMDシステム300は、例えば、HMD110、コントローラ210及びホストコンピュータとして機能する画像生成装置310で構成することができる。さらに、HMD110やコントローラ210の位置、向き及び傾き等を検出するための赤外線カメラ(図示せず)等を追加することもできる。これらの装置は、相互に、有線又は無線手段により接続することができる。例えば、各々の装置にUSBポートを備え、ケーブルで接続することで通信を確立することもできるし、他に、HDMI、有線LAN、赤外線、Bluetooth(登録商標)、WiFi(登録商標)等の有線又は無線により通信を確立することもできる。画像生成装置310は、PC、ゲーム機、携帯通信端末等計算処理機能を有する装置であればよい。また、画像生成装置310は、インターネット等のネットワークを介して401A、401B、401C等の複数のユーザ装置と接続し、生成した画像をストリーミングまたはダウンロードの形態で送信することができる。ユーザ装置401A等は、各々インターネットブラウザを備えるか、適切なビューワを備えることで送信された画像を再生することができる。ここで、画像生成装置310は、複数のユーザ装置に対し、直接画像を送信することもできるし、他のコンテンツサーバを介して画像を送信することもできる。 FIG. 3 is a configuration diagram of the HMD system 300 according to the present embodiment. The HMD system 300 can be configured by, for example, an HMD 110, a controller 210, and an image generation apparatus 310 that functions as a host computer. Furthermore, an infrared camera (not shown) for detecting the position, orientation, inclination, and the like of the HMD 110 and the controller 210 can be added. These devices can be connected to each other by wired or wireless means. For example, each device is equipped with a USB port, and communication can be established by connecting with a cable. Besides, wired such as HDMI, wired LAN, infrared, Bluetooth (registered trademark), WiFi (registered trademark), etc. Alternatively, communication can be established wirelessly. The image generation apparatus 310 may be an apparatus having a calculation processing function such as a PC, a game machine, or a mobile communication terminal. Further, the image generation apparatus 310 can connect to a plurality of user apparatuses such as 401A, 401B, and 401C via a network such as the Internet, and transmit the generated image in a streaming or download form. Each of the user devices 401A and the like can reproduce an image transmitted by being provided with an Internet browser or an appropriate viewer. Here, the image generation apparatus 310 can directly transmit an image to a plurality of user apparatuses, or can transmit an image via another content server.

図4は、本実施形態にかかるHMD110の機能構成図を示す。図1において述べたように、HMD110は、センサ140を備えることができる。センサとしては、ユーザの頭部の向きや傾きといった動きを検出するために、図示しないが、例えば、磁気センサ、加速度センサ、もしくはジャイロセンサのいずれか、またはこれらの組み合わせを備えることができる。さらに、アイトラッキング・センサを備えることもできる。アイトラッキング・センサは、ユーザの左目及び右目の視線方向及び注視点を検出するために用いられる。さらに精度よく、ユーザの頭部の向きや傾きといった動きを検出したり、ユーザの頭部の位置を検出したりするために、赤外光や紫外光といったLED150を備えることもできる。また、HMDの外景を撮影するためのカメラ160を備えることができる。また、ユーザの発話を集音するためのマイク170、音声を出力するためのヘッドフォン180を備えることもできる。なお、マイクやヘッドフォンはHMD110とは別個独立した装置として有することもできる。 FIG. 4 is a functional configuration diagram of the HMD 110 according to the present embodiment. As described in FIG. 1, the HMD 110 may include a sensor 140. As a sensor, although not shown in order to detect movements such as the orientation and inclination of the user's head, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, or a combination thereof can be provided. Further, an eye tracking sensor can be provided. The eye tracking sensor is used to detect the gaze direction and the gazing point of the user's left eye and right eye. Furthermore, in order to detect movements such as the orientation and tilt of the user's head with high accuracy and to detect the position of the user's head, an LED 150 such as infrared light or ultraviolet light may be provided. Moreover, the camera 160 for image | photographing the outside scene of HMD can be provided. Moreover, the microphone 170 for collecting a user's utterance and the headphone 180 for outputting an audio | voice can also be provided. Note that the microphone and the headphone can be provided as an independent device from the HMD 110.

さらに、HMD110は、例えば、コントローラ210や画像生成装置310等の周辺装置との有線による接続を確立するための入出力部190を備えることができ、赤外線、Bluetooth(登録商標)やWiFi(登録商標)等無線による接続を確立するための通信部115を備えることができる。センサ140により取得されたユーザの頭部の向きや傾きといった動きに関する情報は、制御部125によって、入出力部190及び/又は通信部115を介して画像生成装置310に送信される。詳細は後述するが、画像生成装置310において、ユーザの頭部の動きに基づいて生成された画像は、入出力部190及び/又は通信部115を介して受信され、制御部125によって表示部120に出力される。 Furthermore, the HMD 110 can include, for example, an input / output unit 190 for establishing a wired connection with peripheral devices such as the controller 210 and the image generation device 310, and can include infrared, Bluetooth (registered trademark), and WiFi (registered trademark). The communication unit 115 for establishing a wireless connection can be provided. Information relating to movements such as the orientation and tilt of the user's head acquired by the sensor 140 is transmitted by the control unit 125 to the image generation apparatus 310 via the input / output unit 190 and / or the communication unit 115. Although details will be described later, the image generated by the image generation apparatus 310 based on the movement of the user's head is received via the input / output unit 190 and / or the communication unit 115, and the display unit 120 is displayed by the control unit 125. Is output.

図5は、本実施形態にかかるコントローラ210の機能構成図を示す。図2において述べたように、コントローラ210は、コントローラ210は、左手用220及び右手用230のコントローラのセットとして構成することができるが、いずれのコントローラにおいても、操作用トリガーボタン240、ジョイスティック270、メニューボタン280といった操作部245を備えることができる。また、コントローラ210は、コントローラ210の向きや傾きといった動きを検出するために、センサ260を内蔵することができる。センサ260として、図示しないが、例えば、磁気センサ、加速度センサ、もしくはジャイロセンサのいずれか、またはこれらの組み合わせを備えることができる。さらに、複数の赤外線LED250が備えられ、コントローラ外部に備えられるカメラ(図示せず)により、これらの赤外線LEDの位置を検出することで、特定の空間におけるコントローラ210の位置、向き及び傾きを検出することができる。コントローラ210は、例えば、HMD110や画像生成装置310等の周辺装置との有線による接続を確立するための入出力部255を備えることができ、赤外線、Bluetooth(登録商標)やWiFi(登録商標)等無線による接続を確立するための通信部265を備えることができる。ユーザにより操作部245を介して入力された情報及びセンサ260によって取得されたコントローラ210の向きや傾きといった情報は、入出力部255及び/又は通信部265を介して画像生成装置310に送信される。 FIG. 5 is a functional configuration diagram of the controller 210 according to the present embodiment. As described in FIG. 2, the controller 210 can be configured as a set of controllers for the left hand 220 and the right hand 230, but in either controller, the operation trigger button 240, the joystick 270, An operation unit 245 such as a menu button 280 can be provided. In addition, the controller 210 can incorporate a sensor 260 in order to detect movements such as the orientation and inclination of the controller 210. Although not illustrated, the sensor 260 can include, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, or a combination thereof. Further, a plurality of infrared LEDs 250 are provided, and the position, orientation, and inclination of the controller 210 in a specific space are detected by detecting the positions of these infrared LEDs with a camera (not shown) provided outside the controller. be able to. The controller 210 can include, for example, an input / output unit 255 for establishing a wired connection with a peripheral device such as the HMD 110 or the image generation device 310, such as infrared rays, Bluetooth (registered trademark), WiFi (registered trademark), or the like. A communication unit 265 for establishing a wireless connection can be provided. Information input by the user via the operation unit 245 and information such as the orientation and inclination of the controller 210 acquired by the sensor 260 are transmitted to the image generation apparatus 310 via the input / output unit 255 and / or the communication unit 265. .

図6は、本実施形態にかかる画像生成装置310の機能構成図を示す。画像生成装置310としては、HMD110やコントローラ210から送信された、ユーザ入力情報やセンサ等により取得されたユーザの頭部動きやコントローラの動きや操作に関する情報を記憶し、所定の計算処理を行い、画像を生成するための機能を有する、PC、ゲーム機及び携帯通信端末等といった装置を使用することができる。画像生成装置310は、例えば、HMD110やコントローラ210等の周辺装置との有線による接続を確立するための入出力部320を備えることができ、赤外線、Bluetooth(登録商標)やWiFi(登録商標)等無線による接続を確立するための通信部330を備えることができる。入出力部320及び/又は通信部330を介して、HMD110及び/又はコントローラ210から受信された、ユーザの頭部の動きやコントローラの動きや操作に関する情報は、制御部340において、ユーザの位置、視線、姿勢等の動作、発話、操作等を含めた入力内容として検出され、ユーザの入力内容に応じて、記憶部350に格納された制御プログラムを実行することで、キャラクタの制御を行い、画像を生成するといった処理がなされる。制御部340は、CPUで構成することもできるが、画像処理に特化したGPUをさらに設けることで、情報処理と画像処理を分散化し、全体の処理の効率化を図ることもできる。画像生成装置310はまた、他の計算処理装置と通信を行い、他の計算処理装置に情報処理や画像処理を分担させることもできる。 FIG. 6 is a functional configuration diagram of the image generation apparatus 310 according to the present embodiment. The image generation device 310 stores information about the user's head movement and controller movement and operation acquired from the user input information and sensors transmitted from the HMD 110 and the controller 210, and performs predetermined calculation processing. Devices such as a PC, a game machine, and a mobile communication terminal having a function for generating an image can be used. The image generation device 310 can include an input / output unit 320 for establishing a wired connection with peripheral devices such as the HMD 110 and the controller 210, for example, infrared, Bluetooth (registered trademark), WiFi (registered trademark), etc. A communication unit 330 for establishing a wireless connection can be provided. Information on the movement of the user's head and the movement and operation of the controller received from the HMD 110 and / or the controller 210 via the input / output unit 320 and / or the communication unit 330 is transmitted to the control unit 340 in the position of the user, Characters are controlled by executing a control program that is detected as input content including actions such as line of sight, posture, etc., utterances, operations, etc., and stored in the storage unit 350 according to the input content of the user. Is generated. The control unit 340 can be configured by a CPU, but by further providing a GPU specialized for image processing, information processing and image processing can be distributed, and overall processing efficiency can be improved. The image generation apparatus 310 can also communicate with other calculation processing apparatuses and share information processing and image processing with other calculation processing apparatuses.

さらに、画像生成装置310の制御部340は、HMD110及び/又はコントローラ210から受信された、ユーザの頭部の動きやユーザの発話、また、コントローラの動きや操作に関する情報を検出するユーザ入力検出部610と、予め記憶部350のキャラクタデータ格納部650に格納されたキャラクタに対して、制御プログラム格納部に格納された制御プログラムを実行するキャラクタ制御部629と、キャラクタ制御に基づいて画像を生成する画像生成部630を有する。ここでキャラクタの動きの制御については、HMD110やコントローラ210を介して検出されたユーザ頭部の向きや傾き、手の動きといった情報を、人間の身体の関節の動きや制約に則って作成されたボーン構造の各部の動きに変換し、予め格納されたキャラクタデータに対して、ボーン構造を関連付けることで、ボーン構造の動きを適用させることで実現される。 Further, the control unit 340 of the image generation apparatus 310 is a user input detection unit that detects information about the movement of the user's head and the user's speech, and the movement and operation of the controller, received from the HMD 110 and / or the controller 210. 610, a character control unit 629 that executes a control program stored in the control program storage unit for a character stored in advance in the character data storage unit 650 of the storage unit 350, and an image based on the character control An image generation unit 630 is included. Here, for the movement control of the character, information such as the orientation and tilt of the user's head detected by the HMD 110 and the controller 210, and the movement of the hand is created in accordance with the movements and restrictions of the human body joints. This is realized by applying the motion of the bone structure by converting the motion of each part of the bone structure and associating the bone structure with the character data stored in advance.

記憶部350は、上述のキャラクタデータ格納部650に、キャラクタのイメージデータのほか、キャラクタの属性等キャラクタに関連する情報を格納する。また、制御プログラム格納部670は、仮想空間におけるキャラクタの動作や表情を制御するためのプログラムを格納する。ストリーミングデータ格納部660は、画像生成部630で生成された画像を格納する。 The storage unit 350 stores, in the character data storage unit 650 described above, information related to the character, such as character attributes, in addition to the character image data. In addition, the control program storage unit 670 stores a program for controlling the movement and facial expression of the character in the virtual space. The streaming data storage unit 660 stores the image generated by the image generation unit 630.

図7は、本実施形態にかかる、ユーザ装置に表示される仮想空間の一例を示す図である。図7に示すように、ユーザ装置は、内蔵するウェブブラウザにエンベッドされる画像を表示するためのビューワ等の画像表示部710において、キャラクタ720を含む仮想空間の画像を表示することができる。仮想空間に配置されるキャラクタ720は、演者としてのユーザに装着されるHMD110及び/またはコントローラ210を介した、ユーザの頭部の傾きや向きといった動き、ユーザの発話内容、または、コントローラ210の傾きや向きといった動き、コントローラ210を介したユーザの操作内容といった、ユーザ入力に基づいて、動作することができる。 FIG. 7 is a diagram illustrating an example of a virtual space displayed on the user device according to the present embodiment. As shown in FIG. 7, the user device can display an image of a virtual space including a character 720 on an image display unit 710 such as a viewer for displaying an image embedded in a built-in web browser. The character 720 arranged in the virtual space is a movement such as the tilt and orientation of the user's head, the user's utterance content, or the tilt of the controller 210 via the HMD 110 and / or the controller 210 worn by the user as a performer. It is possible to operate based on user input such as movement such as direction and user operation content via the controller 210.

図8及び図9は、本実施形態にかかる、キャラクタの制御方法を説明するフローチャートを示す。まず、画像生成装置310のユーザ入力検出部610は、入出力部320及び/又は通信部330を介して、HMD110及び/又はコントローラ210から、ユーザの頭部の動きやユーザの発話、また、コントローラの動きや操作に関する情報を受信する(S810)。続いて、ユーザ入力検出部610は、ユーザの入力内容が、HMD110から入力されたものであるか、または、コントローラ210から入力されたものであるかを確認する(S820)。S820の処理が、HMD110から入力されたものである場合は、具体的な入力内容を確認するステップ(S830〜S850)に進む。S820の処理が、コントローラ210から入力されたものである場合は、図9に示す処理へと進む。 8 and 9 are flowcharts for explaining a character control method according to this embodiment. First, the user input detection unit 610 of the image generation apparatus 310 receives the movement of the user's head, the user's speech, and the controller from the HMD 110 and / or the controller 210 via the input / output unit 320 and / or the communication unit 330. Information on the movement and operation of the user is received (S810). Subsequently, the user input detection unit 610 confirms whether the input content of the user is input from the HMD 110 or input from the controller 210 (S820). When the process of S820 is input from the HMD 110, the process proceeds to steps (S830 to S850) for confirming specific input contents. If the process of S820 is input from the controller 210, the process proceeds to the process shown in FIG.

S820の処理が、HMD110から入力されたものである場合は、ユーザ入力検出部610は、まず、HMD110から入力された内容が、ユーザ頭部の動作に関する情報であるかを確認する(S830)。具体的には、HMD110のセンサ140から入力された情報がユーザの頭部の向きや傾き(例えば、ユーザの頭部を基準としたXYZ軸まわりの回転角)に関する場合、キャラクタ制御部620は、キャラクタの頭部の動きを変化させることができる(S860)。ここで、例えば、HMD110のジャイロセンサにより検出されたユーザの頭部の向きや傾きといった動きに関する情報を、人間の関節の動きや制約を規定したボーン構造の頭部の動きに変換し、ボーン構造の頭部の動きをキャラクタデータ格納部650に格納されたキャラクタデータの頭部の動きに適用することで、キャラクタの動きを制御することができる。例えば、ジャイロセンサにマイクより、Y軸回りに「ロール角:−(マイナス)30度」という情報を受信した場合、キャラクタ制御部620は、その情報をキャラクタの頭部を左方向に30度首を振るよう変化させる処理を行う。さらに、キャラクタの表情を変化させることもできる。キャラクタの表情キャラクタの表情を構成する要素として、キャラクタの顔を構成するパーツ、例えば、眉、眼、鼻、口等に分解することができ、また、各々の動きのパターンや動きの度合(動きの大きさ、速さ)をパラメータとして持っておくことができる。これらのパーツのパラメータを組み合わせることで、キャラクタは喜怒哀楽といった様々な表情を有することができる。そして、ユーザの頭部の動きを検出することで、その動きに応じて、そのパラメータをランダムに変更するよう制御することができる。これにより、キャラクタの自然な表情を再現することができる。または、ユーザ入力検出部610は、その入力内容が、ユーザの注視点に関する情報であるかを確認する(S840)。注視点は、各種センサを介して得られるユーザの頭部の向きや傾きに関する情報を基に視線方向を算出するか、または、アイトラッキング・センサを介して直接得られる。キャラクタ制御部620は、視線方向または注視点の示す位置に応じて、キャラクタの視線を変化させることができる(S870)。または、ユーザ入力検出部610は、ユーザ入力内容が、ユーザの発話に関する情報であるかを確認する(S850)。具体的には、ユーザ入力内容が、HMD110のマイク170から入力された音声である場合、キャラクタ制御部620は、その声の大きさに応じて、キャラクタの口の大きさを制御したり、キャラクタの表情パラメータをランダムに変更するよう制御することができる(S880)。ここで、ユーザはHMD110を頭部に装着せずに、例えば、頭部の上に載せて、外部のモニタに表示されるキャラクタの画像を見ながら、HMD110の動きを変化させることで、HMD110の動きに応じたキャラクタの動きを再現することもできる。 When the process of S820 is input from the HMD 110, the user input detection unit 610 first confirms whether the content input from the HMD 110 is information regarding the motion of the user's head (S830). Specifically, when the information input from the sensor 140 of the HMD 110 relates to the orientation and inclination of the user's head (for example, the rotation angle around the XYZ axes with respect to the user's head), the character control unit 620 The movement of the character's head can be changed (S860). Here, for example, information related to the movement of the user's head, such as the orientation and inclination of the user, detected by the gyro sensor of the HMD 110 is converted into the movement of the head of the bone structure that defines the movement and restrictions of the human joint, The movement of the character can be controlled by applying the movement of the head of the character to the movement of the head of the character data stored in the character data storage unit 650. For example, when the gyro sensor receives information “roll angle: − (minus) 30 degrees” around the Y axis from the microphone, the character control unit 620 uses the information to move the head of the character 30 degrees to the left. The processing to change to shake. Furthermore, the facial expression of the character can be changed. Character facial expressions The elements that make up a character's facial expressions can be broken down into parts that make up the character's face, such as eyebrows, eyes, nose, mouth, etc. Can be stored as parameters. By combining the parameters of these parts, the character can have various expressions such as emotions. Then, by detecting the movement of the user's head, the parameter can be controlled to be changed randomly according to the movement. Thereby, the natural expression of the character can be reproduced. Or the user input detection part 610 confirms whether the input content is the information regarding a user's gaze point (S840). The gaze point can be obtained by calculating the line-of-sight direction based on information on the orientation and inclination of the user's head obtained through various sensors, or directly through the eye tracking sensor. The character control unit 620 can change the line of sight of the character according to the line-of-sight direction or the position indicated by the point of gaze (S870). Or the user input detection part 610 confirms whether a user input content is the information regarding a user's utterance (S850). Specifically, when the user input content is voice input from the microphone 170 of the HMD 110, the character control unit 620 controls the size of the character's mouth according to the size of the voice, The facial expression parameter can be controlled to be changed randomly (S880). Here, the user puts the HMD 110 on the head, for example, puts it on the head and changes the movement of the HMD 110 while viewing the character image displayed on the external monitor. It is also possible to reproduce the movement of the character according to the movement.

S820の処理が、コントローラ210から入力されたものである場合は、図9において、具体的な入力内容を確認するステップ(S910〜S930)に進む。まず、ユーザ入力検出部610は、コントローラ210からの入力内容が、コントローラ210の操作ボタンの操作に関する情報であるかを確認する(S910)。例えば、入力内容が、左手用コントローラの操作用トリガーボタン240aの押下に関するものであった場合、キャラクタ制御部620は、そのボタンの操作に対応するアクションをキャラクタが取る(例えば、キャラクタが笑う)よう、表情パラメータを制御することができる。または、ユーザ入力検出部610は、コントローラ210からの入力内容が、コントローラ210に備えられたセンサ260を介して検出されたコントローラ210の位置、向きや傾きといった動作に関するものであるかを確認する(S920)。入力内容が、コントローラ210の位置、向きや傾きといった動作に関するものである場合、キャラクタ制御部620は、キャラクタの身体の動きを制御することができる(S950)。例えば、入力内容が、コントローラ210の加速度センサから検出される位置の変化(コントローラを上げ下げする動き)に関するものであった場合、キャラクタ制御部620は、キャラクタの腕を上下させる動きを行うよう制御することができる。また、入力内容が、コントローラ210のジャイロセンサから検出される回転に関するものであった場合、キャラクタ制御部620は、キャラクタの指を開閉させるよう制御することができる。ここで、HMD110とコントローラ210の動きとを組み合わせれば、キャラクタは、これらに対応する頭部や手の動きを再現することになるが、首や肩といった、頭部と手を繋ぐ部位の動きは、コンピュータグラフィクスのインバースキネマティクス(IK)という手法を用いて、頭部と手の動きを基とした首や肩の動きを逆算することで、センサを介して得られない動きを補間することができる。または、ユーザ入力検出部610は、コントローラ210からの入力内容が、コントローラ210の操作ボタンの操作の組み合わせに関する情報であるかを確認する(S930)。例えば、入力内容が、左手用コントローラの操作用トリガーボタン240aと右手用コントローラの操作用トリガーボタン240aを同時に押下することであった場合、その組み合わせに対応したアクションをキャラクタが取る(例えば、キャラクタがお腹を抱えて笑う)よう、表情パラメータや動作パラメータを制御することができる(S960)。ここで、表情パラメータと同様に、キャラクタの身体の動作として、身体を構成するパーツ、例えば、頭部、両手、両足といったパーツに分解し、各々の動きのパターンや動きの度合(動きの大きさ、速さ)をパラメータとして持っておくことができる。キャラクタの自然な動きを表現するため、HMD110またはコントローラ210を介した、ユーザに何らかの入力に応じて、キャラクタの表情パラメータや動作パラメータをランダムに制御することができる。 When the process of S820 is input from the controller 210, the process proceeds to steps (S910 to S930) for confirming specific input contents in FIG. First, the user input detection unit 610 confirms whether the input content from the controller 210 is information related to operation of the operation buttons of the controller 210 (S910). For example, if the input content relates to pressing of the operation trigger button 240a of the left-hand controller, the character control unit 620 causes the character to take an action corresponding to the operation of the button (for example, the character laughs). The facial expression parameters can be controlled. Alternatively, the user input detection unit 610 confirms whether the input content from the controller 210 relates to an operation such as the position, orientation, or tilt of the controller 210 detected via the sensor 260 provided in the controller 210 ( S920). If the input content relates to an operation such as the position, orientation, or tilt of the controller 210, the character control unit 620 can control the movement of the character's body (S950). For example, if the input content is related to a change in position detected by the acceleration sensor of the controller 210 (a movement to raise or lower the controller), the character control unit 620 controls to move the character's arm up and down. be able to. Further, when the input content is related to rotation detected by the gyro sensor of the controller 210, the character control unit 620 can control to open and close the character's finger. Here, if the movement of the HMD 110 and the controller 210 is combined, the character reproduces the movement of the head and hand corresponding to these, but the movement of the part connecting the head and the hand, such as the neck and shoulder. Uses computer graphics inverse kinematics (IK) to interpolate movements that cannot be obtained through sensors by back-calculating neck and shoulder movements based on head and hand movements. Can do. Or the user input detection part 610 confirms whether the input content from the controller 210 is the information regarding the combination of operation of the operation button of the controller 210 (S930). For example, when the input content is to simultaneously press the operation trigger button 240a of the left-hand controller and the operation trigger button 240a of the right-hand controller, the character takes an action corresponding to the combination (for example, the character is The facial expression parameter and the motion parameter can be controlled so as to laugh while holding the stomach (S960). Here, as with the facial expression parameters, the movement of the character's body is broken down into parts that make up the body, such as the head, both hands, and both feet, and the movement pattern and the degree of movement (the magnitude of the movement). , Speed) as a parameter. In order to express the natural movement of the character, the facial expression parameter and the motion parameter of the character can be randomly controlled according to some input to the user via the HMD 110 or the controller 210.

本実施例によれば、ユーザの身体に直接装着されたマーカやセンサでなく、HMD110やコントローラ210を介したユーザの各部の動きや操作内容を検出することで、ユーザの動きに対応したキャラクタの動きの再現を容易にしつつ、操作内容により、バリエーションに富んだ表現をも実現することができる。 According to the present embodiment, by detecting the movement and operation content of each part of the user via the HMD 110 and the controller 210 instead of the marker or sensor directly attached to the user's body, the character corresponding to the user's movement is detected. While facilitating the reproduction of movement, it is possible to realize expressions rich in variations depending on the operation content.

<第2の実施形態>
図10に、第2の実施形態にかかる、画像生成装置1010の機能構成図を示す。本実施形態にかかるHMDシステムは、図3に示す、第1の実施形態におけるシステム構成と同様であり、また、画像生成装置1010の機能構成についても、基本的には図6に示す構成と同様である。本実施形態においては、画像生成装置1010において、制御部1040は、他のユーザ装置から、仮想空間に配置するアイテムの選択を受け付けるアイテム受付部1044を有し、記憶部1050は、アイテムに関するデータを格納するアイテムデータ格納部1054を有する。さらに、記憶部1050は、ユーザに関する情報を格納するユーザデータ格納部1055を有する。本実施形態における画像生成装置の特徴としては、複数のユーザ装置に対して仮想空間となる画像を送信するだけでなく、ユーザ装置からアイテムやコメントを受付けることができる。なお、第1の実施形態と同様に、画像生成装置1010の機能を、画像を生成することだけに特化し、別途コンテンツ・サービスサーバを設けて、このコンテンツ・サービスサーバが、ユーザ装置に画像を送信し、また、ユーザ装置からアイテムやコメントを受け付ける機能を有することもできる。
<Second Embodiment>
FIG. 10 is a functional configuration diagram of an image generation apparatus 1010 according to the second embodiment. The HMD system according to this embodiment is the same as the system configuration in the first embodiment shown in FIG. 3, and the functional configuration of the image generation apparatus 1010 is basically the same as the configuration shown in FIG. It is. In the present embodiment, in the image generation device 1010, the control unit 1040 includes an item reception unit 1044 that receives selection of items to be arranged in the virtual space from other user devices, and the storage unit 1050 stores data regarding items. It has an item data storage unit 1054 for storing. Furthermore, the storage unit 1050 includes a user data storage unit 1055 that stores information about the user. The image generation apparatus according to the present embodiment is characterized by not only transmitting an image that is a virtual space to a plurality of user apparatuses, but also receiving items and comments from the user apparatuses. As in the first embodiment, the function of the image generation apparatus 1010 is specialized only to generate an image, a separate content service server is provided, and the content service server sends an image to the user apparatus. It is also possible to have a function of transmitting and receiving items and comments from the user device.

図11は、第2の実施形態にかかる、ユーザ装置に表示される仮想空間の一例を示す図である。第1の実施形態同様、ユーザ装置は、内蔵するウェブブラウザにエンベッドされる画像を表示するためのビューワ等の画像表示部1110において、キャラクタ1120を含む仮想空間の画像を表示することができる。仮想空間に配置されるキャラクタ720は、演者としてのユーザに装着されるHMD110及び/またはコントローラ210を介した、ユーザの頭部の傾きや向きといった動き、ユーザの発話、または、コントローラ210の傾きや向きといった動き、コントローラ210を介したユーザの操作内容といった、ユーザ入力に基づいて、動作することができる。本実施形態においては、画像表示部1110のほか、画像生成装置310に接続する各ユーザ装置から受け付けたコメントを表示するコメント表示部1130、ユーザからのコメント入力を受け付けるコメント入力部1140、及びキャラクタに対してギフティングするアイテムを選択及び表示するアイテム表示部1150を有することができる。本実施形態は、画像表示部1110に表示される仮想空間上に表示されるキャラクタに対して、各ユーザから応援コメントを受付け、また、各ユーザが、各々ポイントが対応づけられた複数のアイテムの中から所望のアイテムを購入し、送信要求を行う入力を行うことで、仮想空間内に購入アイテムを表示させる、いわゆるギフティングを行うことを含むサービスを想定している。このようなサービスにおいては、ギフティングしたアイテムのポイントの累計に応じて、キャラクタが所定の動作を行う、といったことが考えられる。 FIG. 11 is a diagram illustrating an example of a virtual space displayed on the user device according to the second embodiment. As in the first embodiment, the user device can display an image of the virtual space including the character 1120 in the image display unit 1110 such as a viewer for displaying an image embedded in the built-in web browser. The character 720 arranged in the virtual space is a movement such as the tilt or orientation of the user's head, the user's utterance, or the tilt of the controller 210 via the HMD 110 and / or the controller 210 worn by the user as a performer. It is possible to operate based on user input such as a movement such as a direction and a user operation content via the controller 210. In this embodiment, in addition to the image display unit 1110, a comment display unit 1130 that displays a comment received from each user device connected to the image generation device 310, a comment input unit 1140 that receives a comment input from the user, and a character An item display unit 1150 for selecting and displaying items to be given can be provided. In the present embodiment, a support comment is received from each user for a character displayed in the virtual space displayed on the image display unit 1110, and each user has a plurality of items each associated with a point. A service including so-called gifting, in which a purchase item is displayed in the virtual space by purchasing a desired item from the inside and performing an input for requesting transmission, is assumed. In such a service, it is conceivable that the character performs a predetermined action in accordance with the accumulated points of the items that have been given.

図12は、本実施形態にかかる、ユーザ装置に表示される仮想空間の他の一例を示す図である。本例においては、一のユーザ装置からのギフティングを通じて画像表示部1110に配置されたアイテム1210を、キャラクタ1120が持ち上げて喜ぶかのような演出が行われている。これにより、ユーザとキャラクタは、サービスにおいて、より一層の一体感を共有することができる。 FIG. 12 is a diagram illustrating another example of the virtual space displayed on the user device according to the present embodiment. In this example, there is an effect as if the character 1120 lifts and rejoices the item 1210 placed on the image display unit 1110 through gifting from one user device. Thereby, a user and a character can share a further sense of unity in service.

図13に、本実施形態において、仮想空間上でキャラクタとアイテムが相互作用する処理の一例としてのフローチャートを示す。まず、画像生成装置1010のアイテム受付部1044は、サービスに接続する複数のユーザ装置のいずれかからアイテムを受け付ける(S1310)。画像生成装置1010の画像生成部1043は、ユーザ装置の画像表示部1110に、キャラクタ1120と共にアイテム1210を表示させるために、画像生成を行う(S1320)。その後、画像生成装置1010のユーザ入力検出部1141は、演者となるユーザのHMD110やコントローラ210等からユーザ入力を検出したかを確認する(S1330)。例えば、演者となるユーザは、HMD110のディスプレイに表示される仮想空間を見ながら、アイテム1210に対してコントローラ210の位置を合わせ、左手または右手の操作用トリガーボタン240aのトリガーを引く操作を行うことができる。ユーザ入力検出部1141は、画像生成装置1010の入出力部1020及び/または通信部1030を通じて、当該操作を受付け、検出することができる。ユーザ入力検出部1041が、ユーザ入力の検出をしなければ、元の処理に戻る。ユーザ入力検出部1041が、ユーザ入力を検出すると、キャラクタ制御部1042は、コントローラ210の位置に合わせてキャラクタの手の位置を移動させる処理を行い、コントローラの位置を仮想空間における座標に変換し、この座標が仮想空間におけるアイテムが配置される座標と重なる場合は、次に、コントローラ210を介した操作に従い、アイテムを掴む処理を行う。結果として、画像生成部1043は、キャラクタ1120がアイテム1210を持ち上げる画像、すなわち、キャラクタとアイテムとが相互作用する画像を生成する(S1340)。 FIG. 13 shows a flowchart as an example of processing in which a character and an item interact in a virtual space in the present embodiment. First, the item reception unit 1044 of the image generation device 1010 receives an item from any of a plurality of user devices connected to the service (S1310). The image generation unit 1043 of the image generation device 1010 generates an image in order to display the item 1210 together with the character 1120 on the image display unit 1110 of the user device (S1320). Thereafter, the user input detection unit 1141 of the image generation apparatus 1010 confirms whether the user input is detected from the HMD 110 or the controller 210 of the user who is a performer (S1330). For example, a user who is a performer performs an operation of pulling the trigger of the trigger button 240a for operating the left hand or the right hand while aligning the position of the controller 210 with respect to the item 1210 while viewing the virtual space displayed on the display of the HMD 110. Can do. The user input detection unit 1141 can accept and detect the operation through the input / output unit 1020 and / or the communication unit 1030 of the image generation apparatus 1010. If the user input detection unit 1041 does not detect the user input, the process returns to the original process. When the user input detection unit 1041 detects a user input, the character control unit 1042 performs a process of moving the position of the character's hand in accordance with the position of the controller 210, converts the position of the controller into coordinates in the virtual space, If this coordinate overlaps with the coordinate where the item is placed in the virtual space, next, a process of grasping the item is performed according to the operation via the controller 210. As a result, the image generation unit 1043 generates an image in which the character 1120 lifts the item 1210, that is, an image in which the character and the item interact (S1340).

<第3の実施形態>
図14に、第3の実施形態にかかる、仮想空間上でキャラクタとアイテムが相互作用する処理の一例としてのフローチャートを示す。本実施形態においては、画像処理の観点に加え、サービスにおけるキャラクタとユーザのソーシャル性をさらに高めるための方法を提供する。本実施形態のシステム及び画像生成装置の構成は第2の実施形態のものと基本的に同じである。
<Third Embodiment>
FIG. 14 shows a flowchart as an example of processing in which a character and an item interact in a virtual space according to the third embodiment. In this embodiment, in addition to the viewpoint of image processing, a method for further enhancing the social nature of characters and users in a service is provided. The configuration of the system and the image generation apparatus of the present embodiment is basically the same as that of the second embodiment.

図14について、まず、画像生成装置1010のアイテム受付部1044は、サービスに接続する複数のユーザ装置のいずれかからアイテムを受け付ける(S1410)。画像生成装置1010の画像生成部1043は、ユーザ装置の画像表示部1110に、キャラクタ1120と共にアイテム1210を表示させるために、画像生成を行う(S1420)。その後、画像生成装置1010のユーザ入力検出部1141は、演者となるユーザのHMD110やコントローラ210等からユーザ入力を検出したかを確認する(S1430)。例えば、演者となるユーザは、HMD110のディスプレイに表示される仮想空間を見ながら、アイテム1210に対してコントローラ210の位置を合わせ、左手または右手の操作用トリガーボタン240aのトリガーを引く操作を行うことができる。ユーザ入力検出部1141は、画像生成装置1010の入出力部1020及び/または通信部1030を通じて、当該操作を受付け、検出することができる。ユーザ入力検出部1041が、ユーザ入力の検出をしなければ、元の処理に戻る。ユーザ入力検出部1041が、ユーザ入力を検出すると、キャラクタ制御部1042は、仮想空間に配置されたアイテム1210のポイント数を確認し、続いて、そのポイント数が所定のポイント以上であるかを確認する(S1440)。 14, first, the item reception unit 1044 of the image generation device 1010 receives an item from any of a plurality of user devices connected to the service (S1410). The image generation unit 1043 of the image generation device 1010 generates an image in order to display the item 1210 together with the character 1120 on the image display unit 1110 of the user device (S1420). Thereafter, the user input detection unit 1141 of the image generation apparatus 1010 confirms whether the user input is detected from the HMD 110 or the controller 210 of the user who is a performer (S1430). For example, a user who is a performer performs an operation of pulling the trigger of the trigger button 240a for operating the left hand or the right hand while aligning the position of the controller 210 with respect to the item 1210 while viewing the virtual space displayed on the display of the HMD 110. Can do. The user input detection unit 1141 can accept and detect the operation through the input / output unit 1020 and / or the communication unit 1030 of the image generation apparatus 1010. If the user input detection unit 1041 does not detect the user input, the process returns to the original process. When the user input detection unit 1041 detects a user input, the character control unit 1042 confirms the number of points of the item 1210 arranged in the virtual space, and then confirms whether the number of points is equal to or greater than a predetermined point. (S1440).

図15に、画像生成装置1010のアイテムデータ格納部1054に格納されるアイテム管理テーブル1510の例を示す。アイテム管理テーブル1510は、ユーザがギフティングできるアイテム及び対応するポイント数を管理する。ここで、ポイント数というのは、サービス内で通用する仮想通貨がポイント単位で提供される場合に、アイテムを1個単位で購入するために必要な数のことをさす。例えば、「ダルマ」というアイテムは、ポイント数が「1」であるのに対し、「バラ」というアイテムについては、ポイント数が「10」と割り当てられている。ユーザはキャラクタ(または演者)を応援するためにアイテムをポイントで購入し、仮想空間に購入したアイテムを表示するよう要求する。アイテム管理テーブル1510に挙げられている例では、「指輪」が最も高価なアイテムということになる。 FIG. 15 shows an example of the item management table 1510 stored in the item data storage unit 1054 of the image generation apparatus 1010. The item management table 1510 manages items that can be given by the user and the corresponding number of points. Here, the number of points refers to the number required to purchase an item in units when virtual currency that is valid in the service is provided in units of points. For example, an item “Dharma” has a point number “1”, whereas an item “rose” is assigned a point number “10”. The user purchases an item with points to support the character (or performer) and requests to display the purchased item in the virtual space. In the example listed in the item management table 1510, “ring” is the most expensive item.

図14のS1440に戻り、キャラクタ制御部1042は、例えば、予め決められたポイント数を「10pt」とするときに、配置されたアイテムが「ダルマ」であった場合、キャラクタ制御は実行されず、処理は元に戻る。他方で、配置されたアイテムが「バラ」であった場合、バラのポイント数は「10pt」であるので、条件を満たすことになる。条件を満たしたことを確認すると、キャラクタ制御部1042は、コントローラ210の位置に合わせてキャラクタの手の位置を移動させる処理を行い、コントローラの位置を仮想空間における座標に変換し、この座標が仮想空間におけるアイテムが配置される座標と重なる場合は、次に、コントローラ210を介した操作に従い、アイテムを掴む処理を行う。結果として、画像生成部1043は、キャラクタ1120がアイテム1210を持ち上げる画像、すなわち、キャラクタとアイテムとが相互作用する画像を生成する(S1450)。 Returning to S1440 in FIG. 14, for example, when the predetermined number of points is “10 pt” and the placed item is “Dharma”, the character control unit 1042 does not execute character control, Processing returns. On the other hand, when the arranged item is “rose”, the number of points of the rose is “10 pt”, which satisfies the condition. When it is confirmed that the condition is satisfied, the character control unit 1042 performs a process of moving the position of the character's hand according to the position of the controller 210, converts the position of the controller into coordinates in the virtual space, and the coordinates are virtual. If the item overlaps the coordinates where the item is placed, a process for grasping the item is performed in accordance with an operation via the controller 210. As a result, the image generation unit 1043 generates an image in which the character 1120 lifts the item 1210, that is, an image in which the character and the item interact (S1450).

<第4の実施形態>
図16に、第4の実施形態にかかる、仮想空間上でキャラクタとアイテムが相互作用する処理の一例としてのフローチャートを示す。本実施形態においては、画像処理の観点に加え、サービスにおけるキャラクタとユーザのソーシャル性をさらに高めるための別の方法を提供する。本実施形態のシステム及び画像生成装置の構成は第2及び第3の実施形態のものと基本的に同じである。
<Fourth Embodiment>
FIG. 16 shows a flowchart as an example of processing in which a character and an item interact in a virtual space according to the fourth embodiment. In the present embodiment, in addition to the viewpoint of image processing, another method for further improving the social nature of characters and users in the service is provided. The configurations of the system and the image generation apparatus of this embodiment are basically the same as those of the second and third embodiments.

図16について、まず、画像生成装置1010のアイテム受付部1044は、サービスに接続する複数のユーザ装置のいずれかからアイテムを受け付ける(S1610)。画像生成装置1010の画像生成部1043は、ユーザ装置の画像表示部1110に、キャラクタ1120と共にアイテム1210を表示させるために、画像生成を行う(S1620)。その後、画像生成装置1010のユーザ入力検出部1141は、演者となるユーザのHMD110やコントローラ210等からユーザ入力を検出したかを確認する(S1630)。例えば、演者となるユーザは、HMD110のディスプレイに表示される仮想空間を見ながら、アイテム1210に対してコントローラ210の位置を合わせ、左手または右手の操作用トリガーボタン240aのトリガーを引く操作を行うことができる。ユーザ入力検出部1141は、画像生成装置1010の入出力部1020及び/または通信部1030を通じて、当該操作を受付け、検出することができる。ユーザ入力検出部1041が、ユーザ入力の検出をしなければ、元の処理に戻る。ユーザ入力検出部1041が、ユーザ入力を検出すると、キャラクタ制御部1042は、仮想空間に配置されたアイテム1210をギフティングしたユーザのランキングを確認し、続いて、そのポイント数が所定のランキング以上であるかを確認する(S1640)。 16, first, the item reception unit 1044 of the image generation device 1010 receives an item from any of a plurality of user devices connected to the service (S1610). The image generation unit 1043 of the image generation device 1010 generates an image in order to display the item 1210 together with the character 1120 on the image display unit 1110 of the user device (S1620). Thereafter, the user input detection unit 1141 of the image generation apparatus 1010 confirms whether the user input is detected from the HMD 110 or the controller 210 of the user who is the performer (S1630). For example, a user who is a performer performs an operation of pulling the trigger of the trigger button 240a for operating the left hand or the right hand while aligning the position of the controller 210 with respect to the item 1210 while viewing the virtual space displayed on the display of the HMD 110. Can do. The user input detection unit 1141 can accept and detect the operation through the input / output unit 1020 and / or the communication unit 1030 of the image generation apparatus 1010. If the user input detection unit 1041 does not detect the user input, the process returns to the original process. When the user input detection unit 1041 detects the user input, the character control unit 1042 confirms the ranking of the user who has given the item 1210 placed in the virtual space, and then the number of points is equal to or higher than the predetermined ranking. It is confirmed whether it exists (S1640).

図17に、画像生成装置1010のユーザデータ格納部1055に格納されるユーザランキング管理テーブル1610の例を示す。ユーザランキング管理テーブル1610は、ユーザがギフティングしたアイテムに対応するポイント数の合計を管理し、ポイント数の合計に基づいた順位を管理する。例えば、ユーザAが、「指輪」というアイテムを5個購入し、ギフティングすれば、ポイント数の合計は「500pt」となり、他のユーザとの比較で、ポイント数の合計で1位ということになる。 FIG. 17 shows an example of a user ranking management table 1610 stored in the user data storage unit 1055 of the image generation apparatus 1010. The user ranking management table 1610 manages the total number of points corresponding to the items given by the user, and manages the rank based on the total number of points. For example, if user A purchases 5 items called “rings” and gives them a gift, the total number of points will be “500 pt”, and the total number of points will be first in comparison with other users. Become.

図16のS1640に戻り、キャラクタ制御部1042は、例えば、予め決められたランキングを「3位以上」とするときに、配置されたアイテムをギフティングしたユーザが「ユーザD」であった場合、ユーザDのランキングは4位であるため、キャラクタ制御は実行されず、処理は元に戻る。他方で、配置されたアイテムをギフティングしたユーザが「ユーザC」であった場合、ユーザCのランキングは3位であるため、条件を満たすことになる。条件を満たしたことを確認すると、キャラクタ制御部1042は、コントローラ210の位置に合わせてキャラクタの手の位置を移動させる処理を行い、コントローラの位置を仮想空間における座標に変換し、この座標が仮想空間におけるアイテムが配置される座標と重なる場合は、次に、コントローラ210を介した操作に従い、アイテムを掴む処理を行う。結果として、画像生成部1043は、キャラクタ1120がアイテム1210を持ち上げる画像、すなわち、キャラクタとアイテムとが相互作用する画像を生成する(S1650)。 Returning to S1640 in FIG. 16, for example, when the predetermined ranking is “3rd or higher”, the character control unit 1042 is “user D” when the user who provided the arranged item is “user D”. Since the ranking of the user D is fourth, the character control is not executed and the processing returns to the original. On the other hand, if the user who has given the arranged item is “user C”, the ranking of user C is third, which satisfies the condition. When it is confirmed that the condition is satisfied, the character control unit 1042 performs a process of moving the position of the character's hand according to the position of the controller 210, converts the position of the controller into coordinates in the virtual space, and the coordinates are virtual. If the item overlaps the coordinates where the item is placed, a process for grasping the item is performed in accordance with an operation via the controller 210. As a result, the image generation unit 1043 generates an image in which the character 1120 lifts the item 1210, that is, an image in which the character and the item interact (S1650).

<第5の実施形態>
図18に、第5の実施形態にかかる、演者ユーザ用の仮想空間ユーザインターフェースの一例を示す。本実施形態において、演者ユーザはHMD110を頭部に装着することで、表示部120に表示される仮想空間1810において、自身が演じている動作に基づいて動作するキャラクタを確認することができる。この仮想空間1810には、いくつかの操作パネルが存在し、演者ユーザは、自身で演じながら、仮想カメラの位置を変更したり、他の操作を行うことができる。
<Fifth Embodiment>
FIG. 18 shows an example of a virtual space user interface for a performer user according to the fifth embodiment. In the present embodiment, the performer user can check the character that moves based on the action performed by the performer user in the virtual space 1810 displayed on the display unit 120 by wearing the HMD 110 on the head. This virtual space 1810 has several operation panels, and the performer user can change the position of the virtual camera or perform other operations while performing by himself.

図18において、仮想カメラの位置を操作する仮想カメラ選択部1820を有する。例えば、演者ユーザは、特定のカメラのボタンが表示される位置にコントローラ210の位置を移動させ、コントローラ210の操作ボタンを押下することで、所望の仮想カメラを選択することができる。仮想カメラは、例えば、キャラクタが配置される置に向かって正面、斜め方向に左45度、右45度といった位置に配置することができる。また、演者ユーザの声が録音中であることを示すアイコン1830を配置することができる。例えば、演者ユーザは、コントローラ210の特定の操作ボタンを押下することで、録音操作を実行でき、また、録音のステータスをアイコン1730の態様を通じて確認することができる。また、仮想空間内に「STAND BY」アイコン1840を配置することができ、演者ユーザは、配信が準備中かオンエア中であるかのステータスを、アイコン1840を通じて確認することができる。その他、図示しないが、演者ユーザの発する声や音量に対応して、キャラクタの口からパーティクルを表示させる処理を行うこともでき、音量の大きさに応じて、パーティクルの大きさを大きくするなど直感的にステータスを確認できるようにすることもできる。 In FIG. 18, a virtual camera selection unit 1820 for operating the position of the virtual camera is provided. For example, the performer user can select a desired virtual camera by moving the position of the controller 210 to a position where a button of a specific camera is displayed and pressing an operation button of the controller 210. For example, the virtual camera can be disposed at a position such as 45 degrees to the left and 45 degrees to the right in front of the position where the character is disposed. Further, an icon 1830 indicating that the voice of the performer user is being recorded can be arranged. For example, the performer user can execute a recording operation by pressing a specific operation button of the controller 210, and can check the recording status through the mode of the icon 1730. In addition, a “STAND BY” icon 1840 can be placed in the virtual space, and the performer user can check the status of whether the distribution is being prepared or on the air through the icon 1840. In addition, although not shown, it is also possible to perform a process of displaying particles from the character's mouth in response to the voice and volume of the performer user, and intuition such as increasing the size of the particles according to the volume level. It is also possible to check the status.

110 ヘッドマウントディスプレイ
115 通信部
120 表示パネル
125 制御部
140 センサ
150 光源
160 カメラ
170 マイク
180 ヘッドフォン
190 入出力部
210 コントローラ
220 左手用コントローラ
230 右手用コントローラ
240a、240b トリガーボタン
245 操作部
250 赤外線LED
255 入出力部
260 センサ
270 ジョイスティック
280 メニューボタン
290 フレーム
310 画像生成装置
320 入出力部
330 通信部
340 制御部
350 記憶部
401A、401B、401C ユーザ装置
610 ユーザ入力検出部
620 キャラクタ制御部
630 画像生成部
650 キャラクタデータ格納部
660 ストリーミングデータ格納部6
670 制御プログラム格納部
710 画像表示部
720 キャラクタ
1110 画像表示部
1120 キャラクタ
1130 コメント表示部
1140 コメント入力部
1150 アイテム表示部
1210 アイテム
1810 仮想空間
1820 仮想カメラ選択部
1830 アイコン
1840 アイコン

110 Head Mount Display 115 Communication Unit 120 Display Panel 125 Control Unit 140 Sensor 150 Light Source 160 Camera 170 Microphone 180 Headphone 190 Input / Output Unit 210 Controller 220 Left Hand Controller 230 Right Hand Controller 240a, 240b Trigger Button 245 Operation Unit 250 Infrared LED
255 Input / output unit 260 Sensor 270 Joystick 280 Menu button 290 Frame 310 Image generation device 320 Input / output unit 330 Communication unit 340 Control unit 350 Storage unit 401A, 401B, 401C User device
610 User input detection unit 620 Character control unit 630 Image generation unit 650 Character data storage unit 660 Streaming data storage unit 6
670 Control program storage unit 710 Image display unit 720 Character 1110 Image display unit 1120 Character 1130 Comment display unit 1140 Comment input unit 1150 Item display unit 1210 Item 1810 Virtual space 1820 Virtual camera selection unit 1830 Icon 1840 Icon

Claims (3)

複数のユーザ装置に提供される所定の画像領域におけるキャラクタの制御方法であって、
複数のユーザ装置の各々のユーザ装置に表示される所定の画像領域に第1のユーザが演じるキャラクタを配置するステップと、
第1のユーザ装置から第1のユーザの入力を受け付けるステップと、
前記第1のユーザの入力に基づいて、前記キャラクタの動作を制御するステップと、
前記各々のユーザ装置に、選択可能な複数のオブジェクトを表示するステップと、
前記複数のユーザ装置のいずれかの、第2のユーザに関連付けられたユーザ装置から、前記複数のオブジェクトのうち一のオブジェクトの選択を受け付けるステップと、
前記一のオブジェクトを前記所定の画像領域に表示するステップと、
前記一のオブジェクトに対する前記第1のユーザの入力を受け付けた場合、
前記キャラクタが前記オブジェクトに相互作用するよう制御させることを特徴とする制御方法。
A method of controlling a character in a predetermined image area provided to a plurality of user devices,
Arranging a character played by the first user in a predetermined image area displayed on each user device of the plurality of user devices;
Receiving a first user input from a first user device;
Controlling the action of the character based on the input of the first user;
Displaying a plurality of selectable objects on each of the user devices;
Receiving a selection of one of the plurality of objects from a user device associated with a second user of any of the plurality of user devices;
Displaying the one object in the predetermined image area;
When receiving the input of the first user for the one object,
A control method, characterized in that the character is controlled to interact with the object.
請求項1に記載の制御方法であって、
前記表示されたオブジェクトが、所定のポイント以上である場合、前記キャラクタが前記オブジェクトに相互作用するよう制御させることを特徴とする制御方法。
The control method according to claim 1, comprising:
A control method, comprising: controlling the character to interact with the object when the displayed object is a predetermined point or more.
請求項2に記載の制御方法であって、
複数のオブジェクトは、各々ポイントが対応づけられており、前記仮想空間に表示された一のオブジェクトを含む、前記仮想空間に配置したオブジェクトのポイントの総数にも基づいて、前記第2のユーザの、前記複数のユーザにおけるランキングを生成し、当該ランキングが所定順位以上である場合、前記キャラクタが前記オブジェクトに相互作用するよう制御することを特徴とする制御方法。
The control method according to claim 2,
Each of the plurality of objects is associated with a point, and includes the one object displayed in the virtual space, and based on the total number of points of the objects arranged in the virtual space, the second user's A control method, comprising: generating rankings for the plurality of users, and controlling the character to interact with the object when the ranking is equal to or higher than a predetermined order.
JP2019021269A 2019-02-08 2019-02-08 Method of controlling character in virtual space Pending JP2019133673A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019021269A JP2019133673A (en) 2019-02-08 2019-02-08 Method of controlling character in virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019021269A JP2019133673A (en) 2019-02-08 2019-02-08 Method of controlling character in virtual space

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018017258A Division JP6481057B1 (en) 2018-02-02 2018-02-02 Character control method in virtual space

Publications (1)

Publication Number Publication Date
JP2019133673A true JP2019133673A (en) 2019-08-08

Family

ID=67546288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019021269A Pending JP2019133673A (en) 2019-02-08 2019-02-08 Method of controlling character in virtual space

Country Status (1)

Country Link
JP (1) JP2019133673A (en)

Similar Documents

Publication Publication Date Title
JP6481057B1 (en) Character control method in virtual space
EP3427130B1 (en) Virtual reality
WO2021059359A1 (en) Animation production system
JP2023116432A (en) animation production system
JP2022153476A (en) Animation creation system
JP6964302B2 (en) Animation production method
JP2019133673A (en) Method of controlling character in virtual space
JP2019133677A (en) Method of controlling character in virtual space
JP2019133674A (en) Method of controlling character in virtual space
JP2019133675A (en) Method of controlling character in virtual space
JP2019133672A (en) Method of controlling character in virtual space
JP2019133676A (en) Method of controlling character in virtual space
JP2019133644A (en) Method of controlling character in virtual space
WO2021059371A1 (en) Animation production method
WO2020130112A1 (en) Method for providing virtual space having given content
JP2019219702A (en) Method for controlling virtual camera in virtual space
JP6955725B2 (en) Animation production system
JP2020177438A (en) Method for controlling communications between characters in virtual space
JP2022025466A (en) Animation creation method
JP2020149397A (en) Method of controlling communication between characters in virtual space
JP2020067810A (en) Character control method in virtual space
JPWO2021059357A1 (en) Animation production system
JPWO2021059356A1 (en) Animation production system
JP2020149400A (en) Method of controlling communication between characters in virtual space