JP2024030610A - Avatar control device, avatar control method, and avatar control program - Google Patents

Avatar control device, avatar control method, and avatar control program Download PDF

Info

Publication number
JP2024030610A
JP2024030610A JP2022133596A JP2022133596A JP2024030610A JP 2024030610 A JP2024030610 A JP 2024030610A JP 2022133596 A JP2022133596 A JP 2022133596A JP 2022133596 A JP2022133596 A JP 2022133596A JP 2024030610 A JP2024030610 A JP 2024030610A
Authority
JP
Japan
Prior art keywords
avatar
movement
motion
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022133596A
Other languages
Japanese (ja)
Inventor
智之 宍戸
Tomoyuki Shishido
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2022133596A priority Critical patent/JP2024030610A/en
Priority to PCT/JP2023/023557 priority patent/WO2024042843A1/en
Publication of JP2024030610A publication Critical patent/JP2024030610A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an avatar control device that can perform control so as to generate avatars corresponding to users while preventing drawing load or communication load from becoming excessive.
SOLUTION: An avatar control device 103 includes an avatar motion setting unit 4 and an avatar generation unit 7. The avatar generation unit 7 generates individual avatars by drawing avatars corresponding to individual users. The avatar motion setting unit 4 sets the motion of each avatar based on a motion detection signal generated by a motion sensor 21 that acquires the motion of each user. The avatar motion setting unit 4 sets an avatar whose motion is equal to or less than a predetermined magnitude to a stationary state, irrespective of the motion detection signal generated by the motion sensor 21.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、アバター制御装置、アバター制御方法、及びアバター制御プログラムに関する。 The present invention relates to an avatar control device, an avatar control method, and an avatar control program.

近年、プロセッサの処理が高速化することに伴って、仮想現実(VR)空間において、各ユーザが、各ユーザに対応して生成されたアバターを動かしたり、アバターどうしを交流させたりすることが行われている(特許文献1参照)。典型的には、アバターを制御するサーバと各ユーザが所持するユーザ端末とがネットワークを介して互いに通信することにより、各ユーザに対応するアバターが生成される。 In recent years, as processor processing speeds have increased, it has become possible for each user to move an avatar generated for each user and to interact with each other in virtual reality (VR) space. (See Patent Document 1). Typically, an avatar corresponding to each user is generated by a server that controls the avatar and a user terminal owned by each user communicating with each other via a network.

特開2009-172239号公報Japanese Patent Application Publication No. 2009-172239

プロセッサの処理が高速化してはいるものの、各ユーザに対応するアバターを描画するための描画負荷が過大となったり、サーバとユーザ端末との間の通信負荷が過大となったりすることがある。すると、アバターが不用意に停止したり、ユーザの動きに追従しなくなったりして、アバターの動きが不自然になり、ユーザは違和感を覚えてしまう。 Although the processing speed of processors has become faster, the drawing load for drawing avatars corresponding to each user may become excessive, or the communication load between the server and the user terminal may become excessive. This causes the avatar to stop unexpectedly or not follow the user's movements, making the avatar's movements unnatural and making the user feel uncomfortable.

本発明は、描画負荷または通信負荷が過大となることを防ぎながら、ユーザに対応するアバターを生成するよう制御することができるアバター制御装置、アバター制御方法、及びアバター制御プログラムを提供することを目的とする。 An object of the present invention is to provide an avatar control device, an avatar control method, and an avatar control program that can control the generation of an avatar corresponding to a user while preventing an excessive drawing load or communication load. shall be.

本発明は、各ユーザに対応するアバターを描画して各アバターを生成するアバター生成部と、前記各ユーザの動きを取得する動きセンサが生成する動き検出信号に基づいて、前記各アバターの動きを設定するアバター動き設定部とを備え、前記アバター動き設定部は、動きが所定の大きさ以下であるアバターを、前記動きセンサが生成する動き検出信号とは無関係に静止状態または特定の動きに設定するアバター制御装置を提供する。 The present invention calculates the movement of each avatar based on a motion detection signal generated by an avatar generation unit that generates each avatar by drawing an avatar corresponding to each user, and a motion sensor that acquires the movement of each user. and an avatar movement setting unit for setting an avatar whose movement is less than or equal to a predetermined size, to a stationary state or a specific movement regardless of a movement detection signal generated by the movement sensor. avatar control device.

本発明は、各ユーザに対応するアバターを描画して各アバターを生成し、前記各ユーザの動きを取得する動きセンサが生成する動き検出信号に基づいて、前記各アバターの動きを設定し、動きが所定の大きさ以下であるアバターを、前記動きセンサが生成する動き検出信号とは無関係に静止状態または特定の動きに設定するアバター制御方法を提供する。 The present invention generates each avatar by drawing an avatar corresponding to each user, sets the movement of each avatar based on a motion detection signal generated by a motion sensor that acquires the movement of each user, and The present invention provides an avatar control method for setting an avatar whose size is less than or equal to a predetermined size to a stationary state or a specific movement regardless of a motion detection signal generated by the motion sensor.

本発明は、コンピュータに、各ユーザに対応するアバターを描画して各アバターを生成するステップと、前記各ユーザの動きを取得する動きセンサが生成する動き検出信号に基づいて、前記各アバターの動きを設定するステップと、動きが所定の大きさ以下であるアバターを、前記動きセンサが生成する動き検出信号とは無関係に静止状態または特定の動きに設定するステップとを実行させるアバター制御プログラムを提供する。 The present invention includes the steps of generating each avatar by drawing an avatar corresponding to each user on a computer, and determining the movement of each avatar based on a motion detection signal generated by a motion sensor that acquires the movement of each user. and setting an avatar whose movement is less than a predetermined size to a stationary state or a specific movement regardless of a movement detection signal generated by the movement sensor. do.

本発明のアバター制御装置、アバター制御方法、及びアバター制御プログラムによれば、描画負荷または通信負荷が過大となることを防ぎながら、ユーザに対応するアバターを生成するよう制御することができる。 According to the avatar control device, avatar control method, and avatar control program of the present invention, it is possible to perform control to generate an avatar corresponding to a user while preventing excessive drawing load or communication load.

図1は、第1実施形態に係るアバター制御装置を示すブロック図である。FIG. 1 is a block diagram showing an avatar control device according to a first embodiment. 図2は、ユーザの動きの一例を示す図である。FIG. 2 is a diagram showing an example of a user's movement. 図3は、ユーザが図2のように動くときの骨格的な動きを示す図である。FIG. 3 is a diagram showing skeletal movements when the user moves as shown in FIG. 図4は、ユーザが図2のように動くときの骨格的な動きを示す骨格動き信号を示す概念図である。FIG. 4 is a conceptual diagram showing a skeletal movement signal indicating skeletal movement when the user moves as shown in FIG. 図5は、ユーザが図2のように動くときのアバターの動きを示す図である。FIG. 5 is a diagram showing the movement of the avatar when the user moves as shown in FIG. 図6は、トラッキング外れが発生したときの骨格動き信号の変化を示す概念図である。FIG. 6 is a conceptual diagram showing changes in the skeletal motion signal when tracking loss occurs. 図7Aは、自己のアバターを見ている他のアバターが1体のみである状態を示す図である。FIG. 7A is a diagram showing a state in which only one other avatar is looking at one's own avatar. 図7Bは、自己のアバターを見ている他のアバターが4体である状態を示す図である。FIG. 7B is a diagram showing a state in which there are four other avatars looking at the user's own avatar. 図8は、第1実施形態に係るアバター制御装置の動作、第1実施形態に係るアバター制御方法、及び第1実施形態に係るアバター制御プログラムがコンピュータに実行させる処理を示すフローチャートである。FIG. 8 is a flowchart showing the operation of the avatar control device according to the first embodiment, the avatar control method according to the first embodiment, and the processing that the avatar control program according to the first embodiment causes a computer to execute. 図9は、第2実施形態に係るアバター制御装置を示すブロック図である。FIG. 9 is a block diagram showing an avatar control device according to the second embodiment. 図10は、第2実施形態に係るアバター制御装置の動作、第2実施形態に係るアバター制御方法、及び第2実施形態に係るアバター制御プログラムがコンピュータに実行させる処理を示すフローチャートである。FIG. 10 is a flowchart showing the operation of the avatar control device according to the second embodiment, the avatar control method according to the second embodiment, and the processing that the avatar control program according to the second embodiment causes a computer to execute. 図11は、第3実施形態に係るアバター制御装置の動作、第3実施形態に係るアバター制御方法、及び第3実施形態に係るアバター制御プログラムがコンピュータに実行させる処理を示すフローチャートである。FIG. 11 is a flowchart showing the operation of the avatar control device according to the third embodiment, the avatar control method according to the third embodiment, and the processing that the avatar control program according to the third embodiment causes a computer to execute.

以下、各実施形態に係るアバター制御装置、アバター制御方法、及びアバター制御プログラムについて、添付図面を参照して説明する。 Hereinafter, an avatar control device, an avatar control method, and an avatar control program according to each embodiment will be described with reference to the accompanying drawings.

<第1実施形態>
図1に示すように、アバター制御サーバ10aとユーザ端末20a~20cがネットワーク50を介して接続されている。ユーザ端末20a~20cのいずれかを特定しないユーザ端末、及び図示していない他の任意のユーザ端末をユーザ端末20と称することとする。ネットワーク50を介してアバター制御サーバ10aに接続されているユーザ端末20の数は、1またはそれ以上の任意の数である。典型的には、ネットワーク50はインターネットである。
<First embodiment>
As shown in FIG. 1, an avatar control server 10a and user terminals 20a to 20c are connected via a network 50. A user terminal that does not specify any of the user terminals 20a to 20c and any other user terminal not shown will be referred to as a user terminal 20. The number of user terminals 20 connected to the avatar control server 10a via the network 50 is one or more. Typically, network 50 is the Internet.

アバター制御サーバ10aはアバター制御装置101を備える。アバター制御装置101は、通信部1、動き検出部2、トラッキング外れ検出部3、アバター動き設定部4、特定姿勢データ保持部5、アバター制御信号生成部6、アバター生成部7、レンダリング部8、制御部9、アバター位置制御部11、アバター・背景設定部12を備える。各ユーザ端末20は、動きセンサ21、制御部22、操作部23、通信部24、画像表示部25を備える。アバター生成部7は演算部71を含む。 The avatar control server 10a includes an avatar control device 101. The avatar control device 101 includes a communication unit 1, a movement detection unit 2, a tracking deviation detection unit 3, an avatar movement setting unit 4, a specific posture data storage unit 5, an avatar control signal generation unit 6, an avatar generation unit 7, a rendering unit 8, It includes a control section 9, an avatar position control section 11, and an avatar/background setting section 12. Each user terminal 20 includes a motion sensor 21 , a control section 22 , an operation section 23 , a communication section 24 , and an image display section 25 . The avatar generation section 7 includes a calculation section 71.

通信部1は、インターネットプロトコル等の通信プロトコルを採用してユーザ端末20と通信する通信回路で構成することができる。通信部1以外のアバター制御装置101は、プロセッサ及びメモリを含むコンピュータで構成することができる。特定姿勢データ保持部5及びアバター・背景設定部12はコンピュータのメモリで構成することができる。アバター制御装置101の通信部1、特定姿勢データ保持部5、及びアバター・背景設定部12以外の部分はコンピュータのプロセッサで構成することができる。 The communication unit 1 can be configured with a communication circuit that communicates with the user terminal 20 by employing a communication protocol such as the Internet protocol. The avatar control device 101 other than the communication unit 1 can be configured with a computer including a processor and a memory. The specific posture data holding section 5 and the avatar/background setting section 12 can be configured with a computer memory. Portions of the avatar control device 101 other than the communication section 1, specific posture data holding section 5, and avatar/background setting section 12 can be configured by a computer processor.

ユーザ端末20aを所持しているユーザは、図2に示すユーザU1であるとする。動きセンサ21はTOF(Time Of Flight)センサまたはカメラである。動きセンサ21がTOFセンサであるとき、動きセンサ21はユーザU1に光または超音波を照射して光または超音波が戻ってくるまでの時間を計測して、ユーザU1がどのような姿勢であるかユーザU1がどのように動いているかを示す、ユーザU1の動き(姿勢を含む)に対応する動き検出信号を生成する。 It is assumed that the user who owns the user terminal 20a is the user U1 shown in FIG. 2. The motion sensor 21 is a TOF (Time Of Flight) sensor or a camera. When the motion sensor 21 is a TOF sensor, the motion sensor 21 measures the time it takes from irradiating light or ultrasound to the user U1 until the light or ultrasound returns, and determines the posture of the user U1. A motion detection signal corresponding to the movement (including posture) of the user U1 is generated, indicating how the user U1 is moving.

動きセンサ21は、ユーザU1の体の複数の箇所に装着された加速度センサまたはジャイロセンサ等のセンサであってもよい。動きセンサ21はユーザU1の体の動きまたは姿勢を検出できればよく、どのようなセンサであってもよい。 The motion sensor 21 may be a sensor such as an acceleration sensor or a gyro sensor attached to multiple locations on the body of the user U1. The motion sensor 21 may be any sensor as long as it can detect the movement or posture of the user U1's body.

動きセンサ21がカメラであるとき、動きセンサ21はユーザU1を撮影してユーザU1の動き(姿勢を含む)に対応する動き検出信号を生成する。動きセンサ21としてカメラを用いるとき、カメラはユーザU1を2次元的に撮影するカメラまたは3次元的に撮影するステレオカメラである。動きセンサ21としてステレオカメラを用いる方が、ユーザU1を立体的に撮影することができるので好ましい。動きセンサ21より出力された動き検出信号は、制御部22、通信部24、ネットワーク50を介して、アバター制御サーバ10aへと送信される。 When the motion sensor 21 is a camera, the motion sensor 21 photographs the user U1 and generates a motion detection signal corresponding to the motion (including posture) of the user U1. When a camera is used as the motion sensor 21, the camera is a camera that photographs the user U1 two-dimensionally or a stereo camera that photographs the user U1 three-dimensionally. It is preferable to use a stereo camera as the motion sensor 21 because the user U1 can be photographed three-dimensionally. The motion detection signal output from the motion sensor 21 is transmitted to the avatar control server 10a via the control section 22, communication section 24, and network 50.

通信部1は動き検出信号を受信して動き検出部2に供給する。動き検出部2は、入力された動き検出信号に基づいて、ユーザU1の複数の関節の位置及び体の特定の部位の位置を検出して、ユーザU1がどのような姿勢であるかユーザU1がどのように動いているかを示す、ユーザU1の骨格的な動きを示す骨格動き信号を生成する。骨格動き信号はユーザU1の体の動きを示す体動き信号の一例である。図2に示すように、ユーザU1は、立っていて両手を下ろしているポーズP1から、右腕を曲げて左腕を上方に突き上げたポーズP2へと移行させたとする。図3に示すように、動き検出部2は、ポーズP1に対応する骨格的姿勢Q1及びポーズP2に対応する骨格的姿勢Q2を含む骨格動き信号を生成する。 The communication section 1 receives the motion detection signal and supplies it to the motion detection section 2 . The motion detection unit 2 detects the positions of a plurality of joints and specific body parts of the user U1 based on the input motion detection signal, and determines the posture of the user U1. A skeletal motion signal indicating the skeletal motion of the user U1 is generated, indicating how the user U1 is moving. The skeletal motion signal is an example of a body motion signal indicating the motion of the user U1's body. As shown in FIG. 2, it is assumed that the user U1 transitions from a pose P1 in which he is standing with his hands down to a pose P2 in which he bends his right arm and pushes his left arm upward. As shown in FIG. 3, the motion detection unit 2 generates a skeletal motion signal including a skeletal posture Q1 corresponding to the pose P1 and a skeletal posture Q2 corresponding to the pose P2.

図3では図示していないが、動き検出部2は、ポーズP1からポーズP2までの途中の骨格動き信号を生成する。図4に示す骨格的姿勢Q1から骨格的姿勢Q2へと変化する骨格動き信号は、トラッキング外れ検出部3及びアバター動き設定部4に供給される。 Although not shown in FIG. 3, the motion detection unit 2 generates a skeletal motion signal midway from pose P1 to pose P2. The skeletal motion signal that changes from the skeletal posture Q1 to the skeletal posture Q2 shown in FIG. 4 is supplied to the tracking loss detection section 3 and the avatar movement setting section 4.

ユーザ端末20が動き検出部2に相当する構成を備えてもよい。この場合、ユーザ端末20の通信部24は、各ユーザの骨格動き信号をアバター制御サーバ10aに送信し、アバター制御サーバ10aの通信部1は骨格動き信号を受信する。受信した骨格動き信号は、トラッキング外れ検出部3及びアバター動き設定部4に供給される。 The user terminal 20 may have a configuration corresponding to the motion detection section 2. In this case, the communication unit 24 of the user terminal 20 transmits each user's skeletal movement signal to the avatar control server 10a, and the communication unit 1 of the avatar control server 10a receives the skeletal movement signal. The received skeletal motion signal is supplied to an out-of-tracking detection section 3 and an avatar motion setting section 4.

トラッキング外れ検出部3は、骨格動き信号が入力されなくなると、動きセンサ21がユーザU1の動きに対応する動き検出信号を生成しなくなった状態であるトラッキング外れが発生したことを検出する。トラッキング外れ検出部3は、トラッキング外れが発生したことを検出すると、アバター動き設定部4にトラッキング外れが発生したことを通知する。トラッキング外れ検出部3は、骨格動き信号が通常ではあり得ない異常な動きを示すときもトラッキング外れが発生したと検出してもよい。例えば、ユーザU1の体の一部がTOFセンサまたはカメラから外れた場合には、骨格動き信号が異常な動きを示すことがある。 When the skeletal motion signal is no longer input, the tracking loss detection unit 3 detects that tracking loss has occurred, which is a state in which the motion sensor 21 no longer generates a motion detection signal corresponding to the movement of the user U1. When detecting that tracking loss has occurred, tracking loss detection section 3 notifies avatar movement setting section 4 that tracking loss has occurred. The tracking loss detection unit 3 may also detect that tracking loss has occurred when the skeletal motion signal indicates an abnormal movement that cannot normally occur. For example, if a part of user U1's body comes off the TOF sensor or camera, the skeletal motion signal may indicate abnormal movement.

アバター動き設定部4は、トラッキング外れが発生したことが通知されていなければ、アバターに骨格動き信号に応じた動きをさせるようアバター制御信号生成部6に指示する。アバター制御信号生成部6は、アバターAvに骨格動き信号に応じた動きをさせるよう制御するアバター制御信号を生成してアバター生成部7に供給する。 If the avatar movement setting unit 4 has not been notified that tracking loss has occurred, it instructs the avatar control signal generation unit 6 to cause the avatar to move in accordance with the skeletal movement signal. The avatar control signal generation section 6 generates an avatar control signal that controls the avatar Av to move in accordance with the skeletal motion signal, and supplies it to the avatar generation section 7 .

アバター生成部7の演算部71は、骨格動き信号に応じた動きをするアバターを描画してアバターを生成する。アバター・背景設定部12には、アバター生成部7がどのような形態のアバターを生成するのかが設定されている。アバター・背景設定部12に設定されているアバターの形態が、図5に示すような人間の体を模した形態であるとする。アバター・背景設定部12には、人間の体の部位とアバターのどの部位が対応するのかの対応関係も設定されている。 The calculation unit 71 of the avatar generation unit 7 generates an avatar by drawing an avatar that moves according to the skeletal motion signal. In the avatar/background setting section 12, the type of avatar to be generated by the avatar generation section 7 is set. It is assumed that the form of the avatar set in the avatar/background setting section 12 is a form imitating a human body as shown in FIG. The avatar/background setting section 12 also sets the correspondence between the parts of the human body and which parts of the avatar correspond.

従って、アバター生成部7は、図5に示すように、図3に示す骨格的姿勢Q1から骨格的姿勢Q2への変化に対応して、ポーズPav1からポーズPav2へと変化するアバターAv1を生成する。アバターAv1を含む任意のアバターをアバターAvと称することとする。 Therefore, as shown in FIG. 5, the avatar generation unit 7 generates an avatar Av1 that changes from pose Pav1 to pose Pav2 in response to the change from skeletal posture Q1 to skeletal posture Q2 shown in FIG. . Any avatar including avatar Av1 will be referred to as avatar Av.

ユーザがユーザ端末20によって、アバター・背景設定部12にアバターAvの形態をアップロードするように構成されていてもよい。アバター・背景設定部12にアバターAvの複数の形態が設定されており、ユーザがいずれかの形態を選択可能に構成されていてもよい。 The configuration may be such that the user uploads the form of the avatar Av to the avatar/background setting section 12 using the user terminal 20. A plurality of forms of the avatar Av may be set in the avatar/background setting section 12, and the user may be configured to be able to select any of the forms.

アバター・背景設定部12には、アバターAvが位置して移動する3次元的な仮想空間を決める背景データが設定されている。アバターAvが2次元の画像であれば、背景データは2次元の画像データであってもよい。レンダリング部8は、アバター・背景設定部12から背景データを取得し、背景データに基づく仮想空間内にアバターAvを位置させるようレンダリングする。 The avatar/background setting section 12 is set with background data that determines a three-dimensional virtual space in which the avatar Av is located and moves. If the avatar Av is a two-dimensional image, the background data may be two-dimensional image data. The rendering unit 8 acquires background data from the avatar/background setting unit 12 and performs rendering to position the avatar Av in a virtual space based on the background data.

ユーザは、ユーザ端末20における操作部23を操作して仮想空間内でアバターAvを移動させるよう操作することができる。ユーザ端末20の制御部22は、操作部23の操作に応じてアバターAvを移動させる移動制御信号を生成する。移動制御信号は、通信部24、ネットワーク50を介して、アバター制御サーバ10aへと送信される。アバター制御サーバ10aの通信部1は移動制御信号を受信し、制御部9は移動制御信号をアバター位置制御部11に供給する。アバター位置制御部11は、仮想空間内のアバターAvを移動制御信号に従って移動させるようレンダリング部8を制御する。 The user can operate the operation unit 23 in the user terminal 20 to move the avatar Av within the virtual space. The control unit 22 of the user terminal 20 generates a movement control signal for moving the avatar Av in accordance with the operation of the operation unit 23. The movement control signal is transmitted to the avatar control server 10a via the communication unit 24 and the network 50. The communication unit 1 of the avatar control server 10a receives the movement control signal, and the control unit 9 supplies the movement control signal to the avatar position control unit 11. The avatar position control unit 11 controls the rendering unit 8 to move the avatar Av in the virtual space according to the movement control signal.

以上のようにして、アバター制御サーバ10aは、各ユーザ端末20のユーザに対応するアバターAvを生成して仮想空間内に位置させたレンダリング画像を生成する。通信部1はレンダリング画像を各ユーザ端末20に送信する。通信部24はレンダリング画像を受信し、制御部22はレンダリング画像を画像表示部25に表示するよう制御する。ユーザは、画像表示部25に表示されているレンダリング画像を見ながら、自分自身の姿勢を変化させてアバターAvの姿勢を変化させたり、仮想空間内でアバターAvを移動させたりすることができる。 As described above, the avatar control server 10a generates an avatar Av corresponding to the user of each user terminal 20, and generates a rendered image positioned in the virtual space. The communication unit 1 transmits the rendered image to each user terminal 20. The communication unit 24 receives the rendered image, and the control unit 22 controls the rendered image to be displayed on the image display unit 25. While viewing the rendered image displayed on the image display unit 25, the user can change his or her own posture to change the posture of the avatar Av, or move the avatar Av within the virtual space.

ここで、トラッキング外れ検出部3がトラッキング外れを検出したときのアバター制御サーバ10aの動作を説明する。特定姿勢データ保持部5には、アバターAvを静止状態または特定の動きとするための特定姿勢データが保持されている。一例として、特定姿勢データ保持部5には、特定姿勢データとして、図6に示す静止状態の骨格的姿勢Q0に相当する姿勢データが保持されている。ここでは、静止状態の骨格的姿勢Q0を図4に示す骨格的姿勢Q1と同じ骨格的姿勢としている。アバターAvを特定の動きとする特定姿勢データは、例えば骨格的姿勢Q0の一部の部位が周期的に変化するような骨格的姿勢の姿勢データとすればよい。 Here, the operation of the avatar control server 10a when the tracking loss detection unit 3 detects tracking loss will be explained. The specific posture data holding unit 5 holds specific posture data for making the avatar Av stand still or move in a specific manner. As an example, the specific posture data holding unit 5 holds posture data corresponding to the skeletal posture Q0 in the resting state shown in FIG. 6 as the specific posture data. Here, the skeletal posture Q0 in the resting state is the same skeletal posture as the skeletal posture Q1 shown in FIG. 4. The specific posture data that makes the avatar Av have a specific movement may be, for example, posture data of a skeletal posture in which a part of the skeletal posture Q0 changes periodically.

図6に示すように、動き検出部2が骨格的姿勢Q11に相当する骨格動き信号を生成した時点でトラッキング外れが発生したとする。アバター動き設定部4は、トラッキング外れ検出部3からトラッキング外れが発生したことを通知されると、アバターAvを、トラッキング外れ時の骨格的姿勢Q11に代えて静止状態の骨格的姿勢Q0(または特定の動きの骨格的姿勢)に応じた姿勢をさせるようアバター制御信号生成部6に指示する。このとき、動き検出部2は、骨格的姿勢Q11から骨格的姿勢Q0に即座に移行させるのではなく、骨格的姿勢Q11と骨格的姿勢Q0との間の骨格的姿勢である骨格的姿勢Q12及びQ13と順に変化させて、骨格的姿勢Q0に移行させるのがよい。 As shown in FIG. 6, it is assumed that tracking loss occurs at the time when the motion detection unit 2 generates a skeletal motion signal corresponding to the skeletal posture Q11. When the avatar movement setting unit 4 is notified of the occurrence of tracking loss from the tracking loss detection unit 3, the avatar movement setting unit 4 changes the avatar Av to the skeletal posture Q0 in a stationary state (or a specific The avatar control signal generation unit 6 is instructed to take a posture according to the skeletal posture of the movement of the avatar. At this time, the motion detection unit 2 does not immediately transition from the skeletal posture Q11 to the skeletal posture Q0, but moves the skeletal posture Q12 and the skeletal posture Q12, which is a skeletal posture between the skeletal posture Q11 and the skeletal posture Q0. It is preferable to change the posture to Q13 in order and shift to the skeletal posture Q0.

アバター動き設定部4は、静止状態の骨格的姿勢Q0とするよう制御するユーザ端末20と、特定の動きの骨格的姿勢とするよう制御するユーザ端末20とを設けてもよい。アバター動き設定部4は、ユーザ端末20に割り当てられているIDが奇数であるか偶数であるかによって、静止状態の骨格的姿勢Q0とするか特定の動きの骨格的姿勢とするかを選択してもよい。アバター動き設定部4は、自己のアバターAvを見ている他のアバターAvの数が多い場合には特定の動きの骨格的姿勢を選択し、少ない場合には静止状態の骨格的姿勢Q0を選択してもよい。 The avatar movement setting unit 4 may include a user terminal 20 that controls the skeletal posture Q0 in a stationary state, and a user terminal 20 that controls the skeletal posture of a specific movement. The avatar movement setting unit 4 selects whether to set the skeletal posture Q0 in a stationary state or the skeletal posture in a specific movement depending on whether the ID assigned to the user terminal 20 is an odd number or an even number. It's okay. The avatar movement setting unit 4 selects a skeletal posture of a specific movement when there are many other avatars Av looking at the own avatar Av, and selects a skeletal posture Q0 of a stationary state when there are few avatars Av. You may.

アバター動き設定部4は、トラッキング外れが発生する直前のアバターAvの動きが大きければ特定の動きの骨格的姿勢を選択し、小さければ静止状態の骨格的姿勢Q0を選択してもよい。特定姿勢データ保持部5に、複数の特定の動きとするための特定姿勢データが保持されていてもよい。アバター動き設定部4は、トラッキング外れが発生する直前のアバターAvの動きに応じて、複数の特定の動きの骨格的姿勢のうちからいずれかの特定の動きの骨格的姿勢を選択してもよい。ユーザが、静止状態の骨格的姿勢Q0と特定の動きの骨格的姿勢とを選択してもよい。 The avatar motion setting unit 4 may select a skeletal posture of a specific motion if the motion of the avatar Av immediately before the tracking loss occurs is large, and may select a skeletal posture Q0 of a stationary state if the motion of the avatar Av is small. The specific posture data holding unit 5 may hold specific posture data for a plurality of specific movements. The avatar movement setting unit 4 may select any skeletal posture of a specific movement from among the skeletal postures of a plurality of specific movements, depending on the movement of the avatar Av immediately before tracking loss occurs. . The user may select the skeletal posture Q0 in a resting state and the skeletal posture in a specific movement.

ところで、ネットワーク50を介してアバター制御サーバ10aに接続されているユーザ端末20の数が過度に多くなると、アバター生成部7が各ユーザに対応するアバターAvを描画するための描画負荷が過大となったり、アバター制御サーバ10aとユーザ端末20との間の通信負荷が過大となったりする。そこで、第1実施形態においては、描画負荷及び通信負荷を軽減するために、アバター制御装置101を以下のように構成している。 By the way, when the number of user terminals 20 connected to the avatar control server 10a via the network 50 increases excessively, the drawing load for the avatar generation unit 7 to draw the avatar Av corresponding to each user becomes excessive. Or, the communication load between the avatar control server 10a and the user terminal 20 may become excessive. Therefore, in the first embodiment, in order to reduce the drawing load and the communication load, the avatar control device 101 is configured as follows.

制御部9は、通信部1が通信するユーザ端末20の数を取得する。制御部9は、アバター制御サーバ10aに接続されたユーザ端末20の数が所定の数を超えるとき、少なくとも一部のユーザ端末20に、動き検出信号(または骨格動き信号)をアバター制御サーバ10aに送信しないように指示する指示信号を送信する。指示信号を取得して、動き検出信号をアバター制御サーバ10aに送信しないように指示されたユーザ端末20は、アバター制御サーバ10aへの動き検出信号の送信を停止する。従って、アバター制御サーバ10aとユーザ端末20との間の通信負荷が軽減される。 The control unit 9 acquires the number of user terminals 20 with which the communication unit 1 communicates. When the number of user terminals 20 connected to the avatar control server 10a exceeds a predetermined number, the control unit 9 transmits a motion detection signal (or skeletal motion signal) to at least some of the user terminals 20 to the avatar control server 10a. Sends an instruction signal not to send. The user terminal 20 that has acquired the instruction signal and has been instructed not to transmit the motion detection signal to the avatar control server 10a stops transmitting the motion detection signal to the avatar control server 10a. Therefore, the communication load between the avatar control server 10a and the user terminal 20 is reduced.

また、アバター制御サーバ10aへの動き検出信号の送信を停止したユーザ端末20は、アバター制御装置101において上記のトラッキング外れの状態となる。アバター制御サーバ10aへの動き検出信号の送信を停止したユーザ端末20のユーザに対応するアバターAvは、静止状態とされるか特定の動きのみをすることになる。従って、アバター生成部7における描画負荷が軽減される。 Further, the user terminal 20 that has stopped sending the motion detection signal to the avatar control server 10a enters the above-mentioned untracked state in the avatar control device 101. The avatar Av corresponding to the user of the user terminal 20 that has stopped transmitting the motion detection signal to the avatar control server 10a will be in a stationary state or will only make specific movements. Therefore, the drawing load on the avatar generation section 7 is reduced.

制御部9は、次のようにして動き検出信号をアバター制御サーバ10aに送信しないように指示するユーザ端末20を選択すればよい。第1の例として、制御部9は、ユーザ端末20に割り当てられているIDに基づき、動き検出信号をアバター制御サーバ10aに送信しないように指示するユーザ端末20を選択する。例えば、制御部9は、IDが奇数であるか偶数であるかによってユーザ端末20を2つのグループに分け、一方のグループのユーザ端末20に、動き検出信号をアバター制御サーバ10aに送信しないように指示する。 The control unit 9 may select the user terminal 20 to be instructed not to transmit the motion detection signal to the avatar control server 10a in the following manner. As a first example, the control unit 9 selects a user terminal 20 to be instructed not to transmit a motion detection signal to the avatar control server 10a, based on the ID assigned to the user terminal 20. For example, the control unit 9 divides the user terminals 20 into two groups depending on whether the ID is an odd number or an even number, and instructs the user terminals 20 of one group not to send a motion detection signal to the avatar control server 10a. Instruct.

第2の例として、制御部9は、自己のアバターAvを見ている他のアバターAvの数が少ないアバターAvに対応するユーザのユーザ端末20を、動き検出信号をアバター制御サーバ10aに送信しないように指示するユーザ端末20として選択する。制御部9は、各アバターAvの仮想空間内の位置、各アバターAvが向いている方向を把握している。各アバターAvの視野は予め設定されている。 As a second example, the control unit 9 does not transmit a motion detection signal to the avatar control server 10a from the user terminal 20 of the user corresponding to the avatar Av whose number of other avatars Av viewing the own avatar Av is small. Select this as the user terminal 20 to be instructed to do so. The control unit 9 knows the position of each avatar Av in the virtual space and the direction in which each avatar Av is facing. The visual field of each avatar Av is set in advance.

図7Aは、自己のアバターAv10を見ている他のアバターAvがアバターAv11の1体のみである状態を示している。図7Bは、自己のアバターAv10を見ている他のアバターAvがアバターAv11~Av14の4体である状態を示している。図7Aと図7Bとを比較すると、動いている自己のアバターAv10が突然静止状態となったときに、他のアバターAvに対応するユーザに違和感を覚えさせる程度が大きいのは、他のアバターAvの数が多い図7Bの場合である。 FIG. 7A shows a state in which the only other avatar Av looking at one's own avatar Av10 is avatar Av11. FIG. 7B shows a state in which there are four other avatars Av, avatars Av11 to Av14, looking at the user's avatar Av10. Comparing FIGS. 7A and 7B, when one's own avatar Av10 that is moving suddenly becomes stationary, the extent to which the user corresponding to the other avatar Av feels strange is that the other avatar Av This is the case of FIG. 7B, where there are many numbers.

そこで、制御部9は、自己のアバターAv10を見ている他のアバターAvが1体も存在しないアバターAvに対応するユーザのユーザ端末20を、動き検出信号をアバター制御サーバ10aに送信しないように指示するユーザ端末20として最優先に選択する。制御部9は、選択したユーザ端末20を除いてもなおアバター制御サーバ10aに接続されたユーザ端末20の数が上記の所定の数を超えるとき、自己のアバターAv10を見ている他のアバターAvがより少ないアバターAvに対応するユーザのユーザ端末20を選択する。 Therefore, the control unit 9 prevents the user terminal 20 of the user corresponding to the avatar Av for which there is no other avatar Av looking at the own avatar Av10 from transmitting a motion detection signal to the avatar control server 10a. It is selected as the user terminal 20 to be given the highest priority. When the number of user terminals 20 connected to the avatar control server 10a exceeds the above-mentioned predetermined number even after excluding the selected user terminal 20, the control unit 9 controls other avatars Av viewing the own avatar Av10. The user terminal 20 of the user corresponding to the avatar Av with fewer values is selected.

制御部9は、選択したユーザ端末20を除いて、アバター制御サーバ10aに接続されたユーザ端末20の数が上記の所定の数以下となるまで、動き検出信号をアバター制御サーバ10aに送信しないように指示するユーザ端末20を選択すればよい。 The control unit 9 prevents the motion detection signal from being transmitted to the avatar control server 10a until the number of user terminals 20 connected to the avatar control server 10a, excluding the selected user terminal 20, becomes equal to or less than the predetermined number described above. All you have to do is select the user terminal 20 you want to instruct.

図8に示すフローチャートを用いて、第1実施形態に係るアバター制御装置101の動作、第1実施形態に係るアバター制御方法、及び第1実施形態に係るアバター制御プログラムがコンピュータに実行させる処理を説明する。図8において、アバター制御装置101の処理が開始されると、制御部9は、ステップS1にて、接続されているユーザ端末20の数が所定の数を超えるか否かを判定する。ユーザ端末20の数が所定の数を超えていれば(YES)、制御部9は、ステップS2にて、少なくとも一部のユーザ端末20にユーザの動き検出信号の送信停止を指示して、処理をステップS10に移行させる。ユーザ端末20の数が所定の数を超えていなければ(NO)、制御部9は処理をステップS10に移行させる。 The operation of the avatar control device 101 according to the first embodiment, the avatar control method according to the first embodiment, and the process that the avatar control program according to the first embodiment causes a computer to execute will be explained using the flowchart shown in FIG. do. In FIG. 8, when the process of the avatar control device 101 is started, the control unit 9 determines in step S1 whether the number of connected user terminals 20 exceeds a predetermined number. If the number of user terminals 20 exceeds the predetermined number (YES), the control unit 9 instructs at least some of the user terminals 20 to stop transmitting user motion detection signals, and performs processing. is moved to step S10. If the number of user terminals 20 does not exceed the predetermined number (NO), the control unit 9 moves the process to step S10.

ステップS1と並行して、トラッキング外れ検出部3は、ステップS3にて、トラッキングが外れたユーザ端末が存在するか否かを判定する。トラッキングが外れたユーザ端末20が存在すれば(YES)、トラッキング外れ検出部3は、ステップS4にて、該当するユーザ端末20のユーザに対応するアバターを静止状態とするようアバター動き設定部4に通知する。ステップS4に続けて、また、ステップS3にてトラッキングが外れたユーザ端末20が存在しなければ(NO)、アバター動き設定部4は、ステップS5にて、各アバターAvの動きをアバター制御信号生成部6に指示する。 In parallel with step S1, the tracking loss detection unit 3 determines in step S3 whether or not there is a user terminal that has lost tracking. If there is a user terminal 20 that is out of tracking (YES), the out-of-tracking detection unit 3 instructs the avatar movement setting unit 4 to make the avatar corresponding to the user of the corresponding user terminal 20 in a stationary state in step S4. Notice. Continuing to step S4, if there is no user terminal 20 that is out of tracking in step S3 (NO), the avatar movement setting unit 4 generates an avatar control signal for the movement of each avatar Av in step S5. Instruct section 6.

アバター制御信号生成部6は、ステップS6にて、アバター制御信号を生成する。アバター生成部7は、ステップS7にて、アバターAvを生成する。レンダリング部8は、ステップS8にて、仮想空間内にアバターAvを位置させるようレンダリングする。通信部1は、ステップS9にて、レンダリング画像を各ユーザ端末20に送信する。 Avatar control signal generation section 6 generates an avatar control signal in step S6. Avatar generation section 7 generates avatar Av in step S7. In step S8, the rendering unit 8 performs rendering to position the avatar Av within the virtual space. The communication unit 1 transmits the rendered image to each user terminal 20 in step S9.

アバター制御装置101は、ステップS10にて、アバター制御動作を終了するか否かを判定する。アバター制御動作を終了しなければ(NO)、アバター制御装置101は処理をステップS1及びS3に戻し、以降の処理を繰り返す。アバター制御動作を終了すれば(YES)、アバター制御装置101は処理を終了させる。 Avatar control device 101 determines whether to end the avatar control operation in step S10. If the avatar control operation is not completed (NO), the avatar control device 101 returns the process to steps S1 and S3, and repeats the subsequent process. If the avatar control operation is completed (YES), the avatar control device 101 ends the process.

以上のように、第1実施形態に係るアバター制御装置101は、各ユーザに対応するアバターAvを描画して各アバターを生成するアバター生成部7と、アバター生成部7が生成するアバターAvの数に応じて、少なくとも一部のユーザの動きをアバターAvに反映させるか否かを設定するアバター動き設定部4とを備える。第1実施形態に係るアバター制御方法及びアバター制御プログラムは、各ユーザに対応するアバターAvを描画して各アバターを生成し、生成するアバターAvの数に応じて、少なくとも一部のユーザの動きをアバターAvに反映させるか否かを設定する。 As described above, the avatar control device 101 according to the first embodiment includes the avatar generation unit 7 that draws an avatar Av corresponding to each user to generate each avatar, and the number of avatars Av generated by the avatar generation unit 7. The avatar movement setting unit 4 is provided to set whether or not to reflect at least some of the user's movements on the avatar Av in accordance with the avatar Av. The avatar control method and avatar control program according to the first embodiment generate each avatar by drawing an avatar Av corresponding to each user, and control the movements of at least some of the users according to the number of avatars Av to be generated. Set whether or not to reflect on avatar Av.

従って、第1実施形態に係るアバター制御装置101、アバター制御方法、及びアバター制御プログラムによれば、描画負荷または通信負荷が過大となることを防ぎながら、ユーザに対応するアバターAvを生成するよう制御することができる。 Therefore, according to the avatar control device 101, avatar control method, and avatar control program according to the first embodiment, control is performed to generate an avatar Av corresponding to the user while preventing excessive drawing load or communication load. can do.

アバター動き設定部4は、ユーザの動きを反映させないアバターAvを、静止状態または特定の動きに設定するのがよい。 The avatar movement setting unit 4 preferably sets the avatar Av, which does not reflect the user's movement, to a stationary state or a specific movement.

第1実施形態に係るアバター制御装置101は、各ユーザ端末20とネットワーク50を介して接続されているアバター制御サーバ10aに設けられている。各ユーザ端末20は、各ユーザの動きを検出する動きセンサ21が生成する動き検出信号またはその動き検出信号に基づいて生成された各ユーザの骨格動き信号をアバター制御サーバ10aに送信する。 An avatar control device 101 according to the first embodiment is provided in an avatar control server 10a connected to each user terminal 20 via a network 50. Each user terminal 20 transmits a motion detection signal generated by a motion sensor 21 that detects the motion of each user or a skeletal motion signal of each user generated based on the motion detection signal to the avatar control server 10a.

アバター制御装置101は、アバター制御サーバ10aに接続されているユーザ端末20の数を取得する。アバター制御装置101は、アバター制御サーバ10aに接続されているユーザ端末20の数が所定の数を超えるとき、少なくとも一部のユーザ端末20に、動き検出信号または骨格動き信号をアバター制御サーバ10aに送信しないように指示する制御部9を備える。従って、描画負荷または通信負荷が過大となることを防ぐアバター制御装置101を実現することができる。 The avatar control device 101 acquires the number of user terminals 20 connected to the avatar control server 10a. When the number of user terminals 20 connected to the avatar control server 10a exceeds a predetermined number, the avatar control device 101 transmits a motion detection signal or a skeletal motion signal to at least some of the user terminals 20 to the avatar control server 10a. It includes a control unit 9 that instructs not to transmit. Therefore, it is possible to realize the avatar control device 101 that prevents the drawing load or the communication load from becoming excessive.

<第2実施形態>
図9に示す第2実施形態において、第1実施形態と同一の箇所には同一の符号を付し、その説明を省略することがある。図9に示すように、アバター制御サーバ10bとユーザ端末20d~20fがネットワーク50を介して接続されている。ユーザ端末20d~20fのいずれかを特定しないユーザ端末、及び図示していない他の任意のユーザ端末をユーザ端末20と称することとする。ネットワーク50を介してアバター制御サーバ10bに接続されているユーザ端末20の数は、1またはそれ以上の任意の数である。
<Second embodiment>
In the second embodiment shown in FIG. 9, the same parts as in the first embodiment are given the same reference numerals, and the explanation thereof may be omitted. As shown in FIG. 9, the avatar control server 10b and user terminals 20d to 20f are connected via a network 50. A user terminal that does not specify any of the user terminals 20d to 20f and any other user terminal not shown will be referred to as a user terminal 20. The number of user terminals 20 connected to the avatar control server 10b via the network 50 is one or more.

各ユーザ端末20はアバター制御装置222を備える。各ユーザ端末20は、第1実施形態のユーザ端末20と異なる構成として、動き検出部202、トラッキング外れ検出部203、アバター動き設定部204、特定姿勢データ保持部205、アバター制御信号生成部206、アバター生成部207、レンダリング部208、記憶部209を備える。アバター生成部207は演算部2071を含む。アバター制御サーバ10bは、通信部1、制御部9、アバター・背景設定部12、アバター位置管理部110を備える。 Each user terminal 20 includes an avatar control device 222 . Each user terminal 20 has a different configuration from the user terminal 20 of the first embodiment, including a movement detection section 202, a tracking deviation detection section 203, an avatar movement setting section 204, a specific posture data holding section 205, an avatar control signal generation section 206, It includes an avatar generation section 207, a rendering section 208, and a storage section 209. Avatar generation section 207 includes a calculation section 2071. The avatar control server 10b includes a communication section 1, a control section 9, an avatar/background setting section 12, and an avatar position management section 110.

アバター制御装置222は、プロセッサ及びメモリを含むコンピュータで構成することができる。特定姿勢データ保持部205及び記憶部209はコンピュータのメモリで構成することができる。アバター制御装置222の動きセンサ21、操作部23、通信部24、画像表示部25、特定姿勢データ保持部205及び記憶部209以外の部分はコンピュータのプロセッサで構成することができる。 Avatar control device 222 can be configured with a computer including a processor and memory. The specific posture data holding unit 205 and the storage unit 209 can be configured with a computer memory. The parts of the avatar control device 222 other than the motion sensor 21, the operation section 23, the communication section 24, the image display section 25, the specific posture data holding section 205, and the storage section 209 can be configured by a computer processor.

動き検出部202は、動き検出部2と同様に、各ユーザの骨格動き信号を生成する。骨格動き信号は、トラッキング外れ検出部203、アバター動き設定部204、通信部24に供給される。通信部24は、骨格動き信号をアバター制御サーバ10bに送信する。アバター制御サーバ10bの通信部1は、各ユーザ端末20から送信された骨格動き信号を受信する。通信部1は、制御部9による制御に従って、他の全てのユーザ端末20から送信された骨格動き信号を各ユーザ端末20に送信する。 Similar to the motion detection unit 2, the motion detection unit 202 generates a skeletal motion signal for each user. The skeletal motion signal is supplied to the tracking-off detection section 203, the avatar motion setting section 204, and the communication section 24. The communication unit 24 transmits the skeletal motion signal to the avatar control server 10b. The communication unit 1 of the avatar control server 10b receives skeleton movement signals transmitted from each user terminal 20. The communication unit 1 transmits the skeletal motion signals transmitted from all other user terminals 20 to each user terminal 20 under the control of the control unit 9.

図9に示す例では、通信部1は、ユーザ端末20e及び20fより受信した骨格動き信号をユーザ端末20dに送信する。通信部1は、ユーザ端末20d及び20fより受信した骨格動き信号をユーザ端末20eに送信する。通信部1は、ユーザ端末20d及び20eより受信した骨格動き信号をユーザ端末20fに送信する。 In the example shown in FIG. 9, the communication unit 1 transmits the skeletal motion signals received from the user terminals 20e and 20f to the user terminal 20d. The communication unit 1 transmits the skeletal motion signals received from the user terminals 20d and 20f to the user terminal 20e. The communication unit 1 transmits the skeletal motion signals received from the user terminals 20d and 20e to the user terminal 20f.

トラッキング外れ検出部203は、自己のユーザ端末20における動き検出部202より供給される骨格動き信号、及び他のユーザ端末20における動き検出部202が生成した骨格動き信号に基づいて、各ユーザ端末20におけるトラッキング外れの有無を検出する。トラッキング外れ検出部203は、いずれかのユーザ端末20においてトラッキング外れが発生したことを検出すると、アバター動き設定部204にトラッキング外れが発生したことを通知する。 The tracking loss detection unit 203 detects each user terminal 20 based on the skeletal motion signal supplied from the motion detection unit 202 in its own user terminal 20 and the skeletal motion signal generated by the motion detection unit 202 in other user terminals 20. Detect the presence or absence of tracking loss. When tracking loss detection section 203 detects that tracking loss has occurred in any of the user terminals 20, it notifies avatar movement setting section 204 that tracking loss has occurred.

アバター動き設定部204は、トラッキング外れが発生したことが通知されていなければ、アバターAvに骨格動き信号に応じた動きをさせるようアバター制御信号生成部206に指示する。アバター制御信号生成部206は、アバターAvに骨格動き信号に応じた動きをさせるよう制御するアバター制御信号を生成してアバター生成部207に供給する。アバター生成部207の演算部2071は、骨格動き信号に応じた動きをするアバターAvを描画してアバターAv生成する。 If the avatar movement setting unit 204 has not been notified that tracking loss has occurred, it instructs the avatar control signal generation unit 206 to cause the avatar Av to move in accordance with the skeletal movement signal. The avatar control signal generation section 206 generates an avatar control signal that controls the avatar Av to move in accordance with the skeletal motion signal, and supplies it to the avatar generation section 207 . The calculation unit 2071 of the avatar generation unit 207 generates an avatar Av by drawing an avatar Av that moves according to the skeletal motion signal.

アバター制御サーバ10bのアバター・背景設定部12に設定されているアバターAvの形態を示す情報、人間の体の部位とアバターAvのどの部位が対応するのかの対応関係を示す情報、背景データは、各ユーザ端末20に送信されて記憶部209に記憶される。レンダリング部8は、記憶部209から背景データを取得し、背景データに基づく仮想空間内にアバターAvを位置させるようレンダリングする。 Information indicating the form of the avatar Av, information indicating the correspondence between parts of the human body and which parts of the avatar Av correspond, and background data set in the avatar/background setting section 12 of the avatar control server 10b are as follows: It is transmitted to each user terminal 20 and stored in the storage unit 209. The rendering unit 8 acquires background data from the storage unit 209 and performs rendering to position the avatar Av in a virtual space based on the background data.

各ユーザ端末20の制御部22は、操作部23の操作に応じてアバターAvを移動させる移動制御信号を生成する。制御部22は、自己のユーザ端末20のユーザに対応するアバターAvを仮想空間内で移動制御信号に従って移動させるようレンダリング部208を制御する。移動制御信号は、アバター制御サーバ10bに送信される。アバター位置管理部110は、全てのユーザ端末20からの移動制御信号を取得して、各アバターAvの仮想空間内での位置を管理する。 The control unit 22 of each user terminal 20 generates a movement control signal to move the avatar Av in accordance with the operation of the operation unit 23. The control unit 22 controls the rendering unit 208 to move the avatar Av corresponding to the user of the own user terminal 20 within the virtual space according to the movement control signal. The movement control signal is sent to the avatar control server 10b. The avatar position management unit 110 acquires movement control signals from all user terminals 20 and manages the position of each avatar Av in the virtual space.

通信部1は、制御部9による制御に従って、他の全てのユーザ端末20から送信された移動制御信号を各ユーザ端末20に送信する。図9に示す例では、通信部1は、ユーザ端末20e及び20fより受信した移動制御信号をユーザ端末20dに送信する。通信部1は、ユーザ端末20d及び20fより受信した移動制御信号をユーザ端末20eに送信する。通信部1は、ユーザ端末20d及び20eより受信した移動制御信号をユーザ端末20fに送信する。制御部22は、他のユーザ端末20のユーザに対応するアバターAvを仮想空間内で移動制御信号に従って移動させるようレンダリング部208を制御する。 The communication unit 1 transmits the movement control signals transmitted from all other user terminals 20 to each user terminal 20 under the control of the control unit 9. In the example shown in FIG. 9, the communication unit 1 transmits the movement control signals received from the user terminals 20e and 20f to the user terminal 20d. The communication unit 1 transmits the movement control signals received from the user terminals 20d and 20f to the user terminal 20e. The communication unit 1 transmits the movement control signals received from the user terminals 20d and 20e to the user terminal 20f. The control unit 22 controls the rendering unit 208 to move the avatar Av corresponding to the user of the other user terminal 20 within the virtual space according to the movement control signal.

画像表示部25は、レンダリング部208が生成したレンダリング画像を表示する。ユーザは、画像表示部25に表示されているレンダリング画像を見ながら、自分自身の姿勢を変化させてアバターAvの姿勢を変化させたり、仮想空間内でアバターAvを移動させたりすることができる。 The image display unit 25 displays the rendered image generated by the rendering unit 208. While viewing the rendered image displayed on the image display unit 25, the user can change his or her own posture to change the posture of the avatar Av, or move the avatar Av within the virtual space.

特定姿勢データ保持部205には、アバターAvを静止状態または特定の動きとするための特定姿勢データが保持されている。トラッキング外れ検出部203がトラッキング外れを検出したときのアバター動き設定部204の動作はアバター動き設定部4と同様である。 The specific posture data holding unit 205 holds specific posture data for making the avatar Av stand still or move in a specific manner. The operation of the avatar movement setting unit 204 when the tracking deviation detection unit 203 detects tracking deviation is the same as that of the avatar movement setting unit 4.

第2実施形態においては、描画負荷及び通信負荷を軽減するために、アバター制御サーバ10bを以下のように構成している。制御部9は、アバター制御サーバ10bに接続されていて、通信部1が通信するユーザ端末20の数を取得する。制御部9は、アバター制御サーバ10bに接続されているユーザ端末20の数が所定の数を超えるとき、少なくとも一部のユーザ端末20に、骨格動き信号をアバター制御サーバ10bに送信しないように指示する指示信号を送信する。指示信号を取得して、骨格動き信号をアバター制御サーバ10bに送信しないように指示されたユーザ端末20は、アバター制御サーバ10bへの骨格動き信号の送信を停止する。従って、アバター制御サーバ10bとユーザ端末20との間の通信負荷が軽減される。 In the second embodiment, the avatar control server 10b is configured as follows in order to reduce the drawing load and communication load. The control unit 9 is connected to the avatar control server 10b and acquires the number of user terminals 20 with which the communication unit 1 communicates. When the number of user terminals 20 connected to the avatar control server 10b exceeds a predetermined number, the control unit 9 instructs at least some of the user terminals 20 not to transmit skeletal movement signals to the avatar control server 10b. send an instruction signal to The user terminal 20 that has acquired the instruction signal and has been instructed not to transmit the skeletal motion signal to the avatar control server 10b stops transmitting the skeletal motion signal to the avatar control server 10b. Therefore, the communication load between the avatar control server 10b and the user terminal 20 is reduced.

また、アバター制御サーバ10bへの骨格動き信号の送信を停止したユーザ端末20のユーザに対応するアバターAvは、他のユーザ端末20においてトラッキング外れの状態となる。アバター制御サーバ10bへの骨格動き信号の送信を停止したユーザ端末20のユーザに対応するアバターAvは、静止状態とされるか特定の動きのみをすることになる。従って、アバター生成部207における描画負荷が軽減される。 In addition, the avatar Av corresponding to the user of the user terminal 20 that has stopped sending skeletal motion signals to the avatar control server 10b is out of tracking in other user terminals 20. The avatar Av corresponding to the user of the user terminal 20 that has stopped transmitting skeletal motion signals to the avatar control server 10b will remain in a stationary state or only make specific movements. Therefore, the drawing load on the avatar generation unit 207 is reduced.

制御部9が、骨格動き信号をアバター制御サーバ10bに送信しないように指示するユーザ端末20の選択の仕方は、第1実施形態における動き検出信号をアバター制御サーバ10aに送信しないように指示するユーザ端末20の選択の仕方と同様でよい。 The control unit 9 selects the user terminal 20 that instructs not to transmit the skeletal motion signal to the avatar control server 10b. The selection method for the terminal 20 may be the same.

図10に示すフローチャートを用いて、第2実施形態に係るアバター制御装置222の動作、第2実施形態に係るアバター制御方法、及び第2実施形態に係るアバター制御プログラムがコンピュータに実行させる処理を説明する。図10において、アバター制御装置222の処理が開始されると、制御部22は、ステップS21にて、骨格動き信号の送信停止を指示されたか否かを判定する。骨格動き信号の送信停止を指示されていれば(YES)、通信部24は、ステップS22にて、骨格動き信号の送信を停止して、制御部22は処理をステップS210に移行させる。骨格動き信号の送信停止を指示されてなければ(NO)、制御部22は処理をステップS210に移行させる。 The operation of the avatar control device 222 according to the second embodiment, the avatar control method according to the second embodiment, and the process that the avatar control program according to the second embodiment causes a computer to execute will be explained using the flowchart shown in FIG. do. In FIG. 10, when the process of the avatar control device 222 is started, the control unit 22 determines in step S21 whether or not it has been instructed to stop transmitting the skeletal motion signal. If the instruction to stop transmitting the skeletal motion signal is given (YES), the communication unit 24 stops transmitting the skeletal motion signal in step S22, and the control unit 22 moves the process to step S210. If there is no instruction to stop transmitting the skeletal motion signal (NO), the control unit 22 moves the process to step S210.

ステップS21と並行して、トラッキング外れ検出部203は、ステップS23にて、トラッキングが外れたユーザ端末が存在するか否かを判定する。トラッキングが外れたユーザ端末20が存在すれば(YES)、トラッキング外れ検出部203は、ステップS24にて、該当するユーザ端末20のユーザに対応するアバターを静止状態とするようアバター動き設定部204に通知する。ステップS24に続けて、また、ステップS23にてトラッキングが外れたユーザ端末20が存在しなければ(NO)、アバター動き設定部204は、ステップS25にて、各アバターAvの動きをアバター制御信号生成部206に指示する。 In parallel with step S21, the tracking loss detection unit 203 determines in step S23 whether or not there is a user terminal that has lost tracking. If there is a user terminal 20 that is out of tracking (YES), the out-of-tracking detection unit 203 instructs the avatar movement setting unit 204 to make the avatar corresponding to the user of the corresponding user terminal 20 in a stationary state in step S24. Notice. Continuing to step S24, if there is no user terminal 20 that is out of tracking in step S23 (NO), the avatar movement setting unit 204 generates an avatar control signal for the movement of each avatar Av in step S25. 206.

アバター制御信号生成部206は、ステップS26にて、アバター制御信号を生成する。アバター生成部207は、ステップS27にて、アバターAvを生成する。レンダリング部208は、ステップS28にて、仮想空間内にアバターAvを位置させるようレンダリングする。画像表示部25は、ステップS29にて、レンダリング画像を表示する。 Avatar control signal generation section 206 generates an avatar control signal in step S26. Avatar generation unit 207 generates avatar Av in step S27. In step S28, the rendering unit 208 performs rendering to position the avatar Av within the virtual space. The image display unit 25 displays the rendered image in step S29.

アバター制御装置222は、ステップS210にて、アバター制御動作を終了するか否かを判定する。アバター制御動作を終了しなければ(NO)、アバター制御装置222は処理をステップS21及びS23に戻し、以降の処理を繰り返す。アバター制御動作を終了すれば(YES)、アバター制御装置222は処理を終了させる。 Avatar control device 222 determines whether to end the avatar control operation in step S210. If the avatar control operation is not completed (NO), the avatar control device 222 returns the process to steps S21 and S23, and repeats the subsequent process. If the avatar control operation is completed (YES), the avatar control device 222 ends the process.

以上のように、第2実施形態に係るアバター制御装置222は、各ユーザに対応するアバターAvを描画して各アバターを生成するアバター生成部207と、アバター生成部207が生成するアバターAvの数に応じて、少なくとも一部のユーザの動きをアバターAvに反映させるか否かを設定するアバター動き設定部204とを備える。第2実施形態に係るアバター制御方法及びアバター制御プログラムは、各ユーザに対応するアバターAvを描画して各アバターを生成し、生成するアバターAvの数に応じて、少なくとも一部のユーザの動きをアバターAvに反映させるか否かを設定する。 As described above, the avatar control device 222 according to the second embodiment includes the avatar generation unit 207 that generates each avatar by drawing the avatar Av corresponding to each user, and the number of avatars Av that the avatar generation unit 207 generates. and an avatar movement setting unit 204 that sets whether or not to reflect at least some of the user's movements on the avatar Av. The avatar control method and avatar control program according to the second embodiment generate each avatar by drawing an avatar Av corresponding to each user, and control the movements of at least some of the users according to the number of avatars Av to be generated. Set whether or not to reflect on avatar Av.

従って、第2実施形態に係るアバター制御装置222、アバター制御方法、及びアバター制御プログラムによれば、描画負荷または通信負荷が過大となることを防ぎながら、ユーザに対応するアバターAvを生成するよう制御することができる。 Therefore, according to the avatar control device 222, avatar control method, and avatar control program according to the second embodiment, control is performed to generate an avatar Av corresponding to the user while preventing excessive drawing load or communication load. can do.

アバター動き設定部204は、ユーザの動きを反映させないアバターAvを、静止状態または特定の動きに設定するのがよい。 The avatar movement setting unit 204 preferably sets the avatar Av, which does not reflect the user's movement, to a stationary state or a specific movement.

第2実施形態に係るアバター制御装置222は、各ユーザ端末20に設けられている。各ユーザ端末20は、各ユーザの動きを取得する動きセンサ21が生成する動き検出信号に基づいて生成された各ユーザの骨格動き信号をアバター制御サーバ10bに送信する。各ユーザ端末20のアバター制御装置222は、自己のユーザ端末20以外の他のユーザ端末20が生成した骨格動き信号をアバター制御サーバ10bから取得する。 The avatar control device 222 according to the second embodiment is provided in each user terminal 20. Each user terminal 20 transmits each user's skeletal motion signal generated based on a motion detection signal generated by a motion sensor 21 that acquires each user's motion to the avatar control server 10b. The avatar control device 222 of each user terminal 20 acquires, from the avatar control server 10b, skeletal motion signals generated by user terminals 20 other than its own user terminal 20.

アバター制御サーバ10bは、アバター制御サーバに10bに接続されているユーザ端末20の数が所定の数を超えるとき、少なくとも一部のユーザ端末20に骨格動き信号をアバター制御サーバ10bに送信しないように指示する指示信号を送信する。従って、少なくとも一部のユーザ端末20のアバター制御装置222は、アバター制御サーバ10bから送信された指示信号を取得する。 The avatar control server 10b prevents at least some of the user terminals 20 from transmitting skeletal motion signals to the avatar control server 10b when the number of user terminals 20 connected to the avatar control server 10b exceeds a predetermined number. Send an instruction signal to instruct. Therefore, the avatar control devices 222 of at least some of the user terminals 20 acquire the instruction signal transmitted from the avatar control server 10b.

アバター制御装置222は、指示信号を取得すると、骨格動き信号をアバター制御サーバ10bに送信しないよう制御する制御部22を備える。従って、第2実施形態によれば、描画負荷または通信負荷が過大となることを防ぐアバター制御装置222を実現することができる。 The avatar control device 222 includes a control unit 22 that controls not to transmit the skeletal motion signal to the avatar control server 10b upon acquiring the instruction signal. Therefore, according to the second embodiment, it is possible to realize the avatar control device 222 that prevents the drawing load or the communication load from becoming excessive.

<第3実施形態>
図1に示すように、アバター制御サーバ10aは、アバター制御装置101と同様の構成を有する第3実施形態に係るアバター制御装置103を備える。図11に示すフローチャートを用いて、第3実施形態に係るアバター制御装置103の動作、第3実施形態に係るアバター制御方法、及び第3実施形態に係るアバター制御プログラムがコンピュータに実行させる処理を説明する。
<Third embodiment>
As shown in FIG. 1, the avatar control server 10a includes an avatar control device 103 according to the third embodiment, which has the same configuration as the avatar control device 101. The operation of the avatar control device 103 according to the third embodiment, the avatar control method according to the third embodiment, and the process that the avatar control program according to the third embodiment causes a computer to execute will be explained using the flowchart shown in FIG. 11. do.

図11において、アバター制御装置103の処理が開始されると、制御部9は、ステップS31にて、接続されているユーザ端末20の数が所定の数を超えるか否かを判定する。ユーザ端末20の数が所定の数を超えていれば(YES)、制御部9は、ステップS32にて、動きが所定の大きさ以下であるアバターに対応するユーザのユーザ端末20に動き検出信号の送信停止を指示して、処理をステップS310に移行させる。ユーザ端末20の数が所定の数を超えていなければ(NO)、制御部9は処理をステップS310に移行させる。ステップS33~S310は、図8のステップS3~S10と同じである。 In FIG. 11, when the process of the avatar control device 103 is started, the control unit 9 determines in step S31 whether the number of connected user terminals 20 exceeds a predetermined number. If the number of user terminals 20 exceeds the predetermined number (YES), the control unit 9 sends a motion detection signal to the user terminal 20 of the user corresponding to the avatar whose movement is less than or equal to the predetermined size in step S32. , and the process moves to step S310. If the number of user terminals 20 does not exceed the predetermined number (NO), the control unit 9 moves the process to step S310. Steps S33 to S310 are the same as steps S3 to S10 in FIG.

第3実施形態に係るアバター制御装置103は、各ユーザに対応するアバターAvを描画して各アバターを生成するアバター生成部7と、各ユーザの動きを取得する動きセンサ21が生成する動き検出信号に基づいて、各アバターの動きを設定するアバター動き設定部4とを備える。アバター動き設定部4は、アバター生成部7が生成するアバターの数が所定の数を超えるとき、動きが所定の大きさ以下であるアバターを、動きセンサ21が生成する動き検出信号とは無関係に静止状態または特定の動きに設定する。ここでの特定の動きは、上記の所定の大きさ未満の動きとするのがよい。 The avatar control device 103 according to the third embodiment includes an avatar generation unit 7 that draws an avatar Av corresponding to each user to generate each avatar, and a motion detection signal generated by a motion sensor 21 that acquires the motion of each user. The avatar movement setting section 4 sets the movement of each avatar based on the avatar movement setting section 4. When the number of avatars generated by the avatar generation unit 7 exceeds a predetermined number, the avatar movement setting unit 4 selects avatars whose movement is less than or equal to a predetermined size, regardless of the motion detection signal generated by the motion sensor 21. Set to rest or specific movement. The specific movement here is preferably a movement less than the above-mentioned predetermined magnitude.

第3実施形態に係るアバター制御方法及びアバター制御プログラムは、各ユーザに対応するアバターを描画して各アバターを生成し、各ユーザの動きを取得する動きセンサ21が生成する動き検出信号に基づいて、各アバターの動きを設定する。第3実施形態に係るアバター制御方法及びアバター制御プログラムは、生成するアバターの数が所定の数を超えるとき、動きが所定の大きさ以下であるユーザに対応するアバターを、動きセンサ21が生成する動き検出信号とは無関係に静止状態または特定の動きに設定する。 The avatar control method and avatar control program according to the third embodiment generate each avatar by drawing an avatar corresponding to each user, and based on a motion detection signal generated by a motion sensor 21 that acquires the motion of each user. , set the movement of each avatar. In the avatar control method and avatar control program according to the third embodiment, when the number of avatars to be generated exceeds a predetermined number, the motion sensor 21 generates an avatar corresponding to a user whose movement is less than or equal to a predetermined size. Set to stationary state or specific motion regardless of motion detection signal.

従って、第3実施形態に係るアバター制御装置103、アバター制御方法、及びアバター制御プログラムによれば、描画負荷または通信負荷が過大となることを防ぎながら、ユーザに対応するアバターAvを生成するよう制御することができる。動きが所定の大きさ以下であるアバターはさほど重要な動きをしてしないと考えられるから、静止状態に設定しても、静止状態に設定したアバターに対応するユーザ以外の他のユーザが違和感を覚えることは少ない。 Therefore, according to the avatar control device 103, avatar control method, and avatar control program according to the third embodiment, control is performed to generate an avatar Av corresponding to the user while preventing excessive drawing load or communication load. can do. Avatars whose movements are less than a predetermined size are considered not to make significant movements, so even if the avatar is set to a static state, other users other than the user corresponding to the avatar set to a static state may feel strange. I don't remember much.

第3実施形態に係るアバター制御装置103、アバター制御方法、及びアバター制御プログラムは、生成するアバターの数が所定の数を超えるか否かにかかわらず、動きが所定の大きさ以下であるユーザに対応するアバターを、動きセンサ21が生成する動き検出信号とは無関係に静止状態または特定の動きに設定してもよい。 The avatar control device 103, the avatar control method, and the avatar control program according to the third embodiment can be applied to a user whose movement is less than or equal to a predetermined size, regardless of whether the number of avatars to be generated exceeds a predetermined number. The corresponding avatar may be set to a stationary state or to a specific motion independently of the motion detection signal generated by the motion sensor 21.

<第4実施形態>
図9に示すように、各ユーザ端末20は、アバター制御装置222と同様の構成を有する第4実施形態に係るアバター制御装置224を備える。アバター制御サーバ10bの制御部9は、アバター制御サーバ10bに接続されているユーザ端末20の数が所定の数を超えるとき、各ユーザ端末20から送信される骨格動き信号に基づいて、動きが所定の大きさ以下であるアバターに対応するユーザのユーザ端末20に、骨格動き信号をアバター制御サーバ10bに送信しないように指示する。骨格動き信号をアバター制御サーバ10bに送信しないように指示されたユーザ端末20は、アバター制御サーバ10bへの骨格動き信号の送信を停止する。
<Fourth embodiment>
As shown in FIG. 9, each user terminal 20 includes an avatar control device 224 according to the fourth embodiment, which has the same configuration as the avatar control device 222. When the number of user terminals 20 connected to the avatar control server 10b exceeds a predetermined number, the control unit 9 of the avatar control server 10b controls the motion to a predetermined level based on the skeletal motion signal transmitted from each user terminal 20. The user terminal 20 of the user corresponding to the avatar whose size is smaller than or equal to is instructed not to transmit a skeletal motion signal to the avatar control server 10b. The user terminal 20 that has been instructed not to transmit the skeletal motion signal to the avatar control server 10b stops transmitting the skeletal motion signal to the avatar control server 10b.

第4実施形態に係るアバター制御装置224の動作、第4実施形態に係るアバター制御方法、及び第4実施形態に係るアバター制御プログラムは、図10と同様である。 The operation of the avatar control device 224 according to the fourth embodiment, the avatar control method according to the fourth embodiment, and the avatar control program according to the fourth embodiment are the same as those in FIG. 10.

第4実施形態に係るアバター制御装置224は、各ユーザに対応するアバターAvを描画して各アバターを生成するアバター生成部207と、各ユーザの動きを取得する動きセンサ21が生成する動き検出信号に基づいて、各アバターの動きを設定するアバター動き設定部204とを備える。アバター動き設定部204は、アバター生成部207が生成するアバターの数が所定の数を超えるとき、動きが所定の大きさ以下であるアバターを、動きセンサ21が生成する動き検出信号とは無関係に静止状態に設定する。 The avatar control device 224 according to the fourth embodiment includes an avatar generation unit 207 that draws an avatar Av corresponding to each user to generate each avatar, and a motion detection signal generated by a motion sensor 21 that acquires the motion of each user. , and an avatar movement setting section 204 that sets the movement of each avatar based on the following. When the number of avatars generated by the avatar generation unit 207 exceeds a predetermined number, the avatar movement setting unit 204 selects avatars whose movement is less than or equal to a predetermined size, regardless of the motion detection signal generated by the motion sensor 21. Set to quiescent state.

第4実施形態に係るアバター制御方法及びアバター制御プログラムは、各ユーザに対応するアバターを描画して各アバターを生成し、各ユーザの動きを取得する動きセンサ21が生成する動き検出信号に基づいて、各アバターの動きを設定する。第4実施形態に係るアバター制御方法及びアバター制御プログラムは、生成するアバターの数が所定の数を超えるとき、動きが所定の大きさ以下であるユーザに対応するアバターを、動きセンサ21が生成する動き検出信号とは無関係に静止状態に設定する。 The avatar control method and avatar control program according to the fourth embodiment generate each avatar by drawing an avatar corresponding to each user, and based on a motion detection signal generated by a motion sensor 21 that acquires the motion of each user. , set the movement of each avatar. In the avatar control method and avatar control program according to the fourth embodiment, when the number of avatars to be generated exceeds a predetermined number, the movement sensor 21 generates an avatar corresponding to a user whose movement is less than or equal to a predetermined size. Set to a stationary state regardless of the motion detection signal.

従って、第4実施形態に係るアバター制御装置224、アバター制御方法、及びアバター制御プログラムによれば、描画負荷または通信負荷が過大となることを防ぎながら、ユーザに対応するアバターAvを生成するよう制御することができる。動きが所定の大きさ以下であるアバターはさほど重要な動きをしてしないと考えられるから、静止状態に設定しても、静止状態に設定したアバターに対応するユーザ以外の他のユーザが違和感を覚えることは少ない。 Therefore, according to the avatar control device 224, the avatar control method, and the avatar control program according to the fourth embodiment, the avatar Av corresponding to the user is controlled to be generated while preventing the drawing load or the communication load from becoming excessive. can do. Avatars whose movements are less than a predetermined size are considered not to make significant movements, so even if the avatar is set to a static state, other users other than the user corresponding to the avatar set to a static state may feel strange. I don't remember much.

第4実施形態に係るアバター制御装置224、アバター制御方法、及びアバター制御プログラムは、生成するアバターの数が所定の数を超えるか否かにかかわらず、動きが所定の大きさ以下であるユーザに対応するアバターを、動きセンサ21が生成する動き検出信号とは無関係に静止状態または特定の動きに設定してもよい。 The avatar control device 224, the avatar control method, and the avatar control program according to the fourth embodiment can be applied to a user whose movement is less than or equal to a predetermined size, regardless of whether the number of avatars to be generated exceeds a predetermined number. The corresponding avatar may be set to a stationary state or to a specific movement independently of the motion detection signal generated by the motion sensor 21.

本発明は以上説明した第1~第4実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。 The present invention is not limited to the first to fourth embodiments described above, and various modifications can be made without departing from the gist of the present invention.

1,24 通信部
2,202 動き検出部
3,203 トラッキング外れ検出部
4,204 アバター動き設定部
5,205 特定姿勢データ保持部
6,206 アバター制御信号生成部
7,207 アバター生成部
8,208 レンダリング部
9,22 制御部
10a,10b アバター制御サーバ
11 アバター位置制御部
12 アバター・背景設定部
20a,20b,20c,20d,20e,20f ユーザ端末
21 動きセンサ
23 操作部
25 画像表示部
50 ネットワーク
101,103,222,224 アバター制御装置
110 アバター位置管理部
209 記憶部
1, 24 Communication unit 2, 202 Motion detection unit 3, 203 Tracking deviation detection unit 4, 204 Avatar movement setting unit 5, 205 Specific posture data storage unit 6, 206 Avatar control signal generation unit 7, 207 Avatar generation unit 8, 208 Rendering unit 9, 22 Control unit 10a, 10b Avatar control server 11 Avatar position control unit 12 Avatar/background setting unit 20a, 20b, 20c, 20d, 20e, 20f User terminal 21 Motion sensor 23 Operation unit 25 Image display unit 50 Network 101 , 103, 222, 224 Avatar control device 110 Avatar position management section 209 Storage section

Claims (4)

各ユーザに対応するアバターを描画して各アバターを生成するアバター生成部と、
前記各ユーザの動きを取得する動きセンサが生成する動き検出信号に基づいて、前記各アバターの動きを設定するアバター動き設定部と、
を備え、
前記アバター動き設定部は、動きが所定の大きさ以下であるアバターを、前記動きセンサが生成する動き検出信号とは無関係に静止状態または特定の動きに設定する
アバター制御装置。
an avatar generation unit that generates each avatar by drawing an avatar corresponding to each user;
an avatar movement setting unit that sets the movement of each avatar based on a movement detection signal generated by a movement sensor that acquires the movement of each user;
Equipped with
The avatar motion setting unit sets an avatar whose motion is less than a predetermined magnitude to a stationary state or a specific motion regardless of a motion detection signal generated by the motion sensor.
前記アバター動き設定部は、前記アバター生成部が生成するアバターの数が所定の数を超えるとき、動きが所定の大きさ以下であるアバターを、前記動きセンサが生成する動き検出信号とは無関係に静止状態または特定の動きに設定する請求項1に記載のアバター制御装置。 When the number of avatars generated by the avatar generation unit exceeds a predetermined number, the avatar movement setting unit selects an avatar whose movement is less than or equal to a predetermined size, regardless of the motion detection signal generated by the movement sensor. The avatar control device according to claim 1, wherein the avatar control device is set to a stationary state or a specific movement. 各ユーザに対応するアバターを描画して各アバターを生成し、
前記各ユーザの動きを取得する動きセンサが生成する動き検出信号に基づいて、前記各アバターの動きを設定し、
動きが所定の大きさ以下であるアバターを、前記動きセンサが生成する動き検出信号とは無関係に静止状態または特定の動きに設定する
アバター制御方法。
Generate each avatar by drawing an avatar corresponding to each user,
setting the movement of each avatar based on a movement detection signal generated by a movement sensor that acquires the movement of each user;
An avatar control method that sets an avatar whose motion is less than a predetermined magnitude to a stationary state or a specific motion regardless of a motion detection signal generated by the motion sensor.
コンピュータに、
各ユーザに対応するアバターを描画して各アバターを生成するステップと、
前記各ユーザの動きを取得する動きセンサが生成する動き検出信号に基づいて、前記各アバターの動きを設定するステップと、
動きが所定の大きさ以下であるアバターを、前記動きセンサが生成する動き検出信号とは無関係に静止状態または特定の動きに設定するステップと、
を実行させるアバター制御プログラム。
to the computer,
generating each avatar by drawing an avatar corresponding to each user;
setting the movement of each avatar based on a movement detection signal generated by a movement sensor that acquires the movement of each user;
setting an avatar whose movement is less than or equal to a predetermined magnitude to a stationary state or a specific movement regardless of a movement detection signal generated by the movement sensor;
An avatar control program that runs.
JP2022133596A 2022-08-24 2022-08-24 Avatar control device, avatar control method, and avatar control program Pending JP2024030610A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022133596A JP2024030610A (en) 2022-08-24 2022-08-24 Avatar control device, avatar control method, and avatar control program
PCT/JP2023/023557 WO2024042843A1 (en) 2022-08-24 2023-06-26 Avatar control device, avatar control method, and avatar control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022133596A JP2024030610A (en) 2022-08-24 2022-08-24 Avatar control device, avatar control method, and avatar control program

Publications (1)

Publication Number Publication Date
JP2024030610A true JP2024030610A (en) 2024-03-07

Family

ID=90012913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022133596A Pending JP2024030610A (en) 2022-08-24 2022-08-24 Avatar control device, avatar control method, and avatar control program

Country Status (2)

Country Link
JP (1) JP2024030610A (en)
WO (1) WO2024042843A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5837860B2 (en) * 2012-06-11 2015-12-24 Kddi株式会社 Motion similarity calculation device, motion similarity calculation method, and computer program
JP7098676B2 (en) * 2020-03-24 2022-07-11 グリー株式会社 Video application program, video object drawing method, video distribution system, video distribution server and video distribution method

Also Published As

Publication number Publication date
WO2024042843A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
EP1117074A2 (en) Augmented reality presentation apparatus and method, and storage medium
JP6097377B1 (en) Image display method and program
US11979684B2 (en) Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
US10356219B2 (en) Image transmission apparatus, information processing terminal, image transmission method, information processing method, program, and information storage medium
EP3797931A1 (en) Remote control system, information processing method, and program
US11647292B2 (en) Image adjustment system, image adjustment device, and image adjustment
JP2022184958A (en) animation production system
KR102503337B1 (en) Image display method, apparatus and system
JP2021135776A (en) Information processor, information processing method, and program
US11531401B2 (en) Data replacement apparatus, computing device, and program for user and avatar coordination
JP7040521B2 (en) Information processing equipment, information processing methods, and programs
WO2024042843A1 (en) Avatar control device, avatar control method, and avatar control program
WO2024042842A1 (en) Avatar control device, avatar control method, and avatar control program
JP2023095862A (en) Program and information processing method
US11610343B2 (en) Video display control apparatus, method, and non-transitory computer readable medium
US20230260235A1 (en) Information processing apparatus, information processing method, and information processing system
JP4544262B2 (en) Virtual reality space sharing system and method, and information processing apparatus and method
US20230206546A1 (en) Terminal device, method, and computer program
WO2023204104A1 (en) Virtual space presenting device
WO2023242981A1 (en) Head-mounted display, head-mounted display system, and display method for head-mounted display
JP2023070410A (en) Video presentation device, program and video presentation method
JP7439431B2 (en) Information distribution device, information generation method, and information generation program
JP7218872B2 (en) animation production system
JP2019040485A (en) Character moving image display system
JP2017097918A (en) Image display method and program