JP6731532B1 - Video playback device, video playback method, and video delivery system - Google Patents

Video playback device, video playback method, and video delivery system Download PDF

Info

Publication number
JP6731532B1
JP6731532B1 JP2019159175A JP2019159175A JP6731532B1 JP 6731532 B1 JP6731532 B1 JP 6731532B1 JP 2019159175 A JP2019159175 A JP 2019159175A JP 2019159175 A JP2019159175 A JP 2019159175A JP 6731532 B1 JP6731532 B1 JP 6731532B1
Authority
JP
Japan
Prior art keywords
posture
user
moving image
feature amount
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019159175A
Other languages
Japanese (ja)
Other versions
JP2021040203A (en
Inventor
暁彦 白井
暁彦 白井
洋典 山内
洋典 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2019159175A priority Critical patent/JP6731532B1/en
Priority to JP2020116421A priority patent/JP6945693B2/en
Application granted granted Critical
Publication of JP6731532B1 publication Critical patent/JP6731532B1/en
Publication of JP2021040203A publication Critical patent/JP2021040203A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】視聴ユーザの動作をリアルタイムで反映したアバタのアニメーションを生成して、配信中の動画に含める。【解決手段】動画再生装置は、コンピュータ読み取り可能な命令を実行することにより、動画配信装置から受信した動画を再生し、ユーザの姿勢の特徴を表す姿勢特徴量を含むモーションデータを動画配信装置に送信し、動画配信装置から姿勢特徴量に基づいて生成されたユーザのアバタのアニメーションを含む動画を受信し、姿勢特徴量に基づいてユーザの姿勢を分類する分類器によりユーザの姿勢が予め定められた基準姿勢に属するか否かを判定し、モーションデータの動画配信装置への伝送に遅延が発生している間に、ユーザの姿勢が属すると判定された基準姿勢を識別し姿勢特徴量よりも少ないデータ量の基準姿勢識別データを動画配信装置に送信する。【選択図】図10PROBLEM TO BE SOLVED: To generate an avatar animation in which a motion of a viewing user is reflected in real time, and include it in a moving image. A moving image reproducing apparatus reproduces a moving image received from a moving image distribution apparatus by executing a computer-readable instruction, and stores motion data including a posture feature amount indicating a characteristic of a user's posture in the moving image distribution apparatus. A user's posture is predetermined by a classifier that transmits and receives a video including an animation of the user's avatar generated based on the posture feature amount from the video distribution device, and classifies the user's posture based on the posture feature amount. It is determined whether the user's posture is determined to belong to the reference posture while delaying the transmission of the motion data to the moving image distribution device, and the reference feature is determined to be more than the posture feature amount. The reference attitude identification data having a small data amount is transmitted to the moving image distribution device. [Selection diagram] Fig. 10

Description

本明細書における開示は、主に、動画再生装置、動画再生方法、及び動画配信システムに関する。 The disclosure in the present specification mainly relates to a moving image reproducing device, a moving image reproducing method, and a moving image distribution system.

動画を視聴する視聴ユーザがアバタを用いて当該動画に参加することができる動画配信システムが知られている。例えば、特開2012−120098号公報(特許文献1)には、配信されている動画に視聴ユーザのアバタを含めることが記載されている。 A moving image distribution system is known in which a viewing user who views a moving image can participate in the moving image using an avatar. For example, Japanese Unexamined Patent Application Publication No. 2012-120098 (Patent Document 1) describes that an avatar of a viewing user is included in a distributed moving image.

特開2012−120098号公報JP 2012-120098 A

動画を配信する動画配信サービスにおいては、視聴ユーザからのフィードバックを配信されている動画に反映することで視聴ユーザのエンゲージメントを高めることができる。例えば、上記特許文献1には、視聴ユーザからのコメントを当該視聴ユーザのアバタと関連付けて表示することが記載されている。この特許文献1のシステムでは、視聴ユーザは、コメントを投稿するという方法で配信されている動画へのフィードバックを提供しており、このフィードバックが配信されている動画に反映されている。 In a video distribution service that distributes videos, it is possible to increase the engagement of the viewing users by reflecting the feedback from the viewing users on the videos being distributed. For example, Patent Document 1 describes that a comment from a viewing user is displayed in association with the avatar of the viewing user. In the system of Patent Document 1, the viewing user provides feedback to the distributed video by a method of posting a comment, and this feedback is reflected in the distributed video.

視聴ユーザからのコメントだけでなく視聴ユーザの動作に応じて動くアバタのアニメーションを配信コンテンツに含めることができれば、視聴ユーザのエンゲージメントをさらに高めることができると考えられる。しかしながら、視聴ユーザの動作に応じてアバタを動かすためには、当該視聴ユーザの動画再生装置から動画を生成する動画生成装置に対して、当該視聴ユーザの動作を示すモーションデータをリアルタイムで送信することが必要となる。アバタにユーザの動作を反映した動きを行わせるためには、当該ユーザの動作を示すモーションデータに当該ユーザのボーンの位置及び向きを示すボーンデータを含める必要がある。ボーンの位置及び向きは、3次元ベクトルで表現される。人体の動きを表現するためには、20本以上のボーンのボーンデータが必要となることもある。 If it is possible to include not only a comment from the viewing user but also an avatar animation that moves according to the operation of the viewing user in the distribution content, it is considered that the engagement of the viewing user can be further enhanced. However, in order to move the avatar according to the action of the viewing user, the motion data indicating the action of the viewing user is transmitted in real time to the moving image generating device that generates the moving image from the moving image playback device of the viewing user. Is required. In order for the avatar to perform a motion that reflects the motion of the user, the motion data indicating the motion of the user needs to include bone data indicating the position and orientation of the bone of the user. The position and orientation of the bone are represented by a three-dimensional vector. Bone data of 20 or more bones may be required to represent the movement of the human body.

以上のように、ボーンデータのデータ量が大きいため、伝送路の帯域や輻輳の程度によっては、視聴ユーザの姿勢を示すボーンデータを含むモーションデータを遅延なく伝送することは難しい。特に、ユーザ装置からの上り回線は、コンテンツ配信に利用される下り回線よりも伝送容量が小さいため、上り回線を使ってのボーンデータの伝送には遅延が発生しやすい。その結果、視聴ユーザから送信されるボーンデータに基づいて視聴ユーザの動作をリアルタイムで反映したアバタのアニメーションを生成し、その生成したアニメーションを配信中の動画に含めることは難しい。 As described above, since the amount of bone data is large, it is difficult to transmit motion data including bone data indicating the posture of the viewing user without delay, depending on the bandwidth of the transmission path and the degree of congestion. In particular, the uplink from the user equipment has a smaller transmission capacity than the downlink used for content distribution, and therefore delay is likely to occur in the transmission of bone data using the uplink. As a result, it is difficult to generate an avatar animation that reflects the action of the viewing user in real time based on the bone data transmitted from the viewing user, and to include the generated animation in the moving image being distributed.

配信中の動画に視聴ユーザがアバタで参加する場合だけでなく、ユーザ同士が自らの動きに応じて動くアバタを介してコミュニケーションを行うシステムにおいても各ユーザのボーンデータを相手ユーザの装置に送信する必要がある。よって、ユーザ同士が自らの動きに応じて動くアバタを介してコミュニケーションを行うシステムにおいては、伝送路において遅延が発生した場合に各ユーザの動作を反映して滑らかに動くアバタのアニメーションを生成することは難しい。 Not only when the viewing user participates in the video being delivered by the avatar, but also in the system where the users communicate with each other through the avatar that moves according to their own movement, the bone data of each user is transmitted to the device of the other user. There is a need. Therefore, in a system in which users communicate with each other via an avatar that moves according to their own movements, when a delay occurs in the transmission path, it is necessary to generate an animation of the avatar that moves smoothly reflecting the actions of each user. Is difficult

本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。 It is an object of the present disclosure to provide a technical improvement that solves or alleviates at least some of the above-mentioned problems of the prior art.

本発明のより具体的な目的の一つは、従来よりも少ないデータ量の情報に基づいてユーザの姿勢に関連するアバタのアニメーションを生成できるようにすることである。 One of the more specific objects of the present invention is to be able to generate an avatar animation related to a user's posture based on information having a smaller amount of data than before.

本明細書の開示の上記以外の目的は、本明細書全体を参照することにより明らかになる。本明細書に開示される発明は、上記の課題に代えて又は上記の課題に加えて、本明細書の発明を実施するための形態の記載から把握される課題を解決するものであってもよい。 Other objectives of the disclosure of the present specification will become apparent by referring to the entire specification. The invention disclosed in this specification may solve the problems grasped from the description of the modes for carrying out the invention of this specification instead of or in addition to the above problems. Good.

一態様による動画再生装置は、一又は複数のコンピュータプロセッサを備え、前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、動画配信装置から受信した動画を再生し、ユーザの姿勢の特徴を表す姿勢特徴量を含むモーションデータを前記動画配信装置に送信し、前記動画配信装置から前記姿勢特徴量に基づいて生成された前記ユーザのアバタのアニメーションを含む動画を受信し、前記姿勢特徴量に基づいて前記ユーザの姿勢を分類する分類器により前記ユーザの姿勢が予め定められた基準姿勢に属するか否かを判定し、前記モーションデータの前記動画配信装置への伝送に遅延が発生している間に、前記ユーザの姿勢が属すると判定された前記基準姿勢を識別し前記姿勢特徴量よりも少ないデータ量の基準姿勢識別データを前記動画配信装置に送信する。 A moving image reproducing apparatus according to one aspect includes one or more computer processors, and the one or more computer processors execute a computer-readable instruction to reproduce the moving image received from the moving image distribution apparatus, and to reproduce the moving image. Motion data including a posture characteristic amount representing a posture characteristic is transmitted to the moving image distribution device, and a moving image including an animation of the user's avatar generated based on the posture characteristic amount is received from the moving image distribution device, A classifier that classifies the posture of the user based on the posture characteristic amount determines whether or not the posture of the user belongs to a predetermined reference posture, and there is a delay in transmission of the motion data to the video distribution device. While occurring, the reference posture determined to belong to the user's posture is identified, and reference posture identification data having a data amount smaller than the posture feature amount is transmitted to the moving image distribution device.

一態様による動画再生装置において、前記分類器は、前記ユーザの姿勢が前記基準姿勢と合致するか否かを、前記姿勢特徴量を変数として評価関数に基づいて判定する。 In the video playback device according to one aspect, the classifier determines whether or not the posture of the user matches the reference posture, based on an evaluation function with the posture feature amount as a variable.

一態様における動画再生装置は、前記基準姿勢を表す画像を前記ユーザに提示し、提示された前記画像に対して前記ユーザが取った姿勢を表す姿勢特徴量を教師データとして学習することにより前記分類器を作成する。 The moving image reproducing apparatus according to one aspect presents the image representing the reference posture to the user, and learns the posture feature amount representing the posture taken by the user with respect to the presented image as teacher data to perform the classification. Create a container.

一態様における動画再生装置においては、前記ユーザのアバタについて一又は複数の登録アニメーションが登録されている。一態様における動画再生装置は、前記遅延が発生している間に前記基準姿勢識別データに基づいて特定された前記基準姿勢に対応する前記登録アニメーションを含む動画を受信する。 In the moving image reproducing device according to one aspect, one or a plurality of registered animations are registered for the avatar of the user. The moving image reproducing apparatus according to an aspect receives a moving image including the registered animation corresponding to the reference posture specified based on the reference posture identification data while the delay is occurring.

一態様における動画再生装置は、時系列に取得された前記姿勢特徴量に基づいて前記アバタのユーザアニメーションを生成し、前記ユーザアニメーションを前記登録アニメーションとして登録し、前記ユーザアニメーションを含むサンプル動画を生成し、前記サンプル動画を構成する複数のフレームの中から選択された基準フレームの画像に基づいて前記ユーザアニメーションに対応する前記基準姿勢を決定する。 A moving image reproducing apparatus according to an aspect generates a user animation of the avatar based on the posture feature amount acquired in time series, registers the user animation as the registered animation, and generates a sample moving image including the user animation. Then, the reference posture corresponding to the user animation is determined based on the image of the reference frame selected from the plurality of frames forming the sample moving image.

一態様における動画再生装置は、所定のフレームレートに基づいて前記ユーザに関する複数の特徴点の各々において前記ユーザに関する前記姿勢特徴量を算出し、第1フレームにおいて前記複数の特徴点の各々における前記姿勢特徴量の二乗平均平方根である第1RMSを算出し、前記第1フレームよりも時系列的に後の第2フレームにおいて前記複数の特徴点の各々における前記姿勢特徴量の二乗平均平方根である第2RMSを算出し、前記第2フレームよりも時系列的に後の第3フレームにおいて前記複数の特徴点の各々における前記姿勢特徴量の二乗平均平方根である第3RMSを算出し、前記第2RMSと前記第1RMSとの差である第1RMS差の正負と前記第3RMSと前記第2RMSとの差である第2RMS差の正負とが逆転した場合に、前記第3フレームにおける前記姿勢特徴量に基づいて前記ユーザアニメーションに対応する前記基準姿勢を決定する。 The moving image reproducing apparatus according to one aspect calculates the posture feature amount regarding the user at each of the plurality of feature points regarding the user based on a predetermined frame rate, and the posture at each of the plurality of feature points in the first frame. A first RMS that is a root mean square of the feature amount is calculated, and a second RMS that is a root mean square of the posture feature amount at each of the plurality of feature points in the second frame that is later than the first frame in time series. And a third RMS that is a root mean square of the posture feature amount at each of the plurality of feature points in a third frame that is later in time series than the second frame, and the second RMS and the When the positive/negative of the first RMS difference, which is the difference from 1RMS, and the positive/negative of the second RMS difference, which is the difference between the third RMS and the second RMS, are reversed, the user is based on the posture feature amount in the third frame. The reference posture corresponding to the animation is determined.

一態様における動画再生装置は、前記ユーザアニメーションに対する前記ユーザの動きに基づいて時系列に取得された前記姿勢特徴量を含む第1評価データと、前記ユーザアニメーションに対する前記ユーザの他の動きに基づいて時系列に取得された前記姿勢特徴量を含む第2評価データと、を比較することで前記ユーザアニメーションに対応する前記基準姿勢を決定する。 The moving image reproduction device in one aspect is based on first evaluation data including the posture feature amount acquired in time series based on the movement of the user with respect to the user animation, and other movements of the user with respect to the user animation. The reference posture corresponding to the user animation is determined by comparing the second evaluation data including the posture feature amount acquired in time series.

一態様において、前記姿勢特徴量は、前記ユーザのボーンの位置及び向きを3次元ベクトルで表すボーンデータを含む。 In one aspect, the posture feature amount includes bone data that represents the position and orientation of the bone of the user with a three-dimensional vector.

一態様において、前記モーションデータは、前記ユーザの顔の特徴を表す顔特徴量を含む。一態様における動画再生装置は、前記顔特徴量に基づいて前記ユーザの表情を分類する他の分類器により前記ユーザの表情が予め定められた基準表情に属するか否かを判定し、前記遅延が発生している間に、前記ユーザの表情が属すると判定された前記基準表情を識別し前記顔特徴量よりも少ないデータ量の基準表情識別データを前記動画配信装置に送信する。 In one aspect, the motion data includes a facial feature amount representing a facial feature of the user. The moving image reproducing apparatus in one aspect determines whether or not the facial expression of the user belongs to a predetermined reference facial expression by another classifier that classifies the facial expression of the user based on the facial feature amount, and the delay is During generation, the reference facial expression determined to belong to the facial expression of the user is identified, and reference facial expression identification data having a data amount smaller than the facial feature amount is transmitted to the moving image distribution device.

一態様において、前記基準姿勢識別データは、前記遅延が発生している間に前記モーションデータに代えて送信される。 In one aspect, the reference posture identification data is transmitted in place of the motion data while the delay is occurring.

一態様において、前記モーションデータはリアルタイムで送信される。 In one aspect, the motion data is transmitted in real time.

一態様による動画配信システムは、一又は複数のコンピュータプロセッサを備え、ユーザのアバタを含む動画を前記ユーザの動画再生装置に配信する。当該一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記動画再生装置から伝送路を介して前記ユーザの姿勢を表す姿勢特徴量を含むモーションデータを受信し、前記姿勢特徴量に基づいて生成された前記ユーザのアバタのアニメーションを前記動画に含めて配信し、前記姿勢特徴量に基づいて前記ユーザの姿勢を分類する分類器により前記ユーザの姿勢が基準姿勢に属すると判定された場合、前記モーションデータの前記動画配信装置への伝送に遅延が発生している間に、前記基準姿勢を識別し前記姿勢特徴量よりも少ないデータ量の基準姿勢識別データを前記動画再生装置から受信し、前記基準姿勢識別データに基づいて生成された前記ユーザのアバタの登録アニメーションを前記動画に含めて配信する。 A moving image distribution system according to one aspect includes one or a plurality of computer processors, and distributes a moving image including a user's avatar to the user's moving image playback device. The one or more computer processors execute a computer-readable instruction to receive motion data including a posture characteristic amount indicating the posture of the user from the moving image reproducing apparatus via a transmission path, and the posture characteristic It is determined that the user's posture belongs to a reference posture by a classifier that distributes the animation of the user's avatar generated based on the amount in the moving image and classifies the user's posture based on the posture feature amount. In this case, while the transmission of the motion data to the moving image distribution device is delayed, the reference posture is identified, and the reference posture identification data having a data amount smaller than the posture feature amount is used as the moving image reproducing device. From the reference posture identification data, and the distribution animation is generated by including the user's avatar registration animation generated based on the reference posture identification data in the moving image.

一態様による動画再生方法は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される。当該方法は、動画配信装置から受信した動画を再生する工程と、ユーザの姿勢を表す姿勢特徴量を含むモーションデータを前記動画配信装置に送信する工程と、前記動画配信装置から前記姿勢特徴量に基づいて生成された前記ユーザのアバタのアニメーションを含む動画を受信する工程と、前記姿勢特徴量に基づいて前記ユーザの姿勢を分類する分類器により前記ユーザの姿勢が予め定められた基準姿勢に属するか否かを判定する工程と、前記モーションデータの前記動画配信装置への伝送に遅延が発生している間に、前記ユーザの姿勢が属すると判定された前記基準姿勢を識別し前記姿勢特徴量よりも少ないデータ量の基準姿勢識別データを前記動画配信装置に送信する工程と、を備える。 The video playback method according to one aspect is performed by one or more computer processors executing computer-readable instructions. The method includes a step of reproducing a moving image received from a moving image distribution device, a step of transmitting motion data including a posture characteristic amount representing a posture of a user to the moving image distribution device, and a step of changing the posture characteristic amount from the moving image distribution device. Receiving a moving image including an animation of the avatar of the user generated based on the above, and the posture of the user belongs to a predetermined reference posture by a classifier that classifies the posture of the user based on the posture feature amount And determining the reference posture determined to belong to the posture of the user while delaying the transmission of the motion data to the moving image distribution apparatus. And a step of transmitting reference posture identification data having a smaller data amount to the moving image distribution device.

本発明の一態様による動画再生装置は、所定のフレームレートに基づいて前記動画再生装置のユーザに関する複数の特徴点の各々において前記ユーザに関する姿勢特徴量を算出し、第1フレームにおいて前記複数の特徴点の各々における前記姿勢特徴量の二乗平均平方根である第1RMSを算出し、前記第1フレームよりも時系列的に後の第2フレームにおいて前記複数の特徴点の各々における前記姿勢特徴量の二乗平均平方根である第2RMSを算出し、前記第2RMSと前記第1RMSとの差であるRMS差を算出し、前記RMS差が所定の閾値よりも大きい場合に動画配信装置に対して前記第2フレームにおける前記姿勢特徴量を送信し、前記動画配信装置から前記姿勢特徴量に基づいて生成された前記ユーザのアバタのアニメーションを含む動画を受信し、前記動画を再生する。 A moving image reproducing apparatus according to an aspect of the present invention calculates a posture characteristic amount regarding the user at each of a plurality of characteristic points regarding the user of the moving image reproducing apparatus based on a predetermined frame rate, and the plurality of characteristic points in a first frame. A first RMS, which is a root mean square of the posture feature amount at each of the points, is calculated, and a square of the posture feature amount at each of the plurality of feature points in a second frame that is later in time series than the first frame. A second RMS that is an average square root is calculated, an RMS difference that is a difference between the second RMS and the first RMS is calculated, and the second frame is transmitted to the video distribution device when the RMS difference is larger than a predetermined threshold. And transmitting the posture feature amount in, the moving image receiving apparatus receives the moving image including the animation of the avatar of the user generated based on the posture characteristic amount, and reproduces the moving image.

本発明の一態様による動画再生装置は、所定のフレームレートに基づいて前記動画再生装置のユーザに関する複数の特徴点の各々において前記ユーザに関する姿勢特徴量を算出し、第1フレームにおいて前記複数の特徴点の各々における前記姿勢特徴量の二乗平均平方根である第1RMSを算出し、前記第1フレームよりも時系列的に後の第2フレームにおいて前記複数の特徴点の各々における前記姿勢特徴量の二乗平均平方根である第2RMSを算出し、前記第2フレームよりも時系列的に後の第3フレームにおいて前記複数の特徴点の各々における前記姿勢特徴量の二乗平均平方根である第3RMSを算出し、前記第2RMSと前記第1RMSとの差である第1RMS差の正負と前記第3RMSと前記第2RMSとの差である第2RMS差の正負とが逆転した場合に、前記第3フレームにおける前記姿勢特徴量を送信し、前記動画配信装置から前記姿勢特徴量に基づいて生成された前記ユーザのアバタのアニメーションを含む動画を受信し、前記動画を再生する。 A moving picture reproducing apparatus according to an aspect of the present invention calculates a posture characteristic amount regarding the user at each of a plurality of characteristic points regarding the user of the moving picture reproducing apparatus based on a predetermined frame rate, and the plurality of characteristic points in a first frame. A first RMS, which is a root mean square of the posture feature amount at each of the points, is calculated, and a square of the posture feature amount at each of the plurality of feature points in a second frame that is chronologically later than the first frame. Calculating a second RMS that is a mean square root, and calculating a third RMS that is a root mean square of the posture feature amount at each of the plurality of feature points in a third frame that is later in time series than the second frame, The posture characteristic in the third frame when the positive/negative of the first RMS difference which is the difference between the second RMS and the first RMS and the positive/negative of the second RMS difference which is the difference between the third RMS and the second RMS are reversed. The amount of video data is transmitted, the video including the animation of the avatar of the user generated based on the posture feature amount is received from the video distribution device, and the video is played.

実施形態によれば、従来よりも少ないデータ量の情報に基づいてユーザの姿勢に関連するアバタのアニメーションを生成できる。 According to the embodiment, it is possible to generate an avatar animation related to a user's posture based on information having a smaller data amount than before.

一実施形態による動画配信システムを示すブロック図である。FIG. 1 is a block diagram showing a moving image distribution system according to an embodiment. 3次元骨格モデルを概念的に示す図である。It is a figure which shows notionally a three-dimensional skeleton model. 図1の動画配信システムにおいて記憶される基準姿勢管理データを説明する図である。It is a figure explaining the reference attitude|position management data memorize|stored in the moving image distribution system of FIG. 開始姿勢に対応する3次元骨格モデルを概念的に示す図である。It is a figure which shows notionally the three-dimensional skeleton model corresponding to a starting posture. トリガー姿勢に対応する3次元骨格モデルを概念的に示す図である。It is a figure which shows notionally the three-dimensional skeleton model corresponding to a trigger posture. 図1の動画配信システムにおいて記憶されるアバタデータを説明する図である。It is a figure explaining the avatar data memorize|stored in the moving image distribution system of FIG. 図1の動画配信システムにおいて記憶されるアニメーション管理データを説明する図である。It is a figure explaining the animation management data memorize|stored in the moving image distribution system of FIG. 撮像画像を構成するフレームを模式的に示す図である。It is a figure which shows the frame which comprises a picked-up image typically. 各フレームにおける複数の特徴点における特徴量及びそのRMSの例を示す表である。9 is a table showing an example of feature amounts and RMS thereof at a plurality of feature points in each frame. 一実施形態において動画再生装置10に表示される動画の例を示す図である。FIG. 5 is a diagram showing an example of a moving image displayed on the moving image reproducing apparatus 10 in one embodiment. 一実施形態において動画再生装置10に表示される動画の例を示す図である。FIG. 5 is a diagram showing an example of a moving image displayed on the moving image reproducing apparatus 10 in one embodiment. 一実施形態における動画再生方法における処理の一部の流れを示すフロー図である。It is a flowchart which shows the one part flow of a process in the moving image reproduction method in one Embodiment. 他の実施形態による動画配信システムを示すブロック図である。It is a block diagram which shows the moving image distribution system by other embodiment. 図11に示す動画配信システムにおいて記憶される基準表情管理データを説明する図である。FIG. 12 is a diagram illustrating reference facial expression management data stored in the moving image distribution system shown in FIG. 11. 図11に示す動画配信システムにおいて記憶される登録表情管理データを説明する図である。FIG. 12 is a diagram illustrating registered facial expression management data stored in the moving image distribution system shown in FIG. 11. 他の実施形態による動画配信システムを示すブロック図である。It is a block diagram which shows the moving image distribution system by other embodiment. 他の実施形態による動画配信システムを示すブロック図である。It is a block diagram which shows the moving image distribution system by other embodiment. 各フレームにおける複数の特徴点における特徴量の例を示す表である。7 is a table showing an example of feature amounts at a plurality of feature points in each frame.

以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。 Various embodiments of the present invention will be described below with reference to the drawings. The same or similar components are denoted by the same reference symbols in the drawings.

図1から図6を参照して、一実施形態による動画配信システムについて説明する。図1は、一実施形態による動画配信システム1を示すブロック図である、図2、図4a、及び図4bは、3次元骨格モデルを概念的に示す図であり、図3、図5、及び図6は、動画配信システム1において記憶される情報を説明するための図である。 A moving image distribution system according to an embodiment will be described with reference to FIGS. 1 to 6. FIG. 1 is a block diagram showing a moving image distribution system 1 according to one embodiment. FIGS. 2, 4a, and 4b are diagrams conceptually showing a three-dimensional skeleton model, and FIGS. FIG. 6 is a diagram for explaining information stored in the moving image distribution system 1.

動画配信システム1は、動画再生装置10と、動画配信装置20と、を備える。動画再生装置10と動画配信装置20とは、ネットワーク50を介して相互に通信可能に接続されている。動画配信システム1は、ストレージ60を備えてもよい。動画再生装置10のユーザである視聴ユーザは、動画配信装置20から配信された動画を動画再生装置10により視聴することができる。動画配信システム1は、2台以上の動画再生装置を備えていてもよい。動画配信装置20から配信される動画を動画再生装置10で視聴する視聴ユーザは、自らのアバタを当該動画に表示させることができる。言い換えると、視聴ユーザは、自らのアバタを介して配信されている動画に参加することができる。視聴ユーザは、配信されている動画に自らのアバタを表示させ、そのアバタを介して動画の配信ユーザ(又は配信されている動画内のキャラクタ)や他の視聴ユーザと交流することができる。 The moving image distribution system 1 includes a moving image reproduction device 10 and a moving image distribution device 20. The video playback device 10 and the video distribution device 20 are connected to each other via a network 50 so that they can communicate with each other. The moving image distribution system 1 may include a storage 60. A viewing user who is a user of the moving picture reproducing apparatus 10 can watch the moving picture distributed from the moving picture distributing apparatus 20 by the moving picture reproducing apparatus 10. The video distribution system 1 may include two or more video playback devices. The viewing user who views the video distributed from the video distribution device 20 on the video playback device 10 can display his or her avatar on the video. In other words, the viewing user can participate in the video distributed via his/her avatar. The viewing user can display his or her avatar on the distributed video and interact with the distribution user (or the character in the distributed video) of the video or another viewing user via the avatar.

まず、動画再生装置10について説明する。動画再生装置10は、スマートフォンなどの情報処理装置である。動画再生装置10は、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。 First, the moving image reproducing apparatus 10 will be described. The video playback device 10 is an information processing device such as a smartphone. The moving image reproducing apparatus 10 may be a mobile phone, a tablet terminal, a personal computer, an electronic book reader, a wearable computer, a game console, and various information processing apparatuses other than these which can reproduce moving images.

動画再生装置10は、視聴ユーザによって動画の視聴及びそれ以外の目的のために用いられる。動画再生装置10は、コンピュータプロセッサ11、通信I/F12、各種情報を記憶するストレージ13、再生される動画を表示するディスプレイ14、及びセンサユニット15、を備える。動画配信装置10は、集音マイク等の前記以外の構成要素を備えてもよい。動画再生装置10は、動画配信装置20から配信された動画を再生する。 The video playback device 10 is used by a viewing user for viewing a video and other purposes. The moving image reproducing apparatus 10 includes a computer processor 11, a communication I/F 12, a storage 13 that stores various information, a display 14 that displays a reproduced moving image, and a sensor unit 15. The moving image distribution device 10 may include other components such as a sound collecting microphone. The video playback device 10 plays the video delivered from the video delivery device 20.

コンピュータプロセッサ11は、ストレージ13又はそれ以外のストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ11は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ11は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ11が単一の構成要素として図示されているが、コンピュータプロセッサ11は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ11によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ11によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。コンピュータプロセッサ11により実現される機能については後述する。 The computer processor 11 is an arithmetic unit that loads an operating system and various programs that realize various functions from a storage 13 or another storage into a memory, and executes instructions included in the loaded programs. The computer processor 11 is, for example, a CPU, MPU, DSP, GPU, various arithmetic devices other than these, or a combination thereof. The computer processor 11 may be realized by an integrated circuit such as an ASIC, PLD, FPGA, MCU or the like. Although the computer processor 11 is illustrated as a single component in FIG. 1, the computer processor 11 may be a collection of a plurality of physically separate computer processors. In the present specification, the program described as being executed by the computer processor 11 or the instructions included in the program may be executed by a single computer processor or may be executed by a plurality of computer processors in a distributed manner. Good. Further, the program executed by the computer processor 11 or the instructions included in the program may be executed by a plurality of virtual computer processors. The functions implemented by the computer processor 11 will be described later.

通信I/F12は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。動画再生装置10は、通信I/F12を介して、他の装置とデータを送受信することができる。 The communication I/F 12 is implemented as hardware, firmware, communication software such as a TCP/IP driver or a PPP driver, or a combination thereof. The video playback device 10 can send and receive data to and from other devices via the communication I/F 12.

ストレージ13は、コンピュータプロセッサ11によりアクセスされる記憶装置である。ストレージ13は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ13には、様々なプログラムが記憶され得る。ストレージ13に記憶され得るプログラム及び各種データの少なくとも一部は、動画再生装置10とは物理的に別体のストレージ(例えば、ストレージ60)に格納されてもよい。 The storage 13 is a storage device accessed by the computer processor 11. The storage 13 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various storage devices other than the above that can store data. Various programs may be stored in the storage 13. At least a part of the programs and various data that can be stored in the storage 13 may be stored in a storage physically separate from the moving image playback apparatus 10 (for example, the storage 60).

ディスプレイ14は、表示パネルと、タッチパネルと、を有する。表示パネルは、液晶パネル、有機ELパネル、無機ELパネル、又はこれら以外の画像を表示可能な任意の表示パネルである。タッチパネルは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネルは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネルは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。動画配信装置20から配信された動画は、ディスプレイ14に表示される。 The display 14 has a display panel and a touch panel. The display panel is a liquid crystal panel, an organic EL panel, an inorganic EL panel, or any other display panel capable of displaying an image other than these. The touch panel is configured to be able to detect a touch operation (contact operation) by the player. The touch panel can detect various touch operations such as tapping, double tapping, and dragging by the player. The touch panel may include an electrostatic capacitance type proximity sensor and may be configured to be able to detect a non-contact operation by the player. The moving image distributed from the moving image distribution device 20 is displayed on the display 14.

センサユニット15は、動画再生装置10のユーザの姿勢を検出する一又は複数のセンシングデバイスを備える。このセンシングデバイスには、RGBカメラ、深度センサ、及びこれら以外のユーザの姿勢を検出可能なデバイスが含まれてもよい。センサユニット15は、コンピュータプロセッサを含んでもよい。センサユニット15のコンピュータプロセッサは、センシングデバイスによって取得されたデータを解析することで、ユーザの姿勢を表す3次元骨格データを生成してもよい。センサユニット15に備えられるコンピュータプロセッサは、専用ソフトウェアを実行することで3次元骨格データを生成してもよい。センサユニット15により検出されるユーザの姿勢を表す3次元骨格データは、特許請求の範囲に記載されている「姿勢特徴量」の一例である。センサユニット15は、Microsoft Corporationが提供するkinect(商標)のようにLight Coding技術を用いて3次元骨格データを生成してもよい。つまり、センサユニット15は、赤外線のランダムパターンをユーザ等の対象に照射し、その画像を解析することによって対象の深度を取得し、当該深度を解析することで3次元骨格データを生成してもよい。Light Coding技術を用いて検出されるユーザの姿勢を表す特徴量は3次元骨格データには限られず、それ以外のユーザの姿勢を表す特徴量が用いられ得る。 The sensor unit 15 includes one or a plurality of sensing devices that detect the posture of the user of the video playback device 10. The sensing device may include an RGB camera, a depth sensor, and other devices that can detect the posture of the user. The sensor unit 15 may include a computer processor. The computer processor of the sensor unit 15 may generate three-dimensional skeleton data representing the posture of the user by analyzing the data acquired by the sensing device. The computer processor included in the sensor unit 15 may generate the three-dimensional skeleton data by executing dedicated software. The three-dimensional skeleton data representing the user's posture detected by the sensor unit 15 is an example of the “posture feature amount” described in the claims. The sensor unit 15 may generate three-dimensional skeleton data by using the Light Coding technology like kinect (trademark) provided by Microsoft Corporation. That is, even if the sensor unit 15 irradiates a target such as a user with an infrared random pattern, acquires the depth of the target by analyzing the image, and analyzes the depth to generate three-dimensional skeleton data. Good. The feature amount representing the user's posture detected using the Light Coding technique is not limited to the three-dimensional skeleton data, and other feature amounts representing the user's posture may be used.

3次元骨格データは、人体又は人体の一部を3次元骨格モデルで表現するためのデータである。3次元骨格モデルは、人体の骨の軸線に相当する複数のボーンと各ボーンを接続する複数の関節とによって、人体又は人体の一部の骨格をモデリングする。図2を参照して3次元骨格モデルについてさらに説明する。図2は、3次元骨格モデルの概念を説明するための説明図である。図2に示されている例では、3次元骨格モデル100は、8本のボーンと、これらのボーンを接続する関節と、を含む。3次元骨格モデルのボーンは、3次元座標上の2点を結ぶ線分として表される。よって、各ボーンは、3次元空間(XYZ空間)において各ボーンに相当する有効線分を表す3次元ベクトルV1〜V8で表現される。3次元骨格モデルを構成する3次元骨格モデルは、当該3次元モデルに含まれるボーンの各々を表す3次元ベクトルを含む。図2には、人体の上半身の3次元骨格モデルが示されているが、3次元骨格モデルは、人体の全部の骨格をモデリングしたものであってもよいし、人体の上半身以外の一部(例えば、腕、下半身など)をモデリングしたものであってもよい。また、図2の例では、人体の上半身を8本のボーンで表現しているが、人体の上半身は8本より多い数又は少ない数のボーンで表現されてもよい。より多い数のボーンを含む3次元骨格モデルは、指の骨を表すボーンを含んでもよい。これにより、指の動きを検出することもできる。 The three-dimensional skeleton data is data for representing a human body or a part of a human body by a three-dimensional skeleton model. The three-dimensional skeleton model models a skeleton of the human body or a part of the human body by a plurality of bones corresponding to the axis of the bone of the human body and a plurality of joints connecting the bones. The three-dimensional skeleton model will be further described with reference to FIG. FIG. 2 is an explanatory diagram for explaining the concept of the three-dimensional skeleton model. In the example shown in FIG. 2, the three-dimensional skeleton model 100 includes eight bones and joints that connect these bones. The bone of the three-dimensional skeleton model is represented as a line segment connecting two points on the three-dimensional coordinate. Therefore, each bone is represented by three-dimensional vectors V1 to V8 that represent effective line segments corresponding to each bone in the three-dimensional space (XYZ space). The 3D skeleton model forming the 3D skeleton model includes a 3D vector representing each of the bones included in the 3D model. FIG. 2 shows a three-dimensional skeleton model of the upper half of the human body, but the three-dimensional skeleton model may be a model of the entire skeleton of the human body, or a part other than the upper half of the human body ( For example, it may be a model of an arm, a lower body, or the like. Further, in the example of FIG. 2, the upper half of the human body is represented by eight bones, but the upper half of the human body may be represented by more or less than eight bones. A three-dimensional skeletal model that includes a greater number of bones may include bones that represent finger bones. Thereby, the movement of the finger can also be detected.

ストレージ13に記憶される情報について説明する。図示の実施形態においては、ストレージ13には、基準姿勢管理データ13a及びそれ以外の動画配信装置20が提供するサービスを利用するために必要な様々な情報が記憶される。一実施形態による動画配信システム1においては、予めユーザの基準姿勢が定められている。動画配信システム1においては、一つだけの基準姿勢が定められていてもよいし、複数の基準姿勢が定められていてもよい。この一又は複数の基準姿勢の各々は、ユーザの一連の動作を識別するために複数の姿勢のセットであってもよい。例えば、基準姿勢には、当該基準姿勢に対応付けられるユーザの一連の動作の開始時の姿勢を示す開始姿勢と、当該一連の動作において開始姿勢を取った後の特定の姿勢を示すトリガー姿勢とが含まれてもよい。開始姿勢及びトリガー姿勢の少なくとも一方は、複数であってもよい。 The information stored in the storage 13 will be described. In the illustrated embodiment, the storage 13 stores the reference posture management data 13a and other various information necessary for using the services provided by the moving image distribution apparatus 20. In the moving image distribution system 1 according to the embodiment, the reference posture of the user is set in advance. In the moving image distribution system 1, only one reference posture may be set, or a plurality of reference postures may be set. Each of the one or more reference poses may be a set of poses to identify a series of motions of the user. For example, the reference posture includes a start posture that indicates a posture of the user at the start of a series of actions associated with the reference posture, and a trigger posture that indicates a specific posture after the start posture is taken in the series of actions. May be included. At least one of the start posture and the trigger posture may be plural.

基準姿勢管理データ13aの例が図3に示されている。図3に示されている例では、基準姿勢に開始姿勢とトリガー姿勢とが含まれている。このため、ストレージ13においては、基準姿勢を識別する基準姿勢識別データと対応付けて、当該基準姿勢に含まれる開始姿勢を示す開始姿勢データ、及び、当該基準姿勢に含まれるトリガー姿勢を示すトリガー姿勢データと、が記憶され得る。 An example of the reference attitude management data 13a is shown in FIG. In the example shown in FIG. 3, the reference posture includes the start posture and the trigger posture. Therefore, in the storage 13, the start posture data indicating the start posture included in the reference posture and the trigger posture indicating the trigger posture included in the reference posture are associated with the reference posture identification data for identifying the reference posture. The data and can be stored.

基準姿勢識別データは、例えば、基準姿勢を識別する基準姿勢IDである。基準姿勢IDは、例えば数ビットで表される識別コードである。基準姿勢IDのビット数は、動画配信システム1で使用される基準姿勢の数に応じて定めることができる。基準姿勢IDは、例えば、10ビット以下の情報量のデータで表される。基準姿勢IDは、5ビット以下、4ビット以下、3ビット以下、2ビット以下の情報量のデータで表されてもよい。したがって、基準姿勢識別データ(基準姿勢ID)は、3次元骨格データよりも大幅にデータ量が小さい。 The reference posture identification data is, for example, a reference posture ID that identifies the reference posture. The reference posture ID is an identification code represented by several bits, for example. The number of bits of the reference posture ID can be determined according to the number of reference postures used in the moving image distribution system 1. The reference posture ID is represented by data having an information amount of 10 bits or less, for example. The reference attitude ID may be represented by data of 5 bits or less, 4 bits or less, 3 bits or less, or 2 bits or less. Therefore, the reference posture identification data (reference posture ID) has a significantly smaller data amount than the three-dimensional skeleton data.

開始姿勢データは、開始姿勢を示すデータである。開始姿勢データは、例えば、開始姿勢を示す3次元骨格データである。開始姿勢の例が図4aに示されている。図示の例における開始姿勢は、右拳が右肩と同じ高さになるように右の掌を前方に突き出している姿勢である。開始姿勢データは、この開始姿勢をモデリングした3次元骨格データであってもよい。開始姿勢データは、開始姿勢における各ボーンの位置及び向きを示す3次元ベクトルデータを含んでもよい。開始姿勢を示す3次元骨格データは、図4aに模式的に示されているように8本のボーンを含んでもよい。この8本のボーンを表すベクトルT1〜T8は、センサユニット15の検出データに基づいて生成される視聴ユーザの3次元骨格データに含まれるボーンのベクトルV1〜V8とそれぞれ対応している。姿勢特徴量として3次元骨格データ以外のデータが用いられる場合には、開始姿勢データは、その使用される姿勢特徴量のうち開始姿勢を表すデータである。 The start attitude data is data indicating the start attitude. The start posture data is, for example, three-dimensional skeleton data indicating the start posture. An example of a starting posture is shown in Figure 4a. The starting posture in the illustrated example is a posture in which the right palm is projected forward so that the right fist is at the same height as the right shoulder. The starting posture data may be three-dimensional skeleton data obtained by modeling the starting posture. The start posture data may include three-dimensional vector data indicating the position and orientation of each bone in the start posture. The three-dimensional skeleton data indicating the starting posture may include eight bones as schematically shown in FIG. 4a. The vectors T1 to T8 representing the eight bones respectively correspond to the bone vectors V1 to V8 included in the three-dimensional skeleton data of the viewing user generated based on the detection data of the sensor unit 15. When data other than the three-dimensional skeleton data is used as the posture feature amount, the start posture data is data that represents the start posture among the used posture feature amounts.

トリガー姿勢データは、トリガー姿勢を示すデータである。トリガー姿勢データは、例えば、トリガー姿勢を示す3次元骨格データである。トリガー姿勢の例が図4bに示されている。図示の例におけるトリガー姿勢は、右腕を前方斜め上に突き上げた姿勢である。トリガー姿勢データは、このトリガー姿勢をモデリングした3次元骨格データであってもよい。トリガー姿勢を示す3次元骨格データは、各ボーンの位置及び向きを示す3次元ベクトルデータを含んでもよい。トリガー姿勢を示す3次元骨格データは、図4bに模式的に示されているように8本のボーンを含んでもよい。この8本のボーンのベクトルT1〜T8は、センサユニット15の検出データに基づいて生成される視聴ユーザの3次元骨格データに含まれるボーンのベクトルV1〜V8とそれぞれ対応している。姿勢特徴量として3次元骨格データ以外のデータが用いられる場合には、トリガー姿勢データは、その使用される姿勢特徴量のうちトリガー姿勢を表すデータである。 The trigger attitude data is data indicating the trigger attitude. The trigger posture data is, for example, three-dimensional skeleton data indicating the trigger posture. An example of a trigger pose is shown in Figure 4b. The trigger posture in the illustrated example is a posture in which the right arm is pushed forward obliquely upward. The trigger posture data may be three-dimensional skeleton data obtained by modeling the trigger posture. The three-dimensional skeleton data indicating the trigger posture may include three-dimensional vector data indicating the position and orientation of each bone. The three-dimensional skeleton data indicating the trigger posture may include eight bones as schematically shown in FIG. 4b. The eight bone vectors T1 to T8 respectively correspond to the bone vectors V1 to V8 included in the 3D skeleton data of the viewing user generated based on the detection data of the sensor unit 15. When data other than the three-dimensional skeleton data is used as the posture feature amount, the trigger posture data is data representing the trigger posture in the used posture feature amount.

次に、動画配信装置20について説明する。動画配信装置20は、例えば、動画再生装置10にネットワーク50の下り回線を介して動画を配信する動画配信サーバである。動画配信装置20は、コンピュータプロセッサ21、通信I/F22、及び各種情報を記憶するストレージ23、を備える。動画配信装置20は、集音マイク等の前記以外の構成要素を備えてもよい。 Next, the moving image distribution device 20 will be described. The moving image distribution device 20 is, for example, a moving image distribution server that distributes moving images to the moving image reproduction device 10 via the downlink of the network 50. The moving image distribution apparatus 20 includes a computer processor 21, a communication I/F 22, and a storage 23 that stores various types of information. The moving image distribution apparatus 20 may include components other than the above, such as a sound collection microphone.

コンピュータプロセッサ21は、ストレージ23又はそれ以外のストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。上述したコンピュータプロセッサ11についての説明は、可能な限りコンピュータプロセッサ21にも当てはまる。コンピュータプロセッサ21により実現される機能については後述する。 The computer processor 21 is an arithmetic unit that loads an operating system and various programs that realize various functions from a storage 23 or another storage into a memory and executes an instruction included in the loaded program. The above description of the computer processor 11 also applies to the computer processor 21 as much as possible. The functions implemented by the computer processor 21 will be described later.

通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。動画配信装置20は、通信I/F22を介して、他の装置とデータを送受信することができる。 The communication I/F 22 is implemented as hardware, firmware, communication software such as a TCP/IP driver or a PPP driver, or a combination thereof. The video distribution device 20 can send and receive data to and from other devices via the communication I/F 22.

ストレージ23は、コンピュータプロセッサ21によりアクセスされる記憶装置である。ストレージ23は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ23には、様々なプログラムが記憶され得る。ストレージ23に記憶され得るプログラム及び各種データの少なくとも一部は、動画配信装置20とは物理的に別体のストレージ(例えば、ストレージ60)に格納されてもよい。 The storage 23 is a storage device accessed by the computer processor 21. The storage 23 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various storage devices other than the above that can store data. Various programs may be stored in the storage 23. At least a part of the programs and various data that can be stored in the storage 23 may be stored in a storage physically separate from the moving image distribution apparatus 20 (for example, the storage 60).

ストレージ23には、オブジェクトデータ23a、アバタデータ23b、アニメーション管理データ23c、及び前記以外の動画の生成及び配信のために必要な様々な情報が記憶され得る。 The storage 23 may store the object data 23a, the avatar data 23b, the animation management data 23c, and various kinds of information necessary for generating and distributing moving images other than the above.

オブジェクトデータ23aは、動画を構成する仮想空間を構築するためのアセットデータを含んでもよい。オブジェクトデータ23aは、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ23aには、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。オブジェクトデータ23aには、上記以外にも、動画再生装置10の視聴ユーザからの表示要求に基づいて動画に表示されるギフトオブジェクトを示すデータが含まれ得る。ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。視聴ユーザは、所望のギフトオブジェクトを購入することができる。動画に表示されるギフトオブジェクトの詳細は、特許第6446154号の明細書に記載されている。本出願の動画配信システム1においても、特許第第6446154号の明細書における記載と同様にギフトオブジェクトを動画中に表示することができる。 The object data 23a may include asset data for constructing a virtual space forming a moving image. The object data 23a is data for drawing the background of the virtual space forming the moving image, data for drawing various objects displayed in the moving image, and for drawing various objects displayed in the moving image other than these. Contains data. The object data 23a may include object position information indicating the position of the object in the virtual space. In addition to the above, the object data 23a may include data indicating a gift object displayed in a moving image based on a display request from the viewing user of the moving image reproducing apparatus 10. The gift object may include an effect object, a normal object, and a decoration object. The viewing user can purchase the desired gift object. The details of the gift object displayed in the moving image are described in the specification of Japanese Patent No. 6446154. Also in the moving image distribution system 1 of the present application, the gift object can be displayed in the moving image similarly to the description in the specification of Japanese Patent No. 6446154.

アバタデータ23bの例が図5に示されている。図5に示すように、アバタデータ23bは、動画配信システム1で視聴ユーザによって利用されるアバタのアバタ識別情報と、当該アバタを動画内に表示するためのアバタ表示情報と、を含むことができる。言い換えると、ストレージ23には、アバタのアバタ識別情報と対応付けて、当該アバタを表示するためのアバタ表示情報が記憶され得る。アバタ識別情報は、例えば、アバタを識別するアバタIDである。動画再生装置10のユーザは、動画配信システム1において自らのアバタを設定することができる。ユーザごとにアバタを管理するために、アバタIDは、ユーザを識別するユーザIDと対応付けてストレージ23に記憶されてもよい。アバタは、例えば、人間や動物を模した画像として動画内に表示される。アバタ表示情報は、アバタを動画内に表示するために用いられる情報である。アバタ情報には、例えば、頭部、ヘアスタイル、顔のパーツ(目、鼻、口など)、胴部、服、アクセサリ、アイテム、及びこれら以外のアバタを構成するパーツの画像を示すパーツ情報又はそれ以外のアバタの外観を特定するためのスキン情報が含まれる。ユーザは、好みのパーツ画像を選択することで自らのアバタを登録することができる。アバタ表示情報には、動画にアバタを2D表示するための2D表示情報と、動画にアバタを3D表示するための3D表示情報とが含まれてもよい。3D表示情報には、アバタを動画内で立体的に表示するためのパーツの画像を示すパーツ情報、アバタの3次元での動きを表現するためのボーンデータ、及びこれら以外のアバタを立体的に表示するために用いられている公知の情報を含む。 An example of the avatar data 23b is shown in FIG. As shown in FIG. 5, the avatar data 23b can include avatar identification information of an avatar used by the viewing user in the video distribution system 1 and avatar display information for displaying the avatar in the video. .. In other words, the storage 23 can store the avatar display information for displaying the avatar in association with the avatar identification information of the avatar. The avatar identification information is, for example, an avatar ID that identifies an avatar. The user of the video playback device 10 can set his or her own avatar in the video delivery system 1. In order to manage the avatar for each user, the avatar ID may be stored in the storage 23 in association with the user ID that identifies the user. The avatar is displayed in the moving image as an image simulating a human being or an animal, for example. The avatar display information is information used to display the avatar in the moving image. The avatar information includes, for example, part information indicating images of heads, hairstyles, facial parts (eyes, nose, mouth, etc.), torso, clothes, accessories, items, and parts other than these, which form avatars. Skin information for specifying the appearance of other avatars is included. The user can register his or her avatar by selecting a desired part image. The avatar display information may include 2D display information for displaying the avatar in 2D on the moving image and 3D display information for displaying the avatar in 3D on the moving image. The 3D display information includes part information indicating an image of a part for stereoscopically displaying an avatar in a moving image, bone data for expressing a three-dimensional movement of the avatar, and avatars other than these three-dimensionally. It includes known information used to display.

上述したとおり、動画配信装置20から配信される動画には、動画再生装置10のユーザのアバタのアニメーションが含まれてもよい。あるユーザのアバタのアニメーションは、後述するように、当該ユーザの姿勢を示す姿勢特徴量に基づいて、当該ユーザの姿勢や動きをリアルタイムで反映するように生成されてもよい。 As described above, the moving image distributed from the moving image distribution device 20 may include the animation of the avatar of the user of the moving image reproduction device 10. The animation of the avatar of a certain user may be generated so as to reflect the posture and movement of the user in real time, based on the posture feature amount indicating the posture of the user, as described later.

アバタのアニメーションとして、予め登録されている登録アニメーションを採用してもよい。登録アニメーションは、視聴ユーザの動きに追従するように動画の配信中にリアルタイムに生成されるのではなく、動画の配信前又はアバタのアニメーションの表示が必要になる前に予め登録又は定義されているアニメーションである。登録アニメーションを管理するためのアニメーション管理データ23cの例が図6に示されている。図示のように、アニメーション管理データ23cは、基準姿勢識別データと、登録アニメーションを識別する登録アニメーション識別データ(登録アニメーションID)と、アバタのアニメーションを特定するためのアニメーション定義データと、を有する。ストレージ23においては、基準姿勢識別データと対応付けて、登録アニメーション識別データ、及び、アニメーション定義データが記憶されている。基準姿勢識別データは、既述のとおり基準姿勢IDであってもよい。動画配信システム1において複数の基準姿勢IDが用いられている場合には、その基準姿勢IDの数に応じて複数の登録アニメーションが登録されていてもよい。この複数の登録アニメーションから選択された一つの登録アニメーションが動画に含められ得る。アニメーション定義データは、アバタのボーンの位置及び向きを示すボーンデータを時系列的に記述するデータであってもよい。 A registered animation that is registered in advance may be adopted as the avatar animation. The registration animation is not generated in real time during the distribution of the video so as to follow the movement of the viewing user, but is registered or defined in advance before the distribution of the video or before the animation of the avatar needs to be displayed. It is an animation. An example of the animation management data 23c for managing the registered animation is shown in FIG. As illustrated, the animation management data 23c has reference posture identification data, registered animation identification data (registered animation ID) for identifying a registered animation, and animation definition data for identifying an avatar animation. In the storage 23, registered animation identification data and animation definition data are stored in association with the reference posture identification data. The reference posture identification data may be the reference posture ID as described above. When a plurality of reference posture IDs are used in the moving image distribution system 1, a plurality of registered animations may be registered according to the number of the reference posture IDs. One registration animation selected from the plurality of registration animations may be included in the moving image. The animation definition data may be data describing time-series bone data indicating the position and orientation of the avatar bone.

登録アニメーションは、視聴ユーザからの要求に基づいて生成されてもよい。以下、説明の便宜のために、視聴ユーザからの要求に基づいて登録される登録アニメーションを「ユーザアニメーション」と呼ぶ。動画再生装置10は、視聴ユーザからユーザアニメーションの登録要求がなされると、当該視聴ユーザに対して登録を希望するアニメーションに対応する動きを行うように促すことができる。動画再生装置10は、この基準姿勢を表す画像の表示に応答して視聴ユーザが取った姿勢の姿勢特徴量(例えば、3次元骨格データ)を所定時間に亘って取得する。この姿勢特徴量の取得は、姿勢データ取得部11b又はセンサユニット15により所定のサンプリング時間間隔で行われる。このようにして、視聴ユーザが登録を希望するアニメーションに対応する動きを示すアニメーション定義データが得られる。このアニメーション定義データは、アニメーション管理データ23cとして記憶されている登録アニメーションのアニメーション定義データと同じデータ形式を有していてもよい。動画再生装置10は、このようにして取得されたユーザアニメーションを定義するアニメーション定義データを動画配信装置20に送信し、このユーザアニメーションを新たな登録アニメーションとして動画配信装置20に登録する。 The registration animation may be generated based on a request from the viewing user. Hereinafter, for convenience of description, a registered animation registered based on a request from a viewing user is referred to as a “user animation”. When the viewing user issues a user animation registration request, the video playback device 10 can prompt the viewing user to perform a motion corresponding to the animation desired to be registered. The moving image reproduction apparatus 10 acquires the posture feature amount (for example, three-dimensional skeleton data) of the posture taken by the viewing user in response to the display of the image representing the reference posture for a predetermined time. The acquisition of the posture characteristic amount is performed by the posture data acquisition unit 11b or the sensor unit 15 at predetermined sampling time intervals. In this way, the animation definition data indicating the movement corresponding to the animation that the viewing user desires to register is obtained. This animation definition data may have the same data format as the animation definition data of the registered animation stored as the animation management data 23c. The video playback device 10 transmits the animation definition data defining the user animation thus obtained to the video distribution device 20, and registers this user animation in the video distribution device 20 as a new registration animation.

動画配信装置20は、ユーザアニメーションを定義するアニメーション定義データを受信すると、当該ユーザアニメーションをアニメーション管理データ23cの一部としてストレージ23に記憶する。具体的には、動画配信装置20は、登録が要求されているユーザアニメーションを識別する登録アニメーションIDを発行し、当該登録アニメーションIDと対応付けて動画再生装置10から受信したアニメーション定義データを記憶する。また、動画配信装置20は、登録が要求されているユーザアニメーションを動画に含めるためのトリガーとなる基準姿勢を決定するよう動画再生装置10に要求する。 Upon receiving the animation definition data defining the user animation, the video distribution device 20 stores the user animation in the storage 23 as a part of the animation management data 23c. Specifically, the video distribution device 20 issues a registration animation ID that identifies the user animation for which registration is requested, and stores the animation definition data received from the video reproduction device 10 in association with the registration animation ID. .. In addition, the video distribution device 20 requests the video playback device 10 to determine a reference posture that serves as a trigger for including the user animation whose registration is requested in the video.

動画再生装置10は、動画配信装置20からの要求に応じて、自らのアバタに新規に登録したユーザアニメーションに従った動きを行わせるためのトリガーとなる基準姿勢を決定する。本明細書では、新規に登録したユーザアニメーションに従ってアバタを動かすためのトリガーとなる基準姿勢を追加基準姿勢と呼ぶことがある。追加基準姿勢は、様々な手法で定められる。例えば、新規に登録したユーザアニメーションを含むサンプル動画を生成し、当該ユーザアニメーションの登録要求を行った視聴ユーザに対し、このサンプル動画に含まれる複数のフレームの中から一又は複数の候補フレームを選択させ、その選択されたフレームに含まれているアバタの画像に基づいて追加基準姿勢を決定することができる。当該視聴ユーザは、複数のフレームの中から好みのフレームを選択することができる。当該視聴ユーザは、例えば、記憶に残りやすい姿勢を取っているアバタが含まれているフレーム、特徴的な姿勢を取っているアバタが含まれているフレーム、又はこれら以外のフレームを選択することができる。当該複数のフレームの中から2つのフレームが選択された場合、その2つのフレームのうち時系列的に前にあるフレームに含まれているアバタの姿勢を開始姿勢として決定し、時系列的に後にあるフレームに含まれているアバタの姿勢をトリガー姿勢として決定してもよい。 In response to a request from the video distribution device 20, the video playback device 10 determines a reference posture that serves as a trigger for causing its own avatar to perform a motion according to a newly registered user animation. In this specification, the reference posture that is a trigger for moving the avatar according to the newly registered user animation may be referred to as an additional reference posture. The additional reference posture is determined by various methods. For example, a sample moving image including a newly registered user animation is generated, and one or more candidate frames are selected from a plurality of frames included in this sample moving image to the viewing user who has requested registration of the user animation. Then, the additional reference posture can be determined based on the image of the avatar included in the selected frame. The viewing user can select a favorite frame from a plurality of frames. The viewing user may select, for example, a frame that includes an avatar that is in a memorable posture, a frame that includes an avatar that has a characteristic posture, or a frame other than these. it can. When two frames are selected from the plurality of frames, the posture of the avatar included in the preceding frame of the two frames in time series is determined as the start posture, and the start posture is determined in time series. The posture of the avatar included in a certain frame may be determined as the trigger posture.

追加基準姿勢を決定する他の方法について説明する。動画再生装置10は、ユーザアニメーションの登録要求を行った視聴ユーザに対して、当該ユーザアニメーションに対応する動きを複数回行うように指示する。この指示は、音声又は画面表示により行われ得る。動画再生装置10は、この指示に対応して視聴ユーザが行った動きに対応する姿勢特徴量(例えば、3次元骨格データ)を取得する。具体的には、所定の計測期間において、所定のサンプリング間隔で、ユーザアニメーションに対応して動いている視聴ユーザの姿勢を表す3次元骨格データを取得する。これにより、計測開始から計測終了までの間ユーザアニメーションに対応する動きを行った視聴ユーザの姿勢を時系列で表す3次元骨格データのセットが2組得られる。次にこの2組の3次元骨格データのセットのうち測定開始後に同タイミングで取得された3次元骨格データ同士を比較し、この比較結果に基づいて追加基準姿勢を決定する。例えば、2組の3次元骨格データのセットのうち測定開始後に同タイミングで取得された3次元骨格データの対応するボーンのベクトルが為す角度の合計値を算出し、この角度の合計値が最も小さい3次元骨格データに対応する姿勢(2組の骨格データのうちいずれを採用しても構わない。)を追加基準姿勢とすることができる。 Another method of determining the additional reference posture will be described. The video playback device 10 instructs the viewing user who has made the user animation registration request to perform a plurality of movements corresponding to the user animation. This instruction can be given by voice or screen display. The moving image reproducing apparatus 10 acquires the posture feature amount (for example, three-dimensional skeleton data) corresponding to the movement performed by the viewing user in response to this instruction. Specifically, three-dimensional skeleton data representing the posture of the viewing user moving in response to the user animation is acquired at a predetermined sampling interval in a predetermined measurement period. As a result, two sets of three-dimensional skeleton data representing time series the posture of the viewing user who has performed the movement corresponding to the user animation from the start of measurement to the end of measurement are obtained. Next, among the two sets of three-dimensional skeleton data, the three-dimensional skeleton data acquired at the same timing after the measurement is started are compared with each other, and the additional reference posture is determined based on the comparison result. For example, of the two sets of three-dimensional skeleton data, the total value of the angles formed by the corresponding bone vectors of the three-dimensional skeleton data acquired at the same timing after the start of measurement is calculated, and the total value of the angles is the smallest. The posture corresponding to the three-dimensional skeleton data (whichever of the two sets of skeleton data may be adopted) can be set as the additional reference posture.

次に、動画再生装置10の機能について説明する。動画再生装置10の機能は、コンピュータプロセッサ11がプログラムに含まれるコンピュータ読み取り可能な命令を実行することにより実現される。コンピュータプロセッサ11は、プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、動画再生部11a、姿勢データ取得部11b、送信部11c、分類部11d、及び遅延監視部11eとして機能する。コンピュータプロセッサ11により実現される機能の少なくとも一部は、コンピュータプロセッサ11以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ11により実現される機能の少なくとも一部は、動画配信装置20のコンピュータプロセッサ21又はそれ以外の動画配信システム1に備えられたコンピュータプロセッサにより実現されてもよい。 Next, the function of the video playback device 10 will be described. The functions of the video playback device 10 are realized by the computer processor 11 executing computer-readable instructions included in the program. The computer processor 11 executes the computer-readable instructions included in the program to function as the moving image reproduction unit 11a, the posture data acquisition unit 11b, the transmission unit 11c, the classification unit 11d, and the delay monitoring unit 11e. At least a part of the functions implemented by the computer processor 11 may be implemented by a computer processor other than the computer processor 11. At least a part of the functions implemented by the computer processor 11 may be implemented by the computer processor 21 of the video distribution device 20 or a computer processor provided in the other video distribution system 1.

動画再生部11aは、動画配信装置20から配信された動画を再生する。再生された動画は、ディスプレイ14に表示される。 The moving image reproduction unit 11a reproduces the moving image distributed from the moving image distribution device 20. The reproduced moving image is displayed on the display 14.

姿勢データ取得部11bは、動画再生装置10を使用して動画を視聴するユーザ(「視聴ユーザ」ということもある。)の姿勢の特徴を表す姿勢特徴量を取得する。視聴ユーザの姿勢の特徴を表す姿勢特徴量は、当該視聴ユーザの姿勢を表す3次元骨格データ、つまり視聴ユーザのボーンの位置及び向きを示す3次元ベクトルデータであってもよい。姿勢データ取得部11bは、例えば、センサユニット15が検出した検出データに基づいて視聴ユーザの3次元骨格データを生成する。視聴ユーザの3次元骨格データは、所定のサンプリング時間間隔ごとに生成されてもよい。センサユニット15がプロセッサを備えており、そのセンサユニット15のプロセッサにより3次元骨格データが生成される場合には、姿勢データ取得部11bはプロセッサ11の機能として実行されなくともよい。 The attitude data acquisition unit 11b acquires an attitude feature amount that represents the characteristics of the attitude of a user who views a video using the video playback device 10 (sometimes referred to as a “viewing user”). The posture feature amount representing the characteristic of the posture of the viewing user may be three-dimensional skeleton data representing the posture of the viewing user, that is, three-dimensional vector data indicating the position and orientation of the bone of the viewing user. The posture data acquisition unit 11b generates three-dimensional skeleton data of the viewing user based on the detection data detected by the sensor unit 15, for example. The 3D skeleton data of the viewing user may be generated at predetermined sampling time intervals. When the sensor unit 15 includes a processor and the processor of the sensor unit 15 generates three-dimensional skeleton data, the posture data acquisition unit 11b does not have to be executed as a function of the processor 11.

姿勢データ取得部11bにより取得される姿勢特徴量は、3次元骨格データ以外の特徴量であってもよい。例えば、上述したように、Light Coding技術を用いて赤外線のランダムパターンをユーザ等の対象に照射し、その画像を解析することによって対象の深度を取得し、当該深度を姿勢特徴量としてもよい。センサユニット15により検出される検出値及びこの検出値に基づいて算出される様々な値が姿勢特徴量として用いられ得る。 The posture feature amount acquired by the posture data acquisition unit 11b may be a feature amount other than the three-dimensional skeleton data. For example, as described above, a target such as a user may be irradiated with a random pattern of infrared rays by using the Light Coding technique, the depth of the target may be acquired by analyzing the image, and the depth may be used as the posture feature amount. The detection value detected by the sensor unit 15 and various values calculated based on this detection value can be used as the posture feature amount.

姿勢データ取得部11bは、動画再生装置10のユーザの動きを所定のフレームレートで撮像して得られる複数のフレームを含む撮像画像から次のようにして姿勢特徴量を求めても良い。具体的には、姿勢データ取得部11bは、当該撮像画像の各フレームにおいて当該ユーザに関連する複数の特徴点を抽出する。ユーザの姿勢や動きを表現するために適した位置が特徴点として抽出される。複数の特徴点を特徴点群ということもある。図7は、動画再生装置10により撮像された撮像画像を構成する複数のフレームの一つであるフレームf1を模式的に示している。図示のように、フレームf1には、撮像されたユーザの画像U1が含まれている。図7に示されているP1〜P6はそれぞれ抽出された特徴点を示す。特徴点の数及び位置は、図7に示されたものには限られない。例えば、動画再生装置10のユーザの体や顔に赤外線のレーザーによってランダムドットパターンを投影し、このランダムドットパターンが投影されたユーザを赤外線領域を撮影できるカメラで撮像する場合には、このランダムドット全体が特徴点群となる。 The posture data acquisition unit 11b may obtain the posture feature amount as follows from a captured image including a plurality of frames obtained by capturing the movement of the user of the video playback device 10 at a predetermined frame rate. Specifically, the posture data acquisition unit 11b extracts a plurality of feature points related to the user in each frame of the captured image. Positions suitable for expressing the posture and movement of the user are extracted as feature points. A plurality of feature points may be referred to as a feature point group. FIG. 7 schematically shows a frame f1 which is one of a plurality of frames forming a captured image captured by the moving image reproducing apparatus 10. As illustrated, the frame f1 includes the captured image U1 of the user. P1 to P6 shown in FIG. 7 indicate the extracted feature points, respectively. The number and position of the characteristic points are not limited to those shown in FIG. 7. For example, when a random dot pattern is projected onto the body or face of the user of the moving image reproducing apparatus 10 by an infrared laser and the user on which the random dot pattern is projected is imaged by a camera capable of capturing an infrared region, the random dot pattern is used. The whole becomes a feature point group.

姿勢データ取得部11bは、抽出された複数の特徴点の各々について姿勢特徴量(画像ベクトル)を得ることができる。特徴点P1〜P6の各々における姿勢特徴量は、各特徴点の深度であってもよいし3次元座標であってもよい。姿勢特徴量として3次元座標が用いられる場合には、撮像画像内に3次元のワールド座標系が設定され、撮影画像及びワールド座標系を元にして正規化された相対量が姿勢特徴量とされる。正規化された姿勢特徴量は、例えば、0〜1.0の相対量で表される。フレームf1における各特徴点P1〜P6の姿勢特徴量は、フレームf1よりも時系列的に前の(例えば直前の)フレームにおいて得られた各特徴点P1〜P6の姿勢特徴量とフレームf1において得られた各特徴点P1〜P6の姿勢特徴量との差で表される変化量であってもよい。姿勢特徴量のフレーム間での変化量を別の姿勢特徴量として用いる場合に両者を区別する必要があるときには、あるフレームにおける姿勢特徴量を「フレーム内特徴量」と呼び、フレーム間での姿勢特徴量の変化量で表される姿勢特徴量を「フレーム間特徴量」と呼んでも良い。特に断らない限り、または、文脈上別に解される場合を除き、単に「姿勢特徴量」というときには「フレーム内特徴量」及び「フレーム間特徴量」の両方を含む。各特徴点P1〜P6の姿勢特徴量は、0〜1.0の範囲に正規化されてfloat配列として表現されてもよい。この場合、特徴点P1〜P6の各々における姿勢特徴量が当該配列の要素となる。 The posture data acquisition unit 11b can obtain the posture feature amount (image vector) for each of the plurality of extracted feature points. The posture feature amount at each of the feature points P1 to P6 may be the depth of each feature point or may be a three-dimensional coordinate. When three-dimensional coordinates are used as the posture feature amount, a three-dimensional world coordinate system is set in the captured image, and the relative amount normalized based on the captured image and the world coordinate system is set as the posture feature amount. It The normalized posture feature amount is represented by a relative amount of 0 to 1.0, for example. The posture feature amount of each of the feature points P1 to P6 in the frame f1 is obtained in the frame f1 and the posture feature amount of each of the feature points P1 to P6 obtained in the frame (for example, immediately before) in time series before the frame f1. The change amount may be represented by the difference between the calculated feature points P1 to P6 and the posture feature amount. When it is necessary to distinguish the two when the change amount of the posture feature amount between frames is used as another posture feature amount, the posture feature amount in a certain frame is called “intra-frame feature amount” and The posture feature amount represented by the change amount of the feature amount may be referred to as an “interframe feature amount”. Unless otherwise specified or unless otherwise understood in the context, the term "posture feature amount" includes both "intra-frame feature amount" and "inter-frame feature amount". The posture feature amount of each of the feature points P1 to P6 may be normalized in the range of 0 to 1.0 and expressed as a float array. In this case, the posture feature amount at each of the feature points P1 to P6 becomes an element of the array.

送信部11cは、姿勢データ取得部11b又はセンサユニット15により取得された視聴ユーザの姿勢を表す姿勢特徴量を動画配信装置20に送信する。送信部11cは、姿勢データ取得部11b又はセンサユニット15から姿勢特徴量を受け取ると即時に動画配信装置20に送信する。言い換えると、送信部11cは、視聴ユーザの姿勢特徴量をリアルタイムに動画配信装置20に送信することができる。上記のとおり、姿勢特徴量は、所定のサンプリング時間間隔又は所定のフレームレートで取得される。これにより、姿勢特徴量は、所定のサンプリング時間間隔ごと又はフレームレートごとに生成され得る。よって、所定の時間間隔に亘って連続して取得された視聴ユーザの姿勢特徴量は、当該視聴ユーザの体の動きを時系列的にデジタルデータとして表現することができる。視聴ユーザの姿勢を表す姿勢特徴量は、当該姿勢特徴量以外のデータとともに動画配信装置20に送信されてもよい。本明細書では、視聴ユーザの姿勢や表情を表すデータまたは視聴ユーザの姿勢や表情と相関のあるデータを当該視聴ユーザの「モーションデータ」と総称することがある。視聴ユーザのモーションデータは、動画再生装置10からネットワーク50を含む伝送路を介して動画配信装置20に送信される。モーションデータは、パケット送信されてもよい。つまり、送信部11cは、モーションデータを含むパケットを動画配信装置20に対して送信してもよい。 The transmission unit 11c transmits, to the video distribution device 20, the posture feature amount representing the posture of the viewing user acquired by the posture data acquisition unit 11b or the sensor unit 15. When the transmitting unit 11c receives the posture characteristic amount from the posture data acquiring unit 11b or the sensor unit 15, the transmitting unit 11c immediately transmits the posture characteristic amount to the video distribution device 20. In other words, the transmission unit 11c can transmit the posture feature amount of the viewing user to the video distribution device 20 in real time. As described above, the posture feature amount is acquired at a predetermined sampling time interval or a predetermined frame rate. Thereby, the posture feature amount can be generated for each predetermined sampling time interval or each frame rate. Therefore, the posture feature amount of the viewing user continuously acquired over a predetermined time interval can represent the body movement of the viewing user in time series as digital data. The posture feature amount indicating the posture of the viewing user may be transmitted to the video distribution device 20 together with data other than the posture feature amount. In the present specification, data representing the posture or facial expression of the viewing user or data having a correlation with the posture or facial expression of the viewing user may be collectively referred to as “motion data” of the viewing user. The motion data of the viewing user is transmitted from the video playback device 10 to the video distribution device 20 via the transmission path including the network 50. The motion data may be transmitted in packets. That is, the transmission unit 11c may transmit a packet including motion data to the video distribution device 20.

一実施形態における分類部11dは、視聴ユーザの姿勢を分類する分類器により、当該視聴ユーザの姿勢特徴量(例えば、3次元骨格データ)に基づいて、当該視聴ユーザの姿勢が予め定められた基準姿勢に属するか否かを判定する。この分類器は、例えば線形分類器である。基準姿勢が開始姿勢とトリガー姿勢とを含む場合には、分類部11dは、視聴ユーザの姿勢が当該基準姿勢に属するか否か及び当該トリガー姿勢に属するか否かをそれぞれ判定することができる。分類部11dは、時刻t1において視聴ユーザの姿勢が基準姿勢のうちの開始姿勢に属するか否かを判定した後、当該時刻t1におけるユーザの姿勢が開始姿勢に属すると判定された場合には、続いて時刻t1よりも後の時刻t2における視聴ユーザの姿勢がトリガー姿勢に属するか否かを判定してもよい。 The classifying unit 11d according to the embodiment uses a classifier that classifies the posture of the viewing user, and a reference in which the posture of the viewing user is predetermined based on the posture feature amount of the viewing user (for example, three-dimensional skeleton data). It is determined whether or not it belongs to the posture. This classifier is, for example, a linear classifier. When the reference posture includes the start posture and the trigger posture, the classification unit 11d can respectively determine whether the posture of the viewing user belongs to the reference posture and whether the posture of the viewing user belongs to the trigger posture. The classification unit 11d determines whether or not the posture of the viewing user belongs to the start posture of the reference postures at the time t1, and when it is determined that the posture of the user at the time t1 belongs to the start posture, Subsequently, it may be determined whether or not the posture of the viewing user at time t2 after time t1 belongs to the trigger posture.

一実施形態において、分類部11dは、教師データを得るために、基準姿勢を表す画像をディスプレイ14に表示し、この基準姿勢を表す画像に従った姿勢を取るように視聴ユーザに音声や画面表示を通じて指示することができる。動画再生装置10は、この指示に対応して視聴ユーザが行った動きの姿勢特徴量を姿勢データ取得部11b又はセンサユニット15により逐次取得する。分類部11dは、基準姿勢を表す画像に応答して視聴ユーザが取った姿勢の姿勢特徴量を教師データとして学習することにより分類器を作成することができる。 In one embodiment, the classification unit 11d displays an image representing the reference attitude on the display 14 in order to obtain the teacher data, and displays audio or screen to the viewing user so as to take the attitude according to the image representing the reference attitude. Can be instructed through. The moving image reproducing apparatus 10 sequentially acquires the posture feature amount of the movement performed by the viewing user in response to this instruction, by the posture data acquisition unit 11b or the sensor unit 15. The classifying unit 11d can create a classifier by learning the posture feature amount of the posture taken by the viewing user as teacher data in response to the image representing the reference posture.

一実施形態における分類部11dは、例えば、姿勢データ取得部11b又はセンサユニット15からの姿勢特徴量が示す視聴ユーザの姿勢が予め定められた基準姿勢と合致するか否かを、当該姿勢特徴量を変数として評価関数に基づいて判定することができる。評価関数に基づいて視聴ユーザの姿勢が基準姿勢と合致すると判定された場合には、当該視聴ユーザの姿勢は、当該基準姿勢に属する。視聴ユーザの姿勢が開始姿勢と合致するか否かは、姿勢データ取得部11b又はセンサユニット15において生成された視聴ユーザの姿勢を表す姿勢特徴量と開始姿勢を表す姿勢特徴量(開始姿勢データ)とに基づいて判定され得る。姿勢特徴量が3次元骨格データである場合には、視聴ユーザの3次元骨格データに含まれる各ボーンのベクトルV1〜V8と開始姿勢データのうちベクトルV1〜V8に対応する各ボーンのベクトルT1〜T8とのなす角度の合計値が小さくなるほど、センサユニット15によって検出された視聴ユーザの姿勢と開始姿勢との類似度が高くなる。すなわち、視聴ユーザの姿勢を表す3次元骨格データに含まれる3次元ベクトルと基準姿勢を表す3次元骨格モデルの対応するベクトルのなす角度θの大きさと姿勢の類似度との間に負の相関関係がある。よって、この点に着目し、2つの3次元骨格モデルによって定義される角度θの大きさを正規化するための新規な評価関数fを定義する。下記式(1)に評価関数fの一例を示す。

Figure 0006731532
The classification unit 11d in one embodiment determines whether or not the posture of the viewing user indicated by the posture feature amount from the posture data acquisition unit 11b or the sensor unit 15 matches a predetermined reference posture, for example. Can be determined as a variable based on the evaluation function. When it is determined that the orientation of the viewing user matches the reference orientation based on the evaluation function, the orientation of the viewing user belongs to the reference orientation. Whether or not the posture of the viewing user matches the start posture is determined by the posture data acquisition unit 11b or the sensor unit 15 and represents the posture feature amount indicating the posture of the viewing user and the posture feature amount indicating the start posture (start posture data). Can be determined based on When the posture feature amount is three-dimensional skeleton data, the vectors V1 to V8 of each bone included in the three-dimensional skeleton data of the viewing user and the vectors T1 to T1 of each bone corresponding to the vectors V1 to V8 of the start posture data. The smaller the total value of the angles formed with T8, the higher the degree of similarity between the posture of the viewing user detected by the sensor unit 15 and the start posture. That is, there is a negative correlation between the size of the angle θ formed by the three-dimensional vector included in the three-dimensional skeleton data representing the posture of the viewing user and the corresponding vector of the three-dimensional skeleton model representing the reference posture and the similarity of the posture. There is. Therefore, paying attention to this point, a new evaluation function f for normalizing the magnitude of the angle θ defined by the two three-dimensional skeleton models is defined. An example of the evaluation function f is shown in the following formula (1).
Figure 0006731532

上記式において、(Ti・Vi)は、対応するベクトルの内積を示し、(‖Ti‖‖Vi‖)は、各ベクトルの大きさの積を示し、kは、3次元骨格モデルを構成するベクトルの要素数を示す。つまり、上記式(1)に示した評価関数fによれば、2つの3次元骨格モデルの対応するベクトルのなす角度θの余弦(=cosθ)の平均値が得られることになる。ここで、2つの3次元骨格モデルの対応するベクトルが完全一致する場合(角度θ=0)は、cosθ=1になり、2つの3次元骨格モデルの対応するベクトルの方向が逆向きになる場合(角度θ=180°)は、cosθ=−1になるので、評価関数fの値の取り得る範囲は、−1≦f≦+1となる。この場合、たとえば、評価関数fの値の範囲(−1≦f≦+1)を百分率の値(0〜100%)にリニアに割り当てれば、類似度を百分率で表現することができる。この所定の閾値は、例えば、90%とすることができる。2つの3次元骨格データ間の類似度の判定については、特開2013−37454号公報にも開示されている。 In the above equation, (Ti·Vi) represents the inner product of the corresponding vectors, (‖Ti‖‖Vi‖) represents the product of the magnitudes of the respective vectors, and k represents the vector that constitutes the three-dimensional skeleton model. Indicates the number of elements in. That is, according to the evaluation function f shown in the above equation (1), the average value of the cosine (=cos θ) of the angle θ formed by the corresponding vectors of the two three-dimensional skeleton models can be obtained. Here, when the corresponding vectors of the two 3D skeleton models completely match (angle θ=0), cos θ=1, and the directions of the corresponding vectors of the two 3D skeleton models are opposite. Since (angle θ=180°) is cos θ=−1, the range of the value of the evaluation function f is −1≦f≦+1. In this case, for example, if the range of the value of the evaluation function f (−1≦f≦+1) is linearly assigned to the percentage value (0 to 100%), the similarity can be expressed as a percentage. This predetermined threshold can be set to 90%, for example. The determination of the similarity between two pieces of three-dimensional skeleton data is also disclosed in Japanese Patent Laid-Open No. 2013-37454.

分類部11dは、上記のようにして算出した視聴ユーザの姿勢を表す姿勢特徴量と開始姿勢を表す姿勢特徴量との類似度が所定の閾値以上のときに、視聴ユーザの姿勢が開始姿勢に合致すると判定してもよい。 When the degree of similarity between the posture feature amount representing the posture of the viewing user and the posture feature amount representing the start posture calculated as described above is equal to or greater than a predetermined threshold, the classification unit 11d sets the posture of the viewing user to the start posture. It may be determined that they match.

分類部11dは、姿勢データ取得部11b又はセンサユニット15において視聴ユーザの姿勢特徴量が取得される都度、当該姿勢特徴量が示す視聴ユーザの姿勢が開始姿勢に属するか否かを判定してもよい。この場合、視聴ユーザの姿勢特徴量の取得のためのサンプリングレートと同じ頻度で視聴ユーザの姿勢が開始姿勢に合致するか否かの判定が行われる。 Whenever the posture data acquisition unit 11b or the sensor unit 15 acquires the posture feature amount of the viewing user, the classification unit 11d determines whether the posture of the viewing user indicated by the posture feature amount belongs to the start posture. Good. In this case, it is determined whether the posture of the viewing user matches the start posture at the same frequency as the sampling rate for acquiring the posture feature amount of the viewing user.

視聴ユーザの姿勢とトリガー姿勢とが合致するか否かも同様にして判定され得る。すなわち、分類部11dは、時刻t2における視聴ユーザの姿勢を表す姿勢特徴量とトリガー姿勢を表す姿勢特徴量との類似度を算出し、この類似度が所定の閾値以上のときに、視聴ユーザの姿勢がトリガー姿勢に合致すると判定してもよい。視聴ユーザの姿勢が開始姿勢に合致するか否かを判定するための上記の説明は、視聴ユーザの姿勢がトリガー姿勢に合致するか否かを判定するための処理にも可能な限り当てはまる。 Whether or not the posture of the viewing user matches the trigger posture can be similarly determined. That is, the classification unit 11d calculates the degree of similarity between the posture feature amount indicating the posture of the viewing user and the posture feature amount indicating the trigger posture at time t2, and when the degree of similarity is equal to or higher than a predetermined threshold, It may be determined that the posture matches the trigger posture. The above description for determining whether or not the posture of the viewing user matches the starting posture applies to the process for determining whether or not the posture of the viewing user matches the trigger posture as much as possible.

遅延監視部11eは、送信部11cによって動画再生装置10から動画配信装置20に送信されたモーションデータの伝送遅延を監視する。例えば、遅延監視部11eは、モーションデータを含む実パケットに送信前にタイムスタンプを付加し、この送信時に付加されたタイプスタンプと、この実パケットが動画配信装置20で受信されたときに付加されるタイムスタンプと、を用いて動画再生装置10と動画配信装置20との間の伝送路における当該実パケットの伝送時間を求めることができる。遅延監視部11eは、この伝送時間が所定の基準時間以上となったとき又は当該基準時間よりも長いときに当該伝送路において遅延が発生していると判定することができる。遅延監視部11eは、伝送路において一旦遅延が発生していると判定した後に、伝送時間が所定の基準時間よりも短くなったとき又は当該所定の基準時間以下となったときに遅延が解消したと判定することができる。動画配信装置20がサーバであり、動画再生装置10がクライアントである場合には、動画再生装置10から動画配信装置20へのデータの伝送は上り回線を使用して行われる。この場合、遅延監視部11eは、動画再生装置10と動画配信装置20との間の伝送路の上り回線に遅延が発生しているか否かを監視する。遅延監視部11eは、上記のように実パケットの伝送時間を測定してもよいし、モーションデータを含まない疑似パケットを用いて伝送時間を測定してもよい。ある視聴ユーザの動画再生装置10から送信されたモーションデータの伝送に遅延が発生している間に、他の視聴ユーザの動画再生装置10から送信されたモーションデータの伝送には遅延が発生していないと判定されることも有り得る。よって、伝送路における遅延は、視聴ユーザごとに判定されてもよい。また、伝送遅延の発生の有無は、パケットに含まれるタイムスタンプに基づいて動画配信装置20において判定されてもよい。動画再生装置10は、動画配信装置20における伝送遅延の判定結果を受け取っても良い。 The delay monitoring unit 11e monitors the transmission delay of the motion data transmitted from the video playback device 10 to the video distribution device 20 by the transmission unit 11c. For example, the delay monitoring unit 11e adds a time stamp to a real packet including motion data before transmission, adds the time stamp added at the time of transmission, and the time stamp added when the real packet is received by the video distribution device 20. It is possible to obtain the transmission time of the actual packet on the transmission path between the moving image reproduction apparatus 10 and the moving image distribution apparatus 20 by using the time stamps. The delay monitoring unit 11e can determine that a delay has occurred in the transmission path when the transmission time is longer than or equal to a predetermined reference time or longer than the reference time. The delay monitoring unit 11e eliminates the delay when the transmission time becomes shorter than a predetermined reference time or becomes less than or equal to the predetermined reference time after determining that the delay has once occurred in the transmission path. Can be determined. When the video distribution device 20 is a server and the video reproduction device 10 is a client, data transmission from the video reproduction device 10 to the video distribution device 20 is performed using the uplink. In this case, the delay monitoring unit 11e monitors whether or not there is a delay in the upstream line of the transmission path between the video playback device 10 and the video distribution device 20. The delay monitoring unit 11e may measure the transmission time of the actual packet as described above, or may measure the transmission time using a pseudo packet that does not include motion data. While the transmission of the motion data transmitted from the video playback device 10 of a certain viewing user is delayed, the transmission of the motion data transmitted from the video playback device 10 of another viewing user is delayed. It is possible that it is determined that there is not. Therefore, the delay on the transmission path may be determined for each viewing user. Further, whether or not a transmission delay has occurred may be determined by the moving image distribution apparatus 20 based on the time stamp included in the packet. The video playback device 10 may receive the determination result of the transmission delay in the video distribution device 20.

再び送信部11cの機能について説明する。送信部11cは、遅延監視部11eにおいて伝送路に遅延が発生していると判定された場合に、ストレージ13に記憶されている基準姿勢識別データ(基準姿勢ID)を送信することができる。基準姿勢識別データは、視聴ユーザの姿勢特徴量を含むモーションデータに代えて送信されてもよい。上記のとおり、基準姿勢識別データは、開始姿勢データ及びトリガー姿勢データを含み得る。送信部11cは、基準姿勢識別データとして、トリガー姿勢データを送信することができる。一実施形態において、分類部11dによって視聴ユーザの姿勢がトリガー姿勢に属すると判定された場合、送信部11cは、モーションデータの伝送に遅延が発生している間、基準姿勢識別データとしてトリガー姿勢を識別する基準姿勢IDを動画配信装置20に送信する。送信部11cは、分類部11dによって視聴ユーザの姿勢が開始姿勢に属すると判定された後の所定インターバル内に当該視聴ユーザの姿勢がトリガー姿勢に属すると判定された場合、送信部11cは、モーションデータの伝送に遅延が発生している間、トリガー姿勢を識別する基準姿勢IDを動画配信装置20に送信する。視聴ユーザの姿勢が開始姿勢に属すると判定された後の視聴ユーザの姿勢がトリガー姿勢にも属すると判定された場合に基準姿勢IDを送信することにより、開始姿勢又はトリガー姿勢の一方のみに属すると判定されたことに応じて基準姿勢IDを送信する場合と比べて、視聴ユーザが意図せずに基準姿勢IDを送信してしまうことを防止又は抑制できる。「モーションデータの伝送に遅延が発生している間」とは、遅延監視部11eにおいて伝送路に遅延が発生していると判定されてから遅延が解消したと判定されるまでの期間を意味してもよい。送信部11cは、開始姿勢を識別する基準姿勢IDを動画配信装置20に送信しなくともよい。 The function of the transmission unit 11c will be described again. The transmission unit 11c can transmit the reference attitude identification data (reference attitude ID) stored in the storage 13 when the delay monitoring unit 11e determines that a delay has occurred in the transmission path. The reference posture identification data may be transmitted instead of the motion data including the posture feature amount of the viewing user. As described above, the reference attitude identification data may include start attitude data and trigger attitude data. The transmitter 11c can transmit the trigger posture data as the reference posture identification data. In one embodiment, when the classification unit 11d determines that the posture of the viewing user belongs to the trigger posture, the transmission unit 11c determines the trigger posture as the reference posture identification data while the transmission of the motion data is delayed. The reference posture ID to be identified is transmitted to the moving image distribution device 20. When the transmitting unit 11c determines that the posture of the viewing user belongs to the trigger posture within a predetermined interval after the classification unit 11d determines that the posture of the viewing user belongs to the start posture, the transmitting unit 11c performs the motion. While the data transmission is delayed, the reference posture ID for identifying the trigger posture is transmitted to the video distribution device 20. If the posture of the viewing user is determined to belong to the start posture and then the posture of the viewing user is also determined to belong to the trigger posture, the reference posture ID is transmitted to belong to only one of the start posture and the trigger posture. It is possible to prevent or suppress the viewing user from unintentionally transmitting the reference posture ID as compared with the case where the reference posture ID is transmitted in response to the determination. "While a delay occurs in transmission of motion data" means a period from when the delay monitoring unit 11e determines that a delay has occurred in the transmission path to when it is determined that the delay has been eliminated. May be. The transmission unit 11c does not have to transmit the reference posture ID for identifying the start posture to the video distribution device 20.

次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、動画生成部21a、動画配信部21b、及びアニメーション生成部21c、として機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、動画再生装置10のコンピュータプロセッサ11又はそれ以外の動画配信システム1に備えられたコンピュータプロセッサにより実現されてもよい。 Next, the function realized by the computer processor 21 will be described more specifically. The computer processor 21 functions as a moving image generation unit 21a, a moving image distribution unit 21b, and an animation generation unit 21c by executing computer-readable instructions included in the distribution program. At least a part of the functions realized by the computer processor 21 may be realized by a computer processor other than the computer processor 21 of the moving image distribution system 1. At least a part of the functions implemented by the computer processor 21 may be implemented by, for example, the computer processor 11 of the video playback device 10 or a computer processor included in the other video delivery system 1.

動画配信装置20は、様々な種類の動画を配信することができる。以下では、動画配信装置20がアクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信することを想定する。 The moving picture distribution device 20 can distribute various kinds of moving pictures. In the following, it is assumed that the video distribution device 20 distributes a video including an animation of a character object generated based on the movement of an actor.

動画生成部21aは、アクターに装着されたモーションセンサによって当該アクターの動きを検出する。動画生成部21aは、モーションセンサによって検出されたアクターの体の動きに同期して動くキャラクタのアニメーションを生成することができる。動画生成部21aは、アクターの顔の動きのデジタル表現であるフェイスモーションデータを取得してもよい。この場合、動画生成部21aは、アクターの顔の動きに同期して表情が変わるキャラクタのアニメーションを生成することができる。動画生成部21aは、オブジェクトデータ23aを用いて仮想空間を構築し、この仮想空間と、アクターに対応するキャラクタのアニメーションと、を含む動画を生成することができる。動画生成部21aは、生成した動画にマイクから取得したアクターの音声を合成することができる。アクターの体や表情の動きに同期して動くキャラクタのアニメーションを含む動画の生成については、特許第644615号の明細書に詳細に開示されている。 The moving image generation unit 21a detects the movement of the actor by a motion sensor attached to the actor. The moving image generation unit 21a can generate an animation of a character that moves in synchronization with the movement of the actor's body detected by the motion sensor. The moving image generation unit 21a may acquire face motion data that is a digital expression of the movement of the face of the actor. In this case, the moving image generator 21a can generate an animation of a character whose facial expression changes in synchronization with the movement of the face of the actor. The moving image generation unit 21a can construct a virtual space using the object data 23a, and can generate a moving image including the virtual space and the animation of the character corresponding to the actor. The moving image generation unit 21a can synthesize the generated moving image with the voice of the actor acquired from the microphone. The generation of a moving image including animation of a character that moves in synchronization with the movement of the actor's body or facial expression is disclosed in detail in the specification of Japanese Patent No. 644615.

動画生成部21aは、動画を視聴している視聴ユーザから当該動画へアバタを参加させるための参加要求を受け付けると、当該視聴ユーザのアバタを含むように動画を生成することができる。視聴ユーザからの参加要求には、当該視聴ユーザを特定するユーザIDが含まれていてもよい。動画生成部21aは、参加要求に含まれているユーザIDに基づいて当該視聴ユーザのアバタを識別するアバタIDを特定し、ストレージ23において当該アバタIDに対応付けて記憶されているパーツ情報に基づいて当該視聴ユーザのアバタを表すアバタオブジェクトを生成することができる。 Upon receiving a participation request for allowing an avatar to participate in the video from the viewing user who is watching the video, the video generation unit 21a can generate the video including the avatar of the viewing user. The participation request from the viewing user may include a user ID that identifies the viewing user. The moving image generation unit 21a identifies an avatar ID for identifying the avatar of the viewing user based on the user ID included in the participation request, and based on the parts information stored in the storage 23 in association with the avatar ID. Thus, it is possible to generate an avatar object representing the avatar of the viewing user.

動画配信部21bは、動画生成部21aにおいて生成された動画を配信する。この動画は、ネットワーク50を介して動画再生装置10に配信される。受信された動画は、動画再生装置10において再生される。 The moving image distribution unit 21b distributes the moving image generated by the moving image generation unit 21a. This video is distributed to the video playback device 10 via the network 50. The received moving image is reproduced by the moving image reproducing device 10.

動画配信装置20から動画再生装置10aに配信され、この動画再生装置10において再生されている動画の表示例が図9aに示されている。動画再生装置10において再生される動画は、ディスプレイ14に表示され得る。図示のように、動画再生装置10において表示されている動画60は、アクターのキャラクタを表すキャラクタオブジェクト51と、キャラクタオブジェクト51が立つフロアオブジェクト54aと、ステージの後端を画定するスクリーンオブジェクト54bと、動画60を視聴している視聴ユーザのアバタを示すアバタオブジェクト56a〜56jと、を含んでいる。キャラクタオブジェクト51は、アクターの体の動きに同期して仮想空間で動くことができる。動画60は、動画配信装置20から多数の動画再生装置10に配信されるため、画像60は、多数のアバタを含んでいる。図9aにおいては、10人の視聴ユーザがアバタを介して動画に参加していることが想定されている。動画に参加可能な視聴ユーザの数は、10より多くともよいし、10より少なくともよい。 FIG. 9a shows a display example of a moving image that is distributed from the moving image distribution device 20 to the moving image reproduction device 10a and is reproduced by this moving image reproduction device 10. The moving image reproduced by the moving image reproducing device 10 may be displayed on the display 14. As shown in the figure, the moving image 60 displayed on the moving image reproducing apparatus 10 includes a character object 51 representing an actor character, a floor object 54a on which the character object 51 stands, and a screen object 54b defining the rear end of the stage. The avatar objects 56a to 56j indicating the avatars of the viewing user who is viewing the moving image 60 are included. The character object 51 can move in the virtual space in synchronization with the movement of the actor's body. Since the moving image 60 is distributed from the moving image distribution device 20 to a large number of moving image reproducing devices 10, the image 60 includes a large number of avatars. In FIG. 9a, it is assumed that 10 viewing users are participating in the video via avatars. The number of viewing users who can participate in the video may be greater than 10, or at least greater than 10.

ディスプレイ14には、動画60に重複するように、ユーザの操作を受け付けるための操作ボタンが表示されてもよい。図9aに示されている例では、ギフティングを行うためのギフトボタン61と、評価を提供するための評価ボタン62と、アバタによる動画60への参加を申請するためのアバタ参加ボタン63と、が動画60に重畳表示されている。ギフトボタン61、評価ボタン62、及びアバタ参加ボタン63は、視聴ユーザによって選択可能に表示されている。動画60には、これら以外の操作ボタンが表示されてもよい。動画60を視聴している視聴ユーザは、ギフトボタン61の選択により、動画60を配信している配信者や動画60にキャラクタ51を介して出演しているアクターに対して所望のギフトを贈ることができる。視聴ユーザは、評価ボタン62の選択により、動画60への肯定的な評価がなされたことを示す評価情報を動画配信装置20に送信することができる。様々な視聴ユーザからの評価情報を集計し、その集計結果が動画60とともに表示されてもよい。視聴ユーザは、アバタ参加ボタン63の選択により、自らのアバタを動画60に参加させることを要求する参加要求を動画配信装置20に送信することができる。 On the display 14, an operation button for accepting a user operation may be displayed so as to overlap with the moving image 60. In the example shown in FIG. 9a, a gift button 61 for giving a gift, an evaluation button 62 for providing an evaluation, an avatar participation button 63 for applying for participation in the video 60 by an avatar, Is superimposed on the moving image 60. The gift button 61, the evaluation button 62, and the avatar participation button 63 are displayed so that the viewing user can select them. Operation buttons other than these may be displayed on the moving image 60. The viewing user who is viewing the video 60 presents a desired gift to the distributor who is delivering the video 60 or the actor who appears in the video 60 via the character 51 by selecting the gift button 61. You can By selecting the evaluation button 62, the viewing user can transmit evaluation information indicating that the video 60 is positively evaluated to the video distribution device 20. The evaluation information from various viewing users may be totaled, and the totaled result may be displayed together with the moving image 60. By selecting the avatar participation button 63, the viewing user can send a participation request to the video distribution device 20 requesting that his or her avatar participate in the video 60.

アニメーション生成部21cは、動画60に参加している視聴者のアバタのアニメーションを生成する。一実施形態において、アニメーション生成部21cは、動画再生装置10から受信した視聴ユーザの姿勢特徴量に基づいて、当該視聴ユーザのアバタのアニメーションを生成する。時間的に連続して受信される姿勢特徴量(例えば、3次元骨格データ)は、視聴ユーザの体の動きを時系列的に表現する。よって、アニメーション生成部21cは、動画再生装置10から視聴ユーザの姿勢特徴量を連続して受信することで、当該姿勢特徴量に基づいて、当該視聴ユーザの体の動きに同期して動くアバタのアニメーションを生成することができる。動画生成部21aは、アニメーション生成部21cによってアバタのアニメーションが生成されると、当該アバタのアニメーションを含むように動画60を生成する。 The animation generation unit 21c generates an animation of an avatar of a viewer participating in the moving image 60. In one embodiment, the animation generation unit 21c generates an animation of an avatar of the viewing user based on the posture feature amount of the viewing user received from the video playback device 10. The posture feature amount (for example, three-dimensional skeleton data) received continuously in time represents the movement of the body of the viewing user in time series. Therefore, the animation generation unit 21c continuously receives the posture feature amount of the viewing user from the moving image reproducing apparatus 10, and thereby the avatar that moves in synchronization with the movement of the body of the viewing user based on the posture feature amount. Animations can be generated. When the animation generation unit 21c generates the avatar animation, the moving image generation unit 21a generates the moving image 60 so as to include the avatar animation.

動画再生装置10から動画配信装置20への上り回線の伝送路で伝送遅延が発生すると、動画配信装置20は、視聴ユーザの姿勢特徴量を時間的に連続して受信することができなくなることがある。動画再生装置10から送信される視聴ユーザの姿勢特徴量のみに基づいてアバタのアニメーションを作成しようとすると、伝送路において伝送遅延が発生した場合、視聴ユーザの動きを反映して動くアバタのアニメーションを生成することができなくなってしまうおそれがある。これに対し、一実施形態におけるアニメーション生成部21cは、視聴ユーザの姿勢特徴量のみに依存せず、動画再生装置10からの基準姿勢識別データ(例えば、基準姿勢ID)に基づいてアバタのアニメーションを生成することができる。具体的には、アニメーション生成部21cは、動画再生装置10から基準姿勢識別データを受信すると、アニメーション管理データ23cを参照することで受信した基準姿勢識別データに対応付けられている登録アニメーションを特定することができ、この特定された登録アニメーションの登録アニメーションIDに対応付けられているアニメーション定義データに基づいてアバタのアニメーションを生成することができる。既述のとおり、基準姿勢識別データは、動画再生装置10の遅延監視部11eによって姿勢特徴量を含むモーションデータの上り回線での伝送に遅延があると判定された場合に、動画再生装置10から動画配信装置20へ送信される。よって、アニメーション生成部21cは、モーションデータの伝送に遅延が発生している間に姿勢特徴量が受信できなかったとしても、その遅延が発生している間に動画再生装置10から送られてくる基準姿勢識別データに基づいてアバタのアニメーションを生成することができる。 When a transmission delay occurs in the upstream transmission path from the video playback device 10 to the video distribution device 20, the video distribution device 20 may not be able to continuously receive the posture feature amount of the viewing user in time. is there. When an avatar animation is created based only on the posture feature amount of the viewing user transmitted from the video playback device 10, if a transmission delay occurs in the transmission path, the animation of the avatar that moves reflecting the movement of the viewing user is generated. It may not be able to be generated. On the other hand, the animation generation unit 21c according to the embodiment does not depend only on the posture feature amount of the viewing user, but creates the avatar animation based on the reference posture identification data (for example, the reference posture ID) from the video playback device 10. Can be generated. Specifically, when the animation generation unit 21c receives the reference posture identification data from the moving image reproduction device 10, the animation generation unit 21c refers to the animation management data 23c to identify the registered animation associated with the received reference posture identification data. It is possible to generate the avatar animation based on the animation definition data associated with the registered animation ID of the specified registered animation. As described above, the reference posture identification data is transmitted from the video playback device 10 when the delay monitoring unit 11e of the video playback device 10 determines that the transmission of the motion data including the posture feature amount in the uplink is delayed. It is transmitted to the video distribution device 20. Therefore, even if the posture feature amount cannot be received while the motion data transmission is delayed, the animation generation unit 21c is sent from the video playback device 10 while the delay is generated. An avatar animation can be generated based on the reference posture identification data.

アバタのアニメーションの生成について説明する。視聴ユーザの姿勢特徴量(例えば、3次元骨格データ)に基づいて生成されるアバタのアニメーションは、視聴ユーザの動きを反映したアバタの動きを表現するものである。例えば、視聴ユーザが右手を腰に当てた位置から斜め上方に向かって持ち上げる動作を行ったと想定する。この場合、視聴ユーザの姿勢特徴量に基づいて当該視聴ユーザのアバタのアニメーションを生成する。このアニメーションを動画に含めることにより、アバタは、当該動画内で、視聴ユーザの動きと同様に右手(アバタの右手に相当するパーツ)を腰に当てた位置から斜め上方に向かって持ち上げる動作を行う。 Generation of avatar animation will be described. The avatar animation generated based on the posture feature amount of the viewing user (for example, three-dimensional skeleton data) expresses the movement of the avatar that reflects the movement of the viewing user. For example, it is assumed that the viewing user performs an operation of lifting the right hand on the waist and obliquely upward. In this case, the avatar animation of the viewing user is generated based on the posture feature amount of the viewing user. By including this animation in the video, the avatar performs an action of lifting the right hand (a part corresponding to the right hand of the avatar) diagonally upward from the position where the right hand (the part corresponding to the right hand of the avatar) is applied to the waist in the video. ..

他方、伝送路において遅延が発生している場合には、姿勢特徴量に基づくアバタのアニメーションの生成は中断されてもよい。例えば、伝送路において遅延が発生している場合には、送信部11cによる姿勢特徴量の送信を中断してもよく、これに応じてアニメーション生成部21cにおける姿勢特徴量に基づくアバタのアニメーションの生成も中断されてもよい。上記のように、動画配信装置20は、動画再生装置10から受信するパケットに含まれるタイムスタンプに基づいて遅延の有無を判定することができる。伝送路に遅延が発生しているときには、動画配信装置20においてデータ量が大きい姿勢特徴量を適時に受信することは困難となる。かかる場合にも姿勢特徴量に基づくアバタのアニメーションを継続すると、動画内におけるアバタの動きが不自然になってしまうおそれがある。このようなアバタの不自然な動きは、配信される動画のクオリティを劣化させるため望ましくない。伝送路において遅延が発生している場合に、姿勢特徴量に基づくアバタのアニメーションの生成を中断することにより、アバタが不自然な動きを行わないようにすることができる。姿勢特徴量に基づくアバタのアニメーションの生成を中断しても、アニメーション生成部21cは、動画再生装置10からの基準姿勢識別データに基づいてアバタの登録アニメーションIDを特定し、この特定された登録アニメーションIDに対応付けられているアニメーション定義データに基づいてアバタのアニメーションを生成することができる。伝送路において遅延が発生している間に、視聴ユーザが基準姿勢と合致する姿勢を取らなかった場合には、動画配信装置20は、基準姿勢識別データを受信しない。この場合には、アニメーション生成部21cは、当該視聴ユーザのアバタのアニメーションを生成しなくともよい。アニメーション生成部21cがアバタのアニメーションを生成しない場合には、当該アバタは動画内で静止している。別の実施形態において、伝送路において遅延が発生している間に動画配信装置20が基準姿勢識別データを受信しない場合には、アバタについて定められている基本動作に従った動きを行うように当該アバタのアニメーションを作成してもよい。アバタの基本動作とは、例えば、手を上下に揺らす、手を左右に揺らす、飛び跳ねるなどの予め定められた動作を指す。この基本動作は、複数の視聴ユーザに共通に設定されていてもよい。アバタの基本動作は、動画再生装置10からのアバタの動きに関する情報(3次元骨格データや基準姿勢識別データ)を受信しなくてもアバタによって行われ得る点で、アニメーション生成部21cにおいて生成されるアニメーションとは異なっている。 On the other hand, when a delay occurs in the transmission path, the generation of the avatar animation based on the posture feature amount may be interrupted. For example, when a delay occurs in the transmission path, the transmission of the posture feature amount by the transmission unit 11c may be interrupted, and accordingly, the animation generation unit 21c generates the avatar animation based on the posture feature amount. May also be interrupted. As described above, the video distribution device 20 can determine the presence or absence of delay based on the time stamp included in the packet received from the video reproduction device 10. When the transmission path is delayed, it becomes difficult for the moving image distribution apparatus 20 to receive the posture feature amount having a large amount of data in a timely manner. Even in such a case, if the animation of the avatar based on the posture feature amount is continued, the movement of the avatar in the moving image may become unnatural. Such an unnatural movement of the avatar deteriorates the quality of the moving image to be distributed, which is not desirable. When a delay occurs in the transmission path, by interrupting the generation of the avatar animation based on the posture feature amount, it is possible to prevent the avatar from performing an unnatural movement. Even if the generation of the avatar animation based on the posture feature amount is interrupted, the animation generation unit 21c specifies the registered animation ID of the avatar based on the reference posture identification data from the video playback device 10, and the specified registered animation. An avatar animation can be generated based on the animation definition data associated with the ID. If the viewing user does not take a posture that matches the reference posture while the delay occurs in the transmission path, the moving image distribution apparatus 20 does not receive the reference posture identification data. In this case, the animation generation unit 21c does not have to generate the animation of the avatar of the viewing user. When the animation generation unit 21c does not generate an avatar animation, the avatar is still in the moving image. In another embodiment, when the moving image distribution apparatus 20 does not receive the reference attitude identification data while the delay is occurring in the transmission path, the moving image distribution apparatus 20 performs a motion according to the basic operation defined for the avatar. You may create avatar animations. The basic action of the avatar refers to a predetermined action such as shaking the hand up and down, shaking the hand left and right, and jumping. This basic operation may be set commonly to a plurality of viewing users. The basic motion of the avatar is generated by the animation generation unit 21c in that the basic motion of the avatar can be performed by the avatar without receiving the information (three-dimensional skeleton data or reference posture identification data) about the motion of the avatar from the video playback device 10. It's different from animation.

アニメーション生成部21cによってアバタのアニメーションが生成されると、動画生成部21aによって当該アニメーションを含む動画が生成され、このアバタのアニメーションを含む動画が動画配信部21bによって動画再生装置10に配信される。図9aに示されている動画60にアバタオブジェクト56aのアニメーションが含まれる場合には、アバタオブジェクト56aのアニメーションを含む動画60が表示される。例えば、アバタオブジェクト56aが右手を挙げるアニメーションが生成された場合には、図9bに示されているように、動画60内においてアバタオブジェクト56aが右手を挙げる動きを行う。 When the animation generating unit 21c generates the avatar animation, the moving image generating unit 21a generates a moving image including the animation, and the moving image including the avatar animation is distributed to the moving image reproducing apparatus 10 by the moving image distribution unit 21b. If the animation 60 shown in FIG. 9a includes the animation of the avatar object 56a, the animation 60 including the animation of the avatar object 56a is displayed. For example, when the animation in which the avatar object 56a raises the right hand is generated, the avatar object 56a performs the movement of raising the right hand in the moving image 60, as shown in FIG. 9b.

上記のように、動画配信装置20は、登録が要求されているユーザアニメーションを動画に含めるためのトリガーとなる追加基準姿勢を決定するよう動画再生装置10に要求してもよい。追加基準姿勢の決定方法の一部の態様については既述のとおりであるが、図8をさらに参照して追加基準姿勢を決定する別の態様について説明する。以下の例では、ユーザの画像の特徴点を抽出し、その特徴点における姿勢特徴量の二乗平均平方根を利用して追加基準姿勢が決定される。まず、動画再生装置10は、ユーザアニメーションとして登録したい動きを行うようにユーザに指示し、当該指示に基づいて登録したい動きを行っているユーザを所定のフレームレートで撮像することにより複数のフレームを含む撮像画像を得る。動画再生装置10は、抽出された複数の特徴点の各々について姿勢特徴量を得る。ユーザを撮像した撮像画像の複数のフレームの各々における特徴点の抽出については、図7を参照して既に説明したので、繰り返しの説明は行わない。 As described above, the video distribution device 20 may request the video playback device 10 to determine the additional reference posture that is a trigger for including the user animation whose registration is requested in the video. Although some aspects of the method of determining the additional reference posture have already been described, another aspect of determining the additional reference posture will be described with further reference to FIG. 8. In the following example, the feature point of the image of the user is extracted, and the additional reference posture is determined using the root mean square of the posture feature amount at the feature point. First, the moving image reproducing apparatus 10 instructs a user to perform a motion to be registered as a user animation, and captures a plurality of frames by capturing an image of the user performing the motion to register based on the instruction at a predetermined frame rate. A captured image including the acquired image is obtained. The moving image reproducing apparatus 10 obtains the posture feature amount for each of the plurality of extracted feature points. The extraction of the feature points in each of the plurality of frames of the captured image of the user has already been described with reference to FIG. 7, and thus will not be repeatedly described.

図8は、第0フレームから第23フレームまでの24フレームの各々における姿勢特徴量を含む表を示している。図8の表においては、特徴点P1〜P6の各々の姿勢特徴量が、「P1」欄〜「P6」欄にそれぞれ示されている。この姿勢特徴量は、0〜1.0の範囲に正規化されている。動画再生装置10は、各特徴点P1〜P6の姿勢特徴量の二乗平均平方根(RMS)をフレームごとに算出する。N個の特徴点P1〜PNの各々における姿勢特徴量をxi(ただし、iは1〜Nの値をとる。)とすると、特徴点P1〜PNの姿勢特徴量のRMS(x)は以下の式で表される。

Figure 0006731532
FIG. 8 shows a table including posture feature values in each of 24 frames from the 0th frame to the 23rd frame. In the table of FIG. 8, the posture feature amounts of the feature points P1 to P6 are shown in the “P1” column to the “P6” column, respectively. This posture feature amount is normalized to the range of 0 to 1.0. The moving image reproducing apparatus 10 calculates the root mean square (RMS) of the posture feature amount of each of the feature points P1 to P6 for each frame. The orientation feature quantity at each of the N feature points P 1 ~P N x i (where, i takes values of 1 to N.) To the, the posture feature quantity of the feature point P1~P N RMS (x ) Is represented by the following formula.
Figure 0006731532

図8には、フレームごとに算出されたRMS(x)が記載されている。動画再生装置10は、RMS(x)以外に、各フレームについて、各特徴点における姿勢特徴量の平均値、及び、当該フレームのRMS(x)と前フレームのRMS(x)との差を示すRMS差を算出しても良い。動画再生装置10は、フレームごとに、RMS差の正負を示す正負フラグ、RMS差の正負が逆転したか否かを示す反転フラグを求めてもよい。例えば、第2フレームにおけるRMS差は、第2フレームにおけるRMS(x2)と第1フレームにおけるRMS(x1)との差である。正負フラグは、例えば、RMS差が正のときに「1」であり、RMS差が負のときに「0」となる。反転フラグは、例えば、RMS差の符号が逆転したときに「1」であり、RMS差の符号が逆転していない(つまり、全フレームと符号が同じ)にときに「0」となる。図8には、これらの平均値、RMS差、正負フラグ、及び反転フラグが含められている。図8においては、第4フレーム、第10フレーム、第16フレーム、第17フレーム、第19フレーム、及び第21フレームでその直前のフレームとRMS差の正負が逆転しているため、反転フラグに「1」が設定されている。第0フレームよりも先行するフレームは存在しないため、第0フレームについてはRMS差が空欄になっている。 FIG. 8 shows RMS(x) calculated for each frame. In addition to RMS(x), the moving image reproducing apparatus 10 shows the average value of the posture feature amount at each feature point and the difference between the RMS(x) of the frame and the RMS(x) of the previous frame for each frame. The RMS difference may be calculated. The moving image reproducing apparatus 10 may obtain, for each frame, a positive/negative flag indicating whether the RMS difference is positive or negative, and an inversion flag indicating whether the positive or negative of the RMS difference is reversed. For example, the RMS difference in the second frame is the difference between RMS(x 2 ) in the second frame and RMS(x 1 ) in the first frame. The positive/negative flag is “1” when the RMS difference is positive, and is “0” when the RMS difference is negative, for example. The inversion flag is, for example, “1” when the sign of the RMS difference is reversed, and is “0” when the sign of the RMS difference is not reversed (that is, the sign is the same as in all frames). FIG. 8 includes the average value, the RMS difference, the positive/negative flag, and the inversion flag. In FIG. 8, the positive/negative of the RMS difference is reversed in the fourth frame, the tenth frame, the sixteenth frame, the seventeenth frame, the nineteenth frame, and the twenty-first frame from the immediately preceding frame. 1” is set. Since there is no frame preceding the 0th frame, the RMS difference is blank for the 0th frame.

反転フラグが「1」のフレームにおいては、前フレームからRMS差の符号が逆転しているから、当該フレームにおいてユーザが大きな動きを行ったと推定される。反転フラグによって検出可能な大きな動きは、例えば、手を振る、まばたきをするなど周期的な動作であることが多い。そこで、本発明の一実施形態においては、反転フラグの「1」に設定されているフレーム、すなわち姿勢特徴量のRMS差の符号が前フレームと逆転したフレームを開始フレームとし、この開始フレームからRMS差の符号が再び反転するまで(次に反転フラグが「1」になるまで)の区間について注目することが容易になる。この開始フレームにおけるユーザの姿勢を開始姿勢とすることができる。また、開始フレームの次に反転フラグが「1」に設定されているフレームをトリガーフレームとし、このトリガーフレームにおけるユーザの姿勢をトリガー姿勢とすることができる。このように、反転フラグが「1」になってから次に反転フラグが「1」になるまでの区間に着目してユーザの動作や姿勢を解析できる。図8に示されている例では、第4フレームにおいて反転フラグが初めて「1」になっており、第10フレームで反転フラグが2回目に「1」になっている。したがって、第4フレームにおけるユーザの姿勢を開始姿勢とし、第10フレームにおけるユーザの姿勢をトリガー姿勢とする周期性のある動作やそのトリガー姿勢の抽出を低い演算コストで可能にする。開始姿勢を示す開始姿勢データ及びトリガー姿勢を示すトリガー姿勢データは、二乗平均平方根誤差(RMSE:Root Mean Squared Error)や平均平方二乗誤差率(RMSPTE:Root Mean Squared Percentage Error)、または撮像画像から算出または推定することができる。 In the frame in which the inversion flag is "1", the sign of the RMS difference is reversed from the previous frame, so it is estimated that the user has made a large motion in the frame. The large movement that can be detected by the reversal flag is often a periodic movement such as waving a hand or blinking. Therefore, in one embodiment of the present invention, a frame in which the reversal flag is set to “1”, that is, a frame in which the sign of the RMS difference of the posture feature amount is the reverse of the previous frame is set as the start frame, and the RMS is started from this start frame. It becomes easy to pay attention to the interval until the sign of the difference is inverted again (until the inversion flag becomes “1” next time). The posture of the user in this start frame can be set as the start posture. Further, the frame in which the inversion flag is set to “1” next to the start frame can be set as the trigger frame, and the posture of the user in this trigger frame can be set as the trigger posture. In this way, the motion and posture of the user can be analyzed by paying attention to the section from when the reversal flag becomes "1" to when the next reversal flag becomes "1". In the example shown in FIG. 8, the inversion flag becomes “1” for the first time in the fourth frame, and the inversion flag becomes “1” for the second time in the tenth frame. Therefore, it is possible to extract a periodical motion in which the posture of the user in the fourth frame is the starting posture and the posture of the user in the tenth frame is the trigger posture and the extraction of the trigger posture at low calculation cost. The start posture data indicating the start posture and the trigger posture data indicating the trigger posture are calculated from root mean square error (RMSE: Root Mean Squared Error), root mean square error ratio (RMSPTE: Root Mean Squared Error), or an imaged image. Or can be estimated.

図8に示されている例では、第16フレームと第17フレームにおいていずれも反転フラグが「1」に設定されている。連続するフレーム間の時間間隔は極めて短いため、これらの隣接するフレームの各々におけるユーザの姿勢を開始姿勢及びトリガー姿勢とすることは適切でない可能性がある。そこで、開始フレームとトリガーフレームとの間に存在すべきフレーム数の下限である下限フレーム数が定められていてもよい。下限フレーム数は、例えば、通信パケットの圧縮、近隣フレームとの差分、及びこれら以外の要素を考慮して3フレーム以上としてもよい。開始フレームとトリガーフレームとの間の時間間隔の下限が定められても良い。開始フレームとトリガーフレームとの間の時間間隔の下限は、例えば、動作周波数、対象とするユーザの動作、及びこれら以外の要素を考慮して、1秒以上、2秒以上、3秒以上、4秒以上、5秒以上、又はこれら以外の下限としてもよい。仮に、下限フレーム数を3フレームとした場合、図8において第4フレームと第10フレームとの間には下限フレーム数を超える5フレームが存在しているから、第10フレームをトリガーフレームと扱うことができる。仮に第7フレームにおいて反転フラグが「1」に設定されたとすると、第4フレームと第7フレームとの間には下限フレーム数以下の2フレームしか存在していないから第7フレームをトリガーフレームとせずにその次に反転フラグが「1」になる第10フレームをトリガーフレームとすることができる。しかしながら、この第10フレームから次の対象フレームとなる16フレームまでのRMSPEは概ね1以下であるから、第10フレームを雑音と判定し、トリガーフレームとして処理しなくともよい。 In the example shown in FIG. 8, the inversion flag is set to “1” in both the 16th frame and the 17th frame. Since the time interval between consecutive frames is extremely short, it may not be appropriate to set the user's posture in each of these adjacent frames as the start posture and the trigger posture. Therefore, a lower limit frame number, which is the lower limit of the number of frames that should exist between the start frame and the trigger frame, may be set. The lower limit number of frames may be, for example, 3 frames or more in consideration of compression of communication packets, difference from neighboring frames, and other factors. A lower bound on the time interval between the start frame and the trigger frame may be defined. The lower limit of the time interval between the start frame and the trigger frame is, for example, 1 second or more, 2 seconds or more, 3 seconds or more, 4 in consideration of the operating frequency, the target user's operation, and other factors. It may be a second or longer, 5 seconds or longer, or a lower limit other than these. If the lower limit number of frames is set to 3 and there are 5 frames exceeding the lower limit number of frames between the 4th frame and the 10th frame in FIG. 8, treat the 10th frame as a trigger frame. You can If the inversion flag is set to "1" in the seventh frame, there are only two frames of the lower limit number of frames or less between the fourth frame and the seventh frame, and therefore the seventh frame is not used as a trigger frame. Then, the tenth frame in which the inversion flag becomes "1" next can be set as the trigger frame. However, since the RMSPE from the 10th frame to the 16th frame, which is the next target frame, is approximately 1 or less, it is not necessary to judge the 10th frame as noise and process it as a trigger frame.

以上のように、ユーザの特徴点における姿勢特徴量の二乗平均平方根を利用して追加基準姿勢(開始姿勢及びトリガー姿勢)を定めることにより、候補フレームやサンプル動画を提示しなくともユーザアニメーションの登録並びに当該ユーザアニメーションに対応する開始姿勢及びトリガー姿勢を決定することができる。 As described above, by defining the additional reference postures (starting posture and triggering posture) by using the root mean square of the posture feature amount at the user's feature point, the user animation is registered without presenting the candidate frame or the sample moving image. Also, the start posture and the trigger posture corresponding to the user animation can be determined.

次に、図10を参照して、一態様による動画再生方法に含まれる処理の一部について説明する。図10は、一実施形態における動画再生方法における処理の一部の流れを示すフロー図である。図10の動画再生方法においては、視聴ユーザが動画再生装置10により動画を再生しており、当該動画に自らのアバタを参加させていることが想定されている。つまり、視聴ユーザが視聴している動画には自らのアバタが含まれている。図10に示されている処理は、動画の視聴中に行われる姿勢特徴量及び基準姿勢識別データの動画配信装置20への送信に関する。 Next, with reference to FIG. 10, a part of the processing included in the moving image reproducing method according to one aspect will be described. FIG. 10 is a flowchart showing a part of the flow of processing in the moving image reproduction method according to the embodiment. In the moving image reproducing method of FIG. 10, it is assumed that the viewing user is reproducing the moving image by the moving image reproducing apparatus 10 and has his/her avatar participate in the moving image. That is, the video that the viewing user is viewing includes his or her avatar. The process illustrated in FIG. 10 relates to transmission of the posture feature amount and the reference posture identification data to the moving image distribution device 20 while the moving image is being viewed.

まず、ステップS11において、動画を視聴している視聴ユーザの姿勢特徴量に関するデータが取得される。また、ステップS11では、取得された姿勢特徴量が即時に動画配信装置20に送信される。ステップS11においては、姿勢特徴量及び他のデータを含むモーションデータが動画配信装置20に送信されてもよい。視聴ユーザの姿勢特徴量は、当該視聴ユーザの姿勢を表す3次元骨格データであってもよい。姿勢特徴量は、所定のサンプリング時間間隔ごとに取得されてもよい。視聴ユーザの姿勢特徴量の取得は、例えば、上記の姿勢データ取得部11b又はセンサユニット15で行われる。姿勢特徴量の送信は、例えば、上記の送信部11cにより行われる。 First, in step S11, data regarding the posture feature amount of the viewing user who is viewing the moving image is acquired. In addition, in step S11, the acquired posture feature amount is immediately transmitted to the video distribution device 20. In step S11, motion data including the posture feature amount and other data may be transmitted to the moving image distribution device 20. The posture feature amount of the viewing user may be three-dimensional skeleton data representing the posture of the viewing user. The posture feature amount may be acquired at predetermined sampling time intervals. Acquisition of the posture feature amount of the viewing user is performed by, for example, the posture data acquisition unit 11b or the sensor unit 15 described above. The transmission of the posture feature amount is performed by, for example, the transmission unit 11c described above.

次に、ステップS12において、ステップS11で取得された視聴ユーザの姿勢特徴量に基づいて、当該視聴ユーザの姿勢が予め定められた基準姿勢に属するか否かが判定される。この判定は、例えば、上記の分類部11dにより行われる。視聴ユーザの姿勢が基準姿勢に属しない場合には、処理はステップS11に戻り、ステップS11において姿勢特徴量の取得が引き続き行われる。視聴ユーザの姿勢が基準姿勢のいずれかに属すると判定された場合には、処理は、ステップS13に進む。 Next, in step S12, it is determined whether or not the posture of the viewing user belongs to a predetermined reference posture, based on the posture feature amount of the viewing user acquired in step S11. This determination is performed, for example, by the classification unit 11d described above. When the posture of the viewing user does not belong to the reference posture, the process returns to step S11, and the posture feature amount is continuously acquired in step S11. When it is determined that the orientation of the viewing user belongs to any of the reference orientations, the process proceeds to step S13.

ステップS13では、動画再生装置10と動画配信装置20との間の伝送路においてモーションデータの送信に遅延が発生しているか否かが判定される。この判定は、例えば、上記の遅延監視部11eによって行われる。伝送路において遅延が発生していないと判定された場合には、処理はステップS11に戻り、ステップS11において姿勢特徴量の取得が引き続き行われる。伝送路において遅延が発生していると判定された場合には、処理はステップS14に進む。 In step S13, it is determined whether or not there is a delay in the transmission of motion data on the transmission path between the moving image reproduction device 10 and the moving image distribution device 20. This determination is made, for example, by the delay monitoring unit 11e. When it is determined that the delay has not occurred in the transmission path, the process returns to step S11, and the posture feature amount is continuously acquired in step S11. If it is determined that a delay has occurred in the transmission path, the process proceeds to step S14.

ステップS14では、ステップS12において視聴ユーザの姿勢が属すると判定された基準姿勢を識別する基準姿勢識別データが動画配信装置20に送信される。基準姿勢識別データの送信は、例えば、上記の送信部11cにより行われる。ステップS12で視聴ユーザの姿勢が開始姿勢に属すると判定され、その後さらにトリガー姿勢に属すると判定された場合には、このトリガー姿勢を識別するトリガー姿勢データが送信される。 In step S14, reference posture identification data for identifying the reference posture determined to include the posture of the viewing user in step S12 is transmitted to the video distribution device 20. The transmission of the reference attitude identification data is performed by, for example, the transmission unit 11c described above. When it is determined in step S12 that the posture of the viewing user belongs to the start posture and then it is determined that the posture of the viewing user further belongs to the trigger posture, trigger posture data for identifying this trigger posture is transmitted.

以上のステップS11〜ステップS14の各工程における処理と並行して、動画配信装置20から動画再生装置10に対して動画が継続して配信されている。動画の配信中には、ステップS11〜ステップS14の処理が繰り返し行われる。ステップS13において伝送路において遅延が発生していないと判定されている場合には、配信される動画には視聴ユーザの姿勢特徴量に基づいて生成されたアバタのアニメーションが含められる。逆に、ステップS13において伝送路において遅延が発生していると判定された場合には、配信される動画には動画配信装置20に送信された基準姿勢識別データに基づいて特定されるアバタの登録アニメーションが含められる。 In parallel with the processing in each of the above steps S11 to S14, the moving image is continuously distributed from the moving image distribution device 20 to the moving image reproduction device 10. During the distribution of the moving image, the processing of steps S11 to S14 is repeated. When it is determined in step S13 that the delay has not occurred in the transmission path, the distributed moving image includes the animation of the avatar generated based on the posture feature amount of the viewing user. On the contrary, when it is determined in step S13 that a delay has occurred in the transmission path, the avatar registered in the moving image to be distributed is specified based on the reference attitude identification data transmitted to the moving image distribution device 20. Animations are included.

ステップS13は、ステップS11の前又はステップS11とステップS12との間に実行されてもよい。これ以外にも、図10に示されている処理の順番は、適宜変更されてもよい。また、ステップS11〜ステップS14の処理に加えて、図10に明示的に記載されていない処理が行われてもよい。 Step S13 may be executed before step S11 or between steps S11 and S12. Besides this, the order of the processes shown in FIG. 10 may be changed as appropriate. Further, in addition to the processing of steps S11 to S14, processing not explicitly described in FIG. 10 may be performed.

次に、図11から図13を参照して、本発明の他の実施形態について説明する。図11には、本発明の他の実施形態による動画配信システム101のブロック図が示されている。動画配信システム101は、動画再生装置110及び動画配信装置120を備えている。動画配信システム101の動画再生装置110は、コンピュータプロセッサ11が顔特徴量取得部11fとして機能し、ストレージ13が基準表情管理データ13bを記憶している点で動画配信システム1の動画再生装置10と異なる。動画配信システム101の動画配信装置120は、ストレージ23が登録表情管理データ23dを記憶している点で動画配信システム1の動画配信装置20と異なっている。以下では、図11の実施形態において、図1の実施形態と異なる点を説明する。図11の実施形態において図1の実施形態と共通する事項については説明を省略する。 Next, another embodiment of the present invention will be described with reference to FIGS. 11 to 13. FIG. 11 shows a block diagram of a moving image distribution system 101 according to another embodiment of the present invention. The moving image distribution system 101 includes a moving image reproduction device 110 and a moving image distribution device 120. The moving image reproducing apparatus 110 of the moving image distribution system 101 is the same as the moving image reproducing apparatus 10 of the moving image distribution system 1 in that the computer processor 11 functions as the facial feature amount acquisition unit 11f and the storage 13 stores the reference facial expression management data 13b. different. The moving picture distribution apparatus 120 of the moving picture distribution system 101 is different from the moving picture distribution apparatus 20 of the moving picture distribution system 1 in that the storage 23 stores the registered facial expression management data 23d. In the following, differences between the embodiment of FIG. 11 and the embodiment of FIG. 1 will be described. Descriptions of matters in the embodiment of FIG. 11 that are common to the embodiment of FIG. 1 are omitted.

顔特徴量取得部11fは、動画再生装置110を使用して動画を視聴する視聴ユーザの顔の特徴を表す顔特徴量を取得する。具体的には、顔特徴量取得部11fは、センサユニット15により取得された視聴ユーザの顔を含む画像から、例えばHOG、SIFT、SURF、又はこれら以外の公知のアルゴリズムに従って顔の特徴を表す特徴量を算出する。例えば、SIFTにより算出される顔特徴量は、128次元の特徴量として算出される。このように、顔特徴量は、姿勢データ取得部11bで取得される姿勢特徴量と同様にデータ量が大きい。 The facial feature amount acquisition unit 11f acquires the facial feature amount representing the facial feature of the viewing user who views the video using the video playback device 110. Specifically, the facial feature amount acquisition unit 11f uses the image including the face of the viewing user acquired by the sensor unit 15 to represent the facial feature according to, for example, HOG, SIFT, SURF, or a known algorithm other than these. Calculate the amount. For example, the facial feature amount calculated by SIFT is calculated as a 128-dimensional feature amount. As described above, the facial feature amount has a large data amount similarly to the posture feature amount acquired by the posture data acquisition unit 11b.

図12は、基準表情管理データの例を示している。図12に示されているように、ストレージ13には、基準表情を識別する基準表情識別データと対応付けて、当該基準表情を示す基準表情識別データが記憶されている。基準表情識別データは、例えば、基準表情を識別する基準表情IDである。基準表情IDは、例えば数ビットで表される識別コードである。基準表情IDのビット数は、動画配信システム1で使用される基準表情の数に応じて定めることができる。基準表情IDは、例えば、10ビット以下の情報量のデータで表される。基準表情IDは、5ビット以下、4ビット以下、3ビット以下、2ビット以下の情報量のデータで表されてもよい。したがって、基準表情識別データ(基準表情ID)は、顔特徴量よりも大幅にデータ量が小さい。 FIG. 12 shows an example of reference facial expression management data. As shown in FIG. 12, the storage 13 stores reference facial expression identification data indicating the reference facial expression in association with the reference facial expression identification data for identifying the reference facial expression. The reference facial expression identification data is, for example, a reference facial expression ID that identifies the reference facial expression. The reference facial expression ID is an identification code represented by several bits, for example. The number of bits of the reference facial expression ID can be determined according to the number of reference facial expressions used in the moving image distribution system 1. The reference facial expression ID is represented by data having an information amount of 10 bits or less, for example. The reference facial expression ID may be represented by data of 5 bits or less, 4 bits or less, 3 bits or less, or 2 bits or less. Therefore, the reference facial expression identification data (reference facial expression ID) has a significantly smaller data amount than the facial feature amount.

基準表情識別データは、基準表情を示すデータである。動画配信システム1には、一又は複数の基準表情を設定し得る。基準表情は、例えば、正面を向いて目を大きく見開いた表情である。基準表情識別データは、基準表情を記述するデータであり、顔特徴量取得部11fにより算出される顔特徴量と同じデータ構造を有する。顔特徴量取得部11fにより算出される顔特徴量がSIFTアルゴリズムで算出されるSIFT特徴量である場合には、基準表情識別データは、基準表情をSIFT特徴量と同じデータ形式で記述したものである。 The reference facial expression identification data is data indicating a reference facial expression. One or more reference facial expressions may be set in the moving image distribution system 1. The reference facial expression is, for example, an expression in which the eyes are wide open with the front facing. The reference facial expression identification data is data that describes the reference facial expression and has the same data structure as the facial feature amount calculated by the facial feature amount acquisition unit 11f. When the face feature amount calculated by the face feature amount acquisition unit 11f is the SIFT feature amount calculated by the SIFT algorithm, the reference facial expression identification data is the reference facial expression described in the same data format as the SIFT feature amount. is there.

分類部11dは、視聴ユーザの表情を分類する分類器により、当該視聴ユーザの顔特徴量に基づいて、当該視聴ユーザの表情が予め定められた基準表情に属するか否かを判定する。一実施形態において、分類部11dは、教師データを得るために、基準表情を表す画像をディスプレイ14に表示し、この基準表情を表す画像に従った表情をする視聴ユーザに促すことができる。コンテンツ再生装置110は、この基準表情を表す画像の表示に応答して視聴ユーザが作った表情の顔特徴量を顔特徴量取得部11fにより取得する。分類部11dは、基準表情を表す画像に対して視聴ユーザが作った表情の表情特徴量を教師データとして学習することにより分類器を作成することができる。 The classifying unit 11d uses a classifier that classifies the facial expression of the viewing user, and determines whether the facial expression of the viewing user belongs to a predetermined reference facial expression, based on the facial feature amount of the viewing user. In one embodiment, the classifying unit 11d may display an image representing the reference facial expression on the display 14 to obtain the teacher data, and prompt the viewing user who has the facial expression according to the image representing the reference facial expression. The content reproduction apparatus 110 acquires the facial feature amount of the facial expression created by the viewing user in response to the display of the image representing the reference facial expression by the facial feature amount acquisition unit 11f. The classifying unit 11d can create a classifier by learning the facial expression feature amount of the facial expression created by the viewing user as the teacher data for the image representing the reference facial expression.

送信部11cは、顔特徴量取得部11fにより取得された視聴ユーザの顔の特徴を表す顔特徴量を含むモーションデータを動画配信装置120に送信する。送信部11cは、遅延監視部11eにおいて伝送路においてモーションデータの伝送に遅延が発生していると判定された場合に、ストレージ13に記憶されている基準表情識別データ(基準表情ID)を動画配信装置120へ送信することができる。遅延監視部11eにおいて伝送路に遅延が発生していると判定された場合には、基準表情識別データは、顔特徴量に代えて動画配信装置120へ送信されてもよい。 The transmission unit 11c transmits, to the video distribution device 120, the motion data including the facial feature amount representing the facial feature of the viewing user acquired by the facial feature amount acquisition unit 11f. The transmission unit 11c distributes the reference facial expression identification data (reference facial expression ID) stored in the storage 13 to the moving image when the delay monitoring unit 11e determines that the transmission of the motion data is delayed on the transmission path. It can be transmitted to the device 120. When the delay monitoring unit 11e determines that a delay has occurred in the transmission path, the reference facial expression identification data may be transmitted to the video distribution device 120 instead of the facial feature amount.

動画配信装置20において、アニメーション生成部21cは、動画60に参加している視聴者のアバタのアニメーションを生成する。一実施形態において、アニメーション生成部21cは、動画再生装置110から受信した視聴ユーザの顔特徴量に基づいて、当該視聴ユーザのアバタのアニメーションを生成する。アニメーション生成部21cは、動画再生装置110から視聴ユーザの顔特徴量を連続して受信することで、当該顔特徴量に基づいて、当該視聴ユーザの顔の動き(表情の変化)に同期して表情を変化させるアバタのアニメーションを生成することができる。 In the moving image distribution device 20, the animation generation unit 21c generates an animation of an avatar of a viewer participating in the moving image 60. In one embodiment, the animation generation unit 21c generates an animation of an avatar of the viewing user based on the facial feature amount of the viewing user received from the video playback device 110. The animation generation unit 21c continuously receives the facial feature amount of the viewing user from the moving image reproduction apparatus 110, and in synchronization with the facial movement (change of facial expression) of the viewing user based on the facial feature amount. It is possible to generate avatar animations that change facial expressions.

一実施形態におけるアニメーション生成部21cは、登録表情管理データ23dを参照することにより、動画再生装置110からの基準表情識別データ(例えば、基準表情ID)に基づいて、表情の動きを含むアバタのアニメーションを生成することができる。図13に、図11の実施形態における登録表情管理データ23dの例が示されている。図13に示されているように、登録表情管理データ23dは、基準表情識別データ(登録表情ID)と、登録表情を識別する登録表情識別データ(登録表情ID)と、アバタの表情の動きを含むアニメーションを特定するためのアニメーション定義データと、を有する。このアニメーション定義データは、アバタの表情の動きを定義するデータである。登録表情管理データ23dに含まれるアニメーション定義データは、アバタの顔の特徴点の位置を時系列的に記述するデータであってもよい。アニメーション生成部21cは、動画再生装置110から基準表情識別データを受信すると、上記のアニメーション管理データ23dを参照することにより、受信した基準表情識別データに対応付けられている登録表情識別データを特定することができ、この特定された登録表情識別データに対応付けられているアニメーション定義データに基づいて表情の動きを含むアバタのアニメーションを生成することができる。 The animation generation unit 21c in one embodiment refers to the registered facial expression management data 23d, and based on the standard facial expression identification data (for example, standard facial expression ID) from the video playback device 110, the animation of the avatar including the movement of the facial expression. Can be generated. FIG. 13 shows an example of the registered facial expression management data 23d in the embodiment of FIG. As shown in FIG. 13, the registered facial expression management data 23d includes the reference facial expression identification data (registered facial expression ID), the registered facial expression identification data (registered facial expression ID) for identifying the registered facial expression, and the movement of the avatar's facial expression. And animation definition data for specifying the included animation. This animation definition data is data that defines the movement of the avatar's facial expression. The animation definition data included in the registered facial expression management data 23d may be data that describes the positions of the feature points of the avatar's face in time series. When the animation generation unit 21c receives the reference facial expression identification data from the video playback device 110, the animation generation unit 21c identifies the registered facial expression identification data associated with the received reference facial expression identification data by referring to the animation management data 23d. It is possible to generate an avatar animation including facial movement based on the animation definition data associated with the identified registered facial expression identification data.

次に、図14を参照して、本発明の他の実施形態について説明する。図14には、本発明の他の実施形態による動画配信システム201のブロック図が示されている。概して言えば、図1に示されている動画配信システム1においては、視聴ユーザの姿勢を表す姿勢特徴量がリアルタイムで伝送されるのに対し、図14に示されている動画配信システム201においては、視聴ユーザが特徴のある動きを行った場合にのみ当該視聴ユーザの姿勢特徴量が伝送される点で両者は異なっている。動画配信システム201は、動画再生装置210及び動画配信装置220を備えている。動画配信システム201の動画再生装置210は、コンピュータプロセッサ11が判定部11g及び送信部11hとして機能する。動画再生装置210は基準表情管理データ13bを有していなくともよく、動画配信装置220はアニメーション管理データ23cを有していなくともよい。図14の実施形態において図1の実施形態と共通する事項については説明を省略する。 Next, another embodiment of the present invention will be described with reference to FIG. FIG. 14 shows a block diagram of a moving image distribution system 201 according to another embodiment of the present invention. Generally speaking, in the moving image distribution system 1 shown in FIG. 1, the posture feature amount representing the posture of the viewing user is transmitted in real time, whereas in the moving image distribution system 201 shown in FIG. The two are different in that the posture feature amount of the viewing user is transmitted only when the viewing user makes a characteristic motion. The moving image distribution system 201 includes a moving image reproduction device 210 and a moving image distribution device 220. In the video playback device 210 of the video distribution system 201, the computer processor 11 functions as the determination unit 11g and the transmission unit 11h. The video playback device 210 does not need to have the reference facial expression management data 13b, and the video delivery device 220 does not have to have the animation management data 23c. Descriptions of matters common to the embodiment of FIG. 1 in the embodiment of FIG. 14 will be omitted.

判定部11gは、動画再生装置210のユーザが特徴的な動きを行ったか否かを判定する。具体的には、姿勢データ取得部11bにおいて所定のフレームレートで動画再生装置210のユーザの特徴点の姿勢特徴量を算出し、判定部11gは、このフレームの姿勢特徴量のRMS差に基づいて当該ユーザが特徴的な動きを行ったか否かを判定する。フレームごとの姿勢特徴量の算出及びRMS差の算出については図8を参照して説明済である。一実施形態において、判定部11gは、RMS差の正負が逆転したフレームにおいてユーザが特徴的な動きを行ったと判定する。上記のように、あるフレームにおいてRMS差の符号が前フレームと逆転している場合には、当該フレームにおいてユーザが手を振る、大きくうなずくなどの往復動を伴う特徴的な動きを行ったと推定される。例えば、姿勢データ取得部11bにおいて図8に示す24フレーム分の姿勢特徴量が算出された場合には、反転フラグに「1」が設定されている第4フレーム、第10フレーム、第16フレーム、第17フレーム、第19フレーム、及び第21フレームにおいてユーザが特徴的な動きを行ったと判定される。 The determination unit 11g determines whether or not the user of the video playback device 210 has performed a characteristic motion. Specifically, the posture data acquisition unit 11b calculates the posture feature amount of the feature point of the user of the video playback device 210 at a predetermined frame rate, and the determination unit 11g determines the posture feature amount of the frame based on the RMS difference. It is determined whether the user has performed a characteristic movement. The calculation of the posture feature amount and the RMS difference for each frame has already been described with reference to FIG. In one embodiment, the determination unit 11g determines that the user has performed a characteristic motion in a frame in which the positive and negative signs of the RMS difference are reversed. As described above, when the sign of the RMS difference in a certain frame is reversed from that in the previous frame, it is estimated that the user has performed a characteristic motion involving reciprocating motion such as waving his hand or making a large nod in that frame. It For example, when the posture data acquisition unit 11b calculates the posture feature amount for 24 frames shown in FIG. 8, the fourth frame, the tenth frame, the sixteenth frame in which the inversion flag is set to “1”, It is determined that the user has performed a characteristic motion in the 17th frame, the 19th frame, and the 21st frame.

一実施形態において、判定部11gは、RMSPEが所定の閾値よりも大きいフレームにおいてユーザが大きな動きを行ったと判定する。この閾値は、例えば、1.0とすることができる。判定部11gが使用する閾値は、適宜変更可能である。図8の例においては、第4フレームから第7フレームにおいてRMSPEが閾値である1.0よりも大きくなっている。よって、判定部11gは、第4フレームから第8フレームにおいてユーザが大きな動きを行ったと判定することができる。 In one embodiment, the determination unit 11g determines that the user has made a large motion in a frame in which RMSPE is larger than a predetermined threshold value. This threshold can be set to 1.0, for example. The threshold used by the determination unit 11g can be changed as appropriate. In the example of FIG. 8, RMSPE is greater than the threshold value of 1.0 in the fourth to seventh frames. Therefore, the determination unit 11g can determine that the user has made a large movement in the fourth frame to the eighth frame.

送信部11hは、判定部11gによってユーザが特徴的な動きを行ったと判定されたフレームを選択し、この選択されたフレームにおける姿勢特徴量を動画配信装置220に送信する。送信部11hにより選択されたフレームを「選択フレーム」と呼んでも良い。選択フレームは、判定部11gによってユーザが特徴的な動きを行ったと判定されたフレームだけであってもよいし、判定部11gによってユーザが特徴的な動きを行ったと判定されたフレーム及びそれに続く一又は複数のフレームであってもよい。このように、送信部11hは、選択フレームにおける姿勢特徴量を動画配信装置220に送信する一方、選択フレーム以外のフレームにおける姿勢特徴量を動画配信装置220に送信しないように構成される。 The transmission unit 11h selects a frame in which the determination unit 11g has determined that the user has performed a characteristic motion, and transmits the posture feature amount in the selected frame to the video distribution device 220. The frame selected by the transmitter 11h may be called a "selected frame". The selected frame may be only a frame determined by the determination unit 11g to have the user perform a characteristic motion, or a frame determined by the determination unit 11g to be the user's characteristic motion and a subsequent frame. Alternatively, it may be a plurality of frames. As described above, the transmission unit 11h is configured to transmit the posture feature amount in the selected frame to the moving image distribution device 220, but not to transmit the posture feature amount in frames other than the selected frame to the moving image distribution device 220.

送信部11hによって送信された姿勢特徴量を受信した動画配信装置220において、アニメーション生成部21cは、受信した姿勢特徴量に基づいて、動画再生装置210のユーザのアバタのアニメーションを生成する。姿勢特徴量に基づくアバタのアニメーションの生成方法は、動画配信システム1における生成方法と同様である。動画配信システム201においては、動画再生装置210から動画配信装置220に対して姿勢特徴量が伝送されない期間がある。具体的には、選択フレーム以外のフレームにおいては姿勢特徴量は動画配信装置220に伝送されない。この姿勢特徴量が伝送されない期間において、アニメーション生成部21cは、アバタについて定められている基本動作に従った動きを行うように当該アバタのアニメーションを作成してもよい。アバタの基本動作は記述の通りであり、手を揺らす動作などの予め定められた動作である。 In the video distribution device 220 that has received the posture feature amount transmitted by the transmission unit 11h, the animation generation unit 21c generates an animation of the avatar of the user of the video reproduction device 210 based on the received posture feature amount. The avatar animation generation method based on the posture feature amount is the same as the generation method in the moving image distribution system 1. In the moving image distribution system 201, there is a period in which the posture feature amount is not transmitted from the moving image reproducing device 210 to the moving image distributing device 220. Specifically, the posture feature amount is not transmitted to the moving image distribution apparatus 220 in the frames other than the selected frame. During the period in which the posture feature amount is not transmitted, the animation generation unit 21c may create an animation of the avatar so that the avatar performs a motion according to the basic motion defined for the avatar. The basic operation of the avatar is as described, and it is a predetermined operation such as a hand shaking operation.

動画配信システム201においては、選択フレームにおいてのみ姿勢特徴量が動画再生装置210から動画配信装置220に伝送されるので、算出された姿勢特徴量をリアルタイムで伝送する態様よりも伝送されるデータ量を削減することができる。 In the moving image distribution system 201, the posture characteristic amount is transmitted from the moving image reproducing device 210 to the moving image distribution device 220 only in the selected frame. Therefore, the transmitted amount of data is smaller than that of transmitting the calculated posture characteristic amount in real time. Can be reduced.

次に、図15を参照して、本発明の他の実施形態について説明する。図15には、本発明の他の実施形態による動画配信システム301のブロック図が示されている。動画配信システム1においては、動画再生装置において姿勢特徴量などの動画生成に必要なデータに基づいて動画を生成する点で動画配信システム1と異なっている。具体的には、動画配信システム301は、姿勢データ取得装置310と、動画配信装置320と、動画再生装置330と、を備える。姿勢データ取得装置310と、動画配信装置320、及び動画再生装置330は、ネットワーク50を介して接続されている。動画配信システム301においては、姿勢データ取得装置310のユーザの動きに基づいて生成されるアバタのアニメーションを含む動画を動画再生装置320において生成し、この生成した動画を再生することが想定されている。つまり、姿勢データ取得装置310のユーザは、自らの動きに基づいて動くアバタを含む動画を、視聴ユーザによって使用される動画再生装置320において再生させることができる。姿勢データ取得装置310のユーザは、動画再生装置320のユーザとアバタを介して対話することができる。本実施形態に関して姿勢データ取得装置310のユーザを単に「配信ユーザ」と呼ぶことがある。図15には説明のため姿勢データ取得装置310、動画配信装置320、及び動画再生装置330が一つずつ図示されているが、動画配信システム301は、これらの装置を複数備えてもよい。 Next, another embodiment of the present invention will be described with reference to FIG. FIG. 15 shows a block diagram of a moving image distribution system 301 according to another embodiment of the present invention. The moving picture distribution system 1 differs from the moving picture distribution system 1 in that the moving picture reproducing apparatus generates a moving picture based on data necessary for generating a moving picture such as a posture feature amount. Specifically, the moving image distribution system 301 includes an attitude data acquisition device 310, a moving image distribution device 320, and a moving image reproduction device 330. The posture data acquisition device 310, the moving image distribution device 320, and the moving image reproduction device 330 are connected via the network 50. In the moving image distribution system 301, it is assumed that the moving image reproducing device 320 generates a moving image including an avatar animation generated based on the movement of the user of the posture data acquisition device 310, and reproduces the generated moving image. .. That is, the user of the posture data acquisition device 310 can reproduce a moving image including an avatar that moves based on his/her own movement in the moving image reproduction device 320 used by the viewing user. The user of the posture data acquisition device 310 can interact with the user of the video playback device 320 via an avatar. In the present embodiment, the user of the posture data acquisition device 310 may be simply referred to as a “delivery user”. For the sake of explanation, FIG. 15 illustrates the posture data acquisition device 310, the moving image distribution device 320, and the moving image reproduction device 330 one by one, but the moving image distribution system 301 may include a plurality of these devices.

姿勢データ取得装置310は、姿勢データ取得装置310のユーザの姿勢の特徴を表す姿勢特徴量を取得する。視聴ユーザの姿勢の特徴を表す姿勢特徴量は、当該視聴ユーザの姿勢を表す3次元骨格データ、つまり視聴ユーザのボーンの位置及び向きを示す3次元ベクトルデータであってもよい。姿勢データ取得装置310は、既述のセンサユニット15を備えてもよい。姿勢データ取得装置310は、センサユニット15が検出した検出データに基づいて視聴ユーザの3次元骨格データを生成することができる。姿勢データ取得装置310は、取得された姿勢特徴量を動画配信装置320に送信する。姿勢データ取得装置310は、配信ユーザの音声を表す音声データを動画配信装置320に送信しても良い。 The posture data acquisition device 310 acquires a posture feature amount representing the feature of the posture of the user of the posture data acquisition device 310. The posture feature amount representing the characteristic of the posture of the viewing user may be three-dimensional skeleton data representing the posture of the viewing user, that is, three-dimensional vector data indicating the position and orientation of the bone of the viewing user. The posture data acquisition device 310 may include the sensor unit 15 described above. The posture data acquisition device 310 can generate three-dimensional skeleton data of the viewing user based on the detection data detected by the sensor unit 15. The attitude data acquisition device 310 transmits the acquired attitude feature amount to the moving image distribution device 320. The posture data acquisition device 310 may transmit audio data representing the audio of the distribution user to the video distribution device 320.

動画配信装置320は、既述の動画配信装置20と同様にコンピュータプロセッサ21と、通信I/F22と、ストレージ23と、を備える。動画配信装置320は、コンピュータプロセッサ21によって実現される機能及びストレージ23に格納されるデータの点で動画配信装置20と異なっている。そこで、以下では、動画配信装置320のコンピュータプロセッサ21において実現される機能及びストレージ23に格納されるデータについて説明する。 The moving image distribution device 320 includes a computer processor 21, a communication I/F 22, and a storage 23, similar to the moving image distribution device 20 described above. The moving image distribution apparatus 320 differs from the moving image distribution apparatus 20 in the functions realized by the computer processor 21 and the data stored in the storage 23. Therefore, in the following, the functions realized in the computer processor 21 of the moving image distribution apparatus 320 and the data stored in the storage 23 will be described.

図示のように、動画配信システム301ストレージ23には、オブジェクトデータ23a、アバタデータ23b、基準姿勢管理データ323a、及び前記以外の動画の生成及び配信のために必要な様々な情報が記憶され得る。オブジェクトデータ23a及びアバタデータ23bは、動画配信システム1において記憶されるオブジェクトデータ23a及びアバタデータ23bと同じであってもよい。基準姿勢管理データ323aは、動画配信システム1における基準姿勢管理データ13aと同じものであってもよい。すなわち、基準姿勢管理データ323aは、図3に示されているように、基準姿勢を識別する基準姿勢識別データと、この基準姿勢識別データと対応付けて記憶される開始姿勢データ及びトリガー姿勢データを含むことができる。 As illustrated, the moving image distribution system 301 storage 23 can store object data 23a, avatar data 23b, reference attitude management data 323a, and various information necessary for generating and distributing moving images other than the above. The object data 23a and the avatar data 23b may be the same as the object data 23a and the avatar data 23b stored in the moving image distribution system 1. The reference attitude management data 323a may be the same as the reference attitude management data 13a in the moving image distribution system 1. That is, as shown in FIG. 3, the reference attitude management data 323a includes reference attitude identification data for identifying a reference attitude and start attitude data and trigger attitude data stored in association with the reference attitude identification data. Can be included.

コンピュータプロセッサ21は、コンピュータ読み取り可能な命令を実行することにより、姿勢特徴量取得部321a、送信部321b、分類部321c、及び遅延監視部321dとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、動画配信システム301のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。 The computer processor 21 executes a computer-readable instruction to function as the posture feature amount acquisition unit 321a, the transmission unit 321b, the classification unit 321c, and the delay monitoring unit 321d. At least a part of the functions realized by the computer processor 21 may be realized by a computer processor other than the computer processor 21 of the moving image distribution system 301.

姿勢特徴量取得部321aは、姿勢データ取得装置310から、姿勢データ取得装置310のユーザの姿勢を表す姿勢特徴量を取得する。 The posture feature amount acquisition unit 321 a acquires a posture feature amount representing the posture of the user of the posture data acquisition device 310 from the posture data acquisition device 310.

送信部321bは、姿勢データ取得装置310から取得された当該姿勢データ取得装置310のユーザの姿勢を表す姿勢特徴量を動画再生装置330に送信する。送信部321bは、姿勢データ取得装置310から姿勢特徴量を受け取ると即時に動画配信装置320に送信してもよい。言い換えると、送信部321bは、配信ユーザの姿勢特徴量をリアルタイムに動画配信装置320に送信することができる。送信部321bは、この姿勢特徴量を含むパケットを動画再生装置320に対して送信してもよい。送信部321bは、姿勢特徴量に加えて、動画再生装置330における動画の生成に必要なデータを動画再生装置330に送信することができる。例えば、送信部321bは、オブジェクトデータ23a及びアバタデータ23bの少なくとも一部を動画再生装置330に送信することができる。オブジェクトデータ23a及びアバタデータ23bは、送信部321bによって動画再生装置330に送信されるのではなく、動画再生装置330に予め記憶されていてもよい。この場合、動画配信装置320から動画再生装置330へのオブジェクトデータ23a及びアバタデータ23bの送信は不要となる。また、送信部321bは、動画配信装置320が生成データ取得装置310から取得した配信ユーザの音声を表す音声データを動画再生装置330に送信しても良い。 The transmission unit 321b transmits, to the video playback device 330, the posture feature amount representing the posture of the user of the posture data acquisition device 310 acquired from the posture data acquisition device 310. The transmission unit 321b may immediately transmit the posture feature amount to the video distribution device 320 upon receiving the posture feature amount from the posture data acquisition device 310. In other words, the transmission unit 321b can transmit the posture feature amount of the distribution user to the video distribution device 320 in real time. The transmitting unit 321b may transmit a packet including the posture feature amount to the moving image reproducing device 320. The transmitting unit 321b can transmit, to the moving image reproducing apparatus 330, data necessary for generating a moving image in the moving image reproducing apparatus 330, in addition to the posture feature amount. For example, the transmission unit 321b can transmit at least a part of the object data 23a and the avatar data 23b to the video playback device 330. The object data 23a and the avatar data 23b may be stored in the moving image reproducing apparatus 330 in advance, instead of being transmitted to the moving image reproducing apparatus 330 by the transmitting unit 321b. In this case, it is not necessary to transmit the object data 23a and the avatar data 23b from the moving image distribution device 320 to the moving image reproduction device 330. Further, the transmission unit 321b may transmit the audio data representing the voice of the distribution user, which is acquired by the moving image distribution apparatus 320 from the generated data acquisition apparatus 310, to the moving image reproduction apparatus 330.

分類部321cは、配信ユーザの姿勢を分類する分類器により、当該視聴ユーザの姿勢特徴量(例えば、3次元骨格データ)に基づいて、当該視聴ユーザの姿勢が予め定められた基準姿勢に属するか否かを判定する。この分類器は、例えば線形分類器である。分類部321cは、動画配信システム1の分類部11dと概ね同じ機能を実現してもよい。例えば、分類部321cは、基準姿勢が開始姿勢とトリガー姿勢とを含む場合に、配信ユーザの姿勢が当該基準姿勢に属するか否か及び当該トリガー姿勢に属するか否かをそれぞれ判定することができる。 The classification unit 321c is a classifier that classifies the posture of the distribution user, and whether the posture of the viewing user belongs to a predetermined reference posture based on the posture feature amount of the viewing user (for example, three-dimensional skeleton data). Determine whether or not. This classifier is, for example, a linear classifier. The classification unit 321c may realize substantially the same function as the classification unit 11d of the moving image distribution system 1. For example, when the reference posture includes the start posture and the trigger posture, the classification unit 321c can respectively determine whether the posture of the delivery user belongs to the reference posture and whether the posture of the delivery user belongs to the trigger posture. ..

遅延監視部321dは、送信部321cによって動画配信装置320から動画再生装置330に送信されたモーションデータの伝送遅延を監視する。遅延監視部321dは、動画配信システム1の遅延監視部11eと概ね同じ機能を実現しても良い。例えば、遅延監視部321dは、モーションデータを含む実パケットに送信前にタイムスタンプを付加し、この送信時に付加されたタイプスタンプと、この実パケットが動画再生装置330で受信されたときに付加されるタイムスタンプと、を用いて動画配信装置320と動画再生装置330との間の伝送路における当該実パケットの伝送時間を求めることができる。伝送遅延の発生の有無は、パケットに含まれるタイムスタンプに基づいて動画再生装置330において判定されてもよい。動画再生装置320は、動画配信装置330における伝送遅延の判定結果を受け取っても良い。 The delay monitoring unit 321d monitors the transmission delay of the motion data transmitted from the video distribution device 320 to the video playback device 330 by the transmission unit 321c. The delay monitoring unit 321d may realize substantially the same function as the delay monitoring unit 11e of the moving image distribution system 1. For example, the delay monitoring unit 321d adds a time stamp to a real packet including motion data before transmission, adds the time stamp added at the time of transmission, and the time stamp added when the real packet is received by the video playback device 330. It is possible to obtain the transmission time of the actual packet on the transmission path between the moving picture distribution device 320 and the moving picture reproduction device 330 by using the time stamp. Whether or not a transmission delay has occurred may be determined by the video playback device 330 based on the time stamp included in the packet. The video playback device 320 may receive the determination result of the transmission delay in the video distribution device 330.

再び送信部321bの機能について説明する。送信部321bは、遅延監視部321dにおいて伝送路に遅延が発生していると判定された場合に、ストレージ23に記憶されている基準姿勢識別データ(基準姿勢ID)を動画再生装置330に送信することができる。基準姿勢識別データは、視聴ユーザの姿勢特徴量を含むモーションデータに代えて送信されてもよい。上記のとおり、基準姿勢識別データは、開始姿勢データ及びトリガー姿勢データを含み得る。この伝送遅延が発生している場合に実行される送信部321bの機能は、伝送遅延が発生している場合に送信部11cによって実行される機能と同様である。 The function of the transmission unit 321b will be described again. The transmission unit 321b transmits the reference posture identification data (reference posture ID) stored in the storage 23 to the video playback device 330 when the delay monitoring unit 321d determines that a delay has occurred in the transmission path. be able to. The reference posture identification data may be transmitted instead of the motion data including the posture feature amount of the viewing user. As described above, the reference attitude identification data may include start attitude data and trigger attitude data. The function of the transmission unit 321b executed when this transmission delay occurs is similar to the function executed by the transmission unit 11c when the transmission delay occurs.

動画再生装置330は、既述の動画再生装置10と同様にコンピュータプロセッサ11と、通信I/F12と、ストレージ13と、を備える。動画再生装置330は、コンピュータプロセッサ11によって実現される機能及びストレージ23に格納されるデータの点で動画再生装置10と異なっている。そこで、以下では、動画再生装置330のコンピュータプロセッサ21において実現される機能及びストレージ23に格納されるデータについて説明する。 The moving image reproducing apparatus 330 includes the computer processor 11, the communication I/F 12, and the storage 13, similarly to the moving image reproducing apparatus 10 described above. The moving image reproducing apparatus 330 differs from the moving image reproducing apparatus 10 in the functions realized by the computer processor 11 and the data stored in the storage 23. Therefore, in the following, the functions realized in the computer processor 21 of the video playback device 330 and the data stored in the storage 23 will be described.

動画再生装置330のストレージ13には、アニメーション管理データ313aが記憶される。アニメーション管理データ313aは、動画配信システム1において記憶されるアニメーション管理データ13aと同じであってもよい。例えば、アニメーション管理データ313aは、図6に示されているように、基準姿勢識別データと、登録アニメーションを識別する登録アニメーション識別データ(登録アニメーションID)と、アバタのアニメーションを特定するためのアニメーション定義データと、を有する。 Animation management data 313a is stored in the storage 13 of the video playback device 330. The animation management data 313a may be the same as the animation management data 13a stored in the moving image distribution system 1. For example, as shown in FIG. 6, the animation management data 313a includes reference posture identification data, registered animation identification data (registered animation ID) that identifies a registered animation, and an animation definition for identifying an avatar animation. And data.

コンピュータプロセッサ11は、コンピュータ読み取り可能な命令を実行することにより、アニメーション生成部331a、動画生成部331b、及び動画再生部331cとして機能する。コンピュータプロセッサ11により実現される機能の少なくとも一部は、動画配信システム301のコンピュータプロセッサ11以外のコンピュータプロセッサにより実現されてもよい。 The computer processor 11 functions as an animation generation unit 331a, a moving image generation unit 331b, and a moving image reproduction unit 331c by executing a computer-readable instruction. At least a part of the functions realized by the computer processor 11 may be realized by a computer processor other than the computer processor 11 of the moving image distribution system 301.

アニメーション生成部331aは、動画配信システム1のアニメーション生成部21cと概ね同じ機能を実現しても良い。例えば、アニメーション生成部331cは、姿勢データ取得装置310の配信ユーザのアバタのアニメーションを生成することができる。一実施形態において、アニメーション生成部331cは、動画配信装置320から受信した配信ユーザの姿勢特徴量及びアバタデータ23bに基づいて、当該配信ユーザのアバタのアニメーションを生成する。アニメーション生成部331cは、動画配信装置320から視聴ユーザの姿勢特徴量を連続して受信することで、当該姿勢特徴量に基づいて、当該視聴ユーザの体の動きに同期して動くアバタのアニメーションを生成することができる。 The animation generation unit 331a may realize substantially the same function as the animation generation unit 21c of the moving image distribution system 1. For example, the animation generation unit 331c can generate an animation of the avatar of the distribution user of the posture data acquisition device 310. In one embodiment, the animation generation unit 331c generates an animation of the distribution user's avatar based on the distribution user's posture feature amount and the avatar data 23b received from the video distribution device 320. The animation generation unit 331c continuously receives the posture feature amount of the viewing user from the moving image distribution device 320, and thus, based on the posture feature amount, an animation of an avatar that moves in synchronization with the movement of the body of the viewing user. Can be generated.

動画生成部331bは、動画配信装置320から取得したオブジェクトデータ23aを用いて仮想空間を構築し、この仮想空間内でアニメーション生成部331aにて生成されたアバタが動く動画を生成することができる。この動画には、配信ユーザの音声を合成することができる。 The moving image generation unit 331b can construct a virtual space by using the object data 23a acquired from the moving image distribution device 320, and can generate a moving image in which the avatar generated by the animation generation unit 331a moves in this virtual space. The voice of the distribution user can be synthesized with this moving image.

動画再生部331aは、動画生成部331bにおいて生成された動画を再生する。これにより、動画再生装置330のディスプレイ14に配信ユーザのアバタのアニメーションを含む動画が表示される。 The moving image reproducing unit 331a reproduces the moving image generated by the moving image generating unit 331b. Thereby, the moving image including the animation of the avatar of the distribution user is displayed on the display 14 of the moving image reproducing apparatus 330.

動画配信装置320から動画再生装置330へデータを伝送する伝送路において伝送遅延が発生した場合におけるアニメーション生成部331aにより実現される処理について説明する。動画配信装置320から動画再生装置330への伝送路で伝送遅延が発生すると、配信ユーザの動きを反映して滑らかに動くアバタのアニメーションを生成することができなくなってしまうおそれがある。アニメーション生成部331aは、動画配信装置320からの基準姿勢識別データ(例えば、基準姿勢ID)に基づいてアバタのアニメーションを生成することができる。具体的には、アニメーション生成部331aは、動画再生装置10から基準姿勢識別データを受信すると、アニメーション管理データ313aを参照することで受信した基準姿勢識別データに対応付けられている登録アニメーションを特定することができ、この特定された登録アニメーションの登録アニメーションIDに対応付けられているアニメーション定義データに基づいてアバタのアニメーションを生成することができる。よって、アニメーション生成部331aは、モーションデータの伝送に遅延が発生している間に姿勢特徴量が受信できなかったとしても、その遅延が発生している間に動画配信装置320から送られてくる基準姿勢識別データに基づいてアバタのアニメーションを生成することができる。 A process implemented by the animation generation unit 331a when a transmission delay occurs in the transmission path that transmits data from the moving image distribution apparatus 320 to the moving image reproduction apparatus 330 will be described. If a transmission delay occurs in the transmission path from the video distribution device 320 to the video reproduction device 330, it may not be possible to generate an avatar animation that smoothly moves reflecting the motion of the distribution user. The animation generation unit 331a can generate an avatar animation based on the reference posture identification data (for example, the reference posture ID) from the video distribution device 320. Specifically, when the animation generation unit 331a receives the reference posture identification data from the video playback device 10, the animation generation unit 331a refers to the animation management data 313a to identify the registered animation associated with the received reference posture identification data. It is possible to generate an avatar animation based on the animation definition data associated with the registered animation ID of the specified registered animation. Therefore, even if the posture feature quantity cannot be received while the motion data transmission is delayed, the animation generation unit 331a sends it from the video distribution device 320 while the delay is generated. An avatar animation can be generated based on the reference posture identification data.

一実施形態において、姿勢データ取得装置310が動画再生装置320の機能を実現可能に構成され、動画再生装置320が姿勢データ取得装置310の機能を実現可能に構成されてもよい。これにより、両装置のユーザ同士がアバタを介して双方向的にコミニュケーションできる。 In one embodiment, the posture data acquisition device 310 may be configured to implement the function of the video playback device 320, and the video playback device 320 may be configured to implement the function of the posture data acquisition device 310. This allows users of both devices to communicate with each other bidirectionally via the avatar.

次に、図16を参照して、上記の動画配信システムの変形例について説明する。上記の実施形態では、分類部11dによって視聴ユーザの姿勢が基準姿勢に属すると判定された場合に、姿勢特徴量に代えて基準姿勢を識別する基準姿勢IDを送信することで、ユーザの姿勢を表すデータのデータ量を少なくしている。図16に示す例では、基準姿勢IDに代えて、以下のようにして決定する特徴配列のインデックス(添字)を用いる。つまり、伝送遅延が発生しているときに、ユーザの姿勢を表す姿勢特徴量に代えて、特徴配列のインデックスが送信される。特徴配列のインデックスは、以下で説明するように数ビット程度のデータであり、基準姿勢IDと同様に10ビット以下の範囲の情報量で表すことができる。 Next, with reference to FIG. 16, a modification of the above-described video distribution system will be described. In the above embodiment, when the classification unit 11d determines that the posture of the viewing user belongs to the reference posture, the posture of the user is determined by transmitting the reference posture ID for identifying the reference posture instead of the posture feature amount. The amount of data represented is reduced. In the example shown in FIG. 16, the index (subscript) of the feature array determined as follows is used instead of the reference posture ID. That is, when the transmission delay occurs, the index of the feature array is transmitted instead of the posture feature amount indicating the posture of the user. The index of the feature array is data of about several bits as described below, and can be represented by the amount of information in the range of 10 bits or less like the reference posture ID.

動画配信システム1においては、特徴配列は、以下のようにして決定される。まず、図7及び図8を参照して説明したように、動画再生装置10は、所定のフレームレートで動画再生装置10のユーザを撮像して撮像画像を取得し、この撮像画像の各フレームにおいて当該ユーザに関連する複数の特徴点を抽出する。例えば、図7に示されているようにP1〜P6の6つの特徴点が抽出される。動画再生装置10は、抽出された複数の特徴点の各々についてユーザの動きに関する画像ベクトルを得る。特徴点P1〜P6の各々における画像ベクトルは、例えば、各特徴点における深度である。各特徴点P1〜P6の画像ベクトルは、0〜1.0の範囲に正規化されてfloat配列として表現されてもよい。このようにして取得された特徴点P1〜P6の画像ベクトルを図16に示す。図16には、説明の簡略化のために10フレーム分の画像ベクトルが示されているが、実際には統計的解析に十分な量のフレームについて画像ベクトルが取得される。 In the moving image distribution system 1, the characteristic array is determined as follows. First, as described with reference to FIGS. 7 and 8, the moving image reproducing apparatus 10 images the user of the moving image reproducing apparatus 10 at a predetermined frame rate to acquire a captured image, and in each frame of the captured image. A plurality of feature points related to the user are extracted. For example, as shown in FIG. 7, six characteristic points P1 to P6 are extracted. The moving image reproducing apparatus 10 obtains an image vector related to the user's motion for each of the extracted plurality of feature points. The image vector at each of the feature points P1 to P6 is, for example, the depth at each feature point. The image vector of each of the feature points P1 to P6 may be normalized as a range of 0 to 1.0 and expressed as a float array. The image vectors of the characteristic points P1 to P6 thus obtained are shown in FIG. Although FIG. 16 shows image vectors for 10 frames for simplification of description, the image vectors are actually acquired for a sufficient number of frames for statistical analysis.

次に、特徴点P1〜P6の各々について、所定区間における画像ベクトルの要素の和Σを算出する。図16の表には、第0フレーム〜第25フレームの26フレーム分の区間における画像ベクトルの要素の和が「Σ」と表記されている行に示されている。次に、各特徴点P1〜P6の画像ベクトルの要素の和を大きい順にソートする。図16においては、このソート結果が「RANK」と表記されている行に示されている。図16の例では、P4、P3、P6、P2、P1、P5の順にソートされる。このソート後の配列を{4,3,6,2,1,5}と表現する。 Next, for each of the feature points P1 to P6, the sum Σ of the image vector elements in the predetermined section is calculated. In the table of FIG. 16, the sum of the elements of the image vector in the section of the 0th frame to the 25th frame for 26 frames is shown in the row labeled “Σ”. Next, the sum of the image vector elements of the respective feature points P1 to P6 is sorted in descending order. In FIG. 16, the sorting result is shown in the line labeled "RANK". In the example of FIG. 16, P4, P3, P6, P2, P1, and P5 are sorted in this order. The array after this sorting is expressed as {4,3,6,2,1,5}.

動画再生装置10は、ユーザの動きに関する画像ベクトルのサンプルを学習することにより、ユーザの特徴的な姿勢又は動きを示す代表ベクトルを算出する。代表ベクトルは、例えば、ロイドアルゴリズム及びこれ以外の公知のアルゴリズムを用いて算出される。つまり、代表ベクトルは、ユーザの特徴的な姿勢を示す。よって、この代表ベクトルに基づいてユーザの姿勢を特定することができる。動画再生装置は、算出された代表ベクトルをインデックスとともに記憶する。動画再生装置10は、自装置以外で算出された代表ベクトルを取得しても良い。本実施形態では、4つの代表ベクトルA〜Dが算出されており、各代表ベクトルの要素を大きい順にソートして代表ベクトルの配列を得る。代表ベクトルA〜Dの各々の要素を大きい順にソートした配列はそれぞれ順に{1,3,6,2,4,5}、{4,3,6,2,1,5}{2,3,6,4,5,1}{1,2,3,4,5,6}を表されると想定する。 The moving image reproducing apparatus 10 calculates a representative vector indicating a characteristic posture or movement of the user by learning a sample of an image vector related to the movement of the user. The representative vector is calculated using, for example, the Lloyd algorithm and other known algorithms. That is, the representative vector indicates the characteristic posture of the user. Therefore, the posture of the user can be specified based on this representative vector. The moving image reproducing device stores the calculated representative vector together with the index. The video playback device 10 may acquire the representative vector calculated by a device other than the own device. In this embodiment, four representative vectors A to D are calculated, and the elements of each representative vector are sorted in descending order to obtain an array of representative vectors. Arrays obtained by sorting the elements of the representative vectors A to D in descending order are {1,3,6,2,4,5}, {4,3,6,2,1,5}{2,3, 6,4,5,1} {1,2,3,4,5,6} is assumed to be represented.

動画再生装置10は、撮像画像から得られた画像ベクトルをソートして得られた入力配列{4,3,6,2,1,5}と各代表ベクトルの配列とを比較し、入力配列{4,3,6,2,1,5}と最も近い代表ベクトルの配列を選定する。図16に示されている例では、入力配列{4,3,6,2,1,5}が4つの代表ベクトルの配列のうち代表ベクトルBの配列{4,3,6,2,1,5}と一致していることから、{4,3,6,2,1,5}が特徴配列として選定される。動画再生装置10は、このようにして選定された特徴配列のインデックスを動画配信装置20に送信する。 The moving image reproducing apparatus 10 compares the input array {4,3,6,2,1,5} obtained by sorting the image vectors obtained from the captured images with the array of each representative vector, and the input array { 4,3,6,2,1,5} is selected as the closest representative vector array. In the example shown in FIG. 16, the input array {4,3,6,2,1,5} is an array of the representative vector B among the arrays of four representative vectors {4,3,6,2,1, 5}, {4,3,6,2,1,5} is selected as the feature array. The moving image reproducing apparatus 10 transmits the index of the feature array thus selected to the moving image distribution apparatus 20.

動画配信装置20は、代表ベクトルA〜Dとその配列とが対応付けられているコードブックを記憶している。動画配信装置20は、当該コードブックを参照し、動画再生装置10から取得した特徴配列に対応する代表ベクトルBに対応する姿勢を取るように上記ユーザのアバタのアニメーションを生成する。 The moving image distribution apparatus 20 stores a codebook in which the representative vectors A to D and their arrays are associated with each other. The moving image distribution apparatus 20 refers to the codebook and generates an animation of the avatar of the user so as to take a posture corresponding to the representative vector B corresponding to the feature array acquired from the moving image reproduction apparatus 10.

上記の例では、26フレーム分の単位区間ごとに特徴配列が動画再生装置10から動画配信装置20に送信される。この単位区間は、適宜調整可能である。 In the above example, the feature array is transmitted from the video playback device 10 to the video delivery device 20 for each unit section of 26 frames. This unit section can be adjusted appropriately.

以上のとおり、動画配信システム1において基準姿勢IDに代えて特徴配列のインデックスを伝送し、伝送遅延時にはこの特徴配列のインデックスに基づいてアバタのアニメーションを生成することを説明した。動画配信システム301においても同様に、基準姿勢IDに代えて特徴配列を用いることができる。特徴配列は、動画配信システム101において基準表情IDに代えて用いることもできる。 As described above, in the moving image distribution system 1, the index of the characteristic array is transmitted instead of the reference posture ID, and the animation of the avatar is generated based on the index of the characteristic array when the transmission is delayed. Similarly, in the moving image distribution system 301, the feature array can be used instead of the reference posture ID. The feature array can be used in place of the reference facial expression ID in the moving image distribution system 101.

以上の実施形態によって奏される作用効果について説明する。上記の一態様において、伝送路において遅延が発生している間は、データ量が大きな姿勢特徴量ではなく、小さなデータ量で視聴ユーザの姿勢に関する情報を特定することができる基準姿勢識別データが動画再生装置10から動画配信装置20に対して送信される。これにより、伝送路において遅延が発生している場合に、小さなデータ量の基準姿勢識別データにより、視聴ユーザの姿勢に関する情報を動画配信装置20に伝達することができる。 The effects of the above embodiment will be described. In the above aspect, while the delay occurs in the transmission path, the reference posture identification data that can specify the information about the posture of the viewing user with a small amount of data instead of a large amount of posture feature amount of a moving image is a moving image. It is transmitted from the reproduction device 10 to the moving image distribution device 20. Accordingly, when a delay occurs in the transmission path, the information regarding the posture of the viewing user can be transmitted to the video distribution device 20 by the reference posture identification data having a small data amount.

一態様においては、視聴ユーザのアバタに関して登録アニメーションを登録することができ、伝送路において遅延が発生している間には、基準姿勢識別データに基づいて特定される基準姿勢に対応する登録アニメーションを含む動画が配信される。これにより、動画再生装置10から動画配信装置20への伝送路における遅延のために視聴ユーザの姿勢を表す姿勢特徴量の動画配信装置20への送信が困難な場合であっても、視聴ユーザの姿勢に関連する登録アニメーションを動画に含めることができる。 In one aspect, a registration animation can be registered for the avatar of the viewing user, and while the delay occurs in the transmission path, the registration animation corresponding to the reference posture specified based on the reference posture identification data can be registered. Video including is delivered. As a result, even if it is difficult to transmit the posture feature amount representing the posture of the viewing user to the moving image distribution device 20 due to the delay in the transmission path from the moving image reproducing device 10 to the moving image distribution device 20, Enrollment animations related to posture can be included in the video.

上記の一態様においては、動画再生装置330において、動画配信装置320から受信した配信ユーザの姿勢特徴量に基づいて当該配信ユーザの動きに基づいて動くアバタのアニメーションが生成される。伝送路において遅延が発生している間は、姿勢特徴量ではなく基準姿勢識別データが動画配信装置320から動画再生装置310に対して送信される。これにより、伝送路において遅延が発生している場合に、配信ユーザの動きを小さなデータ量で表すことができる基準姿勢識別データにより、動画再生装置330においてアバタのアニメーションを生成することができる。 In the above aspect, the moving image reproducing apparatus 330 generates an animation of an avatar that moves based on the movement of the distribution user based on the posture feature amount of the distribution user received from the moving image distribution apparatus 320. While the transmission path is being delayed, the reference posture identification data, not the posture feature amount, is transmitted from the moving image distribution device 320 to the moving image reproduction device 310. Accordingly, when delay occurs in the transmission path, the avatar animation can be generated in the moving image reproduction apparatus 330 by the reference posture identification data that can represent the movement of the distribution user with a small amount of data.

一態様においては、ユーザの動きに基づいて生成されるユーザアニメーションを登録アニメーションとして登録することができる。これにより、姿勢特徴量が利用できない場合におけるアバタの動きのバリエーションを増やすことができる。 In one aspect, a user animation generated based on the movement of the user can be registered as a registration animation. As a result, it is possible to increase variations in the movement of the avatar when the posture feature amount cannot be used.

一態様において、伝送路において遅延が発生している間は、データ量が大きな顔特徴量ではなく、小さなデータ量で視聴ユーザの姿勢に関する情報を特定することができる基準表情識別データが動画再生装置10から動画配信装置20に対して送信される。これにより、伝送路において遅延が発生している場合に、小さなデータ量の基準表情識別データにより、視聴ユーザの表情に関する情報を動画配信装置20に伝達することができる。 In one aspect, while the delay is occurring in the transmission path, the reference facial expression identification data that can specify the information about the posture of the viewing user with a small amount of data instead of the facial feature amount with a large amount of data is the moving image reproducing apparatus. 10 is transmitted to the video distribution device 20. Thereby, when delay occurs in the transmission path, the information regarding the facial expression of the viewing user can be transmitted to the video distribution device 20 by the reference facial expression identification data having a small data amount.

本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。 In the processing procedure described in this specification, particularly in the processing procedure described with reference to the flowchart, some of the steps (steps) constituting the processing procedure are omitted, It is possible to add steps that are not explicitly shown and/or change the order of the steps, and the processing procedure in which such omissions, additions, and changes in order are made without departing from the spirit of the present invention. It is included in the scope of the invention.

1、101、201、301 動画配信システム
10、110、210、330 動画再生装置
11a 動画再生部
11b 姿勢データ取得部
11c 送信部
11d 分類部
11e 遅延監視部
11f 顔特徴量取得部
20、120、220、320 動画配信装置
21a 動画生成部
21b 動画配信部
21c アニメーション生成部
310 姿勢データ取得装置
1, 101, 201, 301 Video distribution system 10, 110, 210, 330 Video playback device 11a Video playback unit 11b Posture data acquisition unit 11c Transmission unit 11d Classification unit 11e Delay monitoring unit 11f Face feature amount acquisition unit 20, 120, 220 , 320 Video distribution device 21a Video generation unit 21b Video distribution unit 21c Animation generation unit 310 Posture data acquisition device

Claims (15)

一又は複数のコンピュータプロセッサを備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
動画配信装置から受信した動画を再生し、
ユーザの姿勢の特徴を表す姿勢特徴量を含むモーションデータを前記動画配信装置に送信し、
前記動画配信装置から前記姿勢特徴量に基づいて生成された前記ユーザのアバタのアニメーションを含む動画を受信し、
前記ユーザの姿勢が予め定められた基準姿勢に合致するか否かを判定し、
前記モーションデータの前記動画配信装置への伝送に遅延が発生している間に、前記ユーザの姿勢に合致すると判定された前記基準姿勢を識別する基準姿勢識別データを前記動画配信装置に送信し、
前記基準姿勢識別データは、前記姿勢特徴量よりもデータ量が少ない、
動画再生装置。
Comprises one or more computer processors,
The one or more computer processors execute computer-readable instructions to:
Play the video received from the video distribution device,
Sending motion data including a posture feature amount indicating the feature of the posture of the user to the moving image distribution device,
Receiving a video including an animation of the avatar of the user generated based on the posture feature amount from the video distribution device,
It is determined whether or not the posture of the user matches a predetermined reference posture,
Wherein while the motion data delay for transmission to a video distribution apparatus has occurred, and transmits the reference posture identification data identifying the reference posture is determined to match the attitude of the user to the video distribution device,
The reference posture identification data has a smaller data amount than the posture feature amount,
Video playback device.
前記ユーザの姿勢が前記基準姿勢と合致するか否かは、前記姿勢特徴量を変数として評価関数に基づいて判定される、
請求項1に記載の動画再生装置。
Whether the posture of the user matches with the reference attitude is determined based on the evaluation function the orientation feature amount as a variable,
The moving picture reproducing apparatus according to claim 1.
前記ユーザの姿勢が前記基準姿勢に合致するか否かの判定は、前記姿勢特徴量に基づいて前記ユーザの姿勢を分類する分類器により行われ、
前記基準姿勢を表す画像を前記ユーザに提示し、提示された前記画像に対して前記ユーザが取った姿勢を表す姿勢特徴量を教師データとして学習することにより前記分類器を作成する、
請求項1に記載の動画再生装置。
Whether or not the posture of the user matches the reference posture is determined by a classifier that classifies the posture of the user based on the posture feature amount,
An image representing the reference posture is presented to the user, and the classifier is created by learning a posture feature amount representing a posture taken by the user with respect to the presented image as teacher data.
The moving picture reproducing apparatus according to claim 1.
前記ユーザのアバタについて一又は複数の登録アニメーションが登録されており、
前記遅延が発生している間に前記基準姿勢識別データに基づいて特定された前記基準姿勢に対応する前記登録アニメーションを含む動画を受信する、
請求項1から請求項3のいずれか1項に記載の動画再生装置。
One or more registration animations are registered for the user's avatar,
Receiving a moving image including the registered animation corresponding to the reference posture specified based on the reference posture identification data while the delay is occurring,
The moving image reproducing apparatus according to claim 1.
時系列に取得された前記姿勢特徴量に基づいて前記アバタのユーザアニメーションを生成し、
前記ユーザアニメーションを前記登録アニメーションとして登録し、
前記ユーザアニメーションを含むサンプル動画を生成し、
前記サンプル動画を構成する複数のフレームの中から選択された基準フレームの画像に基づいて前記ユーザアニメーションに対応する前記基準姿勢を決定する、
請求項4に記載の動画再生装置。
Generate a user animation of the avatar based on the posture feature amount acquired in time series,
Register the user animation as the registered animation,
Generate a sample video containing the user animation,
Determining the reference posture corresponding to the user animation based on an image of a reference frame selected from a plurality of frames forming the sample moving image;
The video playback device according to claim 4.
時系列に取得された前記姿勢特徴量に基づいて前記アバタのユーザアニメーションを生し、
前記ユーザアニメーションを前記登録アニメーションとして登録し、
所定のフレームレートに基づいて前記ユーザに関する複数の特徴点の各々において前記ユーザに関する前記姿勢特徴量を算出し、
第1フレームにおいて前記複数の特徴点の各々における前記姿勢特徴量の二乗平均平方根である第1RMSを算出し、
前記第1フレームよりも時系列的に後の第2フレームにおいて前記複数の特徴点の各々における前記姿勢特徴量の二乗平均平方根である第2RMSを算出し、
前記第2フレームよりも時系列的に後の第3フレームにおいて前記複数の特徴点の各々における前記姿勢特徴量の二乗平均平方根である第3RMSを算出し、
前記第2RMSと前記第1RMSとの差である第1RMS差の正負と前記第3RMSと前記第2RMSとの差である第2RMS差の正負とが逆転した場合に、前記第3フレームにおける前記姿勢特徴量に基づいて前記ユーザアニメーションに対応する前記基準姿勢を決定する、
請求項4に記載の動画再生装置。
A user animation of the avatar is generated based on the posture feature amount acquired in time series,
Register the user animation as the registered animation,
Calculating the posture feature amount for the user at each of a plurality of feature points for the user based on a predetermined frame rate,
Calculating a first RMS that is a root mean square of the posture feature amount at each of the plurality of feature points in the first frame;
Calculating a second RMS that is a root mean square of the posture feature amount at each of the plurality of feature points in a second frame that is later than the first frame in time series;
Calculating a third RMS that is a root mean square of the posture feature amount at each of the plurality of feature points in a third frame that is time-sequentially later than the second frame,
The posture characteristic in the third frame when the positive/negative of the first RMS difference which is the difference between the second RMS and the first RMS and the positive/negative of the second RMS difference which is the difference between the third RMS and the second RMS are reversed. Determining the reference pose corresponding to the user animation based on an amount,
The video playback device according to claim 4.
時系列に取得された前記姿勢特徴量に基づいて前記アバタのユーザアニメーションを生成し、
前記ユーザアニメーションを前記登録アニメーションとして登録し、
前記ユーザアニメーションに対する前記ユーザの動きに基づいて時系列に取得された前記姿勢特徴量を含む第1評価データと、前記ユーザアニメーションに対する前記ユーザの他の動きに基づいて時系列に取得された前記姿勢特徴量を含む第2評価データと、を比較することで前記ユーザアニメーションに対応する前記基準姿勢を決定する、
請求項4に記載の動画再生装置。
Generate a user animation of the avatar based on the posture feature amount acquired in time series,
Register the user animation as the registered animation,
First evaluation data including the posture feature amount obtained in time series based on the movement of the user with respect to the user animation, and the posture obtained in time series based on other movements of the user with respect to the user animation Determining the reference posture corresponding to the user animation by comparing with second evaluation data including a feature amount,
The video playback device according to claim 4.
前記姿勢特徴量は、前記ユーザのボーンの位置及び向きを3次元ベクトルで表すボーンデータを含む、
請求項1から請求項7のいずれか1項に記載の動画再生装置。
The posture feature amount includes bone data that represents the position and orientation of the bone of the user with a three-dimensional vector.
The moving image reproducing apparatus according to claim 1.
前記モーションデータは、前記ユーザの顔の特徴を表す顔特徴量を含み、
前記一又は複数のコンピュータプロセッサは、
前記顔特徴量に基づいて前記ユーザの表情を分類する他の分類器により前記ユーザの表情が予め定められた基準表情に合致するか否かを判定し、
前記遅延が発生している間に、前記ユーザの表情が合致すると判定された前記基準表情を識別する基準表情識別データを前記動画配信装置に送信し、
前記基準表情識別データは、前記顔特徴量よりもデータ量が少ない、
請求項1から請求項8のいずれか1項に記載の動画再生装置。
The motion data includes a facial feature amount representing a facial feature of the user,
The one or more computer processors,
It is determined whether the facial expression of the user matches a predetermined reference facial expression by another classifier that classifies the facial expression of the user based on the facial feature amount,
While the delay is occurring, the reference facial expression identification data for identifying the reference facial expression determined to match the user's facial expression is transmitted to the video distribution device,
The reference facial expression identification data has a smaller data amount than the facial feature amount,
The moving image reproducing apparatus according to claim 1.
前記基準姿勢識別データは、前記遅延が発生している間に前記モーションデータに代えて送信される、
請求項1から請求項9のいずれか1項に記載の動画再生装置。
The reference posture identification data is transmitted instead of the motion data while the delay is occurring,
The moving image reproducing apparatus according to claim 1.
前記モーションデータはリアルタイムで送信される、
請求項1から請求項10のいずれか1項に記載の動画再生装置。
The motion data is transmitted in real time,
The video playback device according to claim 1.
一又は複数のコンピュータプロセッサを備え、ユーザのアバタを含む動画を前記ユーザの動画再生装置に配信する動画配信システムであって、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記動画再生装置から伝送路を介して前記ユーザの姿勢を表す姿勢特徴量を含むモーションデータを受信し、
前記姿勢特徴量に基づいて生成された前記ユーザのアバタのアニメーションを前記動画に含めて配信し、
前記ユーザの姿勢に合致する前記動画再生装置からの前記モーションデータの伝送に遅延が発生している間に、前記ユーザの姿勢に合致する基準姿勢を識別する基準姿勢識別データを前記動画再生装置から受信し、
前記基準姿勢識別データに基づいて生成された前記ユーザのアバタの登録アニメーションを前記動画に含めて配信し、
前記基準姿勢識別データは、前記姿勢特徴量よりもデータ量が少ない、
動画配信システム。
A moving image distribution system comprising one or a plurality of computer processors, which distributes a moving image including a user's avatar to a moving image reproducing device of the user,
The one or more computer processors execute computer-readable instructions to:
Receiving motion data including a posture feature amount indicating the posture of the user from the moving image reproducing device via a transmission path,
An animation of the avatar of the user generated based on the posture feature amount is included in the moving image and distributed,
While the transmission of the motion data from the moving image reproducing apparatus matching the user's posture is delayed, reference posture identifying data for identifying a reference posture matching the user's posture is provided from the moving image reproducing apparatus. Received,
The user's avatar registration animation generated based on the reference posture identification data is included in the moving image and distributed,
The reference posture identification data has a smaller data amount than the posture feature amount,
Video distribution system.
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画再生方法であって、
動画配信装置から受信した動画を再生する工程と、
ユーザの姿勢を表す姿勢特徴量を含むモーションデータを前記動画配信装置に送信する工程と、
前記動画配信装置から前記姿勢特徴量に基づいて生成された前記ユーザのアバタのアニメーションを含む動画を受信する工程と、
前記姿勢特徴量に基づいて前記ユーザの姿勢を分類する分類器により前記ユーザの姿勢が予め定められた基準姿勢に合致するか否かを判定する工程と、
前記モーションデータの前記動画配信装置への伝送に遅延が発生しているか否かを判定する工程と、
前記遅延が発生している間に、前記ユーザの姿勢が合致すると判定された前記基準姿勢を識別する基準姿勢識別データを前記動画配信装置に送信する工程と、
を備え、
前記基準姿勢識別データは、前記姿勢特徴量よりもデータ量が少ない、
動画再生方法。
A method of playing back a moving image that is executed by one or more computer processors executing computer readable instructions,
A step of playing a video received from the video distribution device,
A step of transmitting motion data including a posture feature amount indicating a posture of the user to the moving image distribution device,
Receiving a video including an animation of the avatar of the user generated based on the posture feature amount from the video distribution device,
Determining whether or not the posture of the user matches a predetermined reference posture by a classifier that classifies the posture of the user based on the posture characteristic amount;
Determining whether or not there is a delay in the transmission of the motion data to the video distribution device;
A step of transmitting reference posture identification data for identifying the reference posture determined to match the posture of the user to the video distribution device while the delay is occurring;
Equipped with
The reference posture identification data has a smaller data amount than the posture feature amount,
Video playback method.
一又は複数のコンピュータプロセッサを備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
ユーザの姿勢の特徴を表す姿勢特徴量を含むモーションデータを動画再生装置に送信し、
前記ユーザの姿勢が予め定められた基準姿勢に合致するか否かを判定し、
前記モーションデータの前記動画再生装置への伝送に遅延が発生している間に、前記ユーザの姿勢が合致すると判定された前記基準姿勢を識別する基準姿勢識別データを前記動画再生装置に送信し、
前記基準姿勢識別データは、前記姿勢特徴量よりもデータ量が少ない、
動画配信装置。
Comprises one or more computer processors,
The one or more computer processors execute computer-readable instructions to:
The motion data including the posture feature amount representing the feature of the user's posture is transmitted to the video playback device,
It is determined whether or not the posture of the user matches a predetermined reference posture,
While a delay occurs in the transmission of the motion data to the video playback device, the reference posture identification data for identifying the reference posture determined to match the user's posture is transmitted to the video playback device,
The reference posture identification data has a smaller data amount than the posture feature amount,
Video distribution device.
一又は複数のコンピュータプロセッサと、登録アニメーションを記憶するストレージと、を備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
動画配信装置からユーザの姿勢の特徴を表す姿勢特徴量を含むモーションデータを受信し、
前記モーションデータに基づいて生成されたユーザのアバタのアニメーションを含む動画を生成し、
前記動画配信装置からの前記モーションデータの伝送に遅延が発生している間に、前記ユーザの姿勢が合致すると判定された基準姿勢を識別する基準姿勢識別データに基づいて前記基準姿勢に対応する前記登録アニメーションを含む動画を生成し、
前記基準姿勢識別データは、前記姿勢特徴量よりもデータ量が少ない、
動画再生装置。
Comprising one or more computer processors and storage for storing registration animations,
The one or more computer processors execute computer-readable instructions to:
Receives motion data including a posture feature amount representing the feature of the posture of the user from the video distribution device,
Generates a video containing an animation of the user's avatar generated based on the motion data,
While delaying the transmission of the motion data from the video distribution device, the reference attitude corresponding to the reference attitude based on reference attitude identification data for identifying a reference attitude determined to match the attitude of the user is used. Generate a video containing a registration animation,
The reference posture identification data has a smaller data amount than the posture feature amount,
Video playback device.
JP2019159175A 2019-08-31 2019-08-31 Video playback device, video playback method, and video delivery system Active JP6731532B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019159175A JP6731532B1 (en) 2019-08-31 2019-08-31 Video playback device, video playback method, and video delivery system
JP2020116421A JP6945693B2 (en) 2019-08-31 2020-07-06 Video playback device, video playback method, and video distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019159175A JP6731532B1 (en) 2019-08-31 2019-08-31 Video playback device, video playback method, and video delivery system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020116421A Division JP6945693B2 (en) 2019-08-31 2020-07-06 Video playback device, video playback method, and video distribution system

Publications (2)

Publication Number Publication Date
JP6731532B1 true JP6731532B1 (en) 2020-07-29
JP2021040203A JP2021040203A (en) 2021-03-11

Family

ID=71738572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019159175A Active JP6731532B1 (en) 2019-08-31 2019-08-31 Video playback device, video playback method, and video delivery system

Country Status (1)

Country Link
JP (1) JP6731532B1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4034002B2 (en) * 1999-04-22 2008-01-16 三菱電機株式会社 Distributed virtual space information management transmission method
JP3996015B2 (en) * 2002-08-09 2007-10-24 本田技研工業株式会社 Posture recognition device and autonomous robot
JP2004227212A (en) * 2003-01-22 2004-08-12 Mitsubishi Electric Corp 3dcg communication system
US10572720B2 (en) * 2017-03-01 2020-02-25 Sony Corporation Virtual reality-based apparatus and method to generate a three dimensional (3D) human face model using image and depth data
JP6457603B1 (en) * 2017-09-20 2019-01-23 株式会社スクウェア・エニックス Image processing program, image processing apparatus, and image processing method
JP6527627B1 (en) * 2018-08-31 2019-06-05 株式会社バーチャルキャスト Content distribution server, content distribution system, content distribution method and program

Also Published As

Publication number Publication date
JP2021040203A (en) 2021-03-11

Similar Documents

Publication Publication Date Title
US11178456B2 (en) Video distribution system, video distribution method, and storage medium storing video distribution program
KR101855639B1 (en) Camera navigation for presentations
US8667519B2 (en) Automatic passive and anonymous feedback system
KR20210032553A (en) Method and system for providing eye tracking based information about a user behavior, client device, server and computer program product
CN107633441A (en) Commodity in track identification video image and the method and apparatus for showing merchandise news
Teo et al. Hand gestures and visual annotation in live 360 panorama-based mixed reality remote collaboration
TWI255141B (en) Method and system for real-time interactive video
CN112198959A (en) Virtual reality interaction method, device and system
KR20120051659A (en) Auto-generating a visual representation
CN111862348B (en) Video display method, video generation method, device, equipment and storage medium
CN108875539B (en) Expression matching method, device and system and storage medium
CN110178158A (en) Information processing unit, information processing method and program
CN108845670A (en) A kind of online virtual fitness entertainment systems and method based on somatosensory device
JP7416903B2 (en) Video distribution system, video distribution method, and video distribution program
JP6563580B1 (en) Communication system and program
JP7496558B2 (en) Computer program, server device, terminal device, and method
CN108933954A (en) Method of video image processing, set-top box and computer readable storage medium
JP2020150519A (en) Attention degree calculating device, attention degree calculating method and attention degree calculating program
JP6731532B1 (en) Video playback device, video playback method, and video delivery system
JP6609078B1 (en) Content distribution system, content distribution method, and content distribution program
JP7442107B2 (en) Video playback device, video playback method, and video distribution system
JP6945693B2 (en) Video playback device, video playback method, and video distribution system
Mariappan et al. Picolife: A computer vision-based gesture recognition and 3D gaming system for android mobile devices
US20130260885A1 (en) Entertainment system and method of providing entertainment
JP2008186075A (en) Interactive image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190902

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190902

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200706

R150 Certificate of patent or registration of utility model

Ref document number: 6731532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350