JP2021174239A - Computer program, server device, and method - Google Patents

Computer program, server device, and method Download PDF

Info

Publication number
JP2021174239A
JP2021174239A JP2020077502A JP2020077502A JP2021174239A JP 2021174239 A JP2021174239 A JP 2021174239A JP 2020077502 A JP2020077502 A JP 2020077502A JP 2020077502 A JP2020077502 A JP 2020077502A JP 2021174239 A JP2021174239 A JP 2021174239A
Authority
JP
Japan
Prior art keywords
position information
processor
terminal device
unit time
distributor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020077502A
Other languages
Japanese (ja)
Other versions
JP7250726B2 (en
Inventor
顕信 安部
Akinobu Abe
悠 ▲高▼橋
Yutaka Takahashi
匡志 渡邊
Masashi Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2020077502A priority Critical patent/JP7250726B2/en
Publication of JP2021174239A publication Critical patent/JP2021174239A/en
Priority to JP2022041676A priority patent/JP7495694B2/en
Application granted granted Critical
Publication of JP7250726B2 publication Critical patent/JP7250726B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

To provide a computer program, a server device, a terminal device, and a display method which detect a position of a distributor (performer) in a physical space with improved accuracy.SOLUTION: The computer program relating to one embodiment is executed by at least one processor to allow the at least one processor to function to: acquire movement information about respective movements of a plurality of parts of a body of a performer existing in a physical space, which are output from a plurality of first sensors attached to the plurality of parts; acquire position information about a position of the body of the performer, which is output from at least one second sensor attached to the body of the performer; calculate respective positions of the plurality of parts in the physical space on the basis of the movement information; and calculate the position of the body in the physical space on the basis of the position information.SELECTED DRAWING: Figure 5

Description

本件出願に開示された技術は、配信者(演者)の動作に基づいた画像を表示する、コンピュータプログラム、サーバ装置及び方法に関する。 The technology disclosed in this application relates to computer programs, server devices and methods for displaying images based on the behavior of a distributor (performer).

従来から、配信者(演者)の動作に基づいた画像を生成するために、モーションキャプチャシステムが用いられる。特開2017−511906号公報(特許文献1)は、慣性センサを用いたモーションキャプチャシステムを開示している。特許文献1に開示されたモーションキャプチャシステムは、配信者の身体における複数の部位に装着された慣性センサから受信した信号に基づいて、上記身体における各部分の位置を決定する。なお、上記特許文献1は、引用によりその全体が本明細書に組み入れられる。 Conventionally, a motion capture system has been used to generate an image based on the movement of a distributor (performer). Japanese Unexamined Patent Publication No. 2017-511906 (Patent Document 1) discloses a motion capture system using an inertial sensor. The motion capture system disclosed in Patent Document 1 determines the position of each part in the body based on signals received from inertial sensors attached to a plurality of parts in the body of the distributor. The entire Patent Document 1 is incorporated in the present specification by citation.

特開2017−511906号公報Japanese Unexamined Patent Publication No. 2017-511906

しかしながら、上述した慣性センサを用いたモーションキャプチャシステムでは、慣性センサを用いて物理的な空間における配信者の位置(座標)を算出する場合には、このように算出される位置は、時間の経過とともに蓄積されるノイズに起因して、実際の配信者の位置とは大きく異なる可能性がある。 However, in the motion capture system using the inertial sensor described above, when the position (coordinates) of the distributor in the physical space is calculated using the inertial sensor, the position calculated in this way is the passage of time. Due to the noise accumulated with it, it may differ significantly from the actual distributor position.

したがって、本件出願において開示された幾つかの実施形態は、物理的な空間における配信者(演者)の位置を向上した精度により検出する、コンピュータプログラム、サーバ装置、端末装置及び表示方法を提供する。 Accordingly, some embodiments disclosed in this application provide computer programs, server devices, terminal devices and display methods that detect the position of a distributor (performer) in physical space with improved accuracy.

一態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 The computer program according to the embodiment is described as "a plurality of computer programs output from a plurality of first sensors attached to a plurality of parts of the distributor's body existing in a physical space by being executed by at least one processor. The motion information regarding the motion of each of the parts of the body is acquired, the position information regarding the position of the body output from at least one second sensor attached to the body of the distributor is acquired, and the motion information is based on the motion information. It is possible to make the at least one processor function so as to calculate the position of each of the plurality of parts in the physical space and calculate the position of the body in the physical space based on the position information. " can.

一態様に係るサーバ装置は、「少なくとも1つのプロセッサを具備し、該少なくとも1つのプロセッサが、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する」ことができる。 The server device according to one aspect is "equipped with at least one processor, and the at least one processor outputs from a plurality of first sensors attached to a plurality of parts of the distributor's body existing in a physical space. The motion information regarding the motion of each of the plurality of parts is acquired, and the position information regarding the position of the body output from at least one second sensor attached to the body of the distributor is acquired, and the motion information is obtained. The position of each of the plurality of parts in the physical space is calculated based on the above, and the position of the body in the physical space is calculated based on the position information. "

一態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、該少なくとも1つのプロセッサが、前記命令を実行することにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得する第1取得工程と、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得する第2取得工程と、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出する第1算出工程と、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する第2算出工程と、を含む」ことができる。 A method according to one aspect is "a method executed by at least one processor that executes a computer-readable instruction, wherein the at least one processor executes the instruction to bring it into physical space. A first acquisition step of acquiring motion information regarding the operation of each of the plurality of parts output from a plurality of first sensors attached to a plurality of parts in the body of an existing distributor, and attachment to the body of the distributor. A second acquisition step of acquiring position information regarding the position of the body output from at least one second sensor, and calculating the position of each of the plurality of parts in the physical space based on the motion information. A second calculation step of calculating the position of the body in the physical space based on the position information is included. ”

図1は、一実施形態に係る通信システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a configuration of a communication system according to an embodiment. 図2は、図1に示した通信システム1により実行される各動作がいずれの装置により実行され得るのかを例示する表である。FIG. 2 is a table illustrating which device can execute each operation executed by the communication system 1 shown in FIG. 図3は、図1に示した端末装置20(サーバ装置30)のハードウェア構成の一例を模式的に示すブロック図である。FIG. 3 is a block diagram schematically showing an example of the hardware configuration of the terminal device 20 (server device 30) shown in FIG. 図4は、図1に示した端末装置20(サーバ装置30)の機能の一例を模式的に示すブロック図である。FIG. 4 is a block diagram schematically showing an example of the functions of the terminal device 20 (server device 30) shown in FIG. 図5は、図1に示した通信システム1により行われる動作の一例を示すフロー図である。FIG. 5 is a flow chart showing an example of the operation performed by the communication system 1 shown in FIG. 図6は、図1に示した通信システム1において身体位置情報算出部150(250)により行われる動作の一例を示すフロー図である。FIG. 6 is a flow chart showing an example of an operation performed by the body position information calculation unit 150 (250) in the communication system 1 shown in FIG. 図7は、図1に示した通信システム1において身体位置情報算出部150(250)により行われる動作の別の例を示すフロー図である。FIG. 7 is a flow chart showing another example of the operation performed by the body position information calculation unit 150 (250) in the communication system 1 shown in FIG.

以下、添付図面を参照して本発明の様々な実施形態を説明する。なお、図面において共通した構成要素には同一の参照符号が付されている。また、或る図面に表現された構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意されたい。さらにまた、添付した図面が必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. The same reference numerals are attached to common components in the drawings. It should also be noted that the components represented in one drawing may be omitted in another for convenience of explanation. Furthermore, it should be noted that the attached drawings are not always drawn to the correct scale.

1.通信システムの概要
本件出願において開示される通信システムでは、簡潔にいえば、以下の動作が行われる。まず、スタジオ等の物理的な空間に居る配信者(演者)は、その身体における複数の部位に複数の第1センサ(例えば慣性センサ)を装着する。さらに、配信者は、その身体におけるいずれかの部位(例えば背中)に、少なくとも1つの第2センサ(例えば光学センサ)を装着する。「配信装置」は、配信者が演技を行っている間において、例えば単位時間ごとに、複数の第1センサから出力された動作情報、及び、少なくとも1つの第2センサから出力された位置情報を取得することができる。ここで、配信装置には、例えば以下の装置を含む任意の装置が含まれる。
・配信者の端末装置
・スタジオ等に設置された端末装置及び/又はスタジオユニット
・スタジオ等に設置されたサーバ装置
1. 1. Outline of Communication System In the communication system disclosed in the present application, the following operations are simply performed. First, a distributor (performer) in a physical space such as a studio attaches a plurality of first sensors (for example, inertial sensors) to a plurality of parts of the body. In addition, the distributor attaches at least one second sensor (eg, an optical sensor) to any part of the body (eg, the back). The "distribution device" receives operation information output from a plurality of first sensors and position information output from at least one second sensor, for example, for each unit time while the distributor is performing. Can be obtained. Here, the distribution device includes any device including, for example, the following device.
-Distributor's terminal device-Terminal device installed in a studio, etc. and / or a studio unit-Server device installed in a studio, etc.

(配信装置が動画を生成する態様)
次に、配信装置は、取得した動作情報に基づいて、物理的な空間における配信者の各部位の位置を算出することができる。また、配信装置は、取得した位置情報に基づいて、物理的な空間における配信者の身体の位置を算出することができる。さらに、配信装置は、取得した物理的な空間における各部位の位置を仮想的な空間における各部位の位置に変換することができる。さらにまた、配信装置は、取得した物理的な空間における身体の位置を仮想的な空間における身体の位置に変換することができる。さらに、配信装置は、取得した仮想的な空間における各部位の位置及び身体の位置に基づいて、配信者のアバターのアニメーションを含む動画を生成してサーバ装置に送信することができる。このサーバ装置は、配信者の端末装置等から受信した動画を、各視聴者の端末装置に配信することができる。これにより、各視聴者の端末装置は、サーバ装置から受信した動画を再生することができる。
(Aspect in which the distribution device generates a moving image)
Next, the distribution device can calculate the position of each part of the distributor in the physical space based on the acquired operation information. In addition, the distribution device can calculate the position of the distributor's body in the physical space based on the acquired position information. Further, the distribution device can convert the position of each part in the acquired physical space into the position of each part in the virtual space. Furthermore, the distribution device can convert the acquired body position in the physical space into the body position in the virtual space. Further, the distribution device can generate a moving image including an animation of the distributor's avatar and transmit it to the server device based on the position of each part and the position of the body in the acquired virtual space. This server device can distribute the moving image received from the terminal device of the distributor or the like to the terminal device of each viewer. As a result, the terminal device of each viewer can play back the moving image received from the server device.

(サーバ装置が動画を生成する態様)
これに並行して、配信装置は、取得した動作情報及び位置情報を、サーバ装置に送信することができる。このサーバ装置は、取得した動作情報に基づいて、物理的な空間における配信者の各部位の位置を算出することができる。また、このサーバ装置は、取得した位置情報に基づいて、物理的な空間における配信者の身体の位置を算出することができる。さらに、このサーバ装置は、取得した物理的な空間における各部位の位置を仮想的な空間における各部位の位置に変換することができる。さらにまた、サーバ装置は、取得した物理的な空間における身体の位置を仮想的な空間における身体の位置に変換することができる。さらに、このサーバ装置は、取得した仮想的な空間における各部位の位置及び身体の位置に基づいて、配信者のアバターのアニメーションを含む動画を生成して各視聴者の端末装置に送信することができる。これにより、各視聴者の端末装置は、サーバ装置から受信した動画を再生することができる。
(Aspect in which the server device generates a moving image)
In parallel with this, the distribution device can transmit the acquired operation information and location information to the server device. This server device can calculate the position of each part of the distributor in the physical space based on the acquired operation information. In addition, this server device can calculate the position of the distributor's body in the physical space based on the acquired position information. Further, this server device can convert the acquired position of each part in the physical space into the position of each part in the virtual space. Furthermore, the server device can convert the acquired body position in the physical space into the body position in the virtual space. Further, this server device can generate a video including an animation of the distributor's avatar and send it to each viewer's terminal device based on the position of each part and the position of the body in the acquired virtual space. can. As a result, the terminal device of each viewer can play back the moving image received from the server device.

(各視聴者の端末装置が動画を生成する態様)
或いはまた、このサーバ装置は、取得した動作情報及び位置情報を各視聴者の端末装置に送信することができる。各視聴者の端末装置は、取得した動作情報に基づいて、物理的な空間における配信者の各部位の位置を算出することができる。また、各視聴者の端末装置は、取得した位置情報に基づいて、物理的な空間における配信者の身体の位置を算出することができる。さらに、各視聴者の端末装置は、取得した物理的な空間における各部位の位置を仮想的な空間における各部位の位置に変換することができる。さらにまた、各視聴者の端末装置は、取得した物理的な空間における身体の位置を仮想的な空間における身体の位置に変換することができる。さらに、各視聴者の端末装置は、取得した仮想的な空間における各部位の位置及び身体の位置に基づいて、配信者のアバターのアニメーションを含む動画を生成して表示することができる。
(A mode in which each viewer's terminal device generates a moving image)
Alternatively, this server device can transmit the acquired operation information and position information to each viewer's terminal device. The terminal device of each viewer can calculate the position of each part of the distributor in the physical space based on the acquired operation information. In addition, each viewer's terminal device can calculate the position of the distributor's body in the physical space based on the acquired position information. Further, the terminal device of each viewer can convert the position of each part in the acquired physical space into the position of each part in the virtual space. Furthermore, each viewer's terminal device can convert the acquired body position in the physical space into the body position in the virtual space. Further, the terminal device of each viewer can generate and display a moving image including an animation of the distributor's avatar based on the position of each part and the position of the body in the acquired virtual space.

2.通信システムの例2. Example of communication system

図1は、一実施形態に係る通信システムの構成の一例を示すブロック図である。図1に示すように、通信システム1は、通信網10に接続される1又はそれ以上の端末装置20と、通信網10に接続される1又はそれ以上のサーバ装置30と、を含むことができる。なお、図1には、端末装置20の例として、3つの端末装置20A〜20Cが例示され、サーバ装置30の例として、3つのサーバ装置30A〜30Cが例示されている。しかし、端末装置20として、これら以外の1又はそれ以上の端末装置20が通信網10に接続され得る。また、サーバ装置30として、これら以外の1又はそれ以上のサーバ装置30が通信網10に接続され得る。 FIG. 1 is a block diagram showing an example of a configuration of a communication system according to an embodiment. As shown in FIG. 1, the communication system 1 may include one or more terminal devices 20 connected to the communication network 10 and one or more server devices 30 connected to the communication network 10. can. In addition, in FIG. 1, three terminal devices 20A to 20C are exemplified as an example of the terminal device 20, and three server devices 30A to 30C are exemplified as an example of the server device 30. However, as the terminal device 20, one or more terminal devices 20 other than these may be connected to the communication network 10. Further, as the server device 30, one or more server devices 30 other than these can be connected to the communication network 10.

また、通信システム1は、通信網10に接続される1又はそれ以上のスタジオユニット40を含むことができる。なお、図1には、スタジオユニット40の例として、2つのスタジオユニット40A及び40Bが例示されている。しかし、スタジオユニット40として、これら以外の1又はそれ以上のスタジオユニット40が通信網10に接続され得る。 Further, the communication system 1 may include one or more studio units 40 connected to the communication network 10. Note that FIG. 1 illustrates two studio units 40A and 40B as examples of the studio unit 40. However, as the studio unit 40, one or more studio units 40 other than these may be connected to the communication network 10.

通信網10は、携帯電話網、無線LAN、固定電話網、インターネット、イントラネット及び/又はイーサネット(登録商標)等をこれらに限定することなく含むことができる。 The communication network 10 can include, without limitation, a mobile phone network, a wireless LAN, a fixed telephone network, the Internet, an intranet and / or Ethernet (registered trademark) and the like.

図2は、図1に示した通信システム1により実行される各動作がいずれの装置により実行され得るのかを例示する表である。 FIG. 2 is a table illustrating which device can execute each operation executed by the communication system 1 shown in FIG.

まず、態様(1)に着目する。(A)動作情報及び位置情報の取得〜(D)動画の生成までが、配信装置により実行され得る。(E)動画の表示は、配信装置及び各視聴者の端末装置により実行され得る。 First, focus on aspect (1). From (A) acquisition of operation information and position information to (D) generation of moving images can be executed by the distribution device. (E) The display of the moving image can be executed by the distribution device and the terminal device of each viewer.

次に、態様(2)に着目する。経路(2A)では、(A)動画情報及び位置情報の取得〜(E)動画の表示までが、配信装置により実行され得る。 Next, focus on aspect (2). In the route (2A), (A) acquisition of moving image information and location information to (E) display of moving image can be executed by the distribution device.

経路(2A)に並行して実行され得る経路(2B)では、(B)物理的な空間における位置の算出〜(D)動画の生成までが、サーバ装置により実行され得る。(E)動画の表示が、各視聴者の端末装置により実行され得る。 In the route (2B) that can be executed in parallel with the route (2A), (B) calculation of the position in the physical space to (D) generation of the moving image can be executed by the server device. (E) The display of the moving image can be executed by the terminal device of each viewer.

次に、態様(3)に着目する。経路(3A)で行われる動作は、上述した態様(2)の経路(2A)で行われる動作と同様である。 Next, focus on aspect (3). The operation performed on the route (3A) is the same as the operation performed on the route (2A) of the above-described aspect (2).

経路(3A)に並行して実行され得る経路(3B)では、(B)物理的な空間における位置の算出及び(C)仮想的な空間における位置の算出が、サーバ装置により実行され得る。(D)動画の生成及び(E)動画の表示が、各視聴者の端末装置により実行され得る。 In the route (3B) that can be executed in parallel with the route (3A), (B) the calculation of the position in the physical space and (C) the calculation of the position in the virtual space can be executed by the server device. (D) video generation and (E) video display can be performed by each viewer's terminal device.

次に、態様(4)に着目する。経路(4A)で行われる動作は、上述した態様(2)の経路(2A)で行われる動作と同様である。 Next, focus on aspect (4). The operation performed on the route (4A) is the same as the operation performed on the route (2A) of the above-described aspect (2).

経路(4A)と並行して実行され得る経路(4B)では、(B)物理的な空間における位置の算出がサーバ装置により実行され得る。(C)仮想的な空間における位置の算出〜(E)動画の表示までが、各視聴者の端末装置により実行され得る。 In the route (4B) which can be executed in parallel with the route (4A), (B) the calculation of the position in the physical space can be executed by the server device. From (C) calculation of the position in the virtual space to (E) display of the moving image can be executed by the terminal device of each viewer.

次に、態様(5)に着目する。経路(5A)で行われる動作は、上述した態様(2)の経路(2A)で行われる動作と同様である。 Next, focus on aspect (5). The operation performed on the route (5A) is the same as the operation performed on the route (2A) of the above-described aspect (2).

経路(5A)と並行して実行され得る経路(5B)では、(B)物理的な空間における位置の算出〜(E)動画の表示までが、各視聴者の端末装置により実行され得る。 In the route (5B) that can be executed in parallel with the route (5A), (B) calculation of the position in the physical space to (E) display of the moving image can be executed by the terminal device of each viewer.

「配信装置」に含まれる、配信者の端末装置20、並びに、スタジオ等に設置された端末装置20及びスタジオユニット40は、インストールされた所定のアプリケーション(動画配信用のアプリケーション等)を実行することにより、態様(1)〜態様(5)の各々の場合に割り当てられた上述した動作を実行することができる。或いはまた、「配信装置」に含まれる、配信者の端末装置20、並びに、スタジオ等に設置された端末装置20及びスタジオユニット40は、インストールされたウェブブラウザを実行することにより、サーバ装置30からウェブページを受信及び表示して、同様の動作を実行することができる。 The distributor's terminal device 20, the terminal device 20 installed in the studio, and the studio unit 40 included in the "distribution device" execute a predetermined installed application (application for video distribution, etc.). Therefore, the above-described operation assigned in each of the cases (1) to (5) can be executed. Alternatively, the distributor's terminal device 20 included in the "distribution device", and the terminal device 20 and the studio unit 40 installed in the studio or the like can be executed from the server device 30 by executing the installed web browser. A web page can be received and displayed to perform similar actions.

なお、本明細書において、「所定のアプリケーション」又は「特定のアプリケーション」とは、1又はそれ以上のアプリケーションであってもよいし、1又はそれ以上のアプリケーションと1又はそれ以上のミドルウェアとの組み合わせであってもよい。 In the present specification, the "predetermined application" or "specific application" may be one or more applications, or a combination of one or more applications and one or more middleware. It may be.

各視聴者の端末装置20もまた、インストールされた所定のアプリケーション(動画配信用のアプリケーション等)を実行することにより、態様(1)〜態様(5)の各々の場合に割り当てられた上述した動作を実行することができる。或いはまた、「配信装置」に含まれる、配信者の端末装置20、並びに、スタジオ等に設置された端末装置20及びスタジオユニット40は、インストールされたウェブブラウザを実行することにより、サーバ装置30からウェブページを受信及び表示して、同様の動作を実行することができる。 The terminal device 20 of each viewer also executes the installed predetermined application (application for video distribution, etc.) to execute the above-described operation assigned in each of the cases (1) to (5). Can be executed. Alternatively, the distributor's terminal device 20 included in the "distribution device", and the terminal device 20 and the studio unit 40 installed in the studio or the like can be executed from the server device 30 by executing the installed web browser. A web page can be received and displayed to perform similar actions.

配信者の端末装置20及び各視聴者の端末装置20は、スマートフォン、タブレット、携帯電話(フィーチャーフォン)、及び/又は、パーソナルコンピュータ等を、これらに限定することなく含むことができる。 The distributor's terminal device 20 and each viewer's terminal device 20 can include, but are not limited to, smartphones, tablets, mobile phones (feature phones), and / or personal computers.

スタジオ等に設置された端末装置20及びスタジオユニット40は、パーソナルコンピュータ、スーパーコンピュータ、及び/又は、量子コンピュータ等をこれらに限定することなく含むことができる。 The terminal device 20 and the studio unit 40 installed in a studio or the like can include, but are not limited to, a personal computer, a supercomputer, and / or a quantum computer and the like.

「配信装置」に含まれるサーバ装置30は、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することにより、態様(1)〜態様(5)の各々の場合に割り当てられた上述した動作を実行することができる。また、「配信装置」に含まれるサーバ装置30は、インストールされた特定のアプリケーションを実行してウェブサーバとして機能することにより、各端末装置20及び/又はスタジオユニット等に送信するウェブページを介して、同様の動作を実行することができる。 The server device 30 included in the "distribution device" executes the installed specific application and functions as an application server, thereby performing the above-described operations assigned in each of the cases (1) to (5). Can be executed. Further, the server device 30 included in the "distribution device" executes a specific installed application and functions as a web server, thereby transmitting to each terminal device 20 and / or a studio unit or the like via a web page. , A similar operation can be performed.

サーバ装置30は、パーソナルコンピュータ、スーパーコンピュータ、及び/又は、量子コンピュータ等をこれらに限定することなく含むことができる。 The server device 30 can include, but is not limited to, a personal computer, a supercomputer, and / or a quantum computer and the like.

3.各装置のハードウェア構成
次に、端末装置20、サーバ装置30及びスタジオユニット40の各々が有するハードウェア構成の一例について説明する。
3. 3. Hardware Configuration of Each Device Next, an example of the hardware configuration of each of the terminal device 20, the server device 30, and the studio unit 40 will be described.

3−1.端末装置20のハードウェア構成
各端末装置20のハードウェア構成例について図3を参照して説明する。図3は、図1に示した端末装置20(サーバ装置30)のハードウェア構成の一例を模式的に示すブロック図である。なお、図3において、括弧内の参照符号は、後述するように各サーバ装置30に関連して記載されている。
3-1. Hardware Configuration of Terminal Device 20 A hardware configuration example of each terminal device 20 will be described with reference to FIG. FIG. 3 is a block diagram schematically showing an example of the hardware configuration of the terminal device 20 (server device 30) shown in FIG. In FIG. 3, reference numerals in parentheses are described in relation to each server device 30 as described later.

各端末装置20は、主に、中央処理装置21と、主記憶装置22と、入出力インタフェイス装置23と、入力装置24と、補助記憶装置25と、出力装置26と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。 Each terminal device 20 can mainly include a central processing unit 21, a main storage device 22, an input / output interface device 23, an input device 24, an auxiliary storage device 25, and an output device 26. .. These devices are connected by a data bus and / or a control bus.

中央処理装置21は、「CPU」と称されることがあり、主記憶装置22に記憶されている命令及びデータに対して演算を行い、その演算の結果を主記憶装置22に記憶させることができる。さらに、中央処理装置21は、入出力インタフェイス装置23を介して、入力装置24、補助記憶装置25及び出力装置26等を制御することができる。端末装置20は、1又はそれ以上のこのような中央処理装置21を含むことが可能である。 The central processing unit 21 is sometimes referred to as a "CPU", and can perform calculations on instructions and data stored in the main storage device 22 and store the results of the calculations in the main storage device 22. can. Further, the central processing unit 21 can control the input device 24, the auxiliary storage device 25, the output device 26, and the like via the input / output interface device 23. The terminal device 20 can include one or more such central processing units 21.

主記憶装置22は、「メモリ」と称されることがあり、入力装置24、補助記憶装置25及び通信網10等(サーバ装置30等)から、入出力インタフェイス装置23を介して受信した命令及びデータ、並びに、中央処理装置21の演算結果を記憶することができる。主記憶装置22は、RAM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシュメモリ等をこれらに限定することなく含むことができる。 The main storage device 22 is sometimes referred to as a “memory”, and is an instruction received from an input device 24, an auxiliary storage device 25, a communication network 10 or the like (server device 30 or the like) via an input / output interface device 23. And data, and the calculation result of the central processing apparatus 21 can be stored. The main storage device 22 can include RAM (random access memory), ROM (read-only memory) and / or flash memory without limitation.

補助記憶装置25は、主記憶装置22よりも大きな容量を有する記憶装置である。補助記憶装置25は、上記特定のアプリケーションやウェブブラウザ等を構成する命令及びデータ(コンピュータプログラム)を記憶しておき、中央処理装置21により制御されることにより、これらの命令及びデータ(コンピュータプログラム)を、入出力インタフェイス装置23を介して主記憶装置22に送信することができる。補助記憶装置25は、磁気ディスク装置及び/又は光ディスク装置等をこれらに限定することなく含むことができる。 The auxiliary storage device 25 is a storage device having a larger capacity than the main storage device 22. The auxiliary storage device 25 stores instructions and data (computer programs) that constitute the specific application, web browser, and the like, and is controlled by the central processing unit 21 to store these instructions and data (computer programs). Can be transmitted to the main storage device 22 via the input / output interface device 23. The auxiliary storage device 25 can include, but is not limited to, a magnetic disk device and / or an optical disk device.

入力装置24は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等をこれらに限定することなく含むことができる。センサは、後述するように、1又はそれ以上のカメラ等を含む第1種のセンサ、及び/又は、1又はそれ以上のマイク等を含む第2種のセンサをこれらに限定することなく含むことができる。 The input device 24 is a device that takes in data from the outside, and may include a touch panel, buttons, a keyboard, a mouse, and / or a sensor without limitation. As will be described later, the sensor includes, without limitation, a first-class sensor including one or more cameras and / or a second-class sensor including one or more microphones and the like. Can be done.

出力装置26は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができる。 The output device 26 can include, but is not limited to, a display device, a touch panel, and / or a printer device.

このようなハードウェア構成にあっては、中央処理装置21が、補助記憶装置25に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置22にロードし、ロードした命令及びデータを演算することができる。これにより、中央処理装置21は、入出力インタフェイス装置23を介して出力装置26を制御し、或いはまた、入出力インタフェイス装置23及び通信網10を介して、他の装置(例えばサーバ装置30及び他の端末装置20等)との間で様々な情報の送受信を行うことができる。これにより、端末装置20は、インストールされた特定のアプリケーションを実行することにより、図2を参照して上述した動作を実行することができる。 In such a hardware configuration, the central processing unit 21 sequentially loads and loads the instructions and data (computer programs) that constitute a specific application stored in the auxiliary storage device 25 into the main storage device 22. Instructions and data can be calculated. As a result, the central processing device 21 controls the output device 26 via the input / output interface device 23, or another device (for example, the server device 30) via the input / output interface device 23 and the communication network 10. And other terminal devices 20 and the like), various information can be transmitted and received. As a result, the terminal device 20 can execute the above-described operation with reference to FIG. 2 by executing the installed specific application.

なお、端末装置20は、中央処理装置21に代えて又は中央処理装置21とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むことができる。 The terminal device 20 may include one or more microprocessors and / or a graphics processing unit (GPU) in place of the central processing unit 21 or together with the central processing unit 21.

3−2.サーバ装置30のハードウェア構成
各サーバ装置30のハードウェア構成例について同じく図3を参照して説明する。各サーバ装置30のハードウェア構成は、例えば、上述した各端末装置20のハードウェア構成と同一とすることができる。したがって、各サーバ装置30が有する構成要素に対する参照符号は、図3において括弧内に示されている。
3-2. Hardware Configuration of Server Device 30 A hardware configuration example of each server device 30 will be described with reference to FIG. The hardware configuration of each server device 30 can be, for example, the same as the hardware configuration of each terminal device 20 described above. Therefore, reference numerals for the components of each server device 30 are shown in parentheses in FIG.

各サーバ装置30は、主に、中央処理装置31と、主記憶装置32と、入出力インタフェイス装置33と、入力装置34と、補助記憶装置35と、出力装置36と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。 Each server device 30 can mainly include a central processing unit 31, a main storage device 32, an input / output interface device 33, an input device 34, an auxiliary storage device 35, and an output device 36. .. These devices are connected by a data bus and / or a control bus.

中央処理装置31、主記憶装置32、入出力インタフェイス装置33、入力装置34、補助記憶装置35及び出力装置36は、それぞれ、上述した各端末装置20に含まれる、中央処理装置21、主記憶装置22、入出力インタフェイス装置23、入力装置24、補助記憶装置25及び出力装置26と略同一であり得る。 The central processing device 31, the main storage device 32, the input / output interface device 33, the input device 34, the auxiliary storage device 35, and the output device 36 are included in the terminal devices 20 described above, respectively. It can be substantially the same as the device 22, the input / output interface device 23, the input device 24, the auxiliary storage device 25, and the output device 26.

このようなハードウェア構成にあっては、中央処理装置31が、補助記憶装置35に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置32にロードし、ロードした命令及びデータを演算することができる。これにより、中央処理装置31は、入出力インタフェイス装置33を介して出力装置36を制御し、或いはまた、入出力インタフェイス装置33及び通信網10を介して、他の装置(例えば各端末装置20等)との間で様々な情報の送受信を行うことができる。 In such a hardware configuration, the central processing unit 31 sequentially loads and loads the instructions and data (computer programs) that constitute a specific application stored in the auxiliary storage device 35 into the main storage device 32. Instructions and data can be calculated. As a result, the central processing device 31 controls the output device 36 via the input / output interface device 33, or another device (for example, each terminal device) via the input / output interface device 33 and the communication network 10. Various information can be sent and received with (20 etc.).

これにより、サーバ装置30は、インストールされた特定のアプリケーションを実行してアプリケーションサーバ及び/又はウェブサーバとして機能することができる。これにより、サーバ装置30は、図2を参照して上述した動作を実行することができる。 As a result, the server device 30 can execute a specific installed application and function as an application server and / or a web server. As a result, the server device 30 can execute the above-described operation with reference to FIG.

なお、サーバ装置30は、中央処理装置31に代えて又は中央処理装置31とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むことができる。 The server device 30 may include one or more microprocessors and / or a graphics processing unit (GPU) in place of the central processing unit 31 or together with the central processing unit 31.

3−3.スタジオユニット40のハードウェア構成
スタジオユニット40は、パーソナルコンピュータ等の情報処理装置により実装可能である。スタジオユニット40は、図示はされていないが、上述した端末装置20及びサーバ装置30と同様に、主に、中央処理装置と、主記憶装置と、入出力インタフェイス装置と、入力装置と、補助記憶装置と、出力装置と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
3-3. Hardware Configuration of Studio Unit 40 The studio unit 40 can be mounted by an information processing device such as a personal computer. Although not shown, the studio unit 40 mainly includes a central processing unit, a main storage device, an input / output interface device, an input device, and an auxiliary device, similarly to the terminal device 20 and the server device 30 described above. A storage device and an output device can be included. These devices are connected by a data bus and / or a control bus.

スタジオユニット40は、インストールされた特定のアプリケーションを実行して情報処理装置として機能することができる。これにより、スタジオユニット40は、図2を参照して上述した動作を実行することができる。 The studio unit 40 can execute a specific installed application and function as an information processing device. As a result, the studio unit 40 can perform the above-described operation with reference to FIG.

なお、スタジオユニット40は、中央処理装置に代えて又は中央処理装置とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むことができる。 The studio unit 40 may include one or more microprocessors and / or a graphics processing unit (GPU) in place of or in combination with the central processing unit.

4.各装置の機能
次に、端末装置20、サーバ装置30及びスタジオユニット40の各々が有する機能の一例について説明する。
4. Functions of Each Device Next, an example of the functions of each of the terminal device 20, the server device 30, and the studio unit 40 will be described.

4−1.端末装置20の機能
図4は、図1に示した端末装置20(サーバ装置30)の機能の一例を模式的に示すブロック図である。図4に示すように、端末装置20は、記憶部100と、センサ部110と、動作情報取得部120と、位置情報取得部130と、部位位置情報算出部140と、身体位置情報算出部150と、変換部160と、動画生成部170と、表示部180と、ユーザインタフェイス部190と、通信部200と、を含むことができる。
4-1. Function of Terminal Device 20 FIG. 4 is a block diagram schematically showing an example of the function of the terminal device 20 (server device 30) shown in FIG. As shown in FIG. 4, the terminal device 20 includes a storage unit 100, a sensor unit 110, an operation information acquisition unit 120, a position information acquisition unit 130, a site position information calculation unit 140, and a body position information calculation unit 150. The conversion unit 160, the moving image generation unit 170, the display unit 180, the user interface unit 190, and the communication unit 200 can be included.

(1)記憶部100
画像の配信及び/又は画像の受信等に必要とされる例えば以下に示す情報を含む様々な情報を記憶することができる。
・演者に装着された第1センサ(例えば慣性センサ)から受信した動作情報
・演者に装着された第2センサ(例えば光学センサ)から受信した位置情報
・動作情報に基づいて算出された部位位置情報
・位置情報に基づいて算出された身体位置情報
・物理的な空間における座標から仮想的な空間における座標に変換された部位位置情報
・物理的な空間における座標から仮想的な空間における座標に変換された身体位置情報
・仮想的な空間における座標に変換された部位位置情報と、仮想的な空間における座標に変換された身体位置情報と、に基づいて生成された動画等
(1) Storage unit 100
It is possible to store various information including, for example, the following information required for image distribution and / or image reception.
-Operation information received from the first sensor (for example, inertial sensor) attached to the performer-Position information received from the second sensor (for example, optical sensor) attached to the performer-Part position information calculated based on the operation information -Body position information calculated based on position information-Part position information converted from coordinates in physical space to coordinates in virtual space-Converted from coordinates in physical space to coordinates in virtual space Body position information-Videos generated based on the part position information converted to coordinates in virtual space and the body position information converted to coordinates in virtual space, etc.

(2)センサ部110
センサ部110は、様々なタイプのカメラ及び/又はマイクロフォン等のセンサと、このようなセンサにより取得された情報を処理する少なくとも1つのプロセッサと、を含むことができる。センサ部110は、このセンサ部110に対向する演者の顔に関するデータ(画像及び/又は音声等)を取得して、さらにこのデータに対する情報処理を実行することが可能である。
(2) Sensor unit 110
The sensor unit 110 can include sensors such as various types of cameras and / or microphones and at least one processor that processes the information acquired by such sensors. The sensor unit 110 can acquire data (image and / or voice, etc.) about the face of the performer facing the sensor unit 110, and further execute information processing on this data.

具体的には、例えば、センサ部110は、まず、様々なタイプのカメラを用いて、単位時間ごとに演者の顔に関する画像データを取得することができる。ここで、単位時間は、ユーザ・演者等によりユーザインタフェイス部190を介して任意のタイミングにおいて任意の長さに設定・変更可能である。さらに、センサ部110は、このように取得した画像データを用いて、単位時間ごとに演者の顔における複数の部分の各々の位置を測定することができる。ここで、複数の部分とは、上記のとおり、右目、左目、右眉毛、左眉毛、鼻、口、右耳、左耳、顎、右頬、左頬、及び/又は、これらの部位のうちの何れかの部分における一部分等を、これらに限定することなく含むことができる。なお、カメラにより取得された画像データを用いて単位時間ごとに演者の顔における複数の部分の位置を測定する手法としては、当業者にとって周知である様々な手法を用いることが可能である。 Specifically, for example, the sensor unit 110 can first acquire image data regarding the performer's face for each unit time using various types of cameras. Here, the unit time can be set / changed to an arbitrary length at an arbitrary timing via the user interface unit 190 by the user, the performer, or the like. Further, the sensor unit 110 can measure the position of each of the plurality of parts on the performer's face every unit time by using the image data acquired in this way. Here, the plurality of parts are, as described above, the right eye, the left eye, the right eyebrow, the left eyebrow, the nose, the mouth, the right ear, the left ear, the chin, the right cheek, the left cheek, and / or among these parts. A part or the like in any part of the above can be included without limitation. As a method for measuring the positions of a plurality of parts on the performer's face every unit time using the image data acquired by the camera, various methods well known to those skilled in the art can be used.

例えば、1つの実施形態では、センサ部110は、センサとして、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラと、を含むことができる。このようなカメラとしては、例えばiphone X(登録商標)のトゥルーデプス(True Depth)カメラが利用可能である。なお、トゥルーデプス(True Depth)カメラとしては、https://developer.apple.com/documentation/arkit/arfaceanchorに開示されたカメラを利用することができる。このウェブサイトに記載された事項は、引用によりその全体が本明細書に組み入れられる。 For example, in one embodiment, the sensor unit 110 can include, as a sensor, an RGB camera that captures visible light and a near-infrared camera that captures near-infrared light. As such a camera, for example, a True Depth camera of iPhone X (registered trademark) can be used. As the True Depth camera, the camera disclosed at https://developer.apple.com/documentation/arkit/arfaceanchor can be used. The matters described on this website are incorporated herein by reference in their entirety.

RGBカメラに関して、センサ部110は、RGBカメラにより取得された画像をタイムコード(画像を取得した時間を示すコード)に対応付けて単位時間ごとに記録したデータを生成することができる。このデータは、例えばMPEGファイルであり得る。 Regarding the RGB camera, the sensor unit 110 can generate data recorded for each unit time by associating the image acquired by the RGB camera with a time code (a code indicating the time when the image was acquired). This data can be, for example, an MPEG file.

さらに、センサ部110は、近赤外線カメラにより取得された所定数(例えば51個)の深度を示す数値(例えば浮動小数点の数値)を上記タイムコードに対応付けて単位時間ごとに記録したデータを生成することができる。このデータは、例えばTSVファイルであり得る。ここで、TSVファイルとは、データ間をタブで区切って複数のデータを記録する形式のファイルである。 Further, the sensor unit 110 generates data recorded for each unit time by associating a numerical value (for example, a floating point numerical value) indicating a predetermined number (for example, 51) depths acquired by the near-infrared camera with the time code. can do. This data can be, for example, a TSV file. Here, the TSV file is a file in a format in which a plurality of data are recorded by separating the data with tabs.

近赤外線カメラに関して、具体的には、まず、ドットプロジェクタがドット(点)パターンを含む赤外線レーザーを演者の顔に放射することができる。さらに、近赤外線カメラが、演者の顔に投影され反射した赤外線ドットを捉え、このように捉えた赤外線ドットの画像を生成することができる。センサ部110は、予め登録されているドットプロジェクタにより放射されたドットパターンの画像と、近赤外線カメラにより捉えられた画像とを比較して、両画像における各ポイント(例えば51個のポイント・51個の部分の各々)における位置のずれを用いて各ポイント(各部分)の深度を算出することができる。ここで、各ポイント(各部分)の深度は、各ポイント(各部分)と近赤外線カメラとの間の距離であり得る。センサ部110は、このように算出された深度を示す数値を上記のようにタイムコードに対応付けて単位時間ごとに記録したデータを生成することができる。 Regarding the near-infrared camera, specifically, first, the dot projector can emit an infrared laser including a dot pattern to the performer's face. Further, the near-infrared camera can capture the infrared dots projected and reflected on the performer's face and generate an image of the infrared dots captured in this way. The sensor unit 110 compares the image of the dot pattern radiated by the pre-registered dot projector with the image captured by the near-infrared camera, and compares each point (for example, 51 points and 51 points) in both images. The depth of each point (each part) can be calculated by using the deviation of the position in each part). Here, the depth of each point (each part) can be the distance between each point (each part) and the near-infrared camera. The sensor unit 110 can generate data recorded for each unit time by associating the numerical value indicating the depth calculated in this way with the time code as described above.

これにより、センサ部110は、タイムコードに対応付けて、単位時間ごとに、MPEGファイル等の動画と、各部位の位置(座標等)とを、演者の顔に関するデータ(測定データ)として取得することができる。 As a result, the sensor unit 110 acquires a moving image such as an MPEG file and the position (coordinates, etc.) of each part as data (measurement data) related to the performer's face for each unit time in association with the time code. be able to.

Argumented Facesを利用することにより、センサ部110は、カメラにより撮像された画像を用いて、次に示す情報を単位時間ごとに取得することができる。
(1)演者の頭蓋骨の物理的な中心位置、
(2)演者の顔を構成する何百もの頂点を含み、上記中心位置に対して定義される顔メッシュ、及び、
(3)上記(1)及び(2)に基づいて識別された、演者の顔における複数の部分(例えば、右頬、左頬、鼻の頂点)の各々の位置(座標)
By using Argumented Faces, the sensor unit 110 can acquire the following information every unit time by using the image captured by the camera.
(1) Physical center position of the performer's skull,
(2) A face mesh that includes hundreds of vertices that make up the performer's face and is defined for the center position, and
(3) Positions (coordinates) of each of a plurality of parts (for example, right cheek, left cheek, and apex of nose) on the performer's face identified based on the above (1) and (2).

この技術を用いることにより、センサ部110は、単位時間ごとに、演者の顔における複数の部分の各々の位置(座標)を取得することができる。 By using this technique, the sensor unit 110 can acquire the positions (coordinates) of each of the plurality of parts on the performer's face for each unit time.

なお、センサ部110は、マイクロフォン等から出力された演者の発話及び/又は歌唱に関する音声データについては、このデータに対して周知の信号処理を行うことにより、音声信号を取得することができる。この音声信号は、例えばMPEGファイル等であってもよい。 The sensor unit 110 can acquire a voice signal by performing well-known signal processing on the voice data related to the utterance and / or singing of the performer output from the microphone or the like. This audio signal may be, for example, an MPEG file or the like.

(3)動作情報取得部120及び部位位置情報算出部140
スタジオ等の物理的な空間に居る演者の身体における複数の部位には、(図示しない)複数の第1センサ(例えば慣性センサ)が装着されている。なお、演者の身体における複数の部位は、例えば、頭、顎、右肩、右肘、右手首、右手の甲、右手の指、左肩、左肘、左手首、左手の甲、左手の指、右股関節、右膝、右足首、右足の甲、右足爪先、左股関節、左膝、左足首、左足の甲、左足爪先、背中及び腰等を含む複数の部位から選択され得る。これら複数の第1センサの各々は、3次元加速度計、3次元ジャイロスコープ及び3次元磁力計等のうちの少なくとも1つを含むことができる。複数の第1センサの各々は、単位時間ごとに、センサ信号(動作情報)を送信することができる。なお、複数の第1センサとしては、例えば、イクセンス社により提供される”MVN BIOMECH”(http://0c7.co.jp/products/xsens/products/mvn_biomech/)を利用することが可能である。上記ウェブサイトに開示された内容は、引用によりその全体が本明細書に組み入れられる。
(3) Operation information acquisition unit 120 and site position information calculation unit 140
A plurality of first sensors (for example, inertial sensors) (not shown) are attached to a plurality of parts of the performer's body in a physical space such as a studio. The multiple parts of the performer's body include, for example, the head, jaw, right shoulder, right elbow, right wrist, back of right hand, finger of right hand, left shoulder, left elbow, left wrist, back of left hand, finger of left hand, and right hip joint. , Right knee, right ankle, right instep, right toe, left hip, left knee, left ankle, left instep, left toe, back and hips, etc. can be selected from multiple sites. Each of these plurality of first sensors can include at least one of a three-dimensional accelerometer, a three-dimensional gyroscope, a three-dimensional magnetic field meter, and the like. Each of the plurality of first sensors can transmit a sensor signal (operation information) for each unit time. As a plurality of first sensors, for example, "MVN BIOMECH" (http://0c7.co.jp/products/xsens/products/mvn_biomech/) provided by Ixens can be used. .. The entire content disclosed on the above website is incorporated herein by reference in its entirety.

動作情報取得部120は、複数の第1センサの各々により送信されたセンサ信号(動作情報)を取得することができる。 The operation information acquisition unit 120 can acquire sensor signals (operation information) transmitted by each of the plurality of first sensors.

部位位置情報算出部140は、動作情報取得部120により取得された、複数の第1センサの各々のセンサ情報に基づいて、複数の第1センサ(すなわち身体における複数の部位)の各々の位置情報(及び向き等)を算出することができる。なお、各第1センサから受信したセンサ情報に基づいてそのセンサの位置情報を取得する手法としては、例えば、特開2017−511906号公報、特表2013−500812号公報及び特許第5388473号公報に記載されている周知の手法を用いることが可能である。なお、これらの文献は、引用によりそれらの全体が本明細書に組み入れられる。 The part position information calculation unit 140 is based on the sensor information of each of the plurality of first sensors acquired by the operation information acquisition unit 120, and the position information of each of the plurality of first sensors (that is, a plurality of parts in the body). (And orientation, etc.) can be calculated. As a method for acquiring the position information of the sensor based on the sensor information received from each first sensor, for example, Japanese Patent Application Laid-Open No. 2017-511906, Japanese Patent Application Laid-Open No. 2013-500812 and Japanese Patent No. 5388473 It is possible to use the well-known methods described. It should be noted that these documents are incorporated herein by reference in their entirety.

(4)位置情報取得部130及び身体位置情報算出部150
スタジオ等の物理的な空間に居る演者の身体におけるいずれかの部位(例えば背中)には、(図示しない)少なくとも1つの第2センサ(例えば光学センサ)が装着されている。また、スタジオ等の物理的な空間に居る演者の近くには、図示しない2つのベースステーション(第1ベースステーション及び第2ベースステーション)が設置され得る。
(4) Position information acquisition unit 130 and body position information calculation unit 150
At least one second sensor (for example, an optical sensor) (not shown) is attached to any part (for example, the back) of the performer's body in a physical space such as a studio. Further, two base stations (first base station and second base station) (not shown) may be installed near the performer in a physical space such as a studio.

第1ベースステーション及び第2ベースステーションは、例えば、多軸レーザーエミッターであり得る。第1ベースステーションは、例えば、同期用の点滅光を発した後に、鉛直軸の周りにレーザー光を走査することができる。第2ベースステーションは、例えば、同期用の点滅光を発した後に、水平軸の周りにレーザー光を走査することができる。 The first base station and the second base station can be, for example, a multi-axis laser emitter. The first base station can, for example, emit a flashing light for synchronization and then scan the laser light around the vertical axis. The second base station can, for example, emit a flashing light for synchronization and then scan the laser light around the horizontal axis.

第2センサは、第1ベースステーション及び第2ベースステーションからの点滅光及びレーザー光の入射を検知することができる。さらに、第2センサは、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、この第2センサでの受光時間、この第2センサが検知したレーザー光の入射角度等に基づいて、この第2センサの位置情報(及び向き等)を検出することができる。さらにまた、第2センサは、単位時間ごとに、この第2センサが検出した位置情報を送信することができる。位置情報取得部130は、このように第2センサにより単位時間ごとに送信された位置情報を取得することができる。 The second sensor can detect the incident of blinking light and laser light from the first base station and the second base station. Further, the second sensor is based on the time difference between the incident timing of the blinking light and the incident timing of the laser light, the light receiving time by the second sensor, the incident angle of the laser light detected by the second sensor, and the like. 2 The position information (and orientation, etc.) of the sensor can be detected. Furthermore, the second sensor can transmit the position information detected by the second sensor every unit time. The position information acquisition unit 130 can acquire the position information transmitted by the second sensor every unit time in this way.

なお、このような第2センサ、並びに、第1ベースステーション及び第2ベースステーションとしては、例えば、HTC社により提供される”HTC VIVE”を利用することができる。上記ウェブサイトに開示された内容は、引用によりその全体が本明細書に組み入れられる。 As such a second sensor, a first base station, and a second base station, for example, "HTC VIVE" provided by HTC can be used. The entire content disclosed on the above website is incorporated herein by reference in its entirety.

身体位置情報算出部150は、位置情報取得部130により取得された第2センサの位置情報に基づいて、身体の位置情報を算出することができる。なお、身体の位置情報の算出手法については、図6を参照して後述する。 The body position information calculation unit 150 can calculate the body position information based on the position information of the second sensor acquired by the position information acquisition unit 130. The method of calculating the position information of the body will be described later with reference to FIG.

(5)変換部160
変換部160は、部位位置情報算出部140により算出された、複数の第1センサの各々の位置情報を、物理的な空間における座標から仮想的な空間における座標に変換することができる。さらに、変換部160は、身体位置情報算出部150により算出された、第2センサの位置情報を、物理的な空間における座標から仮想的な空間における座標に変換することができる。なお、物理的な空間とは、演者が存在する空間(例えばスタジオ等)における座標である。また、仮想的な空間とは、演者のアバターが存在する空間における座標である。
(5) Conversion unit 160
The conversion unit 160 can convert the position information of each of the plurality of first sensors calculated by the site position information calculation unit 140 from the coordinates in the physical space to the coordinates in the virtual space. Further, the conversion unit 160 can convert the position information of the second sensor calculated by the body position information calculation unit 150 from the coordinates in the physical space to the coordinates in the virtual space. The physical space is the coordinates in the space where the performer exists (for example, a studio). The virtual space is the coordinates in the space where the performer's avatar exists.

(6)動画生成部170
動画生成部170は、例えば、以下の情報を用いて、演者の身体の動作に追従したアバターのアニメーションを含む動画を生成することができる。
・センサ部110により取得された演者の身体に関するデータ(測定データ)
・部位位置情報算出部140により算出された複数の第1センサ(身体における複数の部位)の各々の位置情報
・身体位置情報算出部150により算出された身体の位置情報
(6) Video generator 170
For example, the moving image generation unit 170 can generate a moving image including an animation of an avatar that follows the movement of the performer's body by using the following information.
-Data (measurement data) related to the performer's body acquired by the sensor unit 110
-Position information of each of a plurality of first sensors (plural parts in the body) calculated by the site position information calculation unit 140-Body position information calculated by the body position information calculation unit 150

例えば、動画生成部170は、演者の身体の動作に追従して、例えば、アバターが以下の動作を行うような動画を生成することができる。
・アバターが真顔を維持して瞬きを行うこと
・アバターが真顔を維持して俯くこと
・アバターが口や目を動作させること
・アバターが仮想空間において移動すること
・アバターが身体における複数の部位を動作させること
For example, the moving image generation unit 170 can generate a moving image in which the avatar performs the following movements, for example, following the movement of the performer's body.
・ Avatar keeps a straight face and blinks ・ Avatar keeps a straight face and looks down ・ Avatar moves mouth and eyes ・ Avatar moves in virtual space ・ Avatar moves multiple parts of the body To work

このような動画の生成は、動画生成部170が、例えば以下の処理等を行うことにより実現可能である。
・センサ部110により取得された演者の身体に関する測定データ(顔における複数の部分の各々の座標)に基づいて、アバターの顔を描画する処理
・身体位置情報算出部150により算出された身体の位置情報に基づいて定められる座標に、アバターを描画する処理
・部位位置情報算出部140により算出された各第1センサの位置情報に基づいて定められる座標に、その第1センサに対応する部位を描画する処理
また、このような動画の生成は、当業者にとって周知である様々なレンダリング技術を用いることによって実現可能である。
Such generation of moving images can be realized by the moving image generation unit 170 performing, for example, the following processing.
-Process of drawing the face of the avatar based on the measurement data (coordinates of each of the plurality of parts in the face) about the performer's body acquired by the sensor unit 110-The position of the body calculated by the body position information calculation unit 150. Processing to draw an avatar at the coordinates determined based on the information-Draw the part corresponding to the first sensor at the coordinates determined based on the position information of each first sensor calculated by the part position information calculation unit 140. Further, the generation of such a moving image can be realized by using various rendering techniques well known to those skilled in the art.

このように動画生成部170により生成された動画を格納したファイルは、記憶部100に記憶され得る。 The file storing the moving image generated by the moving image generation unit 170 in this way can be stored in the storage unit 100.

(7)表示部180
表示部180は、例えば、タッチパネル及び/又はディスプレイパネル等を含むことができる。このような表示部180は、動画生成部170により生成され記憶部100により記憶された動画を格納したファイルを再生して表示することができる。
(7) Display unit 180
The display unit 180 may include, for example, a touch panel and / or a display panel. Such a display unit 180 can reproduce and display a file in which a moving image generated by the moving image generation unit 170 and stored by the storage unit 100 is stored.

(8)ユーザインタフェイス部190
ユーザインタフェイス部190は、タッチパネル、マウス及び/又はキーボード等を含むことができる。このようなユーザインタフェイス部190は、演者により行われた操作の内容を示す情報を生成することができる。
(8) User interface unit 190
The user interface unit 190 can include a touch panel, a mouse and / or a keyboard and the like. Such a user interface unit 190 can generate information indicating the content of the operation performed by the performer.

(9)通信部200
通信部200は、動画の配信及び/又は動画の受信に必要とされる様々な情報を、通信網10を介してサーバ装置30との間で通信することができる。特に、当該端末装置20が演者(配信者)の端末装置20として動作する場合には、通信部200は、記憶部100に記憶された動画を、サーバ装置30に送信することができる。当該端末装置20が視聴者の端末装置20として動作する場合には、通信部200は、配信者の端末装置20により配信された動画を、サーバ装置30を介して受信することができる。
(9) Communication unit 200
The communication unit 200 can communicate various information required for the distribution of the moving image and / or the reception of the moving image with the server device 30 via the communication network 10. In particular, when the terminal device 20 operates as the terminal device 20 of the performer (distributor), the communication unit 200 can transmit the moving image stored in the storage unit 100 to the server device 30. When the terminal device 20 operates as the viewer's terminal device 20, the communication unit 200 can receive the moving image delivered by the distributor's terminal device 20 via the server device 30.

4−2.サーバ装置30の機能及びスタジオユニット40の機能
サーバ装置30の機能の一例について同じく図4を参照して説明する。サーバ装置30の機能としては、例えば、上述した端末装置20の機能の少なくとも一部を用いることが可能である。したがって、サーバ装置30が有する構成要素に対する参照符号は、図4において括弧内に示されている。また、スタジオユニットは、図4に示した端末装置20又はサーバ装置30と同様の構成を有することにより、端末装置20又はサーバ装置30と同様の動作を行うことが可能である。
4-2. Function of Server Device 30 and Function of Studio Unit 40 An example of the function of the server device 30 will be described with reference to FIG. As the function of the server device 30, for example, at least a part of the functions of the terminal device 20 described above can be used. Therefore, reference numerals for the components of the server device 30 are shown in parentheses in FIG. Further, since the studio unit has the same configuration as the terminal device 20 or the server device 30 shown in FIG. 4, it is possible to perform the same operation as the terminal device 20 or the server device 30.

5.通信システム1により行われる動作
次に、上述した通信システム1により行われる動作の一例について、図5を参照して説明する。図5は、図1に示した通信システム1により行われる動作の一例を示すフロー図である。
5. Operations Performed by Communication System 1 Next, an example of operations performed by the communication system 1 described above will be described with reference to FIG. FIG. 5 is a flow chart showing an example of the operation performed by the communication system 1 shown in FIG.

5−1.全体の動作
図5に示すように、まず、ステップ(以下「ST」という。)402において、配信装置は、例えば単位時間ごとに、測定データ、動作情報及び位置情報を取得することができる。配信装置は、このように取得した測定データ、動作情報及び/又は位置情報を、記憶部100(200)に記憶させるようにしてもよい。なお、測定データは、センサ部110(210)により取得され得る。動作情報及び位置情報は、それぞれ、動作情報取得部120(220)及び位置情報取得部130(230)により取得され得る。なお、ST402において行われる動作は、図2に示した動作(A)に含まれ得る。
5-1. Overall Operation As shown in FIG. 5, first, in step (hereinafter referred to as “ST”) 402, the distribution device can acquire measurement data, operation information, and position information, for example, for each unit time. The distribution device may store the measurement data, the operation information, and / or the position information acquired in this way in the storage unit 100 (200). The measurement data can be acquired by the sensor unit 110 (210). The operation information and the position information can be acquired by the operation information acquisition unit 120 (220) and the position information acquisition unit 130 (230), respectively. The operation performed in ST402 can be included in the operation (A) shown in FIG.

ST404において、配信装置(の部位位置情報算出部140(240))は、ST402において取得された動作情報に基づいて、物理的な空間における各部位の位置情報を算出することができる。なお、ST404において行われる動作は、図2に示した動作(B)に含まれ得る。 In ST404, the distribution device (part position information calculation unit 140 (240)) can calculate the position information of each part in the physical space based on the operation information acquired in ST402. The operation performed in ST404 can be included in the operation (B) shown in FIG.

ST406において、配信装置(の身体位置情報算出部150(250))は、ST402において取得された位置情報に基づいて、物理的な空間における身体の位置情報を算出することができる。ST406において行われる具体的な処理については、図6を参照して後述する。なお、ST406において行われる動作は、図2に示した動作(B)に含まれ得る。 In ST406, the distribution device (body position information calculation unit 150 (250)) can calculate the position information of the body in the physical space based on the position information acquired in ST402. The specific processing performed in ST406 will be described later with reference to FIG. The operation performed in ST406 can be included in the operation (B) shown in FIG.

ST408において、配信装置(の部位位置情報算出部140(240))は、ST404において算出された各部位の位置情報を、物理的な空間における3次元座標から、仮想的な空間における3次元座標に変換することができる。演者が演技を行う物理的な空間(例えばスタジオ等)のサイズと、アバターが配置される仮想的な空間のサイズとは、同一ではないため、このような物理的な空間における3次元座標から仮想的な空間(例えばカラオケボックスの部屋等)における3次元座標に対する位置情報の変換が行われる。なお、ST408において行われる動作は、図2に示した動作(C)に含まれ得る。 In ST408, the distribution device (part position information calculation unit 140 (240)) changes the position information of each part calculated in ST404 from the three-dimensional coordinates in the physical space to the three-dimensional coordinates in the virtual space. Can be converted. Since the size of the physical space in which the performer performs (for example, a studio) and the size of the virtual space in which the avatar is placed are not the same, they are virtual from the three-dimensional coordinates in such a physical space. Position information is converted to three-dimensional coordinates in a typical space (for example, a room of a karaoke box). The operation performed in ST408 may be included in the operation (C) shown in FIG.

ST410において、配信装置(の身体位置情報算出部150(250))は、ST406において算出された身体の位置情報を、物理的な空間における3次元座標から、仮想的な空間における3次元座標に変換することができる。演者が演技を行う物理的な空間(例えばスタジオ等)のサイズと、アバターが配置される仮想的な空間(例えばカラオケボックスの部屋等)のサイズとは、同一ではないため、このような物理的な空間における3次元座標から仮想的な空間における3次元座標に対する位置情報の変換が行われる。なお、ST410において行われる動作は、図2に示した動作(C)に含まれ得る。 In ST410, the distribution device (body position information calculation unit 150 (250)) converts the body position information calculated in ST406 from three-dimensional coordinates in physical space to three-dimensional coordinates in virtual space. can do. Since the size of the physical space in which the performer performs (for example, a studio) and the size of the virtual space in which the avatar is placed (for example, a karaoke box room) are not the same, such physical The position information is converted from the three-dimensional coordinates in the space to the three-dimensional coordinates in the virtual space. The operation performed in ST410 can be included in the operation (C) shown in FIG.

ST412において、配信装置(の動画生成部170(270))は、ST402において取得された測定データと、ST408において仮想的な空間における3次元座標に変換された各部位の位置情報と、ST410において仮想的な空間における3次元座標に変換された身体の位置情報と、を含む情報等に基づいて、アバターのアニメーションを含む動画を生成することができる。さらに、配信装置(の通信部200(300))は、このように生成された動画をサーバ装置30に送信することができる。これにより、各視聴者の端末装置20は、ST414において生成された動画を、サーバ装置30を介して受信することができる。なお、ST412において行われる動作は、図2に示した動作(D)に含まれ得る。 In ST412, the distribution device (the moving image generation unit 170 (270)) receives the measurement data acquired in ST402, the position information of each part converted into three-dimensional coordinates in the virtual space in ST408, and the virtual in ST410. It is possible to generate a moving image including an animation of an avatar based on the position information of the body converted into three-dimensional coordinates in a typical space and the information including the information. Further, the distribution device (communication unit 200 (300)) can transmit the moving image generated in this way to the server device 30. As a result, the terminal device 20 of each viewer can receive the moving image generated in ST414 via the server device 30. The operation performed in ST412 can be included in the operation (D) shown in FIG.

ST414において、配信装置及び各視聴者の端末装置20は、ST414において生成された動画を再生及び表示することができる。なお、ST414において行われる動作は、図2に示した動作(E)に含まれ得る。 In ST414, the distribution device and the terminal device 20 of each viewer can play and display the moving image generated in ST414. The operation performed in ST414 may be included in the operation (E) shown in FIG.

ST416において、配信装置は、処理を継続するか否かを判定することができる。処理の継続が判定された場合には、処理は上述したST402に戻る。一方、処理の中止が判定された場合には、処理は終了する。 In ST416, the distribution device can determine whether or not to continue the process. If it is determined that the process is to be continued, the process returns to ST402 described above. On the other hand, when it is determined that the processing is stopped, the processing ends.

なお、図5に示した各ステップにおける処理は、別のステップにおける処理と少なくとも部分的に並行して実行されるものであってもよい。例えば、ST402において、配信装置が、単位時間ごとに、測定データ、動作情報及び位置情報を取得することに並行して、配信装置は、ST404〜ST414のそれぞれにおける動作を実行し、かつ、各視聴者の端末装置20はST414における動作を実行することができる。 The process in each step shown in FIG. 5 may be executed at least partially in parallel with the process in another step. For example, in ST402, in parallel with the distribution device acquiring measurement data, operation information, and position information every unit time, the distribution device executes the operations in each of ST404 to ST414, and each viewing The terminal device 20 of the user can execute the operation in ST414.

5−2.身体位置情報算出部150(250)により実行される処理の具体例
次に、上述したST406において身体位置情報算出部150(250)により行われる具体的な処理の一例について、図6を参照して説明する。図6は、図1に示した通信システム1において身体位置情報算出部150(250)により行われる動作の一例を示すフロー図である。
5-2. Specific Example of Processing Performed by Body Position Information Calculation Unit 150 (250) Next, refer to FIG. 6 for an example of specific processing performed by the body position information calculation unit 150 (250) in ST406 described above. explain. FIG. 6 is a flow chart showing an example of an operation performed by the body position information calculation unit 150 (250) in the communication system 1 shown in FIG.

図6を参照すると、ST502において、配信装置は、第1単位時間ごとにST402において取得した位置情報に対して前処理を実行することができる。前処理には、ST402において取得した位置情報を、所定の原点(所定の座標)を基準とした位置情報に変換する処理、及び/又は、ST402において取得した位置情報を、所定の桁数に収める処理等が、含まれ得る。 Referring to FIG. 6, in ST502, the distribution device can execute preprocessing on the position information acquired in ST402 every first unit time. In the pre-processing, the process of converting the position information acquired in ST402 into the position information based on the predetermined origin (predetermined coordinates) and / or the position information acquired in ST402 is stored in a predetermined number of digits. Processing etc. may be included.

ST504において、配信装置は、前回の第1単位時間(以下「前第1単位時間」という)において取得した位置情報と、現在の第1単位時間(以下「現第1単位時間」という)において取得した位置情報と、の間における変化量を算出することができる。 In ST504, the distribution device acquires the position information acquired in the previous first unit time (hereinafter referred to as "previous first unit time") and the current first unit time (hereinafter referred to as "current first unit time"). It is possible to calculate the amount of change between the obtained position information and the obtained position information.

ST506において、配信装置は、ST504において算出した変化量が閾値を上回るか否かを判定することができる。ST506において変化量が閾値以下であると判定された場合には、ST508において、配信装置は、現第1単位時間において取得した位置情報を有効な位置情報として決定することができる。かかる有効な位置情報は、上述したST410において用いられる。この後、処理は上述したST502に戻る。 In ST506, the distribution device can determine whether or not the amount of change calculated in ST504 exceeds the threshold value. When it is determined in ST506 that the amount of change is equal to or less than the threshold value, in ST508, the distribution device can determine the position information acquired in the current first unit time as effective position information. Such effective position information is used in ST410 described above. After this, the process returns to ST502 described above.

一方、ST506において変化量が閾値を上回ると判定された場合には、処理はST510に移行する。なお、このように変化量が閾値を上回る現象は、第1ベースステーション及び/又は第2ベースステーションにより発せられた点滅光又は他の光が、何らかの物体に反射して、配信者に装着された第2センサに入射したこと等(これに限られない)に起因して生ずることが考えられる。 On the other hand, when it is determined in ST506 that the amount of change exceeds the threshold value, the process shifts to ST510. In this phenomenon, the amount of change exceeds the threshold value, the blinking light or other light emitted by the first base station and / or the second base station is reflected by some object and attached to the distributor. It is conceivable that this occurs due to (not limited to) incident on the second sensor.

ST510において、配信装置は、現第1単位時間において取得した位置情報を破棄することができる。ST512において、配信装置は、上述したST502におけるものと同様の処理を実行することができる。ST514において、配信装置は、新たな前第1単位時間(これまでに用いた前第1単位時間とは異なる前第1単位時間)において取得した位置情報と、新たな現第1単位時間(これまでに用いた現第1単位時間とは異なる現第1単位時間)において取得した位置情報と、の間における変化量を算出することができる。 In ST510, the distribution device can discard the position information acquired in the current first unit time. In ST512, the distribution device can perform the same processing as in ST502 described above. In ST514, the distribution device receives the position information acquired in the new first unit time before (the first unit time before different from the first unit time used so far) and the new current first unit time (this). It is possible to calculate the amount of change between the position information acquired in the current 1st unit time different from the current 1st unit time used up to now) and the current 1st unit time.

ST516において、配信装置は、ST504において算出した変化量が閾値を上回るか否かを判定することができる。ST516において変化量が閾値以下であると判定された場合には、ST518において、配信装置は、現第1単位時間(ST514における新たな現第1単位時間と同一)において取得した位置情報を有効な位置情報として決定することができる。かかる有効な位置情報は、上述したST410において用いられる。この後、処理は上述したST502に戻る。 In ST516, the distribution device can determine whether or not the amount of change calculated in ST504 exceeds the threshold value. When it is determined in ST516 that the amount of change is less than or equal to the threshold value, in ST518, the distribution device validly uses the position information acquired in the current first unit time (same as the new current first unit time in ST514). It can be determined as position information. Such effective position information is used in ST410 described above. After this, the process returns to ST502 described above.

一方、ST516において変化量が閾値を上回ると判定された場合には、処理は上述したST510に戻る。 On the other hand, when it is determined in ST516 that the amount of change exceeds the threshold value, the process returns to ST510 described above.

図6に示した処理によれば、配信装置は、前第1単位時間において取得した位置情報と現第1単位時間において取得した位置情報との間における変化量が閾値以下である場合には、当該現第1単位時間において取得した位置情報を有効な位置情報として使用することができる。 According to the process shown in FIG. 6, when the amount of change between the position information acquired in the previous first unit time and the position information acquired in the current first unit time is equal to or less than the threshold value, the distribution device The position information acquired in the current first unit time can be used as effective position information.

一方、上記変化量が上記閾値を上回る場合には、配信装置は、当該現第1単位時間において取得した位置情報を廃棄することができる。この後、配信装置は、新たな前第1単位時間において取得した位置情報と、新たな現第1単位時間において取得した位置情報との間における変化量が閾値以下となるまで、そのような新たな現単位時間において取得した位置情報を破棄し続ける。さらに、上記変化量が上記閾値以下となった時点において、配信装置は、そのような時点における現第1単位時間において取得した位置情報を有効な位置情報として使用することができる。これにより、配信装置は、光の反射等に起因して第2センサから受信した位置情報に誤りが存在する場合には、そのような位置情報を破棄し続け、その後に第2センサから取得した適切な位置情報を、有効な位置情報として利用することができる。 On the other hand, when the amount of change exceeds the threshold value, the distribution device can discard the position information acquired in the current first unit time. After that, the distribution device makes such a new position until the amount of change between the position information acquired in the new previous first unit time and the position information acquired in the new current first unit time becomes equal to or less than the threshold value. Continue to discard the location information acquired in the current unit time. Further, when the amount of change becomes equal to or less than the threshold value, the distribution device can use the position information acquired in the current first unit time at such a time point as effective position information. As a result, if there is an error in the position information received from the second sensor due to light reflection or the like, the distribution device continues to discard such position information, and then acquires it from the second sensor. Appropriate location information can be used as valid location information.

なお、図6に示した例では、配信装置が第2センサから位置情報を取得する時間におけるインターバル(ST502、ST512)と、配信装置が変化量を取得するために用いる2つの位置情報の間におけるインターバル(ST504、ST514)とが、同一(第1単位時間ごと)である場合について説明した。しかし、図7に例示するように、配信装置が変化量を取得するために用いる2つの位置情報の間におけるインターバル(ST604、ST614)を、配信装置が第2センサから位置情報を取得する時間におけるインターバル(ST602、ST612)より長くすることも可能である。すなわち、図7において、第2単位時間を第1単位時間よりも長くすることが可能である。なお、図7に示した例における動作は、第1単位時間と第2単位時間とを組み合わせて用いる点を除き、図6に示した例における動作と同様である。 In the example shown in FIG. 6, between the interval (ST502, ST512) in the time when the distribution device acquires the position information from the second sensor and the two position information used by the distribution device to acquire the change amount. The case where the intervals (ST504, ST514) are the same (every first unit time) has been described. However, as illustrated in FIG. 7, the interval (ST604, ST614) between the two position information used by the distribution device to acquire the amount of change is set at the time when the distribution device acquires the position information from the second sensor. It is also possible to make it longer than the interval (ST602, ST612). That is, in FIG. 7, the second unit time can be made longer than the first unit time. The operation in the example shown in FIG. 7 is the same as the operation in the example shown in FIG. 6 except that the first unit time and the second unit time are used in combination.

6.変形例
図5に示したST404において配信装置が算出する各部位の位置情報は、用いられる第1センサの性能等によっては、時間の経過とともに、生じた誤差を蓄積していくことにより、大きな誤差を含む可能性が考えられる。このような問題に対処するために、配信装置は、ST404において算出した各部位の位置情報を、所定のタイミング(例えば周期的に)において、補正することができる。
6. Modification example The position information of each part calculated by the distribution device in ST404 shown in FIG. 5 has a large error due to the accumulation of errors that occur over time, depending on the performance of the first sensor used. May be included. In order to deal with such a problem, the distribution device can correct the position information of each part calculated in ST404 at a predetermined timing (for example, periodically).

例えば、配信装置は、ST406において取得した「有効な位置情報」に基づいて、ST404において算出した各部位の位置情報を補正することができる。具体的には、第1の方法では、配信装置は、ST406において有効な位置情報として取得した身体の位置情報が、前回有効な位置情報として取得した身体の位置情報から、例えば、(Δx、Δy、Δz)だけシフトしている場合には、ST404において取得した各部位の位置情報を、相対的に、(Δx、Δy、Δz)又は(k1・Δx、k2・Δy、k3・Δz)だけシフトすることができる。ここで、k1、k2及びk3は、それぞれ、任意の係数である。 For example, the distribution device can correct the position information of each part calculated in ST404 based on the "valid position information" acquired in ST406. Specifically, in the first method, in the distribution device, the body position information acquired as valid position information in ST406 is, for example, (Δx, Δy) from the body position information acquired as valid position information last time. , Δz), the position information of each part acquired in ST404 is relatively shifted by (Δx, Δy, Δz) or (k1 · Δx, k2 · Δy, k3 · Δz). can do. Here, k1, k2, and k3 are arbitrary coefficients, respectively.

また、図6及び図7に示した例において、第1単位時間及び/又は第2単位時間は、任意のタイミングで変更可能な単位時間であり得る。 Further, in the examples shown in FIGS. 6 and 7, the first unit time and / or the second unit time may be a unit time that can be changed at an arbitrary timing.

さらに、上述した様々な実施形態では、第1センサ及び第2センサとして、それぞれ、慣性センサ及び光学センサを用いる場合について説明した。しかし、相互に異なる第1センサ及び第2センサの各々は、周知である、光学(式)センサ、慣性(式)センサ、磁気(式)センサ及び機械(式)センサを含む様々なセンサから選択され得る。このような場合にも、第2センサからの位置情報を用いて算出された位置情報としては、単位時間当たりの変化量が閾値以下である位置情報のみが、有効な位置情報として用いられる。これにより、第2センサからの位置情報を用いて算出された位置情報のうち、一定の大きさを超える誤差を有する位置情報は、破棄される。したがって、配信者の身体の位置を向上した精度により検出することが可能である。さらに、このような第2センサからの位置情報を用いて算出された位置情報の単位時間当たりの変化量に基づいて、複数の第1センサ(複数の部位)の各々から受信した動作情報を用いて算出された位置情報を補正することができる。これにより、各第1センサが装着された部位の位置情報についても、向上した精度により検出することができる。 Further, in the various embodiments described above, cases where an inertial sensor and an optical sensor are used as the first sensor and the second sensor, respectively, have been described. However, each of the different first and second sensors can be selected from a variety of well-known sensors, including optical (formula) sensors, inertial (formula) sensors, magnetic (formula) sensors and mechanical (formula) sensors. Can be done. Even in such a case, as the position information calculated using the position information from the second sensor, only the position information in which the amount of change per unit time is equal to or less than the threshold value is used as effective position information. As a result, among the position information calculated using the position information from the second sensor, the position information having an error exceeding a certain magnitude is discarded. Therefore, it is possible to detect the position of the distributor's body with improved accuracy. Further, based on the amount of change in the position information per unit time calculated using the position information from the second sensor, the operation information received from each of the plurality of first sensors (plural parts) is used. The position information calculated in the above can be corrected. As a result, the position information of the portion where each first sensor is attached can also be detected with improved accuracy.

さらにまた、図6及び図7に示した例では、配信装置が、図2に示した動作(A)〜動作(E)を実行し、各視聴者の端末装置20が動作(E)を実行する場合(図2における態様(1)に対応する場合)について説明した。しかし、動作(A)〜動作(E)は、図2における態様(2)〜態様(5)に示すように、複数の装置により分担して実行されるようにしてもよい。 Furthermore, in the examples shown in FIGS. 6 and 7, the distribution device executes the operations (A) to (E) shown in FIG. 2, and the terminal device 20 of each viewer executes the operation (E). (The case corresponding to the aspect (1) in FIG. 2) has been described. However, the operations (A) to (E) may be shared and executed by a plurality of devices as shown in the aspects (2) to (5) in FIG.

この場合、隣接する2つの動作が相互に異なる装置により実行される場合には、これら2つの動作のうち先に生ずる動作を実行する装置は、その動作により得られた情報等を、後に生ずる動作を実行する装置に対して送信する必要がある。 In this case, when two adjacent operations are executed by devices that are different from each other, the device that executes the operation that occurs first of these two operations obtains information or the like obtained by the operation, and the operation that occurs later. Must be sent to the device that runs.

例えば、態様(2)の経路(2B)に着目すると、配信装置は、動作(A)により得られた動作情報及び位置情報(測定データ)を、動作(B)を実行するサーバ装置に送信する必要がある。同様に、サーバ装置は、動作(D)により得られた動画を、各視聴者の端末装置に送信する必要がある。 For example, focusing on the route (2B) of the aspect (2), the distribution device transmits the operation information and the position information (measurement data) obtained by the operation (A) to the server device that executes the operation (B). There is a need. Similarly, the server device needs to transmit the moving image obtained by the operation (D) to the terminal device of each viewer.

別の例として、態様(5)の経路(5B)に着目すると、配信装置は、動作(A)により得られた動作情報及び位置情報(測定データ)を、例えばサーバ装置を介して、各視聴者の端末装置に送信する必要がある。 As another example, focusing on the route (5B) of the aspect (5), the distribution device views the operation information and the position information (measurement data) obtained by the operation (A), for example, via the server device. It is necessary to send to the terminal device of the person.

なお、図2に示された、態様(3)の経路(3B)、態様(4)の経路(4B)及び態様(5)の経路(5B)においては、各視聴者の端末装置は、配信装置により生成された動画を表示するのではなく、その視聴者の端末装置自体により生成(描画)された動画を表示することができる(この方式は、視聴者の端末装置(クライアント)がレンダリング(描画)を行うことから、「クライアントレンダリング」といわれることがある)。これにより、各視聴者の端末装置は、一般的に大きな容量を有する動画を受信する必要がないため、より高速に、配信者のアバターのアニメーションを含む動画を表示することができる。すなわち、配信装置により表示される動画と、各視聴者の端末装置により表示される動画との間における時間差を、大幅に抑えることが可能である。 In the route (3B) of the aspect (3), the route (4B) of the aspect (4), and the route (5B) of the aspect (5) shown in FIG. 2, the terminal device of each viewer delivers. Instead of displaying the video generated by the device, the video generated (drawn) by the viewer's terminal device itself can be displayed (in this method, the viewer's terminal device (client) renders (this method). It is sometimes called "client rendering" because it performs drawing). As a result, the terminal device of each viewer generally does not need to receive the moving image having a large capacity, so that the moving image including the animation of the distributor's avatar can be displayed at a higher speed. That is, it is possible to significantly suppress the time difference between the moving image displayed by the distribution device and the moving image displayed by the terminal device of each viewer.

7.様々な態様
第1の態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
7. Various Aspects The computer program according to the first aspect is described as "by being executed by at least one processor, from a plurality of first sensors attached to a plurality of parts of the distributor's body existing in a physical space. The output motion information regarding each movement of the plurality of parts is acquired, and the position information regarding the position of the body output from at least one second sensor attached to the body of the distributor is acquired, and the motion is described. The at least one processor is used to calculate the position of each of the plurality of parts in the physical space based on the information and calculate the position of the body in the physical space based on the position information. Can "make it work".

第2の態様に係るコンピュータプログラムは、上記第1の態様において「前記位置情報に基づいて算出された前記身体の位置が有効な位置として使用可能であるか否かを判断する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the first aspect, the computer program according to the second aspect "determines whether or not the body position calculated based on the position information can be used as an effective position. One processor can work. "

第3の態様に係るコンピュータプログラムは、上記第2の態様において「第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、前記第1単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the second aspect, the computer program according to the third aspect "calculates the position of the body based on the position information every first unit time, and the amount of change in the position of the body in the first unit time. Is less than or equal to the threshold, the at least one processor may function to use the body position calculated based on the position information as an effective position during the first unit time. "

第4の態様に係るコンピュータプログラムは、上記第3の態様において「前記第1単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the third aspect, the computer program according to the fourth aspect states, "When the amount of change in the position of the body in the first unit time exceeds the threshold value, the computer program is based on the position information in the first unit time. The at least one processor can be made to function so as to discard the calculated position of the body. "

第5の態様に係るコンピュータプログラムは、上記第4の態様において「前記身体の位置の変化量が閾値を上回った当該第1単位時間より後に生ずる新たな第1単位時間における前記身体の位置の変化量が閾値以下に戻った場合に、当該新たな第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the fourth aspect, the computer program according to the fifth aspect states that "the change in the position of the body in the new first unit time occurs after the first unit time in which the amount of change in the position of the body exceeds the threshold value". The at least one processor is made to function so that when the amount returns below the threshold, the position of the body calculated based on the position information is used as an effective position in the new first unit time. " be able to.

第6の態様に係るコンピュータプログラムは、上記第2の態様において「第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、前記第1単位時間より長い第2単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the second aspect, the computer program according to the sixth aspect "calculates the position of the body based on the position information every first unit time, and the second unit time longer than the first unit time. The at least one processor functions to use the body position calculated based on the position information as an effective position in the second unit time when the amount of change in the body position is less than or equal to the threshold value. You can "make it".

第7の態様に係るコンピュータプログラムは、上記第6の態様において「前記第2単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the sixth aspect, the computer program according to the seventh aspect states, "When the amount of change in the position of the body in the second unit time exceeds the threshold value, the computer program is based on the position information in the second unit time. The at least one processor can be made to function so as to discard the calculated position of the body. "

第8の態様に係るコンピュータプログラムは、上記第7の態様において「前記身体の位置の変化量が閾値を上回った当該第2単位時間より後に生ずる新たな第2単位時間における前記身体の位置の変化量が閾値以下に戻った場合に、当該新たな第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the seventh aspect, the computer program according to the eighth aspect states that "the change in the position of the body occurs after the second unit time when the amount of change in the position of the body exceeds the threshold value". The at least one processor is made to function so that when the amount returns below the threshold, the position of the body calculated based on the position information is used as an effective position in the new second unit time. " be able to.

第9の態様に係るコンピュータプログラムは、上記第3の態様から上記第5の態様のいずれかにおいて「前記第1単位時間が変更可能である」。 The computer program according to the ninth aspect "can change the first unit time" in any one of the third aspect to the fifth aspect.

第10の態様に係るコンピュータプログラムは、上記第6の態様から上記第8の態様のいずれかにおいて「前記第1単位時間及び/又は前記第2単位時間が変更可能である」。 The computer program according to the tenth aspect "can change the first unit time and / or the second unit time" in any one of the sixth aspect to the eighth aspect.

第11の態様に係るコンピュータプログラムは、上記第3の態様から上記第10の態様のいずれかにおいて「前記位置情報に基づいて算出された前記身体の有効な位置を仮想的な空間における前記身体の位置に変換し、前記動作情報に基づいて算出された前記複数の部位の各々の位置を仮想的な空間における該複数の部位の各々の位置に変換する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In any of the third to tenth aspects, the computer program according to the eleventh aspect "sets the effective position of the body calculated based on the position information of the body in a virtual space. The at least one processor is made to function so as to convert into a position and convert each position of the plurality of parts calculated based on the operation information into each position of the plurality of parts in a virtual space. "be able to.

第12の態様に係るコンピュータプログラムは、上記第11の態様において「前記仮想的な空間における前記身体の位置、及び、前記仮想的な空間における前記複数の部位の各々の位置に基づいて、前記配信者のアバターのアニメーションを含む動画を生成する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 The computer program according to the twelfth aspect is the delivery in the eleventh aspect, "based on the position of the body in the virtual space and the position of each of the plurality of parts in the virtual space. The at least one processor can be made to function so as to generate a moving image containing an animation of a person's avatar. "

第13の態様に係るコンピュータプログラムは、上記第1の態様から上記第12の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む」ことができる。 The computer program according to the thirteenth aspect is described in any one of the first to the twelfth aspects, wherein "the at least one processor is a central processing unit (CPU), a microprocessor and / or a graphics processing unit (1). GPU) can be included.

第14の態様に係るコンピュータプログラムは、上記第1の態様から上記第13の態様のいずれかにおいて「取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 The computer program according to the fourteenth aspect is the at least one such that "the acquired operation information and / or the position information is stored in the storage unit" in any one of the first to thirteenth aspects. Two processors can work. "

第15の態様に係るコンピュータプログラムは、上記第1の態様から上記第14の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、スタジオに設置される端末装置、前記配信者の端末装置、視聴ユーザの端末装置、及び/又は、サーバ装置に搭載される」ことができる。 The computer program according to the fifteenth aspect is described in any one of the first to the fourteenth aspects, wherein "the terminal device in which at least one processor is installed in the studio, the terminal device of the distributor, and the viewing user". Can be mounted on a terminal device and / or a server device.

第16の態様に係るサーバ装置は、「少なくとも1つのプロセッサを具備し、該少なくとも1つのプロセッサが、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する」ことができる。 The server device according to the sixteenth aspect is described as "a plurality of first sensors including at least one processor, wherein the at least one processor is attached to a plurality of parts of the distributor's body existing in a physical space. The motion information regarding the movement of each of the plurality of parts output from is acquired, and the position information regarding the position of the body output from at least one second sensor attached to the body of the distributor is acquired. It is possible to calculate the position of each of the plurality of parts in the physical space based on the motion information, and calculate the position of the body in the physical space based on the position information. "

第17の態様に係るサーバ装置は、上記第16の態様において「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む」ことができる。 The server device according to the seventeenth aspect can be "the at least one processor includes a central processing unit (CPU), a microprocessor and / or a graphics processing unit (GPU)" in the sixteenth aspect.

第18の態様に係るサーバ装置は、上記第16の態様又は上記第17の態様において「取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 The server device according to the eighteenth aspect has the at least one processor so as to "store the acquired operation information and / or the position information in the storage unit" in the sixteenth aspect or the seventeenth aspect. Can "make it work".

第19の態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、該少なくとも1つのプロセッサが、前記命令を実行することにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得する第1取得工程と、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得する第2取得工程と、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出する第1算出工程と、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する第2算出工程と、を含む」ことができる。 A method according to a nineteenth aspect is "a method executed by at least one processor that executes a computer-readable instruction, wherein the at least one processor executes the instruction to be physical. A first acquisition step of acquiring motion information regarding the operation of each of the plurality of parts output from a plurality of first sensors attached to a plurality of parts of the distributor's body existing in space, and the distributor's body. A second acquisition step of acquiring position information regarding the position of the body output from at least one second sensor attached to the body, and the position of each of the plurality of parts in the physical space based on the motion information. A first calculation step for calculating the position of the body in the physical space based on the position information, and a second calculation step for calculating the position of the body in the physical space can be included. "

第20の態様に係る方法は、上記第19の態様において「各工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行される」ことができる。 According to the twentieth aspect, in the nineteenth aspect, "each step is executed by the terminal device installed in the studio or the at least one processor mounted on the terminal device of the distributor". can.

第21の態様に係る方法は、上記第19の態様において「前記第1取得工程及び前記第2取得工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行され、前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に接続されるサーバ装置に搭載された、前記少なくとも1つのプロセッサにより実行される」ことができる。 The method according to the 21st aspect is that in the 19th aspect, "the first acquisition step and the second acquisition step are mounted on a terminal device installed in a studio or a terminal device of the distributor, at least one of the above. The at least one processor executed by one processor, wherein the first calculation step and the second calculation step are mounted on a terminal device installed in the studio or a server device connected to the terminal device of the distributor. Can be executed by.

第22の態様に係る方法は、上記第19の態様において「前記第1取得工程及び前記第2取得工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行され、前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される」ことができる。 The method according to the 22nd aspect is that in the 19th aspect, "the first acquisition step and the second acquisition step are mounted on a terminal device installed in a studio or a terminal device of the distributor, at least one of the above. The first calculation step and the second calculation step are executed by one processor, and are mounted on a terminal device installed in the studio or a terminal device connected to the distributor's terminal device via a server device. It can also be executed by the at least one processor. "

第23の態様に係る方法は、上記第19の態様において「各工程が、スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される」ことができる。 The method according to the 23rd aspect is described in the 19th aspect, "Each step is mounted on a terminal device installed in a studio or a terminal device connected to the distributor's terminal device via a server device. It can also be executed by the at least one processor. "

第24の態様に係る方法は、上記第19の態様から上記第23の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む」ことができる。 In any of the 19th to 23rd aspects, the method according to the 24th aspect is "the at least one processor is a central processing unit (CPU), a microprocessor and / or a graphics processing unit (GPU). ) Can be included.

第25の態様に係る方法は、上記第19の態様から上記第24の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、前記命令を実行することにより、取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する」ことができる。 The method according to the 25th aspect is the operation information and / or the operation information acquired by the at least one processor executing the instruction in any one of the 19th aspect to the 24th aspect. The position information can be stored in the storage unit. "

以上のように、様々な態様によれば、物理的な空間における配信者(演者)の位置を向上した精度により検出する、コンピュータプログラム、サーバ装置、端末装置及び表示方法を提供することができる。 As described above, according to various aspects, it is possible to provide a computer program, a server device, a terminal device, and a display method for detecting the position of a distributor (performer) in a physical space with improved accuracy.

1 通信システム
10 通信網
20(20A〜20C) 端末装置
30(30A〜30C) サーバ装置
40(40A、40B) スタジオユニット
100(200) 記憶部
110(210) センサ部
120(220) 動作情報取得部
130(230) 位置情報取得部
140(240) 部位位置情報算出部
150(250) 身体位置情報算出部
160(260) 変換部
170(270) 動画生成部
180(280) 表示部
190(290) ユーザインタフェイス部
200(300) 通信部
1 Communication system 10 Communication network 20 (20A to 20C) Terminal device 30 (30A to 30C) Server device 40 (40A, 40B) Studio unit 100 (200) Storage unit 110 (210) Sensor unit 120 (220) Operation information acquisition unit 130 (230) Position information acquisition unit 140 (240) Part position information calculation unit 150 (250) Body position information calculation unit 160 (260) Conversion unit 170 (270) Video generation unit 180 (280) Display unit 190 (290) User Interface part 200 (300) Communication part

Claims (25)

少なくとも1つのプロセッサにより実行されることにより、
物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、
前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、
前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、
前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する、
ように前記少なくとも1つのプロセッサを機能させる、ことを特徴とするコンピュータプログラム。
By running on at least one processor
The motion information regarding the motion of each of the plurality of parts output from the plurality of first sensors attached to the plurality of parts of the distributor's body existing in the physical space is acquired.
The position information regarding the position of the body output from at least one second sensor attached to the body of the distributor is acquired, and the position information is obtained.
Based on the motion information, the positions of the plurality of parts in the physical space are calculated.
The position of the body in the physical space is calculated based on the position information.
A computer program characterized in that the at least one processor functions as described above.
前記位置情報に基づいて算出された前記身体の位置が有効な位置として使用可能であるか否かを判断する、
ように前記少なくとも1つのプロセッサを機能させる、請求項1に記載のコンピュータプログラム。
It is determined whether or not the body position calculated based on the position information can be used as an effective position.
The computer program according to claim 1, wherein the at least one processor functions as described above.
第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
前記第1単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、
ように前記少なくとも1つのプロセッサを機能させる、請求項2に記載のコンピュータプログラム。
The position of the body is calculated based on the position information every first unit time, and the position of the body is calculated.
When the amount of change in the position of the body in the first unit time is equal to or less than the threshold value, the position of the body calculated based on the position information in the first unit time is used as an effective position.
The computer program according to claim 2, wherein the at least one processor functions as described above.
前記第1単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄する、
ように前記少なくとも1つのプロセッサを機能させる、請求項3に記載のコンピュータプログラム。
When the amount of change in the position of the body in the first unit time exceeds the threshold value, the position of the body calculated based on the position information is discarded in the first unit time.
The computer program according to claim 3, wherein the at least one processor is made to function as described above.
前記身体の位置の変化量が閾値を上回った当該第1単位時間より後に生ずる新たな第1単位時間における前記身体の位置の変化量が閾値以下に戻った場合に、当該新たな第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、
ように前記少なくとも1つのプロセッサを機能させる、請求項4に記載のコンピュータプログラム。
When the amount of change in the position of the body returns to the threshold or less in the new first unit time that occurs after the first unit time in which the amount of change in the position of the body exceeds the threshold value, the new first unit time Use the body position calculated based on the position information as an effective position.
The computer program according to claim 4, wherein the at least one processor is made to function as described above.
第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
前記第1単位時間より長い第2単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、
ように前記少なくとも1つのプロセッサを機能させる、請求項2に記載のコンピュータプログラム。
The position of the body is calculated based on the position information every first unit time, and the position of the body is calculated.
When the amount of change in the position of the body in the second unit time longer than the first unit time is equal to or less than the threshold value, the position of the body calculated based on the position information in the second unit time is an effective position. To use as
The computer program according to claim 2, wherein the at least one processor functions as described above.
前記第2単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄する、
ように前記少なくとも1つのプロセッサを機能させる、請求項6に記載のコンピュータプログラム。
When the amount of change in the position of the body in the second unit time exceeds the threshold value, the position of the body calculated based on the position information is discarded in the second unit time.
The computer program according to claim 6, wherein the at least one processor is made to function as described above.
前記身体の位置の変化量が閾値を上回った当該第2単位時間より後に生ずる新たな第2単位時間における前記身体の位置の変化量が閾値以下に戻った場合に、当該新たな第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、
ように前記少なくとも1つのプロセッサを機能させる、請求項7に記載のコンピュータプログラム。
When the amount of change in the position of the body returns to the threshold or less in the new second unit time that occurs after the second unit time in which the amount of change in the position of the body exceeds the threshold value, the new second unit time Use the body position calculated based on the position information as an effective position.
The computer program according to claim 7, wherein the at least one processor is made to function as described above.
前記第1単位時間が変更可能である、請求項3から請求項5のいずれかに記載のコンピュータプログラム。 The computer program according to any one of claims 3 to 5, wherein the first unit time can be changed. 前記第1単位時間及び/又は前記第2単位時間が変更可能である、請求項6から請求項8のいずれかに記載のコンピュータプログラム。 The computer program according to any one of claims 6 to 8, wherein the first unit time and / or the second unit time can be changed. 前記位置情報に基づいて算出された前記身体の有効な位置を仮想的な空間における前記身体の位置に変換し、
前記動作情報に基づいて算出された前記複数の部位の各々の位置を仮想的な空間における該複数の部位の各々の位置に変換する、
ように前記少なくとも1つのプロセッサを機能させる、請求項3から請求項10のいずれかに記載のコンピュータプログラム。
The effective position of the body calculated based on the position information is converted into the position of the body in a virtual space.
The position of each of the plurality of parts calculated based on the operation information is converted into the position of each of the plurality of parts in the virtual space.
The computer program according to any one of claims 3 to 10, wherein the at least one processor functions as described above.
前記仮想的な空間における前記身体の位置、及び、前記仮想的な空間における前記複数の部位の各々の位置に基づいて、前記演者のアバターのアニメーションを含む動画を生成する、
ように前記少なくとも1つのプロセッサを機能させる、請求項11に記載のコンピュータプログラム。
A moving image including an animation of the performer's avatar is generated based on the position of the body in the virtual space and the position of each of the plurality of parts in the virtual space.
11. The computer program of claim 11, which causes the at least one processor to function as described above.
前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む、請求項1から請求項12のいずれかに記載のコンピュータプログラム。 The computer program according to any one of claims 1 to 12, wherein the at least one processor includes a central processing unit (CPU), a microprocessor and / or a graphics processing unit (GPU). 取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、
ように前記少なくとも1つのプロセッサを機能させる、請求項1から請求項13のいずれかに記載のコンピュータプログラム。
The acquired operation information and / or the position information is stored in the storage unit.
The computer program according to any one of claims 1 to 13, which causes the at least one processor to function as described above.
前記少なくとも1つのプロセッサが、スタジオに設置される端末装置、前記配信者の端末装置、視聴ユーザの端末装置、及び/又は、サーバ装置に搭載される、請求項1から請求項14のいずれかに記載のコンピュータプログラム。 One of claims 1 to 14, wherein the at least one processor is mounted on a terminal device installed in a studio, a terminal device of the distributor, a terminal device of a viewing user, and / or a server device. The listed computer program. 少なくとも1つのプロセッサを具備し、
該少なくとも1つのプロセッサが、
物理的な空間に存在する演者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、
前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、
前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、
前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する、
ことを特徴とするサーバ装置。
Equipped with at least one processor
The at least one processor
Obtaining motion information regarding the motion of each of the plurality of parts output from a plurality of first sensors attached to a plurality of parts of the performer's body existing in the physical space,
The position information regarding the position of the body output from at least one second sensor attached to the body of the distributor is acquired, and the position information is obtained.
Based on the motion information, the positions of the plurality of parts in the physical space are calculated.
The position of the body in the physical space is calculated based on the position information.
A server device characterized by that.
前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む、請求項16に記載のサーバ装置。 The server device according to claim 16, wherein the at least one processor includes a central processing unit (CPU), a microprocessor and / or a graphics processing unit (GPU). 取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、
ように前記少なくとも1つのプロセッサを機能させる、請求項16又は請求項17に記載のサーバ装置。
The acquired operation information and / or the position information is stored in the storage unit.
The server device according to claim 16 or 17, wherein the at least one processor functions as described above.
コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、
該少なくとも1つのプロセッサが、前記命令を実行することにより、
物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得する第1取得工程と、
前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得する第2取得工程と、
前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出する第1算出工程と、
前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する第2算出工程と、
を含むことを特徴とする方法。
A method performed by at least one processor that executes computer-readable instructions.
When the at least one processor executes the instruction,
A first acquisition step of acquiring motion information regarding the operation of each of the plurality of parts output from a plurality of first sensors attached to a plurality of parts of the distributor's body existing in a physical space.
A second acquisition step of acquiring position information regarding the position of the body output from at least one second sensor attached to the body of the distributor.
A first calculation step of calculating the position of each of the plurality of parts in the physical space based on the operation information, and
A second calculation step of calculating the position of the body in the physical space based on the position information, and
A method characterized by including.
各工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行される、請求項19に記載の方法。 19. The method of claim 19, wherein each step is performed by a terminal device installed in a studio or at least one processor mounted on the distributor's terminal device. 前記第1取得工程及び前記第2取得工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行され、
前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に接続されるサーバ装置に搭載された、前記少なくとも1つのプロセッサにより実行される、請求項19に記載の方法。
The first acquisition step and the second acquisition step are executed by the terminal device installed in the studio or the at least one processor mounted on the terminal device of the distributor.
A claim in which the first calculation step and the second calculation step are executed by the at least one processor mounted on a terminal device installed in the studio or a server device connected to the terminal device of the distributor. Item 19. The method according to item 19.
前記第1取得工程及び前記第2取得工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行され、
前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される、請求項19に記載の方法。
The first acquisition step and the second acquisition step are executed by the terminal device installed in the studio or the at least one processor mounted on the terminal device of the distributor.
The first calculation step and the second calculation step are mounted on a terminal device installed in the studio or a terminal device connected to the terminal device of the distributor via a server device, at least one of the above. 19. The method of claim 19, which is performed by a processor.
各工程が、スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される、請求項19に記載の方法。 19. The step is executed by at least one processor mounted on a terminal device installed in a studio or a terminal device connected to the distributor's terminal device via a server device. The method described. 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む、請求項19から請求項23のいずれかに記載の方法。 The method of any of claims 19 to 23, wherein the at least one processor comprises a central processing unit (CPU), a microprocessor and / or a graphics processing unit (GPU). 前記少なくとも1つのプロセッサが、前記命令を実行することにより、取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、請求項19から請求項24のいずれかに記載の方法。 The method according to any one of claims 19 to 24, wherein the at least one processor stores the acquired operation information and / or the position information in the storage unit by executing the instruction.
JP2020077502A 2020-04-24 2020-04-24 Computer program, server device and method Active JP7250726B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020077502A JP7250726B2 (en) 2020-04-24 2020-04-24 Computer program, server device and method
JP2022041676A JP7495694B2 (en) 2022-03-16 Computer program, server device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020077502A JP7250726B2 (en) 2020-04-24 2020-04-24 Computer program, server device and method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022041676A Division JP7495694B2 (en) 2022-03-16 Computer program, server device and method

Publications (2)

Publication Number Publication Date
JP2021174239A true JP2021174239A (en) 2021-11-01
JP7250726B2 JP7250726B2 (en) 2023-04-03

Family

ID=78279692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020077502A Active JP7250726B2 (en) 2020-04-24 2020-04-24 Computer program, server device and method

Country Status (1)

Country Link
JP (1) JP7250726B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023064148A (en) * 2021-10-26 2023-05-11 株式会社大都技研 Game machine
JP2023064146A (en) * 2021-10-26 2023-05-11 株式会社大都技研 Game machine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010014712A (en) * 2008-06-30 2010-01-21 Samsung Electronics Co Ltd Motion capture device and motion capture method
JP2010191827A (en) * 2009-02-19 2010-09-02 Sony Computer Entertainment Inc Apparatus and method for processing information
JP2017004372A (en) * 2015-06-12 2017-01-05 ソニー株式会社 Information processing device, information processing method, and program
JP2020004284A (en) * 2018-06-29 2020-01-09 株式会社コロプラ System, program, method, and information processing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010014712A (en) * 2008-06-30 2010-01-21 Samsung Electronics Co Ltd Motion capture device and motion capture method
JP2010191827A (en) * 2009-02-19 2010-09-02 Sony Computer Entertainment Inc Apparatus and method for processing information
JP2017004372A (en) * 2015-06-12 2017-01-05 ソニー株式会社 Information processing device, information processing method, and program
JP2020004284A (en) * 2018-06-29 2020-01-09 株式会社コロプラ System, program, method, and information processing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023064148A (en) * 2021-10-26 2023-05-11 株式会社大都技研 Game machine
JP2023064146A (en) * 2021-10-26 2023-05-11 株式会社大都技研 Game machine

Also Published As

Publication number Publication date
JP2022121419A (en) 2022-08-19
JP7250726B2 (en) 2023-04-03

Similar Documents

Publication Publication Date Title
KR101606628B1 (en) Pointing-direction detecting device and its method, program and computer readable-medium
US20190379885A1 (en) Optimized object scanning using sensor fusion
JP4489825B2 (en) Gesture input system, method and program
JP5936155B2 (en) 3D user interface device and 3D operation method
JP5871345B2 (en) 3D user interface device and 3D operation method
JP6224873B1 (en) Information processing system, information processing apparatus, information processing method, and program
US20210201002A1 (en) Moving image distribution computer program, server device, and method
US20150213649A1 (en) Three-dimensional environment sharing system and three-dimensional environment sharing method
US20150002518A1 (en) Image generating apparatus
US10948994B2 (en) Gesture control method for wearable system and wearable system
CN110568929B (en) Virtual scene interaction method and device based on virtual keyboard and electronic equipment
JP2021174239A (en) Computer program, server device, and method
US11132842B2 (en) Method and system for synchronizing a plurality of augmented reality devices to a virtual reality device
JP2006209359A (en) Apparatus, method and program for recognizing indicating action
US20200387227A1 (en) Length Calibration for Computer Models of Users to Generate Inputs for Computer Systems
JP2009258884A (en) User interface
JP2024040211A (en) Video processing method, server device and computer program
JP2012048463A (en) Information processor and information processing method
JP2019184830A (en) Image display device and image display method
JP7495694B2 (en) Computer program, server device and method
JP2010086367A (en) Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment
CN113758481A (en) Grid map generation method, device, system, storage medium and electronic equipment
JP2021071942A (en) Moving image processing method, server device, and computer program
JP2017199085A (en) Information processing apparatus, information processing method, and program
US20140350428A1 (en) Fluctuation detection device and fluctuation detection method

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230322

R150 Certificate of patent or registration of utility model

Ref document number: 7250726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150