JP2021174239A - Computer program, server device, and method - Google Patents
Computer program, server device, and method Download PDFInfo
- Publication number
- JP2021174239A JP2021174239A JP2020077502A JP2020077502A JP2021174239A JP 2021174239 A JP2021174239 A JP 2021174239A JP 2020077502 A JP2020077502 A JP 2020077502A JP 2020077502 A JP2020077502 A JP 2020077502A JP 2021174239 A JP2021174239 A JP 2021174239A
- Authority
- JP
- Japan
- Prior art keywords
- position information
- processor
- terminal device
- unit time
- distributor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本件出願に開示された技術は、配信者(演者)の動作に基づいた画像を表示する、コンピュータプログラム、サーバ装置及び方法に関する。 The technology disclosed in this application relates to computer programs, server devices and methods for displaying images based on the behavior of a distributor (performer).
従来から、配信者(演者)の動作に基づいた画像を生成するために、モーションキャプチャシステムが用いられる。特開2017−511906号公報(特許文献1)は、慣性センサを用いたモーションキャプチャシステムを開示している。特許文献1に開示されたモーションキャプチャシステムは、配信者の身体における複数の部位に装着された慣性センサから受信した信号に基づいて、上記身体における各部分の位置を決定する。なお、上記特許文献1は、引用によりその全体が本明細書に組み入れられる。
Conventionally, a motion capture system has been used to generate an image based on the movement of a distributor (performer). Japanese Unexamined Patent Publication No. 2017-511906 (Patent Document 1) discloses a motion capture system using an inertial sensor. The motion capture system disclosed in
しかしながら、上述した慣性センサを用いたモーションキャプチャシステムでは、慣性センサを用いて物理的な空間における配信者の位置(座標)を算出する場合には、このように算出される位置は、時間の経過とともに蓄積されるノイズに起因して、実際の配信者の位置とは大きく異なる可能性がある。 However, in the motion capture system using the inertial sensor described above, when the position (coordinates) of the distributor in the physical space is calculated using the inertial sensor, the position calculated in this way is the passage of time. Due to the noise accumulated with it, it may differ significantly from the actual distributor position.
したがって、本件出願において開示された幾つかの実施形態は、物理的な空間における配信者(演者)の位置を向上した精度により検出する、コンピュータプログラム、サーバ装置、端末装置及び表示方法を提供する。 Accordingly, some embodiments disclosed in this application provide computer programs, server devices, terminal devices and display methods that detect the position of a distributor (performer) in physical space with improved accuracy.
一態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 The computer program according to the embodiment is described as "a plurality of computer programs output from a plurality of first sensors attached to a plurality of parts of the distributor's body existing in a physical space by being executed by at least one processor. The motion information regarding the motion of each of the parts of the body is acquired, the position information regarding the position of the body output from at least one second sensor attached to the body of the distributor is acquired, and the motion information is based on the motion information. It is possible to make the at least one processor function so as to calculate the position of each of the plurality of parts in the physical space and calculate the position of the body in the physical space based on the position information. " can.
一態様に係るサーバ装置は、「少なくとも1つのプロセッサを具備し、該少なくとも1つのプロセッサが、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する」ことができる。 The server device according to one aspect is "equipped with at least one processor, and the at least one processor outputs from a plurality of first sensors attached to a plurality of parts of the distributor's body existing in a physical space. The motion information regarding the motion of each of the plurality of parts is acquired, and the position information regarding the position of the body output from at least one second sensor attached to the body of the distributor is acquired, and the motion information is obtained. The position of each of the plurality of parts in the physical space is calculated based on the above, and the position of the body in the physical space is calculated based on the position information. "
一態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、該少なくとも1つのプロセッサが、前記命令を実行することにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得する第1取得工程と、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得する第2取得工程と、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出する第1算出工程と、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する第2算出工程と、を含む」ことができる。 A method according to one aspect is "a method executed by at least one processor that executes a computer-readable instruction, wherein the at least one processor executes the instruction to bring it into physical space. A first acquisition step of acquiring motion information regarding the operation of each of the plurality of parts output from a plurality of first sensors attached to a plurality of parts in the body of an existing distributor, and attachment to the body of the distributor. A second acquisition step of acquiring position information regarding the position of the body output from at least one second sensor, and calculating the position of each of the plurality of parts in the physical space based on the motion information. A second calculation step of calculating the position of the body in the physical space based on the position information is included. ”
以下、添付図面を参照して本発明の様々な実施形態を説明する。なお、図面において共通した構成要素には同一の参照符号が付されている。また、或る図面に表現された構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意されたい。さらにまた、添付した図面が必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. The same reference numerals are attached to common components in the drawings. It should also be noted that the components represented in one drawing may be omitted in another for convenience of explanation. Furthermore, it should be noted that the attached drawings are not always drawn to the correct scale.
1.通信システムの概要
本件出願において開示される通信システムでは、簡潔にいえば、以下の動作が行われる。まず、スタジオ等の物理的な空間に居る配信者(演者)は、その身体における複数の部位に複数の第1センサ(例えば慣性センサ)を装着する。さらに、配信者は、その身体におけるいずれかの部位(例えば背中)に、少なくとも1つの第2センサ(例えば光学センサ)を装着する。「配信装置」は、配信者が演技を行っている間において、例えば単位時間ごとに、複数の第1センサから出力された動作情報、及び、少なくとも1つの第2センサから出力された位置情報を取得することができる。ここで、配信装置には、例えば以下の装置を含む任意の装置が含まれる。
・配信者の端末装置
・スタジオ等に設置された端末装置及び/又はスタジオユニット
・スタジオ等に設置されたサーバ装置
1. 1. Outline of Communication System In the communication system disclosed in the present application, the following operations are simply performed. First, a distributor (performer) in a physical space such as a studio attaches a plurality of first sensors (for example, inertial sensors) to a plurality of parts of the body. In addition, the distributor attaches at least one second sensor (eg, an optical sensor) to any part of the body (eg, the back). The "distribution device" receives operation information output from a plurality of first sensors and position information output from at least one second sensor, for example, for each unit time while the distributor is performing. Can be obtained. Here, the distribution device includes any device including, for example, the following device.
-Distributor's terminal device-Terminal device installed in a studio, etc. and / or a studio unit-Server device installed in a studio, etc.
(配信装置が動画を生成する態様)
次に、配信装置は、取得した動作情報に基づいて、物理的な空間における配信者の各部位の位置を算出することができる。また、配信装置は、取得した位置情報に基づいて、物理的な空間における配信者の身体の位置を算出することができる。さらに、配信装置は、取得した物理的な空間における各部位の位置を仮想的な空間における各部位の位置に変換することができる。さらにまた、配信装置は、取得した物理的な空間における身体の位置を仮想的な空間における身体の位置に変換することができる。さらに、配信装置は、取得した仮想的な空間における各部位の位置及び身体の位置に基づいて、配信者のアバターのアニメーションを含む動画を生成してサーバ装置に送信することができる。このサーバ装置は、配信者の端末装置等から受信した動画を、各視聴者の端末装置に配信することができる。これにより、各視聴者の端末装置は、サーバ装置から受信した動画を再生することができる。
(Aspect in which the distribution device generates a moving image)
Next, the distribution device can calculate the position of each part of the distributor in the physical space based on the acquired operation information. In addition, the distribution device can calculate the position of the distributor's body in the physical space based on the acquired position information. Further, the distribution device can convert the position of each part in the acquired physical space into the position of each part in the virtual space. Furthermore, the distribution device can convert the acquired body position in the physical space into the body position in the virtual space. Further, the distribution device can generate a moving image including an animation of the distributor's avatar and transmit it to the server device based on the position of each part and the position of the body in the acquired virtual space. This server device can distribute the moving image received from the terminal device of the distributor or the like to the terminal device of each viewer. As a result, the terminal device of each viewer can play back the moving image received from the server device.
(サーバ装置が動画を生成する態様)
これに並行して、配信装置は、取得した動作情報及び位置情報を、サーバ装置に送信することができる。このサーバ装置は、取得した動作情報に基づいて、物理的な空間における配信者の各部位の位置を算出することができる。また、このサーバ装置は、取得した位置情報に基づいて、物理的な空間における配信者の身体の位置を算出することができる。さらに、このサーバ装置は、取得した物理的な空間における各部位の位置を仮想的な空間における各部位の位置に変換することができる。さらにまた、サーバ装置は、取得した物理的な空間における身体の位置を仮想的な空間における身体の位置に変換することができる。さらに、このサーバ装置は、取得した仮想的な空間における各部位の位置及び身体の位置に基づいて、配信者のアバターのアニメーションを含む動画を生成して各視聴者の端末装置に送信することができる。これにより、各視聴者の端末装置は、サーバ装置から受信した動画を再生することができる。
(Aspect in which the server device generates a moving image)
In parallel with this, the distribution device can transmit the acquired operation information and location information to the server device. This server device can calculate the position of each part of the distributor in the physical space based on the acquired operation information. In addition, this server device can calculate the position of the distributor's body in the physical space based on the acquired position information. Further, this server device can convert the acquired position of each part in the physical space into the position of each part in the virtual space. Furthermore, the server device can convert the acquired body position in the physical space into the body position in the virtual space. Further, this server device can generate a video including an animation of the distributor's avatar and send it to each viewer's terminal device based on the position of each part and the position of the body in the acquired virtual space. can. As a result, the terminal device of each viewer can play back the moving image received from the server device.
(各視聴者の端末装置が動画を生成する態様)
或いはまた、このサーバ装置は、取得した動作情報及び位置情報を各視聴者の端末装置に送信することができる。各視聴者の端末装置は、取得した動作情報に基づいて、物理的な空間における配信者の各部位の位置を算出することができる。また、各視聴者の端末装置は、取得した位置情報に基づいて、物理的な空間における配信者の身体の位置を算出することができる。さらに、各視聴者の端末装置は、取得した物理的な空間における各部位の位置を仮想的な空間における各部位の位置に変換することができる。さらにまた、各視聴者の端末装置は、取得した物理的な空間における身体の位置を仮想的な空間における身体の位置に変換することができる。さらに、各視聴者の端末装置は、取得した仮想的な空間における各部位の位置及び身体の位置に基づいて、配信者のアバターのアニメーションを含む動画を生成して表示することができる。
(A mode in which each viewer's terminal device generates a moving image)
Alternatively, this server device can transmit the acquired operation information and position information to each viewer's terminal device. The terminal device of each viewer can calculate the position of each part of the distributor in the physical space based on the acquired operation information. In addition, each viewer's terminal device can calculate the position of the distributor's body in the physical space based on the acquired position information. Further, the terminal device of each viewer can convert the position of each part in the acquired physical space into the position of each part in the virtual space. Furthermore, each viewer's terminal device can convert the acquired body position in the physical space into the body position in the virtual space. Further, the terminal device of each viewer can generate and display a moving image including an animation of the distributor's avatar based on the position of each part and the position of the body in the acquired virtual space.
2.通信システムの例2. Example of communication system
図1は、一実施形態に係る通信システムの構成の一例を示すブロック図である。図1に示すように、通信システム1は、通信網10に接続される1又はそれ以上の端末装置20と、通信網10に接続される1又はそれ以上のサーバ装置30と、を含むことができる。なお、図1には、端末装置20の例として、3つの端末装置20A〜20Cが例示され、サーバ装置30の例として、3つのサーバ装置30A〜30Cが例示されている。しかし、端末装置20として、これら以外の1又はそれ以上の端末装置20が通信網10に接続され得る。また、サーバ装置30として、これら以外の1又はそれ以上のサーバ装置30が通信網10に接続され得る。
FIG. 1 is a block diagram showing an example of a configuration of a communication system according to an embodiment. As shown in FIG. 1, the
また、通信システム1は、通信網10に接続される1又はそれ以上のスタジオユニット40を含むことができる。なお、図1には、スタジオユニット40の例として、2つのスタジオユニット40A及び40Bが例示されている。しかし、スタジオユニット40として、これら以外の1又はそれ以上のスタジオユニット40が通信網10に接続され得る。
Further, the
通信網10は、携帯電話網、無線LAN、固定電話網、インターネット、イントラネット及び/又はイーサネット(登録商標)等をこれらに限定することなく含むことができる。
The
図2は、図1に示した通信システム1により実行される各動作がいずれの装置により実行され得るのかを例示する表である。
FIG. 2 is a table illustrating which device can execute each operation executed by the
まず、態様(1)に着目する。(A)動作情報及び位置情報の取得〜(D)動画の生成までが、配信装置により実行され得る。(E)動画の表示は、配信装置及び各視聴者の端末装置により実行され得る。 First, focus on aspect (1). From (A) acquisition of operation information and position information to (D) generation of moving images can be executed by the distribution device. (E) The display of the moving image can be executed by the distribution device and the terminal device of each viewer.
次に、態様(2)に着目する。経路(2A)では、(A)動画情報及び位置情報の取得〜(E)動画の表示までが、配信装置により実行され得る。 Next, focus on aspect (2). In the route (2A), (A) acquisition of moving image information and location information to (E) display of moving image can be executed by the distribution device.
経路(2A)に並行して実行され得る経路(2B)では、(B)物理的な空間における位置の算出〜(D)動画の生成までが、サーバ装置により実行され得る。(E)動画の表示が、各視聴者の端末装置により実行され得る。 In the route (2B) that can be executed in parallel with the route (2A), (B) calculation of the position in the physical space to (D) generation of the moving image can be executed by the server device. (E) The display of the moving image can be executed by the terminal device of each viewer.
次に、態様(3)に着目する。経路(3A)で行われる動作は、上述した態様(2)の経路(2A)で行われる動作と同様である。 Next, focus on aspect (3). The operation performed on the route (3A) is the same as the operation performed on the route (2A) of the above-described aspect (2).
経路(3A)に並行して実行され得る経路(3B)では、(B)物理的な空間における位置の算出及び(C)仮想的な空間における位置の算出が、サーバ装置により実行され得る。(D)動画の生成及び(E)動画の表示が、各視聴者の端末装置により実行され得る。 In the route (3B) that can be executed in parallel with the route (3A), (B) the calculation of the position in the physical space and (C) the calculation of the position in the virtual space can be executed by the server device. (D) video generation and (E) video display can be performed by each viewer's terminal device.
次に、態様(4)に着目する。経路(4A)で行われる動作は、上述した態様(2)の経路(2A)で行われる動作と同様である。 Next, focus on aspect (4). The operation performed on the route (4A) is the same as the operation performed on the route (2A) of the above-described aspect (2).
経路(4A)と並行して実行され得る経路(4B)では、(B)物理的な空間における位置の算出がサーバ装置により実行され得る。(C)仮想的な空間における位置の算出〜(E)動画の表示までが、各視聴者の端末装置により実行され得る。 In the route (4B) which can be executed in parallel with the route (4A), (B) the calculation of the position in the physical space can be executed by the server device. From (C) calculation of the position in the virtual space to (E) display of the moving image can be executed by the terminal device of each viewer.
次に、態様(5)に着目する。経路(5A)で行われる動作は、上述した態様(2)の経路(2A)で行われる動作と同様である。 Next, focus on aspect (5). The operation performed on the route (5A) is the same as the operation performed on the route (2A) of the above-described aspect (2).
経路(5A)と並行して実行され得る経路(5B)では、(B)物理的な空間における位置の算出〜(E)動画の表示までが、各視聴者の端末装置により実行され得る。 In the route (5B) that can be executed in parallel with the route (5A), (B) calculation of the position in the physical space to (E) display of the moving image can be executed by the terminal device of each viewer.
「配信装置」に含まれる、配信者の端末装置20、並びに、スタジオ等に設置された端末装置20及びスタジオユニット40は、インストールされた所定のアプリケーション(動画配信用のアプリケーション等)を実行することにより、態様(1)〜態様(5)の各々の場合に割り当てられた上述した動作を実行することができる。或いはまた、「配信装置」に含まれる、配信者の端末装置20、並びに、スタジオ等に設置された端末装置20及びスタジオユニット40は、インストールされたウェブブラウザを実行することにより、サーバ装置30からウェブページを受信及び表示して、同様の動作を実行することができる。
The distributor's
なお、本明細書において、「所定のアプリケーション」又は「特定のアプリケーション」とは、1又はそれ以上のアプリケーションであってもよいし、1又はそれ以上のアプリケーションと1又はそれ以上のミドルウェアとの組み合わせであってもよい。 In the present specification, the "predetermined application" or "specific application" may be one or more applications, or a combination of one or more applications and one or more middleware. It may be.
各視聴者の端末装置20もまた、インストールされた所定のアプリケーション(動画配信用のアプリケーション等)を実行することにより、態様(1)〜態様(5)の各々の場合に割り当てられた上述した動作を実行することができる。或いはまた、「配信装置」に含まれる、配信者の端末装置20、並びに、スタジオ等に設置された端末装置20及びスタジオユニット40は、インストールされたウェブブラウザを実行することにより、サーバ装置30からウェブページを受信及び表示して、同様の動作を実行することができる。
The
配信者の端末装置20及び各視聴者の端末装置20は、スマートフォン、タブレット、携帯電話(フィーチャーフォン)、及び/又は、パーソナルコンピュータ等を、これらに限定することなく含むことができる。
The distributor's
スタジオ等に設置された端末装置20及びスタジオユニット40は、パーソナルコンピュータ、スーパーコンピュータ、及び/又は、量子コンピュータ等をこれらに限定することなく含むことができる。
The
「配信装置」に含まれるサーバ装置30は、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することにより、態様(1)〜態様(5)の各々の場合に割り当てられた上述した動作を実行することができる。また、「配信装置」に含まれるサーバ装置30は、インストールされた特定のアプリケーションを実行してウェブサーバとして機能することにより、各端末装置20及び/又はスタジオユニット等に送信するウェブページを介して、同様の動作を実行することができる。
The
サーバ装置30は、パーソナルコンピュータ、スーパーコンピュータ、及び/又は、量子コンピュータ等をこれらに限定することなく含むことができる。
The
3.各装置のハードウェア構成
次に、端末装置20、サーバ装置30及びスタジオユニット40の各々が有するハードウェア構成の一例について説明する。
3. 3. Hardware Configuration of Each Device Next, an example of the hardware configuration of each of the
3−1.端末装置20のハードウェア構成
各端末装置20のハードウェア構成例について図3を参照して説明する。図3は、図1に示した端末装置20(サーバ装置30)のハードウェア構成の一例を模式的に示すブロック図である。なお、図3において、括弧内の参照符号は、後述するように各サーバ装置30に関連して記載されている。
3-1. Hardware Configuration of
各端末装置20は、主に、中央処理装置21と、主記憶装置22と、入出力インタフェイス装置23と、入力装置24と、補助記憶装置25と、出力装置26と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
Each
中央処理装置21は、「CPU」と称されることがあり、主記憶装置22に記憶されている命令及びデータに対して演算を行い、その演算の結果を主記憶装置22に記憶させることができる。さらに、中央処理装置21は、入出力インタフェイス装置23を介して、入力装置24、補助記憶装置25及び出力装置26等を制御することができる。端末装置20は、1又はそれ以上のこのような中央処理装置21を含むことが可能である。
The
主記憶装置22は、「メモリ」と称されることがあり、入力装置24、補助記憶装置25及び通信網10等(サーバ装置30等)から、入出力インタフェイス装置23を介して受信した命令及びデータ、並びに、中央処理装置21の演算結果を記憶することができる。主記憶装置22は、RAM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシュメモリ等をこれらに限定することなく含むことができる。
The
補助記憶装置25は、主記憶装置22よりも大きな容量を有する記憶装置である。補助記憶装置25は、上記特定のアプリケーションやウェブブラウザ等を構成する命令及びデータ(コンピュータプログラム)を記憶しておき、中央処理装置21により制御されることにより、これらの命令及びデータ(コンピュータプログラム)を、入出力インタフェイス装置23を介して主記憶装置22に送信することができる。補助記憶装置25は、磁気ディスク装置及び/又は光ディスク装置等をこれらに限定することなく含むことができる。
The
入力装置24は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等をこれらに限定することなく含むことができる。センサは、後述するように、1又はそれ以上のカメラ等を含む第1種のセンサ、及び/又は、1又はそれ以上のマイク等を含む第2種のセンサをこれらに限定することなく含むことができる。
The
出力装置26は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができる。
The
このようなハードウェア構成にあっては、中央処理装置21が、補助記憶装置25に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置22にロードし、ロードした命令及びデータを演算することができる。これにより、中央処理装置21は、入出力インタフェイス装置23を介して出力装置26を制御し、或いはまた、入出力インタフェイス装置23及び通信網10を介して、他の装置(例えばサーバ装置30及び他の端末装置20等)との間で様々な情報の送受信を行うことができる。これにより、端末装置20は、インストールされた特定のアプリケーションを実行することにより、図2を参照して上述した動作を実行することができる。
In such a hardware configuration, the
なお、端末装置20は、中央処理装置21に代えて又は中央処理装置21とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むことができる。
The
3−2.サーバ装置30のハードウェア構成
各サーバ装置30のハードウェア構成例について同じく図3を参照して説明する。各サーバ装置30のハードウェア構成は、例えば、上述した各端末装置20のハードウェア構成と同一とすることができる。したがって、各サーバ装置30が有する構成要素に対する参照符号は、図3において括弧内に示されている。
3-2. Hardware Configuration of
各サーバ装置30は、主に、中央処理装置31と、主記憶装置32と、入出力インタフェイス装置33と、入力装置34と、補助記憶装置35と、出力装置36と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
Each
中央処理装置31、主記憶装置32、入出力インタフェイス装置33、入力装置34、補助記憶装置35及び出力装置36は、それぞれ、上述した各端末装置20に含まれる、中央処理装置21、主記憶装置22、入出力インタフェイス装置23、入力装置24、補助記憶装置25及び出力装置26と略同一であり得る。
The
このようなハードウェア構成にあっては、中央処理装置31が、補助記憶装置35に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置32にロードし、ロードした命令及びデータを演算することができる。これにより、中央処理装置31は、入出力インタフェイス装置33を介して出力装置36を制御し、或いはまた、入出力インタフェイス装置33及び通信網10を介して、他の装置(例えば各端末装置20等)との間で様々な情報の送受信を行うことができる。
In such a hardware configuration, the
これにより、サーバ装置30は、インストールされた特定のアプリケーションを実行してアプリケーションサーバ及び/又はウェブサーバとして機能することができる。これにより、サーバ装置30は、図2を参照して上述した動作を実行することができる。
As a result, the
なお、サーバ装置30は、中央処理装置31に代えて又は中央処理装置31とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むことができる。
The
3−3.スタジオユニット40のハードウェア構成
スタジオユニット40は、パーソナルコンピュータ等の情報処理装置により実装可能である。スタジオユニット40は、図示はされていないが、上述した端末装置20及びサーバ装置30と同様に、主に、中央処理装置と、主記憶装置と、入出力インタフェイス装置と、入力装置と、補助記憶装置と、出力装置と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
3-3. Hardware Configuration of Studio Unit 40 The studio unit 40 can be mounted by an information processing device such as a personal computer. Although not shown, the studio unit 40 mainly includes a central processing unit, a main storage device, an input / output interface device, an input device, and an auxiliary device, similarly to the
スタジオユニット40は、インストールされた特定のアプリケーションを実行して情報処理装置として機能することができる。これにより、スタジオユニット40は、図2を参照して上述した動作を実行することができる。 The studio unit 40 can execute a specific installed application and function as an information processing device. As a result, the studio unit 40 can perform the above-described operation with reference to FIG.
なお、スタジオユニット40は、中央処理装置に代えて又は中央処理装置とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むことができる。 The studio unit 40 may include one or more microprocessors and / or a graphics processing unit (GPU) in place of or in combination with the central processing unit.
4.各装置の機能
次に、端末装置20、サーバ装置30及びスタジオユニット40の各々が有する機能の一例について説明する。
4. Functions of Each Device Next, an example of the functions of each of the
4−1.端末装置20の機能
図4は、図1に示した端末装置20(サーバ装置30)の機能の一例を模式的に示すブロック図である。図4に示すように、端末装置20は、記憶部100と、センサ部110と、動作情報取得部120と、位置情報取得部130と、部位位置情報算出部140と、身体位置情報算出部150と、変換部160と、動画生成部170と、表示部180と、ユーザインタフェイス部190と、通信部200と、を含むことができる。
4-1. Function of
(1)記憶部100
画像の配信及び/又は画像の受信等に必要とされる例えば以下に示す情報を含む様々な情報を記憶することができる。
・演者に装着された第1センサ(例えば慣性センサ)から受信した動作情報
・演者に装着された第2センサ(例えば光学センサ)から受信した位置情報
・動作情報に基づいて算出された部位位置情報
・位置情報に基づいて算出された身体位置情報
・物理的な空間における座標から仮想的な空間における座標に変換された部位位置情報
・物理的な空間における座標から仮想的な空間における座標に変換された身体位置情報
・仮想的な空間における座標に変換された部位位置情報と、仮想的な空間における座標に変換された身体位置情報と、に基づいて生成された動画等
(1)
It is possible to store various information including, for example, the following information required for image distribution and / or image reception.
-Operation information received from the first sensor (for example, inertial sensor) attached to the performer-Position information received from the second sensor (for example, optical sensor) attached to the performer-Part position information calculated based on the operation information -Body position information calculated based on position information-Part position information converted from coordinates in physical space to coordinates in virtual space-Converted from coordinates in physical space to coordinates in virtual space Body position information-Videos generated based on the part position information converted to coordinates in virtual space and the body position information converted to coordinates in virtual space, etc.
(2)センサ部110
センサ部110は、様々なタイプのカメラ及び/又はマイクロフォン等のセンサと、このようなセンサにより取得された情報を処理する少なくとも1つのプロセッサと、を含むことができる。センサ部110は、このセンサ部110に対向する演者の顔に関するデータ(画像及び/又は音声等)を取得して、さらにこのデータに対する情報処理を実行することが可能である。
(2)
The
具体的には、例えば、センサ部110は、まず、様々なタイプのカメラを用いて、単位時間ごとに演者の顔に関する画像データを取得することができる。ここで、単位時間は、ユーザ・演者等によりユーザインタフェイス部190を介して任意のタイミングにおいて任意の長さに設定・変更可能である。さらに、センサ部110は、このように取得した画像データを用いて、単位時間ごとに演者の顔における複数の部分の各々の位置を測定することができる。ここで、複数の部分とは、上記のとおり、右目、左目、右眉毛、左眉毛、鼻、口、右耳、左耳、顎、右頬、左頬、及び/又は、これらの部位のうちの何れかの部分における一部分等を、これらに限定することなく含むことができる。なお、カメラにより取得された画像データを用いて単位時間ごとに演者の顔における複数の部分の位置を測定する手法としては、当業者にとって周知である様々な手法を用いることが可能である。
Specifically, for example, the
例えば、1つの実施形態では、センサ部110は、センサとして、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラと、を含むことができる。このようなカメラとしては、例えばiphone X(登録商標)のトゥルーデプス(True Depth)カメラが利用可能である。なお、トゥルーデプス(True Depth)カメラとしては、https://developer.apple.com/documentation/arkit/arfaceanchorに開示されたカメラを利用することができる。このウェブサイトに記載された事項は、引用によりその全体が本明細書に組み入れられる。
For example, in one embodiment, the
RGBカメラに関して、センサ部110は、RGBカメラにより取得された画像をタイムコード(画像を取得した時間を示すコード)に対応付けて単位時間ごとに記録したデータを生成することができる。このデータは、例えばMPEGファイルであり得る。
Regarding the RGB camera, the
さらに、センサ部110は、近赤外線カメラにより取得された所定数(例えば51個)の深度を示す数値(例えば浮動小数点の数値)を上記タイムコードに対応付けて単位時間ごとに記録したデータを生成することができる。このデータは、例えばTSVファイルであり得る。ここで、TSVファイルとは、データ間をタブで区切って複数のデータを記録する形式のファイルである。
Further, the
近赤外線カメラに関して、具体的には、まず、ドットプロジェクタがドット(点)パターンを含む赤外線レーザーを演者の顔に放射することができる。さらに、近赤外線カメラが、演者の顔に投影され反射した赤外線ドットを捉え、このように捉えた赤外線ドットの画像を生成することができる。センサ部110は、予め登録されているドットプロジェクタにより放射されたドットパターンの画像と、近赤外線カメラにより捉えられた画像とを比較して、両画像における各ポイント(例えば51個のポイント・51個の部分の各々)における位置のずれを用いて各ポイント(各部分)の深度を算出することができる。ここで、各ポイント(各部分)の深度は、各ポイント(各部分)と近赤外線カメラとの間の距離であり得る。センサ部110は、このように算出された深度を示す数値を上記のようにタイムコードに対応付けて単位時間ごとに記録したデータを生成することができる。
Regarding the near-infrared camera, specifically, first, the dot projector can emit an infrared laser including a dot pattern to the performer's face. Further, the near-infrared camera can capture the infrared dots projected and reflected on the performer's face and generate an image of the infrared dots captured in this way. The
これにより、センサ部110は、タイムコードに対応付けて、単位時間ごとに、MPEGファイル等の動画と、各部位の位置(座標等)とを、演者の顔に関するデータ(測定データ)として取得することができる。
As a result, the
Argumented Facesを利用することにより、センサ部110は、カメラにより撮像された画像を用いて、次に示す情報を単位時間ごとに取得することができる。
(1)演者の頭蓋骨の物理的な中心位置、
(2)演者の顔を構成する何百もの頂点を含み、上記中心位置に対して定義される顔メッシュ、及び、
(3)上記(1)及び(2)に基づいて識別された、演者の顔における複数の部分(例えば、右頬、左頬、鼻の頂点)の各々の位置(座標)
By using Argumented Faces, the
(1) Physical center position of the performer's skull,
(2) A face mesh that includes hundreds of vertices that make up the performer's face and is defined for the center position, and
(3) Positions (coordinates) of each of a plurality of parts (for example, right cheek, left cheek, and apex of nose) on the performer's face identified based on the above (1) and (2).
この技術を用いることにより、センサ部110は、単位時間ごとに、演者の顔における複数の部分の各々の位置(座標)を取得することができる。
By using this technique, the
なお、センサ部110は、マイクロフォン等から出力された演者の発話及び/又は歌唱に関する音声データについては、このデータに対して周知の信号処理を行うことにより、音声信号を取得することができる。この音声信号は、例えばMPEGファイル等であってもよい。
The
(3)動作情報取得部120及び部位位置情報算出部140
スタジオ等の物理的な空間に居る演者の身体における複数の部位には、(図示しない)複数の第1センサ(例えば慣性センサ)が装着されている。なお、演者の身体における複数の部位は、例えば、頭、顎、右肩、右肘、右手首、右手の甲、右手の指、左肩、左肘、左手首、左手の甲、左手の指、右股関節、右膝、右足首、右足の甲、右足爪先、左股関節、左膝、左足首、左足の甲、左足爪先、背中及び腰等を含む複数の部位から選択され得る。これら複数の第1センサの各々は、3次元加速度計、3次元ジャイロスコープ及び3次元磁力計等のうちの少なくとも1つを含むことができる。複数の第1センサの各々は、単位時間ごとに、センサ信号(動作情報)を送信することができる。なお、複数の第1センサとしては、例えば、イクセンス社により提供される”MVN BIOMECH”(http://0c7.co.jp/products/xsens/products/mvn_biomech/)を利用することが可能である。上記ウェブサイトに開示された内容は、引用によりその全体が本明細書に組み入れられる。
(3) Operation
A plurality of first sensors (for example, inertial sensors) (not shown) are attached to a plurality of parts of the performer's body in a physical space such as a studio. The multiple parts of the performer's body include, for example, the head, jaw, right shoulder, right elbow, right wrist, back of right hand, finger of right hand, left shoulder, left elbow, left wrist, back of left hand, finger of left hand, and right hip joint. , Right knee, right ankle, right instep, right toe, left hip, left knee, left ankle, left instep, left toe, back and hips, etc. can be selected from multiple sites. Each of these plurality of first sensors can include at least one of a three-dimensional accelerometer, a three-dimensional gyroscope, a three-dimensional magnetic field meter, and the like. Each of the plurality of first sensors can transmit a sensor signal (operation information) for each unit time. As a plurality of first sensors, for example, "MVN BIOMECH" (http://0c7.co.jp/products/xsens/products/mvn_biomech/) provided by Ixens can be used. .. The entire content disclosed on the above website is incorporated herein by reference in its entirety.
動作情報取得部120は、複数の第1センサの各々により送信されたセンサ信号(動作情報)を取得することができる。
The operation
部位位置情報算出部140は、動作情報取得部120により取得された、複数の第1センサの各々のセンサ情報に基づいて、複数の第1センサ(すなわち身体における複数の部位)の各々の位置情報(及び向き等)を算出することができる。なお、各第1センサから受信したセンサ情報に基づいてそのセンサの位置情報を取得する手法としては、例えば、特開2017−511906号公報、特表2013−500812号公報及び特許第5388473号公報に記載されている周知の手法を用いることが可能である。なお、これらの文献は、引用によりそれらの全体が本明細書に組み入れられる。
The part position
(4)位置情報取得部130及び身体位置情報算出部150
スタジオ等の物理的な空間に居る演者の身体におけるいずれかの部位(例えば背中)には、(図示しない)少なくとも1つの第2センサ(例えば光学センサ)が装着されている。また、スタジオ等の物理的な空間に居る演者の近くには、図示しない2つのベースステーション(第1ベースステーション及び第2ベースステーション)が設置され得る。
(4) Position
At least one second sensor (for example, an optical sensor) (not shown) is attached to any part (for example, the back) of the performer's body in a physical space such as a studio. Further, two base stations (first base station and second base station) (not shown) may be installed near the performer in a physical space such as a studio.
第1ベースステーション及び第2ベースステーションは、例えば、多軸レーザーエミッターであり得る。第1ベースステーションは、例えば、同期用の点滅光を発した後に、鉛直軸の周りにレーザー光を走査することができる。第2ベースステーションは、例えば、同期用の点滅光を発した後に、水平軸の周りにレーザー光を走査することができる。 The first base station and the second base station can be, for example, a multi-axis laser emitter. The first base station can, for example, emit a flashing light for synchronization and then scan the laser light around the vertical axis. The second base station can, for example, emit a flashing light for synchronization and then scan the laser light around the horizontal axis.
第2センサは、第1ベースステーション及び第2ベースステーションからの点滅光及びレーザー光の入射を検知することができる。さらに、第2センサは、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、この第2センサでの受光時間、この第2センサが検知したレーザー光の入射角度等に基づいて、この第2センサの位置情報(及び向き等)を検出することができる。さらにまた、第2センサは、単位時間ごとに、この第2センサが検出した位置情報を送信することができる。位置情報取得部130は、このように第2センサにより単位時間ごとに送信された位置情報を取得することができる。
The second sensor can detect the incident of blinking light and laser light from the first base station and the second base station. Further, the second sensor is based on the time difference between the incident timing of the blinking light and the incident timing of the laser light, the light receiving time by the second sensor, the incident angle of the laser light detected by the second sensor, and the like. 2 The position information (and orientation, etc.) of the sensor can be detected. Furthermore, the second sensor can transmit the position information detected by the second sensor every unit time. The position
なお、このような第2センサ、並びに、第1ベースステーション及び第2ベースステーションとしては、例えば、HTC社により提供される”HTC VIVE”を利用することができる。上記ウェブサイトに開示された内容は、引用によりその全体が本明細書に組み入れられる。 As such a second sensor, a first base station, and a second base station, for example, "HTC VIVE" provided by HTC can be used. The entire content disclosed on the above website is incorporated herein by reference in its entirety.
身体位置情報算出部150は、位置情報取得部130により取得された第2センサの位置情報に基づいて、身体の位置情報を算出することができる。なお、身体の位置情報の算出手法については、図6を参照して後述する。
The body position
(5)変換部160
変換部160は、部位位置情報算出部140により算出された、複数の第1センサの各々の位置情報を、物理的な空間における座標から仮想的な空間における座標に変換することができる。さらに、変換部160は、身体位置情報算出部150により算出された、第2センサの位置情報を、物理的な空間における座標から仮想的な空間における座標に変換することができる。なお、物理的な空間とは、演者が存在する空間(例えばスタジオ等)における座標である。また、仮想的な空間とは、演者のアバターが存在する空間における座標である。
(5)
The
(6)動画生成部170
動画生成部170は、例えば、以下の情報を用いて、演者の身体の動作に追従したアバターのアニメーションを含む動画を生成することができる。
・センサ部110により取得された演者の身体に関するデータ(測定データ)
・部位位置情報算出部140により算出された複数の第1センサ(身体における複数の部位)の各々の位置情報
・身体位置情報算出部150により算出された身体の位置情報
(6)
For example, the moving
-Data (measurement data) related to the performer's body acquired by the
-Position information of each of a plurality of first sensors (plural parts in the body) calculated by the site position information calculation unit 140-Body position information calculated by the body position
例えば、動画生成部170は、演者の身体の動作に追従して、例えば、アバターが以下の動作を行うような動画を生成することができる。
・アバターが真顔を維持して瞬きを行うこと
・アバターが真顔を維持して俯くこと
・アバターが口や目を動作させること
・アバターが仮想空間において移動すること
・アバターが身体における複数の部位を動作させること
For example, the moving
・ Avatar keeps a straight face and blinks ・ Avatar keeps a straight face and looks down ・ Avatar moves mouth and eyes ・ Avatar moves in virtual space ・ Avatar moves multiple parts of the body To work
このような動画の生成は、動画生成部170が、例えば以下の処理等を行うことにより実現可能である。
・センサ部110により取得された演者の身体に関する測定データ(顔における複数の部分の各々の座標)に基づいて、アバターの顔を描画する処理
・身体位置情報算出部150により算出された身体の位置情報に基づいて定められる座標に、アバターを描画する処理
・部位位置情報算出部140により算出された各第1センサの位置情報に基づいて定められる座標に、その第1センサに対応する部位を描画する処理
また、このような動画の生成は、当業者にとって周知である様々なレンダリング技術を用いることによって実現可能である。
Such generation of moving images can be realized by the moving
-Process of drawing the face of the avatar based on the measurement data (coordinates of each of the plurality of parts in the face) about the performer's body acquired by the sensor unit 110-The position of the body calculated by the body position
このように動画生成部170により生成された動画を格納したファイルは、記憶部100に記憶され得る。
The file storing the moving image generated by the moving
(7)表示部180
表示部180は、例えば、タッチパネル及び/又はディスプレイパネル等を含むことができる。このような表示部180は、動画生成部170により生成され記憶部100により記憶された動画を格納したファイルを再生して表示することができる。
(7)
The
(8)ユーザインタフェイス部190
ユーザインタフェイス部190は、タッチパネル、マウス及び/又はキーボード等を含むことができる。このようなユーザインタフェイス部190は、演者により行われた操作の内容を示す情報を生成することができる。
(8)
The
(9)通信部200
通信部200は、動画の配信及び/又は動画の受信に必要とされる様々な情報を、通信網10を介してサーバ装置30との間で通信することができる。特に、当該端末装置20が演者(配信者)の端末装置20として動作する場合には、通信部200は、記憶部100に記憶された動画を、サーバ装置30に送信することができる。当該端末装置20が視聴者の端末装置20として動作する場合には、通信部200は、配信者の端末装置20により配信された動画を、サーバ装置30を介して受信することができる。
(9)
The
4−2.サーバ装置30の機能及びスタジオユニット40の機能
サーバ装置30の機能の一例について同じく図4を参照して説明する。サーバ装置30の機能としては、例えば、上述した端末装置20の機能の少なくとも一部を用いることが可能である。したがって、サーバ装置30が有する構成要素に対する参照符号は、図4において括弧内に示されている。また、スタジオユニットは、図4に示した端末装置20又はサーバ装置30と同様の構成を有することにより、端末装置20又はサーバ装置30と同様の動作を行うことが可能である。
4-2. Function of
5.通信システム1により行われる動作
次に、上述した通信システム1により行われる動作の一例について、図5を参照して説明する。図5は、図1に示した通信システム1により行われる動作の一例を示すフロー図である。
5. Operations Performed by
5−1.全体の動作
図5に示すように、まず、ステップ(以下「ST」という。)402において、配信装置は、例えば単位時間ごとに、測定データ、動作情報及び位置情報を取得することができる。配信装置は、このように取得した測定データ、動作情報及び/又は位置情報を、記憶部100(200)に記憶させるようにしてもよい。なお、測定データは、センサ部110(210)により取得され得る。動作情報及び位置情報は、それぞれ、動作情報取得部120(220)及び位置情報取得部130(230)により取得され得る。なお、ST402において行われる動作は、図2に示した動作(A)に含まれ得る。
5-1. Overall Operation As shown in FIG. 5, first, in step (hereinafter referred to as “ST”) 402, the distribution device can acquire measurement data, operation information, and position information, for example, for each unit time. The distribution device may store the measurement data, the operation information, and / or the position information acquired in this way in the storage unit 100 (200). The measurement data can be acquired by the sensor unit 110 (210). The operation information and the position information can be acquired by the operation information acquisition unit 120 (220) and the position information acquisition unit 130 (230), respectively. The operation performed in ST402 can be included in the operation (A) shown in FIG.
ST404において、配信装置(の部位位置情報算出部140(240))は、ST402において取得された動作情報に基づいて、物理的な空間における各部位の位置情報を算出することができる。なお、ST404において行われる動作は、図2に示した動作(B)に含まれ得る。 In ST404, the distribution device (part position information calculation unit 140 (240)) can calculate the position information of each part in the physical space based on the operation information acquired in ST402. The operation performed in ST404 can be included in the operation (B) shown in FIG.
ST406において、配信装置(の身体位置情報算出部150(250))は、ST402において取得された位置情報に基づいて、物理的な空間における身体の位置情報を算出することができる。ST406において行われる具体的な処理については、図6を参照して後述する。なお、ST406において行われる動作は、図2に示した動作(B)に含まれ得る。 In ST406, the distribution device (body position information calculation unit 150 (250)) can calculate the position information of the body in the physical space based on the position information acquired in ST402. The specific processing performed in ST406 will be described later with reference to FIG. The operation performed in ST406 can be included in the operation (B) shown in FIG.
ST408において、配信装置(の部位位置情報算出部140(240))は、ST404において算出された各部位の位置情報を、物理的な空間における3次元座標から、仮想的な空間における3次元座標に変換することができる。演者が演技を行う物理的な空間(例えばスタジオ等)のサイズと、アバターが配置される仮想的な空間のサイズとは、同一ではないため、このような物理的な空間における3次元座標から仮想的な空間(例えばカラオケボックスの部屋等)における3次元座標に対する位置情報の変換が行われる。なお、ST408において行われる動作は、図2に示した動作(C)に含まれ得る。 In ST408, the distribution device (part position information calculation unit 140 (240)) changes the position information of each part calculated in ST404 from the three-dimensional coordinates in the physical space to the three-dimensional coordinates in the virtual space. Can be converted. Since the size of the physical space in which the performer performs (for example, a studio) and the size of the virtual space in which the avatar is placed are not the same, they are virtual from the three-dimensional coordinates in such a physical space. Position information is converted to three-dimensional coordinates in a typical space (for example, a room of a karaoke box). The operation performed in ST408 may be included in the operation (C) shown in FIG.
ST410において、配信装置(の身体位置情報算出部150(250))は、ST406において算出された身体の位置情報を、物理的な空間における3次元座標から、仮想的な空間における3次元座標に変換することができる。演者が演技を行う物理的な空間(例えばスタジオ等)のサイズと、アバターが配置される仮想的な空間(例えばカラオケボックスの部屋等)のサイズとは、同一ではないため、このような物理的な空間における3次元座標から仮想的な空間における3次元座標に対する位置情報の変換が行われる。なお、ST410において行われる動作は、図2に示した動作(C)に含まれ得る。 In ST410, the distribution device (body position information calculation unit 150 (250)) converts the body position information calculated in ST406 from three-dimensional coordinates in physical space to three-dimensional coordinates in virtual space. can do. Since the size of the physical space in which the performer performs (for example, a studio) and the size of the virtual space in which the avatar is placed (for example, a karaoke box room) are not the same, such physical The position information is converted from the three-dimensional coordinates in the space to the three-dimensional coordinates in the virtual space. The operation performed in ST410 can be included in the operation (C) shown in FIG.
ST412において、配信装置(の動画生成部170(270))は、ST402において取得された測定データと、ST408において仮想的な空間における3次元座標に変換された各部位の位置情報と、ST410において仮想的な空間における3次元座標に変換された身体の位置情報と、を含む情報等に基づいて、アバターのアニメーションを含む動画を生成することができる。さらに、配信装置(の通信部200(300))は、このように生成された動画をサーバ装置30に送信することができる。これにより、各視聴者の端末装置20は、ST414において生成された動画を、サーバ装置30を介して受信することができる。なお、ST412において行われる動作は、図2に示した動作(D)に含まれ得る。
In ST412, the distribution device (the moving image generation unit 170 (270)) receives the measurement data acquired in ST402, the position information of each part converted into three-dimensional coordinates in the virtual space in ST408, and the virtual in ST410. It is possible to generate a moving image including an animation of an avatar based on the position information of the body converted into three-dimensional coordinates in a typical space and the information including the information. Further, the distribution device (communication unit 200 (300)) can transmit the moving image generated in this way to the
ST414において、配信装置及び各視聴者の端末装置20は、ST414において生成された動画を再生及び表示することができる。なお、ST414において行われる動作は、図2に示した動作(E)に含まれ得る。
In ST414, the distribution device and the
ST416において、配信装置は、処理を継続するか否かを判定することができる。処理の継続が判定された場合には、処理は上述したST402に戻る。一方、処理の中止が判定された場合には、処理は終了する。 In ST416, the distribution device can determine whether or not to continue the process. If it is determined that the process is to be continued, the process returns to ST402 described above. On the other hand, when it is determined that the processing is stopped, the processing ends.
なお、図5に示した各ステップにおける処理は、別のステップにおける処理と少なくとも部分的に並行して実行されるものであってもよい。例えば、ST402において、配信装置が、単位時間ごとに、測定データ、動作情報及び位置情報を取得することに並行して、配信装置は、ST404〜ST414のそれぞれにおける動作を実行し、かつ、各視聴者の端末装置20はST414における動作を実行することができる。
The process in each step shown in FIG. 5 may be executed at least partially in parallel with the process in another step. For example, in ST402, in parallel with the distribution device acquiring measurement data, operation information, and position information every unit time, the distribution device executes the operations in each of ST404 to ST414, and each viewing The
5−2.身体位置情報算出部150(250)により実行される処理の具体例
次に、上述したST406において身体位置情報算出部150(250)により行われる具体的な処理の一例について、図6を参照して説明する。図6は、図1に示した通信システム1において身体位置情報算出部150(250)により行われる動作の一例を示すフロー図である。
5-2. Specific Example of Processing Performed by Body Position Information Calculation Unit 150 (250) Next, refer to FIG. 6 for an example of specific processing performed by the body position information calculation unit 150 (250) in ST406 described above. explain. FIG. 6 is a flow chart showing an example of an operation performed by the body position information calculation unit 150 (250) in the
図6を参照すると、ST502において、配信装置は、第1単位時間ごとにST402において取得した位置情報に対して前処理を実行することができる。前処理には、ST402において取得した位置情報を、所定の原点(所定の座標)を基準とした位置情報に変換する処理、及び/又は、ST402において取得した位置情報を、所定の桁数に収める処理等が、含まれ得る。 Referring to FIG. 6, in ST502, the distribution device can execute preprocessing on the position information acquired in ST402 every first unit time. In the pre-processing, the process of converting the position information acquired in ST402 into the position information based on the predetermined origin (predetermined coordinates) and / or the position information acquired in ST402 is stored in a predetermined number of digits. Processing etc. may be included.
ST504において、配信装置は、前回の第1単位時間(以下「前第1単位時間」という)において取得した位置情報と、現在の第1単位時間(以下「現第1単位時間」という)において取得した位置情報と、の間における変化量を算出することができる。 In ST504, the distribution device acquires the position information acquired in the previous first unit time (hereinafter referred to as "previous first unit time") and the current first unit time (hereinafter referred to as "current first unit time"). It is possible to calculate the amount of change between the obtained position information and the obtained position information.
ST506において、配信装置は、ST504において算出した変化量が閾値を上回るか否かを判定することができる。ST506において変化量が閾値以下であると判定された場合には、ST508において、配信装置は、現第1単位時間において取得した位置情報を有効な位置情報として決定することができる。かかる有効な位置情報は、上述したST410において用いられる。この後、処理は上述したST502に戻る。 In ST506, the distribution device can determine whether or not the amount of change calculated in ST504 exceeds the threshold value. When it is determined in ST506 that the amount of change is equal to or less than the threshold value, in ST508, the distribution device can determine the position information acquired in the current first unit time as effective position information. Such effective position information is used in ST410 described above. After this, the process returns to ST502 described above.
一方、ST506において変化量が閾値を上回ると判定された場合には、処理はST510に移行する。なお、このように変化量が閾値を上回る現象は、第1ベースステーション及び/又は第2ベースステーションにより発せられた点滅光又は他の光が、何らかの物体に反射して、配信者に装着された第2センサに入射したこと等(これに限られない)に起因して生ずることが考えられる。 On the other hand, when it is determined in ST506 that the amount of change exceeds the threshold value, the process shifts to ST510. In this phenomenon, the amount of change exceeds the threshold value, the blinking light or other light emitted by the first base station and / or the second base station is reflected by some object and attached to the distributor. It is conceivable that this occurs due to (not limited to) incident on the second sensor.
ST510において、配信装置は、現第1単位時間において取得した位置情報を破棄することができる。ST512において、配信装置は、上述したST502におけるものと同様の処理を実行することができる。ST514において、配信装置は、新たな前第1単位時間(これまでに用いた前第1単位時間とは異なる前第1単位時間)において取得した位置情報と、新たな現第1単位時間(これまでに用いた現第1単位時間とは異なる現第1単位時間)において取得した位置情報と、の間における変化量を算出することができる。 In ST510, the distribution device can discard the position information acquired in the current first unit time. In ST512, the distribution device can perform the same processing as in ST502 described above. In ST514, the distribution device receives the position information acquired in the new first unit time before (the first unit time before different from the first unit time used so far) and the new current first unit time (this). It is possible to calculate the amount of change between the position information acquired in the current 1st unit time different from the current 1st unit time used up to now) and the current 1st unit time.
ST516において、配信装置は、ST504において算出した変化量が閾値を上回るか否かを判定することができる。ST516において変化量が閾値以下であると判定された場合には、ST518において、配信装置は、現第1単位時間(ST514における新たな現第1単位時間と同一)において取得した位置情報を有効な位置情報として決定することができる。かかる有効な位置情報は、上述したST410において用いられる。この後、処理は上述したST502に戻る。 In ST516, the distribution device can determine whether or not the amount of change calculated in ST504 exceeds the threshold value. When it is determined in ST516 that the amount of change is less than or equal to the threshold value, in ST518, the distribution device validly uses the position information acquired in the current first unit time (same as the new current first unit time in ST514). It can be determined as position information. Such effective position information is used in ST410 described above. After this, the process returns to ST502 described above.
一方、ST516において変化量が閾値を上回ると判定された場合には、処理は上述したST510に戻る。 On the other hand, when it is determined in ST516 that the amount of change exceeds the threshold value, the process returns to ST510 described above.
図6に示した処理によれば、配信装置は、前第1単位時間において取得した位置情報と現第1単位時間において取得した位置情報との間における変化量が閾値以下である場合には、当該現第1単位時間において取得した位置情報を有効な位置情報として使用することができる。 According to the process shown in FIG. 6, when the amount of change between the position information acquired in the previous first unit time and the position information acquired in the current first unit time is equal to or less than the threshold value, the distribution device The position information acquired in the current first unit time can be used as effective position information.
一方、上記変化量が上記閾値を上回る場合には、配信装置は、当該現第1単位時間において取得した位置情報を廃棄することができる。この後、配信装置は、新たな前第1単位時間において取得した位置情報と、新たな現第1単位時間において取得した位置情報との間における変化量が閾値以下となるまで、そのような新たな現単位時間において取得した位置情報を破棄し続ける。さらに、上記変化量が上記閾値以下となった時点において、配信装置は、そのような時点における現第1単位時間において取得した位置情報を有効な位置情報として使用することができる。これにより、配信装置は、光の反射等に起因して第2センサから受信した位置情報に誤りが存在する場合には、そのような位置情報を破棄し続け、その後に第2センサから取得した適切な位置情報を、有効な位置情報として利用することができる。 On the other hand, when the amount of change exceeds the threshold value, the distribution device can discard the position information acquired in the current first unit time. After that, the distribution device makes such a new position until the amount of change between the position information acquired in the new previous first unit time and the position information acquired in the new current first unit time becomes equal to or less than the threshold value. Continue to discard the location information acquired in the current unit time. Further, when the amount of change becomes equal to or less than the threshold value, the distribution device can use the position information acquired in the current first unit time at such a time point as effective position information. As a result, if there is an error in the position information received from the second sensor due to light reflection or the like, the distribution device continues to discard such position information, and then acquires it from the second sensor. Appropriate location information can be used as valid location information.
なお、図6に示した例では、配信装置が第2センサから位置情報を取得する時間におけるインターバル(ST502、ST512)と、配信装置が変化量を取得するために用いる2つの位置情報の間におけるインターバル(ST504、ST514)とが、同一(第1単位時間ごと)である場合について説明した。しかし、図7に例示するように、配信装置が変化量を取得するために用いる2つの位置情報の間におけるインターバル(ST604、ST614)を、配信装置が第2センサから位置情報を取得する時間におけるインターバル(ST602、ST612)より長くすることも可能である。すなわち、図7において、第2単位時間を第1単位時間よりも長くすることが可能である。なお、図7に示した例における動作は、第1単位時間と第2単位時間とを組み合わせて用いる点を除き、図6に示した例における動作と同様である。 In the example shown in FIG. 6, between the interval (ST502, ST512) in the time when the distribution device acquires the position information from the second sensor and the two position information used by the distribution device to acquire the change amount. The case where the intervals (ST504, ST514) are the same (every first unit time) has been described. However, as illustrated in FIG. 7, the interval (ST604, ST614) between the two position information used by the distribution device to acquire the amount of change is set at the time when the distribution device acquires the position information from the second sensor. It is also possible to make it longer than the interval (ST602, ST612). That is, in FIG. 7, the second unit time can be made longer than the first unit time. The operation in the example shown in FIG. 7 is the same as the operation in the example shown in FIG. 6 except that the first unit time and the second unit time are used in combination.
6.変形例
図5に示したST404において配信装置が算出する各部位の位置情報は、用いられる第1センサの性能等によっては、時間の経過とともに、生じた誤差を蓄積していくことにより、大きな誤差を含む可能性が考えられる。このような問題に対処するために、配信装置は、ST404において算出した各部位の位置情報を、所定のタイミング(例えば周期的に)において、補正することができる。
6. Modification example The position information of each part calculated by the distribution device in ST404 shown in FIG. 5 has a large error due to the accumulation of errors that occur over time, depending on the performance of the first sensor used. May be included. In order to deal with such a problem, the distribution device can correct the position information of each part calculated in ST404 at a predetermined timing (for example, periodically).
例えば、配信装置は、ST406において取得した「有効な位置情報」に基づいて、ST404において算出した各部位の位置情報を補正することができる。具体的には、第1の方法では、配信装置は、ST406において有効な位置情報として取得した身体の位置情報が、前回有効な位置情報として取得した身体の位置情報から、例えば、(Δx、Δy、Δz)だけシフトしている場合には、ST404において取得した各部位の位置情報を、相対的に、(Δx、Δy、Δz)又は(k1・Δx、k2・Δy、k3・Δz)だけシフトすることができる。ここで、k1、k2及びk3は、それぞれ、任意の係数である。 For example, the distribution device can correct the position information of each part calculated in ST404 based on the "valid position information" acquired in ST406. Specifically, in the first method, in the distribution device, the body position information acquired as valid position information in ST406 is, for example, (Δx, Δy) from the body position information acquired as valid position information last time. , Δz), the position information of each part acquired in ST404 is relatively shifted by (Δx, Δy, Δz) or (k1 · Δx, k2 · Δy, k3 · Δz). can do. Here, k1, k2, and k3 are arbitrary coefficients, respectively.
また、図6及び図7に示した例において、第1単位時間及び/又は第2単位時間は、任意のタイミングで変更可能な単位時間であり得る。 Further, in the examples shown in FIGS. 6 and 7, the first unit time and / or the second unit time may be a unit time that can be changed at an arbitrary timing.
さらに、上述した様々な実施形態では、第1センサ及び第2センサとして、それぞれ、慣性センサ及び光学センサを用いる場合について説明した。しかし、相互に異なる第1センサ及び第2センサの各々は、周知である、光学(式)センサ、慣性(式)センサ、磁気(式)センサ及び機械(式)センサを含む様々なセンサから選択され得る。このような場合にも、第2センサからの位置情報を用いて算出された位置情報としては、単位時間当たりの変化量が閾値以下である位置情報のみが、有効な位置情報として用いられる。これにより、第2センサからの位置情報を用いて算出された位置情報のうち、一定の大きさを超える誤差を有する位置情報は、破棄される。したがって、配信者の身体の位置を向上した精度により検出することが可能である。さらに、このような第2センサからの位置情報を用いて算出された位置情報の単位時間当たりの変化量に基づいて、複数の第1センサ(複数の部位)の各々から受信した動作情報を用いて算出された位置情報を補正することができる。これにより、各第1センサが装着された部位の位置情報についても、向上した精度により検出することができる。 Further, in the various embodiments described above, cases where an inertial sensor and an optical sensor are used as the first sensor and the second sensor, respectively, have been described. However, each of the different first and second sensors can be selected from a variety of well-known sensors, including optical (formula) sensors, inertial (formula) sensors, magnetic (formula) sensors and mechanical (formula) sensors. Can be done. Even in such a case, as the position information calculated using the position information from the second sensor, only the position information in which the amount of change per unit time is equal to or less than the threshold value is used as effective position information. As a result, among the position information calculated using the position information from the second sensor, the position information having an error exceeding a certain magnitude is discarded. Therefore, it is possible to detect the position of the distributor's body with improved accuracy. Further, based on the amount of change in the position information per unit time calculated using the position information from the second sensor, the operation information received from each of the plurality of first sensors (plural parts) is used. The position information calculated in the above can be corrected. As a result, the position information of the portion where each first sensor is attached can also be detected with improved accuracy.
さらにまた、図6及び図7に示した例では、配信装置が、図2に示した動作(A)〜動作(E)を実行し、各視聴者の端末装置20が動作(E)を実行する場合(図2における態様(1)に対応する場合)について説明した。しかし、動作(A)〜動作(E)は、図2における態様(2)〜態様(5)に示すように、複数の装置により分担して実行されるようにしてもよい。
Furthermore, in the examples shown in FIGS. 6 and 7, the distribution device executes the operations (A) to (E) shown in FIG. 2, and the
この場合、隣接する2つの動作が相互に異なる装置により実行される場合には、これら2つの動作のうち先に生ずる動作を実行する装置は、その動作により得られた情報等を、後に生ずる動作を実行する装置に対して送信する必要がある。 In this case, when two adjacent operations are executed by devices that are different from each other, the device that executes the operation that occurs first of these two operations obtains information or the like obtained by the operation, and the operation that occurs later. Must be sent to the device that runs.
例えば、態様(2)の経路(2B)に着目すると、配信装置は、動作(A)により得られた動作情報及び位置情報(測定データ)を、動作(B)を実行するサーバ装置に送信する必要がある。同様に、サーバ装置は、動作(D)により得られた動画を、各視聴者の端末装置に送信する必要がある。 For example, focusing on the route (2B) of the aspect (2), the distribution device transmits the operation information and the position information (measurement data) obtained by the operation (A) to the server device that executes the operation (B). There is a need. Similarly, the server device needs to transmit the moving image obtained by the operation (D) to the terminal device of each viewer.
別の例として、態様(5)の経路(5B)に着目すると、配信装置は、動作(A)により得られた動作情報及び位置情報(測定データ)を、例えばサーバ装置を介して、各視聴者の端末装置に送信する必要がある。 As another example, focusing on the route (5B) of the aspect (5), the distribution device views the operation information and the position information (measurement data) obtained by the operation (A), for example, via the server device. It is necessary to send to the terminal device of the person.
なお、図2に示された、態様(3)の経路(3B)、態様(4)の経路(4B)及び態様(5)の経路(5B)においては、各視聴者の端末装置は、配信装置により生成された動画を表示するのではなく、その視聴者の端末装置自体により生成(描画)された動画を表示することができる(この方式は、視聴者の端末装置(クライアント)がレンダリング(描画)を行うことから、「クライアントレンダリング」といわれることがある)。これにより、各視聴者の端末装置は、一般的に大きな容量を有する動画を受信する必要がないため、より高速に、配信者のアバターのアニメーションを含む動画を表示することができる。すなわち、配信装置により表示される動画と、各視聴者の端末装置により表示される動画との間における時間差を、大幅に抑えることが可能である。 In the route (3B) of the aspect (3), the route (4B) of the aspect (4), and the route (5B) of the aspect (5) shown in FIG. 2, the terminal device of each viewer delivers. Instead of displaying the video generated by the device, the video generated (drawn) by the viewer's terminal device itself can be displayed (in this method, the viewer's terminal device (client) renders (this method). It is sometimes called "client rendering" because it performs drawing). As a result, the terminal device of each viewer generally does not need to receive the moving image having a large capacity, so that the moving image including the animation of the distributor's avatar can be displayed at a higher speed. That is, it is possible to significantly suppress the time difference between the moving image displayed by the distribution device and the moving image displayed by the terminal device of each viewer.
7.様々な態様
第1の態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
7. Various Aspects The computer program according to the first aspect is described as "by being executed by at least one processor, from a plurality of first sensors attached to a plurality of parts of the distributor's body existing in a physical space. The output motion information regarding each movement of the plurality of parts is acquired, and the position information regarding the position of the body output from at least one second sensor attached to the body of the distributor is acquired, and the motion is described. The at least one processor is used to calculate the position of each of the plurality of parts in the physical space based on the information and calculate the position of the body in the physical space based on the position information. Can "make it work".
第2の態様に係るコンピュータプログラムは、上記第1の態様において「前記位置情報に基づいて算出された前記身体の位置が有効な位置として使用可能であるか否かを判断する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the first aspect, the computer program according to the second aspect "determines whether or not the body position calculated based on the position information can be used as an effective position. One processor can work. "
第3の態様に係るコンピュータプログラムは、上記第2の態様において「第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、前記第1単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the second aspect, the computer program according to the third aspect "calculates the position of the body based on the position information every first unit time, and the amount of change in the position of the body in the first unit time. Is less than or equal to the threshold, the at least one processor may function to use the body position calculated based on the position information as an effective position during the first unit time. "
第4の態様に係るコンピュータプログラムは、上記第3の態様において「前記第1単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the third aspect, the computer program according to the fourth aspect states, "When the amount of change in the position of the body in the first unit time exceeds the threshold value, the computer program is based on the position information in the first unit time. The at least one processor can be made to function so as to discard the calculated position of the body. "
第5の態様に係るコンピュータプログラムは、上記第4の態様において「前記身体の位置の変化量が閾値を上回った当該第1単位時間より後に生ずる新たな第1単位時間における前記身体の位置の変化量が閾値以下に戻った場合に、当該新たな第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the fourth aspect, the computer program according to the fifth aspect states that "the change in the position of the body in the new first unit time occurs after the first unit time in which the amount of change in the position of the body exceeds the threshold value". The at least one processor is made to function so that when the amount returns below the threshold, the position of the body calculated based on the position information is used as an effective position in the new first unit time. " be able to.
第6の態様に係るコンピュータプログラムは、上記第2の態様において「第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、前記第1単位時間より長い第2単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the second aspect, the computer program according to the sixth aspect "calculates the position of the body based on the position information every first unit time, and the second unit time longer than the first unit time. The at least one processor functions to use the body position calculated based on the position information as an effective position in the second unit time when the amount of change in the body position is less than or equal to the threshold value. You can "make it".
第7の態様に係るコンピュータプログラムは、上記第6の態様において「前記第2単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the sixth aspect, the computer program according to the seventh aspect states, "When the amount of change in the position of the body in the second unit time exceeds the threshold value, the computer program is based on the position information in the second unit time. The at least one processor can be made to function so as to discard the calculated position of the body. "
第8の態様に係るコンピュータプログラムは、上記第7の態様において「前記身体の位置の変化量が閾値を上回った当該第2単位時間より後に生ずる新たな第2単位時間における前記身体の位置の変化量が閾値以下に戻った場合に、当該新たな第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In the seventh aspect, the computer program according to the eighth aspect states that "the change in the position of the body occurs after the second unit time when the amount of change in the position of the body exceeds the threshold value". The at least one processor is made to function so that when the amount returns below the threshold, the position of the body calculated based on the position information is used as an effective position in the new second unit time. " be able to.
第9の態様に係るコンピュータプログラムは、上記第3の態様から上記第5の態様のいずれかにおいて「前記第1単位時間が変更可能である」。 The computer program according to the ninth aspect "can change the first unit time" in any one of the third aspect to the fifth aspect.
第10の態様に係るコンピュータプログラムは、上記第6の態様から上記第8の態様のいずれかにおいて「前記第1単位時間及び/又は前記第2単位時間が変更可能である」。 The computer program according to the tenth aspect "can change the first unit time and / or the second unit time" in any one of the sixth aspect to the eighth aspect.
第11の態様に係るコンピュータプログラムは、上記第3の態様から上記第10の態様のいずれかにおいて「前記位置情報に基づいて算出された前記身体の有効な位置を仮想的な空間における前記身体の位置に変換し、前記動作情報に基づいて算出された前記複数の部位の各々の位置を仮想的な空間における該複数の部位の各々の位置に変換する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 In any of the third to tenth aspects, the computer program according to the eleventh aspect "sets the effective position of the body calculated based on the position information of the body in a virtual space. The at least one processor is made to function so as to convert into a position and convert each position of the plurality of parts calculated based on the operation information into each position of the plurality of parts in a virtual space. "be able to.
第12の態様に係るコンピュータプログラムは、上記第11の態様において「前記仮想的な空間における前記身体の位置、及び、前記仮想的な空間における前記複数の部位の各々の位置に基づいて、前記配信者のアバターのアニメーションを含む動画を生成する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 The computer program according to the twelfth aspect is the delivery in the eleventh aspect, "based on the position of the body in the virtual space and the position of each of the plurality of parts in the virtual space. The at least one processor can be made to function so as to generate a moving image containing an animation of a person's avatar. "
第13の態様に係るコンピュータプログラムは、上記第1の態様から上記第12の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む」ことができる。 The computer program according to the thirteenth aspect is described in any one of the first to the twelfth aspects, wherein "the at least one processor is a central processing unit (CPU), a microprocessor and / or a graphics processing unit (1). GPU) can be included.
第14の態様に係るコンピュータプログラムは、上記第1の態様から上記第13の態様のいずれかにおいて「取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 The computer program according to the fourteenth aspect is the at least one such that "the acquired operation information and / or the position information is stored in the storage unit" in any one of the first to thirteenth aspects. Two processors can work. "
第15の態様に係るコンピュータプログラムは、上記第1の態様から上記第14の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、スタジオに設置される端末装置、前記配信者の端末装置、視聴ユーザの端末装置、及び/又は、サーバ装置に搭載される」ことができる。 The computer program according to the fifteenth aspect is described in any one of the first to the fourteenth aspects, wherein "the terminal device in which at least one processor is installed in the studio, the terminal device of the distributor, and the viewing user". Can be mounted on a terminal device and / or a server device.
第16の態様に係るサーバ装置は、「少なくとも1つのプロセッサを具備し、該少なくとも1つのプロセッサが、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する」ことができる。 The server device according to the sixteenth aspect is described as "a plurality of first sensors including at least one processor, wherein the at least one processor is attached to a plurality of parts of the distributor's body existing in a physical space. The motion information regarding the movement of each of the plurality of parts output from is acquired, and the position information regarding the position of the body output from at least one second sensor attached to the body of the distributor is acquired. It is possible to calculate the position of each of the plurality of parts in the physical space based on the motion information, and calculate the position of the body in the physical space based on the position information. "
第17の態様に係るサーバ装置は、上記第16の態様において「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む」ことができる。 The server device according to the seventeenth aspect can be "the at least one processor includes a central processing unit (CPU), a microprocessor and / or a graphics processing unit (GPU)" in the sixteenth aspect.
第18の態様に係るサーバ装置は、上記第16の態様又は上記第17の態様において「取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。 The server device according to the eighteenth aspect has the at least one processor so as to "store the acquired operation information and / or the position information in the storage unit" in the sixteenth aspect or the seventeenth aspect. Can "make it work".
第19の態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、該少なくとも1つのプロセッサが、前記命令を実行することにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得する第1取得工程と、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得する第2取得工程と、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出する第1算出工程と、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する第2算出工程と、を含む」ことができる。 A method according to a nineteenth aspect is "a method executed by at least one processor that executes a computer-readable instruction, wherein the at least one processor executes the instruction to be physical. A first acquisition step of acquiring motion information regarding the operation of each of the plurality of parts output from a plurality of first sensors attached to a plurality of parts of the distributor's body existing in space, and the distributor's body. A second acquisition step of acquiring position information regarding the position of the body output from at least one second sensor attached to the body, and the position of each of the plurality of parts in the physical space based on the motion information. A first calculation step for calculating the position of the body in the physical space based on the position information, and a second calculation step for calculating the position of the body in the physical space can be included. "
第20の態様に係る方法は、上記第19の態様において「各工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行される」ことができる。 According to the twentieth aspect, in the nineteenth aspect, "each step is executed by the terminal device installed in the studio or the at least one processor mounted on the terminal device of the distributor". can.
第21の態様に係る方法は、上記第19の態様において「前記第1取得工程及び前記第2取得工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行され、前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に接続されるサーバ装置に搭載された、前記少なくとも1つのプロセッサにより実行される」ことができる。 The method according to the 21st aspect is that in the 19th aspect, "the first acquisition step and the second acquisition step are mounted on a terminal device installed in a studio or a terminal device of the distributor, at least one of the above. The at least one processor executed by one processor, wherein the first calculation step and the second calculation step are mounted on a terminal device installed in the studio or a server device connected to the terminal device of the distributor. Can be executed by.
第22の態様に係る方法は、上記第19の態様において「前記第1取得工程及び前記第2取得工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行され、前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される」ことができる。 The method according to the 22nd aspect is that in the 19th aspect, "the first acquisition step and the second acquisition step are mounted on a terminal device installed in a studio or a terminal device of the distributor, at least one of the above. The first calculation step and the second calculation step are executed by one processor, and are mounted on a terminal device installed in the studio or a terminal device connected to the distributor's terminal device via a server device. It can also be executed by the at least one processor. "
第23の態様に係る方法は、上記第19の態様において「各工程が、スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される」ことができる。 The method according to the 23rd aspect is described in the 19th aspect, "Each step is mounted on a terminal device installed in a studio or a terminal device connected to the distributor's terminal device via a server device. It can also be executed by the at least one processor. "
第24の態様に係る方法は、上記第19の態様から上記第23の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む」ことができる。 In any of the 19th to 23rd aspects, the method according to the 24th aspect is "the at least one processor is a central processing unit (CPU), a microprocessor and / or a graphics processing unit (GPU). ) Can be included.
第25の態様に係る方法は、上記第19の態様から上記第24の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、前記命令を実行することにより、取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する」ことができる。 The method according to the 25th aspect is the operation information and / or the operation information acquired by the at least one processor executing the instruction in any one of the 19th aspect to the 24th aspect. The position information can be stored in the storage unit. "
以上のように、様々な態様によれば、物理的な空間における配信者(演者)の位置を向上した精度により検出する、コンピュータプログラム、サーバ装置、端末装置及び表示方法を提供することができる。 As described above, according to various aspects, it is possible to provide a computer program, a server device, a terminal device, and a display method for detecting the position of a distributor (performer) in a physical space with improved accuracy.
1 通信システム
10 通信網
20(20A〜20C) 端末装置
30(30A〜30C) サーバ装置
40(40A、40B) スタジオユニット
100(200) 記憶部
110(210) センサ部
120(220) 動作情報取得部
130(230) 位置情報取得部
140(240) 部位位置情報算出部
150(250) 身体位置情報算出部
160(260) 変換部
170(270) 動画生成部
180(280) 表示部
190(290) ユーザインタフェイス部
200(300) 通信部
1
Claims (25)
物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、
前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、
前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、
前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する、
ように前記少なくとも1つのプロセッサを機能させる、ことを特徴とするコンピュータプログラム。 By running on at least one processor
The motion information regarding the motion of each of the plurality of parts output from the plurality of first sensors attached to the plurality of parts of the distributor's body existing in the physical space is acquired.
The position information regarding the position of the body output from at least one second sensor attached to the body of the distributor is acquired, and the position information is obtained.
Based on the motion information, the positions of the plurality of parts in the physical space are calculated.
The position of the body in the physical space is calculated based on the position information.
A computer program characterized in that the at least one processor functions as described above.
ように前記少なくとも1つのプロセッサを機能させる、請求項1に記載のコンピュータプログラム。 It is determined whether or not the body position calculated based on the position information can be used as an effective position.
The computer program according to claim 1, wherein the at least one processor functions as described above.
前記第1単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、
ように前記少なくとも1つのプロセッサを機能させる、請求項2に記載のコンピュータプログラム。 The position of the body is calculated based on the position information every first unit time, and the position of the body is calculated.
When the amount of change in the position of the body in the first unit time is equal to or less than the threshold value, the position of the body calculated based on the position information in the first unit time is used as an effective position.
The computer program according to claim 2, wherein the at least one processor functions as described above.
ように前記少なくとも1つのプロセッサを機能させる、請求項3に記載のコンピュータプログラム。 When the amount of change in the position of the body in the first unit time exceeds the threshold value, the position of the body calculated based on the position information is discarded in the first unit time.
The computer program according to claim 3, wherein the at least one processor is made to function as described above.
ように前記少なくとも1つのプロセッサを機能させる、請求項4に記載のコンピュータプログラム。 When the amount of change in the position of the body returns to the threshold or less in the new first unit time that occurs after the first unit time in which the amount of change in the position of the body exceeds the threshold value, the new first unit time Use the body position calculated based on the position information as an effective position.
The computer program according to claim 4, wherein the at least one processor is made to function as described above.
前記第1単位時間より長い第2単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、
ように前記少なくとも1つのプロセッサを機能させる、請求項2に記載のコンピュータプログラム。 The position of the body is calculated based on the position information every first unit time, and the position of the body is calculated.
When the amount of change in the position of the body in the second unit time longer than the first unit time is equal to or less than the threshold value, the position of the body calculated based on the position information in the second unit time is an effective position. To use as
The computer program according to claim 2, wherein the at least one processor functions as described above.
ように前記少なくとも1つのプロセッサを機能させる、請求項6に記載のコンピュータプログラム。 When the amount of change in the position of the body in the second unit time exceeds the threshold value, the position of the body calculated based on the position information is discarded in the second unit time.
The computer program according to claim 6, wherein the at least one processor is made to function as described above.
ように前記少なくとも1つのプロセッサを機能させる、請求項7に記載のコンピュータプログラム。 When the amount of change in the position of the body returns to the threshold or less in the new second unit time that occurs after the second unit time in which the amount of change in the position of the body exceeds the threshold value, the new second unit time Use the body position calculated based on the position information as an effective position.
The computer program according to claim 7, wherein the at least one processor is made to function as described above.
前記動作情報に基づいて算出された前記複数の部位の各々の位置を仮想的な空間における該複数の部位の各々の位置に変換する、
ように前記少なくとも1つのプロセッサを機能させる、請求項3から請求項10のいずれかに記載のコンピュータプログラム。 The effective position of the body calculated based on the position information is converted into the position of the body in a virtual space.
The position of each of the plurality of parts calculated based on the operation information is converted into the position of each of the plurality of parts in the virtual space.
The computer program according to any one of claims 3 to 10, wherein the at least one processor functions as described above.
ように前記少なくとも1つのプロセッサを機能させる、請求項11に記載のコンピュータプログラム。 A moving image including an animation of the performer's avatar is generated based on the position of the body in the virtual space and the position of each of the plurality of parts in the virtual space.
11. The computer program of claim 11, which causes the at least one processor to function as described above.
ように前記少なくとも1つのプロセッサを機能させる、請求項1から請求項13のいずれかに記載のコンピュータプログラム。 The acquired operation information and / or the position information is stored in the storage unit.
The computer program according to any one of claims 1 to 13, which causes the at least one processor to function as described above.
該少なくとも1つのプロセッサが、
物理的な空間に存在する演者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、
前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、
前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、
前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する、
ことを特徴とするサーバ装置。 Equipped with at least one processor
The at least one processor
Obtaining motion information regarding the motion of each of the plurality of parts output from a plurality of first sensors attached to a plurality of parts of the performer's body existing in the physical space,
The position information regarding the position of the body output from at least one second sensor attached to the body of the distributor is acquired, and the position information is obtained.
Based on the motion information, the positions of the plurality of parts in the physical space are calculated.
The position of the body in the physical space is calculated based on the position information.
A server device characterized by that.
ように前記少なくとも1つのプロセッサを機能させる、請求項16又は請求項17に記載のサーバ装置。 The acquired operation information and / or the position information is stored in the storage unit.
The server device according to claim 16 or 17, wherein the at least one processor functions as described above.
該少なくとも1つのプロセッサが、前記命令を実行することにより、
物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得する第1取得工程と、
前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得する第2取得工程と、
前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出する第1算出工程と、
前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する第2算出工程と、
を含むことを特徴とする方法。 A method performed by at least one processor that executes computer-readable instructions.
When the at least one processor executes the instruction,
A first acquisition step of acquiring motion information regarding the operation of each of the plurality of parts output from a plurality of first sensors attached to a plurality of parts of the distributor's body existing in a physical space.
A second acquisition step of acquiring position information regarding the position of the body output from at least one second sensor attached to the body of the distributor.
A first calculation step of calculating the position of each of the plurality of parts in the physical space based on the operation information, and
A second calculation step of calculating the position of the body in the physical space based on the position information, and
A method characterized by including.
前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に接続されるサーバ装置に搭載された、前記少なくとも1つのプロセッサにより実行される、請求項19に記載の方法。 The first acquisition step and the second acquisition step are executed by the terminal device installed in the studio or the at least one processor mounted on the terminal device of the distributor.
A claim in which the first calculation step and the second calculation step are executed by the at least one processor mounted on a terminal device installed in the studio or a server device connected to the terminal device of the distributor. Item 19. The method according to item 19.
前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される、請求項19に記載の方法。 The first acquisition step and the second acquisition step are executed by the terminal device installed in the studio or the at least one processor mounted on the terminal device of the distributor.
The first calculation step and the second calculation step are mounted on a terminal device installed in the studio or a terminal device connected to the terminal device of the distributor via a server device, at least one of the above. 19. The method of claim 19, which is performed by a processor.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020077502A JP7250726B2 (en) | 2020-04-24 | 2020-04-24 | Computer program, server device and method |
JP2022041676A JP7495694B2 (en) | 2022-03-16 | Computer program, server device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020077502A JP7250726B2 (en) | 2020-04-24 | 2020-04-24 | Computer program, server device and method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022041676A Division JP7495694B2 (en) | 2022-03-16 | Computer program, server device and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021174239A true JP2021174239A (en) | 2021-11-01 |
JP7250726B2 JP7250726B2 (en) | 2023-04-03 |
Family
ID=78279692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020077502A Active JP7250726B2 (en) | 2020-04-24 | 2020-04-24 | Computer program, server device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7250726B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023064148A (en) * | 2021-10-26 | 2023-05-11 | 株式会社大都技研 | Game machine |
JP2023064146A (en) * | 2021-10-26 | 2023-05-11 | 株式会社大都技研 | Game machine |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010014712A (en) * | 2008-06-30 | 2010-01-21 | Samsung Electronics Co Ltd | Motion capture device and motion capture method |
JP2010191827A (en) * | 2009-02-19 | 2010-09-02 | Sony Computer Entertainment Inc | Apparatus and method for processing information |
JP2017004372A (en) * | 2015-06-12 | 2017-01-05 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2020004284A (en) * | 2018-06-29 | 2020-01-09 | 株式会社コロプラ | System, program, method, and information processing device |
-
2020
- 2020-04-24 JP JP2020077502A patent/JP7250726B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010014712A (en) * | 2008-06-30 | 2010-01-21 | Samsung Electronics Co Ltd | Motion capture device and motion capture method |
JP2010191827A (en) * | 2009-02-19 | 2010-09-02 | Sony Computer Entertainment Inc | Apparatus and method for processing information |
JP2017004372A (en) * | 2015-06-12 | 2017-01-05 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2020004284A (en) * | 2018-06-29 | 2020-01-09 | 株式会社コロプラ | System, program, method, and information processing device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023064148A (en) * | 2021-10-26 | 2023-05-11 | 株式会社大都技研 | Game machine |
JP2023064146A (en) * | 2021-10-26 | 2023-05-11 | 株式会社大都技研 | Game machine |
Also Published As
Publication number | Publication date |
---|---|
JP2022121419A (en) | 2022-08-19 |
JP7250726B2 (en) | 2023-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101606628B1 (en) | Pointing-direction detecting device and its method, program and computer readable-medium | |
US20190379885A1 (en) | Optimized object scanning using sensor fusion | |
JP4489825B2 (en) | Gesture input system, method and program | |
JP5936155B2 (en) | 3D user interface device and 3D operation method | |
JP5871345B2 (en) | 3D user interface device and 3D operation method | |
JP6224873B1 (en) | Information processing system, information processing apparatus, information processing method, and program | |
US20210201002A1 (en) | Moving image distribution computer program, server device, and method | |
US20150213649A1 (en) | Three-dimensional environment sharing system and three-dimensional environment sharing method | |
US20150002518A1 (en) | Image generating apparatus | |
US10948994B2 (en) | Gesture control method for wearable system and wearable system | |
CN110568929B (en) | Virtual scene interaction method and device based on virtual keyboard and electronic equipment | |
JP2021174239A (en) | Computer program, server device, and method | |
US11132842B2 (en) | Method and system for synchronizing a plurality of augmented reality devices to a virtual reality device | |
JP2006209359A (en) | Apparatus, method and program for recognizing indicating action | |
US20200387227A1 (en) | Length Calibration for Computer Models of Users to Generate Inputs for Computer Systems | |
JP2009258884A (en) | User interface | |
JP2024040211A (en) | Video processing method, server device and computer program | |
JP2012048463A (en) | Information processor and information processing method | |
JP2019184830A (en) | Image display device and image display method | |
JP7495694B2 (en) | Computer program, server device and method | |
JP2010086367A (en) | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment | |
CN113758481A (en) | Grid map generation method, device, system, storage medium and electronic equipment | |
JP2021071942A (en) | Moving image processing method, server device, and computer program | |
JP2017199085A (en) | Information processing apparatus, information processing method, and program | |
US20140350428A1 (en) | Fluctuation detection device and fluctuation detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200519 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210929 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7250726 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |