JP2020120336A - Program, method, and information processing device - Google Patents
Program, method, and information processing device Download PDFInfo
- Publication number
- JP2020120336A JP2020120336A JP2019011663A JP2019011663A JP2020120336A JP 2020120336 A JP2020120336 A JP 2020120336A JP 2019011663 A JP2019011663 A JP 2019011663A JP 2019011663 A JP2019011663 A JP 2019011663A JP 2020120336 A JP2020120336 A JP 2020120336A
- Authority
- JP
- Japan
- Prior art keywords
- distribution
- program
- image
- terminal
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000010365 information processing Effects 0.000 title claims abstract description 16
- 238000009826 distribution Methods 0.000 claims abstract description 313
- 230000000007 visual effect Effects 0.000 claims abstract description 65
- 230000033001 locomotion Effects 0.000 claims abstract description 46
- 238000009877 rendering Methods 0.000 claims abstract description 23
- 230000015654 memory Effects 0.000 claims description 32
- 230000004044 response Effects 0.000 claims description 16
- 238000012384 transportation and delivery Methods 0.000 claims description 16
- 238000004891 communication Methods 0.000 description 51
- 238000010586 diagram Methods 0.000 description 44
- 238000012545 processing Methods 0.000 description 43
- 238000003860 storage Methods 0.000 description 42
- 230000006870 function Effects 0.000 description 23
- 230000005540 biological transmission Effects 0.000 description 19
- 230000008569 process Effects 0.000 description 19
- 230000007246 mechanism Effects 0.000 description 8
- 238000013523 data management Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000014759 maintenance of location Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明はプログラム、方法、および情報処理装置に関する。 The present invention relates to a program, a method, and an information processing device.
全方位画像をユーザに見せるための技術が従来開発されている。例えば、球型にモデリングされた仮想空間の内側に360度のパノラマ画像を貼り付けておき、該パノラマ画像を仮想カメラの視野領域で切り取った画像を表示する技術が存在する。また、配信者がアバターを介して音楽ライブまたはゲーム実況等を行う様子を、コンテンツとしてライブ配信する技術が開発されている。 Conventionally, a technique for showing an omnidirectional image to a user has been developed. For example, there is a technique of pasting a 360-degree panoramic image inside a spherically modeled virtual space and displaying an image obtained by cutting the panoramic image in the field of view of the virtual camera. In addition, a technology has been developed in which a distributor performs live distribution as a content of a music live or game live situation via an avatar.
本発明の一態様は、ライブ配信におけるコンテンツの興趣性の向上を目的とする。 One aspect of the present invention aims to improve the interest of content in live distribution.
上記の課題を解決するために、本発明の一態様に係るプログラムは、プロセッサおよびメモリを備える、配信者が配信端末を用いてリアルタイム配信するコンテンツを視聴するための視聴端末としての、コンピュータにより実行されるプログラムである。プログラムは、プロセッサに、コンテンツに係る情報であって、配信端末から随時配信される、少なくとも配信者の身体の動きを検出したモーションデータを含む情報である第1情報を受信するステップと、背景画像が展開された仮想空間を構築するステップと、仮想空間に、配信者に対応するアバターである第1オブジェクトを配置するステップと、リアルタイム配信が行われている間、第1情報を受信することに応答して、第1オブジェクトをモーションデータに従って動作させるステップと、仮想空間の、該仮想空間の中心点とは異なる位置であって、中心点を視野領域に含む位置に仮想視点を配置するステップと、仮想視点の視野領域の画像をレンダリングするステップと、レンダリングによって得られる画像を、表示部に表示させるステップと、を実行させる。 In order to solve the above problems, a program according to one embodiment of the present invention is executed by a computer as a viewing terminal for a distributor to view content to be distributed in real time using a distribution terminal, which includes a processor and a memory. It is a program that is done. The program receives, into the processor, first information, which is information related to the content, which is information that is distributed from the distribution terminal at any time and that includes at least motion data in which the movement of the body of the distributor is detected, and a background image. Of constructing a virtual space in which is expanded, placing a first object that is an avatar corresponding to a distributor in the virtual space, and receiving first information during real-time distribution. In response, operating the first object according to the motion data, and arranging the virtual viewpoint at a position in the virtual space different from the center point of the virtual space and including the center point in the visual field region. , Performing a step of rendering an image of the visual field area of the virtual viewpoint, and a step of displaying the image obtained by the rendering on the display unit.
本発明の一態様によれば、ライブ配信におけるコンテンツの興趣性を向上させることができる。 According to one aspect of the present invention, it is possible to improve the interest of content in live distribution.
本開示に係る配信システムは、視聴者にコンテンツをリアルタイムに配信するためのシステムである。以下、配信システムについて図面を参照しつつ説明する。なお、本発明は以降の説明および図面における例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が本発明に含まれることが意図される。なお、以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。 The distribution system according to the present disclosure is a system for distributing content to viewers in real time. Hereinafter, the distribution system will be described with reference to the drawings. It should be noted that the present invention is not limited to the examples described below and illustrated in the drawings, and is shown by the scope of the claims, and all modifications within the meaning and scope equivalent to the scope of the claims are included in the present invention. Is intended. In the following description, the same elements will be denoted by the same reference symbols in the description of the drawings, without redundant description.
〔実施形態1〕
<配信システム1の動作概要>
図1は、本実施形態に係る配信システム1の概要を示す図である。配信システム1は、1台以上の配信サーバ200と、1台以上の配信端末300と、1台以上の視聴端末100とを含む。
[Embodiment 1]
<Outline of operation of distribution system 1>
FIG. 1 is a diagram showing an outline of a distribution system 1 according to this embodiment. The distribution system 1 includes at least one
(配信端末300)
配信端末300は、コンテンツをライブ配信する主体となる装置である。配信端末300は、例えばパーソナルコンピュータ(PC)またはスマートフォン等で実現される。なお、以降、配信端末300のユーザのことを、「配信者」と称する。配信端末300は、配信端末300のユーザによる入力操作に応じてコンテンツデータを作成する。コンテンツデータとは、視聴端末100において、配信者の作成したコンテンツを視聴するためのデータである。配信端末300はコンテンツデータを順次作成し、配信サーバ200にリアルタイムで配信する。以降、コンテンツデータをリアルタイムで配信することを、「ライブ配信」とも称する。
(Distribution terminal 300)
The
(配信サーバ200)
配信サーバ200は、配信端末300からリアルタイムに受信したコンテンツデータを、視聴端末100に配信するサーバである。また、配信サーバ200は、視聴端末100と配信端末300との間の各種情報の送受信を仲介するサーバでもある。
(Distribution server 200)
The
なお、配信サーバ200は、1台以上の視聴端末100からライブ配信に係る各種情報を収集して、該各種情報を配信端末300に送信してもよい。例えば、配信サーバ200は、現在コンテンツを再生している視聴端末100の台数、すなわち、現在の視聴者数を集計して配信端末300に送信してもよい。また、配信サーバ200は、コンテンツの配信開始からの、累計の視聴者数を集計して、配信端末300に送信してもよい。また、配信サーバ200は、前述した入力情報を送信した視聴端末100を特定し、該視聴端末100を示す情報を配信端末300に送信してもよい。
The
(視聴端末100)
視聴端末100は、コンテンツデータをリアルタイムに受信し、該コンテンツデータを用いて映像を生成して再生する装置である。換言すると、視聴端末100は、コンテンツをリアルタイムレンダリングして再生する装置である。なお、以降の説明では、コンテンツをリアルタイムレンダリングして再生することを、単に「コンテンツを再生する」とも称する。視聴端末100は、例えばPCまたはスマートフォン等で実現される。視聴端末100は、視聴端末100のユーザによる入力操作に応じて、配信サーバ200からコンテンツデータを受信して再生する。具体的には、視聴端末100は、配信サーバ200からコンテンツデータとして、モーションなどのデータを受信し、視聴端末100において、これらのデータを用いてリアルタイムレンダリングにより映像(動画)を生成し、再生する。以降、視聴端末100のユーザのことを、「視聴者」と称する。コンテンツの再生の方法については、後で詳述する。
(Viewing terminal 100)
The
視聴端末100は、コンテンツデータを再生するだけでなく、視聴者の入力操作によって指定された、または入力された情報を、配信サーバ200を介して配信端末300に送信することも可能であってよい。例えば、視聴端末100は、視聴者の入力したコメントを、配信サーバ200を介して配信端末300に送信してもよい。
The
本実施形態では、配信サーバ200と配信端末300とが別個の装置である例について説明する。しかしながら、配信サーバ200と配信端末300は一体の装置であってよい。例えば、1台のPCが、配信サーバ200としての機能と、配信端末300としての機能とを兼ね備えていてもよい。
In this embodiment, an example in which the
<配信システム1のハードウェア構成>
図1は、配信システム1のハードウェア構成を示す図である。配信システム1は図示の通り、配信端末300と、配信サーバ200と、複数の視聴端末100とを含む。視聴端末100および配信端末300は、配信サーバ200とネットワーク4を介して接続する。
<Hardware configuration of distribution system 1>
FIG. 1 is a diagram showing a hardware configuration of the distribution system 1. As illustrated, the distribution system 1 includes a
(ネットワーク4)
ネットワーク4は、インターネットおよび図示しない無線基地局によって構築される各種移動通信システム等で構成される。この移動通信システムとしては、例えば、所謂3G、4G移動通信システム、LTE(Long Term Evolution)、および所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が挙げられる。
(Network 4)
The network 4 includes various mobile communication systems constructed by the Internet and a wireless base station (not shown). Examples of this mobile communication system include so-called 3G and 4G mobile communication systems, LTE (Long Term Evolution), and a wireless network (for example, Wi-Fi (registered trademark)) that can be connected to the Internet by a predetermined access point. To be
(配信サーバ200)
配信サーバ200(コンピュータ、情報処理装置)は、ワークステーションまたはパーソナルコンピュータ等の汎用コンピュータであってよい。配信サーバ200は、プロセッサ20と、メモリ21と、ストレージ22と、通信IF23と、入出力IF24とを備える。配信サーバ200が備えるこれらの構成は、通信バスによって互いに電気的に接続される。
(Distribution server 200)
The distribution server 200 (computer, information processing device) may be a general-purpose computer such as a workstation or a personal computer. The
(視聴端末100)
視聴端末100(コンピュータ、情報処理装置)は、スマートフォン、フィーチャーフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。視聴端末100は、コンテンツの再生に適した再生装置であってもよい。視聴端末100は図示の通り、プロセッサ10と、メモリ11と、ストレージ12と、通信インターフェース(IF)13と、入出力IF14と、タッチスクリーン15(表示部)と、を備える。視聴端末100が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、視聴端末100は、タッチスクリーン15に代えて、または、加えて、視聴端末100本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF14を備えていてもよい。
(Viewing terminal 100)
The viewing terminal 100 (computer, information processing device) may be a mobile terminal such as a smartphone, a feature phone, a PDA (Personal Digital Assistant), or a tablet computer. The
また、図2に示すように、視聴端末100は、1つ以上のコントローラ1020と通信可能に構成されることとしてもよい。コントローラ1020は、例えば、Bluetooth(登録商標)等の通信規格に従って、視聴端末100と通信を確立する。コントローラ1020は、1つ以上のボタン等を有していてもよく、該ボタン等に対するユーザの入力操作に基づく出力値を視聴端末100へ送信する。また、コントローラ1020は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値を視聴端末100へ送信する。
Further, as shown in FIG. 2, the
また、コントローラ1020は、視聴端末100に着脱可能な構成であるとしてもよい。この場合、視聴端末100の筐体における少なくともいずれかの面に、コントローラ1020との結合部が設けられていてもよい。該結合部を介して有線により視聴端末100とコントローラ1020とが結合している場合は、視聴端末100とコントローラ1020とは、有線を介して信号を送受信する。
Moreover, the
図2に示すように、視聴端末100は、外部のメモリカード等の記憶媒体1030の装着を、入出力IF14を介して受け付けてもよい。これにより、視聴端末100は、記憶媒体1030に記録されるプログラム及びデータを読み込むことができる。記憶媒体1030に記録されるプログラムは、例えば視聴プログラムである。
As shown in FIG. 2, the
視聴端末100は、配信サーバ200等の外部の装置と通信することにより取得した視聴プログラムを視聴端末100のメモリ11に記憶してもよいし、記憶媒体1030から読み込むことにより取得した視聴プログラムをメモリ11に記憶してもよい。
The
以上で説明したとおり、視聴端末100は、該視聴端末100に対して情報を入力する機構の一例として、通信IF13、入出力IF14、およびタッチスクリーン15を備える。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。
As described above, the
例えば、操作部がタッチスクリーン15で構成される場合、視聴端末100は、タッチスクリーン15の入力部151に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF13で構成される場合、視聴端末100は、コントローラ1020から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF14で構成される場合、該入出力IF14と接続されるコントローラ1020とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。
For example, when the operation unit includes the
(配信端末300)
配信端末300(コンピュータ、情報処理装置)は、スマートフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。また、配信端末300は、サーバ、デスクトップパソコン、ノートパソコン、または、タブレットなどのコンピュータ、および、これらを組み合わせたコンピュータ群であってもよい。
(Distribution terminal 300)
The distribution terminal 300 (computer, information processing device) may be a mobile terminal such as a smartphone, a PDA (Personal Digital Assistant), or a tablet computer. The
配信端末300は、表示装置、入力装置、情報処理装置が、ライブ配信に適するように接続された装置群であってもよい。配信端末300は図示の通り、プロセッサ30と、メモリ31と、ストレージ32と、通信インターフェース(IF)33と、入出力IF34と、タッチスクリーン35(表示部)とを備える。配信端末300が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、配信端末300は、タッチスクリーン35に代えて、または、加えて、配信端末300本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF34を備えていてもよい。
The
また、図1に示すように、配信端末300は、1つ以上のマイク3010、1つ以上のモーションキャプチャ装置3020、および、1つ以上のコントローラ3030などの周辺機器と、無線または有線を介して、通信可能に構成されてもよい。無線で接続される周辺機器は、例えば、Bluetooth(登録商標)等の通信規格に従って、配信端末300と通信を確立する。また、これらの周辺機器を含めた装置群を、1セットの配信端末300と捉えてもよい。
In addition, as shown in FIG. 1, the
マイク3010は、周囲で発生した音声を取得し、これを電気信号に変換する。電気信号に変換された音声は、音声データとして、配信端末300に送信され、通信IF33を介して配信端末300に受け付けられる。
The
モーションキャプチャ装置3020は、追跡対象(例えば、人)のモーション(頭の位置および姿勢、顔の表情、口の動きなども含む)を追跡し、追跡結果としての出力値を配信端末300へ送信する。出力値であるモーションデータは、通信IF33を介して配信端末300に受け付けられる。モーションキャプチャ装置3020のモーションキャプチャ方式は特に限定されない。モーションキャプチャ装置3020は、採用された方式に応じて、カメラ、各種センサ、マーカー、モデル(人物)が着用するスーツ、信号送出器、HMD(Head Mount Device)など、モーションをキャプチャするためのあらゆる機構を選択的に備えている。
The
コントローラ3030は、1つ以上のボタン、レバー、スティック、ホイール等の物理的な入力機構を有していてもよい。コントローラ3030は、配信端末300のオペレータが、該入力機構に対して入力した入力操作に基づく出力値を配信端末300へ送信する。また、コントローラ3030は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値を配信端末300へ送信してもよい。上述の出力値は、通信IF33を介して配信端末300に受け付けられる。なお、以下では、配信端末300に備えられた操作部または配信端末300と通信可能に接続された各種の入力機構を用いて、配信端末300に対して、何らかの入力操作を行う人をオペレータと称する。オペレータには、入力部351、コントローラ3030などを用いて配信端末300を操作する人も含まれるし、マイク3010を介して音声を入力する声優も含まれるし、モーションキャプチャ装置3020を介して動きを入力するモデルも含まれる。
The
配信端末300は、図示しない、カメラと、測距センサとを備えていてもよい。配信端末300が備えることに代えて、または、加えて、モーションキャプチャ装置3020およびコントローラ3030がカメラと、測距センサとを有してしてもよい。
The
以上で説明したとおり、配信端末300は、該配信端末300に対して情報を入力する機構の一例として、通信IF33、入出力IF34、タッチスクリーン35を備える。配信端末300は、必要に応じて、カメラ、および、測距センサをさらに備えていてもよい。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。
As described above, the
操作部は、タッチスクリーン35で構成されていてもよい。この場合、配信端末300は、タッチスクリーン35の入力部351に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF33で構成される場合、配信端末300は、コントローラ3030から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF34で構成される場合、該入出力IF34と接続されるコントローラ3030とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。
The operation unit may be configured with the
<各装置のハードウェア構成要素>
プロセッサ10は、視聴端末100全体の動作を制御する。プロセッサ20は、配信サーバ200全体の動作を制御する。プロセッサ30は、配信端末300全体の動作を制御する。プロセッサ10、20、および30は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、およびGPU(Graphics Processing Unit)を含む。
<Hardware components of each device>
The
プロセッサ10は後述するストレージ12からプログラムを読み出し、後述するメモリ11に展開する。プロセッサ20は後述するストレージ22からプログラムを読み出し、後述するメモリ21に展開する。プロセッサ30は後述するストレージ32からプログラムを読み出し、後述するメモリ31に展開する。プロセッサ10、プロセッサ20、およびプロセッサ30は、展開したプログラムを実行する。
The
メモリ11、21、および31は主記憶装置である。メモリ11、21、および31は、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置で構成される。メモリ11は、プロセッサ10が後述するストレージ12から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ10に作業領域を提供する。メモリ11は、プロセッサ10がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ21は、プロセッサ20が後述するストレージ22から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ20に作業領域を提供する。メモリ21は、プロセッサ20がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ31は、プロセッサ30が後述するストレージ32から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ30に作業領域を提供する。メモリ31は、プロセッサ30がプログラムに従って動作している間に生成した各種データも一時的に記憶する。
本実施形態において、プロセッサ30が実行するプログラムは、コンテンツのライブ配信を実現するための配信プログラムであってもよい。本実施形態において、プロセッサ10が実行するプログラムは、コンテンツの再生を実現するための、視聴プログラムであってもよい。
In the present embodiment, the program executed by the
本実施形態において、プロセッサ20が実行するプログラムは、上述の配信プログラムであってもよいし、上述の視聴プログラムであってもよい。プロセッサ20は、視聴端末100または配信端末300からの要求等に応じて、配信プログラムと視聴プログラムとのいずれか、または両方を実行する。なお、配信プログラムと視聴プログラムは、並行して実行されてもよい。
In the present embodiment, the program executed by the
すなわち、配信プログラムは、ライブ配信を配信サーバ200と配信端末300との協働により実現するための配信プログラムであってもよい。また、視聴プログラムは、コンテンツの再生を、視聴端末100と配信サーバ200との協働により実現するための視聴プログラムであってもよい。
That is, the distribution program may be a distribution program for realizing live distribution by cooperation between the
ストレージ12、22、および32は補助記憶装置である。ストレージ12、22、および32は、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置で構成される。ストレージ12、22、および32には、ゲームに関する各種データが格納される。
The
通信IF13は、視聴端末100における各種データの送受信を制御する。通信IF23は、配信サーバ200における各種データの送受信を制御する。通信IF33は、配信端末300における各種データの送受信を制御する。通信IF13、23、および33は例えば、無線LAN(Local Area Network)を介する通信、有線LAN、無線LAN、または携帯電話回線網を介したインターネット通信、ならびに近距離無線通信等を用いた通信を制御する。
The communication IF 13 controls transmission/reception of various data in the
視聴端末100の入出力IF14は、視聴端末100がデータの入力を受け付けるためのインターフェースであり、また視聴端末100がデータを出力するためのインターフェースである。入出力IF14は、USB(Universal Serial Bus)等を介してデータの入出力を行ってもよい。入出力IF14は、例えば、視聴端末100の物理ボタン、カメラ、マイク、または、スピーカ等を含み得る。配信サーバ200の入出力IF24は、配信サーバ200がデータの入力を受け付けるためのインターフェースであり、また配信サーバ200がデータを出力するためのインターフェースである。入出力IF24は、例えば、マウスまたはキーボード等の情報入力機器である入力部と、画像を表示出力する機器である表示部とを含み得る。配信端末300の入出力IF34は、配信端末300がデータの入力を受け付けるためのインターフェースであり、また配信端末300がデータを出力するためのインターフェースである。入出力IF34は、例えば、マウス、キーボード、スティック、レバー等の情報入力機器、液晶ディスプレイなどの画像を表示出力する機器、および、周辺機器(マイク3010、モーションキャプチャ装置3020、および、コントローラ3030)との間でデータを送受信するための接続部を含み得る。
The input/output IF 14 of the
視聴端末100のタッチスクリーン15は、入力部151と表示部152とを組み合わせた電子部品である。配信端末300のタッチスクリーン35は、入力部351と表示部352とを組み合わせた電子部品である。入力部151および351は、例えばタッチセンシティブなデバイスであり、例えばタッチパッドによって構成される。表示部152および352は、例えば液晶ディスプレイ、または有機EL(Electro-Luminescence)ディスプレイ等によって構成される。
The
入力部151および351は、入力面に対しユーザの操作(主にタッチ操作、スライド操作、スワイプ操作、およびタップ操作等の物理的接触操作)が入力された位置を検知して、位置を示す情報を入力信号として送信する機能を備える。入力部151および351は、図示しないタッチセンシング部を備えていればよい。タッチセンシング部は、静電容量方式または抵抗膜方式等のどのような方式を採用したものであってもよい。
The
図示していないが、視聴端末100は、該視聴端末100の保持姿勢を特定するための1以上のセンサを備えていてもよい。このセンサは、例えば、加速度センサ、または、角速度センサ等であってもよい。視聴端末100がセンサを備えている場合、プロセッサ10は、センサの出力から視聴端末100の保持姿勢を特定して、保持姿勢に応じた処理を行うことも可能になる。例えば、プロセッサ10は、視聴端末100が縦向きに保持されているときには、縦長の画像を表示部152に表示させる縦画面表示としてもよい。一方、視聴端末100が横向きに保持されているときには、横長の画像を表示部に表示させる横画面表示としてもよい。このように、プロセッサ10は、視聴端末100の保持姿勢に応じて縦画面表示と横画面表示とを切り替え可能であってもよい。
Although not shown, the
カメラ17は、イメージセンサ等を含み、レンズから入射する入射光を電気信号に変換することで撮影画像を生成する。
The
測距センサ18は、測定対象物までの距離を測定するセンサである。測距センサ18は、例えば、パルス変換した光を発する光源と、光を受ける受光素子とを含む。測距センサ18は、光源からの発光タイミングと、該光源から発せられた光が測定対象物にあたって反射されて生じる反射光の受光タイミングとにより、測定対象物までの距離を測定する。測距センサ18は、指向性を有する光を発する光源を有することとしてもよい。
The
<配信システム1の機能的構成>
図3は、配信システム1に含まれる視聴端末100、配信サーバ200、および配信端末300の機能的構成を示すブロック図である。視聴端末100、配信サーバ200、および配信端末300のそれぞれは、図示しない、一般的なコンピュータとして機能する場合に必要な機能的構成、および、ゲームにおける公知の機能を実現するために必要な機能的構成を含み得る。
<Functional configuration of distribution system 1>
FIG. 3 is a block diagram showing the functional configurations of the
視聴端末100は、ユーザの入力操作を受け付ける入力装置としての機能と、ゲームの画像や音声を出力する出力装置としての機能を有する。視聴端末100は、プロセッサ10、メモリ11、ストレージ12、通信IF13、および入出力IF14等の協働によって、制御部110および記憶部120として機能する。
The
配信サーバ200は、配信端末300および視聴端末100と通信する、配信サーバ200は、配信端末300から視聴端末100へコンテンツデータを配信する場合の仲介となる機能を有する。配信サーバ200は、プロセッサ20、メモリ21、ストレージ22、通信IF23、および入出力IF24等の協働によって、制御部210および記憶部220として機能する。
The
配信端末300は、コンテンツを作成して、該コンテンツを、配信サーバ200を介して視聴端末100にライブ配信する機能を有する。配信端末300は、プロセッサ30、メモリ31、ストレージ32、通信IF33、および入出力IF34等の協働によって、制御部310および記憶部320として機能する。
The
(各装置の記憶部が格納するデータ)
記憶部120は、視聴プログラム131と、視聴端末100に対応する視聴者の視聴者情報132とを格納する。記憶部320は、配信プログラム331と、配信端末300に対応する配信者の配信者情報332とを格納する。記憶部220は、視聴プログラム131と、視聴者情報132と、配信プログラム331と、配信者情報332と、を格納する。記憶部220は、各配信端末300から収集した配信者情報332をまとめて記憶する。記憶部220は、各視聴端末100から収集した視聴者情報132をまとめて記憶する。
(Data stored in the storage unit of each device)
The
視聴プログラム131は、視聴端末100および配信サーバ200が実行するプログラムである。一方、配信プログラム231は、配信端末300および配信サーバ200が実行するプログラムである。
The
なお、配信サーバ200による視聴プログラム131および配信プログラム331の実行は、必須ではない。例えば視聴端末100が単独で視聴プログラム131を実行することで、コンテンツの再生を実現可能である場合、配信サーバ200は、視聴プログラム131を実行しなくてもよい。また例えば、配信端末300が単独で配信プログラム331を実行することでライブ配信を実現可能である場合、配信サーバ200は、配信プログラム331を実行しなくてもよい。
It should be noted that execution of the
視聴者情報132は、制御部110が視聴プログラム131を実行する際に参照するデータである。視聴者情報132は、視聴者毎に管理されるデータである。例えば、視聴者情報132には視聴者の名称、すなわち、視聴端末100が対応する視聴者のアカウントの名称が含まれていてもよい。また、視聴者情報132には、視聴端末100に対応する視聴者のアカウントにおける、コンテンツの閲覧履歴、メッセージの送受信の履歴等が含まれていてもよい。
The
配信者情報332は、制御部210が配信プログラム231を実行する際に参照するデータである。配信者情報332は、配信者毎に管理されるデータである。例えば、配信者情報332には、配信端末300が対応する配信者のアカウントの名称を示す情報が含まれていてもよい。また、配信者情報332には、配信端末300に対応する配信者のアカウントにおける、コンテンツの配信履歴、配信したコンテンツの再生数等、配信したコンテンツに係る各種情報、メッセージの送受信の履歴が含まれていてもよい。
The
(配信サーバ200の機能的構成)
制御部210は、記憶部220に格納された配信プログラム231を実行することにより、配信サーバ200を統括的に制御する。例えば、制御部210は、配信端末300からにコンテンツをリアルタイムに受信して、該コンテンツを視聴端末100にライブ配信する。制御部210は、必要に応じて、視聴端末100および配信端末300と通信して、各種情報の送受信を行う。
(Functional configuration of distribution server 200)
The
制御部210は、配信プログラム231の記述に応じて、送受信部211、サーバ処理部212、および、データ管理部213として機能する。制御部210は、配信端末300からのコンテンツのライブ配信、ならびに、視聴端末100による該コンテンツの再生を支援するために、図示しないその他の機能ブロックとしても機能することができる。
The
送受信部211は、配信端末300から各種データおよびリクエストを受信する。例えば、送受信部211は、配信者情報332の一部または全部を、配信端末300から受信する。送受信部211は、配信端末300に対し各種データおよびリクエストを送信する。
The transmission/
また、送受信部211は、視聴端末100から各種データおよびリクエストを受信する。例えば、送受信部211は、視聴端末100からのライブ配信の要求を受信する。送受信部211は、視聴端末100に対し各種情報を送信する。例えば、送受信部211は、視聴端末100に対しコンテンツをライブ配信する。
The transmitting/receiving
サーバ処理部212は、コンテンツのライブ配信および再生のために必要な演算処理を行う。サーバ処理部212は送受信部211に対し、各種データの送信を指示する。サーバ処理部212は、データ管理部213に対し、各種情報の追加、更新、または削除を指示する。
The
データ管理部213は、記憶部220に格納されているデータを管理する。データ管理部213は、サーバ処理部212からの指示に応じて配信者情報332および視聴者情報132に含まれる各種情報の、追加、更新、または削除を実行する。データ管理部213は、サーバ処理部212の指示に従って、記憶部220から配信者情報332および視聴者情報132のうち少なくとも一方の情報を読み出してもよい。
The
(視聴端末100の機能的構成)
制御部110は、記憶部120に格納された視聴プログラム131を実行することにより、視聴端末100を統括的に制御する。例えば、制御部110は、視聴プログラム131およびユーザの操作にしたがって、コンテンツの再生を実行する。また、制御部110は、コンテンツの再生中に、必要に応じて、配信サーバ200と通信して、情報の送受信を行う。
(Functional configuration of the viewing terminal 100)
The
制御部110は、視聴プログラム131の記述に応じて、操作受付部111、再生部112、表示制御部113、および通信部114として機能する。制御部110は、コンテンツの再生を実現するために、図示しないその他の機能ブロックとしても機能することができる。
The
操作受付部111は、入力部151に対するユーザの入力操作を検知し受け付ける。操作受付部111は、タッチスクリーン15およびその他の入出力IF14を介したコンソールに対してユーザが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部110の各要素に出力する。
The
例えば、操作受付部111は、入力部151に対する入力操作を受け付け、該入力操作の入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部111は、入力操作の種類として、例えばタッチ操作、スライド操作、スワイプ操作、およびタップ操作等を特定する。また、操作受付部111は、連続して検知されていた入力が途切れると、タッチスクリーン15から接触入力が解除されたことを検知する。
For example, the
再生部112は、コンテンツの再生に係る処理を実行する。再生部112は、通信部114を介して配信サーバ200からコンテンツデータをリアルタイムで受信する。再生部112は、空間定義部112A、背景制御部112B、オブジェクト制御部112C、カメラ制御部112D、および描画部112Eを含む。
The
空間定義部112Aは、コンテンツデータに基づいて、仮想空間を定義する。仮想空間の具体例および定義方法については、後で詳述する。
The
背景制御部112Bは、コンテンツデータによって指定された背景画像を仮想空間に配置する。背景画像の種類は特に限定されないが、例えば、実在する特定の地点の周囲360度を撮影した風景画像であってもよい。
The
オブジェクト制御部112Cは、コンテンツデータによって指定されたオブジェクトを仮想空間に、該データで指定された位置に指定された姿勢で配置する。 The object control unit 112C arranges the object designated by the content data in the virtual space at the position designated by the data in the designated posture.
カメラ制御部112Dは、仮想空間に仮想カメラを配置する。仮想カメラとは、仮想空間におけるユーザの仮想視点の位置および角度を規定するものである。
The
描画部112Eは、仮想空間のうち、少なくとも、仮想カメラの視野領域に含まれるオブジェクトおよび背景画像を、動画像または静止画として描画する。以降、仮想カメラの視野領域に含まれるオブジェクトおよび背景画像を描画した動画像または静止画を、単に「視野領域の画像」と称する。なお、描画部112Eは視野領域のみならず、仮想空間全体の背景画像およびオブジェクト等を描画してもよい。 The drawing unit 112E draws at least the object and the background image included in the field of view of the virtual camera in the virtual space as a moving image or a still image. Hereinafter, a moving image or a still image in which an object and a background image included in the visual field of the virtual camera are drawn is simply referred to as “image of visual field”. The drawing unit 112E may draw not only the visual field area but also the background image and the object of the entire virtual space.
表示制御部113は、再生部112の描画部112Eが描画した視野領域の画像を、コンテンツとして表示部152に表示させる。なお、表示制御部113は、UI(user interface)を構築するための2Dまたは3Dのゲームオブジェクト(UIオブジェクト)を制御および描画してもよい。例えば、表示制御部113は、コンテンツの視聴のための種々の操作に必要なUIオブジェクトを、コンテンツと重畳、またはコンテンツとともに表示部152の画面に表示してもよい。UIオブジェクトとは、例えば、アイコン、ボタン、リスト、メニュー画面等である。また、UIオブジェクトとは、視聴端末100におけるコンテンツの再生中に、視聴端末100から視聴者に、各種情報を通知するためのツールである。
The
通信部114は、配信サーバ200に対し各種データおよびリクエストを送信する。例えば、通信部114は配信サーバ200に対し、コンテンツデータの配信要求と、視聴者情報132の一部または全部とを送信する。通信部114は、配信サーバ200からライブ配信に係る各種情報を受信する。例えば、通信部114は、配信サーバ200からコンテンツデータと、配信者情報332の一部または全部とを受信する。
The
(配信端末300の機能的構成)
制御部310は、記憶部320に格納された配信プログラム331を実行することにより、配信端末300を統括的に制御する。例えば、制御部310は、配信プログラム331および配信者の操作にしたがってコンテンツデータを作成し、配信サーバ200を介して該コンテンツデータを視聴端末100に供給する。制御部310は、配信サーバ200と通信して情報の送受信を行う。
(Functional configuration of distribution terminal 300)
The
制御部310は、配信プログラム331の記述に応じて、操作受付部311、配信部312、表示制御部313、および通信部314として機能する。制御部310は、作成するコンテンツデータの性質、すなわちコンテンツの性質に応じて、図示しないその他の機能ブロックとしても機能することができる。
The
操作受付部311は、入力部351に対するオペレータの入力操作を検知し受け付ける。操作受付部311は、タッチスクリーン35およびその他の入出力IF34を介したコンソールに対して、オペレータが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部310の各要素に出力する。操作受付部311の機能の詳細は、視聴端末100における操作受付部111のそれとほぼ同様である。
The
配信部312は、コンテンツの配信に係る各種処理を実行する。例えば、配信部312はコンテンツデータを作成する。コンテンツデータの作成方法については、後で詳述する。
The
配信部312は、配信者によるコンテンツ作成のオペレーティングを支援するための、配信者向けの画面を作成してもよい。以降、配信者向けの画面のことを、配信画面とも称する。配信画面の構成については、特に限定しない。例えば、配信部312は、アバター等の各種オブジェクト、背景画像、および各種パラメータ等、コンテンツに含まれ得る各種構成要素を一覧可能な配信画面を作成してもよい。配信画面は、表示制御部313を介してタッチスクリーン35に表示される。
The
また、配信部312は、配信者に向けた各種通知を作成および出力してもよい。例えば、配信部312は、配信サーバ200を介して受信した視聴者コメントを、配信者に通知してもよい。
Further, the
表示制御部313は、タッチスクリーン35の表示部352に対して、上述の各要素によって実行された処理結果が反映された表示画面を出力する。表示制御部313の機能の詳細は、視聴端末100における表示制御部113のそれとほぼ同様である。例えば、表示制御部313は、ライブ配信のための種々の操作に必要なUIオブジェクトを表示部352の画面に表示してもよい。
The
通信部314は、配信サーバ200に対し各種データおよびリクエストを送信する。例えば、通信部314は配信サーバ200に対し、コンテンツと、配信者情報332の一部または全部を送信する。通信部314は、配信サーバ200からライブ配信に係る各種情報を受信する。例えば、通信部314は、配信サーバ200から視聴者情報132の一部または全部を受信する。
The
なお、図3に示す視聴端末100、配信サーバ200、および配信端末300の機能は一例にすぎない。例えば、配信サーバ200は、視聴端末100または配信端末300が備える機能の少なくとも一部を備えていてもよい。また例えば、視聴端末100または配信端末300は、配信サーバ200が備える機能の少なくとも一部を備えていてもよい。
The functions of the
また、視聴端末100は、上述した構成要素以外の他の構成要素、または視聴端末100と接続された他の装置と協働してもよい。例えば、視聴端末100は他の構成要素または他の装置に、視聴端末100における処理の一部を実行させてもよい。また、配信端末300は、上述した構成要素以外の他の構成要素、または配信端末300と接続された他の装置と協働してもよい。例えば、配信端末300は他の構成要素または他の装置に、配信端末300における処理の一部を実行させてもよい。
Further, the
本実施形態において配信プログラムを実行するコンピュータは、配信サーバ200、配信端末300、および他の装置の何れであってもよいし、これらの複数の装置の組み合わせにより実現されてもよい。また、本実施形態において視聴プログラムを実行するコンピュータは、配信サーバ200、視聴端末100、および他の装置の何れであってもよいし、これら複数の装置の組合せにより実現されてもよい。また、配信システム1は、視聴端末100、配信サーバ200、および配信端末300以外の他の装置を配信システム1の構成要素とし、該他の装置に配信システム1における処理の一部を実行させてもよい。
The computer that executes the distribution program in the present embodiment may be any of the
<配信処理の流れ>
図4は、コンテンツのライブ配信および再生に係る処理の流れの一例を示すシーケンス図である。
<Flow of distribution processing>
FIG. 4 is a sequence diagram showing an example of the flow of processing relating to live distribution and reproduction of content.
ステップS100において、配信部312は、コンテンツデータを作成する。コンテンツデータの作成方法は後述する。
In step S100, the
ステップS102において、配信部312は、通信部314を介してコンテンツデータを配信サーバ200にリアルタイムで送信する。以降、配信部312は、例えば、操作受付部311が、ライブ配信の終了を指示する入力操作を受け付けるまで、コンテンツのライブ配信を継続する。
In step S102, the
ステップS104において、配信サーバ200の送受信部211は、コンテンツデータをリアルタイムで受信する。送受信部211は、受信したコンテンツデータを、一時的または非一時的に、記憶部220に記憶させてもよい。配信サーバ200は、視聴端末100からライブ配信の要求を受け付けるまで待機する。
In step S104, the transmission/
ステップS106において、視聴端末100の操作受付部111は、視聴者の、コンテンツの視聴を指示する入力操作を受け付ける。操作受付部111が該指示を受け付けると、再生部112は、ステップS108を実行する。
In step S106, the
ステップS108において、再生部112は、通信部114を介してコンテンツの配信を要求する。
In step S108, the
ステップS110において、配信サーバ200のサーバ処理部212は、送受信部211を介して配信の要求を受信する。サーバ処理部212は該要求を受信すると、ステップS112の処理を実行する。
In step S110, the
ステップS112において、サーバ処理部212は、配信端末300から受信しているコンテンツデータを、視聴端末100にリアルタイムで配信する。以降、サーバ処理部212は、例えば、送受信部211が配信端末300からコンテンツデータを受信しなくなるまで、または、視聴端末100から視聴終了の旨を通知されるまで、コンテンツデータの配信を継続する。
In step S112, the
ステップS114において、視聴端末100の通信部114は、コンテンツデータをリアルタイムに受信する。
In step S114, the
ステップS116において、再生部112は、通信部114が随時受信するコンテンツデータに基づいて、再生処理を実行する。再生処理とは、コンテンツデータが示すコンテンツの再生に係る一連の処理を意味する。以降、再生部112は、ステップS118でYESまたはステップS120でYESと判定されるまで、コンテンツ表示処理を継続して行う。
In step S116, the
ステップS118において、制御部110は、操作受付部111が視聴終了を指示する入力操作を受け付けたか否か判定する。ステップS118でYESの場合、すなわち、操作受付部111が視聴終了を指示する入力操作を受け付けた場合、再生部112は、ステップS122を実行する。
In step S118,
ステップS122において、再生部112は、コンテンツの再生を終了する。すなわち、再生部112は、再生処理を終了させる。また、再生部112は通信部114を介して、視聴終了の旨を配信サーバ200に通知する。配信サーバ200のサーバ処理部212は該通知を受信した場合、視聴端末100へのライブ配信を停止する。
In step S122, the
一方、ステップS118でNOの場合、すなわち、操作受付部111が視聴終了を指示する入力操作を受け付けていない場合、制御部110はさらに、ステップS120の処理を実行する。
On the other hand, if NO in step S118, that is, if the
ステップS120において、制御部110は、ライブ配信が終了したか否かを判定する。例えば、制御部110は通信部114におけるコンテンツの受信が終了した場合に、ライブ配信が終了したと判定してよい。ステップS120でNOの場合、制御部110はステップS116におけるコンテンツ表示処理を継続し、ステップS118からの判定処理を繰り返す。一方、ステップS120でYESの場合、再生部112は、ステップS122の処理を実行する。すなわち、再生部112は、コンテンツの再生を終了させる。
In step S120, the
(コンテンツの作成)
図5は、配信者によるコンテンツデータの作成の様子を示す図である。配信者701は、配信端末300に対し各種入力を行うことで、コンテンツデータを作成する。
(Creating content)
FIG. 5 is a diagram showing how the distributor creates content data. The distributor 701 creates content data by performing various inputs to the
コンテンツデータは、仮想空間を構築するための定義パラメータと、背景画像を指定するための情報と、配信者のアバターを示すキャラクタオブジェクトを指定する情報と、仮想カメラに係る設定パラメータと、を少なくとも含んでいる。以下、「アバターを示すキャラクタオブジェクト」のことを、単に「アバター」と称する。 The content data includes at least definition parameters for constructing a virtual space, information for designating a background image, information for designating a character object indicating a avatar of a distributor, and setting parameters for a virtual camera. I'm out. Hereinafter, the “character object indicating the avatar” is simply referred to as the “avatar”.
例えば、配信部312は、仮想空間の大きさおよび座標軸系を示す情報をコンテンツデータに含める。また例えば、配信部312は、配信者のアバターを示すキャラクタオブジェクトを決定し、該アバターの表情および動作(モーション)を、リアルタイムで決定する。そして、配信部312はこれら決定したアバターに係る情報を、コンテンツデータに含める。
For example, the
また例えば、配信部312は、背景画像を取得して、該背景画像をコンテンツデータに含める。なお、配信部312は、背景画像自体ではなく、後に視聴端末100において背景画像を特定可能または取得可能にするための情報をコンテンツデータに含めてもよい。
Further, for example, the
なお、配信端末300には、配信者の一部であるモデル702のモーションデータが入力されてもよい。例えば、モーションキャプチャ装置3020の一種として、モデル702にHMDを装着させ、該HMDによってモデル702の頭の位置および姿勢を検出してもよい。そして、配信端末300には、HMDから送信された、頭の位置および姿勢を示す情報がモーションデータとして入力されてもよい。そして、配信部312は、モデル702のモーションデータを、アバターのモーションを指定するデータとしてコンテンツデータに含めてもよい。これにより、後述するように視聴端末100においてコンテンツを再生したときに、モーションデータが示す動きをアバターの動きに反映させることができる。例えば、モデル702の頭の動きに応じて、アバターの頭を動かすことができる。なお、モーションデータとは、モデル702の身体の動きを、モーションキャプチャ装置3020を介して検出して取得したものである。
Note that the motion data of the
また例えば、配信者701は、自分の音声703を、マイク3010を介して配信端末300に入力してもよい。そして、配信端末300の配信部312は、入力された音声データをアバターの音声として、コンテンツデータに含めてもよい。もしくは、配信部312は、入力された音声データと同内容の音声を、アバターの音声としてコンテンツデータに含めてもよい。「同内容の音声」とは、該音声703自体、音声703に所定の音声加工を施した音声、または、音声703の内容を読み上げソフト等で機械発声させた音声を意味する。
Further, for example, the distributor 701 may input his/her
配信部312は、リアルタイムに入力されるこれらのデータを随時コンテンツデータとしてまとめて、通信部314を介して配信サーバ200に送信する。これにより、配信サーバ200を仲介として、配信端末300から視聴端末100へ、コンテンツデータを含む情報がライブ配信される。以降、コンテンツデータを含む情報のことを第1情報と称する。
The
(コンテンツ表示処理の流れ)
図6は、図4のステップS116に示した再生処理の流れの一例を示す図である。
(Flow of content display processing)
FIG. 6 is a diagram showing an example of the flow of the reproduction process shown in step S116 of FIG.
ステップS200において、視聴端末100の再生部112は、通信部114を介して第1情報を取得する。
In step S200, the
ステップS201において、空間定義部112Aは、仮想空間を定義する。空間定義部112Aは、例えば、コンテンツデータに含まれる定義パラメータに基づいて、球状の仮想空間を定義する。
In step S201, the
ステップS202において、背景制御部112Bは、定義された仮想空間に背景画像を展開する。具体的には、背景制御部112Bは、コンテンツデータによって指定される1枚の背景画像を、仮想空間に、該空間の球面全体を覆うように貼り付ける。S200〜S202の処理によって、背景画像が展開された仮想空間が構築される。
In step S202, the
ステップS204において、オブジェクト制御部112Cは、仮想空間に第1オブジェクトを配置する。第1オブジェクトとは、配信者のアバターを示すオブジェクトである。オブジェクト制御部112Cは、コンテンツデータに基づいて第1オブジェクトの種類、モデルデータ、および配置位置、姿勢等を決定し、該第1オブジェクトを仮想空間に配置する。 In step S204, the object control unit 112C arranges the first object in the virtual space. The first object is an object indicating the avatar of the distributor. The object control unit 112C determines the type of the first object, the model data, the arrangement position, the posture, and the like based on the content data, and arranges the first object in the virtual space.
ステップS206において、オブジェクト制御部112Cは、仮想空間に第2オブジェクトを配置する。第2オブジェクトとは、後述するように、仮想空間に貼り付けられた背景画像の特定の領域を遮蔽するように設けられるオブジェクトである。第2オブジェクトは立体であっても平面であってもよい。 In step S206, the object control unit 112C arranges the second object in the virtual space. The second object is an object provided so as to shield a specific area of the background image attached to the virtual space, as described later. The second object may be a solid or a plane.
第2オブジェクトの大きさおよび形状は限定されない。例えば、第2オブジェクトは、アバターである第1オブジェクトの立つ土台となるオブジェクトであってもよいし、仮想空間上の天井照明等であってもよい。換言すると、第1オブジェクトは、第2オブジェクト上に、すなわち第2オブジェクトと接するように配置されてもよい。しかしながら、第2オブジェクトは、ライブ配信されるコンテンツにおいて、本来のコンテンツの興趣性を損なわないような大きさおよび形状とされることが望ましい。 The size and shape of the second object are not limited. For example, the second object may be an object that serves as a base on which the first object that is an avatar stands, or may be ceiling lighting in a virtual space. In other words, the first object may be arranged on the second object, that is, in contact with the second object. However, it is desirable that the second object has a size and a shape that do not impair the original interest of the content in the live distribution.
オブジェクト制御部112Cは、コンテンツデータに基づいて第2オブジェクトの種類、モデルデータ、および配置位置、姿勢等を決定し、該第2オブジェクトを仮想空間に配置する。 The object control unit 112C determines the type of the second object, the model data, the placement position, the posture, and the like based on the content data, and places the second object in the virtual space.
ステップS207において、オブジェクト制御部112Cは、第1オブジェクトを、第1情報に含まれているモーションデータに従って動作させる。 In step S207, the object control unit 112C operates the first object according to the motion data included in the first information.
ステップS208において、カメラ制御部112Dは、仮想カメラを仮想空間に配置する。このとき、カメラ制御部112Dは、仮想カメラを仮想空間の中心点とは異なる位置に配置する。仮想カメラの配置位置の例については後で示す。
In step S208, the
ステップS210において、描画部112Eは、仮想空間の定義パラメータおよび仮想カメラの位置および角度から、該仮想カメラの視野領域を算出する。 In step S210, the drawing unit 112E calculates the visual field area of the virtual camera from the definition parameter of the virtual space and the position and angle of the virtual camera.
ステップS212において、描画部112Eは、仮想空間のうち算出した視野領域近傍に映し出されるオブジェクトおよび画像等を描画する。換言すると、描画部112Eは、仮想空間のうち算出した視野領域の画像をレンダリングする。 In step S212, the drawing unit 112E draws an object, an image, or the like that appears in the vicinity of the calculated visual field area in the virtual space. In other words, the drawing unit 112E renders the image of the calculated visual field area in the virtual space.
ステップS214において、表示制御部113は、描画部112Eのレンダリングによって得られた視野領域の画像を、表示部152等に表示させる。
In step S214, the
上述のように、コンテンツデータは順次配信サーバ200から配信される。そのため、空間定義部112A、背景制御部112B、およびオブジェクト制御部112Cは、通信部114が取得したコンテンツデータにおいて、仮想空間自体の定義、背景画像、オブジェクトの位置、表情、動き、ならびに、仮想カメラの位置および角度等に変更がある場合、都度該変更を仮想空間に反映させる。これにより、視聴端末100において、コンテンツデータに基づくコンテンツがリアルタイムで再生され表示される。
As described above, the content data is sequentially distributed from the
なお、図6に示す処理のうち、ステップS206の処理は必須ではない。すなわち、オブジェクト制御部112Cは、仮想空間に第2オブジェクトを配置しなくてもよい。また、オブジェクト制御部112Cは、第1および第2オブジェクト以外のオブジェクトを仮想空間に配置してもよい。また、背景制御部112Bは、背景画像以外の画像を仮想空間に貼り付けてもよい。
Of the processing shown in FIG. 6, the processing of step S206 is not essential. That is, the object control unit 112C may not arrange the second object in the virtual space. Further, the object control unit 112C may arrange objects other than the first and second objects in the virtual space. The
前記の処理によれば、中心点とは異なる位置に配置した仮想カメラの視野領域を描画するため、仮想空間の中心をユーザに見せることができる。したがって、ライブ配信におけるコンテンツの興趣性が向上する。 According to the above processing, the visual field area of the virtual camera arranged at a position different from the center point is drawn, so that the center of the virtual space can be shown to the user. Therefore, the interest of the content in the live distribution is improved.
(仮想空間の一例)
図7の状態(A)は、前記配信システムにおいて構築される仮想空間の一例を示す図である。仮想空間600は、中心点601を中心とし、北極点602および南極点603を結んだ360度方向の全体を覆う全球状の構造を有する。図7の状態(A)では、説明を複雑にしないために、仮想空間600のうちの、地平線604から上半分の半球を例示している。実際の仮想空間は、下半球も同様に背景画像およびオブジェクトが配置され得る。また、仮想空間600において図示される緯線および経線は説明のためのものであり、実際の仮想空間を定義および構築する際は、該緯線および経線は無くて良い。
(Example of virtual space)
The state (A) of FIG. 7 is a diagram showing an example of a virtual space constructed in the distribution system. The
仮想空間600では、中心点601を原点とするXYZ座標系が規定される。XYZ座標系は、例えば、実座標系に平行である。XYZ座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸(水平方向)が実座標系のx軸と平行であり、XYZ座標系のY軸(鉛直方向)が実座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)が実座標系のz軸と平行である。
In the
空間定義部112Aが図7の状態(A)に示すような天球状の仮想空間600を定義すると、背景制御部112Bは、該仮想空間600の内側に、360度の全方位画像である背景画像630を貼り付ける。
When the
オブジェクト制御部112Cは、仮想空間600に、アバターの第1オブジェクト610を配置する。以降、第1オブジェクトのことをアバターとも称する。また、オブジェクト制御部112Cは、仮想空間600に第2オブジェクト620を配置してもよい。図示の例では、第2オブジェクト620は、アバター610の立つ土台のオブジェクトである。
The object control unit 112C arranges the
カメラ制御部112Dは、仮想空間600に、仮想カメラ640を配置する。ここで、カメラ制御部112Dは、仮想カメラ640を仮想空間600の中心点およびその近傍ではない、任意の位置に任意の角度で配置される。仮想カメラ640の位置および角度は、コンテンツデータで規定される。
The
図7の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図7の状態(A)の例では、カメラ制御部112Dは仮想カメラ640を、アバター610の顔と同程度の高さで配置している。仮想カメラ640の視界領域は、仮想空間600のうち、視聴者が視聴端末100を介して視認可能な領域であるといえる。つまり、仮想カメラ640の位置および角度は、仮想空間600における視聴者の視点と同じであるといえる。図7の状態(A)の仮想カメラ640場合、図7の状態(B)に示す通り、アバター610を略真横から見る視点での視野領域の画像700が描画され、表示部152に表示される。
The state (B) of FIG. 7 is a diagram showing an example of an image of the visual field area of the virtual camera shown in the state (A). In the example of the state (A) of FIG. 7, the
このように、再生部112は、空間定義部112A、背景制御部112B、およびオブジェクト制御部112Cの協働により、仮想空間600を構築する。そして、カメラ制御部112Dによって、仮想カメラ640が配置され、描画部112Eによって、仮想カメラ640の視点からの視野領域の画像700が描画される。そして、表示制御部113により、描画された視野領域の画像700が表示部に表示される。
In this way, the
ここで、第2オブジェクト620はアバター610の立つ土台のオブジェクトであり、仮想カメラ640から見て第2オブジェクト620より後方の領域(特定領域)は仮想カメラ640から遮蔽された領域となる。換言すると、例えば背景画像を撮影したカメラの写り込み部分等、視聴者に隠したい領域(特定領域)の位置に合わせて第2オブジェクト620を配置すれば、その領域は第2オブジェクト620に遮蔽されて、視聴者からは見えないようにすることができる。
Here, the
(仮想空間の他の一例)
なお、オブジェクト制御部112Cは、仮想カメラからの視野領域において、仮想空間の北極点、南極点、または地平線に重畳するように第2オブジェクトを配置してもよい。
(Another example of virtual space)
The object control unit 112C may arrange the second object so as to overlap the north pole, the south pole, or the horizon of the virtual space in the field of view from the virtual camera.
図8の状態(A)は、前記配信システムにおいて構築される仮想空間の他の一例を示す図である。図8の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図8の状態(A)の例では、オブジェクト制御部112Cは、仮想カメラ640の視野領域に北極点およびその周辺領域(特定領域)が入る際に、該北極点近傍の背景画像630が隠れるような所定位置に、第2オブジェクト621を配置している。
The state (A) of FIG. 8 is a diagram showing another example of the virtual space constructed in the distribution system. The state (B) of FIG. 8 is a diagram showing an example of an image of the visual field area of the virtual camera shown in the state (A). In the example of the state (A) of FIG. 8, the object control unit 112C hides the
背景画像630は、仮想空間600の球面全体を覆う画像、すなわち、全方位画像である。全方位画像を仮想空間600の球内面に貼り付けた場合、該球の北極点602、南極点603、および地平線604の近傍の少なくとも1つに、背景画像の歪みが生じる可能性がある。このような背景画像の歪みが生じ得る領域(特定領域)を遮蔽するように、当該領域の近傍に第2オブジェクト621を配置することで、背景画像の歪みを目立たなくすることができる。
The
例えば、同図における仮想カメラ640の位置および角度のように、アバター610を見上げるようなカメラアングルの場合でも、図8の状態(B)に示すように、視野領域の画像800では北極点およびその周辺領域(特定領域)が第2オブジェクト621で遮蔽された状態となるため、視聴者からは背景画像の歪みが見えないようにすることができる。
For example, even when the camera angle is such that the
(仮想空間の他の一例)
なお、オブジェクト制御部112Cは、仮想カメラからの視野領域において、背景画像における特定領域に遮蔽するように第2オブジェクトを配置してもよい。
(Another example of virtual space)
It should be noted that the object control unit 112C may arrange the second object so as to cover the specific area in the background image in the visual field from the virtual camera.
図9の状態(A)は、前記配信システムにおいて構築される仮想空間の他の一例を示す図である。図9の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図9の状態(A)の例では、オブジェクト制御部112Cは図示のように、地平線604から垂直に、第2オブジェクト622を配置する。
The state (A) of FIG. 9 is a diagram showing another example of the virtual space constructed in the distribution system. The state (B) of FIG. 9 is a diagram showing an example of an image of the visual field area of the virtual camera shown in the state (A). In the example of the state (A) of FIG. 9, the object control unit 112C arranges the
背景画像630は全方位画像であるため、作成の際に、該全方位画像の元となる元画像の形およびサイズに応じて、一部の領域に歪みが生じる可能性がある。このような画像の歪みが生じ得る領域(特定領域)を仮想カメラ640で映す際に、第2オブジェクト622が該領域を遮蔽するよう配置される。したがって、視聴者からは背景画像の歪みが見えないようにすることができる。
Since the
例えば、図9の状態(B)に示すように、特定領域を第2オブジェクト622で遮蔽された状態とすることが可能であるため、視野領域の画像900において、背景画像630の歪みが見えないようにすることができる。
For example, as shown in the state (B) of FIG. 9, since it is possible to make the specific region occluded by the
(ライブ配信の視聴までの流れ)
視聴端末100によるライブ配信の選択および視聴開始の操作は、地図を用いたGUIにより行われてもよい。
(Flow until viewing live stream)
The operation of selecting live distribution and starting viewing by the
図10は、視聴端末100の表示画面の一例を示す図である。図示の通り、表示画面1700には、地図データに基づく地図と、ライブ配信を視聴可能なエリア1701(図中の灰色サークル)とが表示される。ここで、地図データは視聴端末100の記憶部120に記憶されていてもよいし、外部サーバ等から適宜取得されてもよい。また、表示画面1700には、エリア1701と対応付けて、ライブ配信の日時、内容等を示すメッセージ1702、および、ライブ配信の開始を指示するアイコン1703が表示されてもよい。また、表示画面1700には、視聴端末100の現在位置、すなわちユーザの現在位置を示すアイコン1704が表示されてもよい。さらに、表示画面1700には、地図データに対応した建物や風景等のオブジェクト1705が表示されてもよい。
FIG. 10 is a diagram showing an example of a display screen of the
視聴端末100の現在位置の情報は、視聴端末100がGPS(Global Positioning System)受信機(図示せず)を備え、GPSの電波を受信することで得ることができる。GPS受信機は、得られた電波が示す、現在位置の位置用法を制御部110に送信し、制御部110はこれを取得する。
The information on the current position of the
また、ライブ配信を視聴可能なエリアを示す情報、ライブ配信が配信される時間帯等、ライブ配信に係る情報、および、ライブ配信の状態を示す情報は、制御部110が配信サーバ200から定期的に受信し、表示画面1700および表示画面1800に表示される情報に反映させる。
Further, the
図11は、図10に示した表示画面に対するユーザの第1入力操作の一例を示す図である。第1入力操作とは、地図を表示した表示画面において、該地図上のある地点を指定するための入力操作である。図示の例では、表示画面1800において、ユーザ(アイコン1703)がライブ配信を視聴可能なエリア1701内にいる状態で、ライブ配信の開始を指示するアイコン1703を選択する入力操作を行った場合に、該入力操作が第1入力操作として受け付けられる。
FIG. 11 is a diagram showing an example of the user's first input operation on the display screen shown in FIG. 10. The first input operation is an input operation for designating a certain point on the map on the display screen displaying the map. In the illustrated example, when the user (icon 1703) is in the
操作受付部111が第1入力操作を受け付けると、制御部110はライブ配信を特定し、そのコンテンツデータを配信サーバ200から受信する。コンテンツデータを受信すると、再生部112が図6に示した処理、すなわち、仮想空間の構築、仮想カメラの配置、および視野画像の描画を実行する。これにより、ユーザはライブ配信を視聴することができる。換言すると、現在位置の位置情報が示す、視聴端末100の地図上での位置と、第1入力操作により指定された地点との距離が所定範囲内である場合に、再生部112の空間定義部112Aおよび背景制御部112Bは、ライブ配信されるコンテンツのための仮想空間を協働して構築する。
When the
なお、ライブ配信は配信される時間帯が決まっていてもよい。また、図10および図11に示すように、ライブ配信の状態、例えばライブ配信中か否かに応じて、メッセージ1702の内容が変更されてもよい。
It should be noted that in the live distribution, the distribution time period may be fixed. Further, as shown in FIGS. 10 and 11, the content of the
図12は、ライブ配信されたコンテンツを視聴している際の視聴端末100の表示画面を示している。ユーザがアイコン1703を選択する入力操作を行うと、ライブ配信の視聴が開始され、視聴端末100には表示画面1900が表示される。図示の通り、表示画面1900には、配信者のアバター1901が少なくとも含まれる。表示画面1900では、背景画像1902として、配信者のアバター1901が配置された地図上の地点の周囲360度の、現実空間上の風景を撮影した画像が表示される。そして、アバター1901および第2オブジェクト1903等は該背景画像の特定の領域を遮蔽する位置に表示されてもよい。
FIG. 12 shows a display screen of the
ここで、図示の通り、第2オブジェクト1903はアバター1901の立つ土台のオブジェクトであり、第2オブジェクト1903より下の領域(特定領域)を仮想カメラから遮蔽している。換言すると、例えば背景画像を撮影したカメラの写り込み部分等、視聴者に隠したい領域(特定領域)の位置に合わせて第2オブジェクト1903を配置すれば、その領域は第2オブジェクト1903に遮蔽されて、視聴者からは見えないようにすることができる。
Here, as shown in the figure, the
〔実施形態2〕
配信端末300は、ゲームシステムに含まれるゲーム端末を用いて、配信者がプレイしているゲームのプレイ画面の画像を取得してもよい。そして、再生部112は、全方位画像と、配信者のアバターを示す第1オブジェクトと、ゲームのプレイ画面の画像を表示する第3オブジェクトと、を少なくとも配置した仮想空間を構築してもよい。なお、本実施形態においては、仮想カメラの配置位置は、仮想空間の、該仮想空間の中心点とは異なる位置であって、中心点を視野領域に含む位置であってもよいし、該位置以外の位置でもよい。また、コンテンツデータはライブ配信される「ライブコンテンツ」であってもよいし、録画されたデータである「録画コンテンツ」であってもよい。以下、「ライブコンテンツ」および「録画コンテンツ」のことを、総称して単に「コンテンツ」と称する。
[Embodiment 2]
The
(システム概要)
図13は、本実施形態に係る配信システム2の概要を示す図である。図13は、ゲーム端末400を含む点で、図1に示した配信システム1と異なる。
(System overview)
FIG. 13 is a diagram showing an outline of the distribution system 2 according to this embodiment. FIG. 13 differs from the distribution system 1 shown in FIG. 1 in that the
ゲーム端末400は、配信者がゲームをプレイするための端末である。ゲーム端末400は、配信端末300に、該ゲームのプレイ画面の画像を随時送信する。これにより、配信者は、配信端末300においてコンテンツデータを作成する際に、該プレイ画面を含んだコンテンツのコンテンツデータを作成することができる。
The
ゲーム端末400は、他のゲーム端末または図示しないゲームサーバとともに、ゲーム端末400を含むゲームシステムであってもよい。すなわち、ゲームシステムに含まれるあるゲーム端末400を用いて配信者がゲームをプレイすると、該ゲームのプレイ画像が、該ゲーム端末400またはゲームサーバから、配信端末300に送信される構成であってもよい。
The
(仮想空間)
図14の状態(A)は、配信システム2において構築される仮想空間の他の一例を示す図である。同図に示す仮想空間1000には、背景画像1030が貼り付けられ、アバター1010と、仮想カメラ1040とが配置されている。なお、同図では図示していないが、本実施形態においても、仮想空間1000に第2オブジェクトが配置されてもよい。また、同図の例では、アバターの座る椅子オブジェクト1060が併せて配置されている。
(Virtual space)
The state (A) of FIG. 14 is a diagram showing another example of the virtual space constructed in the distribution system 2. In the
本実施形態においては、オブジェクト制御部112Cは、配信者がプレイしているゲームのプレイ画面の画像を表示する第3オブジェクト1021を、仮想空間1000に配置する。例えば、図示のように、第3オブジェクト1021は、テレビおよびパーソナルコンピュータ等を模したオブジェクトであってもよい。第3オブジェクト1021の少なくとも一部領域には、ゲームのプレイ画面の画像1050が表示される。なお、オブジェクト制御部112Cは、プレイ画面を表示可能な第3オブジェクトを配置してもよいし、見かけ上第3オブジェクト上にプレイ画面が表示されているように、第3オブジェクトと、プレイ画面の画像とを貼り付けて、または仮想カメラ1040から見たときに重畳するように配置してもよい。
In the present embodiment, the object control unit 112C arranges the
図14の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図14の状態(A)の例では、カメラ制御部112Dは仮想カメラ1040を、アバター1010の頭と同程度の高さで、かつアバター1010の背後に配置している。図14の状態(A)の仮想カメラ1040場合、図14の状態(B)に示す通り、第3オブジェクト1021に表示されたプレイ画面を見ているアバター1010を、真後ろから映すような視点で視野領域の画像が描画され、表示部152に表示される。
The state (B) of FIG. 14 is a diagram showing an example of an image of the visual field area of the virtual camera shown in the state (A). In the example of the state (A) of FIG. 14, the
(仮想カメラの切替え1)
カメラ制御部112Dは、視聴端末100において特定の第2入力操作が受け付けられたことに応答して、仮想カメラ1040の位置および角度を、前記アバターに対応する配信者の視点と略同様の位置および角度に切替えてもよい。
(Switching virtual camera 1)
In response to the reception of the specific second input operation in the
なお、仮想カメラの位置および角度を切替えるための具体的方法は特に限定されない。例えば、カメラ制御部112Dは、仮想空間内に配置している仮想カメラの位置および角度を移動させてもよい。また、カメラ制御部112Dは、仮想空間内に配置している仮想カメラを一旦削除し、切替後の位置および角度に、仮想カメラを再配置してもよい。
The specific method for switching the position and angle of the virtual camera is not particularly limited. For example, the
また、複数の仮想カメラを異なる位置および角度で仮想空間に配置しておき、カメラ制御部112Dが使用する仮想カメラを逐次切り替えてもよい。そして、例えば描画部112Eにおいて、いずれの仮想カメラの視野画像をレンダリングするかを定めてレンダリングを実行してもよい。
Alternatively, a plurality of virtual cameras may be arranged in different positions and angles in the virtual space, and the virtual cameras used by the
図15の状態(A)は、第2入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。第2入力操作が受け付けられると、カメラ制御部112Dは、仮想カメラをアバター1010の視点と略同様の位置、すなわち、プレイ画面1050に対する配信者の視点と略同様の位置および角度に切替える。図15の状態(A)の場合、アバター1010の視界領域をαで示している。なお、実際の仮想空間1000ではアバター1010と仮想カメラ1040は重畳しているが、図面の見易さのため仮想カメラ1040は図示していない。
The state (A) of FIG. 15 is a diagram showing the virtual space after the second input operation is performed and the position and angle of the virtual camera are switched. When the second input operation is accepted, the
図15の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図15の状態(A)に示すアバター1010の視点の場合、同図の領域αが視野領域の画像となる。したがって、図15の状態(B)に示すように、第3オブジェクト1021およびプレイ画面1050のアップ画面が、視野領域の画像として描画および表示される。
The state (B) of FIG. 15 is a diagram showing an example of an image of the visual field area of the virtual camera shown in the state (A). In the case of the viewpoint of the
これにより、視聴端末100のユーザの第2入力操作に応じて、仮想カメラ1040を、配信者の視野と略同様の領域を映す位置および角度に切替えることができる。したがって、視聴端末100のユーザ、すなわち視聴者は、自身の入力操作に応じて配信者の視点をトレースした映像を視聴することができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。
Thereby, the
(仮想カメラの切替え2)
カメラ制御部112Dは、アバター1010の持ち物を示す第4オブジェクト1041を仮想空間1000に配置してもよい。そして、カメラ制御部112Dは、視聴端末100において特定の第3入力操作が受け付けられたことに応答して、仮想カメラ1040の位置および角度を、前記第4オブジェクトの位置および向きと略同様の位置および角度に切替えてもよい。
(Switching virtual camera 2)
The
図16の状態(A)は、第3入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。第3入力操作が受け付けられると、カメラ制御部112Dは、仮想カメラをアバター1010の持ち物である第4オブジェクト1041の位置および向きに応じた位置および角度に切替える。図示の例では、アバター1010の持ち物とは、アバター1010が手に持っているカメラオブジェクト1041である。図15の状態(A)の場合、第4オブジェクト1041は、アバター1010の顔の方を向いている。なお、実際の仮想空間1000ではカメラオブジェクト1041と仮想カメラ1040は重畳しているが、図面の見易さのため仮想カメラ1040は図示していない。
The state (A) of FIG. 16 is a diagram illustrating the virtual space after the third input operation is performed and the position and the angle of the virtual camera are switched. When the third input operation is accepted, the
図16の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図16の状態(B)に示すように、第4オブジェクト1041の視点からの視野領域の画像1300は、第4オブジェクトの向いている方向、すなわち、アバター1010の顔の方向を映す。
The state (B) of FIG. 16 is a diagram showing an example of an image of the visual field area of the virtual camera shown in the state (A). As shown in the state (B) of FIG. 16, the
これにより、視聴端末100のユーザの第3入力操作に応じて、仮想カメラを、アバターの持ち物の視点と略同様の視点からの視野画像を映す位置および角度に切替えることができる。したがって、視聴端末100のユーザ、すなわち視聴者は、自身の入力操作に応じてアバターの持ち物視点からの映像を視聴することができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。
Accordingly, the virtual camera can be switched to a position and an angle at which the visual field image is viewed from a viewpoint substantially similar to the viewpoint of the property of the avatar, according to the third input operation of the user of the
(仮想カメラの追加)
カメラ制御部112Dは、仮想カメラを複数配置してもよい。また、カメラ制御部112Dは、視聴端末100において特定の第4入力操作が受け付けられたことに応答して、仮想カメラ1040と異なる第2仮想カメラ(すなわち、第2仮想視点)を、第1オブジェクトの特定部位が映る位置および角度で配置してもよい。ここで、アバターの特定部位とは、例えばアバターの顔または手元である。また、描画部112Eは、仮想カメラの視野領域の画像と、第2仮想カメラの視野領域の画像との両方を含む画像をレンダリングしてもよい。
(Adding a virtual camera)
The
図17の状態(A)は、第4入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。第4入力操作が受け付けられると、カメラ制御部112Dは、第2仮想カメラ1070を、アバター1010の特定部位が映る位置および角度で仮想空間1000に配置する。図示の例では、第2仮想カメラ1070は、アバター1010の顔が映る位置および角度で配置される。
The state (A) of FIG. 17 is a diagram showing the virtual space after the fourth input operation is performed and the position and angle of the virtual camera are switched. When the fourth input operation is accepted, the
図17の状態(B)は、状態(A)に示す仮想カメラ1040および第2仮想カメラ1070の視野領域の画像1400の一例を示す図である。図16の状態(B)に示すように、描画部112Eは視野領域の画像として、仮想カメラ1040の視野領域の画像1400に、第2仮想カメラ1070の視野領域の画像1080を重畳して表示する。なお、第2仮想カメラ1070の視野領域の画像は、図示の通り全部ではなく一部の領域だけ表示されてもよい。
The state (B) of FIG. 17 is a diagram showing an example of an
これにより、視聴端末100のユーザの第4入力操作に応じて、アバターの特定部位を第2仮想カメラ1070で映すことができる。したがって、視聴者は、自身の入力操作に応じて、仮想カメラによる視野領域の映像と、第2仮想カメラによるアバターの特定部位の映像との両方を同時に見ることができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。
Thereby, the specific portion of the avatar can be displayed on the second
また、視聴端末100において所定の入力操作が受け付けられた場合、描画部112Eは、仮想カメラ1010の視野領域の画像1400と、第2仮想カメラ1070の視野領域の画像1080とを入れ替えて描画してもよい。
In addition, when a predetermined input operation is accepted in the
(仮想カメラの切替え3)
視聴端末100において特定の第5入力操作が受け付けられた場合、カメラ制御部112Dは、仮想カメラ1040の位置および角度を、第1オブジェクトの特定部位が映る位置および角度に切替えてもよい。
(Switching virtual cameras 3)
When the specific fifth input operation is received by the
図18の状態(A)は、第5入力操作がなされて仮想カメラ1040の位置および角度が切替えられた後の仮想空間を示す図である。第5入力操作が受け付けられると、カメラ制御部112Dは、仮想カメラ1040の位置および角度を、アバター1010の特定部位が映る位置および角度に切替える。図18の状態(A)の場合、カメラ制御部112Dは、アバター1010の顔が正面から見える位置および角度に仮想カメラ1040を配置する。なお、仮想カメラ1040の位置および角度は、アバター1010の特定部位の位置に対して相対的に定められる。したがって、カメラ制御部112Dは、アバター1010の特定部位の位置および角度が変化した場合、変化後の位置および角度に応じた相対位置に仮想カメラ1040を移動または配置し直す。つまり、アバター1010の特定部位が動いたら、仮想カメラ1040も所定の相対位置となるように追従して移動する。このように、アバター1010の特定部位が動いても仮想カメラ1040も追従して動くので、アバター1010の特定部位を常に撮影できる。
The state (A) of FIG. 18 is a diagram showing the virtual space after the fifth input operation is performed and the position and angle of the
図18の状態(B)は、状態(A)に示す仮想カメラ1040の視野領域の画像1031の一例を示す図である。図18の状態(B)に示すように、仮想カメラ1040は、アバター1010の顔を正面から撮影できる位置にある。
The state (B) of FIG. 18 is a diagram showing an example of the
これにより、視聴端末100のユーザの第5入力操作に応じて、仮想カメラ1040を、アバターの特定部位が映る位置および角度に切替えることができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。
Thereby, the
〔ゲームの変形例〕
以上の説明では、ゲームは、配信システム2が配信するコンテンツとは独立したものであり、ゲーム端末400から配信端末300にゲーム画面が取り込まれることによって、該ゲーム画面がコンテンツに含まれることとした。
[Modification of the game]
In the above description, the game is independent of the content distributed by the distribution system 2, and the game screen is included in the content when the game screen is loaded from the
しかしながら、配信システム2において、ゲーム端末400と配信端末300とは一体であってもよい。この場合、配信部312は、配信者がアバターを介して仮想空間でプレイするためのゲームを提供してもよい。このようなゲームとして、例えば、HMDを利用して実現されるVRゲームが挙げられる。この場合、配信部312が、ゲームの進行に係る各種処理を実行して、ゲーム画面兼配信画面を作成してよい。なお、この場合、コンテンツデータに含まれるゲームのプレイ画面とは、配信者のアバターを含む、コンテンツそのものとなる。
However, in the distribution system 2, the
図19は、配信システム2における、仮想カメラの視野領域の画像の他の一例を示す図である。図19に示すゲーム画面1600には、配信者のアバター1010を少なくとも含む、ゲーム画面としてのコンテンツが表示される。図示の例ではさらに、ゲーム画面1600に敵キャラクタ1610が配置されており、配信者の操作する(配信者の動作が反映される)アバター1010と対戦している。
FIG. 19 is a diagram showing another example of the image of the visual field area of the virtual camera in the distribution system 2. On the
ゲーム画面1600では、アバター1010がプレイヤーキャラクタとなる。図示の例では、配信者に対応するアバター1010が配信者(モデル702等)の動きに応じてゲーム画面1600上で動いてよい。すなわち、モーションデータの取得対象となっている配信者の動きがそのまま、アバター1010に反映されてよい。例えば、前述のようにモデル702がHMDを装着している場合、モデル702の頭の動きに合わせてアバター1010の頭の向きが変化してもよい。
On the
また、配信者に対応するアバター1010の視線方向と対向する位置に、自動で追尾する仮想カメラを設けてもよい。この仮想カメラによれば、配信者に対応するアバター1010の視線を確実に捉えることができる。よって、配信者に対応するアバター1010が自分の方を見てくれないという視聴者の不満の発生を防止できる。なお、この仮想カメラからの映像を表示するモードを別途設けてもよい。例えば、仮想空間内にこの仮想カメラを配置し、視聴者がこの仮想カメラをタップすると、上記モードに移行するようにしてもよい。
Further, a virtual camera that automatically tracks may be provided at a position facing the line of sight of the
〔変形例〕
配信システム1または2は、実施形態1において説明した第2オブジェクトの配置方法および配置位置と、実施形態2において説明した仮想カメラの位置および角度の切り替え、ならびに第2仮想カメラの配置とを組み合わせて実行してもよい。
[Modification]
The distribution system 1 or 2 combines the arrangement method and the arrangement position of the second object described in the first embodiment, the position and angle switching of the virtual camera described in the second embodiment, and the arrangement of the second virtual camera. You may execute.
例えば、配信システム1において、視聴端末100のオブジェクト制御部112Cは、操作受付部111が第2入力操作または第3入力操作を受け付けた場合に、実施形態2において説明したように、仮想カメラの位置および角度を切替えてもよい。また、配信システム1において、視聴端末100のオブジェクト制御部112Cは、操作受付部111が第4入力操作を受け付けた場合に、実施形態2において説明したように、第2仮想カメラを配置し、描画部112Eは仮想カメラと第2仮想カメラの両方の視野領域の画像を描画してもよい。
For example, in the distribution system 1, when the
また、実施形態1および実施形態2の例では、配信端末300において作成されたコンテンツデータに基づいて、視聴端末100において仮想空間の構築、仮想カメラの配置、および視野領域の画像の描画を実行した。しかしながら、配信システム1および2に係る配信端末300の配信部312が、仮想空間の構築、仮想カメラの配置、および視野領域の画像の描画を実行してもよい。換言すると、配信端末300の配信部312が図6のステップS201〜S212までの処理を実行し、描画された視野領域の画像がコンテンツとして、配信サーバ200を介し視聴端末100に配信されてもよい。
In addition, in the examples of the first and second embodiments, the
なお、この場合、実施形態2において説明した仮想カメラの切り替えは、例えば以下の方法で実現可能である。すなわち、配信端末300の配信部312が、予め仮想空間全域を描画する、または、配置され得る全ての位置および角度での仮想カメラの視野領域の画像を描画しておく方法である。この場合、視聴端末100において第2入力操作、第3入力操作、第4入力操作、または第5入力操作が実行されると、該操作が行われた旨が視聴端末100から配信サーバ200に伝えられる。配信サーバ200には、前述のようにあらゆる視野領域の画像に対応する描画画像が蓄積されており、サーバ処理部212は、視聴端末100から送信された操作の内容に応じた視野領域の画像を、視聴端末100に送信する。これにより、視聴端末100における入力操作に応じて、仮想カメラの視点切替えが可能となる。
In this case, the switching of the virtual cameras described in the second embodiment can be realized by the following method, for example. That is, this is a method in which the
〔ソフトウェアによる実現例〕
制御部110、210、および310の各制御ブロックの制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of software implementation]
The control block of each control block of the
後者の場合、制御部110、210、および310を少なくとも1つ備えた情報処理装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the information processing apparatus including at least one of the
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining the technical means disclosed in the different embodiments Is also included in the technical scope of the present invention.
〔付記事項〕
本発明の一側面に係る内容を列記すると以下のとおりである。
[Appendix]
The contents according to one aspect of the present invention are listed below.
(項目1) プログラム(視聴プログラム131)について説明した。本開示のある局面によると、プログラムは、プロセッサ(10)およびメモリ(11)を備える、配信者が配信端末(300)を用いてリアルタイム配信するコンテンツを視聴するための視聴端末(100)としての、コンピュータにより実行されるプログラムであって、プログラムは、プロセッサに、コンテンツに係る情報であって、配信端末から随時配信される、少なくとも配信者の身体の動きを検出したモーションデータを含む情報である第1情報を受信するステップ(S200)と、背景画像が展開された仮想空間を構築するステップ(S201〜S202)と、仮想空間に、配信者に対応するアバターである第1オブジェクトを配置するステップ(S204)と、リアルタイム配信が行われている間、第1情報を受信することに応答して、第1オブジェクトをモーションデータに従って動作させるステップ(S207)と、仮想空間の、該仮想空間の中心点とは異なる位置であって、中心点を視野領域に含む位置に仮想視点を配置するステップ(S208)と、仮想視点の視野領域の画像をレンダリングするステップ(S212)と、レンダリングによって得られる画像を、表示部に表示させるステップ(S214)と、を実行させる。 (Item 1) The program (viewing program 131) has been described. According to an aspect of the present disclosure, a program includes a processor (10) and a memory (11) as a viewing terminal (100) for a distributor to view content to be distributed in real time using a distribution terminal (300). , A program executed by a computer, the program being information relating to contents to a processor, and being information distributed at any time from a distribution terminal, including at least motion data in which motion of a distributor's body is detected. A step of receiving the first information (S200), a step of constructing a virtual space in which a background image is expanded (S201 to S202), and a step of arranging a first object which is an avatar corresponding to a distributor in the virtual space. (S204), in response to receiving the first information during the real-time distribution, a step of operating the first object according to the motion data (S207), and the center of the virtual space in the virtual space. An image obtained by rendering: a step of arranging the virtual viewpoint at a position different from the point and including the center point in the visual field area (S208); a step of rendering an image of the virtual viewpoint visual field area (S212); Is displayed on the display unit (S214).
前記の処理によれば、中心点とは異なる位置に配置した仮想視点の視野領域を描画するため、仮想空間の中心をユーザに見せることができる。したがって、ライブ配信におけるコンテンツの興趣性が向上する。 According to the above processing, the visual field area of the virtual viewpoint arranged at a position different from the center point is drawn, so that the center of the virtual space can be shown to the user. Therefore, the interest of the content in the live distribution is improved.
(項目2) (項目1)において、プログラムは、プロセッサに、さらに、背景画像の特定の領域を遮蔽するように、仮想空間内に第2オブジェクトを配置するステップ(S206)を実行させてもよい。 (Item 2) In (Item 1), the program may cause the processor to further execute a step (S206) of arranging the second object in the virtual space so as to occlude a specific region of the background image. ..
仮想空間を覆う背景画像を作成する場合、元となる元画像の形およびサイズに応じて、背景画像の一部に歪みが生じる可能性がある。前記の処理によれば、例えばこのような背景画像の歪みが生じ得る領域を仮想視点の視野領域の画像を表示する際に、第2オブジェクトが該領域を遮蔽するよう配置される。したがって、視聴者に背景画像の歪みを見せないようにすることができる。 When a background image covering the virtual space is created, a part of the background image may be distorted depending on the shape and size of the original original image. According to the above-described processing, for example, when displaying the image of the visual field region of the virtual viewpoint in the region where such distortion of the background image may occur, the second object is arranged so as to shield the region. Therefore, it is possible to prevent the viewer from showing the distortion of the background image.
(項目3) (項目2)において、第1オブジェクトを配置するステップは、第1オブジェクトを第2オブジェクト上に配置してもよい。 (Item 3) In (Item 2), the step of arranging the first object may arrange the first object on the second object.
前記の処理によれば、視聴者が第1オブジェクトに注目したとき、第2オブジェクトによって画像の歪みが生じ得る領域が遮蔽されている。よって、視聴者に背景画像の歪みを見せないようにすることができる。 According to the above processing, when the viewer focuses on the first object, the area in which the image distortion may occur is blocked by the second object. Therefore, it is possible to prevent the viewer from showing the distortion of the background image.
(項目4) (項目1)から(項目3)のいずれか1項目において、プログラムは、プロセッサに、さらに、地図データに基づく地図を表示するステップと、地図上のある地点を指定するための第1入力操作を受け付けるステップと、を実行させ、構築するステップは、第1入力操作に基づいて仮想空間を構築し、背景画像は、地点に対応する現実空間上の位置の周囲を撮影した画像であってもよい。 (Item 4) In any one of (Item 1) to (Item 3), the program further causes the processor to display a map based on the map data, and a step for designating a certain point on the map. The step of accepting a 1-input operation and the step of executing and constructing a virtual space are based on the first input operation, and the background image is an image of the surroundings of the position in the real space corresponding to the point. It may be.
前記の処理によれば、特定の地点における実際の風景を背景とした画像をライブ配信することができる。したがって、ライブ配信におけるコンテンツの興趣性が向上する。 According to the processing described above, it is possible to live-distribute an image with an actual landscape as a background at a specific point. Therefore, the interest of the content in the live distribution is improved.
(項目5) (項目4)において、プログラムは、プロセッサに、さらに、視聴端末の現在位置を示す位置情報を取得するステップを実行させ、構築するステップは、位置情報が示す、視聴端末の地図上での位置と、第1入力操作により指定された地点との距離が所定範囲内である場合に、仮想空間を構築してもよい。 (Item 5) In (Item 4), the program further causes the processor to execute the step of acquiring position information indicating the current position of the viewing terminal, and the step of constructing is on the map of the viewing terminal indicated by the position information. The virtual space may be constructed when the distance between the position at and the point designated by the first input operation is within a predetermined range.
前記の処理によれば、指定された地点付近に実際に行ってから第1操作を実行することで、ライブを見ることができる。したがって、ライブ配信の興趣性を向上させることができる。 According to the above processing, the live can be viewed by actually going near the designated point and then executing the first operation. Therefore, the interest of live distribution can be improved.
(項目6) (項目1)から(項目5)のいずれか1項目において、プログラムは、プロセッサに、さらに、視聴端末において第2入力操作が受け付けられたことに応答して、仮想視点の位置および角度を、第1オブジェクトに対応する配信者の視点と略同様の位置および角度に切替えるステップを実行させ、レンダリングするステップは、配信者の視点と略同様の位置および角度に切替えるステップによって仮想視点の位置および角度が切替えられた後の、視野領域の画像をレンダリングしてもよい。 (Item 6) In the item of any one of (item 1) to (item 5), the program determines the position of the virtual viewpoint and the position of the virtual viewpoint in response to the second input operation accepted by the viewing terminal. The step of changing the angle to a position and an angle that are substantially the same as the viewpoint of the distributor corresponding to the first object is executed, and the step of rendering is performed by changing the position and the angle to a position that is substantially the same as the viewpoint of the distributor. An image of the field of view may be rendered after the position and angle have been switched.
前記の処理によれば、視聴端末のユーザの第2入力操作に応じて、仮想視点を、配信者の視野と略同様の領域を映す位置および角度に切替えることができる。したがって、視聴端末のユーザ、すなわち視聴者は、自身の入力操作に応じて配信者の視点をトレースした映像を視聴することができる。したがって、前記の処理によれば、ライブ配信のカメラワークの自由度を増すことができ、よってライブ配信の興趣性を向上させることができる。 According to the above processing, the virtual viewpoint can be switched to a position and an angle at which an area substantially similar to the field of view of the distributor is projected according to the second input operation by the user of the viewing terminal. Therefore, the user of the viewing terminal, that is, the viewer can view the video in which the distributor's viewpoint is traced according to the input operation of the user. Therefore, according to the processing described above, the degree of freedom in camera work for live distribution can be increased, and thus the interest of live distribution can be improved.
(項目7) (項目1)から(項目6)のいずれか1項目において、プログラムは、プロセッサに、さらに、仮想空間に、アバターの持ち物を示す第4オブジェクトを配置するステップと、視聴端末において第3入力操作が受け付けられたことに応答して、仮想視点の位置および角度を、第4オブジェクトの位置および向きと略同様の位置および角度に切替えるステップと、を実行させ、レンダリングするステップは、第4オブジェクトの位置および向きと略同様の位置および角度に切替えるステップによって仮想視点の位置および角度が切替えられた後の、視野領域の画像をレンダリングしてもよい。 (Item 7) In any one of (Item 1) to (Item 6), the program arranges a fourth object indicating the belongings of the avatar in the virtual space in the processor, and in the viewing terminal, In response to the acceptance of the three-input operation, the step of switching the position and angle of the virtual viewpoint to the position and angle substantially similar to the position and orientation of the fourth object, and the step of rendering, 4 The image of the visual field region may be rendered after the position and angle of the virtual viewpoint are switched by the step of switching to the position and angle substantially similar to the position and orientation of the object.
前記の処理によれば、視聴端末のユーザの第3入力操作に応じて、仮想視点を、アバターの持ち物の視点と略同様の視点からの視野画像を映す位置および角度に切替えることができる。ここで、アバターの持ち物とは、例えばアバターが手に持っているカメラオブジェクトである。前記の処理によれば、視聴端末のユーザ、すなわち視聴者は、自身の入力操作に応じてアバターの持ち物視点からの映像を視聴することができる。したがって、ライブ配信のカメラワークの自由度を増すことができ、よってライブ配信の興趣性を向上させることができる。 According to the above-described processing, the virtual viewpoint can be switched to the position and the angle at which the visual field image is projected from a viewpoint substantially similar to the viewpoint of the avatar's inventory, according to the third input operation of the user of the viewing terminal. Here, the belongings of the avatar are, for example, camera objects held by the avatar. According to the above-described processing, the user of the viewing terminal, that is, the viewer can view the image from the viewpoint of the avatar's belongings according to the input operation of the user. Therefore, it is possible to increase the degree of freedom of camera work for live distribution, and thus to enhance the interest of live distribution.
(項目8) (項目1)から(項目7)のいずれか1項目において、プログラムは、プロセッサに、さらに、視聴端末において第4入力操作が受け付けられたことに応答して、仮想視点と異なる第2仮想視点を、第1オブジェクトの特定部位が映る位置および角度で配置するステップを実行させ、レンダリングするステップは、仮想視点の視野領域の画像と、第2仮想視点の視野領域の画像との両方を含む画像をレンダリングしてもよい。 (Item 8) In any one of (Item 1) to (Item 7), the program is different from the virtual viewpoint in response to the processor receiving the fourth input operation at the viewing terminal. The step of arranging the two virtual viewpoints at the position and the angle at which the specific part of the first object is reflected and performing the rendering includes both the image of the visual field area of the virtual viewpoint and the image of the visual field area of the second virtual viewpoint. An image including may be rendered.
前記の処理によれば、視聴端末のユーザの第4入力操作に応じて、アバターの特定部位を第2仮想視点で映すことができる。ここで、アバターの特定部位とは、例えばアバターの顔または手元である。前記の処理によれば、視聴端末のユーザ、すなわち視聴者は、自身の入力操作に応じて、仮想視点による視野領域の映像と、第2仮想視点によるアバターの特定部位の映像との両方を同時に見ることができる。したがって、ライブ配信のカメラワークの自由度を増すことができ、よってライブ配信の興趣性を向上させることができる。 According to the above process, the specific part of the avatar can be projected from the second virtual viewpoint in accordance with the fourth input operation by the user of the viewing terminal. Here, the specific part of the avatar is, for example, the face or the hand of the avatar. According to the above-described process, the user of the viewing terminal, that is, the viewer simultaneously receives both the image of the visual field area from the virtual viewpoint and the image of the specific part of the avatar from the second virtual viewpoint according to the input operation of the user. You can see. Therefore, it is possible to increase the degree of freedom of camera work for live distribution, and thus to enhance the interest of live distribution.
(項目9) (項目1)から(項目8)のいずれか1項目において、プログラムは、プロセッサに、さらに、視聴端末において第5入力操作が受け付けられたことに応答して、仮想視点の位置および角度を、第1オブジェクトの特定部位が映る位置および角度に切替えるステップを実行させ、レンダリングするステップは、第1オブジェクトの特定部位が映る位置および角度に切替えるステップによって仮想視点の位置および角度が切替えられた後の、視野領域の画像をレンダリングしてもよい。 (Item 9) In the item of any one of (Item 1) to (Item 8), the program responds to the processor and further to the position of the virtual viewpoint and the position of the virtual viewpoint in response to the reception of the fifth input operation at the viewing terminal. The step of switching the angle to the position and the angle of the specific part of the first object is executed, and the step of rendering is performed by switching the position and the angle of the specific part of the first object to the position and the angle of the virtual viewpoint. The image of the field-of-view region after rendering may be rendered.
前記の処理によれば、視聴端末のユーザの第5入力操作に応じて、仮想視点を、アバターの特定部位が映る位置および角度に切替えることができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。 According to the above process, the virtual viewpoint can be switched to the position and the angle at which the specific part of the avatar appears in response to the fifth input operation by the user of the viewing terminal. Therefore, it is possible to increase the degree of freedom of camera work of the content, and thus to enhance the interest of the content.
(項目10) プログラム(配信プログラム331)について説明した。本開示のある局面によると、プログラムは、プロセッサ(20,30)およびメモリ(21,31)を備える、配信者がコンテンツのリアルタイム配信に用いる配信端末(200、300)としてのコンピュータにより実行されるプログラムであって、プログラムは、プロセッサに、背景画像が展開された仮想空間を構築するステップ(S201〜S202)と、仮想空間に、配信者に対応するアバターである第1オブジェクトを配置するステップ(S204)と、仮想空間の、該仮想空間の中心点とは異なる位置に仮想視点を配置するステップ(S208)と、仮想視点の視野領域の画像をレンダリングするステップ(S212)と、レンダリングによって得られる画像を、コンテンツとして視聴端末にリアルタイムで配信するステップ(S102,S112)と、を実行させる。 (Item 10) The program (distribution program 331) has been described. According to an aspect of the present disclosure, a program is executed by a computer as a distribution terminal (200, 300) including a processor (20, 30) and a memory (21, 31) and used by a distributor for real-time distribution of content. The program is a step of constructing a virtual space in which a background image is developed in a processor (S201 to S202), and a step of arranging a first object which is an avatar corresponding to a distributor in the virtual space ( S204), a step of arranging a virtual viewpoint at a position different from the center point of the virtual space in the virtual space (S208), a step of rendering an image of a visual field of the virtual viewpoint (S212), The step of delivering the image as content to the viewing terminal in real time (S102, S112) is executed.
前記の処理によれば、中心点とは異なる位置に配置した仮想視点の視野領域を描画するため、仮想空間の中心をユーザに見せることができる。したがって、ライブ配信におけるコンテンツの興趣性が向上する。 According to the above processing, the visual field area of the virtual viewpoint arranged at a position different from the center point is drawn, so that the center of the virtual space can be shown to the user. Therefore, the interest of the content in the live distribution is improved.
(項目11) コンピュータがプログラムを実行する方法を説明した。本開示のある局面によると、プログラム(視聴プログラム131)は、プロセッサ(10)およびメモリ(11)を備えるコンピュータにより実行される。該方法は、プロセッサが(項目1)に記載のプログラムの各ステップを実行する方法である。(項目11)に係る方法は、(項目1)に係るプログラムと同様の作用効果を奏する。 (Item 11) The method for the computer to execute the program has been described. According to an aspect of the present disclosure, the program (viewing program 131) is executed by a computer including a processor (10) and a memory (11). The method is a method in which a processor executes each step of the program described in (Item 1). The method according to (Item 11) has the same operational effects as the program according to (Item 1).
(項目12) 情報処理装置を説明した。本開示のある局面によると、該情報処理装置は、(項目1)に係るプログラムを記憶するメモリ(11)と、該プログラムを実行することにより、情報処理装置(視聴端末100)の動作を制御するプロセッサ(10)とを備える。(項目12)に係る情報処理装置は、(項目1)に係るプログラムと同様の作用効果を奏する。 (Item 12) The information processing device has been described. According to an aspect of the present disclosure, the information processing apparatus controls the operation of the information processing apparatus (viewing terminal 100) by executing a memory (11) that stores a program according to (Item 1) and the program. And a processor (10) for The information processing device according to (Item 12) has the same operational effects as the program according to (Item 1).
1 配信システム、4 ネットワーク、10,20,30 プロセッサ、11,21,31 メモリ、12,22,32 ストレージ、15,35 タッチスクリーン、17 カメラ、18 測距センサ、100 視聴端末、110,210,310 制御部、111,311 操作受付部、112 再生部、112A 空間定義部、112B 背景制御部、112C オブジェクト制御部、112D カメラ制御部、112E 描画部、113,313 表示制御部、114,314 通信部、120,220,320 記憶部、131 視聴プログラム、132 視聴者情報、332 配信者情報、151,351 入力部、152,352 表示部、200 配信サーバ、211 送受信部、212 サーバ処理部、213 データ管理部、231,331 配信プログラム、300 配信端末、312 配信部、1020,3030 コントローラ、1030 記憶媒体、3010 マイク、3020 モーションキャプチャ装置、13,23,33 通信IF、
14,24,34 入出力IF
1 distribution system, 4 network, 10, 20, 30 processor, 11, 21, 31 memory, 12, 22, 32 storage, 15, 35 touch screen, 17 camera, 18 distance measuring sensor, 100 viewing terminal, 110, 210, 310 control unit, 111, 311 operation reception unit, 112 reproduction unit, 112A space definition unit, 112B background control unit, 112C object control unit, 112D camera control unit, 112E drawing unit, 113, 313 display control unit, 114, 314 communication Section, 120, 220, 320 storage section, 131 viewing program, 132 viewer information, 332 distributor information, 151, 351 input section, 152, 352 display section, 200 distribution server, 211 transmitting/receiving section, 212 server processing section, 213 Data management unit, 231,331 distribution program, 300 distribution terminal, 312 distribution unit, 1020,3030 controller, 1030 storage medium, 3010 microphone, 3020 motion capture device, 13,23,33 communication IF,
14, 24, 34 I/O IF
Claims (12)
前記プログラムは、前記プロセッサに、
前記コンテンツに係る情報であって、前記配信端末から随時配信される、少なくとも配信者の身体の動きを検出したモーションデータを含む情報である第1情報を受信するステップと、
背景画像が展開された仮想空間を構築するステップと、
前記仮想空間に、前記配信者に対応するアバターである第1オブジェクトを配置するステップと、
前記リアルタイム配信が行われている間、前記第1情報を受信することに応答して、前記第1オブジェクトを前記モーションデータに従って動作させるステップと、
前記仮想空間の、該仮想空間の中心点とは異なる位置であって、前記中心点を視野領域に含む位置に仮想視点を配置するステップと、
前記仮想視点の視野領域の画像をレンダリングするステップと、
前記レンダリングによって得られる前記画像を、表示部に表示させるステップと、を実行させる、プログラム。 A program executed by a computer as a viewing terminal for a distributor to view content to be distributed in real time using a distribution terminal, the program including a processor and a memory,
The program causes the processor to
A step of receiving first information, which is information related to the content, which is information that is distributed from the distribution terminal at any time and that includes at least motion data in which the physical movement of the distributor is detected,
A step of constructing a virtual space in which a background image is expanded,
Placing a first object that is an avatar corresponding to the distributor in the virtual space;
Operating the first object according to the motion data in response to receiving the first information while the real-time delivery is performed;
Arranging a virtual viewpoint at a position in the virtual space different from the center point of the virtual space and including the center point in the visual field region,
Rendering an image of the field of view of the virtual viewpoint,
A program for causing the display unit to display the image obtained by the rendering.
前記背景画像の特定の領域を遮蔽するように、前記仮想空間内に第2オブジェクトを配置するステップを実行させる、請求項1に記載のプログラム。 The program further causes the processor to:
The program according to claim 1, which causes a step of arranging a second object in the virtual space so as to cover a specific area of the background image.
地図データに基づく地図を表示するステップと、
前記地図上のある地点を指定するための第1入力操作を受け付けるステップと、を実行させ、
前記構築するステップは、前記第1入力操作に基づいて前記仮想空間を構築し、
前記背景画像は、前記地点に対応する現実空間上の位置の周囲を撮影した画像である、請求項1〜3のいずれか1項に記載のプログラム。 The program further causes the processor to:
Displaying a map based on the map data,
A step of receiving a first input operation for designating a certain point on the map,
The step of constructing constructs the virtual space based on the first input operation,
The program according to any one of claims 1 to 3, wherein the background image is an image captured around a position in a physical space corresponding to the point.
前記視聴端末の現在位置を示す位置情報を取得するステップを実行させ、
前記構築するステップは、前記位置情報が示す、前記視聴端末の前記地図上での位置と、前記第1入力操作により指定された前記地点との距離が所定範囲内である場合に、前記仮想空間を構築する、請求項4に記載のプログラム。 The program further causes the processor to:
Performing a step of acquiring position information indicating the current position of the viewing terminal,
In the constructing step, if the distance between the position of the viewing terminal on the map indicated by the position information and the point designated by the first input operation is within a predetermined range, the virtual space is set. The program according to claim 4, which constructs.
前記視聴端末において第2入力操作が受け付けられたことに応答して、前記仮想視点の位置および角度を、前記第1オブジェクトに対応する配信者の視点と略同様の位置および角度に切替えるステップを実行させ、
前記レンダリングするステップは、前記配信者の視点と略同様の位置および角度に切替えるステップによって前記仮想視点の位置および角度が切替えられた後の、前記視野領域の画像をレンダリングする、請求項1〜5のいずれか1項に記載のプログラム。 The program further causes the processor to:
In response to the second input operation being accepted at the viewing terminal, a step of switching the position and angle of the virtual viewpoint to a position and angle substantially similar to the viewpoint of the distributor corresponding to the first object is executed. Let
The rendering step renders an image of the visual field after the position and the angle of the virtual viewpoint are switched by the step of switching to a position and an angle that are substantially the same as the viewpoint of the distributor. The program according to any one of 1.
前記仮想空間に、前記アバターの持ち物を示す第4オブジェクトを配置するステップと、
前記視聴端末において第3入力操作が受け付けられたことに応答して、前記仮想視点の位置および角度を、前記第4オブジェクトの位置および向きと略同様の位置および角度に切替えるステップと、を実行させ、
前記レンダリングするステップは、前記第4オブジェクトの位置および向きと略同様の位置および角度に切替えるステップによって前記仮想視点の位置および角度が切替えられた後の、前記視野領域の画像をレンダリングする、請求項1〜6のいずれか1項に記載のプログラム。 The program further causes the processor to:
Arranging a fourth object indicating the belongings of the avatar in the virtual space;
Switching the position and angle of the virtual viewpoint to a position and angle substantially similar to the position and orientation of the fourth object in response to the reception of the third input operation at the viewing terminal. ,
The rendering step renders an image of the visual field area after the position and angle of the virtual viewpoint are switched by the step of switching to a position and an angle that are substantially the same as the position and orientation of the fourth object. The program according to any one of 1 to 6.
視聴端末において第4入力操作が受け付けられたことに応答して、前記仮想視点と異なる第2仮想視点を、前記第1オブジェクトの特定部位が映る位置および角度で配置するステップを実行させ、
前記レンダリングするステップは、前記仮想視点の視野領域の画像と、前記第2仮想視点の視野領域の画像との両方を含む画像をレンダリングする、請求項1〜7のいずれか1項に記載のプログラム。 The program further causes the processor to:
In response to the fourth input operation being accepted in the viewing terminal, a step of arranging a second virtual viewpoint different from the virtual viewpoint at a position and an angle at which a specific part of the first object is reflected,
The program according to any one of claims 1 to 7, wherein the rendering step renders an image including both an image of a visual field area of the virtual viewpoint and an image of a visual field area of the second virtual viewpoint. ..
前記視聴端末において第5入力操作が受け付けられたことに応答して、前記仮想視点の位置および角度を、前記第1オブジェクトの特定部位が映る位置および角度に切替えるステップを実行させ、
前記レンダリングするステップは、前記第1オブジェクトの特定部位が映る位置および角度に切替えるステップによって前記仮想視点の位置および角度が切替えられた後の、前記視野領域の画像をレンダリングする、請求項1〜8のいずれか1項に記載のプログラム。 The program further causes the processor to:
In response to receiving a fifth input operation in the viewing terminal, executing a step of switching a position and an angle of the virtual viewpoint to a position and an angle at which a specific part of the first object appears.
The rendering step renders an image of the visual field after the position and angle of the virtual viewpoint are switched by the step of switching to a position and an angle at which a specific part of the first object is reflected. The program according to any one of 1.
前記プログラムは、前記プロセッサに、
背景画像が展開された仮想空間を構築するステップと、
前記仮想空間に、前記配信者に対応するアバターである第1オブジェクトを配置するステップと、
前記仮想空間の、該仮想空間の中心点とは異なる位置に仮想視点を配置するステップと、
前記仮想視点の視野領域の画像をレンダリングするステップと、
前記レンダリングによって得られる前記画像を、コンテンツとして視聴端末にリアルタイムで配信するステップと、を実行させる、プログラム。 A program executed by a computer as a distribution terminal used by a distributor for real-time distribution of content, comprising a processor and a memory,
The program causes the processor to
A step of constructing a virtual space in which a background image is expanded,
Placing a first object that is an avatar corresponding to the distributor in the virtual space;
Arranging a virtual viewpoint at a position different from the center point of the virtual space in the virtual space,
Rendering an image of the field of view of the virtual viewpoint,
Delivering the image obtained by the rendering to the viewing terminal as content in real time.
前記コンピュータは、プロセッサ、およびメモリを備え、
前記プロセッサが請求項1に記載のプログラムの各ステップを実行する、方法。 A method by which a computer executes a program,
The computer includes a processor and a memory,
A method in which the processor executes the steps of the program of claim 1.
前記情報処理装置は、
請求項1に記載のプログラムを記憶するメモリと、
該プログラムを実行することにより、前記情報処理装置の動作を制御するプロセッサと、を備えている、情報処理装置。 An information processing device,
The information processing device,
A memory for storing the program according to claim 1;
An information processing apparatus, comprising: a processor that controls the operation of the information processing apparatus by executing the program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019011663A JP6843164B2 (en) | 2019-01-25 | 2019-01-25 | Programs, methods, and information processing equipment |
JP2021024934A JP2021099825A (en) | 2019-01-25 | 2021-02-19 | Program, method, and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019011663A JP6843164B2 (en) | 2019-01-25 | 2019-01-25 | Programs, methods, and information processing equipment |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021024934A Division JP2021099825A (en) | 2019-01-25 | 2021-02-19 | Program, method, and information processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020120336A true JP2020120336A (en) | 2020-08-06 |
JP6843164B2 JP6843164B2 (en) | 2021-03-17 |
Family
ID=71892188
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019011663A Active JP6843164B2 (en) | 2019-01-25 | 2019-01-25 | Programs, methods, and information processing equipment |
JP2021024934A Pending JP2021099825A (en) | 2019-01-25 | 2021-02-19 | Program, method, and information processing device |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021024934A Pending JP2021099825A (en) | 2019-01-25 | 2021-02-19 | Program, method, and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6843164B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022045296A (en) * | 2020-09-08 | 2022-03-18 | 聡 竹内 | Information communication system, and information processing device |
JP7043558B1 (en) | 2020-09-23 | 2022-03-29 | グリー株式会社 | Computer programs, methods, and server equipment |
JP2022050321A (en) * | 2020-08-28 | 2022-03-30 | ティーエムアールダブリュー ファウンデーション アイピー エスエーアールエル | System and method for virtually broadcasting from within virtual environment |
JPWO2022162812A1 (en) * | 2021-01-28 | 2022-08-04 | ||
CN115398891A (en) * | 2021-04-23 | 2022-11-25 | 腾讯美国有限责任公司 | Estimation by multiple measurements |
JP7212808B1 (en) | 2022-03-18 | 2023-01-25 | ヤフー株式会社 | Video distribution device, video distribution method, and video distribution program |
US12034785B2 (en) | 2020-08-28 | 2024-07-09 | Tmrw Foundation Ip S.Àr.L. | System and method enabling interactions in virtual environments with virtual presence |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7472386B1 (en) | 2023-11-15 | 2024-04-22 | 株式会社あかつき | Information processing system, information processing device, program, and information processing method |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012239746A (en) * | 2011-05-23 | 2012-12-10 | Nintendo Co Ltd | Game system, game processing method, game device, and game program |
JP2016025633A (en) * | 2014-07-24 | 2016-02-08 | ソニー株式会社 | Information processing apparatus, management device, information processing method, and program |
JP2016086970A (en) * | 2014-10-31 | 2016-05-23 | ティフォン インコーポレーテッドTyffon Inc. | Game program, method for controlling computer, information processing device, image output device, image output method and image output program |
JP2016202686A (en) * | 2015-04-24 | 2016-12-08 | 株式会社コロプラ | System, method, and program for sharing game experience, and recording medium |
JP2017078891A (en) * | 2015-10-19 | 2017-04-27 | 株式会社コロプラ | Image generation device, image generation method, and image generation program |
JP2017188833A (en) * | 2016-04-08 | 2017-10-12 | ソニー株式会社 | Information processing device and information processing method; and program |
JP6248219B1 (en) * | 2017-03-08 | 2017-12-13 | 株式会社コロプラ | Information processing method, computer, and program for causing computer to execute information processing method |
JP2018007828A (en) * | 2016-07-13 | 2018-01-18 | 株式会社バンダイナムコエンターテインメント | Program and electronic apparatus |
JP6367450B1 (en) * | 2017-10-31 | 2018-08-01 | 株式会社テクテック | Position game interface system, program, and control method |
JP6397595B1 (en) * | 2018-04-12 | 2018-09-26 | 株式会社ドワンゴ | Content distribution server, content distribution system, content distribution method and program |
JP6446154B1 (en) * | 2018-05-09 | 2018-12-26 | グリー株式会社 | Video distribution system for live distribution of animation including animation of character objects generated based on actor movement |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004236075A (en) * | 2003-01-31 | 2004-08-19 | Toshiba Corp | Receiver, reception system and receiving method |
JP2005277670A (en) * | 2004-03-24 | 2005-10-06 | Hiroo Iwata | Omniazimuth video image generating apparatus, map interlocked omniazimuth video recording / display apparatus, and map interlocked omniazimuth video image utilizing apparatus |
JP2016062486A (en) * | 2014-09-19 | 2016-04-25 | 株式会社ソニー・コンピュータエンタテインメント | Image generation device and image generation method |
JP6266814B1 (en) * | 2017-01-27 | 2018-01-24 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
JP6298558B1 (en) * | 2017-05-11 | 2018-03-20 | 株式会社コロプラ | Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program |
-
2019
- 2019-01-25 JP JP2019011663A patent/JP6843164B2/en active Active
-
2021
- 2021-02-19 JP JP2021024934A patent/JP2021099825A/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012239746A (en) * | 2011-05-23 | 2012-12-10 | Nintendo Co Ltd | Game system, game processing method, game device, and game program |
JP2016025633A (en) * | 2014-07-24 | 2016-02-08 | ソニー株式会社 | Information processing apparatus, management device, information processing method, and program |
JP2016086970A (en) * | 2014-10-31 | 2016-05-23 | ティフォン インコーポレーテッドTyffon Inc. | Game program, method for controlling computer, information processing device, image output device, image output method and image output program |
JP2016202686A (en) * | 2015-04-24 | 2016-12-08 | 株式会社コロプラ | System, method, and program for sharing game experience, and recording medium |
JP2017078891A (en) * | 2015-10-19 | 2017-04-27 | 株式会社コロプラ | Image generation device, image generation method, and image generation program |
JP2017188833A (en) * | 2016-04-08 | 2017-10-12 | ソニー株式会社 | Information processing device and information processing method; and program |
JP2018007828A (en) * | 2016-07-13 | 2018-01-18 | 株式会社バンダイナムコエンターテインメント | Program and electronic apparatus |
JP6248219B1 (en) * | 2017-03-08 | 2017-12-13 | 株式会社コロプラ | Information processing method, computer, and program for causing computer to execute information processing method |
JP6367450B1 (en) * | 2017-10-31 | 2018-08-01 | 株式会社テクテック | Position game interface system, program, and control method |
JP6397595B1 (en) * | 2018-04-12 | 2018-09-26 | 株式会社ドワンゴ | Content distribution server, content distribution system, content distribution method and program |
JP6446154B1 (en) * | 2018-05-09 | 2018-12-26 | グリー株式会社 | Video distribution system for live distribution of animation including animation of character objects generated based on actor movement |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7391394B2 (en) | 2020-08-28 | 2023-12-05 | ティーエムアールダブリュー ファウンデーション アイピー エスエーアールエル | System and method for virtual broadcasting from within a virtual environment |
JP2022050321A (en) * | 2020-08-28 | 2022-03-30 | ティーエムアールダブリュー ファウンデーション アイピー エスエーアールエル | System and method for virtually broadcasting from within virtual environment |
US12034785B2 (en) | 2020-08-28 | 2024-07-09 | Tmrw Foundation Ip S.Àr.L. | System and method enabling interactions in virtual environments with virtual presence |
JP7106609B2 (en) | 2020-09-08 | 2022-07-26 | 聡 竹内 | Information communication system, information processing equipment |
JP2022045296A (en) * | 2020-09-08 | 2022-03-18 | 聡 竹内 | Information communication system, and information processing device |
JP7043558B1 (en) | 2020-09-23 | 2022-03-29 | グリー株式会社 | Computer programs, methods, and server equipment |
JP2022053562A (en) * | 2020-09-23 | 2022-04-06 | グリー株式会社 | Computer program, method, and server device |
JP2022084763A (en) * | 2020-09-23 | 2022-06-07 | グリー株式会社 | Computer program, method, and server device |
JP7429930B2 (en) | 2020-09-23 | 2024-02-09 | グリー株式会社 | Computer program, method and server device |
JPWO2022162812A1 (en) * | 2021-01-28 | 2022-08-04 | ||
JP7250228B2 (en) | 2021-01-28 | 2023-03-31 | 三菱電機株式会社 | Display system, virtual space providing device and display method |
CN115398891A (en) * | 2021-04-23 | 2022-11-25 | 腾讯美国有限责任公司 | Estimation by multiple measurements |
JP2023137847A (en) * | 2022-03-18 | 2023-09-29 | ヤフー株式会社 | Moving image distribution device, moving image distribution method, and moving image distribution program |
JP7212808B1 (en) | 2022-03-18 | 2023-01-25 | ヤフー株式会社 | Video distribution device, video distribution method, and video distribution program |
Also Published As
Publication number | Publication date |
---|---|
JP2021099825A (en) | 2021-07-01 |
JP6843164B2 (en) | 2021-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6843164B2 (en) | Programs, methods, and information processing equipment | |
US11221726B2 (en) | Marker point location display method, electronic device, and computer-readable storage medium | |
JP7098001B2 (en) | Distance information display method in a virtual scene and its terminal computer device and computer program | |
US10979751B2 (en) | Communication management apparatus, method and computer-readable storage medium for generating image data identification information communication | |
JP6858737B2 (en) | Viewing program, distribution program, how to execute the viewing program, how to execute the distribution program, information processing device, and information processing system | |
US10277813B1 (en) | Remote immersive user experience from panoramic video | |
US20180321798A1 (en) | Information processing apparatus and operation reception method | |
CN109729411B (en) | Live broadcast interaction method and device | |
WO2021184952A1 (en) | Augmented reality processing method and apparatus, storage medium, and electronic device | |
US9392248B2 (en) | Dynamic POV composite 3D video system | |
CN110061900B (en) | Message display method, device, terminal and computer readable storage medium | |
JPWO2015122108A1 (en) | Information processing apparatus, information processing method, and program | |
CN111246236B (en) | Interactive data playing method, device, terminal, server and storage medium | |
JP2001008232A (en) | Omnidirectional video output method and apparatus | |
WO2020110323A1 (en) | Video synthesis device, video synthesis method and recording medium | |
CN113318442B (en) | Live broadcast interface display method, data uploading method and data issuing method | |
CN111050189A (en) | Live broadcast method, apparatus, device, storage medium, and program product | |
CN117085322B (en) | Interactive observation method, device, equipment and medium based on virtual scene | |
JP2019087226A (en) | Information processing device, information processing system, and method of outputting facial expression images | |
CN113230655B (en) | Virtual object control method, device, equipment, system and readable storage medium | |
WO2020110322A1 (en) | Video synthesis device, video synthesis method and recording medium | |
JPWO2018216355A1 (en) | Information processing apparatus, information processing method, and program | |
JP2019128721A (en) | Program for reflecting user motion on avatar, information processing device for executing the same and method for distributing image containing avatar | |
CN108184130B (en) | Simulator system, live broadcast method, device and storage medium | |
JP6518645B2 (en) | INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190125 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190128 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200311 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200311 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6843164 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |