JP2020120336A - Program, method, and information processing device - Google Patents

Program, method, and information processing device Download PDF

Info

Publication number
JP2020120336A
JP2020120336A JP2019011663A JP2019011663A JP2020120336A JP 2020120336 A JP2020120336 A JP 2020120336A JP 2019011663 A JP2019011663 A JP 2019011663A JP 2019011663 A JP2019011663 A JP 2019011663A JP 2020120336 A JP2020120336 A JP 2020120336A
Authority
JP
Japan
Prior art keywords
distribution
program
image
terminal
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019011663A
Other languages
Japanese (ja)
Other versions
JP6843164B2 (en
Inventor
功淳 馬場
Naruatsu Baba
功淳 馬場
俊己 安藤
Toshimi Ando
俊己 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2019011663A priority Critical patent/JP6843164B2/en
Publication of JP2020120336A publication Critical patent/JP2020120336A/en
Priority to JP2021024934A priority patent/JP2021099825A/en
Application granted granted Critical
Publication of JP6843164B2 publication Critical patent/JP6843164B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a program capable of improving amusement of content in live distribution, a method, and an information processing device.SOLUTION: A viewing program causes a processor to execute the steps of: receiving first information (step S200); constructing a virtual space (steps S201 to S202); arranging a first object (step S204); operating the first object according to motion data (step S207); arranging a virtual viewpoint of the virtual space in a position which differs from a center point of the virtual space and includes the center point in a visual field region (step S208); and rendering an image of the visual field region at the virtual viewpoint (step S212).SELECTED DRAWING: Figure 6

Description

本発明はプログラム、方法、および情報処理装置に関する。 The present invention relates to a program, a method, and an information processing device.

全方位画像をユーザに見せるための技術が従来開発されている。例えば、球型にモデリングされた仮想空間の内側に360度のパノラマ画像を貼り付けておき、該パノラマ画像を仮想カメラの視野領域で切り取った画像を表示する技術が存在する。また、配信者がアバターを介して音楽ライブまたはゲーム実況等を行う様子を、コンテンツとしてライブ配信する技術が開発されている。 Conventionally, a technique for showing an omnidirectional image to a user has been developed. For example, there is a technique of pasting a 360-degree panoramic image inside a spherically modeled virtual space and displaying an image obtained by cutting the panoramic image in the field of view of the virtual camera. In addition, a technology has been developed in which a distributor performs live distribution as a content of a music live or game live situation via an avatar.

“Facebook Social VR Demo - Oculus Connect 2016”、[online]、YouTube、[2019年1月24日検索]、インターネット(URL:https://www.youtube.com/watch?v=YuIgyKLPt3s)"Facebook Social VR Demo-Oculus Connect 2016", [online], YouTube, [January 24, 2019 search], Internet (URL: https://www.youtube.com/watch?v=YuIgyKLPt3s)

本発明の一態様は、ライブ配信におけるコンテンツの興趣性の向上を目的とする。 One aspect of the present invention aims to improve the interest of content in live distribution.

上記の課題を解決するために、本発明の一態様に係るプログラムは、プロセッサおよびメモリを備える、配信者が配信端末を用いてリアルタイム配信するコンテンツを視聴するための視聴端末としての、コンピュータにより実行されるプログラムである。プログラムは、プロセッサに、コンテンツに係る情報であって、配信端末から随時配信される、少なくとも配信者の身体の動きを検出したモーションデータを含む情報である第1情報を受信するステップと、背景画像が展開された仮想空間を構築するステップと、仮想空間に、配信者に対応するアバターである第1オブジェクトを配置するステップと、リアルタイム配信が行われている間、第1情報を受信することに応答して、第1オブジェクトをモーションデータに従って動作させるステップと、仮想空間の、該仮想空間の中心点とは異なる位置であって、中心点を視野領域に含む位置に仮想視点を配置するステップと、仮想視点の視野領域の画像をレンダリングするステップと、レンダリングによって得られる画像を、表示部に表示させるステップと、を実行させる。 In order to solve the above problems, a program according to one embodiment of the present invention is executed by a computer as a viewing terminal for a distributor to view content to be distributed in real time using a distribution terminal, which includes a processor and a memory. It is a program that is done. The program receives, into the processor, first information, which is information related to the content, which is information that is distributed from the distribution terminal at any time and that includes at least motion data in which the movement of the body of the distributor is detected, and a background image. Of constructing a virtual space in which is expanded, placing a first object that is an avatar corresponding to a distributor in the virtual space, and receiving first information during real-time distribution. In response, operating the first object according to the motion data, and arranging the virtual viewpoint at a position in the virtual space different from the center point of the virtual space and including the center point in the visual field region. , Performing a step of rendering an image of the visual field area of the virtual viewpoint, and a step of displaying the image obtained by the rendering on the display unit.

本発明の一態様によれば、ライブ配信におけるコンテンツの興趣性を向上させることができる。 According to one aspect of the present invention, it is possible to improve the interest of content in live distribution.

実施形態1に係る配信システムの概要を示す図である。FIG. 1 is a diagram showing an outline of a distribution system according to a first embodiment. 前記配信システムに含まれる各種装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of various apparatuses contained in the said delivery system. 前記配信システムに含まれる各種装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the various apparatuses contained in the said delivery system. 前記配信システムにおける、コンテンツのライブ配信および再生に係る処理の流れの一例を示すシーケンス図である。It is a sequence diagram which shows an example of the flow of the process which concerns on the live delivery and reproduction of the content in the said delivery system. 前記配信システムにおける配信者によるコンテンツ作成の様子を示す図である。It is a figure which shows the mode of content production by the distributor in the said distribution system. 前記配信システムにおける再生処理の流れの一例を示す図である。It is a figure which shows an example of the flow of the reproduction process in the said delivery system. 状態(A)は、前記配信システムにおいて構築される仮想空間の一例を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。State (A) is a diagram showing an example of a virtual space constructed in the distribution system. State (B) is a diagram showing an example of an image of the field of view of the virtual camera shown in state (A). 図7に示す仮想カメラの視野領域の画像の一例を示す図である。FIG. 9 is a diagram showing an example of an image of a visual field area of the virtual camera shown in FIG. 7. 状態(A)は、前記配信システムにおいて構築される仮想空間の他の一例を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。State (A) is a diagram showing another example of the virtual space constructed in the distribution system. State (B) is a diagram showing an example of an image of the field of view of the virtual camera shown in state (A). 視聴端末の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a viewing-and-listening terminal. 図10に示した表示画面に対するユーザの操作の一例を示す図である。It is a figure which shows an example of a user's operation with respect to the display screen shown in FIG. ライブ配信されたコンテンツを視聴している際の視聴端末の表示画面を示す図である。It is a figure which shows the display screen of the viewing-and-listening terminal at the time of viewing the content delivered live. 実施形態2に係る配信システムの概要を示す図である。It is a figure which shows the outline|summary of the delivery system which concerns on Embodiment 2. 状態(A)は、前記配信システムにおいて構築される仮想空間の他の一例を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。State (A) is a diagram showing another example of the virtual space constructed in the distribution system. State (B) is a diagram showing an example of an image of the field of view of the virtual camera shown in state (A). 状態(A)は、第2入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。State (A) is a diagram showing the virtual space after the second input operation is performed and the position and angle of the virtual camera are switched. State (B) is a diagram showing an example of an image of the field of view of the virtual camera shown in state (A). 状態(A)は、第3入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。State (A) is a diagram showing the virtual space after the third input operation is performed and the position and angle of the virtual camera are switched. State (B) is a diagram showing an example of an image of the field of view of the virtual camera shown in state (A). 状態(A)は、第4入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。State (A) is a diagram showing the virtual space after the fourth input operation is performed and the position and angle of the virtual camera are switched. State (B) is a diagram showing an example of an image of the field of view of the virtual camera shown in state (A). 状態(A)は、第5入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。State (A) is a diagram showing the virtual space after the fifth input operation is performed and the position and angle of the virtual camera are switched. State (B) is a diagram showing an example of an image of the field of view of the virtual camera shown in state (A). 前記配信システムにおける、仮想カメラの視野領域の画像の他の一例を示す図である。It is a figure which shows another example of the image of the visual field area of a virtual camera in the said delivery system.

本開示に係る配信システムは、視聴者にコンテンツをリアルタイムに配信するためのシステムである。以下、配信システムについて図面を参照しつつ説明する。なお、本発明は以降の説明および図面における例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が本発明に含まれることが意図される。なお、以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。 The distribution system according to the present disclosure is a system for distributing content to viewers in real time. Hereinafter, the distribution system will be described with reference to the drawings. It should be noted that the present invention is not limited to the examples described below and illustrated in the drawings, and is shown by the scope of the claims, and all modifications within the meaning and scope equivalent to the scope of the claims are included in the present invention. Is intended. In the following description, the same elements will be denoted by the same reference symbols in the description of the drawings, without redundant description.

〔実施形態1〕
<配信システム1の動作概要>
図1は、本実施形態に係る配信システム1の概要を示す図である。配信システム1は、1台以上の配信サーバ200と、1台以上の配信端末300と、1台以上の視聴端末100とを含む。
[Embodiment 1]
<Outline of operation of distribution system 1>
FIG. 1 is a diagram showing an outline of a distribution system 1 according to this embodiment. The distribution system 1 includes at least one distribution server 200, at least one distribution terminal 300, and at least one viewing terminal 100.

(配信端末300)
配信端末300は、コンテンツをライブ配信する主体となる装置である。配信端末300は、例えばパーソナルコンピュータ(PC)またはスマートフォン等で実現される。なお、以降、配信端末300のユーザのことを、「配信者」と称する。配信端末300は、配信端末300のユーザによる入力操作に応じてコンテンツデータを作成する。コンテンツデータとは、視聴端末100において、配信者の作成したコンテンツを視聴するためのデータである。配信端末300はコンテンツデータを順次作成し、配信サーバ200にリアルタイムで配信する。以降、コンテンツデータをリアルタイムで配信することを、「ライブ配信」とも称する。
(Distribution terminal 300)
The distribution terminal 300 is a device that is a main body for live distribution of contents. The distribution terminal 300 is realized by, for example, a personal computer (PC) or a smartphone. Note that, hereinafter, the user of the distribution terminal 300 will be referred to as a “distributor”. The distribution terminal 300 creates content data according to an input operation by the user of the distribution terminal 300. The content data is data for viewing the content created by the distributor on the viewing terminal 100. The distribution terminal 300 sequentially creates content data and distributes it to the distribution server 200 in real time. Hereinafter, delivering the content data in real time is also referred to as “live delivery”.

(配信サーバ200)
配信サーバ200は、配信端末300からリアルタイムに受信したコンテンツデータを、視聴端末100に配信するサーバである。また、配信サーバ200は、視聴端末100と配信端末300との間の各種情報の送受信を仲介するサーバでもある。
(Distribution server 200)
The distribution server 200 is a server that distributes the content data received from the distribution terminal 300 in real time to the viewing terminal 100. The distribution server 200 is also a server that mediates the transmission and reception of various information between the viewing terminal 100 and the distribution terminal 300.

なお、配信サーバ200は、1台以上の視聴端末100からライブ配信に係る各種情報を収集して、該各種情報を配信端末300に送信してもよい。例えば、配信サーバ200は、現在コンテンツを再生している視聴端末100の台数、すなわち、現在の視聴者数を集計して配信端末300に送信してもよい。また、配信サーバ200は、コンテンツの配信開始からの、累計の視聴者数を集計して、配信端末300に送信してもよい。また、配信サーバ200は、前述した入力情報を送信した視聴端末100を特定し、該視聴端末100を示す情報を配信端末300に送信してもよい。 The distribution server 200 may collect various kinds of information related to live distribution from one or more viewing terminals 100 and transmit the various kinds of information to the distribution terminal 300. For example, the distribution server 200 may total the number of viewing terminals 100 that are currently playing the content, that is, the current number of viewers, and transmit the total to the distribution terminal 300. In addition, the distribution server 200 may total the total number of viewers from the start of distribution of the content and transmit the total number of viewers to the distribution terminal 300. Further, the distribution server 200 may specify the viewing terminal 100 that has transmitted the above-described input information, and transmit the information indicating the viewing terminal 100 to the distribution terminal 300.

(視聴端末100)
視聴端末100は、コンテンツデータをリアルタイムに受信し、該コンテンツデータを用いて映像を生成して再生する装置である。換言すると、視聴端末100は、コンテンツをリアルタイムレンダリングして再生する装置である。なお、以降の説明では、コンテンツをリアルタイムレンダリングして再生することを、単に「コンテンツを再生する」とも称する。視聴端末100は、例えばPCまたはスマートフォン等で実現される。視聴端末100は、視聴端末100のユーザによる入力操作に応じて、配信サーバ200からコンテンツデータを受信して再生する。具体的には、視聴端末100は、配信サーバ200からコンテンツデータとして、モーションなどのデータを受信し、視聴端末100において、これらのデータを用いてリアルタイムレンダリングにより映像(動画)を生成し、再生する。以降、視聴端末100のユーザのことを、「視聴者」と称する。コンテンツの再生の方法については、後で詳述する。
(Viewing terminal 100)
The viewing terminal 100 is a device that receives content data in real time, generates an image using the content data, and reproduces a video. In other words, the viewing terminal 100 is a device that renders and plays content in real time. In the following description, real-time rendering and reproduction of content is also simply referred to as “reproduction of content”. The viewing terminal 100 is realized by, for example, a PC or a smartphone. The viewing terminal 100 receives and reproduces the content data from the distribution server 200 according to the input operation by the user of the viewing terminal 100. Specifically, the viewing terminal 100 receives data such as a motion as content data from the distribution server 200, and the viewing terminal 100 uses these data to generate a video (moving image) by real-time rendering and play it back. .. Hereinafter, the user of the viewing terminal 100 will be referred to as a “viewer”. The method of reproducing the content will be described later in detail.

視聴端末100は、コンテンツデータを再生するだけでなく、視聴者の入力操作によって指定された、または入力された情報を、配信サーバ200を介して配信端末300に送信することも可能であってよい。例えば、視聴端末100は、視聴者の入力したコメントを、配信サーバ200を介して配信端末300に送信してもよい。 The viewing terminal 100 may not only reproduce the content data, but may also transmit the information specified or input by the viewer's input operation to the distribution terminal 300 via the distribution server 200. .. For example, the viewing terminal 100 may transmit the comment input by the viewer to the distribution terminal 300 via the distribution server 200.

本実施形態では、配信サーバ200と配信端末300とが別個の装置である例について説明する。しかしながら、配信サーバ200と配信端末300は一体の装置であってよい。例えば、1台のPCが、配信サーバ200としての機能と、配信端末300としての機能とを兼ね備えていてもよい。 In this embodiment, an example in which the distribution server 200 and the distribution terminal 300 are separate devices will be described. However, the distribution server 200 and the distribution terminal 300 may be an integrated device. For example, one PC may have both the function as the distribution server 200 and the function as the distribution terminal 300.

<配信システム1のハードウェア構成>
図1は、配信システム1のハードウェア構成を示す図である。配信システム1は図示の通り、配信端末300と、配信サーバ200と、複数の視聴端末100とを含む。視聴端末100および配信端末300は、配信サーバ200とネットワーク4を介して接続する。
<Hardware configuration of distribution system 1>
FIG. 1 is a diagram showing a hardware configuration of the distribution system 1. As illustrated, the distribution system 1 includes a distribution terminal 300, a distribution server 200, and a plurality of viewing terminals 100. The viewing terminal 100 and the distribution terminal 300 are connected to the distribution server 200 via the network 4.

(ネットワーク4)
ネットワーク4は、インターネットおよび図示しない無線基地局によって構築される各種移動通信システム等で構成される。この移動通信システムとしては、例えば、所謂3G、4G移動通信システム、LTE(Long Term Evolution)、および所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が挙げられる。
(Network 4)
The network 4 includes various mobile communication systems constructed by the Internet and a wireless base station (not shown). Examples of this mobile communication system include so-called 3G and 4G mobile communication systems, LTE (Long Term Evolution), and a wireless network (for example, Wi-Fi (registered trademark)) that can be connected to the Internet by a predetermined access point. To be

(配信サーバ200)
配信サーバ200(コンピュータ、情報処理装置)は、ワークステーションまたはパーソナルコンピュータ等の汎用コンピュータであってよい。配信サーバ200は、プロセッサ20と、メモリ21と、ストレージ22と、通信IF23と、入出力IF24とを備える。配信サーバ200が備えるこれらの構成は、通信バスによって互いに電気的に接続される。
(Distribution server 200)
The distribution server 200 (computer, information processing device) may be a general-purpose computer such as a workstation or a personal computer. The distribution server 200 includes a processor 20, a memory 21, a storage 22, a communication IF 23, and an input/output IF 24. These components included in the distribution server 200 are electrically connected to each other via a communication bus.

(視聴端末100)
視聴端末100(コンピュータ、情報処理装置)は、スマートフォン、フィーチャーフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。視聴端末100は、コンテンツの再生に適した再生装置であってもよい。視聴端末100は図示の通り、プロセッサ10と、メモリ11と、ストレージ12と、通信インターフェース(IF)13と、入出力IF14と、タッチスクリーン15(表示部)と、を備える。視聴端末100が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、視聴端末100は、タッチスクリーン15に代えて、または、加えて、視聴端末100本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF14を備えていてもよい。
(Viewing terminal 100)
The viewing terminal 100 (computer, information processing device) may be a mobile terminal such as a smartphone, a feature phone, a PDA (Personal Digital Assistant), or a tablet computer. The viewing terminal 100 may be a playback device suitable for playing content. As illustrated, the viewing terminal 100 includes a processor 10, a memory 11, a storage 12, a communication interface (IF) 13, an input/output IF 14, and a touch screen 15 (display unit). These components included in the viewing terminal 100 are electrically connected to each other via a communication bus. The viewing terminal 100 may include an input/output IF 14 to which a display (display unit) configured separately from the main body of the viewing terminal 100 can be connected instead of or in addition to the touch screen 15.

また、図2に示すように、視聴端末100は、1つ以上のコントローラ1020と通信可能に構成されることとしてもよい。コントローラ1020は、例えば、Bluetooth(登録商標)等の通信規格に従って、視聴端末100と通信を確立する。コントローラ1020は、1つ以上のボタン等を有していてもよく、該ボタン等に対するユーザの入力操作に基づく出力値を視聴端末100へ送信する。また、コントローラ1020は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値を視聴端末100へ送信する。 Further, as shown in FIG. 2, the viewing terminal 100 may be configured to be able to communicate with one or more controllers 1020. The controller 1020 establishes communication with the viewing terminal 100 according to a communication standard such as Bluetooth (registered trademark). The controller 1020 may have one or more buttons or the like, and transmits an output value based on a user's input operation to the buttons or the like to the viewing terminal 100. Further, the controller 1020 may include various sensors such as an acceleration sensor and an angular velocity sensor, and transmits output values of the various sensors to the viewing terminal 100.

また、コントローラ1020は、視聴端末100に着脱可能な構成であるとしてもよい。この場合、視聴端末100の筐体における少なくともいずれかの面に、コントローラ1020との結合部が設けられていてもよい。該結合部を介して有線により視聴端末100とコントローラ1020とが結合している場合は、視聴端末100とコントローラ1020とは、有線を介して信号を送受信する。 Moreover, the controller 1020 may be configured to be attachable to and detachable from the viewing terminal 100. In this case, a connecting portion with the controller 1020 may be provided on at least one surface of the housing of the viewing terminal 100. When the viewing terminal 100 and the controller 1020 are connected by wire via the connecting unit, the viewing terminal 100 and the controller 1020 send and receive signals via a wire.

図2に示すように、視聴端末100は、外部のメモリカード等の記憶媒体1030の装着を、入出力IF14を介して受け付けてもよい。これにより、視聴端末100は、記憶媒体1030に記録されるプログラム及びデータを読み込むことができる。記憶媒体1030に記録されるプログラムは、例えば視聴プログラムである。 As shown in FIG. 2, the viewing terminal 100 may accept mounting of a storage medium 1030 such as an external memory card via the input/output IF 14. Thereby, the viewing terminal 100 can read the program and data recorded in the storage medium 1030. The program recorded in the storage medium 1030 is, for example, a viewing program.

視聴端末100は、配信サーバ200等の外部の装置と通信することにより取得した視聴プログラムを視聴端末100のメモリ11に記憶してもよいし、記憶媒体1030から読み込むことにより取得した視聴プログラムをメモリ11に記憶してもよい。 The viewing terminal 100 may store the viewing program acquired by communicating with an external device such as the distribution server 200 in the memory 11 of the viewing terminal 100, or the viewing program acquired by reading from the storage medium 1030 may be stored in the memory. 11 may be stored.

以上で説明したとおり、視聴端末100は、該視聴端末100に対して情報を入力する機構の一例として、通信IF13、入出力IF14、およびタッチスクリーン15を備える。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。 As described above, the viewing terminal 100 includes the communication IF 13, the input/output IF 14, and the touch screen 15 as an example of a mechanism for inputting information to the viewing terminal 100. Each of the above-described units as a mechanism for inputting can be regarded as an operation unit configured to receive an input operation of a user.

例えば、操作部がタッチスクリーン15で構成される場合、視聴端末100は、タッチスクリーン15の入力部151に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF13で構成される場合、視聴端末100は、コントローラ1020から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF14で構成される場合、該入出力IF14と接続されるコントローラ1020とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。 For example, when the operation unit includes the touch screen 15, the viewing terminal 100 identifies and accepts the user operation performed on the input unit 151 of the touch screen 15 as the user input operation. Alternatively, when the operation unit is configured by the communication IF 13, the viewing terminal 100 identifies and receives a signal (for example, output value) transmitted from the controller 1020 as a user input operation. Alternatively, when the operation unit is configured by the input/output IF 14, a signal output from an input device (not shown) different from the controller 1020 connected to the input/output IF 14 is specified and accepted as the user's input operation.

(配信端末300)
配信端末300(コンピュータ、情報処理装置)は、スマートフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。また、配信端末300は、サーバ、デスクトップパソコン、ノートパソコン、または、タブレットなどのコンピュータ、および、これらを組み合わせたコンピュータ群であってもよい。
(Distribution terminal 300)
The distribution terminal 300 (computer, information processing device) may be a mobile terminal such as a smartphone, a PDA (Personal Digital Assistant), or a tablet computer. The distribution terminal 300 may be a server, a desktop personal computer, a notebook personal computer, a computer such as a tablet, or a computer group combining these.

配信端末300は、表示装置、入力装置、情報処理装置が、ライブ配信に適するように接続された装置群であってもよい。配信端末300は図示の通り、プロセッサ30と、メモリ31と、ストレージ32と、通信インターフェース(IF)33と、入出力IF34と、タッチスクリーン35(表示部)とを備える。配信端末300が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、配信端末300は、タッチスクリーン35に代えて、または、加えて、配信端末300本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF34を備えていてもよい。 The distribution terminal 300 may be a device group in which a display device, an input device, and an information processing device are connected so as to be suitable for live distribution. As illustrated, the distribution terminal 300 includes a processor 30, a memory 31, a storage 32, a communication interface (IF) 33, an input/output IF 34, and a touch screen 35 (display unit). These components included in the distribution terminal 300 are electrically connected to each other by a communication bus. The distribution terminal 300 may include an input/output IF 34 to which a display (display unit) configured separately from the main body of the distribution terminal 300 can be connected instead of or in addition to the touch screen 35.

また、図1に示すように、配信端末300は、1つ以上のマイク3010、1つ以上のモーションキャプチャ装置3020、および、1つ以上のコントローラ3030などの周辺機器と、無線または有線を介して、通信可能に構成されてもよい。無線で接続される周辺機器は、例えば、Bluetooth(登録商標)等の通信規格に従って、配信端末300と通信を確立する。また、これらの周辺機器を含めた装置群を、1セットの配信端末300と捉えてもよい。 In addition, as shown in FIG. 1, the distribution terminal 300 wirelessly or wiredly communicates with one or more microphones 3010, one or more motion capture devices 3020, and one or more peripheral devices such as a controller 3030. , May be configured to be communicable. The peripheral device wirelessly connected establishes communication with the distribution terminal 300 according to a communication standard such as Bluetooth (registered trademark). Further, a device group including these peripheral devices may be regarded as a set of distribution terminals 300.

マイク3010は、周囲で発生した音声を取得し、これを電気信号に変換する。電気信号に変換された音声は、音声データとして、配信端末300に送信され、通信IF33を介して配信端末300に受け付けられる。 The microphone 3010 acquires a sound generated in the surroundings and converts it into an electric signal. The voice converted into the electric signal is transmitted to the distribution terminal 300 as voice data and is received by the distribution terminal 300 via the communication IF 33.

モーションキャプチャ装置3020は、追跡対象(例えば、人)のモーション(頭の位置および姿勢、顔の表情、口の動きなども含む)を追跡し、追跡結果としての出力値を配信端末300へ送信する。出力値であるモーションデータは、通信IF33を介して配信端末300に受け付けられる。モーションキャプチャ装置3020のモーションキャプチャ方式は特に限定されない。モーションキャプチャ装置3020は、採用された方式に応じて、カメラ、各種センサ、マーカー、モデル(人物)が着用するスーツ、信号送出器、HMD(Head Mount Device)など、モーションをキャプチャするためのあらゆる機構を選択的に備えている。 The motion capture device 3020 tracks the motion (including the position and posture of the head, facial expression, mouth movement, etc.) of the tracking target (for example, a person) and transmits the output value as the tracking result to the distribution terminal 300. .. The motion data that is the output value is accepted by the distribution terminal 300 via the communication IF 33. The motion capture method of the motion capture device 3020 is not particularly limited. The motion capture device 3020 is a camera, various sensors, a marker, a suit worn by a model (person), a signal transmitter, an HMD (Head Mount Device), or any other mechanism for capturing motion according to the adopted system. Are selectively equipped.

コントローラ3030は、1つ以上のボタン、レバー、スティック、ホイール等の物理的な入力機構を有していてもよい。コントローラ3030は、配信端末300のオペレータが、該入力機構に対して入力した入力操作に基づく出力値を配信端末300へ送信する。また、コントローラ3030は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値を配信端末300へ送信してもよい。上述の出力値は、通信IF33を介して配信端末300に受け付けられる。なお、以下では、配信端末300に備えられた操作部または配信端末300と通信可能に接続された各種の入力機構を用いて、配信端末300に対して、何らかの入力操作を行う人をオペレータと称する。オペレータには、入力部351、コントローラ3030などを用いて配信端末300を操作する人も含まれるし、マイク3010を介して音声を入力する声優も含まれるし、モーションキャプチャ装置3020を介して動きを入力するモデルも含まれる。 The controller 3030 may have a physical input mechanism such as one or more buttons, levers, sticks, wheels and the like. The controller 3030 transmits to the distribution terminal 300 an output value based on an input operation input to the input mechanism by the operator of the distribution terminal 300. Further, the controller 3030 may include various sensors such as an acceleration sensor and an angular velocity sensor, and the output values of the various sensors may be transmitted to the distribution terminal 300. The output value described above is accepted by the distribution terminal 300 via the communication IF 33. In the following, a person who performs some input operation on the distribution terminal 300 using the operation unit provided in the distribution terminal 300 or various input mechanisms communicatively connected to the distribution terminal 300 is referred to as an operator. .. The operator includes a person who operates the distribution terminal 300 by using the input unit 351, the controller 3030, and the like, a voice actor who inputs a voice through the microphone 3010, and a movement through the motion capture device 3020. The model to be input is also included.

配信端末300は、図示しない、カメラと、測距センサとを備えていてもよい。配信端末300が備えることに代えて、または、加えて、モーションキャプチャ装置3020およびコントローラ3030がカメラと、測距センサとを有してしてもよい。 The distribution terminal 300 may include a camera and a distance measuring sensor (not shown). Instead of or in addition to the distribution terminal 300, the motion capture device 3020 and the controller 3030 may include a camera and a distance measuring sensor.

以上で説明したとおり、配信端末300は、該配信端末300に対して情報を入力する機構の一例として、通信IF33、入出力IF34、タッチスクリーン35を備える。配信端末300は、必要に応じて、カメラ、および、測距センサをさらに備えていてもよい。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。 As described above, the distribution terminal 300 includes the communication IF 33, the input/output IF 34, and the touch screen 35 as an example of a mechanism for inputting information to the distribution terminal 300. The distribution terminal 300 may further include a camera and a distance measuring sensor, if necessary. Each of the above-described units as a mechanism for inputting can be regarded as an operation unit configured to receive an input operation of a user.

操作部は、タッチスクリーン35で構成されていてもよい。この場合、配信端末300は、タッチスクリーン35の入力部351に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF33で構成される場合、配信端末300は、コントローラ3030から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF34で構成される場合、該入出力IF34と接続されるコントローラ3030とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。 The operation unit may be configured with the touch screen 35. In this case, the distribution terminal 300 identifies and accepts the user's operation performed on the input unit 351 of the touch screen 35 as the user's input operation. Alternatively, when the operation unit includes the communication IF 33, the distribution terminal 300 identifies and receives a signal (for example, an output value) transmitted from the controller 3030 as a user input operation. Alternatively, when the operation unit is configured by the input/output IF 34, a signal output from an input device (not shown) different from the controller 3030 connected to the input/output IF 34 is specified and accepted as the user's input operation.

<各装置のハードウェア構成要素>
プロセッサ10は、視聴端末100全体の動作を制御する。プロセッサ20は、配信サーバ200全体の動作を制御する。プロセッサ30は、配信端末300全体の動作を制御する。プロセッサ10、20、および30は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、およびGPU(Graphics Processing Unit)を含む。
<Hardware components of each device>
The processor 10 controls the operation of the entire viewing terminal 100. The processor 20 controls the operation of the entire distribution server 200. The processor 30 controls the operation of the entire distribution terminal 300. The processors 10, 20, and 30 include a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and a GPU (Graphics Processing Unit).

プロセッサ10は後述するストレージ12からプログラムを読み出し、後述するメモリ11に展開する。プロセッサ20は後述するストレージ22からプログラムを読み出し、後述するメモリ21に展開する。プロセッサ30は後述するストレージ32からプログラムを読み出し、後述するメモリ31に展開する。プロセッサ10、プロセッサ20、およびプロセッサ30は、展開したプログラムを実行する。 The processor 10 reads a program from the storage 12 described later and loads it into the memory 11 described later. The processor 20 reads a program from a storage 22 described later and loads it into a memory 21 described later. The processor 30 reads a program from a storage 32 described later and loads it into a memory 31 described later. The processor 10, the processor 20, and the processor 30 execute the expanded program.

メモリ11、21、および31は主記憶装置である。メモリ11、21、および31は、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置で構成される。メモリ11は、プロセッサ10が後述するストレージ12から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ10に作業領域を提供する。メモリ11は、プロセッサ10がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ21は、プロセッサ20が後述するストレージ22から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ20に作業領域を提供する。メモリ21は、プロセッサ20がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ31は、プロセッサ30が後述するストレージ32から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ30に作業領域を提供する。メモリ31は、プロセッサ30がプログラムに従って動作している間に生成した各種データも一時的に記憶する。 Memories 11, 21, and 31 are main storage devices. The memories 11, 21, and 31 are configured by storage devices such as ROM (Read Only Memory) and RAM (Random Access Memory). The memory 11 provides a work area to the processor 10 by temporarily storing a program and various data read by the processor 10 from a storage 12 described later. The memory 11 also temporarily stores various data generated while the processor 10 operates according to a program. The memory 21 provides a work area to the processor 20 by temporarily storing various programs and data read by the processor 20 from a storage 22 described later. The memory 21 also temporarily stores various data generated while the processor 20 operates according to the program. The memory 31 provides a work area to the processor 30 by temporarily storing various programs and data read by the processor 30 from a storage 32 described later. The memory 31 also temporarily stores various data generated while the processor 30 operates according to the program.

本実施形態において、プロセッサ30が実行するプログラムは、コンテンツのライブ配信を実現するための配信プログラムであってもよい。本実施形態において、プロセッサ10が実行するプログラムは、コンテンツの再生を実現するための、視聴プログラムであってもよい。 In the present embodiment, the program executed by the processor 30 may be a distribution program for realizing live distribution of content. In the present embodiment, the program executed by the processor 10 may be a viewing program for realizing content reproduction.

本実施形態において、プロセッサ20が実行するプログラムは、上述の配信プログラムであってもよいし、上述の視聴プログラムであってもよい。プロセッサ20は、視聴端末100または配信端末300からの要求等に応じて、配信プログラムと視聴プログラムとのいずれか、または両方を実行する。なお、配信プログラムと視聴プログラムは、並行して実行されてもよい。 In the present embodiment, the program executed by the processor 20 may be the distribution program described above or the viewing program described above. The processor 20 executes either or both of the distribution program and the viewing program in response to a request from the viewing terminal 100 or the distribution terminal 300. The distribution program and the viewing program may be executed in parallel.

すなわち、配信プログラムは、ライブ配信を配信サーバ200と配信端末300との協働により実現するための配信プログラムであってもよい。また、視聴プログラムは、コンテンツの再生を、視聴端末100と配信サーバ200との協働により実現するための視聴プログラムであってもよい。 That is, the distribution program may be a distribution program for realizing live distribution by cooperation between the distribution server 200 and the distribution terminal 300. Further, the viewing program may be a viewing program for realizing the reproduction of the content by the cooperation of the viewing terminal 100 and the distribution server 200.

ストレージ12、22、および32は補助記憶装置である。ストレージ12、22、および32は、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置で構成される。ストレージ12、22、および32には、ゲームに関する各種データが格納される。 The storages 12, 22, and 32 are auxiliary storage devices. The storages 12, 22, and 32 are configured by a storage device such as a flash memory or an HDD (Hard Disk Drive). Various data relating to the game is stored in the storages 12, 22, and 32.

通信IF13は、視聴端末100における各種データの送受信を制御する。通信IF23は、配信サーバ200における各種データの送受信を制御する。通信IF33は、配信端末300における各種データの送受信を制御する。通信IF13、23、および33は例えば、無線LAN(Local Area Network)を介する通信、有線LAN、無線LAN、または携帯電話回線網を介したインターネット通信、ならびに近距離無線通信等を用いた通信を制御する。 The communication IF 13 controls transmission/reception of various data in the viewing terminal 100. The communication IF 23 controls transmission/reception of various data in the distribution server 200. The communication IF 33 controls transmission/reception of various data in the distribution terminal 300. The communication IFs 13, 23, and 33 control, for example, communication using a wireless LAN (Local Area Network), wired LAN, wireless LAN, or Internet communication via a mobile phone network, and communication using short-range wireless communication or the like. To do.

視聴端末100の入出力IF14は、視聴端末100がデータの入力を受け付けるためのインターフェースであり、また視聴端末100がデータを出力するためのインターフェースである。入出力IF14は、USB(Universal Serial Bus)等を介してデータの入出力を行ってもよい。入出力IF14は、例えば、視聴端末100の物理ボタン、カメラ、マイク、または、スピーカ等を含み得る。配信サーバ200の入出力IF24は、配信サーバ200がデータの入力を受け付けるためのインターフェースであり、また配信サーバ200がデータを出力するためのインターフェースである。入出力IF24は、例えば、マウスまたはキーボード等の情報入力機器である入力部と、画像を表示出力する機器である表示部とを含み得る。配信端末300の入出力IF34は、配信端末300がデータの入力を受け付けるためのインターフェースであり、また配信端末300がデータを出力するためのインターフェースである。入出力IF34は、例えば、マウス、キーボード、スティック、レバー等の情報入力機器、液晶ディスプレイなどの画像を表示出力する機器、および、周辺機器(マイク3010、モーションキャプチャ装置3020、および、コントローラ3030)との間でデータを送受信するための接続部を含み得る。 The input/output IF 14 of the viewing terminal 100 is an interface for the viewing terminal 100 to accept data input, and is an interface for the viewing terminal 100 to output data. The input/output IF 14 may input/output data via a USB (Universal Serial Bus) or the like. The input/output IF 14 may include, for example, a physical button of the viewing terminal 100, a camera, a microphone, a speaker, or the like. The input/output IF 24 of the distribution server 200 is an interface for the distribution server 200 to accept data input, and is an interface for the distribution server 200 to output data. The input/output IF 24 may include, for example, an input unit which is an information input device such as a mouse or a keyboard, and a display unit which is a device for displaying and outputting an image. The input/output IF 34 of the distribution terminal 300 is an interface for the distribution terminal 300 to accept data input, and is an interface for the distribution terminal 300 to output data. The input/output IF 34 includes, for example, an information input device such as a mouse, a keyboard, a stick, and a lever, a device for displaying and outputting an image such as a liquid crystal display, and peripheral devices (a microphone 3010, a motion capture device 3020, and a controller 3030). A connection may be included for sending and receiving data between.

視聴端末100のタッチスクリーン15は、入力部151と表示部152とを組み合わせた電子部品である。配信端末300のタッチスクリーン35は、入力部351と表示部352とを組み合わせた電子部品である。入力部151および351は、例えばタッチセンシティブなデバイスであり、例えばタッチパッドによって構成される。表示部152および352は、例えば液晶ディスプレイ、または有機EL(Electro-Luminescence)ディスプレイ等によって構成される。 The touch screen 15 of the viewing terminal 100 is an electronic component that combines the input unit 151 and the display unit 152. The touch screen 35 of the distribution terminal 300 is an electronic component that combines an input unit 351 and a display unit 352. The input units 151 and 351 are, for example, touch-sensitive devices, and are configured by, for example, touch pads. The display units 152 and 352 are configured by, for example, a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like.

入力部151および351は、入力面に対しユーザの操作(主にタッチ操作、スライド操作、スワイプ操作、およびタップ操作等の物理的接触操作)が入力された位置を検知して、位置を示す情報を入力信号として送信する機能を備える。入力部151および351は、図示しないタッチセンシング部を備えていればよい。タッチセンシング部は、静電容量方式または抵抗膜方式等のどのような方式を採用したものであってもよい。 The input units 151 and 351 detect a position at which a user operation (mainly a physical contact operation such as a touch operation, a slide operation, a swipe operation, and a tap operation) on the input surface is detected, and information indicating the position is detected. Is provided as an input signal. The input units 151 and 351 may include a touch sensing unit (not shown). The touch sensing unit may be of any type such as a capacitance type or a resistance film type.

図示していないが、視聴端末100は、該視聴端末100の保持姿勢を特定するための1以上のセンサを備えていてもよい。このセンサは、例えば、加速度センサ、または、角速度センサ等であってもよい。視聴端末100がセンサを備えている場合、プロセッサ10は、センサの出力から視聴端末100の保持姿勢を特定して、保持姿勢に応じた処理を行うことも可能になる。例えば、プロセッサ10は、視聴端末100が縦向きに保持されているときには、縦長の画像を表示部152に表示させる縦画面表示としてもよい。一方、視聴端末100が横向きに保持されているときには、横長の画像を表示部に表示させる横画面表示としてもよい。このように、プロセッサ10は、視聴端末100の保持姿勢に応じて縦画面表示と横画面表示とを切り替え可能であってもよい。 Although not shown, the viewing terminal 100 may include one or more sensors for specifying the holding posture of the viewing terminal 100. This sensor may be, for example, an acceleration sensor or an angular velocity sensor. When the viewing terminal 100 includes the sensor, the processor 10 can also specify the holding attitude of the viewing terminal 100 from the output of the sensor and perform the processing according to the holding attitude. For example, the processor 10 may perform vertical screen display for displaying a vertically long image on the display unit 152 when the viewing terminal 100 is held vertically. On the other hand, when the viewing terminal 100 is held sideways, a horizontally long image may be displayed on the display unit. In this way, the processor 10 may be capable of switching between the vertical screen display and the horizontal screen display according to the holding posture of the viewing terminal 100.

カメラ17は、イメージセンサ等を含み、レンズから入射する入射光を電気信号に変換することで撮影画像を生成する。 The camera 17 includes an image sensor and the like, and converts a light incident from a lens into an electric signal to generate a captured image.

測距センサ18は、測定対象物までの距離を測定するセンサである。測距センサ18は、例えば、パルス変換した光を発する光源と、光を受ける受光素子とを含む。測距センサ18は、光源からの発光タイミングと、該光源から発せられた光が測定対象物にあたって反射されて生じる反射光の受光タイミングとにより、測定対象物までの距離を測定する。測距センサ18は、指向性を有する光を発する光源を有することとしてもよい。 The distance measuring sensor 18 is a sensor that measures the distance to the measurement target. The distance measuring sensor 18 includes, for example, a light source that emits pulse-converted light and a light receiving element that receives the light. The distance measuring sensor 18 measures the distance to the measurement object by the light emission timing from the light source and the light reception timing of the reflected light generated by the light emitted from the light source reflected on the measurement object. The distance measuring sensor 18 may include a light source that emits light having directivity.

<配信システム1の機能的構成>
図3は、配信システム1に含まれる視聴端末100、配信サーバ200、および配信端末300の機能的構成を示すブロック図である。視聴端末100、配信サーバ200、および配信端末300のそれぞれは、図示しない、一般的なコンピュータとして機能する場合に必要な機能的構成、および、ゲームにおける公知の機能を実現するために必要な機能的構成を含み得る。
<Functional configuration of distribution system 1>
FIG. 3 is a block diagram showing the functional configurations of the viewing terminal 100, the distribution server 200, and the distribution terminal 300 included in the distribution system 1. Each of the viewing terminal 100, the distribution server 200, and the distribution terminal 300 has a functional configuration required to function as a general computer (not shown) and a functional configuration required to realize a known function in a game. Configurations may be included.

視聴端末100は、ユーザの入力操作を受け付ける入力装置としての機能と、ゲームの画像や音声を出力する出力装置としての機能を有する。視聴端末100は、プロセッサ10、メモリ11、ストレージ12、通信IF13、および入出力IF14等の協働によって、制御部110および記憶部120として機能する。 The viewing terminal 100 has a function as an input device that receives an input operation of a user and a function as an output device that outputs a game image or sound. The viewing terminal 100 functions as the control unit 110 and the storage unit 120 in cooperation with the processor 10, the memory 11, the storage 12, the communication IF 13, the input/output IF 14, and the like.

配信サーバ200は、配信端末300および視聴端末100と通信する、配信サーバ200は、配信端末300から視聴端末100へコンテンツデータを配信する場合の仲介となる機能を有する。配信サーバ200は、プロセッサ20、メモリ21、ストレージ22、通信IF23、および入出力IF24等の協働によって、制御部210および記憶部220として機能する。 The distribution server 200 communicates with the distribution terminal 300 and the viewing terminal 100. The distribution server 200 has a function of acting as an intermediary when distributing content data from the distribution terminal 300 to the viewing terminal 100. The distribution server 200 functions as the control unit 210 and the storage unit 220 in cooperation with the processor 20, the memory 21, the storage 22, the communication IF 23, the input/output IF 24, and the like.

配信端末300は、コンテンツを作成して、該コンテンツを、配信サーバ200を介して視聴端末100にライブ配信する機能を有する。配信端末300は、プロセッサ30、メモリ31、ストレージ32、通信IF33、および入出力IF34等の協働によって、制御部310および記憶部320として機能する。 The distribution terminal 300 has a function of creating content and performing live distribution of the content to the viewing terminal 100 via the distribution server 200. The distribution terminal 300 functions as the control unit 310 and the storage unit 320 in cooperation with the processor 30, the memory 31, the storage 32, the communication IF 33, the input/output IF 34, and the like.

(各装置の記憶部が格納するデータ)
記憶部120は、視聴プログラム131と、視聴端末100に対応する視聴者の視聴者情報132とを格納する。記憶部320は、配信プログラム331と、配信端末300に対応する配信者の配信者情報332とを格納する。記憶部220は、視聴プログラム131と、視聴者情報132と、配信プログラム331と、配信者情報332と、を格納する。記憶部220は、各配信端末300から収集した配信者情報332をまとめて記憶する。記憶部220は、各視聴端末100から収集した視聴者情報132をまとめて記憶する。
(Data stored in the storage unit of each device)
The storage unit 120 stores the viewing program 131 and the viewer information 132 of the viewer corresponding to the viewing terminal 100. The storage unit 320 stores a distribution program 331 and distributor information 332 of a distributor corresponding to the distribution terminal 300. The storage unit 220 stores a viewing program 131, viewer information 132, a distribution program 331, and distributor information 332. The storage unit 220 collectively stores the distributor information 332 collected from each distribution terminal 300. The storage unit 220 collectively stores the viewer information 132 collected from each viewing terminal 100.

視聴プログラム131は、視聴端末100および配信サーバ200が実行するプログラムである。一方、配信プログラム231は、配信端末300および配信サーバ200が実行するプログラムである。 The viewing program 131 is a program executed by the viewing terminal 100 and the distribution server 200. On the other hand, the distribution program 231 is a program executed by the distribution terminal 300 and the distribution server 200.

なお、配信サーバ200による視聴プログラム131および配信プログラム331の実行は、必須ではない。例えば視聴端末100が単独で視聴プログラム131を実行することで、コンテンツの再生を実現可能である場合、配信サーバ200は、視聴プログラム131を実行しなくてもよい。また例えば、配信端末300が単独で配信プログラム331を実行することでライブ配信を実現可能である場合、配信サーバ200は、配信プログラム331を実行しなくてもよい。 It should be noted that execution of the viewing program 131 and the distribution program 331 by the distribution server 200 is not essential. For example, when the viewing terminal 100 can execute the viewing program 131 by itself to reproduce the content, the distribution server 200 does not have to execute the viewing program 131. Further, for example, when the distribution terminal 300 can execute live distribution by executing the distribution program 331 independently, the distribution server 200 does not have to execute the distribution program 331.

視聴者情報132は、制御部110が視聴プログラム131を実行する際に参照するデータである。視聴者情報132は、視聴者毎に管理されるデータである。例えば、視聴者情報132には視聴者の名称、すなわち、視聴端末100が対応する視聴者のアカウントの名称が含まれていてもよい。また、視聴者情報132には、視聴端末100に対応する視聴者のアカウントにおける、コンテンツの閲覧履歴、メッセージの送受信の履歴等が含まれていてもよい。 The viewer information 132 is data that the control unit 110 refers to when executing the viewing program 131. The viewer information 132 is data managed for each viewer. For example, the viewer information 132 may include the name of the viewer, that is, the name of the account of the viewer corresponding to the viewing terminal 100. Further, the viewer information 132 may include a content browsing history, a message transmission/reception history, and the like in the account of the viewer corresponding to the viewing terminal 100.

配信者情報332は、制御部210が配信プログラム231を実行する際に参照するデータである。配信者情報332は、配信者毎に管理されるデータである。例えば、配信者情報332には、配信端末300が対応する配信者のアカウントの名称を示す情報が含まれていてもよい。また、配信者情報332には、配信端末300に対応する配信者のアカウントにおける、コンテンツの配信履歴、配信したコンテンツの再生数等、配信したコンテンツに係る各種情報、メッセージの送受信の履歴が含まれていてもよい。 The distributor information 332 is data that the control unit 210 refers to when executing the distribution program 231. The distributor information 332 is data managed for each distributor. For example, the distributor information 332 may include information indicating the name of the distributor account to which the distribution terminal 300 corresponds. Further, the distributor information 332 includes various kinds of information related to the distributed contents such as the distribution history of the contents, the number of times the distributed contents are reproduced, etc. in the account of the distributor corresponding to the distribution terminal 300, and the history of message transmission and reception. May be.

(配信サーバ200の機能的構成)
制御部210は、記憶部220に格納された配信プログラム231を実行することにより、配信サーバ200を統括的に制御する。例えば、制御部210は、配信端末300からにコンテンツをリアルタイムに受信して、該コンテンツを視聴端末100にライブ配信する。制御部210は、必要に応じて、視聴端末100および配信端末300と通信して、各種情報の送受信を行う。
(Functional configuration of distribution server 200)
The control unit 210 centrally controls the distribution server 200 by executing the distribution program 231 stored in the storage unit 220. For example, the control unit 210 receives the content from the distribution terminal 300 in real time, and delivers the content live to the viewing terminal 100. The control unit 210 communicates with the viewing terminal 100 and the distribution terminal 300 to send and receive various types of information as necessary.

制御部210は、配信プログラム231の記述に応じて、送受信部211、サーバ処理部212、および、データ管理部213として機能する。制御部210は、配信端末300からのコンテンツのライブ配信、ならびに、視聴端末100による該コンテンツの再生を支援するために、図示しないその他の機能ブロックとしても機能することができる。 The control unit 210 functions as the transmission/reception unit 211, the server processing unit 212, and the data management unit 213 according to the description of the distribution program 231. The control unit 210 can also function as other functional blocks (not shown) in order to support live distribution of content from the distribution terminal 300 and reproduction of the content by the viewing terminal 100.

送受信部211は、配信端末300から各種データおよびリクエストを受信する。例えば、送受信部211は、配信者情報332の一部または全部を、配信端末300から受信する。送受信部211は、配信端末300に対し各種データおよびリクエストを送信する。 The transmission/reception unit 211 receives various data and requests from the distribution terminal 300. For example, the transmission/reception unit 211 receives a part or all of the distributor information 332 from the distribution terminal 300. The transmission/reception unit 211 transmits various data and requests to the distribution terminal 300.

また、送受信部211は、視聴端末100から各種データおよびリクエストを受信する。例えば、送受信部211は、視聴端末100からのライブ配信の要求を受信する。送受信部211は、視聴端末100に対し各種情報を送信する。例えば、送受信部211は、視聴端末100に対しコンテンツをライブ配信する。 The transmitting/receiving unit 211 also receives various data and requests from the viewing terminal 100. For example, the transmission/reception unit 211 receives a live distribution request from the viewing terminal 100. The transmission/reception unit 211 transmits various kinds of information to the viewing terminal 100. For example, the transmission/reception unit 211 delivers the content live to the viewing terminal 100.

サーバ処理部212は、コンテンツのライブ配信および再生のために必要な演算処理を行う。サーバ処理部212は送受信部211に対し、各種データの送信を指示する。サーバ処理部212は、データ管理部213に対し、各種情報の追加、更新、または削除を指示する。 The server processing unit 212 performs arithmetic processing necessary for live distribution and reproduction of content. The server processing unit 212 instructs the transmission/reception unit 211 to transmit various data. The server processing unit 212 instructs the data management unit 213 to add, update, or delete various information.

データ管理部213は、記憶部220に格納されているデータを管理する。データ管理部213は、サーバ処理部212からの指示に応じて配信者情報332および視聴者情報132に含まれる各種情報の、追加、更新、または削除を実行する。データ管理部213は、サーバ処理部212の指示に従って、記憶部220から配信者情報332および視聴者情報132のうち少なくとも一方の情報を読み出してもよい。 The data management unit 213 manages the data stored in the storage unit 220. The data management unit 213 executes addition, update, or deletion of various information included in the distributor information 332 and the viewer information 132 according to an instruction from the server processing unit 212. The data management unit 213 may read at least one of the distributor information 332 and the viewer information 132 from the storage unit 220 according to an instruction from the server processing unit 212.

(視聴端末100の機能的構成)
制御部110は、記憶部120に格納された視聴プログラム131を実行することにより、視聴端末100を統括的に制御する。例えば、制御部110は、視聴プログラム131およびユーザの操作にしたがって、コンテンツの再生を実行する。また、制御部110は、コンテンツの再生中に、必要に応じて、配信サーバ200と通信して、情報の送受信を行う。
(Functional configuration of the viewing terminal 100)
The control unit 110 executes the viewing program 131 stored in the storage unit 120 to centrally control the viewing terminal 100. For example, the control unit 110 executes content reproduction in accordance with the viewing program 131 and the user's operation. Further, the control unit 110 communicates with the distribution server 200 as necessary to transmit and receive information during reproduction of content.

制御部110は、視聴プログラム131の記述に応じて、操作受付部111、再生部112、表示制御部113、および通信部114として機能する。制御部110は、コンテンツの再生を実現するために、図示しないその他の機能ブロックとしても機能することができる。 The control unit 110 functions as the operation reception unit 111, the reproduction unit 112, the display control unit 113, and the communication unit 114 according to the description of the viewing program 131. The control unit 110 can also function as other functional blocks (not shown) in order to reproduce the content.

操作受付部111は、入力部151に対するユーザの入力操作を検知し受け付ける。操作受付部111は、タッチスクリーン15およびその他の入出力IF14を介したコンソールに対してユーザが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部110の各要素に出力する。 The operation receiving unit 111 detects and receives a user's input operation on the input unit 151. The operation reception unit 111 determines what input operation has been performed based on the user's action on the console via the touch screen 15 and the other input/output IF 14, and outputs the result to each element of the control unit 110. To do.

例えば、操作受付部111は、入力部151に対する入力操作を受け付け、該入力操作の入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部111は、入力操作の種類として、例えばタッチ操作、スライド操作、スワイプ操作、およびタップ操作等を特定する。また、操作受付部111は、連続して検知されていた入力が途切れると、タッチスクリーン15から接触入力が解除されたことを検知する。 For example, the operation receiving unit 111 receives an input operation on the input unit 151, detects the coordinates of the input position of the input operation, and specifies the type of the input operation. The operation receiving unit 111 identifies, as the type of input operation, for example, a touch operation, a slide operation, a swipe operation, a tap operation, or the like. Further, the operation receiving unit 111 detects that the touch input is released from the touch screen 15 when the continuously detected input is interrupted.

再生部112は、コンテンツの再生に係る処理を実行する。再生部112は、通信部114を介して配信サーバ200からコンテンツデータをリアルタイムで受信する。再生部112は、空間定義部112A、背景制御部112B、オブジェクト制御部112C、カメラ制御部112D、および描画部112Eを含む。 The reproduction unit 112 executes processing related to content reproduction. The reproducing unit 112 receives content data from the distribution server 200 via the communication unit 114 in real time. The reproduction unit 112 includes a space definition unit 112A, a background control unit 112B, an object control unit 112C, a camera control unit 112D, and a drawing unit 112E.

空間定義部112Aは、コンテンツデータに基づいて、仮想空間を定義する。仮想空間の具体例および定義方法については、後で詳述する。 The space definition unit 112A defines a virtual space based on the content data. A specific example of the virtual space and a definition method will be described in detail later.

背景制御部112Bは、コンテンツデータによって指定された背景画像を仮想空間に配置する。背景画像の種類は特に限定されないが、例えば、実在する特定の地点の周囲360度を撮影した風景画像であってもよい。 The background control unit 112B arranges the background image designated by the content data in the virtual space. The type of the background image is not particularly limited, but may be, for example, a landscape image obtained by photographing 360 degrees around a specific existing point.

オブジェクト制御部112Cは、コンテンツデータによって指定されたオブジェクトを仮想空間に、該データで指定された位置に指定された姿勢で配置する。 The object control unit 112C arranges the object designated by the content data in the virtual space at the position designated by the data in the designated posture.

カメラ制御部112Dは、仮想空間に仮想カメラを配置する。仮想カメラとは、仮想空間におけるユーザの仮想視点の位置および角度を規定するものである。 The camera control unit 112D arranges a virtual camera in the virtual space. The virtual camera defines the position and angle of the virtual viewpoint of the user in the virtual space.

描画部112Eは、仮想空間のうち、少なくとも、仮想カメラの視野領域に含まれるオブジェクトおよび背景画像を、動画像または静止画として描画する。以降、仮想カメラの視野領域に含まれるオブジェクトおよび背景画像を描画した動画像または静止画を、単に「視野領域の画像」と称する。なお、描画部112Eは視野領域のみならず、仮想空間全体の背景画像およびオブジェクト等を描画してもよい。 The drawing unit 112E draws at least the object and the background image included in the field of view of the virtual camera in the virtual space as a moving image or a still image. Hereinafter, a moving image or a still image in which an object and a background image included in the visual field of the virtual camera are drawn is simply referred to as “image of visual field”. The drawing unit 112E may draw not only the visual field area but also the background image and the object of the entire virtual space.

表示制御部113は、再生部112の描画部112Eが描画した視野領域の画像を、コンテンツとして表示部152に表示させる。なお、表示制御部113は、UI(user interface)を構築するための2Dまたは3Dのゲームオブジェクト(UIオブジェクト)を制御および描画してもよい。例えば、表示制御部113は、コンテンツの視聴のための種々の操作に必要なUIオブジェクトを、コンテンツと重畳、またはコンテンツとともに表示部152の画面に表示してもよい。UIオブジェクトとは、例えば、アイコン、ボタン、リスト、メニュー画面等である。また、UIオブジェクトとは、視聴端末100におけるコンテンツの再生中に、視聴端末100から視聴者に、各種情報を通知するためのツールである。 The display control unit 113 causes the display unit 152 to display the image of the visual field area drawn by the drawing unit 112E of the reproduction unit 112 as content. The display control unit 113 may control and draw a 2D or 3D game object (UI object) for constructing a UI (user interface). For example, the display control unit 113 may superimpose the UI object required for various operations for viewing the content on the content, or may display the UI object on the screen of the display unit 152 together with the content. The UI object is, for example, an icon, a button, a list, a menu screen, or the like. The UI object is a tool for notifying the viewer of various information from the viewing terminal 100 during the reproduction of the content on the viewing terminal 100.

通信部114は、配信サーバ200に対し各種データおよびリクエストを送信する。例えば、通信部114は配信サーバ200に対し、コンテンツデータの配信要求と、視聴者情報132の一部または全部とを送信する。通信部114は、配信サーバ200からライブ配信に係る各種情報を受信する。例えば、通信部114は、配信サーバ200からコンテンツデータと、配信者情報332の一部または全部とを受信する。 The communication unit 114 transmits various data and requests to the distribution server 200. For example, the communication unit 114 transmits a distribution request for the content data and a part or all of the viewer information 132 to the distribution server 200. The communication unit 114 receives various kinds of information related to live distribution from the distribution server 200. For example, the communication unit 114 receives the content data and part or all of the distributor information 332 from the distribution server 200.

(配信端末300の機能的構成)
制御部310は、記憶部320に格納された配信プログラム331を実行することにより、配信端末300を統括的に制御する。例えば、制御部310は、配信プログラム331および配信者の操作にしたがってコンテンツデータを作成し、配信サーバ200を介して該コンテンツデータを視聴端末100に供給する。制御部310は、配信サーバ200と通信して情報の送受信を行う。
(Functional configuration of distribution terminal 300)
The control unit 310 centrally controls the distribution terminal 300 by executing the distribution program 331 stored in the storage unit 320. For example, the control unit 310 creates content data according to the operations of the distribution program 331 and the distributor, and supplies the content data to the viewing terminal 100 via the distribution server 200. The control unit 310 communicates with the distribution server 200 to send and receive information.

制御部310は、配信プログラム331の記述に応じて、操作受付部311、配信部312、表示制御部313、および通信部314として機能する。制御部310は、作成するコンテンツデータの性質、すなわちコンテンツの性質に応じて、図示しないその他の機能ブロックとしても機能することができる。 The control unit 310 functions as the operation reception unit 311, the distribution unit 312, the display control unit 313, and the communication unit 314 according to the description of the distribution program 331. The control unit 310 can also function as another functional block (not shown) according to the property of the content data to be created, that is, the property of the content.

操作受付部311は、入力部351に対するオペレータの入力操作を検知し受け付ける。操作受付部311は、タッチスクリーン35およびその他の入出力IF34を介したコンソールに対して、オペレータが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部310の各要素に出力する。操作受付部311の機能の詳細は、視聴端末100における操作受付部111のそれとほぼ同様である。 The operation receiving unit 311 detects and receives an input operation of the operator on the input unit 351. The operation reception unit 311 determines what input operation is performed from the action exerted by the operator on the console via the touch screen 35 and the other input/output IF 34, and outputs the result to each element of the control unit 310. Output. The details of the function of the operation receiving unit 311 are almost the same as those of the operation receiving unit 111 in the viewing terminal 100.

配信部312は、コンテンツの配信に係る各種処理を実行する。例えば、配信部312はコンテンツデータを作成する。コンテンツデータの作成方法については、後で詳述する。 The distribution unit 312 executes various processes related to content distribution. For example, the delivery unit 312 creates content data. The method of creating the content data will be described in detail later.

配信部312は、配信者によるコンテンツ作成のオペレーティングを支援するための、配信者向けの画面を作成してもよい。以降、配信者向けの画面のことを、配信画面とも称する。配信画面の構成については、特に限定しない。例えば、配信部312は、アバター等の各種オブジェクト、背景画像、および各種パラメータ等、コンテンツに含まれ得る各種構成要素を一覧可能な配信画面を作成してもよい。配信画面は、表示制御部313を介してタッチスクリーン35に表示される。 The distribution unit 312 may create a screen for the distributor to assist the distributor in operating the content creation. Hereinafter, the screen for the distributor is also referred to as a distribution screen. The structure of the distribution screen is not particularly limited. For example, the delivery unit 312 may create a delivery screen that can list various components that can be included in the content, such as various objects such as avatars, background images, and various parameters. The distribution screen is displayed on the touch screen 35 via the display control unit 313.

また、配信部312は、配信者に向けた各種通知を作成および出力してもよい。例えば、配信部312は、配信サーバ200を介して受信した視聴者コメントを、配信者に通知してもよい。 Further, the distribution unit 312 may create and output various notifications to the distributor. For example, the distribution unit 312 may notify the distributor of the viewer comment received via the distribution server 200.

表示制御部313は、タッチスクリーン35の表示部352に対して、上述の各要素によって実行された処理結果が反映された表示画面を出力する。表示制御部313の機能の詳細は、視聴端末100における表示制御部113のそれとほぼ同様である。例えば、表示制御部313は、ライブ配信のための種々の操作に必要なUIオブジェクトを表示部352の画面に表示してもよい。 The display control unit 313 outputs, to the display unit 352 of the touch screen 35, a display screen on which the processing results executed by the above-described elements are reflected. The details of the function of the display control unit 313 are almost the same as those of the display control unit 113 in the viewing terminal 100. For example, the display control unit 313 may display UI objects required for various operations for live distribution on the screen of the display unit 352.

通信部314は、配信サーバ200に対し各種データおよびリクエストを送信する。例えば、通信部314は配信サーバ200に対し、コンテンツと、配信者情報332の一部または全部を送信する。通信部314は、配信サーバ200からライブ配信に係る各種情報を受信する。例えば、通信部314は、配信サーバ200から視聴者情報132の一部または全部を受信する。 The communication unit 314 transmits various data and requests to the distribution server 200. For example, the communication unit 314 transmits the content and a part or all of the distributor information 332 to the distribution server 200. The communication unit 314 receives various kinds of information related to live distribution from the distribution server 200. For example, the communication unit 314 receives a part or all of the viewer information 132 from the distribution server 200.

なお、図3に示す視聴端末100、配信サーバ200、および配信端末300の機能は一例にすぎない。例えば、配信サーバ200は、視聴端末100または配信端末300が備える機能の少なくとも一部を備えていてもよい。また例えば、視聴端末100または配信端末300は、配信サーバ200が備える機能の少なくとも一部を備えていてもよい。 The functions of the viewing terminal 100, the distribution server 200, and the distribution terminal 300 shown in FIG. 3 are merely examples. For example, the distribution server 200 may include at least a part of the functions included in the viewing terminal 100 or the distribution terminal 300. Further, for example, the viewing terminal 100 or the distribution terminal 300 may include at least a part of the functions included in the distribution server 200.

また、視聴端末100は、上述した構成要素以外の他の構成要素、または視聴端末100と接続された他の装置と協働してもよい。例えば、視聴端末100は他の構成要素または他の装置に、視聴端末100における処理の一部を実行させてもよい。また、配信端末300は、上述した構成要素以外の他の構成要素、または配信端末300と接続された他の装置と協働してもよい。例えば、配信端末300は他の構成要素または他の装置に、配信端末300における処理の一部を実行させてもよい。 Further, the viewing terminal 100 may cooperate with other components other than the above-described components, or other devices connected to the viewing terminal 100. For example, the viewing terminal 100 may cause another component or another device to execute a part of the processing in the viewing terminal 100. In addition, the distribution terminal 300 may cooperate with other constituent elements other than the above-described constituent elements, or other devices connected to the distribution terminal 300. For example, the distribution terminal 300 may cause another component or another device to execute a part of the processing in the distribution terminal 300.

本実施形態において配信プログラムを実行するコンピュータは、配信サーバ200、配信端末300、および他の装置の何れであってもよいし、これらの複数の装置の組み合わせにより実現されてもよい。また、本実施形態において視聴プログラムを実行するコンピュータは、配信サーバ200、視聴端末100、および他の装置の何れであってもよいし、これら複数の装置の組合せにより実現されてもよい。また、配信システム1は、視聴端末100、配信サーバ200、および配信端末300以外の他の装置を配信システム1の構成要素とし、該他の装置に配信システム1における処理の一部を実行させてもよい。 The computer that executes the distribution program in the present embodiment may be any of the distribution server 200, the distribution terminal 300, and other devices, or may be realized by a combination of a plurality of these devices. Further, the computer that executes the viewing program in the present embodiment may be any of the distribution server 200, the viewing terminal 100, and another device, or may be realized by a combination of these devices. In addition, the distribution system 1 uses other devices other than the viewing terminal 100, the distribution server 200, and the distribution terminal 300 as constituent elements of the distribution system 1, and causes the other devices to execute part of the processing in the distribution system 1. Good.

<配信処理の流れ>
図4は、コンテンツのライブ配信および再生に係る処理の流れの一例を示すシーケンス図である。
<Flow of distribution processing>
FIG. 4 is a sequence diagram showing an example of the flow of processing relating to live distribution and reproduction of content.

ステップS100において、配信部312は、コンテンツデータを作成する。コンテンツデータの作成方法は後述する。 In step S100, the distribution unit 312 creates content data. The method of creating the content data will be described later.

ステップS102において、配信部312は、通信部314を介してコンテンツデータを配信サーバ200にリアルタイムで送信する。以降、配信部312は、例えば、操作受付部311が、ライブ配信の終了を指示する入力操作を受け付けるまで、コンテンツのライブ配信を継続する。 In step S102, the distribution unit 312 transmits the content data to the distribution server 200 in real time via the communication unit 314. After that, the distribution unit 312 continues the live distribution of the content, for example, until the operation reception unit 311 receives an input operation instructing the end of the live distribution.

ステップS104において、配信サーバ200の送受信部211は、コンテンツデータをリアルタイムで受信する。送受信部211は、受信したコンテンツデータを、一時的または非一時的に、記憶部220に記憶させてもよい。配信サーバ200は、視聴端末100からライブ配信の要求を受け付けるまで待機する。 In step S104, the transmission/reception unit 211 of the distribution server 200 receives the content data in real time. The transmission/reception unit 211 may temporarily or non-temporarily store the received content data in the storage unit 220. The distribution server 200 waits until it receives a live distribution request from the viewing terminal 100.

ステップS106において、視聴端末100の操作受付部111は、視聴者の、コンテンツの視聴を指示する入力操作を受け付ける。操作受付部111が該指示を受け付けると、再生部112は、ステップS108を実行する。 In step S106, the operation accepting unit 111 of the viewing terminal 100 accepts an input operation for instructing the viewer to watch the content. When the operation receiving unit 111 receives the instruction, the reproducing unit 112 executes step S108.

ステップS108において、再生部112は、通信部114を介してコンテンツの配信を要求する。 In step S108, the reproduction unit 112 requests distribution of content via the communication unit 114.

ステップS110において、配信サーバ200のサーバ処理部212は、送受信部211を介して配信の要求を受信する。サーバ処理部212は該要求を受信すると、ステップS112の処理を実行する。 In step S110, the server processing unit 212 of the distribution server 200 receives the distribution request via the transmission/reception unit 211. Upon receiving the request, the server processing unit 212 executes the process of step S112.

ステップS112において、サーバ処理部212は、配信端末300から受信しているコンテンツデータを、視聴端末100にリアルタイムで配信する。以降、サーバ処理部212は、例えば、送受信部211が配信端末300からコンテンツデータを受信しなくなるまで、または、視聴端末100から視聴終了の旨を通知されるまで、コンテンツデータの配信を継続する。 In step S112, the server processing unit 212 delivers the content data received from the delivery terminal 300 to the viewing terminal 100 in real time. After that, the server processing unit 212 continues the distribution of the content data until, for example, the transmitting/receiving unit 211 stops receiving the content data from the distribution terminal 300, or until the viewing terminal 100 notifies the end of the viewing.

ステップS114において、視聴端末100の通信部114は、コンテンツデータをリアルタイムに受信する。 In step S114, the communication unit 114 of the viewing terminal 100 receives the content data in real time.

ステップS116において、再生部112は、通信部114が随時受信するコンテンツデータに基づいて、再生処理を実行する。再生処理とは、コンテンツデータが示すコンテンツの再生に係る一連の処理を意味する。以降、再生部112は、ステップS118でYESまたはステップS120でYESと判定されるまで、コンテンツ表示処理を継続して行う。 In step S116, the reproduction unit 112 executes a reproduction process based on the content data that the communication unit 114 receives at any time. The reproduction process means a series of processes related to the reproduction of the content indicated by the content data. After that, the reproducing unit 112 continues to perform the content display process until it is determined YES in step S118 or YES in step S120.

ステップS118において、制御部110は、操作受付部111が視聴終了を指示する入力操作を受け付けたか否か判定する。ステップS118でYESの場合、すなわち、操作受付部111が視聴終了を指示する入力操作を受け付けた場合、再生部112は、ステップS122を実行する。 In step S118, control unit 110 determines whether operation reception unit 111 has received an input operation instructing the end of viewing. If YES in step S118, that is, if the operation receiving unit 111 receives an input operation for instructing the end of viewing, the reproducing unit 112 executes step S122.

ステップS122において、再生部112は、コンテンツの再生を終了する。すなわち、再生部112は、再生処理を終了させる。また、再生部112は通信部114を介して、視聴終了の旨を配信サーバ200に通知する。配信サーバ200のサーバ処理部212は該通知を受信した場合、視聴端末100へのライブ配信を停止する。 In step S122, the reproduction unit 112 ends the reproduction of the content. That is, the reproduction unit 112 ends the reproduction process. Further, the reproduction unit 112 notifies the distribution server 200 of the end of viewing through the communication unit 114. When receiving the notification, the server processing unit 212 of the distribution server 200 stops the live distribution to the viewing terminal 100.

一方、ステップS118でNOの場合、すなわち、操作受付部111が視聴終了を指示する入力操作を受け付けていない場合、制御部110はさらに、ステップS120の処理を実行する。 On the other hand, if NO in step S118, that is, if the operation receiving unit 111 has not received the input operation for instructing the end of viewing, the control unit 110 further executes the process of step S120.

ステップS120において、制御部110は、ライブ配信が終了したか否かを判定する。例えば、制御部110は通信部114におけるコンテンツの受信が終了した場合に、ライブ配信が終了したと判定してよい。ステップS120でNOの場合、制御部110はステップS116におけるコンテンツ表示処理を継続し、ステップS118からの判定処理を繰り返す。一方、ステップS120でYESの場合、再生部112は、ステップS122の処理を実行する。すなわち、再生部112は、コンテンツの再生を終了させる。 In step S120, the control unit 110 determines whether the live distribution has ended. For example, the control unit 110 may determine that the live distribution has ended when the communication unit 114 has finished receiving the content. If NO in step S120, control unit 110 continues the content display process in step S116, and repeats the determination process from step S118. On the other hand, if YES in step S120, the reproducing unit 112 executes the process of step S122. That is, the reproduction unit 112 ends the reproduction of the content.

(コンテンツの作成)
図5は、配信者によるコンテンツデータの作成の様子を示す図である。配信者701は、配信端末300に対し各種入力を行うことで、コンテンツデータを作成する。
(Creating content)
FIG. 5 is a diagram showing how the distributor creates content data. The distributor 701 creates content data by performing various inputs to the distribution terminal 300.

コンテンツデータは、仮想空間を構築するための定義パラメータと、背景画像を指定するための情報と、配信者のアバターを示すキャラクタオブジェクトを指定する情報と、仮想カメラに係る設定パラメータと、を少なくとも含んでいる。以下、「アバターを示すキャラクタオブジェクト」のことを、単に「アバター」と称する。 The content data includes at least definition parameters for constructing a virtual space, information for designating a background image, information for designating a character object indicating a avatar of a distributor, and setting parameters for a virtual camera. I'm out. Hereinafter, the “character object indicating the avatar” is simply referred to as the “avatar”.

例えば、配信部312は、仮想空間の大きさおよび座標軸系を示す情報をコンテンツデータに含める。また例えば、配信部312は、配信者のアバターを示すキャラクタオブジェクトを決定し、該アバターの表情および動作(モーション)を、リアルタイムで決定する。そして、配信部312はこれら決定したアバターに係る情報を、コンテンツデータに含める。 For example, the distribution unit 312 includes information indicating the size of the virtual space and the coordinate axis system in the content data. Further, for example, the delivery unit 312 determines a character object indicating the avatar of the deliverer, and determines the facial expression and motion (motion) of the avatar in real time. Then, the distribution unit 312 includes the information regarding the determined avatar in the content data.

また例えば、配信部312は、背景画像を取得して、該背景画像をコンテンツデータに含める。なお、配信部312は、背景画像自体ではなく、後に視聴端末100において背景画像を特定可能または取得可能にするための情報をコンテンツデータに含めてもよい。 Further, for example, the distribution unit 312 acquires a background image and includes the background image in the content data. Note that the distribution unit 312 may include, in the content data, not the background image itself, but information that enables the background image to be specified or acquired later in the viewing terminal 100.

なお、配信端末300には、配信者の一部であるモデル702のモーションデータが入力されてもよい。例えば、モーションキャプチャ装置3020の一種として、モデル702にHMDを装着させ、該HMDによってモデル702の頭の位置および姿勢を検出してもよい。そして、配信端末300には、HMDから送信された、頭の位置および姿勢を示す情報がモーションデータとして入力されてもよい。そして、配信部312は、モデル702のモーションデータを、アバターのモーションを指定するデータとしてコンテンツデータに含めてもよい。これにより、後述するように視聴端末100においてコンテンツを再生したときに、モーションデータが示す動きをアバターの動きに反映させることができる。例えば、モデル702の頭の動きに応じて、アバターの頭を動かすことができる。なお、モーションデータとは、モデル702の身体の動きを、モーションキャプチャ装置3020を介して検出して取得したものである。 Note that the motion data of the model 702 that is a part of the distributor may be input to the distribution terminal 300. For example, as a type of the motion capture device 3020, an HMD may be attached to the model 702, and the position and orientation of the head of the model 702 may be detected by the HMD. Then, the information indicating the position and posture of the head transmitted from the HMD may be input to the distribution terminal 300 as motion data. Then, the distribution unit 312 may include the motion data of the model 702 in the content data as data that specifies the motion of the avatar. Thereby, as will be described later, when the content is reproduced on the viewing terminal 100, the movement indicated by the motion data can be reflected in the movement of the avatar. For example, the head of the avatar can be moved according to the movement of the head of the model 702. The motion data is data obtained by detecting the movement of the body of the model 702 via the motion capture device 3020.

また例えば、配信者701は、自分の音声703を、マイク3010を介して配信端末300に入力してもよい。そして、配信端末300の配信部312は、入力された音声データをアバターの音声として、コンテンツデータに含めてもよい。もしくは、配信部312は、入力された音声データと同内容の音声を、アバターの音声としてコンテンツデータに含めてもよい。「同内容の音声」とは、該音声703自体、音声703に所定の音声加工を施した音声、または、音声703の内容を読み上げソフト等で機械発声させた音声を意味する。 Further, for example, the distributor 701 may input his/her voice 703 to the distribution terminal 300 via the microphone 3010. Then, the distribution unit 312 of the distribution terminal 300 may include the input voice data as the voice of the avatar in the content data. Alternatively, the distribution unit 312 may include a voice having the same content as the input voice data in the content data as the voice of the avatar. The “voice having the same content” means the voice 703 itself, a voice obtained by performing a predetermined voice processing on the voice 703, or a voice in which the content of the voice 703 is mechanically uttered by reading software or the like.

配信部312は、リアルタイムに入力されるこれらのデータを随時コンテンツデータとしてまとめて、通信部314を介して配信サーバ200に送信する。これにより、配信サーバ200を仲介として、配信端末300から視聴端末100へ、コンテンツデータを含む情報がライブ配信される。以降、コンテンツデータを含む情報のことを第1情報と称する。 The distribution unit 312 collects these pieces of data input in real time as content data at any time, and transmits the content data to the distribution server 200 via the communication unit 314. Thereby, the information including the content data is delivered live from the delivery terminal 300 to the viewing terminal 100 through the delivery server 200 as an intermediary. Hereinafter, the information including the content data will be referred to as first information.

(コンテンツ表示処理の流れ)
図6は、図4のステップS116に示した再生処理の流れの一例を示す図である。
(Flow of content display processing)
FIG. 6 is a diagram showing an example of the flow of the reproduction process shown in step S116 of FIG.

ステップS200において、視聴端末100の再生部112は、通信部114を介して第1情報を取得する。 In step S200, the reproduction unit 112 of the viewing terminal 100 acquires the first information via the communication unit 114.

ステップS201において、空間定義部112Aは、仮想空間を定義する。空間定義部112Aは、例えば、コンテンツデータに含まれる定義パラメータに基づいて、球状の仮想空間を定義する。 In step S201, the space definition unit 112A defines a virtual space. The space definition unit 112A defines a spherical virtual space, for example, based on the definition parameters included in the content data.

ステップS202において、背景制御部112Bは、定義された仮想空間に背景画像を展開する。具体的には、背景制御部112Bは、コンテンツデータによって指定される1枚の背景画像を、仮想空間に、該空間の球面全体を覆うように貼り付ける。S200〜S202の処理によって、背景画像が展開された仮想空間が構築される。 In step S202, the background control unit 112B develops the background image in the defined virtual space. Specifically, the background control unit 112B pastes one background image specified by the content data in the virtual space so as to cover the entire spherical surface of the space. By the processing of S200 to S202, a virtual space in which the background image is developed is constructed.

ステップS204において、オブジェクト制御部112Cは、仮想空間に第1オブジェクトを配置する。第1オブジェクトとは、配信者のアバターを示すオブジェクトである。オブジェクト制御部112Cは、コンテンツデータに基づいて第1オブジェクトの種類、モデルデータ、および配置位置、姿勢等を決定し、該第1オブジェクトを仮想空間に配置する。 In step S204, the object control unit 112C arranges the first object in the virtual space. The first object is an object indicating the avatar of the distributor. The object control unit 112C determines the type of the first object, the model data, the arrangement position, the posture, and the like based on the content data, and arranges the first object in the virtual space.

ステップS206において、オブジェクト制御部112Cは、仮想空間に第2オブジェクトを配置する。第2オブジェクトとは、後述するように、仮想空間に貼り付けられた背景画像の特定の領域を遮蔽するように設けられるオブジェクトである。第2オブジェクトは立体であっても平面であってもよい。 In step S206, the object control unit 112C arranges the second object in the virtual space. The second object is an object provided so as to shield a specific area of the background image attached to the virtual space, as described later. The second object may be a solid or a plane.

第2オブジェクトの大きさおよび形状は限定されない。例えば、第2オブジェクトは、アバターである第1オブジェクトの立つ土台となるオブジェクトであってもよいし、仮想空間上の天井照明等であってもよい。換言すると、第1オブジェクトは、第2オブジェクト上に、すなわち第2オブジェクトと接するように配置されてもよい。しかしながら、第2オブジェクトは、ライブ配信されるコンテンツにおいて、本来のコンテンツの興趣性を損なわないような大きさおよび形状とされることが望ましい。 The size and shape of the second object are not limited. For example, the second object may be an object that serves as a base on which the first object that is an avatar stands, or may be ceiling lighting in a virtual space. In other words, the first object may be arranged on the second object, that is, in contact with the second object. However, it is desirable that the second object has a size and a shape that do not impair the original interest of the content in the live distribution.

オブジェクト制御部112Cは、コンテンツデータに基づいて第2オブジェクトの種類、モデルデータ、および配置位置、姿勢等を決定し、該第2オブジェクトを仮想空間に配置する。 The object control unit 112C determines the type of the second object, the model data, the placement position, the posture, and the like based on the content data, and places the second object in the virtual space.

ステップS207において、オブジェクト制御部112Cは、第1オブジェクトを、第1情報に含まれているモーションデータに従って動作させる。 In step S207, the object control unit 112C operates the first object according to the motion data included in the first information.

ステップS208において、カメラ制御部112Dは、仮想カメラを仮想空間に配置する。このとき、カメラ制御部112Dは、仮想カメラを仮想空間の中心点とは異なる位置に配置する。仮想カメラの配置位置の例については後で示す。 In step S208, the camera control unit 112D arranges the virtual camera in the virtual space. At this time, the camera control unit 112D arranges the virtual camera at a position different from the center point of the virtual space. An example of the arrangement position of the virtual camera will be shown later.

ステップS210において、描画部112Eは、仮想空間の定義パラメータおよび仮想カメラの位置および角度から、該仮想カメラの視野領域を算出する。 In step S210, the drawing unit 112E calculates the visual field area of the virtual camera from the definition parameter of the virtual space and the position and angle of the virtual camera.

ステップS212において、描画部112Eは、仮想空間のうち算出した視野領域近傍に映し出されるオブジェクトおよび画像等を描画する。換言すると、描画部112Eは、仮想空間のうち算出した視野領域の画像をレンダリングする。 In step S212, the drawing unit 112E draws an object, an image, or the like that appears in the vicinity of the calculated visual field area in the virtual space. In other words, the drawing unit 112E renders the image of the calculated visual field area in the virtual space.

ステップS214において、表示制御部113は、描画部112Eのレンダリングによって得られた視野領域の画像を、表示部152等に表示させる。 In step S214, the display control unit 113 causes the display unit 152 or the like to display the image of the visual field area obtained by the rendering of the drawing unit 112E.

上述のように、コンテンツデータは順次配信サーバ200から配信される。そのため、空間定義部112A、背景制御部112B、およびオブジェクト制御部112Cは、通信部114が取得したコンテンツデータにおいて、仮想空間自体の定義、背景画像、オブジェクトの位置、表情、動き、ならびに、仮想カメラの位置および角度等に変更がある場合、都度該変更を仮想空間に反映させる。これにより、視聴端末100において、コンテンツデータに基づくコンテンツがリアルタイムで再生され表示される。 As described above, the content data is sequentially distributed from the distribution server 200. Therefore, the space definition unit 112A, the background control unit 112B, and the object control unit 112C, in the content data acquired by the communication unit 114, define the virtual space itself, the background image, the position of the object, the facial expression, the movement, and the virtual camera. When there is a change in the position, angle, or the like, the change is reflected in the virtual space each time. As a result, the content based on the content data is reproduced and displayed in real time on the viewing terminal 100.

なお、図6に示す処理のうち、ステップS206の処理は必須ではない。すなわち、オブジェクト制御部112Cは、仮想空間に第2オブジェクトを配置しなくてもよい。また、オブジェクト制御部112Cは、第1および第2オブジェクト以外のオブジェクトを仮想空間に配置してもよい。また、背景制御部112Bは、背景画像以外の画像を仮想空間に貼り付けてもよい。 Of the processing shown in FIG. 6, the processing of step S206 is not essential. That is, the object control unit 112C may not arrange the second object in the virtual space. Further, the object control unit 112C may arrange objects other than the first and second objects in the virtual space. The background control unit 112B may paste an image other than the background image in the virtual space.

前記の処理によれば、中心点とは異なる位置に配置した仮想カメラの視野領域を描画するため、仮想空間の中心をユーザに見せることができる。したがって、ライブ配信におけるコンテンツの興趣性が向上する。 According to the above processing, the visual field area of the virtual camera arranged at a position different from the center point is drawn, so that the center of the virtual space can be shown to the user. Therefore, the interest of the content in the live distribution is improved.

(仮想空間の一例)
図7の状態(A)は、前記配信システムにおいて構築される仮想空間の一例を示す図である。仮想空間600は、中心点601を中心とし、北極点602および南極点603を結んだ360度方向の全体を覆う全球状の構造を有する。図7の状態(A)では、説明を複雑にしないために、仮想空間600のうちの、地平線604から上半分の半球を例示している。実際の仮想空間は、下半球も同様に背景画像およびオブジェクトが配置され得る。また、仮想空間600において図示される緯線および経線は説明のためのものであり、実際の仮想空間を定義および構築する際は、該緯線および経線は無くて良い。
(Example of virtual space)
The state (A) of FIG. 7 is a diagram showing an example of a virtual space constructed in the distribution system. The virtual space 600 has a spherical structure centering on the center point 601 and covering the entire 360-degree direction connecting the north pole 602 and the south pole 603. In the state (A) of FIG. 7, a hemisphere in the upper half of the horizon 604 in the virtual space 600 is illustrated for the sake of simplicity. In the actual virtual space, the background image and the object can be arranged in the lower hemisphere as well. In addition, the latitude lines and the longitude lines shown in the virtual space 600 are for the purpose of description, and the latitude lines and the longitude lines may be omitted when the actual virtual space is defined and constructed.

仮想空間600では、中心点601を原点とするXYZ座標系が規定される。XYZ座標系は、例えば、実座標系に平行である。XYZ座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸(水平方向)が実座標系のx軸と平行であり、XYZ座標系のY軸(鉛直方向)が実座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)が実座標系のz軸と平行である。 In the virtual space 600, an XYZ coordinate system whose origin is the center point 601 is defined. The XYZ coordinate system is, for example, parallel to the real coordinate system. The horizontal direction, the vertical direction (vertical direction), and the front-back direction in the XYZ coordinate system are defined as the X axis, the Y axis, and the Z axis, respectively. Therefore, the X axis of the XYZ coordinate system (horizontal direction) is parallel to the x axis of the real coordinate system, the Y axis of the XYZ coordinate system (vertical direction) is parallel to the y axis of the real coordinate system, and the X axis of the XYZ coordinate system is The Z axis (front-back direction) is parallel to the z axis of the real coordinate system.

空間定義部112Aが図7の状態(A)に示すような天球状の仮想空間600を定義すると、背景制御部112Bは、該仮想空間600の内側に、360度の全方位画像である背景画像630を貼り付ける。 When the space definition unit 112A defines the celestial spherical virtual space 600 as shown in the state (A) of FIG. 7, the background control unit 112B inside the virtual space 600 is a background image that is a 360-degree omnidirectional image. Paste 630.

オブジェクト制御部112Cは、仮想空間600に、アバターの第1オブジェクト610を配置する。以降、第1オブジェクトのことをアバターとも称する。また、オブジェクト制御部112Cは、仮想空間600に第2オブジェクト620を配置してもよい。図示の例では、第2オブジェクト620は、アバター610の立つ土台のオブジェクトである。 The object control unit 112C arranges the first object 610 of the avatar in the virtual space 600. Hereinafter, the first object is also referred to as an avatar. In addition, the object control unit 112C may arrange the second object 620 in the virtual space 600. In the illustrated example, the second object 620 is a base object on which the avatar 610 stands.

カメラ制御部112Dは、仮想空間600に、仮想カメラ640を配置する。ここで、カメラ制御部112Dは、仮想カメラ640を仮想空間600の中心点およびその近傍ではない、任意の位置に任意の角度で配置される。仮想カメラ640の位置および角度は、コンテンツデータで規定される。 The camera control unit 112D arranges the virtual camera 640 in the virtual space 600. Here, the camera control unit 112D arranges the virtual camera 640 at an arbitrary position other than the center point of the virtual space 600 and the vicinity thereof at an arbitrary angle. The position and angle of the virtual camera 640 are specified by the content data.

図7の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図7の状態(A)の例では、カメラ制御部112Dは仮想カメラ640を、アバター610の顔と同程度の高さで配置している。仮想カメラ640の視界領域は、仮想空間600のうち、視聴者が視聴端末100を介して視認可能な領域であるといえる。つまり、仮想カメラ640の位置および角度は、仮想空間600における視聴者の視点と同じであるといえる。図7の状態(A)の仮想カメラ640場合、図7の状態(B)に示す通り、アバター610を略真横から見る視点での視野領域の画像700が描画され、表示部152に表示される。 The state (B) of FIG. 7 is a diagram showing an example of an image of the visual field area of the virtual camera shown in the state (A). In the example of the state (A) of FIG. 7, the camera control unit 112D arranges the virtual camera 640 at the same height as the face of the avatar 610. It can be said that the view area of the virtual camera 640 is an area of the virtual space 600 that can be viewed by the viewer via the viewing terminal 100. That is, it can be said that the position and angle of the virtual camera 640 are the same as the viewpoint of the viewer in the virtual space 600. In the case of the virtual camera 640 in the state (A) of FIG. 7, as shown in the state (B) of FIG. 7, an image 700 of the visual field area from the viewpoint of viewing the avatar 610 from almost right side is drawn and displayed on the display unit 152. ..

このように、再生部112は、空間定義部112A、背景制御部112B、およびオブジェクト制御部112Cの協働により、仮想空間600を構築する。そして、カメラ制御部112Dによって、仮想カメラ640が配置され、描画部112Eによって、仮想カメラ640の視点からの視野領域の画像700が描画される。そして、表示制御部113により、描画された視野領域の画像700が表示部に表示される。 In this way, the reproduction unit 112 constructs the virtual space 600 by the cooperation of the space definition unit 112A, the background control unit 112B, and the object control unit 112C. Then, the camera control unit 112D arranges the virtual camera 640, and the drawing unit 112E draws the image 700 of the visual field area from the viewpoint of the virtual camera 640. Then, the display control unit 113 displays the drawn visual field image 700 on the display unit.

ここで、第2オブジェクト620はアバター610の立つ土台のオブジェクトであり、仮想カメラ640から見て第2オブジェクト620より後方の領域(特定領域)は仮想カメラ640から遮蔽された領域となる。換言すると、例えば背景画像を撮影したカメラの写り込み部分等、視聴者に隠したい領域(特定領域)の位置に合わせて第2オブジェクト620を配置すれば、その領域は第2オブジェクト620に遮蔽されて、視聴者からは見えないようにすることができる。 Here, the second object 620 is an object on which the avatar 610 stands, and an area (specific area) behind the second object 620 as viewed from the virtual camera 640 is an area shielded from the virtual camera 640. In other words, if the second object 620 is arranged in accordance with the position of a region (specific region) that the viewer wants to hide, such as a reflection part of the camera that captured the background image, the region is shielded by the second object 620. And can be hidden from the viewer.

(仮想空間の他の一例)
なお、オブジェクト制御部112Cは、仮想カメラからの視野領域において、仮想空間の北極点、南極点、または地平線に重畳するように第2オブジェクトを配置してもよい。
(Another example of virtual space)
The object control unit 112C may arrange the second object so as to overlap the north pole, the south pole, or the horizon of the virtual space in the field of view from the virtual camera.

図8の状態(A)は、前記配信システムにおいて構築される仮想空間の他の一例を示す図である。図8の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図8の状態(A)の例では、オブジェクト制御部112Cは、仮想カメラ640の視野領域に北極点およびその周辺領域(特定領域)が入る際に、該北極点近傍の背景画像630が隠れるような所定位置に、第2オブジェクト621を配置している。 The state (A) of FIG. 8 is a diagram showing another example of the virtual space constructed in the distribution system. The state (B) of FIG. 8 is a diagram showing an example of an image of the visual field area of the virtual camera shown in the state (A). In the example of the state (A) of FIG. 8, the object control unit 112C hides the background image 630 near the north pole when the north pole and the peripheral area (specific area) enter the visual field area of the virtual camera 640. The second object 621 is arranged at such a predetermined position.

背景画像630は、仮想空間600の球面全体を覆う画像、すなわち、全方位画像である。全方位画像を仮想空間600の球内面に貼り付けた場合、該球の北極点602、南極点603、および地平線604の近傍の少なくとも1つに、背景画像の歪みが生じる可能性がある。このような背景画像の歪みが生じ得る領域(特定領域)を遮蔽するように、当該領域の近傍に第2オブジェクト621を配置することで、背景画像の歪みを目立たなくすることができる。 The background image 630 is an image that covers the entire spherical surface of the virtual space 600, that is, an omnidirectional image. When the omnidirectional image is pasted on the inner surface of the sphere in the virtual space 600, the background image may be distorted in at least one of the north pole 602, the south pole 603, and the horizon 604 of the sphere. By disposing the second object 621 in the vicinity of the region where the distortion of the background image may occur (specific region), the distortion of the background image can be made inconspicuous.

例えば、同図における仮想カメラ640の位置および角度のように、アバター610を見上げるようなカメラアングルの場合でも、図8の状態(B)に示すように、視野領域の画像800では北極点およびその周辺領域(特定領域)が第2オブジェクト621で遮蔽された状態となるため、視聴者からは背景画像の歪みが見えないようにすることができる。 For example, even when the camera angle is such that the avatar 610 is looked up like the position and angle of the virtual camera 640 in the same figure, as shown in the state (B) of FIG. Since the peripheral area (specific area) is shielded by the second object 621, the distortion of the background image can be hidden from the viewer.

(仮想空間の他の一例)
なお、オブジェクト制御部112Cは、仮想カメラからの視野領域において、背景画像における特定領域に遮蔽するように第2オブジェクトを配置してもよい。
(Another example of virtual space)
It should be noted that the object control unit 112C may arrange the second object so as to cover the specific area in the background image in the visual field from the virtual camera.

図9の状態(A)は、前記配信システムにおいて構築される仮想空間の他の一例を示す図である。図9の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図9の状態(A)の例では、オブジェクト制御部112Cは図示のように、地平線604から垂直に、第2オブジェクト622を配置する。 The state (A) of FIG. 9 is a diagram showing another example of the virtual space constructed in the distribution system. The state (B) of FIG. 9 is a diagram showing an example of an image of the visual field area of the virtual camera shown in the state (A). In the example of the state (A) of FIG. 9, the object control unit 112C arranges the second object 622 vertically from the horizon 604 as illustrated.

背景画像630は全方位画像であるため、作成の際に、該全方位画像の元となる元画像の形およびサイズに応じて、一部の領域に歪みが生じる可能性がある。このような画像の歪みが生じ得る領域(特定領域)を仮想カメラ640で映す際に、第2オブジェクト622が該領域を遮蔽するよう配置される。したがって、視聴者からは背景画像の歪みが見えないようにすることができる。 Since the background image 630 is an omnidirectional image, when it is created, distortion may occur in a part of the region depending on the shape and size of the original image that is the source of the omnidirectional image. When an area (specific area) where such image distortion may occur is displayed by the virtual camera 640, the second object 622 is arranged so as to shield the area. Therefore, it is possible to prevent the viewer from seeing the distortion of the background image.

例えば、図9の状態(B)に示すように、特定領域を第2オブジェクト622で遮蔽された状態とすることが可能であるため、視野領域の画像900において、背景画像630の歪みが見えないようにすることができる。 For example, as shown in the state (B) of FIG. 9, since it is possible to make the specific region occluded by the second object 622, the distortion of the background image 630 cannot be seen in the image 900 of the visual field region. You can

(ライブ配信の視聴までの流れ)
視聴端末100によるライブ配信の選択および視聴開始の操作は、地図を用いたGUIにより行われてもよい。
(Flow until viewing live stream)
The operation of selecting live distribution and starting viewing by the viewing terminal 100 may be performed by a GUI using a map.

図10は、視聴端末100の表示画面の一例を示す図である。図示の通り、表示画面1700には、地図データに基づく地図と、ライブ配信を視聴可能なエリア1701(図中の灰色サークル)とが表示される。ここで、地図データは視聴端末100の記憶部120に記憶されていてもよいし、外部サーバ等から適宜取得されてもよい。また、表示画面1700には、エリア1701と対応付けて、ライブ配信の日時、内容等を示すメッセージ1702、および、ライブ配信の開始を指示するアイコン1703が表示されてもよい。また、表示画面1700には、視聴端末100の現在位置、すなわちユーザの現在位置を示すアイコン1704が表示されてもよい。さらに、表示画面1700には、地図データに対応した建物や風景等のオブジェクト1705が表示されてもよい。 FIG. 10 is a diagram showing an example of a display screen of the viewing terminal 100. As shown in the figure, the display screen 1700 displays a map based on the map data and an area 1701 (gray circle in the figure) where the live distribution can be viewed. Here, the map data may be stored in the storage unit 120 of the viewing terminal 100, or may be appropriately acquired from an external server or the like. Further, on the display screen 1700, a message 1702 indicating the date and time of the live distribution, contents, and the like, and an icon 1703 for instructing to start the live distribution may be displayed in association with the area 1701. Further, the display screen 1700 may display an icon 1704 indicating the current position of the viewing terminal 100, that is, the current position of the user. Further, on the display screen 1700, an object 1705 such as a building or landscape corresponding to the map data may be displayed.

視聴端末100の現在位置の情報は、視聴端末100がGPS(Global Positioning System)受信機(図示せず)を備え、GPSの電波を受信することで得ることができる。GPS受信機は、得られた電波が示す、現在位置の位置用法を制御部110に送信し、制御部110はこれを取得する。 The information on the current position of the viewing terminal 100 can be obtained when the viewing terminal 100 includes a GPS (Global Positioning System) receiver (not shown) and receives GPS radio waves. The GPS receiver transmits the position usage of the current position indicated by the obtained radio waves to the control unit 110, and the control unit 110 acquires this.

また、ライブ配信を視聴可能なエリアを示す情報、ライブ配信が配信される時間帯等、ライブ配信に係る情報、および、ライブ配信の状態を示す情報は、制御部110が配信サーバ200から定期的に受信し、表示画面1700および表示画面1800に表示される情報に反映させる。 Further, the control unit 110 periodically receives information from the distribution server 200 from the distribution server 200, such as information indicating an area in which the live distribution can be viewed, information regarding the live distribution such as a time period when the live distribution is distributed, and information indicating the status of the live distribution. To the information displayed on the display screen 1700 and the display screen 1800.

図11は、図10に示した表示画面に対するユーザの第1入力操作の一例を示す図である。第1入力操作とは、地図を表示した表示画面において、該地図上のある地点を指定するための入力操作である。図示の例では、表示画面1800において、ユーザ(アイコン1703)がライブ配信を視聴可能なエリア1701内にいる状態で、ライブ配信の開始を指示するアイコン1703を選択する入力操作を行った場合に、該入力操作が第1入力操作として受け付けられる。 FIG. 11 is a diagram showing an example of the user's first input operation on the display screen shown in FIG. 10. The first input operation is an input operation for designating a certain point on the map on the display screen displaying the map. In the illustrated example, when the user (icon 1703) is in the area 1701 where the live distribution can be viewed on the display screen 1800, when an input operation for selecting the icon 1703 for instructing the start of the live distribution is performed, The input operation is accepted as the first input operation.

操作受付部111が第1入力操作を受け付けると、制御部110はライブ配信を特定し、そのコンテンツデータを配信サーバ200から受信する。コンテンツデータを受信すると、再生部112が図6に示した処理、すなわち、仮想空間の構築、仮想カメラの配置、および視野画像の描画を実行する。これにより、ユーザはライブ配信を視聴することができる。換言すると、現在位置の位置情報が示す、視聴端末100の地図上での位置と、第1入力操作により指定された地点との距離が所定範囲内である場合に、再生部112の空間定義部112Aおよび背景制御部112Bは、ライブ配信されるコンテンツのための仮想空間を協働して構築する。 When the operation receiving unit 111 receives the first input operation, the control unit 110 identifies the live distribution and receives the content data from the distribution server 200. When the content data is received, the reproduction unit 112 executes the processing shown in FIG. 6, that is, the construction of the virtual space, the placement of the virtual camera, and the drawing of the view image. This allows the user to watch the live distribution. In other words, when the distance between the position on the map of the viewing terminal 100 indicated by the position information of the current position and the point designated by the first input operation is within the predetermined range, the space definition unit of the reproduction unit 112. 112A and the background control unit 112B cooperate to build a virtual space for lively distributed content.

なお、ライブ配信は配信される時間帯が決まっていてもよい。また、図10および図11に示すように、ライブ配信の状態、例えばライブ配信中か否かに応じて、メッセージ1702の内容が変更されてもよい。 It should be noted that in the live distribution, the distribution time period may be fixed. Further, as shown in FIGS. 10 and 11, the content of the message 1702 may be changed depending on the state of live distribution, for example, whether or not live distribution is in progress.

図12は、ライブ配信されたコンテンツを視聴している際の視聴端末100の表示画面を示している。ユーザがアイコン1703を選択する入力操作を行うと、ライブ配信の視聴が開始され、視聴端末100には表示画面1900が表示される。図示の通り、表示画面1900には、配信者のアバター1901が少なくとも含まれる。表示画面1900では、背景画像1902として、配信者のアバター1901が配置された地図上の地点の周囲360度の、現実空間上の風景を撮影した画像が表示される。そして、アバター1901および第2オブジェクト1903等は該背景画像の特定の領域を遮蔽する位置に表示されてもよい。 FIG. 12 shows a display screen of the viewing terminal 100 when viewing live distributed content. When the user performs an input operation of selecting the icon 1703, viewing of the live distribution is started, and the display screen 1900 is displayed on the viewing terminal 100. As shown, the display screen 1900 includes at least the avatar 1901 of the distributor. On the display screen 1900, as the background image 1902, an image obtained by photographing a landscape in the physical space around 360 degrees around the point where the distributor avatar 1901 is arranged is displayed. Then, the avatar 1901, the second object 1903, and the like may be displayed at positions that shield a specific area of the background image.

ここで、図示の通り、第2オブジェクト1903はアバター1901の立つ土台のオブジェクトであり、第2オブジェクト1903より下の領域(特定領域)を仮想カメラから遮蔽している。換言すると、例えば背景画像を撮影したカメラの写り込み部分等、視聴者に隠したい領域(特定領域)の位置に合わせて第2オブジェクト1903を配置すれば、その領域は第2オブジェクト1903に遮蔽されて、視聴者からは見えないようにすることができる。 Here, as shown in the figure, the second object 1903 is an object on the base on which the avatar 1901 stands, and shields a region (specific region) below the second object 1903 from the virtual camera. In other words, if the second object 1903 is arranged in accordance with the position of the area (specific area) that the viewer wants to hide, such as the reflection part of the camera that captured the background image, the area is shielded by the second object 1903. And can be hidden from the viewer.

〔実施形態2〕
配信端末300は、ゲームシステムに含まれるゲーム端末を用いて、配信者がプレイしているゲームのプレイ画面の画像を取得してもよい。そして、再生部112は、全方位画像と、配信者のアバターを示す第1オブジェクトと、ゲームのプレイ画面の画像を表示する第3オブジェクトと、を少なくとも配置した仮想空間を構築してもよい。なお、本実施形態においては、仮想カメラの配置位置は、仮想空間の、該仮想空間の中心点とは異なる位置であって、中心点を視野領域に含む位置であってもよいし、該位置以外の位置でもよい。また、コンテンツデータはライブ配信される「ライブコンテンツ」であってもよいし、録画されたデータである「録画コンテンツ」であってもよい。以下、「ライブコンテンツ」および「録画コンテンツ」のことを、総称して単に「コンテンツ」と称する。
[Embodiment 2]
The distribution terminal 300 may acquire the image of the play screen of the game played by the distributor using the game terminal included in the game system. Then, the reproducing unit 112 may construct a virtual space in which at least the omnidirectional image, the first object indicating the avatar of the distributor, and the third object displaying the image of the game play screen are arranged. In the present embodiment, the position of the virtual camera may be a position in the virtual space different from the center point of the virtual space, and the position may include the center point in the visual field region. Other positions may be used. The content data may be “live content” that is delivered live, or may be “recorded content” that is recorded data. Hereinafter, “live content” and “recorded content” are collectively referred to simply as “content”.

(システム概要)
図13は、本実施形態に係る配信システム2の概要を示す図である。図13は、ゲーム端末400を含む点で、図1に示した配信システム1と異なる。
(System overview)
FIG. 13 is a diagram showing an outline of the distribution system 2 according to this embodiment. FIG. 13 differs from the distribution system 1 shown in FIG. 1 in that the game terminal 400 is included.

ゲーム端末400は、配信者がゲームをプレイするための端末である。ゲーム端末400は、配信端末300に、該ゲームのプレイ画面の画像を随時送信する。これにより、配信者は、配信端末300においてコンテンツデータを作成する際に、該プレイ画面を含んだコンテンツのコンテンツデータを作成することができる。 The game terminal 400 is a terminal for a distributor to play a game. The game terminal 400 transmits the image of the play screen of the game to the distribution terminal 300 at any time. Thereby, the distributor can create the content data of the content including the play screen when creating the content data in the distribution terminal 300.

ゲーム端末400は、他のゲーム端末または図示しないゲームサーバとともに、ゲーム端末400を含むゲームシステムであってもよい。すなわち、ゲームシステムに含まれるあるゲーム端末400を用いて配信者がゲームをプレイすると、該ゲームのプレイ画像が、該ゲーム端末400またはゲームサーバから、配信端末300に送信される構成であってもよい。 The game terminal 400 may be a game system including the game terminal 400 together with another game terminal or a game server (not shown). That is, even when the distributor plays a game using a certain game terminal 400 included in the game system, a play image of the game is transmitted from the game terminal 400 or the game server to the distribution terminal 300. Good.

(仮想空間)
図14の状態(A)は、配信システム2において構築される仮想空間の他の一例を示す図である。同図に示す仮想空間1000には、背景画像1030が貼り付けられ、アバター1010と、仮想カメラ1040とが配置されている。なお、同図では図示していないが、本実施形態においても、仮想空間1000に第2オブジェクトが配置されてもよい。また、同図の例では、アバターの座る椅子オブジェクト1060が併せて配置されている。
(Virtual space)
The state (A) of FIG. 14 is a diagram showing another example of the virtual space constructed in the distribution system 2. In the virtual space 1000 shown in the figure, a background image 1030 is pasted, and an avatar 1010 and a virtual camera 1040 are arranged. Although not shown in the figure, the second object may be arranged in the virtual space 1000 in this embodiment as well. Further, in the example of the figure, a chair object 1060 on which an avatar sits is also arranged.

本実施形態においては、オブジェクト制御部112Cは、配信者がプレイしているゲームのプレイ画面の画像を表示する第3オブジェクト1021を、仮想空間1000に配置する。例えば、図示のように、第3オブジェクト1021は、テレビおよびパーソナルコンピュータ等を模したオブジェクトであってもよい。第3オブジェクト1021の少なくとも一部領域には、ゲームのプレイ画面の画像1050が表示される。なお、オブジェクト制御部112Cは、プレイ画面を表示可能な第3オブジェクトを配置してもよいし、見かけ上第3オブジェクト上にプレイ画面が表示されているように、第3オブジェクトと、プレイ画面の画像とを貼り付けて、または仮想カメラ1040から見たときに重畳するように配置してもよい。 In the present embodiment, the object control unit 112C arranges the third object 1021 that displays the image of the play screen of the game played by the distributor in the virtual space 1000. For example, as illustrated, the third object 1021 may be an object imitating a television, a personal computer, or the like. An image 1050 of the game play screen is displayed in at least a partial area of the third object 1021. Note that the object control unit 112C may arrange a third object capable of displaying the play screen, or the third object and the play screen may be displayed so that the play screen is apparently displayed on the third object. The image may be pasted or arranged so as to be superimposed when viewed from the virtual camera 1040.

図14の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図14の状態(A)の例では、カメラ制御部112Dは仮想カメラ1040を、アバター1010の頭と同程度の高さで、かつアバター1010の背後に配置している。図14の状態(A)の仮想カメラ1040場合、図14の状態(B)に示す通り、第3オブジェクト1021に表示されたプレイ画面を見ているアバター1010を、真後ろから映すような視点で視野領域の画像が描画され、表示部152に表示される。 The state (B) of FIG. 14 is a diagram showing an example of an image of the visual field area of the virtual camera shown in the state (A). In the example of the state (A) of FIG. 14, the camera control unit 112D arranges the virtual camera 1040 at the same height as the head of the avatar 1010 and behind the avatar 1010. In the case of the virtual camera 1040 in the state (A) of FIG. 14, as shown in the state (B) of FIG. 14, the field of view of the avatar 1010 looking at the play screen displayed on the third object 1021 is seen from directly behind. An image of the area is drawn and displayed on the display unit 152.

(仮想カメラの切替え1)
カメラ制御部112Dは、視聴端末100において特定の第2入力操作が受け付けられたことに応答して、仮想カメラ1040の位置および角度を、前記アバターに対応する配信者の視点と略同様の位置および角度に切替えてもよい。
(Switching virtual camera 1)
In response to the reception of the specific second input operation in the viewing terminal 100, the camera control unit 112D sets the position and angle of the virtual camera 1040 to a position substantially similar to the viewpoint of the distributor corresponding to the avatar. You may switch to an angle.

なお、仮想カメラの位置および角度を切替えるための具体的方法は特に限定されない。例えば、カメラ制御部112Dは、仮想空間内に配置している仮想カメラの位置および角度を移動させてもよい。また、カメラ制御部112Dは、仮想空間内に配置している仮想カメラを一旦削除し、切替後の位置および角度に、仮想カメラを再配置してもよい。 The specific method for switching the position and angle of the virtual camera is not particularly limited. For example, the camera control unit 112D may move the position and the angle of the virtual camera arranged in the virtual space. Further, the camera control unit 112D may temporarily delete the virtual camera arranged in the virtual space and rearrange the virtual camera at the position and the angle after the switching.

また、複数の仮想カメラを異なる位置および角度で仮想空間に配置しておき、カメラ制御部112Dが使用する仮想カメラを逐次切り替えてもよい。そして、例えば描画部112Eにおいて、いずれの仮想カメラの視野画像をレンダリングするかを定めてレンダリングを実行してもよい。 Alternatively, a plurality of virtual cameras may be arranged in different positions and angles in the virtual space, and the virtual cameras used by the camera control unit 112D may be sequentially switched. Then, for example, in the drawing unit 112E, it may be determined which virtual camera field-of-view image is to be rendered and rendering is performed.

図15の状態(A)は、第2入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。第2入力操作が受け付けられると、カメラ制御部112Dは、仮想カメラをアバター1010の視点と略同様の位置、すなわち、プレイ画面1050に対する配信者の視点と略同様の位置および角度に切替える。図15の状態(A)の場合、アバター1010の視界領域をαで示している。なお、実際の仮想空間1000ではアバター1010と仮想カメラ1040は重畳しているが、図面の見易さのため仮想カメラ1040は図示していない。 The state (A) of FIG. 15 is a diagram showing the virtual space after the second input operation is performed and the position and angle of the virtual camera are switched. When the second input operation is accepted, the camera control unit 112D switches the virtual camera to a position substantially the same as the viewpoint of the avatar 1010, that is, a position and an angle substantially the same as the distributor's viewpoint with respect to the play screen 1050. In the state (A) of FIG. 15, the view area of the avatar 1010 is indicated by α. Although the avatar 1010 and the virtual camera 1040 are superimposed in the actual virtual space 1000, the virtual camera 1040 is not shown for the sake of easy viewing of the drawing.

図15の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図15の状態(A)に示すアバター1010の視点の場合、同図の領域αが視野領域の画像となる。したがって、図15の状態(B)に示すように、第3オブジェクト1021およびプレイ画面1050のアップ画面が、視野領域の画像として描画および表示される。 The state (B) of FIG. 15 is a diagram showing an example of an image of the visual field area of the virtual camera shown in the state (A). In the case of the viewpoint of the avatar 1010 shown in the state (A) of FIG. 15, the area α in the figure is the image of the visual field area. Therefore, as shown in the state (B) of FIG. 15, the up screen of the third object 1021 and the play screen 1050 is drawn and displayed as an image of the visual field area.

これにより、視聴端末100のユーザの第2入力操作に応じて、仮想カメラ1040を、配信者の視野と略同様の領域を映す位置および角度に切替えることができる。したがって、視聴端末100のユーザ、すなわち視聴者は、自身の入力操作に応じて配信者の視点をトレースした映像を視聴することができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。 Thereby, the virtual camera 1040 can be switched to a position and an angle at which an area substantially similar to the field of view of the distributor is displayed in accordance with the second input operation of the user of the viewing terminal 100. Therefore, the user of the viewing terminal 100, that is, the viewer can view the video traced from the distributor's viewpoint according to the input operation of the user. Therefore, it is possible to increase the degree of freedom of camera work of the content, and thus to enhance the interest of the content.

(仮想カメラの切替え2)
カメラ制御部112Dは、アバター1010の持ち物を示す第4オブジェクト1041を仮想空間1000に配置してもよい。そして、カメラ制御部112Dは、視聴端末100において特定の第3入力操作が受け付けられたことに応答して、仮想カメラ1040の位置および角度を、前記第4オブジェクトの位置および向きと略同様の位置および角度に切替えてもよい。
(Switching virtual camera 2)
The camera control unit 112D may arrange the fourth object 1041 indicating the belongings of the avatar 1010 in the virtual space 1000. Then, in response to the reception of the specific third input operation in the viewing terminal 100, the camera control unit 112D sets the position and angle of the virtual camera 1040 to a position substantially similar to the position and orientation of the fourth object. And the angle may be switched.

図16の状態(A)は、第3入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。第3入力操作が受け付けられると、カメラ制御部112Dは、仮想カメラをアバター1010の持ち物である第4オブジェクト1041の位置および向きに応じた位置および角度に切替える。図示の例では、アバター1010の持ち物とは、アバター1010が手に持っているカメラオブジェクト1041である。図15の状態(A)の場合、第4オブジェクト1041は、アバター1010の顔の方を向いている。なお、実際の仮想空間1000ではカメラオブジェクト1041と仮想カメラ1040は重畳しているが、図面の見易さのため仮想カメラ1040は図示していない。 The state (A) of FIG. 16 is a diagram illustrating the virtual space after the third input operation is performed and the position and the angle of the virtual camera are switched. When the third input operation is accepted, the camera control unit 112D switches the virtual camera to the position and angle according to the position and orientation of the fourth object 1041 that is the property of the avatar 1010. In the illustrated example, the belongings of the avatar 1010 are the camera objects 1041 held by the avatar 1010. In the state (A) of FIG. 15, the fourth object 1041 faces the face of the avatar 1010. Although the camera object 1041 and the virtual camera 1040 are superimposed in the actual virtual space 1000, the virtual camera 1040 is not shown for the sake of easy viewing of the drawing.

図16の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図16の状態(B)に示すように、第4オブジェクト1041の視点からの視野領域の画像1300は、第4オブジェクトの向いている方向、すなわち、アバター1010の顔の方向を映す。 The state (B) of FIG. 16 is a diagram showing an example of an image of the visual field area of the virtual camera shown in the state (A). As shown in the state (B) of FIG. 16, the image 1300 of the visual field area from the viewpoint of the fourth object 1041 reflects the direction in which the fourth object is facing, that is, the direction of the face of the avatar 1010.

これにより、視聴端末100のユーザの第3入力操作に応じて、仮想カメラを、アバターの持ち物の視点と略同様の視点からの視野画像を映す位置および角度に切替えることができる。したがって、視聴端末100のユーザ、すなわち視聴者は、自身の入力操作に応じてアバターの持ち物視点からの映像を視聴することができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。 Accordingly, the virtual camera can be switched to a position and an angle at which the visual field image is viewed from a viewpoint substantially similar to the viewpoint of the property of the avatar, according to the third input operation of the user of the viewing terminal 100. Therefore, the user of the viewing terminal 100, that is, the viewer can view the image from the viewpoint of the belongings of the avatar according to the input operation of the user. Therefore, it is possible to increase the degree of freedom of camera work of the content, and thus to enhance the interest of the content.

(仮想カメラの追加)
カメラ制御部112Dは、仮想カメラを複数配置してもよい。また、カメラ制御部112Dは、視聴端末100において特定の第4入力操作が受け付けられたことに応答して、仮想カメラ1040と異なる第2仮想カメラ(すなわち、第2仮想視点)を、第1オブジェクトの特定部位が映る位置および角度で配置してもよい。ここで、アバターの特定部位とは、例えばアバターの顔または手元である。また、描画部112Eは、仮想カメラの視野領域の画像と、第2仮想カメラの視野領域の画像との両方を含む画像をレンダリングしてもよい。
(Adding a virtual camera)
The camera control unit 112D may arrange a plurality of virtual cameras. In addition, the camera control unit 112D sets a second virtual camera (that is, a second virtual viewpoint) different from the virtual camera 1040 to the first object in response to the specific fourth input operation accepted by the viewing terminal 100. You may arrange|position at the position and angle which the specific part of is reflected. Here, the specific part of the avatar is, for example, the face or the hand of the avatar. Further, the drawing unit 112E may render an image including both an image in the visual field area of the virtual camera and an image in the visual field area of the second virtual camera.

図17の状態(A)は、第4入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。第4入力操作が受け付けられると、カメラ制御部112Dは、第2仮想カメラ1070を、アバター1010の特定部位が映る位置および角度で仮想空間1000に配置する。図示の例では、第2仮想カメラ1070は、アバター1010の顔が映る位置および角度で配置される。 The state (A) of FIG. 17 is a diagram showing the virtual space after the fourth input operation is performed and the position and angle of the virtual camera are switched. When the fourth input operation is accepted, the camera control unit 112D arranges the second virtual camera 1070 in the virtual space 1000 at a position and an angle where a specific part of the avatar 1010 is reflected. In the illustrated example, the second virtual camera 1070 is arranged at a position and an angle at which the face of the avatar 1010 is reflected.

図17の状態(B)は、状態(A)に示す仮想カメラ1040および第2仮想カメラ1070の視野領域の画像1400の一例を示す図である。図16の状態(B)に示すように、描画部112Eは視野領域の画像として、仮想カメラ1040の視野領域の画像1400に、第2仮想カメラ1070の視野領域の画像1080を重畳して表示する。なお、第2仮想カメラ1070の視野領域の画像は、図示の通り全部ではなく一部の領域だけ表示されてもよい。 The state (B) of FIG. 17 is a diagram showing an example of an image 1400 of the visual field regions of the virtual camera 1040 and the second virtual camera 1070 shown in the state (A). As shown in the state (B) of FIG. 16, the drawing unit 112E displays, as an image of the visual field area, an image 1080 of the visual field area of the second virtual camera 1070 by superimposing it on the image 1400 of the visual field area of the virtual camera 1040. .. Note that the image of the field of view of the second virtual camera 1070 may be displayed only in a part of the area instead of the entire area as illustrated.

これにより、視聴端末100のユーザの第4入力操作に応じて、アバターの特定部位を第2仮想カメラ1070で映すことができる。したがって、視聴者は、自身の入力操作に応じて、仮想カメラによる視野領域の映像と、第2仮想カメラによるアバターの特定部位の映像との両方を同時に見ることができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。 Thereby, the specific portion of the avatar can be displayed on the second virtual camera 1070 in accordance with the fourth input operation by the user of the viewing terminal 100. Therefore, the viewer can simultaneously view both the image of the field of view by the virtual camera and the image of the specific part of the avatar by the second virtual camera according to the input operation of the viewer. Therefore, it is possible to increase the degree of freedom of camera work of the content, and thus to enhance the interest of the content.

また、視聴端末100において所定の入力操作が受け付けられた場合、描画部112Eは、仮想カメラ1010の視野領域の画像1400と、第2仮想カメラ1070の視野領域の画像1080とを入れ替えて描画してもよい。 In addition, when a predetermined input operation is accepted in the viewing terminal 100, the drawing unit 112E replaces and draws the image 1400 of the visual field area of the virtual camera 1010 and the image 1080 of the visual field area of the second virtual camera 1070. Good.

(仮想カメラの切替え3)
視聴端末100において特定の第5入力操作が受け付けられた場合、カメラ制御部112Dは、仮想カメラ1040の位置および角度を、第1オブジェクトの特定部位が映る位置および角度に切替えてもよい。
(Switching virtual cameras 3)
When the specific fifth input operation is received by the viewing terminal 100, the camera control unit 112D may switch the position and the angle of the virtual camera 1040 to the position and the angle at which the specific part of the first object appears.

図18の状態(A)は、第5入力操作がなされて仮想カメラ1040の位置および角度が切替えられた後の仮想空間を示す図である。第5入力操作が受け付けられると、カメラ制御部112Dは、仮想カメラ1040の位置および角度を、アバター1010の特定部位が映る位置および角度に切替える。図18の状態(A)の場合、カメラ制御部112Dは、アバター1010の顔が正面から見える位置および角度に仮想カメラ1040を配置する。なお、仮想カメラ1040の位置および角度は、アバター1010の特定部位の位置に対して相対的に定められる。したがって、カメラ制御部112Dは、アバター1010の特定部位の位置および角度が変化した場合、変化後の位置および角度に応じた相対位置に仮想カメラ1040を移動または配置し直す。つまり、アバター1010の特定部位が動いたら、仮想カメラ1040も所定の相対位置となるように追従して移動する。このように、アバター1010の特定部位が動いても仮想カメラ1040も追従して動くので、アバター1010の特定部位を常に撮影できる。 The state (A) of FIG. 18 is a diagram showing the virtual space after the fifth input operation is performed and the position and angle of the virtual camera 1040 are switched. When the fifth input operation is accepted, the camera control unit 112D switches the position and angle of the virtual camera 1040 to the position and angle at which the specific part of the avatar 1010 is shown. In the state (A) of FIG. 18, the camera control unit 112D arranges the virtual camera 1040 at a position and an angle at which the face of the avatar 1010 can be seen from the front. The position and angle of the virtual camera 1040 are set relative to the position of the specific part of the avatar 1010. Therefore, when the position and the angle of the specific part of the avatar 1010 change, the camera control unit 112D moves or rearranges the virtual camera 1040 to the relative position according to the changed position and angle. That is, when a specific part of the avatar 1010 moves, the virtual camera 1040 also follows and moves so as to reach a predetermined relative position. In this way, even if the specific part of the avatar 1010 moves, the virtual camera 1040 also follows and moves, so that the specific part of the avatar 1010 can always be photographed.

図18の状態(B)は、状態(A)に示す仮想カメラ1040の視野領域の画像1031の一例を示す図である。図18の状態(B)に示すように、仮想カメラ1040は、アバター1010の顔を正面から撮影できる位置にある。 The state (B) of FIG. 18 is a diagram showing an example of the image 1031 of the visual field area of the virtual camera 1040 shown in the state (A). As shown in the state (B) of FIG. 18, the virtual camera 1040 is in a position where the face of the avatar 1010 can be photographed from the front.

これにより、視聴端末100のユーザの第5入力操作に応じて、仮想カメラ1040を、アバターの特定部位が映る位置および角度に切替えることができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。 Thereby, the virtual camera 1040 can be switched to the position and the angle at which the specific part of the avatar is reflected in accordance with the fifth input operation of the user of the viewing terminal 100. Therefore, it is possible to increase the degree of freedom of camera work of the content, and thus to enhance the interest of the content.

〔ゲームの変形例〕
以上の説明では、ゲームは、配信システム2が配信するコンテンツとは独立したものであり、ゲーム端末400から配信端末300にゲーム画面が取り込まれることによって、該ゲーム画面がコンテンツに含まれることとした。
[Modification of the game]
In the above description, the game is independent of the content distributed by the distribution system 2, and the game screen is included in the content when the game screen is loaded from the game terminal 400 to the distribution terminal 300. ..

しかしながら、配信システム2において、ゲーム端末400と配信端末300とは一体であってもよい。この場合、配信部312は、配信者がアバターを介して仮想空間でプレイするためのゲームを提供してもよい。このようなゲームとして、例えば、HMDを利用して実現されるVRゲームが挙げられる。この場合、配信部312が、ゲームの進行に係る各種処理を実行して、ゲーム画面兼配信画面を作成してよい。なお、この場合、コンテンツデータに含まれるゲームのプレイ画面とは、配信者のアバターを含む、コンテンツそのものとなる。 However, in the distribution system 2, the game terminal 400 and the distribution terminal 300 may be integrated. In this case, the distribution unit 312 may provide a game for the distributor to play in the virtual space via the avatar. An example of such a game is a VR game realized by using an HMD. In this case, the distribution unit 312 may execute various processes related to the progress of the game to create the game screen/distribution screen. In this case, the game play screen included in the content data is the content itself including the avatar of the distributor.

図19は、配信システム2における、仮想カメラの視野領域の画像の他の一例を示す図である。図19に示すゲーム画面1600には、配信者のアバター1010を少なくとも含む、ゲーム画面としてのコンテンツが表示される。図示の例ではさらに、ゲーム画面1600に敵キャラクタ1610が配置されており、配信者の操作する(配信者の動作が反映される)アバター1010と対戦している。 FIG. 19 is a diagram showing another example of the image of the visual field area of the virtual camera in the distribution system 2. On the game screen 1600 shown in FIG. 19, contents as a game screen including at least the avatar 1010 of the distributor are displayed. In the illustrated example, an enemy character 1610 is further arranged on the game screen 1600, and is in competition with an avatar 1010 operated by the distributor (in which the motion of the distributor is reflected).

ゲーム画面1600では、アバター1010がプレイヤーキャラクタとなる。図示の例では、配信者に対応するアバター1010が配信者(モデル702等)の動きに応じてゲーム画面1600上で動いてよい。すなわち、モーションデータの取得対象となっている配信者の動きがそのまま、アバター1010に反映されてよい。例えば、前述のようにモデル702がHMDを装着している場合、モデル702の頭の動きに合わせてアバター1010の頭の向きが変化してもよい。 On the game screen 1600, the avatar 1010 is the player character. In the illustrated example, the avatar 1010 corresponding to the distributor may move on the game screen 1600 according to the motion of the distributor (model 702 or the like). That is, the movement of the distributor who is the target of the motion data acquisition may be reflected as it is on the avatar 1010. For example, as described above, when the model 702 is wearing the HMD, the head direction of the avatar 1010 may change according to the movement of the head of the model 702.

また、配信者に対応するアバター1010の視線方向と対向する位置に、自動で追尾する仮想カメラを設けてもよい。この仮想カメラによれば、配信者に対応するアバター1010の視線を確実に捉えることができる。よって、配信者に対応するアバター1010が自分の方を見てくれないという視聴者の不満の発生を防止できる。なお、この仮想カメラからの映像を表示するモードを別途設けてもよい。例えば、仮想空間内にこの仮想カメラを配置し、視聴者がこの仮想カメラをタップすると、上記モードに移行するようにしてもよい。 Further, a virtual camera that automatically tracks may be provided at a position facing the line of sight of the avatar 1010 corresponding to the distributor. With this virtual camera, it is possible to reliably capture the line of sight of the avatar 1010 corresponding to the distributor. Therefore, it is possible to prevent the dissatisfaction of the viewer that the avatar 1010 corresponding to the distributor does not look at himself. A mode for displaying the image from the virtual camera may be provided separately. For example, the virtual camera may be arranged in the virtual space, and when the viewer taps the virtual camera, the mode may be shifted to the above mode.

〔変形例〕
配信システム1または2は、実施形態1において説明した第2オブジェクトの配置方法および配置位置と、実施形態2において説明した仮想カメラの位置および角度の切り替え、ならびに第2仮想カメラの配置とを組み合わせて実行してもよい。
[Modification]
The distribution system 1 or 2 combines the arrangement method and the arrangement position of the second object described in the first embodiment, the position and angle switching of the virtual camera described in the second embodiment, and the arrangement of the second virtual camera. You may execute.

例えば、配信システム1において、視聴端末100のオブジェクト制御部112Cは、操作受付部111が第2入力操作または第3入力操作を受け付けた場合に、実施形態2において説明したように、仮想カメラの位置および角度を切替えてもよい。また、配信システム1において、視聴端末100のオブジェクト制御部112Cは、操作受付部111が第4入力操作を受け付けた場合に、実施形態2において説明したように、第2仮想カメラを配置し、描画部112Eは仮想カメラと第2仮想カメラの両方の視野領域の画像を描画してもよい。 For example, in the distribution system 1, when the operation receiving unit 111 receives the second input operation or the third input operation, the object control unit 112C of the viewing terminal 100, as described in the second embodiment, the position of the virtual camera. And the angle may be switched. Further, in the distribution system 1, when the operation receiving unit 111 receives the fourth input operation, the object control unit 112C of the viewing terminal 100 arranges the second virtual camera and renders it as described in the second embodiment. The unit 112E may draw images of the visual field areas of both the virtual camera and the second virtual camera.

また、実施形態1および実施形態2の例では、配信端末300において作成されたコンテンツデータに基づいて、視聴端末100において仮想空間の構築、仮想カメラの配置、および視野領域の画像の描画を実行した。しかしながら、配信システム1および2に係る配信端末300の配信部312が、仮想空間の構築、仮想カメラの配置、および視野領域の画像の描画を実行してもよい。換言すると、配信端末300の配信部312が図6のステップS201〜S212までの処理を実行し、描画された視野領域の画像がコンテンツとして、配信サーバ200を介し視聴端末100に配信されてもよい。 In addition, in the examples of the first and second embodiments, the viewing terminal 100 executes the construction of the virtual space, the placement of the virtual camera, and the drawing of the image of the viewing area based on the content data created by the distribution terminal 300. .. However, the distribution unit 312 of the distribution terminal 300 according to the distribution systems 1 and 2 may execute the construction of the virtual space, the arrangement of the virtual cameras, and the drawing of the image of the visual field area. In other words, the distribution unit 312 of the distribution terminal 300 may execute the processes of steps S201 to S212 in FIG. 6, and the drawn image of the visual field area may be distributed as content to the viewing terminal 100 via the distribution server 200. ..

なお、この場合、実施形態2において説明した仮想カメラの切り替えは、例えば以下の方法で実現可能である。すなわち、配信端末300の配信部312が、予め仮想空間全域を描画する、または、配置され得る全ての位置および角度での仮想カメラの視野領域の画像を描画しておく方法である。この場合、視聴端末100において第2入力操作、第3入力操作、第4入力操作、または第5入力操作が実行されると、該操作が行われた旨が視聴端末100から配信サーバ200に伝えられる。配信サーバ200には、前述のようにあらゆる視野領域の画像に対応する描画画像が蓄積されており、サーバ処理部212は、視聴端末100から送信された操作の内容に応じた視野領域の画像を、視聴端末100に送信する。これにより、視聴端末100における入力操作に応じて、仮想カメラの視点切替えが可能となる。 In this case, the switching of the virtual cameras described in the second embodiment can be realized by the following method, for example. That is, this is a method in which the distribution unit 312 of the distribution terminal 300 draws the entire virtual space in advance or draws an image of the visual field area of the virtual camera at all possible positions and angles. In this case, when the second input operation, the third input operation, the fourth input operation, or the fifth input operation is executed in the viewing terminal 100, the viewing terminal 100 informs the distribution server 200 that the operation is performed. To be As described above, the distribution server 200 stores the drawn images corresponding to the images of all the visual field regions, and the server processing unit 212 displays the image of the visual field region according to the content of the operation transmitted from the viewing terminal 100. , To the viewing terminal 100. Thereby, the viewpoint of the virtual camera can be switched according to the input operation on the viewing terminal 100.

〔ソフトウェアによる実現例〕
制御部110、210、および310の各制御ブロックの制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of software implementation]
The control block of each control block of the control units 110, 210, and 310 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software.

後者の場合、制御部110、210、および310を少なくとも1つ備えた情報処理装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the information processing apparatus including at least one of the control units 110, 210, and 310 includes a computer that executes a program instruction that is software that realizes each function. The computer includes, for example, one or more processors and a computer-readable recording medium that stores the program. Then, in the computer, the processor reads the program from the recording medium and executes the program to achieve the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-transitory tangible medium" such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, a RAM (Random Access Memory) for expanding the program may be further provided. The program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining the technical means disclosed in the different embodiments Is also included in the technical scope of the present invention.

〔付記事項〕
本発明の一側面に係る内容を列記すると以下のとおりである。
[Appendix]
The contents according to one aspect of the present invention are listed below.

(項目1) プログラム(視聴プログラム131)について説明した。本開示のある局面によると、プログラムは、プロセッサ(10)およびメモリ(11)を備える、配信者が配信端末(300)を用いてリアルタイム配信するコンテンツを視聴するための視聴端末(100)としての、コンピュータにより実行されるプログラムであって、プログラムは、プロセッサに、コンテンツに係る情報であって、配信端末から随時配信される、少なくとも配信者の身体の動きを検出したモーションデータを含む情報である第1情報を受信するステップ(S200)と、背景画像が展開された仮想空間を構築するステップ(S201〜S202)と、仮想空間に、配信者に対応するアバターである第1オブジェクトを配置するステップ(S204)と、リアルタイム配信が行われている間、第1情報を受信することに応答して、第1オブジェクトをモーションデータに従って動作させるステップ(S207)と、仮想空間の、該仮想空間の中心点とは異なる位置であって、中心点を視野領域に含む位置に仮想視点を配置するステップ(S208)と、仮想視点の視野領域の画像をレンダリングするステップ(S212)と、レンダリングによって得られる画像を、表示部に表示させるステップ(S214)と、を実行させる。 (Item 1) The program (viewing program 131) has been described. According to an aspect of the present disclosure, a program includes a processor (10) and a memory (11) as a viewing terminal (100) for a distributor to view content to be distributed in real time using a distribution terminal (300). , A program executed by a computer, the program being information relating to contents to a processor, and being information distributed at any time from a distribution terminal, including at least motion data in which motion of a distributor's body is detected. A step of receiving the first information (S200), a step of constructing a virtual space in which a background image is expanded (S201 to S202), and a step of arranging a first object which is an avatar corresponding to a distributor in the virtual space. (S204), in response to receiving the first information during the real-time distribution, a step of operating the first object according to the motion data (S207), and the center of the virtual space in the virtual space. An image obtained by rendering: a step of arranging the virtual viewpoint at a position different from the point and including the center point in the visual field area (S208); a step of rendering an image of the virtual viewpoint visual field area (S212); Is displayed on the display unit (S214).

前記の処理によれば、中心点とは異なる位置に配置した仮想視点の視野領域を描画するため、仮想空間の中心をユーザに見せることができる。したがって、ライブ配信におけるコンテンツの興趣性が向上する。 According to the above processing, the visual field area of the virtual viewpoint arranged at a position different from the center point is drawn, so that the center of the virtual space can be shown to the user. Therefore, the interest of the content in the live distribution is improved.

(項目2) (項目1)において、プログラムは、プロセッサに、さらに、背景画像の特定の領域を遮蔽するように、仮想空間内に第2オブジェクトを配置するステップ(S206)を実行させてもよい。 (Item 2) In (Item 1), the program may cause the processor to further execute a step (S206) of arranging the second object in the virtual space so as to occlude a specific region of the background image. ..

仮想空間を覆う背景画像を作成する場合、元となる元画像の形およびサイズに応じて、背景画像の一部に歪みが生じる可能性がある。前記の処理によれば、例えばこのような背景画像の歪みが生じ得る領域を仮想視点の視野領域の画像を表示する際に、第2オブジェクトが該領域を遮蔽するよう配置される。したがって、視聴者に背景画像の歪みを見せないようにすることができる。 When a background image covering the virtual space is created, a part of the background image may be distorted depending on the shape and size of the original original image. According to the above-described processing, for example, when displaying the image of the visual field region of the virtual viewpoint in the region where such distortion of the background image may occur, the second object is arranged so as to shield the region. Therefore, it is possible to prevent the viewer from showing the distortion of the background image.

(項目3) (項目2)において、第1オブジェクトを配置するステップは、第1オブジェクトを第2オブジェクト上に配置してもよい。 (Item 3) In (Item 2), the step of arranging the first object may arrange the first object on the second object.

前記の処理によれば、視聴者が第1オブジェクトに注目したとき、第2オブジェクトによって画像の歪みが生じ得る領域が遮蔽されている。よって、視聴者に背景画像の歪みを見せないようにすることができる。 According to the above processing, when the viewer focuses on the first object, the area in which the image distortion may occur is blocked by the second object. Therefore, it is possible to prevent the viewer from showing the distortion of the background image.

(項目4) (項目1)から(項目3)のいずれか1項目において、プログラムは、プロセッサに、さらに、地図データに基づく地図を表示するステップと、地図上のある地点を指定するための第1入力操作を受け付けるステップと、を実行させ、構築するステップは、第1入力操作に基づいて仮想空間を構築し、背景画像は、地点に対応する現実空間上の位置の周囲を撮影した画像であってもよい。 (Item 4) In any one of (Item 1) to (Item 3), the program further causes the processor to display a map based on the map data, and a step for designating a certain point on the map. The step of accepting a 1-input operation and the step of executing and constructing a virtual space are based on the first input operation, and the background image is an image of the surroundings of the position in the real space corresponding to the point. It may be.

前記の処理によれば、特定の地点における実際の風景を背景とした画像をライブ配信することができる。したがって、ライブ配信におけるコンテンツの興趣性が向上する。 According to the processing described above, it is possible to live-distribute an image with an actual landscape as a background at a specific point. Therefore, the interest of the content in the live distribution is improved.

(項目5) (項目4)において、プログラムは、プロセッサに、さらに、視聴端末の現在位置を示す位置情報を取得するステップを実行させ、構築するステップは、位置情報が示す、視聴端末の地図上での位置と、第1入力操作により指定された地点との距離が所定範囲内である場合に、仮想空間を構築してもよい。 (Item 5) In (Item 4), the program further causes the processor to execute the step of acquiring position information indicating the current position of the viewing terminal, and the step of constructing is on the map of the viewing terminal indicated by the position information. The virtual space may be constructed when the distance between the position at and the point designated by the first input operation is within a predetermined range.

前記の処理によれば、指定された地点付近に実際に行ってから第1操作を実行することで、ライブを見ることができる。したがって、ライブ配信の興趣性を向上させることができる。 According to the above processing, the live can be viewed by actually going near the designated point and then executing the first operation. Therefore, the interest of live distribution can be improved.

(項目6) (項目1)から(項目5)のいずれか1項目において、プログラムは、プロセッサに、さらに、視聴端末において第2入力操作が受け付けられたことに応答して、仮想視点の位置および角度を、第1オブジェクトに対応する配信者の視点と略同様の位置および角度に切替えるステップを実行させ、レンダリングするステップは、配信者の視点と略同様の位置および角度に切替えるステップによって仮想視点の位置および角度が切替えられた後の、視野領域の画像をレンダリングしてもよい。 (Item 6) In the item of any one of (item 1) to (item 5), the program determines the position of the virtual viewpoint and the position of the virtual viewpoint in response to the second input operation accepted by the viewing terminal. The step of changing the angle to a position and an angle that are substantially the same as the viewpoint of the distributor corresponding to the first object is executed, and the step of rendering is performed by changing the position and the angle to a position that is substantially the same as the viewpoint of the distributor. An image of the field of view may be rendered after the position and angle have been switched.

前記の処理によれば、視聴端末のユーザの第2入力操作に応じて、仮想視点を、配信者の視野と略同様の領域を映す位置および角度に切替えることができる。したがって、視聴端末のユーザ、すなわち視聴者は、自身の入力操作に応じて配信者の視点をトレースした映像を視聴することができる。したがって、前記の処理によれば、ライブ配信のカメラワークの自由度を増すことができ、よってライブ配信の興趣性を向上させることができる。 According to the above processing, the virtual viewpoint can be switched to a position and an angle at which an area substantially similar to the field of view of the distributor is projected according to the second input operation by the user of the viewing terminal. Therefore, the user of the viewing terminal, that is, the viewer can view the video in which the distributor's viewpoint is traced according to the input operation of the user. Therefore, according to the processing described above, the degree of freedom in camera work for live distribution can be increased, and thus the interest of live distribution can be improved.

(項目7) (項目1)から(項目6)のいずれか1項目において、プログラムは、プロセッサに、さらに、仮想空間に、アバターの持ち物を示す第4オブジェクトを配置するステップと、視聴端末において第3入力操作が受け付けられたことに応答して、仮想視点の位置および角度を、第4オブジェクトの位置および向きと略同様の位置および角度に切替えるステップと、を実行させ、レンダリングするステップは、第4オブジェクトの位置および向きと略同様の位置および角度に切替えるステップによって仮想視点の位置および角度が切替えられた後の、視野領域の画像をレンダリングしてもよい。 (Item 7) In any one of (Item 1) to (Item 6), the program arranges a fourth object indicating the belongings of the avatar in the virtual space in the processor, and in the viewing terminal, In response to the acceptance of the three-input operation, the step of switching the position and angle of the virtual viewpoint to the position and angle substantially similar to the position and orientation of the fourth object, and the step of rendering, 4 The image of the visual field region may be rendered after the position and angle of the virtual viewpoint are switched by the step of switching to the position and angle substantially similar to the position and orientation of the object.

前記の処理によれば、視聴端末のユーザの第3入力操作に応じて、仮想視点を、アバターの持ち物の視点と略同様の視点からの視野画像を映す位置および角度に切替えることができる。ここで、アバターの持ち物とは、例えばアバターが手に持っているカメラオブジェクトである。前記の処理によれば、視聴端末のユーザ、すなわち視聴者は、自身の入力操作に応じてアバターの持ち物視点からの映像を視聴することができる。したがって、ライブ配信のカメラワークの自由度を増すことができ、よってライブ配信の興趣性を向上させることができる。 According to the above-described processing, the virtual viewpoint can be switched to the position and the angle at which the visual field image is projected from a viewpoint substantially similar to the viewpoint of the avatar's inventory, according to the third input operation of the user of the viewing terminal. Here, the belongings of the avatar are, for example, camera objects held by the avatar. According to the above-described processing, the user of the viewing terminal, that is, the viewer can view the image from the viewpoint of the avatar's belongings according to the input operation of the user. Therefore, it is possible to increase the degree of freedom of camera work for live distribution, and thus to enhance the interest of live distribution.

(項目8) (項目1)から(項目7)のいずれか1項目において、プログラムは、プロセッサに、さらに、視聴端末において第4入力操作が受け付けられたことに応答して、仮想視点と異なる第2仮想視点を、第1オブジェクトの特定部位が映る位置および角度で配置するステップを実行させ、レンダリングするステップは、仮想視点の視野領域の画像と、第2仮想視点の視野領域の画像との両方を含む画像をレンダリングしてもよい。 (Item 8) In any one of (Item 1) to (Item 7), the program is different from the virtual viewpoint in response to the processor receiving the fourth input operation at the viewing terminal. The step of arranging the two virtual viewpoints at the position and the angle at which the specific part of the first object is reflected and performing the rendering includes both the image of the visual field area of the virtual viewpoint and the image of the visual field area of the second virtual viewpoint. An image including may be rendered.

前記の処理によれば、視聴端末のユーザの第4入力操作に応じて、アバターの特定部位を第2仮想視点で映すことができる。ここで、アバターの特定部位とは、例えばアバターの顔または手元である。前記の処理によれば、視聴端末のユーザ、すなわち視聴者は、自身の入力操作に応じて、仮想視点による視野領域の映像と、第2仮想視点によるアバターの特定部位の映像との両方を同時に見ることができる。したがって、ライブ配信のカメラワークの自由度を増すことができ、よってライブ配信の興趣性を向上させることができる。 According to the above process, the specific part of the avatar can be projected from the second virtual viewpoint in accordance with the fourth input operation by the user of the viewing terminal. Here, the specific part of the avatar is, for example, the face or the hand of the avatar. According to the above-described process, the user of the viewing terminal, that is, the viewer simultaneously receives both the image of the visual field area from the virtual viewpoint and the image of the specific part of the avatar from the second virtual viewpoint according to the input operation of the user. You can see. Therefore, it is possible to increase the degree of freedom of camera work for live distribution, and thus to enhance the interest of live distribution.

(項目9) (項目1)から(項目8)のいずれか1項目において、プログラムは、プロセッサに、さらに、視聴端末において第5入力操作が受け付けられたことに応答して、仮想視点の位置および角度を、第1オブジェクトの特定部位が映る位置および角度に切替えるステップを実行させ、レンダリングするステップは、第1オブジェクトの特定部位が映る位置および角度に切替えるステップによって仮想視点の位置および角度が切替えられた後の、視野領域の画像をレンダリングしてもよい。 (Item 9) In the item of any one of (Item 1) to (Item 8), the program responds to the processor and further to the position of the virtual viewpoint and the position of the virtual viewpoint in response to the reception of the fifth input operation at the viewing terminal. The step of switching the angle to the position and the angle of the specific part of the first object is executed, and the step of rendering is performed by switching the position and the angle of the specific part of the first object to the position and the angle of the virtual viewpoint. The image of the field-of-view region after rendering may be rendered.

前記の処理によれば、視聴端末のユーザの第5入力操作に応じて、仮想視点を、アバターの特定部位が映る位置および角度に切替えることができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。 According to the above process, the virtual viewpoint can be switched to the position and the angle at which the specific part of the avatar appears in response to the fifth input operation by the user of the viewing terminal. Therefore, it is possible to increase the degree of freedom of camera work of the content, and thus to enhance the interest of the content.

(項目10) プログラム(配信プログラム331)について説明した。本開示のある局面によると、プログラムは、プロセッサ(20,30)およびメモリ(21,31)を備える、配信者がコンテンツのリアルタイム配信に用いる配信端末(200、300)としてのコンピュータにより実行されるプログラムであって、プログラムは、プロセッサに、背景画像が展開された仮想空間を構築するステップ(S201〜S202)と、仮想空間に、配信者に対応するアバターである第1オブジェクトを配置するステップ(S204)と、仮想空間の、該仮想空間の中心点とは異なる位置に仮想視点を配置するステップ(S208)と、仮想視点の視野領域の画像をレンダリングするステップ(S212)と、レンダリングによって得られる画像を、コンテンツとして視聴端末にリアルタイムで配信するステップ(S102,S112)と、を実行させる。 (Item 10) The program (distribution program 331) has been described. According to an aspect of the present disclosure, a program is executed by a computer as a distribution terminal (200, 300) including a processor (20, 30) and a memory (21, 31) and used by a distributor for real-time distribution of content. The program is a step of constructing a virtual space in which a background image is developed in a processor (S201 to S202), and a step of arranging a first object which is an avatar corresponding to a distributor in the virtual space ( S204), a step of arranging a virtual viewpoint at a position different from the center point of the virtual space in the virtual space (S208), a step of rendering an image of a visual field of the virtual viewpoint (S212), The step of delivering the image as content to the viewing terminal in real time (S102, S112) is executed.

前記の処理によれば、中心点とは異なる位置に配置した仮想視点の視野領域を描画するため、仮想空間の中心をユーザに見せることができる。したがって、ライブ配信におけるコンテンツの興趣性が向上する。 According to the above processing, the visual field area of the virtual viewpoint arranged at a position different from the center point is drawn, so that the center of the virtual space can be shown to the user. Therefore, the interest of the content in the live distribution is improved.

(項目11) コンピュータがプログラムを実行する方法を説明した。本開示のある局面によると、プログラム(視聴プログラム131)は、プロセッサ(10)およびメモリ(11)を備えるコンピュータにより実行される。該方法は、プロセッサが(項目1)に記載のプログラムの各ステップを実行する方法である。(項目11)に係る方法は、(項目1)に係るプログラムと同様の作用効果を奏する。 (Item 11) The method for the computer to execute the program has been described. According to an aspect of the present disclosure, the program (viewing program 131) is executed by a computer including a processor (10) and a memory (11). The method is a method in which a processor executes each step of the program described in (Item 1). The method according to (Item 11) has the same operational effects as the program according to (Item 1).

(項目12) 情報処理装置を説明した。本開示のある局面によると、該情報処理装置は、(項目1)に係るプログラムを記憶するメモリ(11)と、該プログラムを実行することにより、情報処理装置(視聴端末100)の動作を制御するプロセッサ(10)とを備える。(項目12)に係る情報処理装置は、(項目1)に係るプログラムと同様の作用効果を奏する。 (Item 12) The information processing device has been described. According to an aspect of the present disclosure, the information processing apparatus controls the operation of the information processing apparatus (viewing terminal 100) by executing a memory (11) that stores a program according to (Item 1) and the program. And a processor (10) for The information processing device according to (Item 12) has the same operational effects as the program according to (Item 1).

1 配信システム、4 ネットワーク、10,20,30 プロセッサ、11,21,31 メモリ、12,22,32 ストレージ、15,35 タッチスクリーン、17 カメラ、18 測距センサ、100 視聴端末、110,210,310 制御部、111,311 操作受付部、112 再生部、112A 空間定義部、112B 背景制御部、112C オブジェクト制御部、112D カメラ制御部、112E 描画部、113,313 表示制御部、114,314 通信部、120,220,320 記憶部、131 視聴プログラム、132 視聴者情報、332 配信者情報、151,351 入力部、152,352 表示部、200 配信サーバ、211 送受信部、212 サーバ処理部、213 データ管理部、231,331 配信プログラム、300 配信端末、312 配信部、1020,3030 コントローラ、1030 記憶媒体、3010 マイク、3020 モーションキャプチャ装置、13,23,33 通信IF、
14,24,34 入出力IF
1 distribution system, 4 network, 10, 20, 30 processor, 11, 21, 31 memory, 12, 22, 32 storage, 15, 35 touch screen, 17 camera, 18 distance measuring sensor, 100 viewing terminal, 110, 210, 310 control unit, 111, 311 operation reception unit, 112 reproduction unit, 112A space definition unit, 112B background control unit, 112C object control unit, 112D camera control unit, 112E drawing unit, 113, 313 display control unit, 114, 314 communication Section, 120, 220, 320 storage section, 131 viewing program, 132 viewer information, 332 distributor information, 151, 351 input section, 152, 352 display section, 200 distribution server, 211 transmitting/receiving section, 212 server processing section, 213 Data management unit, 231,331 distribution program, 300 distribution terminal, 312 distribution unit, 1020,3030 controller, 1030 storage medium, 3010 microphone, 3020 motion capture device, 13,23,33 communication IF,
14, 24, 34 I/O IF

Claims (12)

プロセッサおよびメモリを備える、配信者が配信端末を用いてリアルタイム配信するコンテンツを視聴するための視聴端末としての、コンピュータにより実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
前記コンテンツに係る情報であって、前記配信端末から随時配信される、少なくとも配信者の身体の動きを検出したモーションデータを含む情報である第1情報を受信するステップと、
背景画像が展開された仮想空間を構築するステップと、
前記仮想空間に、前記配信者に対応するアバターである第1オブジェクトを配置するステップと、
前記リアルタイム配信が行われている間、前記第1情報を受信することに応答して、前記第1オブジェクトを前記モーションデータに従って動作させるステップと、
前記仮想空間の、該仮想空間の中心点とは異なる位置であって、前記中心点を視野領域に含む位置に仮想視点を配置するステップと、
前記仮想視点の視野領域の画像をレンダリングするステップと、
前記レンダリングによって得られる前記画像を、表示部に表示させるステップと、を実行させる、プログラム。
A program executed by a computer as a viewing terminal for a distributor to view content to be distributed in real time using a distribution terminal, the program including a processor and a memory,
The program causes the processor to
A step of receiving first information, which is information related to the content, which is information that is distributed from the distribution terminal at any time and that includes at least motion data in which the physical movement of the distributor is detected,
A step of constructing a virtual space in which a background image is expanded,
Placing a first object that is an avatar corresponding to the distributor in the virtual space;
Operating the first object according to the motion data in response to receiving the first information while the real-time delivery is performed;
Arranging a virtual viewpoint at a position in the virtual space different from the center point of the virtual space and including the center point in the visual field region,
Rendering an image of the field of view of the virtual viewpoint,
A program for causing the display unit to display the image obtained by the rendering.
前記プログラムは、前記プロセッサに、さらに、
前記背景画像の特定の領域を遮蔽するように、前記仮想空間内に第2オブジェクトを配置するステップを実行させる、請求項1に記載のプログラム。
The program further causes the processor to:
The program according to claim 1, which causes a step of arranging a second object in the virtual space so as to cover a specific area of the background image.
前記第1オブジェクトを配置するステップは、前記第1オブジェクトを前記第2オブジェクト上に配置する、請求項2に記載のプログラム。 The program according to claim 2, wherein the step of arranging the first object arranges the first object on the second object. 前記プログラムは、前記プロセッサに、さらに、
地図データに基づく地図を表示するステップと、
前記地図上のある地点を指定するための第1入力操作を受け付けるステップと、を実行させ、
前記構築するステップは、前記第1入力操作に基づいて前記仮想空間を構築し、
前記背景画像は、前記地点に対応する現実空間上の位置の周囲を撮影した画像である、請求項1〜3のいずれか1項に記載のプログラム。
The program further causes the processor to:
Displaying a map based on the map data,
A step of receiving a first input operation for designating a certain point on the map,
The step of constructing constructs the virtual space based on the first input operation,
The program according to any one of claims 1 to 3, wherein the background image is an image captured around a position in a physical space corresponding to the point.
前記プログラムは、前記プロセッサに、さらに、
前記視聴端末の現在位置を示す位置情報を取得するステップを実行させ、
前記構築するステップは、前記位置情報が示す、前記視聴端末の前記地図上での位置と、前記第1入力操作により指定された前記地点との距離が所定範囲内である場合に、前記仮想空間を構築する、請求項4に記載のプログラム。
The program further causes the processor to:
Performing a step of acquiring position information indicating the current position of the viewing terminal,
In the constructing step, if the distance between the position of the viewing terminal on the map indicated by the position information and the point designated by the first input operation is within a predetermined range, the virtual space is set. The program according to claim 4, which constructs.
前記プログラムは、前記プロセッサに、さらに、
前記視聴端末において第2入力操作が受け付けられたことに応答して、前記仮想視点の位置および角度を、前記第1オブジェクトに対応する配信者の視点と略同様の位置および角度に切替えるステップを実行させ、
前記レンダリングするステップは、前記配信者の視点と略同様の位置および角度に切替えるステップによって前記仮想視点の位置および角度が切替えられた後の、前記視野領域の画像をレンダリングする、請求項1〜5のいずれか1項に記載のプログラム。
The program further causes the processor to:
In response to the second input operation being accepted at the viewing terminal, a step of switching the position and angle of the virtual viewpoint to a position and angle substantially similar to the viewpoint of the distributor corresponding to the first object is executed. Let
The rendering step renders an image of the visual field after the position and the angle of the virtual viewpoint are switched by the step of switching to a position and an angle that are substantially the same as the viewpoint of the distributor. The program according to any one of 1.
前記プログラムは、前記プロセッサに、さらに、
前記仮想空間に、前記アバターの持ち物を示す第4オブジェクトを配置するステップと、
前記視聴端末において第3入力操作が受け付けられたことに応答して、前記仮想視点の位置および角度を、前記第4オブジェクトの位置および向きと略同様の位置および角度に切替えるステップと、を実行させ、
前記レンダリングするステップは、前記第4オブジェクトの位置および向きと略同様の位置および角度に切替えるステップによって前記仮想視点の位置および角度が切替えられた後の、前記視野領域の画像をレンダリングする、請求項1〜6のいずれか1項に記載のプログラム。
The program further causes the processor to:
Arranging a fourth object indicating the belongings of the avatar in the virtual space;
Switching the position and angle of the virtual viewpoint to a position and angle substantially similar to the position and orientation of the fourth object in response to the reception of the third input operation at the viewing terminal. ,
The rendering step renders an image of the visual field area after the position and angle of the virtual viewpoint are switched by the step of switching to a position and an angle that are substantially the same as the position and orientation of the fourth object. The program according to any one of 1 to 6.
前記プログラムは、前記プロセッサに、さらに、
視聴端末において第4入力操作が受け付けられたことに応答して、前記仮想視点と異なる第2仮想視点を、前記第1オブジェクトの特定部位が映る位置および角度で配置するステップを実行させ、
前記レンダリングするステップは、前記仮想視点の視野領域の画像と、前記第2仮想視点の視野領域の画像との両方を含む画像をレンダリングする、請求項1〜7のいずれか1項に記載のプログラム。
The program further causes the processor to:
In response to the fourth input operation being accepted in the viewing terminal, a step of arranging a second virtual viewpoint different from the virtual viewpoint at a position and an angle at which a specific part of the first object is reflected,
The program according to any one of claims 1 to 7, wherein the rendering step renders an image including both an image of a visual field area of the virtual viewpoint and an image of a visual field area of the second virtual viewpoint. ..
前記プログラムは、前記プロセッサに、さらに、
前記視聴端末において第5入力操作が受け付けられたことに応答して、前記仮想視点の位置および角度を、前記第1オブジェクトの特定部位が映る位置および角度に切替えるステップを実行させ、
前記レンダリングするステップは、前記第1オブジェクトの特定部位が映る位置および角度に切替えるステップによって前記仮想視点の位置および角度が切替えられた後の、前記視野領域の画像をレンダリングする、請求項1〜8のいずれか1項に記載のプログラム。
The program further causes the processor to:
In response to receiving a fifth input operation in the viewing terminal, executing a step of switching a position and an angle of the virtual viewpoint to a position and an angle at which a specific part of the first object appears.
The rendering step renders an image of the visual field after the position and angle of the virtual viewpoint are switched by the step of switching to a position and an angle at which a specific part of the first object is reflected. The program according to any one of 1.
プロセッサおよびメモリを備える、配信者がコンテンツのリアルタイム配信に用いる配信端末としてのコンピュータにより実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
背景画像が展開された仮想空間を構築するステップと、
前記仮想空間に、前記配信者に対応するアバターである第1オブジェクトを配置するステップと、
前記仮想空間の、該仮想空間の中心点とは異なる位置に仮想視点を配置するステップと、
前記仮想視点の視野領域の画像をレンダリングするステップと、
前記レンダリングによって得られる前記画像を、コンテンツとして視聴端末にリアルタイムで配信するステップと、を実行させる、プログラム。
A program executed by a computer as a distribution terminal used by a distributor for real-time distribution of content, comprising a processor and a memory,
The program causes the processor to
A step of constructing a virtual space in which a background image is expanded,
Placing a first object that is an avatar corresponding to the distributor in the virtual space;
Arranging a virtual viewpoint at a position different from the center point of the virtual space in the virtual space,
Rendering an image of the field of view of the virtual viewpoint,
Delivering the image obtained by the rendering to the viewing terminal as content in real time.
コンピュータがプログラムを実行する方法であって、
前記コンピュータは、プロセッサ、およびメモリを備え、
前記プロセッサが請求項1に記載のプログラムの各ステップを実行する、方法。
A method by which a computer executes a program,
The computer includes a processor and a memory,
A method in which the processor executes the steps of the program of claim 1.
情報処理装置であって、
前記情報処理装置は、
請求項1に記載のプログラムを記憶するメモリと、
該プログラムを実行することにより、前記情報処理装置の動作を制御するプロセッサと、を備えている、情報処理装置。
An information processing device,
The information processing device,
A memory for storing the program according to claim 1;
An information processing apparatus, comprising: a processor that controls the operation of the information processing apparatus by executing the program.
JP2019011663A 2019-01-25 2019-01-25 Programs, methods, and information processing equipment Active JP6843164B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019011663A JP6843164B2 (en) 2019-01-25 2019-01-25 Programs, methods, and information processing equipment
JP2021024934A JP2021099825A (en) 2019-01-25 2021-02-19 Program, method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019011663A JP6843164B2 (en) 2019-01-25 2019-01-25 Programs, methods, and information processing equipment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021024934A Division JP2021099825A (en) 2019-01-25 2021-02-19 Program, method, and information processing device

Publications (2)

Publication Number Publication Date
JP2020120336A true JP2020120336A (en) 2020-08-06
JP6843164B2 JP6843164B2 (en) 2021-03-17

Family

ID=71892188

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019011663A Active JP6843164B2 (en) 2019-01-25 2019-01-25 Programs, methods, and information processing equipment
JP2021024934A Pending JP2021099825A (en) 2019-01-25 2021-02-19 Program, method, and information processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021024934A Pending JP2021099825A (en) 2019-01-25 2021-02-19 Program, method, and information processing device

Country Status (1)

Country Link
JP (2) JP6843164B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022045296A (en) * 2020-09-08 2022-03-18 聡 竹内 Information communication system, and information processing device
JP7043558B1 (en) 2020-09-23 2022-03-29 グリー株式会社 Computer programs, methods, and server equipment
JP2022050321A (en) * 2020-08-28 2022-03-30 ティーエムアールダブリュー ファウンデーション アイピー エスエーアールエル System and method for virtually broadcasting from within virtual environment
JPWO2022162812A1 (en) * 2021-01-28 2022-08-04
CN115398891A (en) * 2021-04-23 2022-11-25 腾讯美国有限责任公司 Estimation by multiple measurements
JP7212808B1 (en) 2022-03-18 2023-01-25 ヤフー株式会社 Video distribution device, video distribution method, and video distribution program
US12034785B2 (en) 2020-08-28 2024-07-09 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7472386B1 (en) 2023-11-15 2024-04-22 株式会社あかつき Information processing system, information processing device, program, and information processing method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012239746A (en) * 2011-05-23 2012-12-10 Nintendo Co Ltd Game system, game processing method, game device, and game program
JP2016025633A (en) * 2014-07-24 2016-02-08 ソニー株式会社 Information processing apparatus, management device, information processing method, and program
JP2016086970A (en) * 2014-10-31 2016-05-23 ティフォン インコーポレーテッドTyffon Inc. Game program, method for controlling computer, information processing device, image output device, image output method and image output program
JP2016202686A (en) * 2015-04-24 2016-12-08 株式会社コロプラ System, method, and program for sharing game experience, and recording medium
JP2017078891A (en) * 2015-10-19 2017-04-27 株式会社コロプラ Image generation device, image generation method, and image generation program
JP2017188833A (en) * 2016-04-08 2017-10-12 ソニー株式会社 Information processing device and information processing method; and program
JP6248219B1 (en) * 2017-03-08 2017-12-13 株式会社コロプラ Information processing method, computer, and program for causing computer to execute information processing method
JP2018007828A (en) * 2016-07-13 2018-01-18 株式会社バンダイナムコエンターテインメント Program and electronic apparatus
JP6367450B1 (en) * 2017-10-31 2018-08-01 株式会社テクテック Position game interface system, program, and control method
JP6397595B1 (en) * 2018-04-12 2018-09-26 株式会社ドワンゴ Content distribution server, content distribution system, content distribution method and program
JP6446154B1 (en) * 2018-05-09 2018-12-26 グリー株式会社 Video distribution system for live distribution of animation including animation of character objects generated based on actor movement

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004236075A (en) * 2003-01-31 2004-08-19 Toshiba Corp Receiver, reception system and receiving method
JP2005277670A (en) * 2004-03-24 2005-10-06 Hiroo Iwata Omniazimuth video image generating apparatus, map interlocked omniazimuth video recording / display apparatus, and map interlocked omniazimuth video image utilizing apparatus
JP2016062486A (en) * 2014-09-19 2016-04-25 株式会社ソニー・コンピュータエンタテインメント Image generation device and image generation method
JP6266814B1 (en) * 2017-01-27 2018-01-24 株式会社コロプラ Information processing method and program for causing computer to execute information processing method
JP6298558B1 (en) * 2017-05-11 2018-03-20 株式会社コロプラ Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012239746A (en) * 2011-05-23 2012-12-10 Nintendo Co Ltd Game system, game processing method, game device, and game program
JP2016025633A (en) * 2014-07-24 2016-02-08 ソニー株式会社 Information processing apparatus, management device, information processing method, and program
JP2016086970A (en) * 2014-10-31 2016-05-23 ティフォン インコーポレーテッドTyffon Inc. Game program, method for controlling computer, information processing device, image output device, image output method and image output program
JP2016202686A (en) * 2015-04-24 2016-12-08 株式会社コロプラ System, method, and program for sharing game experience, and recording medium
JP2017078891A (en) * 2015-10-19 2017-04-27 株式会社コロプラ Image generation device, image generation method, and image generation program
JP2017188833A (en) * 2016-04-08 2017-10-12 ソニー株式会社 Information processing device and information processing method; and program
JP2018007828A (en) * 2016-07-13 2018-01-18 株式会社バンダイナムコエンターテインメント Program and electronic apparatus
JP6248219B1 (en) * 2017-03-08 2017-12-13 株式会社コロプラ Information processing method, computer, and program for causing computer to execute information processing method
JP6367450B1 (en) * 2017-10-31 2018-08-01 株式会社テクテック Position game interface system, program, and control method
JP6397595B1 (en) * 2018-04-12 2018-09-26 株式会社ドワンゴ Content distribution server, content distribution system, content distribution method and program
JP6446154B1 (en) * 2018-05-09 2018-12-26 グリー株式会社 Video distribution system for live distribution of animation including animation of character objects generated based on actor movement

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7391394B2 (en) 2020-08-28 2023-12-05 ティーエムアールダブリュー ファウンデーション アイピー エスエーアールエル System and method for virtual broadcasting from within a virtual environment
JP2022050321A (en) * 2020-08-28 2022-03-30 ティーエムアールダブリュー ファウンデーション アイピー エスエーアールエル System and method for virtually broadcasting from within virtual environment
US12034785B2 (en) 2020-08-28 2024-07-09 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
JP7106609B2 (en) 2020-09-08 2022-07-26 聡 竹内 Information communication system, information processing equipment
JP2022045296A (en) * 2020-09-08 2022-03-18 聡 竹内 Information communication system, and information processing device
JP7043558B1 (en) 2020-09-23 2022-03-29 グリー株式会社 Computer programs, methods, and server equipment
JP2022053562A (en) * 2020-09-23 2022-04-06 グリー株式会社 Computer program, method, and server device
JP2022084763A (en) * 2020-09-23 2022-06-07 グリー株式会社 Computer program, method, and server device
JP7429930B2 (en) 2020-09-23 2024-02-09 グリー株式会社 Computer program, method and server device
JPWO2022162812A1 (en) * 2021-01-28 2022-08-04
JP7250228B2 (en) 2021-01-28 2023-03-31 三菱電機株式会社 Display system, virtual space providing device and display method
CN115398891A (en) * 2021-04-23 2022-11-25 腾讯美国有限责任公司 Estimation by multiple measurements
JP2023137847A (en) * 2022-03-18 2023-09-29 ヤフー株式会社 Moving image distribution device, moving image distribution method, and moving image distribution program
JP7212808B1 (en) 2022-03-18 2023-01-25 ヤフー株式会社 Video distribution device, video distribution method, and video distribution program

Also Published As

Publication number Publication date
JP2021099825A (en) 2021-07-01
JP6843164B2 (en) 2021-03-17

Similar Documents

Publication Publication Date Title
JP6843164B2 (en) Programs, methods, and information processing equipment
US11221726B2 (en) Marker point location display method, electronic device, and computer-readable storage medium
JP7098001B2 (en) Distance information display method in a virtual scene and its terminal computer device and computer program
US10979751B2 (en) Communication management apparatus, method and computer-readable storage medium for generating image data identification information communication
JP6858737B2 (en) Viewing program, distribution program, how to execute the viewing program, how to execute the distribution program, information processing device, and information processing system
US10277813B1 (en) Remote immersive user experience from panoramic video
US20180321798A1 (en) Information processing apparatus and operation reception method
CN109729411B (en) Live broadcast interaction method and device
WO2021184952A1 (en) Augmented reality processing method and apparatus, storage medium, and electronic device
US9392248B2 (en) Dynamic POV composite 3D video system
CN110061900B (en) Message display method, device, terminal and computer readable storage medium
JPWO2015122108A1 (en) Information processing apparatus, information processing method, and program
CN111246236B (en) Interactive data playing method, device, terminal, server and storage medium
JP2001008232A (en) Omnidirectional video output method and apparatus
WO2020110323A1 (en) Video synthesis device, video synthesis method and recording medium
CN113318442B (en) Live broadcast interface display method, data uploading method and data issuing method
CN111050189A (en) Live broadcast method, apparatus, device, storage medium, and program product
CN117085322B (en) Interactive observation method, device, equipment and medium based on virtual scene
JP2019087226A (en) Information processing device, information processing system, and method of outputting facial expression images
CN113230655B (en) Virtual object control method, device, equipment, system and readable storage medium
WO2020110322A1 (en) Video synthesis device, video synthesis method and recording medium
JPWO2018216355A1 (en) Information processing apparatus, information processing method, and program
JP2019128721A (en) Program for reflecting user motion on avatar, information processing device for executing the same and method for distributing image containing avatar
CN108184130B (en) Simulator system, live broadcast method, device and storage medium
JP6518645B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200311

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200311

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210222

R150 Certificate of patent or registration of utility model

Ref document number: 6843164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250