JP2021099825A - Program, method, and information processing device - Google Patents

Program, method, and information processing device Download PDF

Info

Publication number
JP2021099825A
JP2021099825A JP2021024934A JP2021024934A JP2021099825A JP 2021099825 A JP2021099825 A JP 2021099825A JP 2021024934 A JP2021024934 A JP 2021024934A JP 2021024934 A JP2021024934 A JP 2021024934A JP 2021099825 A JP2021099825 A JP 2021099825A
Authority
JP
Japan
Prior art keywords
distribution
program
image
terminal
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021024934A
Other languages
Japanese (ja)
Inventor
功淳 馬場
Naruatsu Baba
功淳 馬場
俊己 安藤
Toshimi Ando
俊己 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2021024934A priority Critical patent/JP2021099825A/en
Publication of JP2021099825A publication Critical patent/JP2021099825A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a program capable of improving amusement of content in live distribution, a method, and an information processing device.SOLUTION: In a distribution system comprising a distribution server, a distribution terminal, and a viewing terminal, for distributing content to a viewer in real time, a viewing program in a distribution unit of the distribution terminal causes a processor to execute the steps of: receiving first information (S200); constructing a virtual space (S201 and S202); arranging a first object (S204); operating the first object according to motion data (S207); arranging a virtual viewpoint of the virtual space in a position which differs from a center point of the virtual space and includes the center point in a visual field region (S208); and rendering an image of the visual field region at the virtual viewpoint (S212).SELECTED DRAWING: Figure 6

Description

本発明はプログラム、方法、および情報処理装置に関する。 The present invention relates to programs, methods, and information processing devices.

全方位画像をユーザに見せるための技術が従来開発されている。例えば、球型にモデリングされた仮想空間の内側に360度のパノラマ画像を貼り付けておき、該パノラマ画像を仮想カメラの視野領域で切り取った画像を表示する技術が存在する。また、配信者がアバターを介して音楽ライブまたはゲーム実況等を行う様子を、コンテンツとしてライブ配信する技術が開発されている。 Conventionally, a technique for showing an omnidirectional image to a user has been developed. For example, there is a technique in which a 360-degree panoramic image is pasted inside a spherically modeled virtual space, and the panoramic image is cut out in the field of view of the virtual camera and displayed. In addition, a technique has been developed for live distribution of a state in which a distributor performs live music or a live game via an avatar as content.

“Facebook Social VR Demo - Oculus Connect 2016”、[online]、YouTube(登録商標)、[2019年1月24日検索]、インターネット(URL:https://www.youtube.com/watch?v=YuIgyKLPt3s)“Facebook Social VR Demo --Oculus Connect 2016”, [online], YouTube (registered trademark), [Searched January 24, 2019], Internet (URL: https://www.youtube.com/watch?v=YuIgyKLPt3s) )

本発明の一態様は、ライブ配信におけるコンテンツの興趣性の向上を目的とする。 One aspect of the present invention is aimed at improving the enjoyment of content in live distribution.

上記の課題を解決するために、本発明の一態様に係るプログラムは、プロセッサおよびメモリを備える、配信者が配信端末を用いてリアルタイム配信するコンテンツを視聴するための視聴端末としての、コンピュータにより実行されるプログラムである。プログラムは、プロセッサに、コンテンツに係る情報であって、配信端末から随時配信される、少なくとも配信者の身体の動きを検出したモーションデータを含む情報である第1情報を受信するステップと、背景画像が展開された仮想空間を構築するステップと、仮想空間に、配信者に対応するアバターである第1オブジェクトを配置するステップと、リアルタイム配信が行われている間、第1情報を受信することに応答して、第1オブジェクトをモーションデータに従って動作させるステップと、仮想空間の、該仮想空間の中心点とは異なる位置であって、中心点を視野領域に含む位置に仮想視点を配置するステップと、仮想視点の視野領域の画像をレンダリングするステップと、レンダリングによって得られる画像を、表示部に表示させるステップと、を実行させる。 In order to solve the above problems, the program according to one aspect of the present invention is executed by a computer as a viewing terminal for viewing content to be distributed in real time by a distributor using a distribution terminal, which includes a processor and a memory. It is a program to be done. The program includes a step of receiving the first information to the processor, which is information related to the content and is information including motion data at least detecting the movement of the distributor's body, which is distributed from the distribution terminal at any time, and a background image. The step of constructing the expanded virtual space, the step of arranging the first object which is the avatar corresponding to the distributor in the virtual space, and the step of receiving the first information during the real-time distribution. In response, a step of operating the first object according to the motion data and a step of arranging the virtual viewpoint in the virtual space at a position different from the center point of the virtual space and including the center point in the viewing area. , The step of rendering the image in the visual field area of the virtual viewpoint and the step of displaying the image obtained by the rendering on the display unit are executed.

本発明の一態様によれば、ライブ配信におけるコンテンツの興趣性を向上させることができる。 According to one aspect of the present invention, it is possible to improve the enjoyment of content in live distribution.

実施形態1に係る配信システムの概要を示す図である。It is a figure which shows the outline of the distribution system which concerns on Embodiment 1. FIG. 前記配信システムに含まれる各種装置のハードウェア構成を示す図である。It is a figure which shows the hardware configuration of the various devices included in the distribution system. 前記配信システムに含まれる各種装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional configuration of various devices included in the distribution system. 前記配信システムにおける、コンテンツのライブ配信および再生に係る処理の流れの一例を示すシーケンス図である。It is a sequence diagram which shows an example of the processing flow which concerns on the live distribution and reproduction of the content in the distribution system. 前記配信システムにおける配信者によるコンテンツ作成の様子を示す図である。It is a figure which shows the state of the content creation by a distributor in the said distribution system. 前記配信システムにおける再生処理の流れの一例を示す図である。It is a figure which shows an example of the flow of the reproduction processing in the said distribution system. 状態(A)は、前記配信システムにおいて構築される仮想空間の一例を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。The state (A) is a diagram showing an example of a virtual space constructed in the distribution system. The state (B) is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). 図7に示す仮想カメラの視野領域の画像の一例を示す図である。It is a figure which shows an example of the image of the visual field area of the virtual camera shown in FIG. 7. 状態(A)は、前記配信システムにおいて構築される仮想空間の他の一例を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。The state (A) is a diagram showing another example of the virtual space constructed in the distribution system. The state (B) is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). 視聴端末の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a viewing terminal. 図10に示した表示画面に対するユーザの操作の一例を示す図である。It is a figure which shows an example of the operation of the user with respect to the display screen shown in FIG. ライブ配信されたコンテンツを視聴している際の視聴端末の表示画面を示す図である。It is a figure which shows the display screen of the viewing terminal at the time of viewing live-delivered content. 実施形態2に係る配信システムの概要を示す図である。It is a figure which shows the outline of the distribution system which concerns on Embodiment 2. 状態(A)は、前記配信システムにおいて構築される仮想空間の他の一例を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。The state (A) is a diagram showing another example of the virtual space constructed in the distribution system. The state (B) is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). 状態(A)は、第2入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。The state (A) is a diagram showing a virtual space after the second input operation is performed and the position and angle of the virtual camera are switched. The state (B) is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). 状態(A)は、第3入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。The state (A) is a diagram showing a virtual space after the third input operation is performed and the position and angle of the virtual camera are switched. The state (B) is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). 状態(A)は、第4入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。The state (A) is a diagram showing a virtual space after the fourth input operation is performed and the position and angle of the virtual camera are switched. The state (B) is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). 状態(A)は、第5入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。The state (A) is a diagram showing a virtual space after the fifth input operation is performed and the position and angle of the virtual camera are switched. The state (B) is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). 前記配信システムにおける、仮想カメラの視野領域の画像の他の一例を示す図である。It is a figure which shows another example of the image of the field of view area of a virtual camera in the said distribution system.

本開示に係る配信システムは、視聴者にコンテンツをリアルタイムに配信するためのシステムである。以下、配信システムについて図面を参照しつつ説明する。なお、本発明は以降の説明および図面における例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が本発明に含まれることが意図される。なお、以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。 The distribution system according to the present disclosure is a system for distributing content to viewers in real time. Hereinafter, the distribution system will be described with reference to the drawings. It should be noted that the present invention is not limited to the following description and examples in the drawings, and is indicated by the scope of claims, and all modifications within the meaning and scope equivalent to the scope of claims are included in the present invention. Is intended. In the following description, the same elements are designated by the same reference numerals in the description of the drawings, and duplicate description will not be repeated.

〔実施形態1〕
<配信システム1の動作概要>
図1は、本実施形態に係る配信システム1の概要を示す図である。配信システム1は、1台以上の配信サーバ200と、1台以上の配信端末300と、1台以上の視聴端末100とを含む。
[Embodiment 1]
<Outline of operation of distribution system 1>
FIG. 1 is a diagram showing an outline of the distribution system 1 according to the present embodiment. The distribution system 1 includes one or more distribution servers 200, one or more distribution terminals 300, and one or more viewing terminals 100.

(配信端末300)
配信端末300は、コンテンツをライブ配信する主体となる装置である。配信端末300は、例えばパーソナルコンピュータ(PC)またはスマートフォン等で実現される。なお、以降、配信端末300のユーザのことを、「配信者」と称する。配信端末300は、配信端末300のユーザによる入力操作に応じてコンテンツデータを作成する。コンテンツデータとは、視聴端末100において、配信者の作成したコンテンツを視聴するためのデータである。配信端末300はコンテンツデータを順次作成し、配信サーバ200にリアルタイムで配信する。以降、コンテンツデータをリアルタイムで配信することを、「ライブ配信」とも称する。
(Distribution terminal 300)
The distribution terminal 300 is a device that is a main body for live distribution of contents. The distribution terminal 300 is realized by, for example, a personal computer (PC) or a smartphone. Hereinafter, the user of the distribution terminal 300 will be referred to as a "distributor". The distribution terminal 300 creates content data in response to an input operation by the user of the distribution terminal 300. The content data is data for viewing the content created by the distributor on the viewing terminal 100. The distribution terminal 300 sequentially creates content data and distributes it to the distribution server 200 in real time. Hereinafter, the distribution of content data in real time is also referred to as "live distribution".

(配信サーバ200)
配信サーバ200は、配信端末300からリアルタイムに受信したコンテンツデータを、視聴端末100に配信するサーバである。また、配信サーバ200は、視聴端末100と配信端末300との間の各種情報の送受信を仲介するサーバでもある。
(Distribution server 200)
The distribution server 200 is a server that distributes content data received from the distribution terminal 300 in real time to the viewing terminal 100. The distribution server 200 is also a server that mediates the transmission and reception of various information between the viewing terminal 100 and the distribution terminal 300.

なお、配信サーバ200は、1台以上の視聴端末100からライブ配信に係る各種情報を収集して、該各種情報を配信端末300に送信してもよい。例えば、配信サーバ200は、現在コンテンツを再生している視聴端末100の台数、すなわち、現在の視聴者数を集計して配信端末300に送信してもよい。また、配信サーバ200は、コンテンツの配信開始からの、累計の視聴者数を集計して、配信端末300に送信してもよい。また、配信サーバ200は、前述した入力情報を送信した視聴端末100を特定し、該視聴端末100を示す情報を配信端末300に送信してもよい。 The distribution server 200 may collect various information related to live distribution from one or more viewing terminals 100 and transmit the various information to the distribution terminal 300. For example, the distribution server 200 may aggregate the number of viewing terminals 100 currently playing the content, that is, the current number of viewers, and transmit the content to the distribution terminal 300. Further, the distribution server 200 may aggregate the cumulative number of viewers from the start of distribution of the content and transmit it to the distribution terminal 300. Further, the distribution server 200 may specify the viewing terminal 100 that has transmitted the above-mentioned input information, and may transmit the information indicating the viewing terminal 100 to the distribution terminal 300.

(視聴端末100)
視聴端末100は、コンテンツデータをリアルタイムに受信し、該コンテンツデータを用いて映像を生成して再生する装置である。換言すると、視聴端末100は、コンテンツをリアルタイムレンダリングして再生する装置である。なお、以降の説明では、コンテンツをリアルタイムレンダリングして再生することを、単に「コンテンツを再生する」とも称する。視聴端末100は、例えばPCまたはスマートフォン等で実現される。視聴端末100は、視聴端末100のユーザによる入力操作に応じて、配信サーバ200からコンテンツデータを受信して再生する。具体的には、視聴端末100は、配信サーバ200からコンテンツデータとして、モーションなどのデータを受信し、視聴端末100において、これらのデータを用いてリアルタイムレンダリングにより映像(動画)を生成し、再生する。以降、視聴端末100のユーザのことを、「視聴者」と称する。コンテンツの再生の方法については、後で詳述する。
(Viewing terminal 100)
The viewing terminal 100 is a device that receives content data in real time and generates and reproduces an image using the content data. In other words, the viewing terminal 100 is a device that renders and reproduces the content in real time. In the following description, the real-time rendering and playback of the content is also referred to simply as "playing the content". The viewing terminal 100 is realized by, for example, a PC or a smartphone. The viewing terminal 100 receives and reproduces content data from the distribution server 200 in response to an input operation by the user of the viewing terminal 100. Specifically, the viewing terminal 100 receives data such as motion as content data from the distribution server 200, and the viewing terminal 100 generates and reproduces a video (moving image) by real-time rendering using these data. .. Hereinafter, the user of the viewing terminal 100 will be referred to as a "viewer". The method of playing the content will be described in detail later.

視聴端末100は、コンテンツデータを再生するだけでなく、視聴者の入力操作によって指定された、または入力された情報を、配信サーバ200を介して配信端末300に送信することも可能であってよい。例えば、視聴端末100は、視聴者の入力したコメントを、配信サーバ200を介して配信端末300に送信してもよい。 The viewing terminal 100 may not only reproduce the content data, but may also be able to transmit the information specified or input by the input operation of the viewer to the distribution terminal 300 via the distribution server 200. .. For example, the viewing terminal 100 may transmit the comment input by the viewer to the distribution terminal 300 via the distribution server 200.

本実施形態では、配信サーバ200と配信端末300とが別個の装置である例について説明する。しかしながら、配信サーバ200と配信端末300は一体の装置であってよい。例えば、1台のPCが、配信サーバ200としての機能と、配信端末300としての機能とを兼ね備えていてもよい。 In this embodiment, an example in which the distribution server 200 and the distribution terminal 300 are separate devices will be described. However, the distribution server 200 and the distribution terminal 300 may be an integrated device. For example, one PC may have both a function as a distribution server 200 and a function as a distribution terminal 300.

<配信システム1のハードウェア構成>
図1は、配信システム1のハードウェア構成を示す図である。配信システム1は図示の通り、配信端末300と、配信サーバ200と、複数の視聴端末100とを含む。視聴端末100および配信端末300は、配信サーバ200とネットワーク4を介して接続する。
<Hardware configuration of distribution system 1>
FIG. 1 is a diagram showing a hardware configuration of the distribution system 1. As shown in the figure, the distribution system 1 includes a distribution terminal 300, a distribution server 200, and a plurality of viewing terminals 100. The viewing terminal 100 and the distribution terminal 300 are connected to the distribution server 200 via the network 4.

(ネットワーク4)
ネットワーク4は、インターネットおよび図示しない無線基地局によって構築される各種移動通信システム等で構成される。この移動通信システムとしては、例えば、所謂3G、4G移動通信システム、LTE(Long Term Evolution)、および所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が挙げられる。
(Network 4)
The network 4 is composed of various mobile communication systems constructed by the Internet and a wireless base station (not shown). Examples of this mobile communication system include so-called 3G and 4G mobile communication systems, LTE (Long Term Evolution), and wireless networks (for example, Wi-Fi (registered trademark)) that can be connected to the Internet by a predetermined access point. Be done.

(配信サーバ200)
配信サーバ200(コンピュータ、情報処理装置)は、ワークステーションまたはパーソナルコンピュータ等の汎用コンピュータであってよい。配信サーバ200は、プロセッサ20と、メモリ21と、ストレージ22と、通信IF23と、入出力IF24とを備える。配信サーバ200が備えるこれらの構成は、通信バスによって互いに電気的に接続される。
(Distribution server 200)
The distribution server 200 (computer, information processing device) may be a general-purpose computer such as a workstation or a personal computer. The distribution server 200 includes a processor 20, a memory 21, a storage 22, a communication IF 23, and an input / output IF 24. These configurations included in the distribution server 200 are electrically connected to each other by a communication bus.

(視聴端末100)
視聴端末100(コンピュータ、情報処理装置)は、スマートフォン、フィーチャーフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。視聴端末100は、コンテンツの再生に適した再生装置であってもよい。視聴端末100は図示の通り、プロセッサ10と、メモリ11と、ストレージ12と、通信インターフェース(IF)13と、入出力IF14と、タッチスクリーン15(表示部)と、を備える。視聴端末100が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、視聴端末100は、タッチスクリーン15に代えて、または、加えて、視聴端末100本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF14を備えていてもよい。
(Viewing terminal 100)
The viewing terminal 100 (computer, information processing device) may be a mobile terminal such as a smartphone, a feature phone, a PDA (Personal Digital Assistant), or a tablet computer. The viewing terminal 100 may be a playback device suitable for playing back the content. As shown in the figure, the viewing terminal 100 includes a processor 10, a memory 11, a storage 12, a communication interface (IF) 13, an input / output IF 14, and a touch screen 15 (display unit). These configurations included in the viewing terminal 100 are electrically connected to each other by a communication bus. The viewing terminal 100 may be provided with an input / output IF 14 to which a display (display unit) configured separately from the viewing terminal 100 main body can be connected instead of or in addition to the touch screen 15.

また、図2に示すように、視聴端末100は、1つ以上のコントローラ1020と通信可能に構成されることとしてもよい。コントローラ1020は、例えば、Bluetooth(登録商標)等の通信規格に従って、視聴端末100と通信を確立する。コントローラ1020は、1つ以上のボタン等を有していてもよく、該ボタン等に対するユーザの入力操作に基づく出力値を視聴端末100へ送信する。また、コントローラ1020は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値を視聴端末100へ送信する。 Further, as shown in FIG. 2, the viewing terminal 100 may be configured to be communicable with one or more controllers 1020. The controller 1020 establishes communication with the viewing terminal 100 according to a communication standard such as Bluetooth (registered trademark). The controller 1020 may have one or more buttons or the like, and transmits an output value based on a user's input operation to the buttons or the like to the viewing terminal 100. Further, the controller 1020 may have various sensors such as an acceleration sensor and an angular velocity sensor, and transmits the output values of the various sensors to the viewing terminal 100.

また、コントローラ1020は、視聴端末100に着脱可能な構成であるとしてもよい。この場合、視聴端末100の筐体における少なくともいずれかの面に、コントローラ1020との結合部が設けられていてもよい。該結合部を介して有線により視聴端末100とコントローラ1020とが結合している場合は、視聴端末100とコントローラ1020とは、有線を介して信号を送受信する。 Further, the controller 1020 may be configured to be detachable from the viewing terminal 100. In this case, a coupling portion with the controller 1020 may be provided on at least one surface of the housing of the viewing terminal 100. When the viewing terminal 100 and the controller 1020 are connected by wire via the coupling portion, the viewing terminal 100 and the controller 1020 transmit and receive signals via wire.

図2に示すように、視聴端末100は、外部のメモリカード等の記憶媒体1030の装着を、入出力IF14を介して受け付けてもよい。これにより、視聴端末100は、記憶媒体1030に記録されるプログラム及びデータを読み込むことができる。記憶媒体1030に記録されるプログラムは、例えば視聴プログラムである。 As shown in FIG. 2, the viewing terminal 100 may accept the attachment of a storage medium 1030 such as an external memory card via the input / output IF14. As a result, the viewing terminal 100 can read the program and data recorded on the storage medium 1030. The program recorded on the storage medium 1030 is, for example, a viewing program.

視聴端末100は、配信サーバ200等の外部の装置と通信することにより取得した視聴プログラムを視聴端末100のメモリ11に記憶してもよいし、記憶媒体1030から読み込むことにより取得した視聴プログラムをメモリ11に記憶してもよい。 The viewing terminal 100 may store the viewing program acquired by communicating with an external device such as the distribution server 200 in the memory 11 of the viewing terminal 100, or the viewing program acquired by reading from the storage medium 1030 in the memory. It may be stored in 11.

以上で説明したとおり、視聴端末100は、該視聴端末100に対して情報を入力する機構の一例として、通信IF13、入出力IF14、およびタッチスクリーン15を備える。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。 As described above, the viewing terminal 100 includes a communication IF 13, an input / output IF 14, and a touch screen 15 as an example of a mechanism for inputting information to the viewing terminal 100. Each of the above-mentioned parts as an input mechanism can be regarded as an operation part configured to accept a user's input operation.

例えば、操作部がタッチスクリーン15で構成される場合、視聴端末100は、タッチスクリーン15の入力部151に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF13で構成される場合、視聴端末100は、コントローラ1020から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF14で構成される場合、該入出力IF14と接続されるコントローラ1020とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。 For example, when the operation unit is composed of the touch screen 15, the viewing terminal 100 identifies and accepts the user's operation performed on the input unit 151 of the touch screen 15 as the user's input operation. Alternatively, when the operation unit is composed of the communication IF 13, the viewing terminal 100 identifies and accepts a signal (for example, an output value) transmitted from the controller 1020 as an input operation of the user. Alternatively, when the operation unit is composed of the input / output IF14, a signal output from an input device (not shown) different from the controller 1020 connected to the input / output IF14 is specified and accepted as a user input operation.

(配信端末300)
配信端末300(コンピュータ、情報処理装置)は、スマートフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。また、配信端末300は、サーバ、デスクトップパソコン、ノートパソコン、または、タブレットなどのコンピュータ、および、これらを組み合わせたコンピュータ群であってもよい。
(Distribution terminal 300)
The distribution terminal 300 (computer, information processing device) may be a mobile terminal such as a smartphone, a PDA (Personal Digital Assistant), or a tablet computer. Further, the distribution terminal 300 may be a computer such as a server, a desktop personal computer, a laptop computer, or a tablet, and a group of computers in which these are combined.

配信端末300は、表示装置、入力装置、情報処理装置が、ライブ配信に適するように接続された装置群であってもよい。配信端末300は図示の通り、プロセッサ30と、メモリ31と、ストレージ32と、通信インターフェース(IF)33と、入出力IF34と、タッチスクリーン35(表示部)とを備える。配信端末300が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、配信端末300は、タッチスクリーン35に代えて、または、加えて、配信端末300本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF34を備えていてもよい。 The distribution terminal 300 may be a group of devices in which a display device, an input device, and an information processing device are connected so as to be suitable for live distribution. As shown in the figure, the distribution terminal 300 includes a processor 30, a memory 31, a storage 32, a communication interface (IF) 33, an input / output IF 34, and a touch screen 35 (display unit). These configurations included in the distribution terminal 300 are electrically connected to each other by a communication bus. The distribution terminal 300 may include an input / output IF 34 to which a display (display unit) configured separately from the distribution terminal 300 main body can be connected instead of or in addition to the touch screen 35.

また、図1に示すように、配信端末300は、1つ以上のマイク3010、1つ以上のモーションキャプチャ装置3020、および、1つ以上のコントローラ3030などの周辺機器と、無線または有線を介して、通信可能に構成されてもよい。無線で接続される周辺機器は、例えば、Bluetooth(登録商標)等の通信規格に従って、配信端末300と通信を確立する。また、これらの周辺機器を含めた装置群を、1セットの配信端末300と捉えてもよい。 Further, as shown in FIG. 1, the distribution terminal 300 is connected to peripheral devices such as one or more microphones 3010, one or more motion capture devices 3020, and one or more controllers 3030 via wireless or wired. , May be configured to be communicable. The wirelessly connected peripheral device establishes communication with the distribution terminal 300 according to a communication standard such as Bluetooth (registered trademark). Further, the device group including these peripheral devices may be regarded as one set of distribution terminals 300.

マイク3010は、周囲で発生した音声を取得し、これを電気信号に変換する。電気信号に変換された音声は、音声データとして、配信端末300に送信され、通信IF33を介して配信端末300に受け付けられる。 The microphone 3010 acquires the voice generated in the surroundings and converts it into an electric signal. The voice converted into an electric signal is transmitted to the distribution terminal 300 as voice data, and is received by the distribution terminal 300 via the communication IF 33.

モーションキャプチャ装置3020は、追跡対象(例えば、人)のモーション(頭の位置および姿勢、顔の表情、口の動きなども含む)を追跡し、追跡結果としての出力値を配信端末300へ送信する。出力値であるモーションデータは、通信IF33を介して配信端末300に受け付けられる。モーションキャプチャ装置3020のモーションキャプチャ方式は特に限定されない。モーションキャプチャ装置3020は、採用された方式に応じて、カメラ、各種センサ、マーカー、モデル(人物)が着用するスーツ、信号送出器、HMD(Head Mount Device)など、モーションをキャプチャするためのあらゆる機構を選択的に備えている。 The motion capture device 3020 tracks the motion (including the position and posture of the head, the facial expression, the movement of the mouth, etc.) of the tracking target (for example, a person), and transmits the output value as the tracking result to the distribution terminal 300. .. The motion data, which is an output value, is received by the distribution terminal 300 via the communication IF 33. The motion capture method of the motion capture device 3020 is not particularly limited. The motion capture device 3020 is a mechanism for capturing motion, such as a camera, various sensors, markers, a suit worn by a model (person), a signal transmitter, and an HMD (Head Mount Device), depending on the method adopted. Is selectively prepared.

コントローラ3030は、1つ以上のボタン、レバー、スティック、ホイール等の物理的な入力機構を有していてもよい。コントローラ3030は、配信端末300のオペレータが、該入力機構に対して入力した入力操作に基づく出力値を配信端末300へ送信する。また、コントローラ3030は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値を配信端末300へ送信してもよい。上述の出力値は、通信IF33を介して配信端末300に受け付けられる。なお、以下では、配信端末300に備えられた操作部または配信端末300と通信可能に接続された各種の入力機構を用いて、配信端末300に対して、何らかの入力操作を行う人をオペレータと称する。オペレータには、入力部351、コントローラ3030などを用いて配信端末300を操作する人も含まれるし、マイク3010を介して音声を入力する声優も含まれるし、モーションキャプチャ装置3020を介して動きを入力するモデルも含まれる。 The controller 3030 may have one or more physical input mechanisms such as buttons, levers, sticks, wheels and the like. The controller 3030 transmits an output value based on an input operation input to the input mechanism by the operator of the distribution terminal 300 to the distribution terminal 300. Further, the controller 3030 may have various sensors such as an acceleration sensor and an angular velocity sensor, and may transmit output values of the various sensors to the distribution terminal 300. The above output value is received by the distribution terminal 300 via the communication IF 33. In the following, a person who performs some input operation on the distribution terminal 300 by using an operation unit provided in the distribution terminal 300 or various input mechanisms communicably connected to the distribution terminal 300 is referred to as an operator. .. The operator includes a person who operates the distribution terminal 300 using the input unit 351 and the controller 3030, a voice actor who inputs voice through the microphone 3010, and moves via the motion capture device 3020. The model to be entered is also included.

配信端末300は、図示しない、カメラと、測距センサとを備えていてもよい。配信端末300が備えることに代えて、または、加えて、モーションキャプチャ装置3020およびコントローラ3030がカメラと、測距センサとを有してしてもよい。 The distribution terminal 300 may include a camera and a distance measuring sensor (not shown). Alternatively or in addition to the distribution terminal 300, the motion capture device 3020 and the controller 3030 may have a camera and a distance measuring sensor.

以上で説明したとおり、配信端末300は、該配信端末300に対して情報を入力する機構の一例として、通信IF33、入出力IF34、タッチスクリーン35を備える。配信端末300は、必要に応じて、カメラ、および、測距センサをさらに備えていてもよい。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。 As described above, the distribution terminal 300 includes a communication IF 33, an input / output IF 34, and a touch screen 35 as an example of a mechanism for inputting information to the distribution terminal 300. The distribution terminal 300 may further include a camera and a distance measuring sensor, if necessary. Each of the above-mentioned parts as an input mechanism can be regarded as an operation part configured to accept a user's input operation.

操作部は、タッチスクリーン35で構成されていてもよい。この場合、配信端末300は、タッチスクリーン35の入力部351に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF33で構成される場合、配信端末300は、コントローラ3030から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF34で構成される場合、該入出力IF34と接続されるコントローラ3030とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。 The operation unit may be composed of the touch screen 35. In this case, the distribution terminal 300 identifies and accepts the user's operation performed on the input unit 351 of the touch screen 35 as the user's input operation. Alternatively, when the operation unit is composed of the communication IF 33, the distribution terminal 300 identifies and accepts a signal (for example, an output value) transmitted from the controller 3030 as an input operation of the user. Alternatively, when the operation unit is composed of the input / output IF34, a signal output from an input device (not shown) different from the controller 3030 connected to the input / output IF34 is specified as an input operation of the user and received.

<各装置のハードウェア構成要素>
プロセッサ10は、視聴端末100全体の動作を制御する。プロセッサ20は、配信サーバ200全体の動作を制御する。プロセッサ30は、配信端末300全体の動作を制御する。プロセッサ10、20、および30は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、およびGPU(Graphics Processing Unit)を含む。
<Hardware components of each device>
The processor 10 controls the operation of the entire viewing terminal 100. The processor 20 controls the operation of the entire distribution server 200. The processor 30 controls the operation of the entire distribution terminal 300. Processors 10, 20, and 30 include a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and a GPU (Graphics Processing Unit).

プロセッサ10は後述するストレージ12からプログラムを読み出し、後述するメモリ11に展開する。プロセッサ20は後述するストレージ22からプログラムを読み出し、後述するメモリ21に展開する。プロセッサ30は後述するストレージ32からプログラムを読み出し、後述するメモリ31に展開する。プロセッサ10、プロセッサ20、およびプロセッサ30は、展開したプログラムを実行する。 The processor 10 reads a program from the storage 12 described later and expands it into the memory 11 described later. The processor 20 reads a program from the storage 22 described later and expands it into the memory 21 described later. The processor 30 reads a program from the storage 32 described later and expands it into the memory 31 described later. Processor 10, processor 20, and processor 30 execute the expanded program.

メモリ11、21、および31は主記憶装置である。メモリ11、21、および31は、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置で構成される。メモリ11は、プロセッサ10が後述するストレージ12から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ10に作業領域を提供する。メモリ11は、プロセッサ10がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ21は、プロセッサ20が後述するストレージ22から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ20に作業領域を提供する。メモリ21は、プロセッサ20がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ31は、プロセッサ30が後述するストレージ32から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ30に作業領域を提供する。メモリ31は、プロセッサ30がプログラムに従って動作している間に生成した各種データも一時的に記憶する。 The memories 11, 21, and 31 are the main storage devices. The memories 11, 21, and 31 are composed of storage devices such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The memory 11 provides a work area to the processor 10 by temporarily storing a program and various data read from the storage 12 described later by the processor 10. The memory 11 also temporarily stores various data generated while the processor 10 is operating according to the program. The memory 21 provides a work area to the processor 20 by temporarily storing various programs and data read from the storage 22 described later by the processor 20. The memory 21 also temporarily stores various data generated while the processor 20 is operating according to the program. The memory 31 provides a work area to the processor 30 by temporarily storing various programs and data read from the storage 32 described later by the processor 30. The memory 31 also temporarily stores various data generated while the processor 30 is operating according to the program.

本実施形態において、プロセッサ30が実行するプログラムは、コンテンツのライブ配信を実現するための配信プログラムであってもよい。本実施形態において、プロセッサ10が実行するプログラムは、コンテンツの再生を実現するための、視聴プログラムであってもよい。 In the present embodiment, the program executed by the processor 30 may be a distribution program for realizing live distribution of contents. In the present embodiment, the program executed by the processor 10 may be a viewing program for realizing the reproduction of the content.

本実施形態において、プロセッサ20が実行するプログラムは、上述の配信プログラムであってもよいし、上述の視聴プログラムであってもよい。プロセッサ20は、視聴端末100または配信端末300からの要求等に応じて、配信プログラムと視聴プログラムとのいずれか、または両方を実行する。なお、配信プログラムと視聴プログラムは、並行して実行されてもよい。 In the present embodiment, the program executed by the processor 20 may be the above-mentioned distribution program or the above-mentioned viewing program. The processor 20 executes either or both of the distribution program and the viewing program in response to a request from the viewing terminal 100 or the distribution terminal 300 or the like. The distribution program and the viewing program may be executed in parallel.

すなわち、配信プログラムは、ライブ配信を配信サーバ200と配信端末300との協働により実現するための配信プログラムであってもよい。また、視聴プログラムは、コンテンツの再生を、視聴端末100と配信サーバ200との協働により実現するための視聴プログラムであってもよい。 That is, the distribution program may be a distribution program for realizing live distribution in collaboration with the distribution server 200 and the distribution terminal 300. Further, the viewing program may be a viewing program for realizing the reproduction of the content by the collaboration between the viewing terminal 100 and the distribution server 200.

ストレージ12、22、および32は補助記憶装置である。ストレージ12、22、および32は、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置で構成される。ストレージ12、22、および32には、ゲームに関する各種データが格納される。 Storages 12, 22, and 32 are auxiliary storage devices. The storages 12, 22, and 32 are composed of a storage device such as a flash memory or an HDD (Hard Disk Drive). Various data related to the game are stored in the storages 12, 22, and 32.

通信IF13は、視聴端末100における各種データの送受信を制御する。通信IF23は、配信サーバ200における各種データの送受信を制御する。通信IF33は、配信端末300における各種データの送受信を制御する。通信IF13、23、および33は例えば、無線LAN(Local Area Network)を介する通信、有線LAN、無線LAN、または携帯電話回線網を介したインターネット通信、ならびに近距離無線通信等を用いた通信を制御する。 The communication IF 13 controls the transmission / reception of various data in the viewing terminal 100. The communication IF 23 controls the transmission and reception of various data on the distribution server 200. The communication IF 33 controls the transmission / reception of various data in the distribution terminal 300. The communication IFs 13, 23, and 33 control, for example, communication via a wireless LAN (Local Area Network), Internet communication via a wired LAN, a wireless LAN, or a mobile phone network, and communication using a short-range wireless communication or the like. To do.

視聴端末100の入出力IF14は、視聴端末100がデータの入力を受け付けるためのインターフェースであり、また視聴端末100がデータを出力するためのインターフェースである。入出力IF14は、USB(Universal Serial Bus)等を介してデータの入出力を行ってもよい。入出力IF14は、例えば、視聴端末100の物理ボタン、カメラ、マイク、または、スピーカ等を含み得る。配信サーバ200の入出力IF24は、配信サーバ200がデータの入力を受け付けるためのインターフェースであり、また配信サーバ200がデータを出力するためのインターフェースである。入出力IF24は、例えば、マウスまたはキーボード等の情報入力機器である入力部と、画像を表示出力する機器である表示部とを含み得る。配信端末300の入出力IF34は、配信端末300がデータの入力を受け付けるためのインターフェースであり、また配信端末300がデータを出力するためのインターフェースである。入出力IF34は、例えば、マウス、キーボード、スティック、レバー等の情報入力機器、液晶ディスプレイなどの画像を表示出力する機器、および、周辺機器(マイク3010、モーションキャプチャ装置3020、および、コントローラ3030)との間でデータを送受信するための接続部を含み得る。 The input / output IF 14 of the viewing terminal 100 is an interface for the viewing terminal 100 to accept data input, and an interface for the viewing terminal 100 to output data. The input / output IF 14 may input / output data via USB (Universal Serial Bus) or the like. The input / output IF 14 may include, for example, a physical button, a camera, a microphone, a speaker, or the like of the viewing terminal 100. The input / output IF24 of the distribution server 200 is an interface for the distribution server 200 to receive data input, and an interface for the distribution server 200 to output data. The input / output IF 24 may include, for example, an input unit that is an information input device such as a mouse or a keyboard, and a display unit that is a device that displays and outputs an image. The input / output IF 34 of the distribution terminal 300 is an interface for the distribution terminal 300 to receive data input, and an interface for the distribution terminal 300 to output data. The input / output IF34 includes, for example, information input devices such as a mouse, keyboard, stick, and lever, devices for displaying and outputting images such as a liquid crystal display, and peripheral devices (microphone 3010, motion capture device 3020, and controller 3030). It may include a connection for sending and receiving data between.

視聴端末100のタッチスクリーン15は、入力部151と表示部152とを組み合わせた電子部品である。配信端末300のタッチスクリーン35は、入力部351と表示部352とを組み合わせた電子部品である。入力部151および351は、例えばタッチセンシティブなデバイスであり、例えばタッチパッドによって構成される。表示部152および352は、例えば液晶ディスプレイ、または有機EL(Electro-Luminescence)ディスプレイ等によって構成される。 The touch screen 15 of the viewing terminal 100 is an electronic component that combines an input unit 151 and a display unit 152. The touch screen 35 of the distribution terminal 300 is an electronic component that combines an input unit 351 and a display unit 352. The input units 151 and 351 are, for example, touch-sensitive devices, and are configured by, for example, a touch pad. The display units 152 and 352 are composed of, for example, a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like.

入力部151および351は、入力面に対しユーザの操作(主にタッチ操作、スライド操作、スワイプ操作、およびタップ操作等の物理的接触操作)が入力された位置を検知して、位置を示す情報を入力信号として送信する機能を備える。入力部151および351は、図示しないタッチセンシング部を備えていればよい。タッチセンシング部は、静電容量方式または抵抗膜方式等のどのような方式を採用したものであってもよい。 The input units 151 and 351 detect the position where the user's operation (mainly a physical contact operation such as a touch operation, a slide operation, a swipe operation, and a tap operation) is input to the input surface, and information indicating the position. Is provided as an input signal. The input units 151 and 351 may include touch sensing units (not shown). The touch sensing unit may adopt any method such as a capacitance method or a resistance film method.

図示していないが、視聴端末100は、該視聴端末100の保持姿勢を特定するための1以上のセンサを備えていてもよい。このセンサは、例えば、加速度センサ、または、角速度センサ等であってもよい。視聴端末100がセンサを備えている場合、プロセッサ10は、センサの出力から視聴端末100の保持姿勢を特定して、保持姿勢に応じた処理を行うことも可能になる。例えば、プロセッサ10は、視聴端末100が縦向きに保持されているときには、縦長の画像を表示部152に表示させる縦画面表示としてもよい。一方、視聴端末100が横向きに保持されているときには、横長の画像を表示部に表示させる横画面表示としてもよい。このように、プロセッサ10は、視聴端末100の保持姿勢に応じて縦画面表示と横画面表示とを切り替え可能であってもよい。 Although not shown, the viewing terminal 100 may include one or more sensors for specifying the holding posture of the viewing terminal 100. This sensor may be, for example, an acceleration sensor, an angular velocity sensor, or the like. When the viewing terminal 100 includes a sensor, the processor 10 can also specify the holding posture of the viewing terminal 100 from the output of the sensor and perform processing according to the holding posture. For example, the processor 10 may be a vertical screen display in which a vertically long image is displayed on the display unit 152 when the viewing terminal 100 is held in the vertical direction. On the other hand, when the viewing terminal 100 is held horizontally, it may be a horizontal screen display in which a horizontally long image is displayed on the display unit. In this way, the processor 10 may be able to switch between the vertical screen display and the horizontal screen display according to the holding posture of the viewing terminal 100.

カメラ17は、イメージセンサ等を含み、レンズから入射する入射光を電気信号に変換することで撮影画像を生成する。 The camera 17 includes an image sensor and the like, and generates a captured image by converting the incident light incident from the lens into an electric signal.

測距センサ18は、測定対象物までの距離を測定するセンサである。測距センサ18は、例えば、パルス変換した光を発する光源と、光を受ける受光素子とを含む。測距センサ18は、光源からの発光タイミングと、該光源から発せられた光が測定対象物にあたって反射されて生じる反射光の受光タイミングとにより、測定対象物までの距離を測定する。測距センサ18は、指向性を有する光を発する光源を有することとしてもよい。 The distance measuring sensor 18 is a sensor that measures the distance to the object to be measured. The ranging sensor 18 includes, for example, a light source that emits pulse-converted light and a light receiving element that receives the light. The distance measuring sensor 18 measures the distance to the object to be measured by the timing of light emission from the light source and the timing of receiving the reflected light generated by the light emitted from the light source being reflected by the object to be measured. The ranging sensor 18 may have a light source that emits light having directivity.

<配信システム1の機能的構成>
図3は、配信システム1に含まれる視聴端末100、配信サーバ200、および配信端末300の機能的構成を示すブロック図である。視聴端末100、配信サーバ200、および配信端末300のそれぞれは、図示しない、一般的なコンピュータとして機能する場合に必要な機能的構成、および、ゲームにおける公知の機能を実現するために必要な機能的構成を含み得る。
<Functional configuration of distribution system 1>
FIG. 3 is a block diagram showing the functional configurations of the viewing terminal 100, the distribution server 200, and the distribution terminal 300 included in the distribution system 1. Each of the viewing terminal 100, the distribution server 200, and the distribution terminal 300 has a functional configuration (not shown) required for functioning as a general computer, and functional functions required for realizing known functions in the game. May include configurations.

視聴端末100は、ユーザの入力操作を受け付ける入力装置としての機能と、ゲームの画像や音声を出力する出力装置としての機能を有する。視聴端末100は、プロセッサ10、メモリ11、ストレージ12、通信IF13、および入出力IF14等の協働によって、制御部110および記憶部120として機能する。 The viewing terminal 100 has a function as an input device that accepts a user's input operation and a function as an output device that outputs a game image or sound. The viewing terminal 100 functions as a control unit 110 and a storage unit 120 in cooperation with the processor 10, the memory 11, the storage 12, the communication IF 13, the input / output IF 14, and the like.

配信サーバ200は、配信端末300および視聴端末100と通信する、配信サーバ200は、配信端末300から視聴端末100へコンテンツデータを配信する場合の仲介となる機能を有する。配信サーバ200は、プロセッサ20、メモリ21、ストレージ22、通信IF23、および入出力IF24等の協働によって、制御部210および記憶部220として機能する。 The distribution server 200 communicates with the distribution terminal 300 and the viewing terminal 100, and the distribution server 200 has a function of acting as an intermediary when distributing content data from the distribution terminal 300 to the viewing terminal 100. The distribution server 200 functions as a control unit 210 and a storage unit 220 in cooperation with the processor 20, the memory 21, the storage 22, the communication IF23, the input / output IF24, and the like.

配信端末300は、コンテンツを作成して、該コンテンツを、配信サーバ200を介して視聴端末100にライブ配信する機能を有する。配信端末300は、プロセッサ30、メモリ31、ストレージ32、通信IF33、および入出力IF34等の協働によって、制御部310および記憶部320として機能する。 The distribution terminal 300 has a function of creating content and delivering the content live to the viewing terminal 100 via the distribution server 200. The distribution terminal 300 functions as a control unit 310 and a storage unit 320 in cooperation with the processor 30, the memory 31, the storage 32, the communication IF 33, the input / output IF 34, and the like.

(各装置の記憶部が格納するデータ)
記憶部120は、視聴プログラム131と、視聴端末100に対応する視聴者の視聴者情報132とを格納する。記憶部320は、配信プログラム331と、配信端末300に対応する配信者の配信者情報332とを格納する。記憶部220は、視聴プログラム131と、視聴者情報132と、配信プログラム331と、配信者情報332と、を格納する。記憶部220は、各配信端末300から収集した配信者情報332をまとめて記憶する。記憶部220は、各視聴端末100から収集した視聴者情報132をまとめて記憶する。
(Data stored in the storage unit of each device)
The storage unit 120 stores the viewing program 131 and the viewer information 132 of the viewer corresponding to the viewing terminal 100. The storage unit 320 stores the distribution program 331 and the distributor information 332 of the distributor corresponding to the distribution terminal 300. The storage unit 220 stores the viewing program 131, the viewer information 132, the distribution program 331, and the distributor information 332. The storage unit 220 collectively stores the distributor information 332 collected from each distribution terminal 300. The storage unit 220 collectively stores the viewer information 132 collected from each viewing terminal 100.

視聴プログラム131は、視聴端末100および配信サーバ200が実行するプログラムである。一方、配信プログラム231は、配信端末300および配信サーバ200が実行するプログラムである。 The viewing program 131 is a program executed by the viewing terminal 100 and the distribution server 200. On the other hand, the distribution program 231 is a program executed by the distribution terminal 300 and the distribution server 200.

なお、配信サーバ200による視聴プログラム131および配信プログラム331の実行は、必須ではない。例えば視聴端末100が単独で視聴プログラム131を実行することで、コンテンツの再生を実現可能である場合、配信サーバ200は、視聴プログラム131を実行しなくてもよい。また例えば、配信端末300が単独で配信プログラム331を実行することでライブ配信を実現可能である場合、配信サーバ200は、配信プログラム331を実行しなくてもよい。 It should be noted that the execution of the viewing program 131 and the distribution program 331 by the distribution server 200 is not essential. For example, when the viewing terminal 100 can realize the reproduction of the content by executing the viewing program 131 independently, the distribution server 200 does not have to execute the viewing program 131. Further, for example, when the distribution terminal 300 can realize live distribution by executing the distribution program 331 independently, the distribution server 200 does not have to execute the distribution program 331.

視聴者情報132は、制御部110が視聴プログラム131を実行する際に参照するデータである。視聴者情報132は、視聴者毎に管理されるデータである。例えば、視聴者情報132には視聴者の名称、すなわち、視聴端末100が対応する視聴者のアカウントの名称が含まれていてもよい。また、視聴者情報132には、視聴端末100に対応する視聴者のアカウントにおける、コンテンツの閲覧履歴、メッセージの送受信の履歴等が含まれていてもよい。 The viewer information 132 is data that the control unit 110 refers to when executing the viewing program 131. The viewer information 132 is data managed for each viewer. For example, the viewer information 132 may include the name of the viewer, that is, the name of the viewer account supported by the viewing terminal 100. Further, the viewer information 132 may include a content browsing history, a message transmission / reception history, and the like in the viewer account corresponding to the viewing terminal 100.

配信者情報332は、制御部210が配信プログラム231を実行する際に参照するデータである。配信者情報332は、配信者毎に管理されるデータである。例えば、配信者情報332には、配信端末300が対応する配信者のアカウントの名称を示す情報が含まれていてもよい。また、配信者情報332には、配信端末300に対応する配信者のアカウントにおける、コンテンツの配信履歴、配信したコンテンツの再生数等、配信したコンテンツに係る各種情報、メッセージの送受信の履歴が含まれていてもよい。 The distributor information 332 is data that the control unit 210 refers to when executing the distribution program 231. The distributor information 332 is data managed for each distributor. For example, the distributor information 332 may include information indicating the name of the account of the distributor corresponding to the distribution terminal 300. In addition, the distributor information 332 includes various information related to the distributed content such as the distribution history of the content, the number of playbacks of the distributed content, and the history of sending and receiving messages in the account of the distributor corresponding to the distribution terminal 300. You may be.

(配信サーバ200の機能的構成)
制御部210は、記憶部220に格納された配信プログラム231を実行することにより、配信サーバ200を統括的に制御する。例えば、制御部210は、配信端末300からにコンテンツをリアルタイムに受信して、該コンテンツを視聴端末100にライブ配信する。制御部210は、必要に応じて、視聴端末100および配信端末300と通信して、各種情報の送受信を行う。
(Functional configuration of distribution server 200)
The control unit 210 comprehensively controls the distribution server 200 by executing the distribution program 231 stored in the storage unit 220. For example, the control unit 210 receives the content from the distribution terminal 300 in real time and delivers the content live to the viewing terminal 100. The control unit 210 communicates with the viewing terminal 100 and the distribution terminal 300 to transmit and receive various information as needed.

制御部210は、配信プログラム231の記述に応じて、送受信部211、サーバ処理部212、および、データ管理部213として機能する。制御部210は、配信端末300からのコンテンツのライブ配信、ならびに、視聴端末100による該コンテンツの再生を支援するために、図示しないその他の機能ブロックとしても機能することができる。 The control unit 210 functions as a transmission / reception unit 211, a server processing unit 212, and a data management unit 213 according to the description of the distribution program 231. The control unit 210 can also function as another functional block (not shown) in order to support live distribution of the content from the distribution terminal 300 and reproduction of the content by the viewing terminal 100.

送受信部211は、配信端末300から各種データおよびリクエストを受信する。例えば、送受信部211は、配信者情報332の一部または全部を、配信端末300から受信する。送受信部211は、配信端末300に対し各種データおよびリクエストを送信する。 The transmission / reception unit 211 receives various data and requests from the distribution terminal 300. For example, the transmission / reception unit 211 receives a part or all of the distributor information 332 from the distribution terminal 300. The transmission / reception unit 211 transmits various data and requests to the distribution terminal 300.

また、送受信部211は、視聴端末100から各種データおよびリクエストを受信する。例えば、送受信部211は、視聴端末100からのライブ配信の要求を受信する。送受信部211は、視聴端末100に対し各種情報を送信する。例えば、送受信部211は、視聴端末100に対しコンテンツをライブ配信する。 In addition, the transmission / reception unit 211 receives various data and requests from the viewing terminal 100. For example, the transmission / reception unit 211 receives a request for live distribution from the viewing terminal 100. The transmission / reception unit 211 transmits various information to the viewing terminal 100. For example, the transmission / reception unit 211 delivers the content live to the viewing terminal 100.

サーバ処理部212は、コンテンツのライブ配信および再生のために必要な演算処理を行う。サーバ処理部212は送受信部211に対し、各種データの送信を指示する。サーバ処理部212は、データ管理部213に対し、各種情報の追加、更新、または削除を指示する。 The server processing unit 212 performs arithmetic processing necessary for live distribution and playback of the content. The server processing unit 212 instructs the transmission / reception unit 211 to transmit various data. The server processing unit 212 instructs the data management unit 213 to add, update, or delete various types of information.

データ管理部213は、記憶部220に格納されているデータを管理する。データ管理部213は、サーバ処理部212からの指示に応じて配信者情報332および視聴者情報132に含まれる各種情報の、追加、更新、または削除を実行する。データ管理部213は、サーバ処理部212の指示に従って、記憶部220から配信者情報332および視聴者情報132のうち少なくとも一方の情報を読み出してもよい。 The data management unit 213 manages the data stored in the storage unit 220. The data management unit 213 adds, updates, or deletes various information included in the distributor information 332 and the viewer information 132 in response to an instruction from the server processing unit 212. The data management unit 213 may read at least one of the distributor information 332 and the viewer information 132 from the storage unit 220 according to the instruction of the server processing unit 212.

(視聴端末100の機能的構成)
制御部110は、記憶部120に格納された視聴プログラム131を実行することにより、視聴端末100を統括的に制御する。例えば、制御部110は、視聴プログラム131およびユーザの操作にしたがって、コンテンツの再生を実行する。また、制御部110は、コンテンツの再生中に、必要に応じて、配信サーバ200と通信して、情報の送受信を行う。
(Functional configuration of viewing terminal 100)
The control unit 110 comprehensively controls the viewing terminal 100 by executing the viewing program 131 stored in the storage unit 120. For example, the control unit 110 executes the reproduction of the content according to the operation of the viewing program 131 and the user. Further, the control unit 110 communicates with the distribution server 200 to send and receive information as needed during the reproduction of the content.

制御部110は、視聴プログラム131の記述に応じて、操作受付部111、再生部112、表示制御部113、および通信部114として機能する。制御部110は、コンテンツの再生を実現するために、図示しないその他の機能ブロックとしても機能することができる。 The control unit 110 functions as an operation reception unit 111, a reproduction unit 112, a display control unit 113, and a communication unit 114 according to the description of the viewing program 131. The control unit 110 can also function as other functional blocks (not shown) in order to realize the reproduction of the content.

操作受付部111は、入力部151に対するユーザの入力操作を検知し受け付ける。操作受付部111は、タッチスクリーン15およびその他の入出力IF14を介したコンソールに対してユーザが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部110の各要素に出力する。 The operation reception unit 111 detects and accepts a user's input operation with respect to the input unit 151. The operation reception unit 111 determines what kind of input operation has been performed from the action exerted by the user on the console via the touch screen 15 and other input / output IF 14, and outputs the result to each element of the control unit 110. To do.

例えば、操作受付部111は、入力部151に対する入力操作を受け付け、該入力操作の入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部111は、入力操作の種類として、例えばタッチ操作、スライド操作、スワイプ操作、およびタップ操作等を特定する。また、操作受付部111は、連続して検知されていた入力が途切れると、タッチスクリーン15から接触入力が解除されたことを検知する。 For example, the operation receiving unit 111 receives an input operation for the input unit 151, detects the coordinates of the input position of the input operation, and specifies the type of the input operation. The operation reception unit 111 specifies, for example, a touch operation, a slide operation, a swipe operation, a tap operation, and the like as the types of input operations. Further, the operation reception unit 111 detects that the contact input is released from the touch screen 15 when the continuously detected input is interrupted.

再生部112は、コンテンツの再生に係る処理を実行する。再生部112は、通信部114を介して配信サーバ200からコンテンツデータをリアルタイムで受信する。再生部112は、空間定義部112A、背景制御部112B、オブジェクト制御部112C、カメラ制御部112D、および描画部112Eを含む。 The reproduction unit 112 executes a process related to the reproduction of the content. The playback unit 112 receives content data from the distribution server 200 in real time via the communication unit 114. The reproduction unit 112 includes a space definition unit 112A, a background control unit 112B, an object control unit 112C, a camera control unit 112D, and a drawing unit 112E.

空間定義部112Aは、コンテンツデータに基づいて、仮想空間を定義する。仮想空間の具体例および定義方法については、後で詳述する。 The space definition unit 112A defines a virtual space based on the content data. Specific examples and definition methods of virtual space will be described in detail later.

背景制御部112Bは、コンテンツデータによって指定された背景画像を仮想空間に配置する。背景画像の種類は特に限定されないが、例えば、実在する特定の地点の周囲360度を撮影した風景画像であってもよい。 The background control unit 112B arranges the background image specified by the content data in the virtual space. The type of the background image is not particularly limited, but for example, it may be a landscape image obtained by photographing 360 degrees around a specific existing point.

オブジェクト制御部112Cは、コンテンツデータによって指定されたオブジェクトを仮想空間に、該データで指定された位置に指定された姿勢で配置する。 The object control unit 112C arranges the object specified by the content data in the virtual space at the position specified by the data and the posture specified by the data.

カメラ制御部112Dは、仮想空間に仮想カメラを配置する。仮想カメラとは、仮想空間におけるユーザの仮想視点の位置および角度を規定するものである。 The camera control unit 112D arranges a virtual camera in the virtual space. The virtual camera defines the position and angle of the user's virtual viewpoint in the virtual space.

描画部112Eは、仮想空間のうち、少なくとも、仮想カメラの視野領域に含まれるオブジェクトおよび背景画像を、動画像または静止画として描画する。以降、仮想カメラの視野領域に含まれるオブジェクトおよび背景画像を描画した動画像または静止画を、単に「視野領域の画像」と称する。なお、描画部112Eは視野領域のみならず、仮想空間全体の背景画像およびオブジェクト等を描画してもよい。 The drawing unit 112E draws at least an object and a background image included in the visual field area of the virtual camera in the virtual space as a moving image or a still image. Hereinafter, a moving image or a still image in which an object included in the visual field area of the virtual camera and a background image are drawn is simply referred to as an “image in the visual field area”. The drawing unit 112E may draw not only the visual field area but also the background image and objects of the entire virtual space.

表示制御部113は、再生部112の描画部112Eが描画した視野領域の画像を、コンテンツとして表示部152に表示させる。なお、表示制御部113は、UI(user interface)を構築するための2Dまたは3Dのゲームオブジェクト(UIオブジェクト)を制御および描画してもよい。例えば、表示制御部113は、コンテンツの視聴のための種々の操作に必要なUIオブジェクトを、コンテンツと重畳、またはコンテンツとともに表示部152の画面に表示してもよい。UIオブジェクトとは、例えば、アイコン、ボタン、リスト、メニュー画面等である。また、UIオブジェクトとは、視聴端末100におけるコンテンツの再生中に、視聴端末100から視聴者に、各種情報を通知するためのツールである。 The display control unit 113 causes the display unit 152 to display an image of the visual field region drawn by the drawing unit 112E of the reproduction unit 112 as content. The display control unit 113 may control and draw a 2D or 3D game object (UI object) for constructing a UI (user interface). For example, the display control unit 113 may superimpose UI objects necessary for various operations for viewing the content on the content or display the UI objects together with the content on the screen of the display unit 152. The UI object is, for example, an icon, a button, a list, a menu screen, or the like. The UI object is a tool for notifying the viewer of various information from the viewing terminal 100 during playback of the content on the viewing terminal 100.

通信部114は、配信サーバ200に対し各種データおよびリクエストを送信する。例えば、通信部114は配信サーバ200に対し、コンテンツデータの配信要求と、視聴者情報132の一部または全部とを送信する。通信部114は、配信サーバ200からライブ配信に係る各種情報を受信する。例えば、通信部114は、配信サーバ200からコンテンツデータと、配信者情報332の一部または全部とを受信する。 The communication unit 114 transmits various data and requests to the distribution server 200. For example, the communication unit 114 transmits a distribution request for content data and a part or all of the viewer information 132 to the distribution server 200. The communication unit 114 receives various information related to live distribution from the distribution server 200. For example, the communication unit 114 receives the content data and a part or all of the distributor information 332 from the distribution server 200.

(配信端末300の機能的構成)
制御部310は、記憶部320に格納された配信プログラム331を実行することにより、配信端末300を統括的に制御する。例えば、制御部310は、配信プログラム331および配信者の操作にしたがってコンテンツデータを作成し、配信サーバ200を介して該コンテンツデータを視聴端末100に供給する。制御部310は、配信サーバ200と通信して情報の送受信を行う。
(Functional configuration of distribution terminal 300)
The control unit 310 comprehensively controls the distribution terminal 300 by executing the distribution program 331 stored in the storage unit 320. For example, the control unit 310 creates content data according to the operation of the distribution program 331 and the distributor, and supplies the content data to the viewing terminal 100 via the distribution server 200. The control unit 310 communicates with the distribution server 200 to send and receive information.

制御部310は、配信プログラム331の記述に応じて、操作受付部311、配信部312、表示制御部313、および通信部314として機能する。制御部310は、作成するコンテンツデータの性質、すなわちコンテンツの性質に応じて、図示しないその他の機能ブロックとしても機能することができる。 The control unit 310 functions as an operation reception unit 311, a distribution unit 312, a display control unit 313, and a communication unit 314 according to the description of the distribution program 331. The control unit 310 can also function as other functional blocks (not shown) depending on the nature of the content data to be created, that is, the nature of the content.

操作受付部311は、入力部351に対するオペレータの入力操作を検知し受け付ける。操作受付部311は、タッチスクリーン35およびその他の入出力IF34を介したコンソールに対して、オペレータが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部310の各要素に出力する。操作受付部311の機能の詳細は、視聴端末100における操作受付部111のそれとほぼ同様である。 The operation reception unit 311 detects and accepts an operator's input operation with respect to the input unit 351. The operation reception unit 311 determines what kind of input operation has been performed on the console via the touch screen 35 and other input / output IF 34s from the action exerted by the operator, and outputs the result to each element of the control unit 310. Output. The details of the function of the operation reception unit 311 are almost the same as those of the operation reception unit 111 in the viewing terminal 100.

配信部312は、コンテンツの配信に係る各種処理を実行する。例えば、配信部312はコンテンツデータを作成する。コンテンツデータの作成方法については、後で詳述する。 The distribution unit 312 executes various processes related to content distribution. For example, the distribution unit 312 creates content data. The method of creating the content data will be described in detail later.

配信部312は、配信者によるコンテンツ作成のオペレーティングを支援するための、配信者向けの画面を作成してもよい。以降、配信者向けの画面のことを、配信画面とも称する。配信画面の構成については、特に限定しない。例えば、配信部312は、アバター等の各種オブジェクト、背景画像、および各種パラメータ等、コンテンツに含まれ得る各種構成要素を一覧可能な配信画面を作成してもよい。配信画面は、表示制御部313を介してタッチスクリーン35に表示される。 The distribution unit 312 may create a screen for the distributor to support the operating of the content creation by the distributor. Hereinafter, the screen for the distributor is also referred to as a distribution screen. The configuration of the distribution screen is not particularly limited. For example, the distribution unit 312 may create a distribution screen capable of listing various components that can be included in the content, such as various objects such as avatars, background images, and various parameters. The distribution screen is displayed on the touch screen 35 via the display control unit 313.

また、配信部312は、配信者に向けた各種通知を作成および出力してもよい。例えば、配信部312は、配信サーバ200を介して受信した視聴者コメントを、配信者に通知してもよい。 In addition, the distribution unit 312 may create and output various notifications for the distributor. For example, the distribution unit 312 may notify the distributor of the viewer comment received via the distribution server 200.

表示制御部313は、タッチスクリーン35の表示部352に対して、上述の各要素によって実行された処理結果が反映された表示画面を出力する。表示制御部313の機能の詳細は、視聴端末100における表示制御部113のそれとほぼ同様である。例えば、表示制御部313は、ライブ配信のための種々の操作に必要なUIオブジェクトを表示部352の画面に表示してもよい。 The display control unit 313 outputs a display screen reflecting the processing results executed by each of the above-mentioned elements to the display unit 352 of the touch screen 35. The details of the function of the display control unit 313 are substantially the same as those of the display control unit 113 in the viewing terminal 100. For example, the display control unit 313 may display UI objects required for various operations for live distribution on the screen of the display unit 352.

通信部314は、配信サーバ200に対し各種データおよびリクエストを送信する。例えば、通信部314は配信サーバ200に対し、コンテンツと、配信者情報332の一部または全部を送信する。通信部314は、配信サーバ200からライブ配信に係る各種情報を受信する。例えば、通信部314は、配信サーバ200から視聴者情報132の一部または全部を受信する。 The communication unit 314 transmits various data and requests to the distribution server 200. For example, the communication unit 314 transmits the content and a part or all of the distributor information 332 to the distribution server 200. The communication unit 314 receives various information related to live distribution from the distribution server 200. For example, the communication unit 314 receives a part or all of the viewer information 132 from the distribution server 200.

なお、図3に示す視聴端末100、配信サーバ200、および配信端末300の機能は一例にすぎない。例えば、配信サーバ200は、視聴端末100または配信端末300が備える機能の少なくとも一部を備えていてもよい。また例えば、視聴端末100または配信端末300は、配信サーバ200が備える機能の少なくとも一部を備えていてもよい。 The functions of the viewing terminal 100, the distribution server 200, and the distribution terminal 300 shown in FIG. 3 are merely examples. For example, the distribution server 200 may include at least a part of the functions provided by the viewing terminal 100 or the distribution terminal 300. Further, for example, the viewing terminal 100 or the distribution terminal 300 may include at least a part of the functions provided by the distribution server 200.

また、視聴端末100は、上述した構成要素以外の他の構成要素、または視聴端末100と接続された他の装置と協働してもよい。例えば、視聴端末100は他の構成要素または他の装置に、視聴端末100における処理の一部を実行させてもよい。また、配信端末300は、上述した構成要素以外の他の構成要素、または配信端末300と接続された他の装置と協働してもよい。例えば、配信端末300は他の構成要素または他の装置に、配信端末300における処理の一部を実行させてもよい。 Further, the viewing terminal 100 may cooperate with other components other than the above-mentioned components, or other devices connected to the viewing terminal 100. For example, the viewing terminal 100 may cause another component or another device to execute a part of the processing in the viewing terminal 100. Further, the distribution terminal 300 may cooperate with other components other than the above-mentioned components, or other devices connected to the distribution terminal 300. For example, the distribution terminal 300 may have other components or other devices execute a part of the processing in the distribution terminal 300.

本実施形態において配信プログラムを実行するコンピュータは、配信サーバ200、配信端末300、および他の装置の何れであってもよいし、これらの複数の装置の組み合わせにより実現されてもよい。また、本実施形態において視聴プログラムを実行するコンピュータは、配信サーバ200、視聴端末100、および他の装置の何れであってもよいし、これら複数の装置の組合せにより実現されてもよい。また、配信システム1は、視聴端末100、配信サーバ200、および配信端末300以外の他の装置を配信システム1の構成要素とし、該他の装置に配信システム1における処理の一部を実行させてもよい。 The computer that executes the distribution program in the present embodiment may be any of the distribution server 200, the distribution terminal 300, and other devices, or may be realized by a combination of a plurality of these devices. Further, the computer that executes the viewing program in the present embodiment may be any of the distribution server 200, the viewing terminal 100, and other devices, or may be realized by a combination of a plurality of these devices. Further, the distribution system 1 uses a device other than the viewing terminal 100, the distribution server 200, and the distribution terminal 300 as a component of the distribution system 1, and causes the other device to execute a part of the processing in the distribution system 1. May be good.

<配信処理の流れ>
図4は、コンテンツのライブ配信および再生に係る処理の流れの一例を示すシーケンス図である。
<Flow of delivery process>
FIG. 4 is a sequence diagram showing an example of a processing flow related to live distribution and reproduction of content.

ステップS100において、配信部312は、コンテンツデータを作成する。コンテンツデータの作成方法は後述する。 In step S100, the distribution unit 312 creates content data. The method of creating the content data will be described later.

ステップS102において、配信部312は、通信部314を介してコンテンツデータを配信サーバ200にリアルタイムで送信する。以降、配信部312は、例えば、操作受付部311が、ライブ配信の終了を指示する入力操作を受け付けるまで、コンテンツのライブ配信を継続する。 In step S102, the distribution unit 312 transmits the content data to the distribution server 200 in real time via the communication unit 314. After that, the distribution unit 312 continues the live distribution of the content until, for example, the operation reception unit 311 receives an input operation instructing the end of the live distribution.

ステップS104において、配信サーバ200の送受信部211は、コンテンツデータをリアルタイムで受信する。送受信部211は、受信したコンテンツデータを、一時的または非一時的に、記憶部220に記憶させてもよい。配信サーバ200は、視聴端末100からライブ配信の要求を受け付けるまで待機する。 In step S104, the transmission / reception unit 211 of the distribution server 200 receives the content data in real time. The transmission / reception unit 211 may temporarily or non-temporarily store the received content data in the storage unit 220. The distribution server 200 waits until it receives a request for live distribution from the viewing terminal 100.

ステップS106において、視聴端末100の操作受付部111は、視聴者の、コンテンツの視聴を指示する入力操作を受け付ける。操作受付部111が該指示を受け付けると、再生部112は、ステップS108を実行する。 In step S106, the operation reception unit 111 of the viewing terminal 100 receives an input operation instructing the viewer to view the content. When the operation reception unit 111 receives the instruction, the reproduction unit 112 executes step S108.

ステップS108において、再生部112は、通信部114を介してコンテンツの配信を要求する。 In step S108, the reproduction unit 112 requests the distribution of the content via the communication unit 114.

ステップS110において、配信サーバ200のサーバ処理部212は、送受信部211を介して配信の要求を受信する。サーバ処理部212は該要求を受信すると、ステップS112の処理を実行する。 In step S110, the server processing unit 212 of the distribution server 200 receives the distribution request via the transmission / reception unit 211. Upon receiving the request, the server processing unit 212 executes the process of step S112.

ステップS112において、サーバ処理部212は、配信端末300から受信しているコンテンツデータを、視聴端末100にリアルタイムで配信する。以降、サーバ処理部212は、例えば、送受信部211が配信端末300からコンテンツデータを受信しなくなるまで、または、視聴端末100から視聴終了の旨を通知されるまで、コンテンツデータの配信を継続する。 In step S112, the server processing unit 212 distributes the content data received from the distribution terminal 300 to the viewing terminal 100 in real time. After that, the server processing unit 212 continues the distribution of the content data until, for example, the transmission / reception unit 211 stops receiving the content data from the distribution terminal 300, or the viewing terminal 100 notifies that the viewing is completed.

ステップS114において、視聴端末100の通信部114は、コンテンツデータをリアルタイムに受信する。 In step S114, the communication unit 114 of the viewing terminal 100 receives the content data in real time.

ステップS116において、再生部112は、通信部114が随時受信するコンテンツデータに基づいて、再生処理を実行する。再生処理とは、コンテンツデータが示すコンテンツの再生に係る一連の処理を意味する。以降、再生部112は、ステップS118でYESまたはステップS120でYESと判定されるまで、コンテンツ表示処理を継続して行う。 In step S116, the reproduction unit 112 executes the reproduction process based on the content data received by the communication unit 114 at any time. The reproduction process means a series of processes related to the reproduction of the content indicated by the content data. After that, the reproduction unit 112 continues the content display process until it is determined to be YES in step S118 or YES in step S120.

ステップS118において、制御部110は、操作受付部111が視聴終了を指示する入力操作を受け付けたか否か判定する。ステップS118でYESの場合、すなわち、操作受付部111が視聴終了を指示する入力操作を受け付けた場合、再生部112は、ステップS122を実行する。 In step S118, the control unit 110 determines whether or not the operation reception unit 111 has accepted the input operation instructing the end of viewing. If YES in step S118, that is, when the operation reception unit 111 receives the input operation instructing the end of viewing, the reproduction unit 112 executes step S122.

ステップS122において、再生部112は、コンテンツの再生を終了する。すなわち、再生部112は、再生処理を終了させる。また、再生部112は通信部114を介して、視聴終了の旨を配信サーバ200に通知する。配信サーバ200のサーバ処理部212は該通知を受信した場合、視聴端末100へのライブ配信を停止する。 In step S122, the reproduction unit 112 ends the reproduction of the content. That is, the reproduction unit 112 ends the reproduction process. Further, the playback unit 112 notifies the distribution server 200 of the end of viewing via the communication unit 114. When the server processing unit 212 of the distribution server 200 receives the notification, the server processing unit 212 stops the live distribution to the viewing terminal 100.

一方、ステップS118でNOの場合、すなわち、操作受付部111が視聴終了を指示する入力操作を受け付けていない場合、制御部110はさらに、ステップS120の処理を実行する。 On the other hand, if NO in step S118, that is, if the operation receiving unit 111 does not accept the input operation instructing the end of viewing, the control unit 110 further executes the process of step S120.

ステップS120において、制御部110は、ライブ配信が終了したか否かを判定する。例えば、制御部110は通信部114におけるコンテンツの受信が終了した場合に、ライブ配信が終了したと判定してよい。ステップS120でNOの場合、制御部110はステップS116におけるコンテンツ表示処理を継続し、ステップS118からの判定処理を繰り返す。一方、ステップS120でYESの場合、再生部112は、ステップS122の処理を実行する。すなわち、再生部112は、コンテンツの再生を終了させる。 In step S120, the control unit 110 determines whether or not the live distribution has ended. For example, the control unit 110 may determine that the live distribution has ended when the reception of the content by the communication unit 114 ends. If NO in step S120, the control unit 110 continues the content display process in step S116 and repeats the determination process from step S118. On the other hand, if YES in step S120, the reproduction unit 112 executes the process of step S122. That is, the reproduction unit 112 ends the reproduction of the content.

(コンテンツの作成)
図5は、配信者によるコンテンツデータの作成の様子を示す図である。配信者701は、配信端末300に対し各種入力を行うことで、コンテンツデータを作成する。
(Creation of content)
FIG. 5 is a diagram showing a state in which the distributor creates content data. The distributor 701 creates content data by inputting various inputs to the distribution terminal 300.

コンテンツデータは、仮想空間を構築するための定義パラメータと、背景画像を指定するための情報と、配信者のアバターを示すキャラクタオブジェクトを指定する情報と、仮想カメラに係る設定パラメータと、を少なくとも含んでいる。以下、「アバターを示すキャラクタオブジェクト」のことを、単に「アバター」と称する。 The content data includes at least definition parameters for constructing a virtual space, information for specifying a background image, information for specifying a character object indicating a distributor's avatar, and setting parameters related to a virtual camera. I'm out. Hereinafter, the "character object indicating an avatar" is simply referred to as an "avatar".

例えば、配信部312は、仮想空間の大きさおよび座標軸系を示す情報をコンテンツデータに含める。また例えば、配信部312は、配信者のアバターを示すキャラクタオブジェクトを決定し、該アバターの表情および動作(モーション)を、リアルタイムで決定する。そして、配信部312はこれら決定したアバターに係る情報を、コンテンツデータに含める。 For example, the distribution unit 312 includes information indicating the size of the virtual space and the coordinate axis system in the content data. Further, for example, the distribution unit 312 determines a character object indicating the avatar of the distributor, and determines the facial expression and motion of the avatar in real time. Then, the distribution unit 312 includes the information related to these determined avatars in the content data.

また例えば、配信部312は、背景画像を取得して、該背景画像をコンテンツデータに含める。なお、配信部312は、背景画像自体ではなく、後に視聴端末100において背景画像を特定可能または取得可能にするための情報をコンテンツデータに含めてもよい。 Further, for example, the distribution unit 312 acquires a background image and includes the background image in the content data. Note that the distribution unit 312 may include in the content data not the background image itself but information for making the background image identifiable or acquireable later on the viewing terminal 100.

なお、配信端末300には、配信者の一部であるモデル702のモーションデータが入力されてもよい。例えば、モーションキャプチャ装置3020の一種として、モデル702にHMDを装着させ、該HMDによってモデル702の頭の位置および姿勢を検出してもよい。そして、配信端末300には、HMDから送信された、頭の位置および姿勢を示す情報がモーションデータとして入力されてもよい。そして、配信部312は、モデル702のモーションデータを、アバターのモーションを指定するデータとしてコンテンツデータに含めてもよい。これにより、後述するように視聴端末100においてコンテンツを再生したときに、モーションデータが示す動きをアバターの動きに反映させることができる。例えば、モデル702の頭の動きに応じて、アバターの頭を動かすことができる。なお、モーションデータとは、モデル702の身体の動きを、モーションキャプチャ装置3020を介して検出して取得したものである。 The motion data of the model 702, which is a part of the distributor, may be input to the distribution terminal 300. For example, as a kind of motion capture device 3020, the model 702 may be equipped with an HMD, and the position and posture of the head of the model 702 may be detected by the HMD. Then, the information indicating the position and posture of the head transmitted from the HMD may be input to the distribution terminal 300 as motion data. Then, the distribution unit 312 may include the motion data of the model 702 in the content data as data for designating the motion of the avatar. As a result, when the content is played back on the viewing terminal 100 as described later, the movement indicated by the motion data can be reflected in the movement of the avatar. For example, the avatar's head can be moved according to the movement of the model 702's head. The motion data is obtained by detecting the movement of the body of the model 702 via the motion capture device 3020.

また例えば、配信者701は、自分の音声703を、マイク3010を介して配信端末300に入力してもよい。そして、配信端末300の配信部312は、入力された音声データをアバターの音声として、コンテンツデータに含めてもよい。もしくは、配信部312は、入力された音声データと同内容の音声を、アバターの音声としてコンテンツデータに含めてもよい。「同内容の音声」とは、該音声703自体、音声703に所定の音声加工を施した音声、または、音声703の内容を読み上げソフト等で機械発声させた音声を意味する。 Further, for example, the distributor 701 may input his / her voice 703 into the distribution terminal 300 via the microphone 3010. Then, the distribution unit 312 of the distribution terminal 300 may include the input voice data as the voice of the avatar in the content data. Alternatively, the distribution unit 312 may include the voice having the same content as the input voice data in the content data as the voice of the avatar. The “voice of the same content” means the voice 703 itself, a voice obtained by subjecting the voice 703 to a predetermined voice processing, or a voice obtained by mechanically uttering the content of the voice 703 with a reading software or the like.

配信部312は、リアルタイムに入力されるこれらのデータを随時コンテンツデータとしてまとめて、通信部314を介して配信サーバ200に送信する。これにより、配信サーバ200を仲介として、配信端末300から視聴端末100へ、コンテンツデータを含む情報がライブ配信される。以降、コンテンツデータを含む情報のことを第1情報と称する。 The distribution unit 312 collects these data input in real time as content data at any time and transmits the data to the distribution server 200 via the communication unit 314. As a result, information including content data is live-distributed from the distribution terminal 300 to the viewing terminal 100 through the distribution server 200 as an intermediary. Hereinafter, the information including the content data will be referred to as the first information.

(コンテンツ表示処理の流れ)
図6は、図4のステップS116に示した再生処理の流れの一例を示す図である。
(Flow of content display processing)
FIG. 6 is a diagram showing an example of the flow of the reproduction process shown in step S116 of FIG.

ステップS200において、視聴端末100の再生部112は、通信部114を介して第1情報を取得する。 In step S200, the reproduction unit 112 of the viewing terminal 100 acquires the first information via the communication unit 114.

ステップS201において、空間定義部112Aは、仮想空間を定義する。空間定義部112Aは、例えば、コンテンツデータに含まれる定義パラメータに基づいて、球状の仮想空間を定義する。 In step S201, the space definition unit 112A defines a virtual space. The space definition unit 112A defines a spherical virtual space based on, for example, definition parameters included in the content data.

ステップS202において、背景制御部112Bは、定義された仮想空間に背景画像を展開する。具体的には、背景制御部112Bは、コンテンツデータによって指定される1枚の背景画像を、仮想空間に、該空間の球面全体を覆うように貼り付ける。S200〜S202の処理によって、背景画像が展開された仮想空間が構築される。 In step S202, the background control unit 112B develops the background image in the defined virtual space. Specifically, the background control unit 112B attaches one background image designated by the content data to the virtual space so as to cover the entire spherical surface of the space. By the processing of S200 to S202, a virtual space in which the background image is developed is constructed.

ステップS204において、オブジェクト制御部112Cは、仮想空間に第1オブジェクトを配置する。第1オブジェクトとは、配信者のアバターを示すオブジェクトである。オブジェクト制御部112Cは、コンテンツデータに基づいて第1オブジェクトの種類、モデルデータ、および配置位置、姿勢等を決定し、該第1オブジェクトを仮想空間に配置する。 In step S204, the object control unit 112C arranges the first object in the virtual space. The first object is an object indicating the avatar of the distributor. The object control unit 112C determines the type, model data, arrangement position, posture, and the like of the first object based on the content data, and arranges the first object in the virtual space.

ステップS206において、オブジェクト制御部112Cは、仮想空間に第2オブジェクトを配置する。第2オブジェクトとは、後述するように、仮想空間に貼り付けられた背景画像の特定の領域を遮蔽するように設けられるオブジェクトである。第2オブジェクトは立体であっても平面であってもよい。 In step S206, the object control unit 112C arranges the second object in the virtual space. The second object is an object provided so as to shield a specific area of the background image pasted in the virtual space, as will be described later. The second object may be a solid or a plane.

第2オブジェクトの大きさおよび形状は限定されない。例えば、第2オブジェクトは、アバターである第1オブジェクトの立つ土台となるオブジェクトであってもよいし、仮想空間上の天井照明等であってもよい。換言すると、第1オブジェクトは、第2オブジェクト上に、すなわち第2オブジェクトと接するように配置されてもよい。しかしながら、第2オブジェクトは、ライブ配信されるコンテンツにおいて、本来のコンテンツの興趣性を損なわないような大きさおよび形状とされることが望ましい。 The size and shape of the second object is not limited. For example, the second object may be an object on which the first object, which is an avatar, stands, or may be ceiling lighting or the like in a virtual space. In other words, the first object may be placed on the second object, that is, in contact with the second object. However, it is desirable that the second object has a size and shape that does not impair the original interest of the content in the live-streamed content.

オブジェクト制御部112Cは、コンテンツデータに基づいて第2オブジェクトの種類、モデルデータ、および配置位置、姿勢等を決定し、該第2オブジェクトを仮想空間に配置する。 The object control unit 112C determines the type, model data, arrangement position, posture, and the like of the second object based on the content data, and arranges the second object in the virtual space.

ステップS207において、オブジェクト制御部112Cは、第1オブジェクトを、第1情報に含まれているモーションデータに従って動作させる。 In step S207, the object control unit 112C operates the first object according to the motion data included in the first information.

ステップS208において、カメラ制御部112Dは、仮想カメラを仮想空間に配置する。このとき、カメラ制御部112Dは、仮想カメラを仮想空間の中心点とは異なる位置に配置する。仮想カメラの配置位置の例については後で示す。 In step S208, the camera control unit 112D arranges the virtual camera in the virtual space. At this time, the camera control unit 112D arranges the virtual camera at a position different from the center point of the virtual space. An example of the placement position of the virtual camera will be shown later.

ステップS210において、描画部112Eは、仮想空間の定義パラメータおよび仮想カメラの位置および角度から、該仮想カメラの視野領域を算出する。 In step S210, the drawing unit 112E calculates the field of view area of the virtual camera from the definition parameters of the virtual space and the position and angle of the virtual camera.

ステップS212において、描画部112Eは、仮想空間のうち算出した視野領域近傍に映し出されるオブジェクトおよび画像等を描画する。換言すると、描画部112Eは、仮想空間のうち算出した視野領域の画像をレンダリングする。 In step S212, the drawing unit 112E draws an object, an image, or the like projected in the vicinity of the calculated visual field area in the virtual space. In other words, the drawing unit 112E renders the image of the calculated visual field area in the virtual space.

ステップS214において、表示制御部113は、描画部112Eのレンダリングによって得られた視野領域の画像を、表示部152等に表示させる。 In step S214, the display control unit 113 causes the display unit 152 and the like to display an image of the visual field region obtained by rendering the drawing unit 112E.

上述のように、コンテンツデータは順次配信サーバ200から配信される。そのため、空間定義部112A、背景制御部112B、およびオブジェクト制御部112Cは、通信部114が取得したコンテンツデータにおいて、仮想空間自体の定義、背景画像、オブジェクトの位置、表情、動き、ならびに、仮想カメラの位置および角度等に変更がある場合、都度該変更を仮想空間に反映させる。これにより、視聴端末100において、コンテンツデータに基づくコンテンツがリアルタイムで再生され表示される。 As described above, the content data is sequentially distributed from the distribution server 200. Therefore, the space definition unit 112A, the background control unit 112B, and the object control unit 112C have the definition of the virtual space itself, the background image, the position of the object, the expression, the movement, and the virtual camera in the content data acquired by the communication unit 114. Whenever there is a change in the position, angle, etc. of, the change is reflected in the virtual space. As a result, the content based on the content data is reproduced and displayed in real time on the viewing terminal 100.

なお、図6に示す処理のうち、ステップS206の処理は必須ではない。すなわち、オブジェクト制御部112Cは、仮想空間に第2オブジェクトを配置しなくてもよい。また、オブジェクト制御部112Cは、第1および第2オブジェクト以外のオブジェクトを仮想空間に配置してもよい。また、背景制御部112Bは、背景画像以外の画像を仮想空間に貼り付けてもよい。 Of the processes shown in FIG. 6, the process of step S206 is not essential. That is, the object control unit 112C does not have to arrange the second object in the virtual space. Further, the object control unit 112C may arrange objects other than the first and second objects in the virtual space. Further, the background control unit 112B may paste an image other than the background image into the virtual space.

前記の処理によれば、中心点とは異なる位置に配置した仮想カメラの視野領域を描画するため、仮想空間の中心をユーザに見せることができる。したがって、ライブ配信におけるコンテンツの興趣性が向上する。 According to the above process, since the field of view area of the virtual camera arranged at a position different from the center point is drawn, the center of the virtual space can be shown to the user. Therefore, the interest of the content in the live distribution is improved.

(仮想空間の一例)
図7の状態(A)は、前記配信システムにおいて構築される仮想空間の一例を示す図である。仮想空間600は、中心点601を中心とし、北極点602および南極点603を結んだ360度方向の全体を覆う全球状の構造を有する。図7の状態(A)では、説明を複雑にしないために、仮想空間600のうちの、地平線604から上半分の半球を例示している。実際の仮想空間は、下半球も同様に背景画像およびオブジェクトが配置され得る。また、仮想空間600において図示される緯線および経線は説明のためのものであり、実際の仮想空間を定義および構築する際は、該緯線および経線は無くて良い。
(Example of virtual space)
The state (A) of FIG. 7 is a diagram showing an example of a virtual space constructed in the distribution system. The virtual space 600 has a spherical structure centered on the center point 601 and covering the entire 360-degree direction connecting the north pole point 602 and the south pole point 603. In the state (A) of FIG. 7, in order not to complicate the explanation, the hemisphere in the upper half of the virtual space 600 from the horizon 604 is illustrated. In the actual virtual space, background images and objects can be arranged in the lower hemisphere as well. Further, the parallels and meridians shown in the virtual space 600 are for illustration purposes, and the parallels and meridians may be omitted when defining and constructing the actual virtual space.

仮想空間600では、中心点601を原点とするXYZ座標系が規定される。XYZ座標系は、例えば、実座標系に平行である。XYZ座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸(水平方向)が実座標系のx軸と平行であり、XYZ座標系のY軸(鉛直方向)が実座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)が実座標系のz軸と平行である。 In the virtual space 600, an XYZ coordinate system with the center point 601 as the origin is defined. The XYZ coordinate system is, for example, parallel to the real coordinate system. The horizontal direction, vertical direction (vertical direction), and front-back direction in the XYZ coordinate system are defined as the X-axis, the Y-axis, and the Z-axis, respectively. Therefore, the X-axis (horizontal direction) of the XYZ coordinate system is parallel to the x-axis of the real coordinate system, and the Y-axis (vertical direction) of the XYZ coordinate system is parallel to the y-axis of the real coordinate system. The Z-axis (front-back direction) is parallel to the z-axis of the real coordinate system.

空間定義部112Aが図7の状態(A)に示すような天球状の仮想空間600を定義すると、背景制御部112Bは、該仮想空間600の内側に、360度の全方位画像である背景画像630を貼り付ける。 When the space definition unit 112A defines the celestial spherical virtual space 600 as shown in the state (A) of FIG. 7, the background control unit 112B is a background image which is a 360-degree omnidirectional image inside the virtual space 600. Paste 630.

オブジェクト制御部112Cは、仮想空間600に、アバターの第1オブジェクト610を配置する。以降、第1オブジェクトのことをアバターとも称する。また、オブジェクト制御部112Cは、仮想空間600に第2オブジェクト620を配置してもよい。図示の例では、第2オブジェクト620は、アバター610の立つ土台のオブジェクトである。 The object control unit 112C arranges the first object 610 of the avatar in the virtual space 600. Hereinafter, the first object is also referred to as an avatar. Further, the object control unit 112C may arrange the second object 620 in the virtual space 600. In the illustrated example, the second object 620 is the base object on which the avatar 610 stands.

カメラ制御部112Dは、仮想空間600に、仮想カメラ640を配置する。ここで、カメラ制御部112Dは、仮想カメラ640を仮想空間600の中心点およびその近傍ではない、任意の位置に任意の角度で配置される。仮想カメラ640の位置および角度は、コンテンツデータで規定される。 The camera control unit 112D arranges the virtual camera 640 in the virtual space 600. Here, the camera control unit 112D arranges the virtual camera 640 at an arbitrary angle at an arbitrary position, not at or near the center point of the virtual space 600. The position and angle of the virtual camera 640 are defined by the content data.

図7の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図7の状態(A)の例では、カメラ制御部112Dは仮想カメラ640を、アバター610の顔と同程度の高さで配置している。仮想カメラ640の視界領域は、仮想空間600のうち、視聴者が視聴端末100を介して視認可能な領域であるといえる。つまり、仮想カメラ640の位置および角度は、仮想空間600における視聴者の視点と同じであるといえる。図7の状態(A)の仮想カメラ640場合、図7の状態(B)に示す通り、アバター610を略真横から見る視点での視野領域の画像700が描画され、表示部152に表示される。 The state (B) of FIG. 7 is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). In the example of the state (A) of FIG. 7, the camera control unit 112D arranges the virtual camera 640 at the same height as the face of the avatar 610. It can be said that the field of view area of the virtual camera 640 is an area of the virtual space 600 that can be visually recognized by the viewer via the viewing terminal 100. That is, it can be said that the position and angle of the virtual camera 640 are the same as the viewpoint of the viewer in the virtual space 600. In the case of the virtual camera 640 in the state (A) of FIG. 7, as shown in the state (B) of FIG. 7, the image 700 of the visual field area from the viewpoint of viewing the avatar 610 from the side is drawn and displayed on the display unit 152. ..

このように、再生部112は、空間定義部112A、背景制御部112B、およびオブジェクト制御部112Cの協働により、仮想空間600を構築する。そして、カメラ制御部112Dによって、仮想カメラ640が配置され、描画部112Eによって、仮想カメラ640の視点からの視野領域の画像700が描画される。そして、表示制御部113により、描画された視野領域の画像700が表示部に表示される。 In this way, the reproduction unit 112 constructs the virtual space 600 in cooperation with the space definition unit 112A, the background control unit 112B, and the object control unit 112C. Then, the virtual camera 640 is arranged by the camera control unit 112D, and the image 700 in the visual field region from the viewpoint of the virtual camera 640 is drawn by the drawing unit 112E. Then, the display control unit 113 displays the drawn image 700 of the visual field region on the display unit.

ここで、第2オブジェクト620はアバター610の立つ土台のオブジェクトであり、仮想カメラ640から見て第2オブジェクト620より後方の領域(特定領域)は仮想カメラ640から遮蔽された領域となる。換言すると、例えば背景画像を撮影したカメラの写り込み部分等、視聴者に隠したい領域(特定領域)の位置に合わせて第2オブジェクト620を配置すれば、その領域は第2オブジェクト620に遮蔽されて、視聴者からは見えないようにすることができる。 Here, the second object 620 is the base object on which the avatar 610 stands, and the area (specific area) behind the second object 620 when viewed from the virtual camera 640 is an area shielded from the virtual camera 640. In other words, if the second object 620 is arranged according to the position of the area (specific area) that the viewer wants to hide, such as the reflection part of the camera that captured the background image, that area is shielded by the second object 620. It can be made invisible to the viewer.

(仮想空間の他の一例)
なお、オブジェクト制御部112Cは、仮想カメラからの視野領域において、仮想空間の北極点、南極点、または地平線に重畳するように第2オブジェクトを配置してもよい。
(Another example of virtual space)
The object control unit 112C may arrange the second object so as to overlap the north pole point, the south pole point, or the horizon of the virtual space in the field of view region from the virtual camera.

図8の状態(A)は、前記配信システムにおいて構築される仮想空間の他の一例を示す図である。図8の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図8の状態(A)の例では、オブジェクト制御部112Cは、仮想カメラ640の視野領域に北極点およびその周辺領域(特定領域)が入る際に、該北極点近傍の背景画像630が隠れるような所定位置に、第2オブジェクト621を配置している。 The state (A) of FIG. 8 is a diagram showing another example of the virtual space constructed in the distribution system. The state (B) of FIG. 8 is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). In the example of the state (A) of FIG. 8, the object control unit 112C hides the background image 630 in the vicinity of the north pole point when the north pole point and its peripheral area (specific area) enter the visual field area of the virtual camera 640. The second object 621 is arranged at a predetermined position.

背景画像630は、仮想空間600の球面全体を覆う画像、すなわち、全方位画像である。全方位画像を仮想空間600の球内面に貼り付けた場合、該球の北極点602、南極点603、および地平線604の近傍の少なくとも1つに、背景画像の歪みが生じる可能性がある。このような背景画像の歪みが生じ得る領域(特定領域)を遮蔽するように、当該領域の近傍に第2オブジェクト621を配置することで、背景画像の歪みを目立たなくすることができる。 The background image 630 is an image that covers the entire spherical surface of the virtual space 600, that is, an omnidirectional image. When the omnidirectional image is attached to the inner surface of the sphere of the virtual space 600, the background image may be distorted at at least one of the sphere at the north pole point 602, the south pole point 603, and the horizon 604. By arranging the second object 621 in the vicinity of the region (specific region) where such distortion of the background image can occur, the distortion of the background image can be made inconspicuous.

例えば、同図における仮想カメラ640の位置および角度のように、アバター610を見上げるようなカメラアングルの場合でも、図8の状態(B)に示すように、視野領域の画像800では北極点およびその周辺領域(特定領域)が第2オブジェクト621で遮蔽された状態となるため、視聴者からは背景画像の歪みが見えないようにすることができる。 For example, even in the case of a camera angle that looks up at the avatar 610, such as the position and angle of the virtual camera 640 in the figure, as shown in the state (B) of FIG. Since the peripheral area (specific area) is shielded by the second object 621, it is possible to prevent the viewer from seeing the distortion of the background image.

(仮想空間の他の一例)
なお、オブジェクト制御部112Cは、仮想カメラからの視野領域において、背景画像における特定領域に遮蔽するように第2オブジェクトを配置してもよい。
(Another example of virtual space)
The object control unit 112C may arrange the second object so as to shield it from a specific area in the background image in the field of view area from the virtual camera.

図9の状態(A)は、前記配信システムにおいて構築される仮想空間の他の一例を示す図である。図9の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図9の状態(A)の例では、オブジェクト制御部112Cは図示のように、地平線604から垂直に、第2オブジェクト622を配置する。 The state (A) of FIG. 9 is a diagram showing another example of the virtual space constructed in the distribution system. The state (B) of FIG. 9 is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). In the example of the state (A) of FIG. 9, the object control unit 112C arranges the second object 622 vertically from the horizon 604 as shown in the figure.

背景画像630は全方位画像であるため、作成の際に、該全方位画像の元となる元画像の形およびサイズに応じて、一部の領域に歪みが生じる可能性がある。このような画像の歪みが生じ得る領域(特定領域)を仮想カメラ640で映す際に、第2オブジェクト622が該領域を遮蔽するよう配置される。したがって、視聴者からは背景画像の歪みが見えないようにすることができる。 Since the background image 630 is an omnidirectional image, some areas may be distorted at the time of creation depending on the shape and size of the original image that is the source of the omnidirectional image. When the virtual camera 640 projects an area (specific area) where such image distortion can occur, the second object 622 is arranged so as to shield the area. Therefore, it is possible to hide the distortion of the background image from the viewer.

例えば、図9の状態(B)に示すように、特定領域を第2オブジェクト622で遮蔽された状態とすることが可能であるため、視野領域の画像900において、背景画像630の歪みが見えないようにすることができる。 For example, as shown in the state (B) of FIG. 9, since the specific area can be in a state of being shielded by the second object 622, the distortion of the background image 630 cannot be seen in the image 900 of the visual field area. Can be done.

(ライブ配信の視聴までの流れ)
視聴端末100によるライブ配信の選択および視聴開始の操作は、地図を用いたGUIにより行われてもよい。
(Flow until watching live streaming)
The operation of selecting live distribution and starting viewing by the viewing terminal 100 may be performed by a GUI using a map.

図10は、視聴端末100の表示画面の一例を示す図である。図示の通り、表示画面1700には、地図データに基づく地図と、ライブ配信を視聴可能なエリア1701(図中の灰色サークル)とが表示される。ここで、地図データは視聴端末100の記憶部120に記憶されていてもよいし、外部サーバ等から適宜取得されてもよい。また、表示画面1700には、エリア1701と対応付けて、ライブ配信の日時、内容等を示すメッセージ1702、および、ライブ配信の開始を指示するアイコン1703が表示されてもよい。また、表示画面1700には、視聴端末100の現在位置、すなわちユーザの現在位置を示すアイコン1704が表示されてもよい。さらに、表示画面1700には、地図データに対応した建物や風景等のオブジェクト1705が表示されてもよい。 FIG. 10 is a diagram showing an example of a display screen of the viewing terminal 100. As shown in the figure, the display screen 1700 displays a map based on the map data and an area 1701 (gray circle in the figure) where the live distribution can be viewed. Here, the map data may be stored in the storage unit 120 of the viewing terminal 100, or may be appropriately acquired from an external server or the like. Further, on the display screen 1700, a message 1702 indicating the date and time, contents, etc. of the live distribution and an icon 1703 instructing the start of the live distribution may be displayed in association with the area 1701. Further, the display screen 1700 may display the current position of the viewing terminal 100, that is, the icon 1704 indicating the current position of the user. Further, the display screen 1700 may display an object 1705 such as a building or a landscape corresponding to the map data.

視聴端末100の現在位置の情報は、視聴端末100がGPS(Global Positioning System)受信機(図示せず)を備え、GPSの電波を受信することで得ることができる。GPS受信機は、得られた電波が示す、現在位置の位置用法を制御部110に送信し、制御部110はこれを取得する。 Information on the current position of the viewing terminal 100 can be obtained by equipping the viewing terminal 100 with a GPS (Global Positioning System) receiver (not shown) and receiving GPS radio waves. The GPS receiver transmits the position usage of the current position indicated by the obtained radio wave to the control unit 110, and the control unit 110 acquires this.

また、ライブ配信を視聴可能なエリアを示す情報、ライブ配信が配信される時間帯等、ライブ配信に係る情報、および、ライブ配信の状態を示す情報は、制御部110が配信サーバ200から定期的に受信し、表示画面1700および表示画面1800に表示される情報に反映させる。 In addition, the control unit 110 periodically sends information indicating the area where the live distribution can be viewed, information related to the live distribution such as the time zone in which the live distribution is distributed, and information indicating the state of the live distribution from the distribution server 200. Is received and reflected in the information displayed on the display screen 1700 and the display screen 1800.

図11は、図10に示した表示画面に対するユーザの第1入力操作の一例を示す図である。第1入力操作とは、地図を表示した表示画面において、該地図上のある地点を指定するための入力操作である。図示の例では、表示画面1800において、ユーザ(アイコン1703)がライブ配信を視聴可能なエリア1701内にいる状態で、ライブ配信の開始を指示するアイコン1703を選択する入力操作を行った場合に、該入力操作が第1入力操作として受け付けられる。 FIG. 11 is a diagram showing an example of a user's first input operation on the display screen shown in FIG. The first input operation is an input operation for designating a certain point on the map on the display screen displaying the map. In the illustrated example, on the display screen 1800, when the user (icon 1703) is in the area 1701 where the live distribution can be viewed and the input operation for selecting the icon 1703 instructing the start of the live distribution is performed, the input operation is performed. The input operation is accepted as the first input operation.

操作受付部111が第1入力操作を受け付けると、制御部110はライブ配信を特定し、そのコンテンツデータを配信サーバ200から受信する。コンテンツデータを受信すると、再生部112が図6に示した処理、すなわち、仮想空間の構築、仮想カメラの配置、および視野画像の描画を実行する。これにより、ユーザはライブ配信を視聴することができる。換言すると、現在位置の位置情報が示す、視聴端末100の地図上での位置と、第1入力操作により指定された地点との距離が所定範囲内である場合に、再生部112の空間定義部112Aおよび背景制御部112Bは、ライブ配信されるコンテンツのための仮想空間を協働して構築する。 When the operation receiving unit 111 receives the first input operation, the control unit 110 identifies the live distribution and receives the content data from the distribution server 200. Upon receiving the content data, the reproduction unit 112 executes the processing shown in FIG. 6, that is, the construction of the virtual space, the arrangement of the virtual camera, and the drawing of the field image. This allows the user to watch the live stream. In other words, when the distance between the position on the map of the viewing terminal 100 indicated by the position information of the current position and the point specified by the first input operation is within a predetermined range, the space definition unit of the playback unit 112 The 112A and the background control unit 112B collaborate to build a virtual space for live-streamed content.

なお、ライブ配信は配信される時間帯が決まっていてもよい。また、図10および図11に示すように、ライブ配信の状態、例えばライブ配信中か否かに応じて、メッセージ1702の内容が変更されてもよい。 The time zone for live distribution may be fixed. Further, as shown in FIGS. 10 and 11, the content of the message 1702 may be changed depending on the state of live distribution, for example, whether or not live distribution is in progress.

図12は、ライブ配信されたコンテンツを視聴している際の視聴端末100の表示画面を示している。ユーザがアイコン1703を選択する入力操作を行うと、ライブ配信の視聴が開始され、視聴端末100には表示画面1900が表示される。図示の通り、表示画面1900には、配信者のアバター1901が少なくとも含まれる。表示画面1900では、背景画像1902として、配信者のアバター1901が配置された地図上の地点の周囲360度の、現実空間上の風景を撮影した画像が表示される。そして、アバター1901および第2オブジェクト1903等は該背景画像の特定の領域を遮蔽する位置に表示されてもよい。 FIG. 12 shows a display screen of the viewing terminal 100 when viewing live-distributed content. When the user performs an input operation for selecting the icon 1703, viewing of the live distribution is started, and the display screen 1900 is displayed on the viewing terminal 100. As shown, the display screen 1900 includes at least the distributor's avatar 1901. On the display screen 1900, as a background image 1902, an image of a landscape in real space at 360 degrees around a point on the map on which the distributor's avatar 1901 is arranged is displayed. Then, the avatar 1901, the second object 1903, and the like may be displayed at a position that shields a specific area of the background image.

ここで、図示の通り、第2オブジェクト1903はアバター1901の立つ土台のオブジェクトであり、第2オブジェクト1903より下の領域(特定領域)を仮想カメラから遮蔽している。換言すると、例えば背景画像を撮影したカメラの写り込み部分等、視聴者に隠したい領域(特定領域)の位置に合わせて第2オブジェクト1903を配置すれば、その領域は第2オブジェクト1903に遮蔽されて、視聴者からは見えないようにすることができる。 Here, as shown in the figure, the second object 1903 is the base object on which the avatar 1901 stands, and the area (specific area) below the second object 1903 is shielded from the virtual camera. In other words, if the second object 1903 is arranged according to the position of the area (specific area) that the viewer wants to hide, such as the reflection part of the camera that captured the background image, that area is shielded by the second object 1903. It can be made invisible to the viewer.

〔実施形態2〕
配信端末300は、ゲームシステムに含まれるゲーム端末を用いて、配信者がプレイしているゲームのプレイ画面の画像を取得してもよい。そして、再生部112は、全方位画像と、配信者のアバターを示す第1オブジェクトと、ゲームのプレイ画面の画像を表示する第3オブジェクトと、を少なくとも配置した仮想空間を構築してもよい。なお、本実施形態においては、仮想カメラの配置位置は、仮想空間の、該仮想空間の中心点とは異なる位置であって、中心点を視野領域に含む位置であってもよいし、該位置以外の位置でもよい。また、コンテンツデータはライブ配信される「ライブコンテンツ」であってもよいし、録画されたデータである「録画コンテンツ」であってもよい。以下、「ライブコンテンツ」および「録画コンテンツ」のことを、総称して単に「コンテンツ」と称する。
[Embodiment 2]
The distribution terminal 300 may acquire an image of the play screen of the game being played by the distributor by using the game terminal included in the game system. Then, the reproduction unit 112 may construct a virtual space in which at least an omnidirectional image, a first object indicating the distributor's avatar, and a third object displaying an image of the game play screen are arranged. In the present embodiment, the position of the virtual camera may be a position in the virtual space different from the center point of the virtual space, and the position may include the center point in the visual field area. It may be in a position other than. Further, the content data may be "live content" that is delivered live, or may be "recorded content" that is recorded data. Hereinafter, "live content" and "recorded content" are collectively referred to simply as "content".

(システム概要)
図13は、本実施形態に係る配信システム2の概要を示す図である。図13は、ゲーム端末400を含む点で、図1に示した配信システム1と異なる。
(System overview)
FIG. 13 is a diagram showing an outline of the distribution system 2 according to the present embodiment. FIG. 13 differs from the distribution system 1 shown in FIG. 1 in that it includes a game terminal 400.

ゲーム端末400は、配信者がゲームをプレイするための端末である。ゲーム端末400は、配信端末300に、該ゲームのプレイ画面の画像を随時送信する。これにより、配信者は、配信端末300においてコンテンツデータを作成する際に、該プレイ画面を含んだコンテンツのコンテンツデータを作成することができる。 The game terminal 400 is a terminal for the distributor to play the game. The game terminal 400 transmits an image of the play screen of the game to the distribution terminal 300 at any time. As a result, the distributor can create the content data of the content including the play screen when creating the content data on the distribution terminal 300.

ゲーム端末400は、他のゲーム端末または図示しないゲームサーバとともに、ゲーム端末400を含むゲームシステムであってもよい。すなわち、ゲームシステムに含まれるあるゲーム端末400を用いて配信者がゲームをプレイすると、該ゲームのプレイ画像が、該ゲーム端末400またはゲームサーバから、配信端末300に送信される構成であってもよい。 The game terminal 400 may be a game system including the game terminal 400 together with another game terminal or a game server (not shown). That is, when a distributor plays a game using a game terminal 400 included in the game system, the play image of the game is transmitted from the game terminal 400 or the game server to the distribution terminal 300. Good.

(仮想空間)
図14の状態(A)は、配信システム2において構築される仮想空間の他の一例を示す図である。同図に示す仮想空間1000には、背景画像1030が貼り付けられ、アバター1010と、仮想カメラ1040とが配置されている。なお、同図では図示していないが、本実施形態においても、仮想空間1000に第2オブジェクトが配置されてもよい。また、同図の例では、アバターの座る椅子オブジェクト1060が併せて配置されている。
(Virtual space)
The state (A) of FIG. 14 is a diagram showing another example of the virtual space constructed in the distribution system 2. A background image 1030 is attached to the virtual space 1000 shown in the figure, and an avatar 1010 and a virtual camera 1040 are arranged. Although not shown in the figure, the second object may be arranged in the virtual space 1000 also in the present embodiment. Further, in the example of the figure, the chair object 1060 on which the avatar sits is also arranged.

本実施形態においては、オブジェクト制御部112Cは、配信者がプレイしているゲームのプレイ画面の画像を表示する第3オブジェクト1021を、仮想空間1000に配置する。例えば、図示のように、第3オブジェクト1021は、テレビおよびパーソナルコンピュータ等を模したオブジェクトであってもよい。第3オブジェクト1021の少なくとも一部領域には、ゲームのプレイ画面の画像1050が表示される。なお、オブジェクト制御部112Cは、プレイ画面を表示可能な第3オブジェクトを配置してもよいし、見かけ上第3オブジェクト上にプレイ画面が表示されているように、第3オブジェクトと、プレイ画面の画像とを貼り付けて、または仮想カメラ1040から見たときに重畳するように配置してもよい。 In the present embodiment, the object control unit 112C arranges the third object 1021 that displays the image of the play screen of the game being played by the distributor in the virtual space 1000. For example, as shown in the figure, the third object 1021 may be an object that imitates a television, a personal computer, or the like. An image 1050 of the game play screen is displayed in at least a part of the area of the third object 1021. The object control unit 112C may arrange a third object capable of displaying the play screen, or the third object and the play screen so that the play screen is apparently displayed on the third object. The image may be pasted or arranged so as to be superimposed when viewed from the virtual camera 1040.

図14の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図14の状態(A)の例では、カメラ制御部112Dは仮想カメラ1040を、アバター1010の頭と同程度の高さで、かつアバター1010の背後に配置している。図14の状態(A)の仮想カメラ1040場合、図14の状態(B)に示す通り、第3オブジェクト1021に表示されたプレイ画面を見ているアバター1010を、真後ろから映すような視点で視野領域の画像が描画され、表示部152に表示される。 The state (B) of FIG. 14 is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). In the example of the state (A) of FIG. 14, the camera control unit 112D arranges the virtual camera 1040 at the same height as the head of the avatar 1010 and behind the avatar 1010. In the case of the virtual camera 1040 in the state (A) of FIG. 14, as shown in the state (B) of FIG. 14, the avatar 1010 looking at the play screen displayed on the third object 1021 is viewed from directly behind. An image of the area is drawn and displayed on the display unit 152.

(仮想カメラの切替え1)
カメラ制御部112Dは、視聴端末100において特定の第2入力操作が受け付けられたことに応答して、仮想カメラ1040の位置および角度を、前記アバターに対応する配信者の視点と略同様の位置および角度に切替えてもよい。
(Switching of virtual camera 1)
In response to the reception of a specific second input operation on the viewing terminal 100, the camera control unit 112D sets the position and angle of the virtual camera 1040 to a position and an angle substantially the same as the viewpoint of the distributor corresponding to the avatar. You may switch to the angle.

なお、仮想カメラの位置および角度を切替えるための具体的方法は特に限定されない。例えば、カメラ制御部112Dは、仮想空間内に配置している仮想カメラの位置および角度を移動させてもよい。また、カメラ制御部112Dは、仮想空間内に配置している仮想カメラを一旦削除し、切替後の位置および角度に、仮想カメラを再配置してもよい。 The specific method for switching the position and angle of the virtual camera is not particularly limited. For example, the camera control unit 112D may move the position and angle of the virtual camera arranged in the virtual space. Further, the camera control unit 112D may temporarily delete the virtual camera arranged in the virtual space and rearrange the virtual camera at the position and angle after switching.

また、複数の仮想カメラを異なる位置および角度で仮想空間に配置しておき、カメラ制御部112Dが使用する仮想カメラを逐次切り替えてもよい。そして、例えば描画部112Eにおいて、いずれの仮想カメラの視野画像をレンダリングするかを定めてレンダリングを実行してもよい。 Further, a plurality of virtual cameras may be arranged in the virtual space at different positions and angles, and the virtual cameras used by the camera control unit 112D may be sequentially switched. Then, for example, the drawing unit 112E may determine which virtual camera's field image to render and execute the rendering.

図15の状態(A)は、第2入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。第2入力操作が受け付けられると、カメラ制御部112Dは、仮想カメラをアバター1010の視点と略同様の位置、すなわち、プレイ画面1050に対する配信者の視点と略同様の位置および角度に切替える。図15の状態(A)の場合、アバター1010の視界領域をαで示している。なお、実際の仮想空間1000ではアバター1010と仮想カメラ1040は重畳しているが、図面の見易さのため仮想カメラ1040は図示していない。 The state (A) of FIG. 15 is a diagram showing a virtual space after the second input operation is performed and the position and angle of the virtual camera are switched. When the second input operation is accepted, the camera control unit 112D switches the virtual camera to a position substantially similar to the viewpoint of the avatar 1010, that is, a position and angle substantially similar to the viewpoint of the distributor with respect to the play screen 1050. In the case of the state (A) of FIG. 15, the field of view region of the avatar 1010 is indicated by α. In the actual virtual space 1000, the avatar 1010 and the virtual camera 1040 are superimposed, but the virtual camera 1040 is not shown for the sake of easy viewing of the drawing.

図15の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図15の状態(A)に示すアバター1010の視点の場合、同図の領域αが視野領域の画像となる。したがって、図15の状態(B)に示すように、第3オブジェクト1021およびプレイ画面1050のアップ画面が、視野領域の画像として描画および表示される。 The state (B) of FIG. 15 is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). In the case of the viewpoint of the avatar 1010 shown in the state (A) of FIG. 15, the region α in the figure is the image of the visual field region. Therefore, as shown in the state (B) of FIG. 15, the close-up screen of the third object 1021 and the play screen 1050 is drawn and displayed as an image of the visual field region.

これにより、視聴端末100のユーザの第2入力操作に応じて、仮想カメラ1040を、配信者の視野と略同様の領域を映す位置および角度に切替えることができる。したがって、視聴端末100のユーザ、すなわち視聴者は、自身の入力操作に応じて配信者の視点をトレースした映像を視聴することができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。 Thereby, the virtual camera 1040 can be switched to a position and an angle for projecting a region substantially similar to the field of view of the distributor according to the second input operation of the user of the viewing terminal 100. Therefore, the user of the viewing terminal 100, that is, the viewer, can view the video that traces the viewpoint of the distributor according to his / her own input operation. Therefore, the degree of freedom of camera work of the content can be increased, and thus the interest of the content can be improved.

(仮想カメラの切替え2)
カメラ制御部112Dは、アバター1010の持ち物を示す第4オブジェクト1041を仮想空間1000に配置してもよい。そして、カメラ制御部112Dは、視聴端末100において特定の第3入力操作が受け付けられたことに応答して、仮想カメラ1040の位置および角度を、前記第4オブジェクトの位置および向きと略同様の位置および角度に切替えてもよい。
(Switching of virtual camera 2)
The camera control unit 112D may arrange the fourth object 1041 indicating the belongings of the avatar 1010 in the virtual space 1000. Then, in response to the reception of the specific third input operation by the viewing terminal 100, the camera control unit 112D sets the position and angle of the virtual camera 1040 to a position substantially the same as the position and orientation of the fourth object. And may be switched to angle.

図16の状態(A)は、第3入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。第3入力操作が受け付けられると、カメラ制御部112Dは、仮想カメラをアバター1010の持ち物である第4オブジェクト1041の位置および向きに応じた位置および角度に切替える。図示の例では、アバター1010の持ち物とは、アバター1010が手に持っているカメラオブジェクト1041である。図15の状態(A)の場合、第4オブジェクト1041は、アバター1010の顔の方を向いている。なお、実際の仮想空間1000ではカメラオブジェクト1041と仮想カメラ1040は重畳しているが、図面の見易さのため仮想カメラ1040は図示していない。 The state (A) of FIG. 16 is a diagram showing a virtual space after the third input operation is performed and the position and angle of the virtual camera are switched. When the third input operation is accepted, the camera control unit 112D switches the virtual camera to a position and an angle according to the position and orientation of the fourth object 1041 which is the possession of the avatar 1010. In the illustrated example, the possession of the avatar 1010 is the camera object 1041 held by the avatar 1010. In the state (A) of FIG. 15, the fourth object 1041 faces the face of the avatar 1010. In the actual virtual space 1000, the camera object 1041 and the virtual camera 1040 are superimposed, but the virtual camera 1040 is not shown for the sake of easy viewing of the drawing.

図16の状態(B)は、状態(A)に示す仮想カメラの視野領域の画像の一例を示す図である。図16の状態(B)に示すように、第4オブジェクト1041の視点からの視野領域の画像1300は、第4オブジェクトの向いている方向、すなわち、アバター1010の顔の方向を映す。 The state (B) of FIG. 16 is a diagram showing an example of an image of the field of view region of the virtual camera shown in the state (A). As shown in the state (B) of FIG. 16, the image 1300 of the visual field region from the viewpoint of the fourth object 1041 reflects the direction in which the fourth object is facing, that is, the direction of the face of the avatar 1010.

これにより、視聴端末100のユーザの第3入力操作に応じて、仮想カメラを、アバターの持ち物の視点と略同様の視点からの視野画像を映す位置および角度に切替えることができる。したがって、視聴端末100のユーザ、すなわち視聴者は、自身の入力操作に応じてアバターの持ち物視点からの映像を視聴することができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。 Thereby, according to the third input operation of the user of the viewing terminal 100, the virtual camera can be switched to the position and angle at which the visual field image is projected from a viewpoint substantially similar to the viewpoint of the avatar's possession. Therefore, the user of the viewing terminal 100, that is, the viewer, can view the video from the avatar's possession viewpoint according to his / her own input operation. Therefore, the degree of freedom of camera work of the content can be increased, and thus the interest of the content can be improved.

(仮想カメラの追加)
カメラ制御部112Dは、仮想カメラを複数配置してもよい。また、カメラ制御部112Dは、視聴端末100において特定の第4入力操作が受け付けられたことに応答して、仮想カメラ1040と異なる第2仮想カメラ(すなわち、第2仮想視点)を、第1オブジェクトの特定部位が映る位置および角度で配置してもよい。ここで、アバターの特定部位とは、例えばアバターの顔または手元である。また、描画部112Eは、仮想カメラの視野領域の画像と、第2仮想カメラの視野領域の画像との両方を含む画像をレンダリングしてもよい。
(Addition of virtual camera)
The camera control unit 112D may arrange a plurality of virtual cameras. Further, the camera control unit 112D sets the second virtual camera (that is, the second virtual viewpoint) different from the virtual camera 1040 as the first object in response to the reception of the specific fourth input operation in the viewing terminal 100. It may be arranged at a position and an angle at which a specific part of the camera is reflected. Here, the specific part of the avatar is, for example, the face or hand of the avatar. Further, the drawing unit 112E may render an image including both an image in the field of view area of the virtual camera and an image in the field of view area of the second virtual camera.

図17の状態(A)は、第4入力操作がなされて仮想カメラの位置および角度が切替えられた後の仮想空間を示す図である。第4入力操作が受け付けられると、カメラ制御部112Dは、第2仮想カメラ1070を、アバター1010の特定部位が映る位置および角度で仮想空間1000に配置する。図示の例では、第2仮想カメラ1070は、アバター1010の顔が映る位置および角度で配置される。 The state (A) of FIG. 17 is a diagram showing a virtual space after the fourth input operation is performed and the position and angle of the virtual camera are switched. When the fourth input operation is accepted, the camera control unit 112D arranges the second virtual camera 1070 in the virtual space 1000 at a position and an angle at which a specific portion of the avatar 1010 is projected. In the illustrated example, the second virtual camera 1070 is arranged at a position and angle at which the face of the avatar 1010 is reflected.

図17の状態(B)は、状態(A)に示す仮想カメラ1040および第2仮想カメラ1070の視野領域の画像1400の一例を示す図である。図16の状態(B)に示すように、描画部112Eは視野領域の画像として、仮想カメラ1040の視野領域の画像1400に、第2仮想カメラ1070の視野領域の画像1080を重畳して表示する。なお、第2仮想カメラ1070の視野領域の画像は、図示の通り全部ではなく一部の領域だけ表示されてもよい。 The state (B) of FIG. 17 is a diagram showing an example of an image 1400 in the field of view of the virtual camera 1040 and the second virtual camera 1070 shown in the state (A). As shown in the state (B) of FIG. 16, the drawing unit 112E superimposes and displays the image 1080 of the visual field region of the second virtual camera 1070 on the image 1400 of the visual field region of the virtual camera 1040 as the image of the visual field region. .. As shown in the figure, the image of the field of view region of the second virtual camera 1070 may be displayed only in a part of the region instead of the whole.

これにより、視聴端末100のユーザの第4入力操作に応じて、アバターの特定部位を第2仮想カメラ1070で映すことができる。したがって、視聴者は、自身の入力操作に応じて、仮想カメラによる視野領域の映像と、第2仮想カメラによるアバターの特定部位の映像との両方を同時に見ることができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。 As a result, a specific part of the avatar can be projected by the second virtual camera 1070 in response to the fourth input operation of the user of the viewing terminal 100. Therefore, the viewer can simultaneously view both the image of the visual field area by the virtual camera and the image of the specific part of the avatar by the second virtual camera according to his / her own input operation. Therefore, the degree of freedom of camera work of the content can be increased, and thus the interest of the content can be improved.

また、視聴端末100において所定の入力操作が受け付けられた場合、描画部112Eは、仮想カメラ1010の視野領域の画像1400と、第2仮想カメラ1070の視野領域の画像1080とを入れ替えて描画してもよい。 When a predetermined input operation is received by the viewing terminal 100, the drawing unit 112E replaces the image 1400 in the visual field area of the virtual camera 1010 with the image 1080 in the visual field area of the second virtual camera 1070 to draw. May be good.

(仮想カメラの切替え3)
視聴端末100において特定の第5入力操作が受け付けられた場合、カメラ制御部112Dは、仮想カメラ1040の位置および角度を、第1オブジェクトの特定部位が映る位置および角度に切替えてもよい。
(Switching of virtual camera 3)
When a specific fifth input operation is accepted by the viewing terminal 100, the camera control unit 112D may switch the position and angle of the virtual camera 1040 to the position and angle at which the specific portion of the first object is projected.

図18の状態(A)は、第5入力操作がなされて仮想カメラ1040の位置および角度が切替えられた後の仮想空間を示す図である。第5入力操作が受け付けられると、カメラ制御部112Dは、仮想カメラ1040の位置および角度を、アバター1010の特定部位が映る位置および角度に切替える。図18の状態(A)の場合、カメラ制御部112Dは、アバター1010の顔が正面から見える位置および角度に仮想カメラ1040を配置する。なお、仮想カメラ1040の位置および角度は、アバター1010の特定部位の位置に対して相対的に定められる。したがって、カメラ制御部112Dは、アバター1010の特定部位の位置および角度が変化した場合、変化後の位置および角度に応じた相対位置に仮想カメラ1040を移動または配置し直す。つまり、アバター1010の特定部位が動いたら、仮想カメラ1040も所定の相対位置となるように追従して移動する。このように、アバター1010の特定部位が動いても仮想カメラ1040も追従して動くので、アバター1010の特定部位を常に撮影できる。 The state (A) of FIG. 18 is a diagram showing a virtual space after the fifth input operation is performed and the position and angle of the virtual camera 1040 are switched. When the fifth input operation is accepted, the camera control unit 112D switches the position and angle of the virtual camera 1040 to the position and angle at which the specific part of the avatar 1010 is projected. In the case of the state (A) of FIG. 18, the camera control unit 112D arranges the virtual camera 1040 at a position and an angle at which the face of the avatar 1010 can be seen from the front. The position and angle of the virtual camera 1040 are determined relative to the position of the specific portion of the avatar 1010. Therefore, when the position and angle of the specific portion of the avatar 1010 change, the camera control unit 112D moves or rearranges the virtual camera 1040 to a relative position according to the changed position and angle. That is, when the specific part of the avatar 1010 moves, the virtual camera 1040 also follows and moves so as to be in a predetermined relative position. In this way, even if the specific part of the avatar 1010 moves, the virtual camera 1040 also moves following the movement, so that the specific part of the avatar 1010 can always be photographed.

図18の状態(B)は、状態(A)に示す仮想カメラ1040の視野領域の画像1031の一例を示す図である。図18の状態(B)に示すように、仮想カメラ1040は、アバター1010の顔を正面から撮影できる位置にある。 The state (B) of FIG. 18 is a diagram showing an example of the image 1031 of the visual field region of the virtual camera 1040 shown in the state (A). As shown in the state (B) of FIG. 18, the virtual camera 1040 is in a position where the face of the avatar 1010 can be photographed from the front.

これにより、視聴端末100のユーザの第5入力操作に応じて、仮想カメラ1040を、アバターの特定部位が映る位置および角度に切替えることができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。 As a result, the virtual camera 1040 can be switched to a position and an angle at which a specific part of the avatar is projected according to the fifth input operation of the user of the viewing terminal 100. Therefore, the degree of freedom of camera work of the content can be increased, and thus the interest of the content can be improved.

〔ゲームの変形例〕
以上の説明では、ゲームは、配信システム2が配信するコンテンツとは独立したものであり、ゲーム端末400から配信端末300にゲーム画面が取り込まれることによって、該ゲーム画面がコンテンツに含まれることとした。
[Game variant]
In the above description, the game is independent of the content distributed by the distribution system 2, and the game screen is included in the content by incorporating the game screen from the game terminal 400 into the distribution terminal 300. ..

しかしながら、配信システム2において、ゲーム端末400と配信端末300とは一体であってもよい。この場合、配信部312は、配信者がアバターを介して仮想空間でプレイするためのゲームを提供してもよい。このようなゲームとして、例えば、HMDを利用して実現されるVRゲームが挙げられる。この場合、配信部312が、ゲームの進行に係る各種処理を実行して、ゲーム画面兼配信画面を作成してよい。なお、この場合、コンテンツデータに含まれるゲームのプレイ画面とは、配信者のアバターを含む、コンテンツそのものとなる。 However, in the distribution system 2, the game terminal 400 and the distribution terminal 300 may be integrated. In this case, the distribution unit 312 may provide a game for the distributor to play in the virtual space via the avatar. Examples of such a game include a VR game realized by using an HMD. In this case, the distribution unit 312 may execute various processes related to the progress of the game to create a game screen and distribution screen. In this case, the game play screen included in the content data is the content itself including the distributor's avatar.

図19は、配信システム2における、仮想カメラの視野領域の画像の他の一例を示す図である。図19に示すゲーム画面1600には、配信者のアバター1010を少なくとも含む、ゲーム画面としてのコンテンツが表示される。図示の例ではさらに、ゲーム画面1600に敵キャラクタ1610が配置されており、配信者の操作する(配信者の動作が反映される)アバター1010と対戦している。 FIG. 19 is a diagram showing another example of an image in the field of view region of the virtual camera in the distribution system 2. The game screen 1600 shown in FIG. 19 displays content as a game screen including at least the distributor's avatar 1010. Further, in the illustrated example, the enemy character 1610 is arranged on the game screen 1600, and is playing against the avatar 1010 operated by the distributor (the operation of the distributor is reflected).

ゲーム画面1600では、アバター1010がプレイヤーキャラクタとなる。図示の例では、配信者に対応するアバター1010が配信者(モデル702等)の動きに応じてゲーム画面1600上で動いてよい。すなわち、モーションデータの取得対象となっている配信者の動きがそのまま、アバター1010に反映されてよい。例えば、前述のようにモデル702がHMDを装着している場合、モデル702の頭の動きに合わせてアバター1010の頭の向きが変化してもよい。 On the game screen 1600, the avatar 1010 is the player character. In the illustrated example, the avatar 1010 corresponding to the distributor may move on the game screen 1600 according to the movement of the distributor (model 702, etc.). That is, the movement of the distributor whose motion data is to be acquired may be reflected in the avatar 1010 as it is. For example, when the model 702 is equipped with the HMD as described above, the orientation of the head of the avatar 1010 may be changed according to the movement of the head of the model 702.

また、配信者に対応するアバター1010の視線方向と対向する位置に、自動で追尾する仮想カメラを設けてもよい。この仮想カメラによれば、配信者に対応するアバター1010の視線を確実に捉えることができる。よって、配信者に対応するアバター1010が自分の方を見てくれないという視聴者の不満の発生を防止できる。なお、この仮想カメラからの映像を表示するモードを別途設けてもよい。例えば、仮想空間内にこの仮想カメラを配置し、視聴者がこの仮想カメラをタップすると、上記モードに移行するようにしてもよい。 Further, a virtual camera that automatically tracks may be provided at a position facing the line-of-sight direction of the avatar 1010 corresponding to the distributor. According to this virtual camera, the line of sight of the avatar 1010 corresponding to the distributor can be reliably captured. Therefore, it is possible to prevent the viewer from being dissatisfied that the avatar 1010 corresponding to the distributor does not look at himself / herself. A mode for displaying the image from the virtual camera may be provided separately. For example, the virtual camera may be arranged in the virtual space, and when the viewer taps the virtual camera, the mode may be changed to the above mode.

〔変形例〕
配信システム1または2は、実施形態1において説明した第2オブジェクトの配置方法および配置位置と、実施形態2において説明した仮想カメラの位置および角度の切り替え、ならびに第2仮想カメラの配置とを組み合わせて実行してもよい。
[Modification example]
The distribution system 1 or 2 combines the arrangement method and arrangement position of the second object described in the first embodiment, the switching of the position and angle of the virtual camera described in the second embodiment, and the arrangement of the second virtual camera. You may do it.

例えば、配信システム1において、視聴端末100のオブジェクト制御部112Cは、操作受付部111が第2入力操作または第3入力操作を受け付けた場合に、実施形態2において説明したように、仮想カメラの位置および角度を切替えてもよい。また、配信システム1において、視聴端末100のオブジェクト制御部112Cは、操作受付部111が第4入力操作を受け付けた場合に、実施形態2において説明したように、第2仮想カメラを配置し、描画部112Eは仮想カメラと第2仮想カメラの両方の視野領域の画像を描画してもよい。 For example, in the distribution system 1, the object control unit 112C of the viewing terminal 100 determines the position of the virtual camera as described in the second embodiment when the operation reception unit 111 receives the second input operation or the third input operation. And the angle may be switched. Further, in the distribution system 1, when the operation receiving unit 111 receives the fourth input operation, the object control unit 112C of the viewing terminal 100 arranges and draws the second virtual camera as described in the second embodiment. The unit 112E may draw an image in the field of view of both the virtual camera and the second virtual camera.

また、実施形態1および実施形態2の例では、配信端末300において作成されたコンテンツデータに基づいて、視聴端末100において仮想空間の構築、仮想カメラの配置、および視野領域の画像の描画を実行した。しかしながら、配信システム1および2に係る配信端末300の配信部312が、仮想空間の構築、仮想カメラの配置、および視野領域の画像の描画を実行してもよい。換言すると、配信端末300の配信部312が図6のステップS201〜S212までの処理を実行し、描画された視野領域の画像がコンテンツとして、配信サーバ200を介し視聴端末100に配信されてもよい。 Further, in the examples of the first embodiment and the second embodiment, the viewing terminal 100 constructs a virtual space, arranges a virtual camera, and draws an image in the visual field area based on the content data created in the distribution terminal 300. .. However, the distribution unit 312 of the distribution terminal 300 according to the distribution systems 1 and 2 may execute the construction of the virtual space, the arrangement of the virtual cameras, and the drawing of the image in the visual field area. In other words, the distribution unit 312 of the distribution terminal 300 may execute the processes of steps S201 to S212 of FIG. 6 and distribute the drawn image of the visual field area as content to the viewing terminal 100 via the distribution server 200. ..

なお、この場合、実施形態2において説明した仮想カメラの切り替えは、例えば以下の方法で実現可能である。すなわち、配信端末300の配信部312が、予め仮想空間全域を描画する、または、配置され得る全ての位置および角度での仮想カメラの視野領域の画像を描画しておく方法である。この場合、視聴端末100において第2入力操作、第3入力操作、第4入力操作、または第5入力操作が実行されると、該操作が行われた旨が視聴端末100から配信サーバ200に伝えられる。配信サーバ200には、前述のようにあらゆる視野領域の画像に対応する描画画像が蓄積されており、サーバ処理部212は、視聴端末100から送信された操作の内容に応じた視野領域の画像を、視聴端末100に送信する。これにより、視聴端末100における入力操作に応じて、仮想カメラの視点切替えが可能となる。 In this case, the switching of the virtual cameras described in the second embodiment can be realized by, for example, the following method. That is, the distribution unit 312 of the distribution terminal 300 draws the entire virtual space in advance, or draws an image of the field of view region of the virtual camera at all positions and angles that can be arranged. In this case, when the second input operation, the third input operation, the fourth input operation, or the fifth input operation is executed in the viewing terminal 100, the viewing terminal 100 informs the distribution server 200 that the operation has been performed. Be done. As described above, the distribution server 200 stores the drawn images corresponding to the images in all the visual field regions, and the server processing unit 212 stores the images in the visual field region according to the content of the operation transmitted from the viewing terminal 100. , Transmit to the viewing terminal 100. As a result, the viewpoint of the virtual camera can be switched according to the input operation on the viewing terminal 100.

〔ソフトウェアによる実現例〕
制御部110、210、および310の各制御ブロックの制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control block of each control block of the control units 110, 210, and 310 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software.

後者の場合、制御部110、210、および310を少なくとも1つ備えた情報処理装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the information processing apparatus including at least one control unit 110, 210, and 310 includes a computer that executes a program instruction, which is software that realizes each function. The computer includes, for example, one or more processors and a computer-readable recording medium that stores the program. Then, in the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium", for example, a ROM (Read Only Memory) or the like, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, a RAM (Random Access Memory) for expanding the above program may be further provided. Further, the program may be supplied to the computer via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. It should be noted that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the above program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.

〔付記事項〕
本発明の一側面に係る内容を列記すると以下のとおりである。
[Additional notes]
The contents relating to one aspect of the present invention are listed below.

(項目1) プログラム(視聴プログラム131)について説明した。本開示のある局面によると、プログラムは、プロセッサ(10)およびメモリ(11)を備える、配信者が配信端末(300)を用いてリアルタイム配信するコンテンツを視聴するための視聴端末(100)としての、コンピュータにより実行されるプログラムであって、プログラムは、プロセッサに、コンテンツに係る情報であって、配信端末から随時配信される、少なくとも配信者の身体の動きを検出したモーションデータを含む情報である第1情報を受信するステップ(S200)と、背景画像が展開された仮想空間を構築するステップ(S201〜S202)と、仮想空間に、配信者に対応するアバターである第1オブジェクトを配置するステップ(S204)と、リアルタイム配信が行われている間、第1情報を受信することに応答して、第1オブジェクトをモーションデータに従って動作させるステップ(S207)と、仮想空間の、該仮想空間の中心点とは異なる位置であって、中心点を視野領域に含む位置に仮想視点を配置するステップ(S208)と、仮想視点の視野領域の画像をレンダリングするステップ(S212)と、レンダリングによって得られる画像を、表示部に表示させるステップ(S214)と、を実行させる。 (Item 1) The program (viewing program 131) has been described. According to certain aspects of the disclosure, the program serves as a viewing terminal (100), comprising a processor (10) and a memory (11), for the distributor to view content delivered in real time using the distribution terminal (300). , A program executed by a computer, the program is information related to the content to the processor, and is information including motion data at least detecting the movement of the distributor's body, which is distributed from the distribution terminal at any time. A step of receiving the first information (S200), a step of constructing a virtual space in which a background image is developed (S201 to S202), and a step of arranging a first object which is an avatar corresponding to a distributor in the virtual space. (S204), the step (S207) of operating the first object according to the motion data in response to receiving the first information during the real-time distribution, and the center of the virtual space of the virtual space. An image obtained by rendering a step (S208) of arranging a virtual viewpoint at a position different from a point and including a center point in the visual field area, a step of rendering an image of the visual viewpoint area of the virtual viewpoint (S212), and an image obtained by rendering. Is executed on the display unit (S214).

前記の処理によれば、中心点とは異なる位置に配置した仮想視点の視野領域を描画するため、仮想空間の中心をユーザに見せることができる。したがって、ライブ配信におけるコンテンツの興趣性が向上する。 According to the above processing, since the visual field area of the virtual viewpoint arranged at a position different from the center point is drawn, the center of the virtual space can be shown to the user. Therefore, the interest of the content in the live distribution is improved.

(項目2) (項目1)において、プログラムは、プロセッサに、さらに、背景画像の特定の領域を遮蔽するように、仮想空間内に第2オブジェクトを配置するステップ(S206)を実行させてもよい。 (Item 2) In (Item 1), the program may cause the processor to further perform a step (S206) of arranging a second object in the virtual space so as to shield a specific area of the background image. ..

仮想空間を覆う背景画像を作成する場合、元となる元画像の形およびサイズに応じて、背景画像の一部に歪みが生じる可能性がある。前記の処理によれば、例えばこのような背景画像の歪みが生じ得る領域を仮想視点の視野領域の画像を表示する際に、第2オブジェクトが該領域を遮蔽するよう配置される。したがって、視聴者に背景画像の歪みを見せないようにすることができる。 When creating a background image that covers a virtual space, a part of the background image may be distorted depending on the shape and size of the original original image. According to the above processing, for example, when displaying an image of the visual field region of the virtual viewpoint in a region where such distortion of the background image can occur, the second object is arranged so as to shield the region. Therefore, it is possible to prevent the viewer from seeing the distortion of the background image.

(項目3) (項目2)において、第1オブジェクトを配置するステップは、第1オブジェクトを第2オブジェクト上に配置してもよい。 (Item 3) In (Item 2), in the step of arranging the first object, the first object may be arranged on the second object.

前記の処理によれば、視聴者が第1オブジェクトに注目したとき、第2オブジェクトによって画像の歪みが生じ得る領域が遮蔽されている。よって、視聴者に背景画像の歪みを見せないようにすることができる。 According to the above process, when the viewer pays attention to the first object, the second object shields the area where the image can be distorted. Therefore, it is possible to prevent the viewer from seeing the distortion of the background image.

(項目4) (項目1)から(項目3)のいずれか1項目において、プログラムは、プロセッサに、さらに、地図データに基づく地図を表示するステップと、地図上のある地点を指定するための第1入力操作を受け付けるステップと、を実行させ、構築するステップは、第1入力操作に基づいて仮想空間を構築し、背景画像は、地点に対応する現実空間上の位置の周囲を撮影した画像であってもよい。 (Item 4) In any one of (Item 1) to (Item 3), the program further specifies to the processor a step of displaying a map based on map data and a certain point on the map. 1 The step of accepting the input operation and the step of executing and constructing the virtual space are constructed based on the first input operation, and the background image is an image taken around the position in the real space corresponding to the point. There may be.

前記の処理によれば、特定の地点における実際の風景を背景とした画像をライブ配信することができる。したがって、ライブ配信におけるコンテンツの興趣性が向上する。 According to the above processing, it is possible to live-stream an image against the background of an actual landscape at a specific point. Therefore, the interest of the content in the live distribution is improved.

(項目5) (項目4)において、プログラムは、プロセッサに、さらに、視聴端末の現在位置を示す位置情報を取得するステップを実行させ、構築するステップは、位置情報が示す、視聴端末の地図上での位置と、第1入力操作により指定された地点との距離が所定範囲内である場合に、仮想空間を構築してもよい。 (Item 5) In (Item 4), the program causes the processor to further execute a step of acquiring the position information indicating the current position of the viewing terminal, and the step of constructing is on the map of the viewing terminal indicated by the position information. A virtual space may be constructed when the distance between the position in and the point specified by the first input operation is within a predetermined range.

前記の処理によれば、指定された地点付近に実際に行ってから第1操作を実行することで、ライブを見ることができる。したがって、ライブ配信の興趣性を向上させることができる。 According to the above process, the live can be seen by actually performing the first operation after actually going to the vicinity of the designated point. Therefore, it is possible to improve the interest of live distribution.

(項目6) (項目1)から(項目5)のいずれか1項目において、プログラムは、プロセッサに、さらに、視聴端末において第2入力操作が受け付けられたことに応答して、仮想視点の位置および角度を、第1オブジェクトに対応する配信者の視点と略同様の位置および角度に切替えるステップを実行させ、レンダリングするステップは、配信者の視点と略同様の位置および角度に切替えるステップによって仮想視点の位置および角度が切替えられた後の、視野領域の画像をレンダリングしてもよい。 (Item 6) In any one of (Item 1) to (Item 5), the program sets the position of the virtual viewpoint and the position of the virtual viewpoint in response to the reception of the second input operation by the processor and the viewing terminal. The step of switching the angle to the position and angle substantially the same as the viewpoint of the distributor corresponding to the first object is executed, and the step of rendering is the step of switching to the position and angle substantially the same as the viewpoint of the distributor of the virtual viewpoint. The image in the field of view may be rendered after the position and angle have been switched.

前記の処理によれば、視聴端末のユーザの第2入力操作に応じて、仮想視点を、配信者の視野と略同様の領域を映す位置および角度に切替えることができる。したがって、視聴端末のユーザ、すなわち視聴者は、自身の入力操作に応じて配信者の視点をトレースした映像を視聴することができる。したがって、前記の処理によれば、ライブ配信のカメラワークの自由度を増すことができ、よってライブ配信の興趣性を向上させることができる。 According to the above process, the virtual viewpoint can be switched to a position and an angle for projecting a region substantially similar to the field of view of the distributor according to the second input operation of the user of the viewing terminal. Therefore, the user of the viewing terminal, that is, the viewer, can view the video that traces the viewpoint of the distributor according to his / her own input operation. Therefore, according to the above processing, the degree of freedom of the camera work of the live distribution can be increased, and thus the interest of the live distribution can be improved.

(項目7) (項目1)から(項目6)のいずれか1項目において、プログラムは、プロセッサに、さらに、仮想空間に、アバターの持ち物を示す第4オブジェクトを配置するステップと、視聴端末において第3入力操作が受け付けられたことに応答して、仮想視点の位置および角度を、第4オブジェクトの位置および向きと略同様の位置および角度に切替えるステップと、を実行させ、レンダリングするステップは、第4オブジェクトの位置および向きと略同様の位置および角度に切替えるステップによって仮想視点の位置および角度が切替えられた後の、視野領域の画像をレンダリングしてもよい。 (Item 7) In any one of (Item 1) to (Item 6), the program arranges a fourth object indicating the belongings of the avatar in the processor and further in the virtual space, and in the viewing terminal, the fourth object. 3 In response to the reception of the input operation, the step of switching the position and angle of the virtual viewpoint to the position and angle substantially the same as the position and orientation of the fourth object, and the step of executing and rendering are the first steps. 4 The image of the visual field area may be rendered after the position and angle of the virtual viewpoint are switched by the step of switching to the position and angle substantially the same as the position and orientation of the object.

前記の処理によれば、視聴端末のユーザの第3入力操作に応じて、仮想視点を、アバターの持ち物の視点と略同様の視点からの視野画像を映す位置および角度に切替えることができる。ここで、アバターの持ち物とは、例えばアバターが手に持っているカメラオブジェクトである。前記の処理によれば、視聴端末のユーザ、すなわち視聴者は、自身の入力操作に応じてアバターの持ち物視点からの映像を視聴することができる。したがって、ライブ配信のカメラワークの自由度を増すことができ、よってライブ配信の興趣性を向上させることができる。 According to the above process, the virtual viewpoint can be switched to a position and an angle at which the visual field image is projected from a viewpoint substantially similar to the viewpoint of the avatar's possession, according to the third input operation of the user of the viewing terminal. Here, the possession of the avatar is, for example, a camera object held by the avatar. According to the above processing, the user of the viewing terminal, that is, the viewer, can view the video from the avatar's possession viewpoint according to his / her own input operation. Therefore, the degree of freedom of camera work for live distribution can be increased, and thus the interest of live distribution can be improved.

(項目8) (項目1)から(項目7)のいずれか1項目において、プログラムは、プロセッサに、さらに、視聴端末において第4入力操作が受け付けられたことに応答して、仮想視点と異なる第2仮想視点を、第1オブジェクトの特定部位が映る位置および角度で配置するステップを実行させ、レンダリングするステップは、仮想視点の視野領域の画像と、第2仮想視点の視野領域の画像との両方を含む画像をレンダリングしてもよい。 (Item 8) In any one of (Item 1) to (Item 7), the program differs from the virtual viewpoint in response to the reception of the fourth input operation by the processor and the viewing terminal. 2 The step of arranging the virtual viewpoint at the position and angle at which the specific part of the first object is projected is executed, and the rendering step is both the image of the visual field area of the virtual viewpoint and the image of the visual field area of the second virtual viewpoint. An image containing may be rendered.

前記の処理によれば、視聴端末のユーザの第4入力操作に応じて、アバターの特定部位を第2仮想視点で映すことができる。ここで、アバターの特定部位とは、例えばアバターの顔または手元である。前記の処理によれば、視聴端末のユーザ、すなわち視聴者は、自身の入力操作に応じて、仮想視点による視野領域の映像と、第2仮想視点によるアバターの特定部位の映像との両方を同時に見ることができる。したがって、ライブ配信のカメラワークの自由度を増すことができ、よってライブ配信の興趣性を向上させることができる。 According to the above process, the specific part of the avatar can be projected from the second virtual viewpoint in response to the fourth input operation of the user of the viewing terminal. Here, the specific part of the avatar is, for example, the face or hand of the avatar. According to the above processing, the user of the viewing terminal, that is, the viewer, simultaneously performs both the image of the visual field area by the virtual viewpoint and the image of the specific part of the avatar by the second virtual viewpoint according to his / her input operation. You can see it. Therefore, the degree of freedom of camera work for live distribution can be increased, and thus the interest of live distribution can be improved.

(項目9) (項目1)から(項目8)のいずれか1項目において、プログラムは、プロセッサに、さらに、視聴端末において第5入力操作が受け付けられたことに応答して、仮想視点の位置および角度を、第1オブジェクトの特定部位が映る位置および角度に切替えるステップを実行させ、レンダリングするステップは、第1オブジェクトの特定部位が映る位置および角度に切替えるステップによって仮想視点の位置および角度が切替えられた後の、視野領域の画像をレンダリングしてもよい。 (Item 9) In any one of the items (item 1) to (item 8), the program sets the position of the virtual viewpoint and the position of the virtual viewpoint in response to the reception of the fifth input operation by the processor and the viewing terminal. The position and angle of the virtual viewpoint are switched by the step of switching the angle to the position and angle where the specific part of the first object is reflected and the step of switching to the position and angle where the specific part of the first object is reflected in the rendering step. After that, the image of the visual field area may be rendered.

前記の処理によれば、視聴端末のユーザの第5入力操作に応じて、仮想視点を、アバターの特定部位が映る位置および角度に切替えることができる。したがって、コンテンツのカメラワークの自由度を増すことができ、よってコンテンツの興趣性を向上させることができる。 According to the above process, the virtual viewpoint can be switched to the position and angle at which the specific part of the avatar is projected according to the fifth input operation of the user of the viewing terminal. Therefore, the degree of freedom of camera work of the content can be increased, and thus the interest of the content can be improved.

(項目10) プログラム(配信プログラム331)について説明した。本開示のある局面によると、プログラムは、プロセッサ(20,30)およびメモリ(21,31)を備える、配信者がコンテンツのリアルタイム配信に用いる配信端末(200、300)としてのコンピュータにより実行されるプログラムであって、プログラムは、プロセッサに、背景画像が展開された仮想空間を構築するステップ(S201〜S202)と、仮想空間に、配信者に対応するアバターである第1オブジェクトを配置するステップ(S204)と、仮想空間の、該仮想空間の中心点とは異なる位置に仮想視点を配置するステップ(S208)と、仮想視点の視野領域の画像をレンダリングするステップ(S212)と、レンダリングによって得られる画像を、コンテンツとして視聴端末にリアルタイムで配信するステップ(S102,S112)と、を実行させる。 (Item 10) The program (delivery program 331) has been described. According to certain aspects of the disclosure, the program is executed by a computer as a distribution terminal (200, 300) that the distributor uses for real-time distribution of content, including processors (20, 30) and memory (21, 31). The program is a program, in which a step of constructing a virtual space in which a background image is developed (S201 to S202) and a step of arranging a first object, which is an avatar corresponding to a distributor, in the virtual space (S201 to S202). S204), a step of arranging the virtual viewpoint in the virtual space at a position different from the center point of the virtual space (S208), a step of rendering an image in the viewing area of the virtual viewpoint (S212), and rendering. The steps (S102, S112) of delivering the image as content to the viewing terminal in real time are executed.

前記の処理によれば、中心点とは異なる位置に配置した仮想視点の視野領域を描画するため、仮想空間の中心をユーザに見せることができる。したがって、ライブ配信におけるコンテンツの興趣性が向上する。 According to the above processing, since the visual field area of the virtual viewpoint arranged at a position different from the center point is drawn, the center of the virtual space can be shown to the user. Therefore, the interest of the content in the live distribution is improved.

(項目11) コンピュータがプログラムを実行する方法を説明した。本開示のある局面によると、プログラム(視聴プログラム131)は、プロセッサ(10)およびメモリ(11)を備えるコンピュータにより実行される。該方法は、プロセッサが(項目1)に記載のプログラムの各ステップを実行する方法である。(項目11)に係る方法は、(項目1)に係るプログラムと同様の作用効果を奏する。 (Item 11) A method of executing a program by a computer has been described. According to certain aspects of the disclosure, the program (viewing program 131) is executed by a computer equipped with a processor (10) and a memory (11). The method is a method in which the processor executes each step of the program described in (Item 1). The method according to (item 11) has the same effect as the program according to (item 1).

(項目12) 情報処理装置を説明した。本開示のある局面によると、該情報処理装置は、(項目1)に係るプログラムを記憶するメモリ(11)と、該プログラムを実行することにより、情報処理装置(視聴端末100)の動作を制御するプロセッサ(10)とを備える。(項目12)に係る情報処理装置は、(項目1)に係るプログラムと同様の作用効果を奏する。 (Item 12) The information processing apparatus has been described. According to a certain aspect of the present disclosure, the information processing device controls the operation of the information processing device (viewing terminal 100) by executing the program and the memory (11) for storing the program according to (item 1). The processor (10) is provided. The information processing apparatus according to (Item 12) has the same effect as the program according to (Item 1).

1 配信システム、4 ネットワーク、10,20,30 プロセッサ、11,21,31 メモリ、12,22,32 ストレージ、15,35 タッチスクリーン、17 カメラ、18 測距センサ、100 視聴端末、110,210,310 制御部、111,311 操作受付部、112 再生部、112A 空間定義部、112B 背景制御部、112C オブジェクト制御部、112D カメラ制御部、112E 描画部、113,313 表示制御部、114,314 通信部、120,220,320 記憶部、131 視聴プログラム、132 視聴者情報、332 配信者情報、151,351 入力部、152,352 表示部、200 配信サーバ、211 送受信部、212 サーバ処理部、213 データ管理部、231,331 配信プログラム、300 配信端末、312 配信部、1020,3030 コントローラ、1030 記憶媒体、3010 マイク、3020 モーションキャプチャ装置、13,23,33 通信IF、14,24,34 入出力IF 1 distribution system, 4 networks, 10,20,30 processors, 11,21,31 memory, 12,22,32 storage, 15,35 touch screen, 17 cameras, 18 ranging sensors, 100 viewing terminals, 110,210, 310 Control unit, 111,311 Operation reception unit, 112 playback unit, 112A space definition unit, 112B background control unit, 112C object control unit, 112D camera control unit, 112E drawing unit, 113,313 display control unit, 114,314 communication Unit, 120, 220, 320 Storage unit, 131 Viewing program, 132 Viewer information, 332 Distributor information, 151,351 Input unit, 152,352 Display unit, 200 Distribution server, 211 Transmission / reception unit, 212 Server processing unit, 213 Data management unit, 231,331 distribution program, 300 distribution terminal, 312 distribution unit, 1020, 3030 controller, 1030 storage medium, 3010 microphone, 3020 motion capture device, 13,23,33 communication IF, 14,24,34 input / output IF

Claims (12)

プロセッサおよびメモリを備える、配信者が配信端末を用いてリアルタイム配信するコンテンツを視聴するための視聴端末としての、コンピュータにより実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
前記コンテンツに係る情報であって、前記配信端末から随時配信される、少なくとも配信者の身体の動きを検出したモーションデータを含む情報である第1情報を受信するステップと、
背景画像が展開された仮想空間を構築するステップと、
前記仮想空間に、前記配信者に対応するアバターである第1オブジェクトを配置するステップと、
前記リアルタイム配信が行われている間、前記第1情報を受信することに応答して、前記第1オブジェクトを前記モーションデータに従って動作させるステップと、
前記仮想空間の、該仮想空間の中心点とは異なる位置であって、前記中心点を視野領域に含む位置に仮想視点を配置するステップと、
前記仮想視点の視野領域の画像をレンダリングするステップと、
前記レンダリングによって得られる前記画像を、表示部に表示させるステップと、を実行させる、プログラム。
A program executed by a computer as a viewing terminal for viewing content delivered in real time by a distributor using a distribution terminal, which comprises a processor and memory.
The program is delivered to the processor.
A step of receiving the first information which is information related to the content and is information including at least motion data for detecting the movement of the body of the distributor, which is distributed from the distribution terminal at any time.
Steps to build a virtual space where the background image is expanded,
A step of arranging a first object, which is an avatar corresponding to the distributor, in the virtual space,
A step of operating the first object according to the motion data in response to receiving the first information during the real-time distribution.
A step of arranging the virtual viewpoint in the virtual space at a position different from the center point of the virtual space and including the center point in the visual field area.
The step of rendering the image in the visual field area of the virtual viewpoint and
A program for executing a step of displaying the image obtained by the rendering on a display unit.
前記プログラムは、前記プロセッサに、さらに、
前記背景画像の特定の領域を遮蔽するように、前記仮想空間内に第2オブジェクトを配置するステップを実行させる、請求項1に記載のプログラム。
The program is added to the processor.
The program according to claim 1, wherein a step of arranging a second object in the virtual space is executed so as to shield a specific area of the background image.
前記第1オブジェクトを配置するステップは、前記第1オブジェクトを前記第2オブジェクト上に配置する、請求項2に記載のプログラム。 The program according to claim 2, wherein the step of arranging the first object is to arrange the first object on the second object. 前記プログラムは、前記プロセッサに、さらに、
地図データに基づく地図を表示するステップと、
前記地図上のある地点を指定するための第1入力操作を受け付けるステップと、を実行させ、
前記構築するステップは、前記第1入力操作に基づいて前記仮想空間を構築し、
前記背景画像は、前記地点に対応する現実空間上の位置の周囲を撮影した画像である、請求項1〜3のいずれか1項に記載のプログラム。
The program is added to the processor.
Steps to display a map based on map data,
The step of accepting the first input operation for designating a certain point on the map is executed.
The building step builds the virtual space based on the first input operation.
The program according to any one of claims 1 to 3, wherein the background image is an image taken around a position in real space corresponding to the point.
前記プログラムは、前記プロセッサに、さらに、
前記視聴端末の現在位置を示す位置情報を取得するステップを実行させ、
前記構築するステップは、前記位置情報が示す、前記視聴端末の前記地図上での位置と、前記第1入力操作により指定された前記地点との距離が所定範囲内である場合に、前記仮想空間を構築する、請求項4に記載のプログラム。
The program is added to the processor.
The step of acquiring the position information indicating the current position of the viewing terminal is executed, and the step is executed.
The step to construct is the virtual space when the distance between the position of the viewing terminal on the map indicated by the position information and the point designated by the first input operation is within a predetermined range. 4. The program according to claim 4.
前記プログラムは、前記プロセッサに、さらに、
前記視聴端末において第2入力操作が受け付けられたことに応答して、前記仮想視点の位置および角度を、前記第1オブジェクトに対応する配信者の視点と略同様の位置および角度に切替えるステップを実行させ、
前記レンダリングするステップは、前記配信者の視点と略同様の位置および角度に切替えるステップによって前記仮想視点の位置および角度が切替えられた後の、前記視野領域の画像をレンダリングする、請求項1〜5のいずれか1項に記載のプログラム。
The program is added to the processor.
In response to the reception of the second input operation in the viewing terminal, a step of switching the position and angle of the virtual viewpoint to a position and angle substantially the same as the viewpoint of the distributor corresponding to the first object is executed. Let me
Claims 1 to 5 that the rendering step renders an image of the visual field region after the position and angle of the virtual viewpoint are switched by a step of switching to a position and angle substantially similar to the viewpoint of the distributor. The program described in any one of the above.
前記プログラムは、前記プロセッサに、さらに、
前記仮想空間に、前記アバターの持ち物を示す第4オブジェクトを配置するステップと、
前記視聴端末において第3入力操作が受け付けられたことに応答して、前記仮想視点の位置および角度を、前記第4オブジェクトの位置および向きと略同様の位置および角度に切替えるステップと、を実行させ、
前記レンダリングするステップは、前記第4オブジェクトの位置および向きと略同様の位置および角度に切替えるステップによって前記仮想視点の位置および角度が切替えられた後の、前記視野領域の画像をレンダリングする、請求項1〜6のいずれか1項に記載のプログラム。
The program is added to the processor.
A step of arranging a fourth object indicating the belongings of the avatar in the virtual space,
In response to the reception of the third input operation in the viewing terminal, the step of switching the position and angle of the virtual viewpoint to a position and angle substantially the same as the position and orientation of the fourth object is executed. ,
The rendering step renders an image of the visual field region after the position and angle of the virtual viewpoint are switched by a step of switching to a position and angle substantially similar to the position and orientation of the fourth object. The program according to any one of 1 to 6.
前記プログラムは、前記プロセッサに、さらに、
視聴端末において第4入力操作が受け付けられたことに応答して、前記仮想視点と異なる第2仮想視点を、前記第1オブジェクトの特定部位が映る位置および角度で配置するステップを実行させ、
前記レンダリングするステップは、前記仮想視点の視野領域の画像と、前記第2仮想視点の視野領域の画像との両方を含む画像をレンダリングする、請求項1〜7のいずれか1項に記載のプログラム。
The program is added to the processor.
In response to the reception of the fourth input operation on the viewing terminal, the step of arranging the second virtual viewpoint different from the virtual viewpoint at the position and angle at which the specific part of the first object is projected is executed.
The program according to any one of claims 1 to 7, wherein the rendering step renders an image including both an image in the visual field region of the virtual viewpoint and an image in the visual field region of the second virtual viewpoint. ..
前記プログラムは、前記プロセッサに、さらに、
前記視聴端末において第5入力操作が受け付けられたことに応答して、前記仮想視点の位置および角度を、前記第1オブジェクトの特定部位が映る位置および角度に切替えるステップを実行させ、
前記レンダリングするステップは、前記第1オブジェクトの特定部位が映る位置および角度に切替えるステップによって前記仮想視点の位置および角度が切替えられた後の、前記視野領域の画像をレンダリングする、請求項1〜8のいずれか1項に記載のプログラム。
The program is added to the processor.
In response to the reception of the fifth input operation in the viewing terminal, the step of switching the position and angle of the virtual viewpoint to the position and angle in which the specific part of the first object is projected is executed.
The rendering step renders the image of the visual field region after the position and angle of the virtual viewpoint are switched by the step of switching to the position and angle in which the specific portion of the first object is projected, claims 1 to 8. The program described in any one of the above.
プロセッサおよびメモリを備える、配信者がコンテンツのリアルタイム配信に用いる配信端末としてのコンピュータにより実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
背景画像が展開された仮想空間を構築するステップと、
前記仮想空間に、前記配信者に対応するアバターである第1オブジェクトを配置するステップと、
前記仮想空間の、該仮想空間の中心点とは異なる位置に仮想視点を配置するステップと、
前記仮想視点の視野領域の画像をレンダリングするステップと、
前記レンダリングによって得られる前記画像を、コンテンツとして視聴端末にリアルタイムで配信するステップと、を実行させる、プログラム。
A program that includes a processor and memory and is executed by a computer as a distribution terminal used by a distributor for real-time distribution of content.
The program is delivered to the processor.
Steps to build a virtual space where the background image is expanded,
A step of arranging a first object, which is an avatar corresponding to the distributor, in the virtual space,
A step of arranging a virtual viewpoint in the virtual space at a position different from the center point of the virtual space,
The step of rendering the image in the visual field area of the virtual viewpoint and
A program that executes a step of delivering the image obtained by the rendering to a viewing terminal as content in real time.
コンピュータがプログラムを実行する方法であって、
前記コンピュータは、プロセッサ、およびメモリを備え、
前記プロセッサが請求項1に記載のプログラムの各ステップを実行する、方法。
The way a computer runs a program
The computer comprises a processor and memory.
A method in which the processor executes each step of the program according to claim 1.
情報処理装置であって、
前記情報処理装置は、
請求項1に記載のプログラムを記憶するメモリと、
該プログラムを実行することにより、前記情報処理装置の動作を制御するプロセッサと、を備えている、情報処理装置。
It is an information processing device
The information processing device
A memory for storing the program according to claim 1 and
An information processing device including a processor that controls the operation of the information processing device by executing the program.
JP2021024934A 2019-01-25 2021-02-19 Program, method, and information processing device Pending JP2021099825A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021024934A JP2021099825A (en) 2019-01-25 2021-02-19 Program, method, and information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019011663A JP6843164B2 (en) 2019-01-25 2019-01-25 Programs, methods, and information processing equipment
JP2021024934A JP2021099825A (en) 2019-01-25 2021-02-19 Program, method, and information processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019011663A Division JP6843164B2 (en) 2019-01-25 2019-01-25 Programs, methods, and information processing equipment

Publications (1)

Publication Number Publication Date
JP2021099825A true JP2021099825A (en) 2021-07-01

Family

ID=71892188

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019011663A Active JP6843164B2 (en) 2019-01-25 2019-01-25 Programs, methods, and information processing equipment
JP2021024934A Pending JP2021099825A (en) 2019-01-25 2021-02-19 Program, method, and information processing device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019011663A Active JP6843164B2 (en) 2019-01-25 2019-01-25 Programs, methods, and information processing equipment

Country Status (1)

Country Link
JP (2) JP6843164B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7472386B1 (en) 2023-11-15 2024-04-22 株式会社あかつき Information processing system, information processing device, program, and information processing method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220070237A1 (en) * 2020-08-28 2022-03-03 Tmrw Foundation Ip S. À R.L. System and method for virtually broadcasting from within a virtual environment
JP7106609B2 (en) * 2020-09-08 2022-07-26 聡 竹内 Information communication system, information processing equipment
JP7043558B1 (en) 2020-09-23 2022-03-29 グリー株式会社 Computer programs, methods, and server equipment
JP7250228B2 (en) * 2021-01-28 2023-03-31 三菱電機株式会社 Display system, virtual space providing device and display method
JP7212808B1 (en) 2022-03-18 2023-01-25 ヤフー株式会社 Video distribution device, video distribution method, and video distribution program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004236075A (en) * 2003-01-31 2004-08-19 Toshiba Corp Receiver, reception system and receiving method
JP2005277670A (en) * 2004-03-24 2005-10-06 Hiroo Iwata Omniazimuth video image generating apparatus, map interlocked omniazimuth video recording / display apparatus, and map interlocked omniazimuth video image utilizing apparatus
JP2012239746A (en) * 2011-05-23 2012-12-10 Nintendo Co Ltd Game system, game processing method, game device, and game program
JP2016062486A (en) * 2014-09-19 2016-04-25 株式会社ソニー・コンピュータエンタテインメント Image generation device and image generation method
JP2017078891A (en) * 2015-10-19 2017-04-27 株式会社コロプラ Image generation device, image generation method, and image generation program
JP2018120519A (en) * 2017-01-27 2018-08-02 株式会社コロプラ Information processing method and program for causing computer to execute the same
JP2018190336A (en) * 2017-05-11 2018-11-29 株式会社コロプラ Method for providing virtual space, program for executing method in computer, information processing unit for executing program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016025633A (en) * 2014-07-24 2016-02-08 ソニー株式会社 Information processing apparatus, management device, information processing method, and program
JP6637650B2 (en) * 2014-10-31 2020-01-29 ティフォン インコーポレーテッドTyffon Inc. Game program, computer control method, information processing device, image output device, image output method, and image output program
JP6721295B2 (en) * 2015-04-24 2020-07-15 株式会社コロプラ Game experience sharing system, method, program and recording medium
JP2017188833A (en) * 2016-04-08 2017-10-12 ソニー株式会社 Information processing device and information processing method; and program
JP6809830B2 (en) * 2016-07-13 2021-01-06 株式会社バンダイナムコエンターテインメント Programs and electronics
JP6248219B1 (en) * 2017-03-08 2017-12-13 株式会社コロプラ Information processing method, computer, and program for causing computer to execute information processing method
JP6367450B1 (en) * 2017-10-31 2018-08-01 株式会社テクテック Position game interface system, program, and control method
JP6397595B1 (en) * 2018-04-12 2018-09-26 株式会社ドワンゴ Content distribution server, content distribution system, content distribution method and program
JP6446154B1 (en) * 2018-05-09 2018-12-26 グリー株式会社 Video distribution system for live distribution of animation including animation of character objects generated based on actor movement

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004236075A (en) * 2003-01-31 2004-08-19 Toshiba Corp Receiver, reception system and receiving method
JP2005277670A (en) * 2004-03-24 2005-10-06 Hiroo Iwata Omniazimuth video image generating apparatus, map interlocked omniazimuth video recording / display apparatus, and map interlocked omniazimuth video image utilizing apparatus
JP2012239746A (en) * 2011-05-23 2012-12-10 Nintendo Co Ltd Game system, game processing method, game device, and game program
JP2016062486A (en) * 2014-09-19 2016-04-25 株式会社ソニー・コンピュータエンタテインメント Image generation device and image generation method
JP2017078891A (en) * 2015-10-19 2017-04-27 株式会社コロプラ Image generation device, image generation method, and image generation program
JP2018120519A (en) * 2017-01-27 2018-08-02 株式会社コロプラ Information processing method and program for causing computer to execute the same
JP2018190336A (en) * 2017-05-11 2018-11-29 株式会社コロプラ Method for providing virtual space, program for executing method in computer, information processing unit for executing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大槻 麻衣: "遠隔作業指示における身体動作と視線提示の効果", 情報処理学会 研究報告 ヒューマンコンピュータインタラクション(HCI) 2018−HCI−177, JPN6022053688, 9 March 2018 (2018-03-09), JP, ISSN: 0004945962 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7472386B1 (en) 2023-11-15 2024-04-22 株式会社あかつき Information processing system, information processing device, program, and information processing method

Also Published As

Publication number Publication date
JP6843164B2 (en) 2021-03-17
JP2020120336A (en) 2020-08-06

Similar Documents

Publication Publication Date Title
JP6843164B2 (en) Programs, methods, and information processing equipment
JP6858737B2 (en) Viewing program, distribution program, how to execute the viewing program, how to execute the distribution program, information processing device, and information processing system
JP6725038B2 (en) Information processing apparatus and method, display control apparatus and method, program, and information processing system
US10979751B2 (en) Communication management apparatus, method and computer-readable storage medium for generating image data identification information communication
US20180321798A1 (en) Information processing apparatus and operation reception method
CN109729411B (en) Live broadcast interaction method and device
JP2024050721A (en) Information processing device, information processing method, and computer program
CN111246236B (en) Interactive data playing method, device, terminal, server and storage medium
WO2020110323A1 (en) Video synthesis device, video synthesis method and recording medium
JP6523493B1 (en) PROGRAM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD
JP6559870B1 (en) Movie synthesis apparatus, movie synthesis method, and movie synthesis program
CN113274729B (en) Interactive observation method, device, equipment and medium based on virtual scene
CN111050189A (en) Live broadcast method, apparatus, device, storage medium, and program product
JP2019087226A (en) Information processing device, information processing system, and method of outputting facial expression images
US20180348531A1 (en) Method executed on computer for controlling a display of a head mount device, program for executing the method on the computer, and information processing apparatus therefor
JP2021100575A (en) Game program, game method, and information processor
CN113318442A (en) Live interface display method, data uploading method and data downloading method
CN113230655A (en) Virtual object control method, device, equipment, system and readable storage medium
CN113244616A (en) Interaction method, device and equipment based on virtual scene and readable storage medium
JP2019128721A (en) Program for reflecting user motion on avatar, information processing device for executing the same and method for distributing image containing avatar
JP6518645B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
JP2020087429A (en) Video synthesizer, method for synthesizing video, and video synthesizing program
JP7094404B2 (en) Viewing program, distribution program, how to execute the viewing program, how to execute the distribution program, information processing device, and information processing system
CN114245148B (en) Live interaction method, device, terminal, server and storage medium
US20240153226A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230613