JP2018166279A - Video distribution apparatus, system, program and method for distributing video according to client state - Google Patents

Video distribution apparatus, system, program and method for distributing video according to client state Download PDF

Info

Publication number
JP2018166279A
JP2018166279A JP2017063096A JP2017063096A JP2018166279A JP 2018166279 A JP2018166279 A JP 2018166279A JP 2017063096 A JP2017063096 A JP 2017063096A JP 2017063096 A JP2017063096 A JP 2017063096A JP 2018166279 A JP2018166279 A JP 2018166279A
Authority
JP
Japan
Prior art keywords
state
video
client
time interval
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017063096A
Other languages
Japanese (ja)
Other versions
JP6648061B2 (en
Inventor
福井 啓允
Hiromitsu Fukui
啓允 福井
内藤 整
Hitoshi Naito
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017063096A priority Critical patent/JP6648061B2/en
Publication of JP2018166279A publication Critical patent/JP2018166279A/en
Application granted granted Critical
Publication of JP6648061B2 publication Critical patent/JP6648061B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video distribution apparatus capable of distributing, to a client concerned, video data which enables the reproduction of a video according to a client state.SOLUTION: The video distribution apparatus for distributing a video of a virtual space to a client comprises: state-prediction means for acquiring information concerning a state of the client at a point of time or in a time zone to predict the client state at another point of time or in another time zone; virtual state deciding means for deciding a virtual state in a virtual space corresponding to the predicted state at the other point of time or in the other time zone; video production means for producing a video to be distributed based on the virtual state thus decided; and video distribution control means for distributing the produced video to the client in line with reproduction at the other point of time or in the other time zone. In the video distribution apparatus, the video to be distributed is a viewpoint video image in the virtual space; and the information concerning the state is preferably a piece of information concerning at least one of a position, a velocity, an acceleration and a direction of the client.SELECTED DRAWING: Figure 1

Description

本発明は、大容量のデータをサーバから取得するクライアントにおける受信制御技術に関する。   The present invention relates to a reception control technique in a client that acquires a large amount of data from a server.

次世代における高い臨場感を提供可能なメディアの一つとして、VR(Virtual reality)映像が注目されている。VR映像とは、例えば、HMD(Head Mounted Display,頭部装着ディスプレイ)を装着したユーザに対し、頭部の向きに合わせて仮想空間における360度の視野範囲の動画像を一挙に提供可能な映像である。   As one of media capable of providing a high level of realism in the next generation, VR (Virtual reality) images are attracting attention. VR video is, for example, video that can provide a user with a HMD (Head Mounted Display) a moving image in a 360-degree field of view in a virtual space according to the orientation of the head. It is.

VR映像を表示するためには、HMD等のクライアントにおいて、360度の視野範囲に展開された2次元映像であるパノラマ映像を用意する必要がある。このパノラマ映像は、360度の視野範囲の撮影に対応したカメラ群によるカメラ映像や、3次元のCG(Computer Graphics)技術を用いて生成されたVRコンテンツを、ERP(Equi-Rectangular Projection)形式(正距円筒図法)等のマッピング手法により2次元映像に展開することによって生成される。ちなみに、クライアントは、受信したパノラマ映像を所定の変換式によってフレーム毎に変換し、例えば両眼で仮想空間を視認できる形のVR映像を生成して表示するのである。   In order to display a VR video, it is necessary to prepare a panoramic video that is a two-dimensional video developed in a 360-degree field of view in a client such as an HMD. This panoramic video is an ERP (Equi-Rectangular Projection) format (VR) generated using a camera group that supports 360-degree field of view shooting and VR content generated using 3D computer graphics (CG) technology ( It is generated by developing it into a two-dimensional image by a mapping technique such as equirectangular projection. Incidentally, the client converts the received panoramic image for each frame by a predetermined conversion formula, and generates and displays a VR image in a form in which the virtual space can be visually recognized with both eyes, for example.

ここで、パノラマ映像は一般に、既存の符号化方式でエンコードされており圧縮された形でクライアントに配信されるが、ERP形式によれば4Kや8K等の高解像度表示に対応した2次元映像に展開されたものとなる。したがって、そのビットレートは高くなり、特に通信ネットワークを経由して配信する場合、配信遅延が増大する。   Here, the panoramic video is generally encoded by the existing encoding method and delivered to the client in a compressed form. However, according to the ERP format, the panoramic video is converted into a two-dimensional video corresponding to high resolution display such as 4K or 8K. It will be developed. Therefore, the bit rate becomes high, and in particular when distributing via a communication network, the distribution delay increases.

この配信遅延の問題に対し、例えば特許文献1は、パノラマ映像のビットレートを、可視領域を考慮して節約するという解決策を提案している。具体的には、パノラマ映像をスライス分割し、スライス毎に異なる解像度及びビットレートを設定して、ユーザの可視領域の品質を高く設定する一方、非可視領域の品質を低くすることにより、全体のビットレートの低減を図っている。   For example, Patent Document 1 proposes a solution for saving the bit rate of panoramic video in consideration of the visible region. Specifically, the panoramic image is divided into slices, different resolutions and bit rates are set for each slice, and the quality of the user's visible area is set high, while the quality of the non-visible area is reduced, The bit rate is reduced.

また従来、配信遅延への対処が可能な配信方式として、HLS(HTTP Live Streaming)というプロトコルが利用されている。本方式では、予め映像ストリームを数〜10秒程度の再生時間長を有するセグメントファイルに分割しておき、クライアント側がこのセグメント単位で受信及び再生開始を行うことによって、映像ストリームを受信しながら再生する擬似ストリーミングが実現される。   Conventionally, a protocol called HLS (HTTP Live Streaming) has been used as a delivery method capable of dealing with delivery delay. In this method, the video stream is divided into segment files having a playback time length of about several to 10 seconds in advance, and the client side performs reception and playback start in units of segments, thereby playing back while receiving the video stream. Pseudo streaming is realized.

さらに、映像ストリームに異なる品質(ビットレート)のものを用意し、セグメント毎に互いに異なるビットレートのセグメントファイルを揃えておくことによって、セグメント単位でビットレートを選択する。これにより、通信ネットワークの通信状況に応じ、クライアント側が要求するコンテンツの品質を変更し、配信遅延に対処するのである。なお、同様の公知の配信プロトコルとして、MPEG−DASH(Dynamic Adaptive Streaming over Hyper transfer protocol)等が挙げられる。   Furthermore, video streams having different qualities (bit rates) are prepared, and segment files having different bit rates are prepared for each segment, thereby selecting a bit rate for each segment. As a result, the quality of the content requested by the client is changed according to the communication status of the communication network, and the delivery delay is dealt with. Similar known distribution protocols include MPEG-DASH (Dynamic Adaptive Streaming over Hyper transfer protocol).

特開2016−105593号公報JP 2006-105593 A

たしかに、特許文献1に記載された技術を含む従来技術では、セグメントファイル等の分割された画像ファイルのビットレートを調整することで配信遅延への対処を図っている。しかしながら、VRコンテンツのパノラマ映像の配信等を考えると、依然として配信遅延の問題が残ってしまう。   Certainly, in the prior art including the technique described in Patent Document 1, it is possible to cope with the delivery delay by adjusting the bit rate of the divided image file such as the segment file. However, considering the distribution of panoramic video of VR content, the problem of distribution delay still remains.

ここで具体的に、次のような配信形態を考察する。すなわち、現実世界における自動車の移動と連動させる形でVRコンテンツの視点位置を移動させたパノラマ映像を、乗車したユーザの装着したHMDに対し配信する。これにより、このユーザにVRコンテンツの仮想空間内を移動するような体験を提供するのである。   Here, specifically, the following distribution form is considered. That is, a panoramic image in which the viewpoint position of the VR content is moved in conjunction with the movement of the car in the real world is distributed to the HMD worn by the user who gets on the vehicle. Thus, this user is provided with an experience of moving in the virtual space of VR content.

この場合、自動車位置を送信元としたコンテンツ要求が配信サーバへ送信されてから、乗車したユーザのHMDでVR映像の再生が開始するまでの間にも、自動車は、移動したり進行向きを変えたりして現実世界での状態を刻々と変化させている。したがって、上述したような従来技術を用い、コンテンツ要求に合わせて配信サーバによって生成されたパノラマ映像を、HMDが受信しVR映像として再生しても、VR映像が提供する仮想空間での状態と、その時点での自動車の状態との間にずれが生じてしまう。その結果、仮想体験のリアル性が低下してユーザは十分な没入感を得られない、という問題が生じてしまうのである。   In this case, the vehicle moves or changes its direction of travel even after the content request with the vehicle position as the transmission source is transmitted to the distribution server and before the playback of the VR video is started with the HMD of the user who gets on the vehicle. And changing the state in the real world every moment. Therefore, even if the HMD receives the panoramic video generated by the distribution server according to the content request and reproduces it as the VR video using the conventional technology as described above, the state in the virtual space provided by the VR video, There will be a deviation from the state of the car at that time. As a result, there is a problem that the realism of the virtual experience deteriorates and the user cannot obtain a sufficient immersive feeling.

このように、配信遅延の結果、クライアントの状態の変化に対して配信映像にズレが生じてしまう問題は、例えば特許文献1に記載されたビットレートの調整技術では解決することはできない。   As described above, the problem that the distribution video is shifted with respect to the change in the state of the client as a result of the distribution delay cannot be solved by the bit rate adjustment technique described in Patent Document 1, for example.

そこで、本発明は、クライアントの状態に応じた映像が再生可能となる映像データを、当該クライアントに配信することができる映像配信装置、システム、プログラム及び方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a video distribution apparatus, system, program, and method that can distribute video data that enables playback of video according to the state of the client to the client.

本発明によれば、仮想空間の映像をクライアントに配信する映像配信装置であって、
当該クライアントの1つの時点又は時間区間での状態に係る情報を取得し、他の時点又は時間区間での当該クライアントの状態を予測する状態予測手段と、
予測された当該他の時点又は時間区間での状態に対応する当該仮想空間内での仮想状態を決定する仮想状態決定手段と、
決定された仮想状態に基づいて配信すべき映像を生成する映像生成手段と、
生成された映像を、当該他の時点又は時間区間での再生に合わせて当該クライアントに配信する映像配信制御手段と
を有する映像配信装置が提供される。
According to the present invention, there is provided a video distribution device that distributes video in a virtual space to a client,
State prediction means for acquiring information related to the state of the client at one time point or time interval, and predicting the state of the client at another time point or time interval;
Virtual state determination means for determining a virtual state in the virtual space corresponding to the predicted state at the other time point or time interval;
Video generation means for generating video to be distributed based on the determined virtual state;
There is provided a video distribution apparatus including a video distribution control unit that distributes a generated video to the client in accordance with reproduction at the other time point or time interval.

この本発明による映像配信装置の一実施形態として、当該映像は、当該仮想空間における視点映像であり、
状態予測手段は、当該クライアントの状態として、1つの時点又は時間区間での位置、速度、加速度及び向きのうちの少なくとも1つに係る状態情報を取得して、他の時点又は時間区間での位置、速度、加速度及び向きのうちの少なくとも1つに係る状態情報を予測し、
仮想状態決定手段は、予測された当該他の時点又は時間区間での状態情報に対応する当該仮想空間内での位置、速度、加速度及び向きのうちの少なくとも1つに係る仮想状態情報を決定し、
映像生成手段は、決定された仮想状態情報に基づいて当該仮想空間内での視点の位置、速度、加速度及び向きのうちの少なくとも1つに係る視点情報を決定し、決定した視点情報に基づいて視点映像を生成することも好ましい。
As one embodiment of the video distribution apparatus according to the present invention, the video is a viewpoint video in the virtual space,
The state prediction means obtains the state information relating to at least one of the position, speed, acceleration, and orientation at one time point or time interval as the state of the client, and the position at another time point or time interval Predicting state information relating to at least one of speed, acceleration and orientation,
The virtual state determination means determines virtual state information related to at least one of position, velocity, acceleration, and direction in the virtual space corresponding to the predicted state information at the other time point or time interval. ,
The video generation means determines the viewpoint information related to at least one of the position, speed, acceleration, and orientation of the viewpoint in the virtual space based on the determined virtual state information, and based on the determined viewpoint information It is also preferable to generate a viewpoint video.

また、上記の実施形態において、状態予測手段は、当該クライアントの所在位置を含む経路地図情報に基づいて、当該他の時点又は時間区間での向きに係る状態情報を予測することも好ましい。さらに、状態予測手段は、当該1つの時点又は時間区間での向きに係る情報である角加速度の情報を取得して、当該他の時点又は時間区間での向きに係る状態情報を予測することも好ましい。   Moreover, in said embodiment, it is also preferable that a state prediction means estimates the state information which concerns on the direction in the said other time point or time interval based on the route map information containing the said client's location. Further, the state predicting means may obtain information on angular acceleration, which is information related to the direction at the one time point or time interval, and predict state information related to the direction at the other time point or time interval. preferable.

さらに、本発明による映像配信装置において、取得された配信遅延時間に係る情報に基づいて、当該他の時点又は時間区間を決定する予測時間決定手段を更に有することも好ましい。   Furthermore, it is preferable that the video distribution apparatus according to the present invention further includes a predicted time determination unit that determines the other time point or time interval based on the acquired information related to the distribution delay time.

本発明によれば、また、クライアントと、仮想空間の映像を当該クライアントに配信する映像配信装置とを有する映像配信システムであって、当該クライアントは、
1つの時点又は時間区間において検出、測定又は決定された自らの状態に係る情報を生成する状態情報生成手段と、
生成された自らの状態に係る情報を、当該1つの時点又は時間区間と紐づけて映像配信装置に送信するクライアント通信制御手段と
を有し、上記の映像配信装置は、
当該クライアントの1つの時点又は時間区間での状態に係る情報を取得し、他の時点又は時間区間での当該クライアントの状態を予測する状態予測手段と、
予測された当該他の時点又は時間区間での状態に対応する当該仮想空間内での仮想状態を決定する仮想状態決定手段と、
決定された仮想状態に基づいて配信すべき映像を生成する映像生成手段と、
生成された映像を、当該他の時点又は時間区間での再生に合わせて当該クライアントに配信する映像配信制御手段と
を有する映像配信システムが提供される。
According to the present invention, there is also provided a video distribution system having a client and a video distribution device that distributes video in a virtual space to the client,
State information generating means for generating information relating to its own state detected, measured or determined in one time point or time interval;
Client communication control means for transmitting the information relating to the generated state to the video distribution device in association with the one time point or time interval, and the video distribution device described above,
State prediction means for acquiring information related to the state of the client at one time point or time interval, and predicting the state of the client at another time point or time interval;
Virtual state determination means for determining a virtual state in the virtual space corresponding to the predicted state at the other time point or time interval;
Video generation means for generating video to be distributed based on the determined virtual state;
There is provided a video distribution system including a video distribution control unit that distributes a generated video to the client in accordance with reproduction at the other time point or time interval.

この本発明による映像配信システムの一実施形態として、映像配信装置は、予測した当該他の時点又は時間区間での状態を当該クライアントに送信する装置通信制御手段を更に有し、
当該クライアントは、受信した当該他の時点又は時間区間での状態と、検出、測定又は決定された当該他の時点又は時間区間での自らの状態との間における当該状態を表す数値の差に基づき、再生される映像に表れる仮想状態を当該クライアントの状態に合わせるように、当該他の時点又は時間区間に係る映像の再生速度を調整する再生制御手段を更に有することも好ましい。
As one embodiment of the video distribution system according to the present invention, the video distribution device further includes device communication control means for transmitting the predicted state at the other time point or time interval to the client,
The client is based on the difference in the numerical value representing the state between the received state at the other time point or time interval and the state at the other time point or time interval detected, measured or determined. It is also preferable to further include a reproduction control means for adjusting the reproduction speed of the video related to the other time point or time interval so that the virtual state appearing in the reproduced video matches the state of the client.

本発明によれば、さらに、仮想空間の映像をクライアントに配信する映像配信装置に搭載されたコンピュータを機能させる映像配信プログラムであって、
当該クライアントの1つの時点又は時間区間での状態に係る情報を取得し、他の時点又は時間区間での当該クライアントの状態を予測する状態予測手段と、
予測された当該他の時点又は時間区間での状態に対応する当該仮想空間内での仮想状態を決定する仮想状態決定手段と、
決定された仮想状態に基づいて配信すべき映像を生成する映像生成手段と、
生成された映像を、当該他の時点又は時間区間での再生に合わせて当該クライアントに配信する映像配信制御手段と
してコンピュータを機能させる映像配信プログラムが提供される。
According to the present invention, there is further provided a video distribution program for causing a computer mounted on a video distribution device for distributing video in a virtual space to a client,
State prediction means for acquiring information related to the state of the client at one time point or time interval, and predicting the state of the client at another time point or time interval;
Virtual state determination means for determining a virtual state in the virtual space corresponding to the predicted state at the other time point or time interval;
Video generation means for generating video to be distributed based on the determined virtual state;
There is provided a video distribution program for causing a computer to function as a video distribution control means for distributing the generated video to the client in accordance with reproduction at the other time point or time interval.

本発明によれば、さらにまた、仮想空間の映像をクライアントに配信する映像配信装置に搭載されたコンピュータにおける映像配信方法であって、
当該クライアントの1つの時点又は時間区間での状態に係る情報を取得し、他の時点又は時間区間での当該クライアントの状態を予測するステップと、
予測された当該他の時点又は時間区間での状態に対応する当該仮想空間内での仮想状態を決定するステップと、
決定された仮想状態に基づいて配信すべき映像を生成する映像生成手段と、
生成された映像を、当該他の時点又は時間区間での再生に合わせて当該クライアントに配信するステップと
を有する映像配信方法が提供される。
According to the present invention, there is further provided a video distribution method in a computer mounted on a video distribution apparatus that distributes video in a virtual space to a client,
Obtaining information related to the state of the client at one time point or time interval, and predicting the state of the client at another time point or time interval;
Determining a virtual state in the virtual space corresponding to the predicted state at the other time point or time interval;
Video generation means for generating video to be distributed based on the determined virtual state;
A video distribution method including a step of distributing the generated video to the client in accordance with reproduction at the other time point or time interval.

本発明の映像配信装置、システム、プログラム及び方法によれば、クライアントの状態に応じた映像が再生可能となる映像データを、当該クライアントに配信することができる。   According to the video delivery apparatus, system, program, and method of the present invention, video data that enables playback of video according to the state of the client can be delivered to the client.

本発明による映像配信装置の一実施形態における機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure in one Embodiment of the video delivery apparatus by this invention. 本発明に係るクライアントの一実施形態における機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure in one Embodiment of the client which concerns on this invention. 本発明による映像配信方法の一実施形態を概略的に示すシーケンス図である。It is a sequence diagram which shows roughly one Embodiment of the image | video delivery method by this invention. 配信サーバにおいてクライアント状態の進展を考慮せずに配信を行う一比較例を説明するための模式図である。It is a schematic diagram for demonstrating one comparative example which distributes without considering progress of a client state in a delivery server. 本発明による映像配信装置においてクライアント状態を予測して配信処理を行う一実施例を説明するための模式図である。It is a schematic diagram for demonstrating one Example which performs a delivery process by estimating a client state in the video delivery apparatus by this invention. 本発明による映像配信装置においてクライアント状態を予測して配信処理を行う他の実施例を説明するための模式図である。It is a schematic diagram for demonstrating the other Example which estimates a client state and performs a delivery process in the video delivery apparatus by this invention. 本発明に係るクライアントにおける再生制御処理の一実施形態を説明するための模式図である。It is a schematic diagram for explaining one embodiment of the reproduction control process in the client according to the present invention.

以下、本発明の実施形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[映像配信システム]
図1は、本発明による映像配信装置の一実施形態における機能構成を示す機能ブロック図である。
[Video distribution system]
FIG. 1 is a functional block diagram showing a functional configuration in an embodiment of a video distribution apparatus according to the present invention.

図1に示した本発明による映像配信装置の一実施形態としての配信サーバ1は、VR(Virtual reality)コンテンツに基づくパノラマ映像を、クライアントであるHMD(Head Mounted Display)2に対しリアルタイムで配信して、HMD2を装着したユーザに仮想空間(VR空間、仮想世界)の映像であるVR映像を享受させるサーバである。   A distribution server 1 as an embodiment of a video distribution apparatus according to the present invention shown in FIG. 1 distributes a panoramic video based on VR (Virtual reality) content to a client HMD (Head Mounted Display) 2 in real time. This is a server that allows a user wearing the HMD 2 to enjoy a VR video that is a video in a virtual space (VR space, virtual world).

ここで、本実施形態において、HMD2を装着したユーザは走行中のバスに乗車しており、HMD2(ユーザ)はバスとともに、位置、速度、加速度や、進行向きといった現実世界での「状態」を刻々と変化させている。また、本実施形態において、バス若しくはHMD2は、GPS(Global Positioning System)による測位機能を備えており、自らの測定位置を測位時刻と紐づけた測位情報(状態情報)を、配信サーバ1に送信することができる。   Here, in the present embodiment, the user wearing the HMD2 is on a running bus, and the HMD2 (user), along with the bus, has a “state” in the real world such as position, speed, acceleration, and traveling direction. It is changing every moment. In the present embodiment, the bus or the HMD 2 has a positioning function by GPS (Global Positioning System), and transmits positioning information (state information) in which its own measuring position is linked to the positioning time to the distribution server 1. can do.

同じく図1に示すように、配信サーバ1は、その顕著な特徴として、
(A)HMD2の1つの時点又は時間区間での状態に係る情報を取得し、HMD2の「他の時点又は時間区間での状態」を予測する状態予測部111と、
(B)予測された「他の時点又は時間区間での状態」に対応する仮想空間内での「仮想状態」を決定する仮想状態決定部113と、
(C)決定された「仮想状態」に基づいて、配信すべき映像を生成する映像生成部114と、
(D)生成された映像を、この他の時点又は時間区間での再生に合わせてHMD2に配信する映像配信制御部115と
を有している。
Similarly, as shown in FIG. 1, the distribution server 1 has the following distinctive features:
(A) The state prediction unit 111 that acquires information related to the state at one time point or time interval of the HMD 2 and predicts the “state at another time point or time interval” of the HMD 2;
(B) a virtual state determination unit 113 that determines a “virtual state” in the virtual space corresponding to the predicted “state at another time point or time interval”;
(C) a video generation unit 114 that generates a video to be distributed based on the determined “virtual state”;
(D) A video distribution control unit 115 that distributes the generated video to the HMD 2 in accordance with playback at another time point or time interval.

このように、配信サーバ1は、取得したクライアントの「状態」から、将来のクライアントにおける再生時間に合わせた仮想空間での「仮想状態」を予測し、これに基づいて配信映像を生成する。このような特徴的な状態予測機能を備えているが故に、クライアントの状態に応じた映像が再生可能となる映像データを、クライアントに配信することができるのである。   As described above, the distribution server 1 predicts the “virtual state” in the virtual space in accordance with the reproduction time of the future client from the acquired “state” of the client, and generates a distribution video based on this. Since such a characteristic state prediction function is provided, video data that enables playback of video according to the client state can be distributed to the client.

ちなみに、典型的な一実施形態として、現実世界での「状態」を、現実空間における位置、速度、加速度及び進行向きのうちの少なくとも1つとすることができる。本実施形態のように、バス若しくはHMD2がGPSによる測位情報を配信サーバ1に送信するのであれば、「状態」として少なくとも位置を用いることになる。この場合、配信サーバ1の状態予測部111は、HMD2の状態として、1つの時点又は時間区間での少なくとも位置情報を取得して、他の時点又は時間区間での少なくとも位置情報を予測する。   Incidentally, as a typical embodiment, the “state” in the real world can be at least one of position, velocity, acceleration, and traveling direction in the real space. If the bus or HMD 2 transmits GPS positioning information to the distribution server 1 as in the present embodiment, at least the position is used as the “state”. In this case, the state prediction unit 111 of the distribution server 1 acquires at least position information at one time point or time interval as the state of the HMD 2 and predicts at least position information at another time point or time interval.

さらに、配信サーバ1の仮想状態決定部113は、予測された他の時点又は時間区間での位置情報に対応する仮想空間内での少なくとも位置に係る仮想位置情報を決定する。次いで、映像生成部114は、決定された仮想位置情報に基づいて、仮想空間内での視点の少なくとも位置に係る視点情報を決定し、決定した視点情報に基づいて、仮想空間における視点映像を生成するのである。   Furthermore, the virtual state determination unit 113 of the distribution server 1 determines virtual position information related to at least a position in the virtual space corresponding to the predicted position information at another time point or time interval. Next, the video generation unit 114 determines viewpoint information related to at least the position of the viewpoint in the virtual space based on the determined virtual position information, and generates a viewpoint video in the virtual space based on the determined viewpoint information. To do.

ここで、HMD2(又はバス)がパノラマ映像配信のリクエストに合わせて測位情報(状態情報)を送信してから、HMD2が応答としてのパノラマ映像を受信してVR映像の再生を開始するまでの間には当然に、
(a)通信路遅延、すなわち、RTT(Round-Trip Time)+(サーバ1での配信に要する時間と、
(b)HMD2側での受信後のバッファリング時間と
が介在し、遅延が発生する。その結果、従来の映像配信技術では、再生時における現実世界系での位置から異なった(ズレた)位置に対応したVR映像が提供されてしまうことになる。
Here, after the HMD 2 (or bus) transmits the positioning information (status information) in response to the panoramic video distribution request, the HMD 2 receives the panoramic video as a response and starts reproducing the VR video. Of course,
(A) Communication path delay, that is, RTT (Round-Trip Time) + (time required for distribution in the server 1, and
(B) A delay occurs due to the buffering time after reception on the HMD2 side. As a result, with the conventional video distribution technology, VR video corresponding to a position that is different from the position in the real world system at the time of reproduction is provided.

これに対し、本実施形態の配信サーバ1は、上述したように、HMD2での再生時間に合わせた配信映像(パノラマ映像)を配信するので、これにより、再生されたVR映像を見たユーザにおける仮想体験のリアル性が向上し、ユーザは十分な没入感を享受することができるのである。   On the other hand, the distribution server 1 according to the present embodiment distributes the distribution video (panoramic video) in accordance with the playback time in the HMD 2 as described above. The realism of the virtual experience is improved, and the user can enjoy a sufficient immersive feeling.

なお、当然に、配信サーバ1の配信先となるクライアントは、バスに乗車したユーザのHMDに限定されるものではない。このクライアントとしては、仮想空間の映像を再生可能であれば、グラス(眼鏡)型ウェアラブル端末等種々のものが採用可能である。また、クライアントが乗車するものは、自動車、鉄道車両、船舶等の交通手段や、自転車等とすることもできる。さらに、このクライアントとして、徒歩状態やランニング状態にあるユーザによって装着・携帯された端末であってもよい。この場合、移動経路がある程度固定されていて、位置、速度や加速度に急激な変化が生じ難く、移動の予測が比較的容易であるクライアントであることが好ましい。   Of course, the client that is the distribution destination of the distribution server 1 is not limited to the HMD of the user who gets on the bus. Various clients such as glasses (glasses) wearable terminals can be used as the client as long as the video in the virtual space can be reproduced. Further, what the client gets on can be a transportation means such as an automobile, a railway vehicle, a ship, a bicycle, or the like. Further, the client may be a terminal worn and carried by a user in a walking state or a running state. In this case, it is preferable that the client is a client whose movement path is fixed to some extent, abrupt changes in position, speed, and acceleration hardly occur and movement prediction is relatively easy.

[装置の機能構成、映像配信方法]
同じく、図1に示した機能ブロック図によれば、本発明の映像配信装置である配信サーバ1は、通信インタフェース部101と、VR(Virtual Reality)コンテンツ蓄積部102と、パノラマ画像蓄積部103と、パノラマ映像蓄積部104と、プロセッサ・メモリとを有する。ここで、プロセッサ・メモリは、配信サーバ1のコンピュータを機能させるプログラムを実行することによって、本発明に係る状態予測・映像生成・映像配信制御機能を実現させる。
[Functional configuration of device, video distribution method]
Similarly, according to the functional block diagram shown in FIG. 1, the distribution server 1 which is the video distribution apparatus of the present invention includes a communication interface unit 101, a VR (Virtual Reality) content storage unit 102, a panoramic image storage unit 103, , A panoramic video storage unit 104 and a processor memory. Here, the processor memory realizes the state prediction / video generation / video distribution control function according to the present invention by executing a program that causes the computer of the distribution server 1 to function.

さらに、このプロセッサ・メモリは、機能構成部として、位置予測部111a、速度・加速度予測部111b及び向き予測部111cを含む状態予測部111と、予測時間決定部112と、仮想状態決定部113と、パノラマ画像生成部114a及びパノラマ映像生成部114bを含む映像生成部114と、映像配信制御部115と、通信制御部116とを有する。ここで、図1における配信サーバ1の機能構成部間を矢印で接続して示した処理の流れは、本発明による映像配信方法の一実施形態としても理解される。   Furthermore, this processor memory includes a state prediction unit 111 including a position prediction unit 111a, a speed / acceleration prediction unit 111b, and a direction prediction unit 111c, a prediction time determination unit 112, and a virtual state determination unit 113 as functional components. A video generation unit 114 including a panoramic image generation unit 114a and a panoramic video generation unit 114b, a video distribution control unit 115, and a communication control unit 116. Here, the processing flow shown by connecting the functional components of the distribution server 1 in FIG. 1 with arrows is understood as an embodiment of the video distribution method according to the present invention.

最初に、通信制御部116は、通信インタフェース部101を介して、HMD2から、VRコンテンツのパノラマ画像の配信を要求するリクエストを受信する。また一方で、HMD2又はHMD2のユーザが乗車しているバスから、HMD2又はバスで計測された位置、速度及び加速度に係る情報(状態情報)を受信する。ここで、この状態情報は、配信要求のリクエストとともに送信され、通信制御部16によって受信されることも好ましいが、例えば定期的に、又は状態に所定以上の変化が生じた際に、HMD2又はバスから送信されることも可能である。   First, the communication control unit 116 receives a request for requesting delivery of a panoramic image of VR content from the HMD 2 via the communication interface unit 101. On the other hand, information (state information) related to the position, speed, and acceleration measured by the HMD2 or the bus is received from the bus on which the user of the HMD2 or HMD2 is riding. Here, it is also preferable that this state information is transmitted together with the request for distribution request and received by the communication control unit 16, but for example, periodically or when a change in the state exceeds a predetermined value, the HMD 2 or the bus It is also possible to transmit from.

また、通信制御部116は、上記のリクエストや状態情報等のHMD2(又はバス)との間の送受信状況に基づき、通信路遅延時間(RTT+(サーバ1での配信に要する時間))を決定し、さらに適宜取得した又は予め設定されていたHMD2側での受信後のバッファリング時間を合わせて、配信遅延時間τ、すなわちHMD2がパノラマ映像配信のリクエストを送信してから、HMD2が応答としてのパノラマ映像を受信してVR映像の再生を開始するまでにかかる時間を算出する。   Further, the communication control unit 116 determines a communication path delay time (RTT + (time required for distribution in the server 1)) based on the transmission / reception status with the HMD 2 (or bus) such as the above request and status information. Further, the distribution delay time τ, that is, the HMD 2 transmits a panoramic video distribution request after combining the buffering time after reception on the HMD 2 side, which has been acquired or set in advance, as appropriate, and then the panorama as a response from the HMD 2 The time required for receiving the video and starting playback of the VR video is calculated.

予測時間決定部112は、通信制御部116から入力した配信遅延時間τに係る情報に基づいて、次に説明する状態予測部111において状態を予測すべき予測時点又は時間区間を決定する。例えば、時刻t=0の状態情報(位置、速度及び加速度に係る情報)が受信されている場合には、予測すべき予測時刻としてt=τを決定する。または、(映像配信単位である)1ファイル分を再生するのに要する時間(再生時間)をsとして、予測すべき予測時間区間としてt=τ〜τ+sを決定してもよい。ちなみに、配信遅延時間τは、通信路遅延時間(RTT+(サーバ1での配信に要する時間))の過去の実績値を統計処理して決定することができる。   The prediction time determination unit 112 determines a prediction time point or a time interval in which a state is to be predicted in the state prediction unit 111 described below, based on information related to the delivery delay time τ input from the communication control unit 116. For example, when state information at time t = 0 (information on position, velocity, and acceleration) is received, t = τ is determined as a predicted time to be predicted. Alternatively, t = τ to τ + s may be determined as a prediction time interval to be predicted, where s is a time (reproduction time) required to reproduce one file (which is a video distribution unit). Incidentally, the delivery delay time τ can be determined by statistically processing the past actual value of the communication path delay time (RTT + (time required for delivery in the server 1)).

状態予測部111は、通信制御部116から入力した、HMD2(又はバス)の1つの時点又は時間区間での状態情報(位置、速度及び加速度に係る情報)に基づいて、予測時間決定部112で決定された予測時点又は予測時間区間でのHMD2(又はバス)の状態を予測する。特に、1つの時点又は時間区間での位置、速度、加速度及び向きのうちの少なくとも1つに係る状態情報を取得して、この予測時点又は予測時間区間での位置、速度、加速度及び向きのうちの少なくとも1つに係る状態情報を予測することも好ましい。   The state prediction unit 111 is a prediction time determination unit 112 based on state information (information related to position, speed, and acceleration) at one time point or time interval of the HMD 2 (or bus) input from the communication control unit 116. The state of the HMD 2 (or bus) at the determined prediction time point or prediction time interval is predicted. In particular, state information related to at least one of position, speed, acceleration and direction at one time point or time interval is acquired, and among the position, speed, acceleration and direction at this prediction time point or prediction time interval, It is also preferable to predict state information related to at least one of the following.

本実施形態では、状態予測部111は、状態予測部111の位置予測部111a、速度・加速度予測部111b及び向き予測部111cがそれぞれ、位置、速度及び加速度、並びに進行向きを予測する。なお、このような状態予測の具体的態様は、後に図4、図5及び図6を用いて詳細に説明する。   In the present embodiment, in the state prediction unit 111, the position prediction unit 111a, the speed / acceleration prediction unit 111b, and the direction prediction unit 111c of the state prediction unit 111 predict the position, speed, and acceleration, and the traveling direction, respectively. A specific mode of such state prediction will be described in detail later with reference to FIGS. 4, 5, and 6.

同じく図1において、仮想状態決定部113は、予測時点又は予測時間区間での状態に対応する仮想空間内での仮想状態を決定する。ここで、仮想空間は、配信対象のVRコンテンツにおいて設定されたVR空間であり、通常、人間が認識できる現実世界(空間)に対応した3次元VR世界を表す空間である。具体的に、仮想状態決定部113は、予測時点又は予測時間区間での状態情報に対応する仮想空間内での位置、速度、加速度及び向きのうちの少なくとも1つに係る仮想状態情報を決定することも好ましい。   Similarly, in FIG. 1, the virtual state determination unit 113 determines a virtual state in the virtual space corresponding to the state at the prediction time point or the prediction time interval. Here, the virtual space is a VR space set in the VR content to be distributed, and is usually a space representing a three-dimensional VR world corresponding to the real world (space) that can be recognized by humans. Specifically, the virtual state determination unit 113 determines virtual state information related to at least one of the position, speed, acceleration, and orientation in the virtual space corresponding to the state information at the prediction time point or the prediction time interval. It is also preferable.

映像生成部114は、仮想状態決定部113で決定された仮想状態に基づいて配信すべき映像を生成する。本実施形態では、決定された仮想状態情報に基づいて、仮想空間内での視点の位置、速度、加速度及び向きのうちの少なくとも1つに係る視点情報を決定し、決定した視点情報に基づいて視点映像を生成する。   The video generation unit 114 generates a video to be distributed based on the virtual state determined by the virtual state determination unit 113. In this embodiment, based on the determined virtual state information, viewpoint information related to at least one of the position, speed, acceleration, and orientation of the viewpoint in the virtual space is determined, and based on the determined viewpoint information Generate viewpoint video.

具体的に、映像生成部114のパノラマ画像生成部114aは、3次元のCG(Computer Graphics)技術を用いて生成されたVRコンテンツであって、VRコンテンツ蓄積部102に保存されているVRコンテンツを、ERP(Equi-Rectangular Projection)形式等のマッピング手法によって、2次元の展開画像としてのパノラマ画像に展開し、このようにして生成したパノラマ画像をパノラマ画像蓄積部103に保存する。   Specifically, the panorama image generation unit 114a of the video generation unit 114 is a VR content generated using a three-dimensional CG (Computer Graphics) technology, and the VR content stored in the VR content storage unit 102 is displayed. The image is expanded into a panoramic image as a two-dimensional expanded image by a mapping technique such as ERP (Equi-Rectangular Projection) format, and the generated panoramic image is stored in the panoramic image storage unit 103.

次いで、映像生成部114のパノラマ映像生成部114bは、生成され保存されたパノラマ画像を、配信単位の1ファイル(例えば.tsや.m4s等のファイル)に相当するフレーム分だけ読み出し、合算してエンコードし、2次元映像としてのパノラマ映像を生成する。ここで、生成されたパノラマ映像は、例えば配信までのバッファリングとして、パノラマ映像蓄積部104に適宜保存されてもよい。   Next, the panoramic video generation unit 114b of the video generation unit 114 reads and adds the generated and stored panoramic images for a frame corresponding to one file (for example, a file such as .ts or .m4s) for distribution. Encode and generate panoramic video as 2D video. Here, the generated panoramic video may be appropriately stored in the panoramic video storage unit 104 as buffering until distribution, for example.

通信制御部116は、通信インタフェース部101を介して、生成されたパノラマ映像を映像要求元のHMD2に送信する。この際、配信プロトコルとして、HLS、MPEG−DASH、SmoothStreaming、RTP、RTSP、RTMP、webRTC又はHTTPプログレッシブダウンロード等が利用される。   The communication control unit 116 transmits the generated panoramic video to the video requesting HMD 2 via the communication interface unit 101. At this time, HLS, MPEG-DASH, SmoothStreaming, RTP, RTSP, RTMP, webRTC, HTTP progressive download, or the like is used as a distribution protocol.

映像配信制御部115は、生成された映像(視点映像としてのパノラマ映像)を、予測時点又は予測時間区間での再生に合わせてHMD2に配信すべく、通信制御部116及び通信インタフェース部101を制御する。例えば、時刻t=0の状態情報が受信された状況において予測時間区間としてt=τ〜τ+s(τ:配信遅延時間,s:1ファイル分の再生時間)を決定した場合、HMD2でのt=τからの再生に合わせたタイミング(再生に間に合うタイミング)で、1ファイル分のパノラマ映像をHMD2に配信するように制御することも好ましい。   The video distribution control unit 115 controls the communication control unit 116 and the communication interface unit 101 so as to distribute the generated video (panoramic video as a viewpoint video) to the HMD 2 in accordance with the playback at the prediction time point or the prediction time interval. To do. For example, when t = τ to τ + s (τ: delivery delay time, s: playback time for one file) is determined as a predicted time interval in the situation where state information at time t = 0 is received, It is also preferable to control so that a panoramic image for one file is distributed to the HMD 2 at a timing (timing in time for reproduction) in synchronization with reproduction from t = τ.

図2は、本発明に係るクライアントの一実施形態における機能構成を示す機能ブロック図である。   FIG. 2 is a functional block diagram showing a functional configuration in an embodiment of the client according to the present invention.

図2によれば、本発明に係るクライアントの一実施形態としてのHMD2は、通信インタフェース部201と、ディスプレイ206と、通信制御部211と、再生制御部212とを有している。   According to FIG. 2, the HMD 2 as an embodiment of the client according to the present invention includes a communication interface unit 201, a display 206, a communication control unit 211, and a playback control unit 212.

また、HMD2は、本実施形態において、測位部202と、加速度センサ203と、ジャイロセンサ204と、地磁気センサ205と、状態情報生成部213とを更に有している。ここで、これらの構成部がHMD2に含まれるのではなく、HMD2を装着したユーザの乗車しているバスに備えられている、といった実施形態も可能である。なお、この場合、バスは、生成した状態情報を配信サーバ2に送信可能な通信制御・インタフェース部を更に備えていることも好ましい。ちなみに、現在、乗用車やバス等の移動手段の多くが、GPS測位機能を有していて測位情報を外部のサーバに発信可能となっている。さらにまた、バスには、自己診断機能であるOBD(On-Board Diagnositics)2が装備されていて、この機能による診断情報がバスの状態情報として配信サーバ2に送信されてもよい。   Moreover, HMD2 further has the positioning part 202, the acceleration sensor 203, the gyro sensor 204, the geomagnetic sensor 205, and the state information generation part 213 in this embodiment. Here, an embodiment in which these components are not included in the HMD 2 but are provided in a bus on which the user wearing the HMD 2 is riding is also possible. In this case, the bus preferably further includes a communication control / interface unit capable of transmitting the generated state information to the distribution server 2. Incidentally, many moving means such as passenger cars and buses have a GPS positioning function and can transmit positioning information to an external server. Furthermore, the bus may be equipped with an OBD (On-Board Diagnositics) 2 that is a self-diagnosis function, and the diagnosis information by this function may be transmitted to the distribution server 2 as bus state information.

測位部202は、GPS衛星3からの測位電波を捕捉して測位処理を行い、HMD2(又はバス)の測位時点での緯度、経度、及び(ジオイド高情報が有る場合、)標高を出力する。   The positioning unit 202 captures a positioning radio wave from the GPS satellite 3 and performs positioning processing, and outputs the latitude, longitude, and altitude (when geoid height information is present) at the time of positioning of the HMD 2 (or bus).

加速度センサ203は、HMD2(又はバス)の測定時点での加速度をベクトル量として測定し出力する加速度測定計である。測定した加速度を積算して速度情報を出力してもよい。また、変更態様として、歩行者ユーザに装着されたクライアントの例となるが、加速度センサ203は、重力加速度を計測して、HMD2を装着したユーザの歩数をカウントし、予め設定された歩幅から歩行距離を算出して出力するものであってもよい。   The acceleration sensor 203 is an acceleration meter that measures and outputs the acceleration at the time of measurement of the HMD 2 (or bus) as a vector quantity. Speed information may be output by integrating the measured acceleration. In addition, as an example of a change, an example is a client worn by a pedestrian user, but the acceleration sensor 203 measures gravitational acceleration, counts the number of steps of the user wearing the HMD2, and walks from a preset stride. The distance may be calculated and output.

ジャイロセンサ204は、HMD2(又はバス)の検出時点での角速度を検出し出力するジャイロスコープである。向きの転換(変化)を検知し向き転換情報を出力するものであってもよい。   The gyro sensor 204 is a gyroscope that detects and outputs an angular velocity at the time of detection of the HMD 2 (or bus). Direction change (change) may be detected and direction change information may be output.

地磁気センサ205は、HMD2(又はバス)位置の計測時点での地磁気の向き及び強度を計測し出力する磁気計測計である。この地磁気センサ205と加速度センサ203とを組み合わせて、HMD2(又はバス)の向いている(又は進行している)方位を測定し出力する方位測定部とすることもできる。   The geomagnetic sensor 205 is a magnetometer that measures and outputs the direction and intensity of geomagnetism at the time of measurement of the HMD2 (or bus) position. The geomagnetic sensor 205 and the acceleration sensor 203 may be combined to form an orientation measuring unit that measures and outputs the orientation in which the HMD 2 (or bus) faces (or travels).

なお当然に、装備されるセンサの種類及び組合せは、上述した形態に限定されるものではなく、HMD2(又はバス)の現実世界(現実空間)での状態を検出、測定又は決定できるものならば種々のセンサが単独で又は組み合わせて採用可能である。   Of course, the types and combinations of the sensors to be equipped are not limited to the above-described forms, and any sensor that can detect, measure, or determine the state of the HMD 2 (or bus) in the real world (real space). Various sensors can be used alone or in combination.

状態情報生成部213は、測位部202、加速度センサ203、ジャイロセンサ204及び地磁気センサ205から出力されたセンサ出力情報に基づいて、1つの時点又は時間区間において検出、測定又は決定されたHMD2(又はバス)の状態情報、例えば位置、速度、加速度に係る情報を生成する。   The state information generation unit 213 detects, measures, or determines the HMD 2 (or the time interval or time interval) based on the sensor output information output from the positioning unit 202, the acceleration sensor 203, the gyro sensor 204, and the geomagnetic sensor 205 (or Bus) state information, for example, information related to position, velocity, and acceleration.

通信制御部211は、状態情報生成部213で生成された状態情報を当該1つの時点又は時間区間と紐づけて、通信インタフェース部201を介し配信サーバ1に送信する。また、VRコンテンツのVR映像をユーザに提供すべく、対応するパノラマ映像の配信を要求するリクエストを配信サーバ1に送信する。さらに、通信制御部211は、配信サーバ1から、リクエストに応じて配信されたパノラマ映像を受信し、再生制御部212に出力する。   The communication control unit 211 associates the state information generated by the state information generation unit 213 with the one time point or time interval, and transmits the state information to the distribution server 1 via the communication interface unit 201. In addition, a request for distributing the corresponding panoramic video is transmitted to the distribution server 1 in order to provide the user with the VR video of the VR content. Furthermore, the communication control unit 211 receives the panoramic video distributed in response to the request from the distribution server 1 and outputs it to the reproduction control unit 212.

再生制御部212は、入力したパノラマ映像に対しデコード処理を行い、サーバ1側でマッピングに使用されたERP等の形式に対応した変換式を用いて各フレームを変換し、ディスプレイ206においてVR映像として再生を行わせる。この際、例えば、時刻t=0の状態情報をサーバ1に送信した状況において、時間区間t=τ〜τ+s(τ:配信遅延時間,s:1ファイル分の再生時間)での再生に対応したパノラマ映像を受信した場合、再生制御部212は、時刻t=τからの再生に合わせるように(間に合うように)VR映像を生成してバッファリングし、時刻t=τから、生成したVR映像をディスプレイ206に表示させることができる。   The playback control unit 212 performs decoding processing on the input panoramic video, converts each frame using a conversion formula corresponding to a format such as ERP used for mapping on the server 1 side, and displays the VR video on the display 206. Let it play. At this time, for example, in the situation where the status information at time t = 0 is transmitted to the server 1, the reproduction is performed in the time interval t = τ to τ + s (τ: delivery delay time, s: playback time for one file). When the corresponding panoramic image is received, the reproduction control unit 212 generates and buffers the VR image so as to synchronize with the reproduction from the time t = τ (in time), and generates the VR generated from the time t = τ. An image can be displayed on the display 206.

これにより、現実世界でのバス(及びHMD2)の位置等の状態と、表示される仮想空間での仮想状態とが時間的にずれることなく一致し、その結果、ユーザの仮想体験のリアル性が向上して、ユーザは十分な没入感を享受することができるのである。   As a result, the state such as the position of the bus (and HMD2) in the real world and the virtual state in the displayed virtual space coincide with each other without time lag, and as a result, the realism of the virtual experience of the user is increased. It is improved and the user can enjoy a sufficient immersive feeling.

図3は、本発明による映像配信方法の一実施形態を概略的に示すシーケンス図である。本実施形態では、クライアント(HMD2)の状態情報として、その位置、速度及び加速度の値が採用されている。   FIG. 3 is a sequence diagram schematically illustrating an embodiment of a video distribution method according to the present invention. In the present embodiment, the position, speed, and acceleration values are employed as the status information of the client (HMD2).

(S101)HMD2は、この時点における自らの位置、速度及び加速度を測定する。
(S102)HMD2は、測定した位置、速度及び加速度の値を測定時刻に対応付けた状態情報を生成する。
(S103)HMD2は、生成した状態情報を配信サーバ1へ送信する。
(S101) The HMD 2 measures its own position, speed, and acceleration at this point.
(S102) The HMD 2 generates state information in which the measured position, velocity, and acceleration values are associated with the measurement time.
(S103) The HMD 2 transmits the generated state information to the distribution server 1.

(S104)配信サーバ1は、受信した状態情報に基づいて、将来の再生時刻に相当する予測時刻での(現実空間での)位置、速度及び加速度の値を予測する。
(S105)配信サーバ1は、予測した(現実空間での)位置、速度及び加速度の値に基づき、仮想状態として、仮想空間における予測時刻での位置、速度及び加速度の値を決定する。
(S104) The distribution server 1 predicts values of position, speed, and acceleration (in real space) at a predicted time corresponding to a future reproduction time based on the received state information.
(S105) The distribution server 1 determines the position, speed, and acceleration values at the predicted time in the virtual space as a virtual state based on the predicted position, speed, and acceleration values (in real space).

(S106)配信サーバ1は、決定した仮想状態に基づいて、VRコンテンツからパノラマ画像を切り出す。
(S107)配信サーバ1は、切り出したパノラマ画像をまとめてエンコード処理しパノラマ映像を生成する。
(S108)配信サーバ1は、生成したパノラマ映像と、予測した予測時刻での位置、速度及び加速度の値とを、HMD2へ送信する。
(S106) The distribution server 1 cuts out a panoramic image from the VR content based on the determined virtual state.
(S107) The distribution server 1 collectively encodes the cut out panoramic images and generates a panoramic video.
(S108) The distribution server 1 transmits the generated panoramic image and the predicted position, velocity, and acceleration values at the predicted time to the HMD 2.

(S109)HMD2は、受信したパノラマ映像を、ユーザが視聴可能なVR映像に変換する。
(S110)HMD2は、(これから行う再生処理の)再生開始時刻における自らの位置、速度、加速度を測定する。
(S111)HMD2は、受信した予測時刻での位置、速度、加速度と、ステップS110で測定した位置、速度、加速度の値との比較に基づいて、再生速度を制御しつつVR映像を再生する。
(S109) The HMD 2 converts the received panoramic video into a VR video that can be viewed by the user.
(S110) The HMD 2 measures its position, speed, and acceleration at the playback start time (of the playback process to be performed in the future).
(S111) The HMD 2 reproduces the VR video while controlling the reproduction speed based on the comparison of the received position, speed, and acceleration at the predicted time with the values of the position, speed, and acceleration measured in Step S110.

以下、上記のステップS104〜S107における、クライアント状態に合わせたパノラマ映像の生成処理を、図4及び図5を用いて詳細に説明する。また、上記のステップS110及びS111におけるパノラマ映像の再生制御処理を、図7を用いて詳細に説明する。さらに、図6を用いて、クライアントの向きの予測処理についても詳細に説明を行う。   Hereinafter, the panoramic video generation processing in accordance with the client state in steps S104 to S107 will be described in detail with reference to FIGS. Further, the panoramic video reproduction control process in steps S110 and S111 will be described in detail with reference to FIG. Further, the client orientation prediction process will be described in detail with reference to FIG.

図4は、配信サーバにおいてクライアント状態の進展を考慮せずに配信を行う一比較例を説明するための模式図である。また、図5は、本発明による映像配信装置においてクライアント状態を予測して配信処理を行う一実施例を説明するための模式図である。なお、これら比較例及び実施例では、HMD2を装着したユーザはバス車内で移動しないものとし、HMD2から発信される位置、速度及び加速度の値は、バスのそれらと一致しているものとする。   FIG. 4 is a schematic diagram for explaining a comparative example in which distribution is performed without considering the progress of the client state in the distribution server. FIG. 5 is a schematic diagram for explaining an embodiment in which a client state is predicted and distribution processing is performed in the video distribution apparatus according to the present invention. In these comparative examples and examples, it is assumed that the user wearing the HMD 2 does not move in the bus car, and the position, speed, and acceleration values transmitted from the HMD 2 match those of the bus.

最初に、クライアント状態の進展を考慮しない図4の比較例によれば、バスは、現実世界(現実空間)において道路を走行し、この道路内の位置1から位置2を経て、時刻t=0では位置3に至っている。HMD2は、時刻t=0において、これらの位置1〜3の座標を時刻情報(t=0)に紐づけた位置情報を、配信サーバへ送信する。   First, according to the comparative example of FIG. 4 in which the progress of the client state is not taken into account, the bus travels on the road in the real world (real space) and passes through the position 1 to the position 2 in this road, and the time t = 0 Now we ’re at position 3. At time t = 0, the HMD 2 transmits position information in which the coordinates of these positions 1 to 3 are associated with time information (t = 0) to the distribution server.

この位置情報を受信した配信サーバは、受信した位置情報によって現実空間におけるHMD2(バス)の位置を把握し、その位置をそのまま仮想空間での仮想位置に変換する。具体的には、配信サーバは、現実空間での位置1〜3に対応する仮想空間での仮想位置1〜3の座標を算出する。次いで、これらの座標を仮想空間内での視点の移動に係る情報として、この視点情報に基づき、VRコンテンツからパノラマ画像(図4ではパノラマ画像1〜3)を切り出し、エンコード処理によってパノラマ映像を生成する。ここで、複数の(仮想)位置を処理するのは、エンコード処理のために所定数のフレームを切り出す必要があるためである。   The distribution server that has received the position information grasps the position of the HMD 2 (bus) in the real space from the received position information, and converts the position into a virtual position in the virtual space as it is. Specifically, the distribution server calculates the coordinates of the virtual positions 1 to 3 in the virtual space corresponding to the positions 1 to 3 in the real space. Next, using these coordinates as information related to the movement of the viewpoint in the virtual space, based on this viewpoint information, a panoramic image (panoramic images 1 to 3 in FIG. 4) is cut out and a panoramic image is generated by encoding processing. To do. Here, the reason for processing a plurality of (virtual) positions is that it is necessary to cut out a predetermined number of frames for encoding processing.

その後、配信サーバは、生成したパノラマ映像をHMD2に配信するのであるが、HMD2(バス)は、このパノラマ映像を受信した時点、すなわち時刻t=τ(τ:配信遅延時間)では、すでに位置4へ移動している。その結果、HMD2は、この後位置4から位置5を経て位置6に至る間に、位置1〜3に対応するパノラマ映像を変換したVR映像を、ユーザに対して表示する。その結果、現実世界におけるHMD2(バス)の位置状態と、その時点で表示されるVR映像(仮想空間)内での位置状態とが異なってしまう(ずれてしまう)問題が生じるのである。   Thereafter, the distribution server distributes the generated panoramic video to the HMD 2. The HMD 2 (bus) has already received the position 4 at the time when the panoramic video is received, that is, at time t = τ (τ: distribution delay time). Has moved to. As a result, the HMD 2 displays VR video obtained by converting the panoramic video corresponding to the positions 1 to 3 from the position 4 to the position 6 through the position 5 to the user. As a result, there arises a problem that the position state of the HMD 2 (bus) in the real world is different (shifted) from the position state in the VR video (virtual space) displayed at that time.

これに対し、図5に示した実施例では、HMD2(バス)の将来位置を予測し、この予測結果に対応したパノラマ映像を配信することでこの問題を解決する。   On the other hand, in the embodiment shown in FIG. 5, this problem is solved by predicting the future position of the HMD 2 (bus) and distributing a panoramic image corresponding to the prediction result.

図5に示す本実施例においても、バスは、現実世界(現実空間)において道路を走行し、この道路内の位置1から位置2を経て、時刻t=0では位置3に至っている。HMD2は、時刻t=0において、これらの位置1〜3の座標と、HMD2(バス)の速度及び加速度とを時刻情報(t=0)に紐づけた状態情報を、配信サーバ1へ送信する。   Also in this embodiment shown in FIG. 5, the bus travels on a road in the real world (real space), and reaches position 3 at time t = 0 from position 1 to position 2 in the road. At time t = 0, the HMD 2 transmits state information in which the coordinates of these positions 1 to 3 and the speed and acceleration of the HMD 2 (bus) are associated with time information (t = 0) to the distribution server 1. .

この状態情報を受信した配信サーバ1の状態予測部111(図1)は、受信した状態情報によって現実空間におけるHMD2(バス)の位置、速度及び加速度を把握し、これに基づいて予測時間決定部112(図1)で決定した予測時間区間t=τ〜τ+s(τ:配信遅延時間,s:1ファイル分の再生時間)における位置、速度及び加速度を予測する。   The state prediction unit 111 (FIG. 1) of the distribution server 1 that has received this state information grasps the position, speed, and acceleration of the HMD 2 (bus) in the real space from the received state information, and based on this, the prediction time determination unit The position, speed, and acceleration in the predicted time interval t = τ to τ + s determined in 112 (FIG. 1) (τ: delivery delay time, s: playback time for one file) are predicted.

具体的には、時刻t=0における現実空間での位置をx(0)とし、速度をv(0)とし、加速度をa(0)とすると、時刻t=τにおける位置x(τ)、速度v(τ)及び加速度a(τ)は、急激な速度変動は発生しないと仮定した場合に、次式
(1) x(τ)=x(0)+∫v(t)dt
v(τ)=v(0)+∫a(t)dt
a(τ)=a(0)
によって算出される。ここで、∫はt=0〜τの定積分である。上式(1)によって予測時間区間t=τ〜τ+sにおける位置及び速度も算出することができるのである。本実施例では、t=τ〜τ+sでの位置として、位置4、位置5及び位置6を算出する。
Specifically, when the position in the real space at time t = 0 is x (0), the speed is v (0), and the acceleration is a (0), the position x (τ) at time t = τ, Velocity v (τ) and acceleration a (τ) are calculated using the following equation (1) x (τ) = x (0) + ∫v (t) dt
v (τ) = v (0) + ∫a (t) dt
a (τ) = a (0)
Is calculated by Here, ∫ is a definite integral of t = 0 to τ. The position and speed in the predicted time interval t = τ to τ + s can also be calculated by the above equation (1). In this embodiment, position 4, position 5, and position 6 are calculated as positions at t = τ to τ + s.

次に、配信サーバ1の仮想状態決定部113(図1)は、算出された予測時刻間隔t=τ〜τ+sにおける位置及び速度を、仮想空間での仮想位置及び仮想速度に変換する。具体的に、配信サーバ1は、予測された現実空間での位置4〜6に対応する仮想空間での仮想位置4〜6の座標を算出する。さらに、t=τ〜τ+sにおける仮想空間での仮想速度値を算出する。   Next, the virtual state determination unit 113 (FIG. 1) of the distribution server 1 converts the calculated position and speed in the predicted time interval t = τ to τ + s into a virtual position and virtual speed in the virtual space. Specifically, the distribution server 1 calculates the coordinates of the virtual positions 4 to 6 in the virtual space corresponding to the predicted positions 4 to 6 in the real space. Further, a virtual velocity value in the virtual space at t = τ to τ + s is calculated.

次いで、これらの仮想空間での座標及び仮想速度値を仮想空間内での視点の移動に係る情報として、この視点情報に基づき、VRコンテンツからパノラマ画像(図5ではパノラマ画像4〜6)を切り出し、エンコード処理によってパノラマ映像を生成する。これは、現実世界での位置がx(τ)〜x(τ+s)となり、速度がv(τ)〜v(τ+s)となるように、先んじてVRコンテンツからパノラマ画像を切り出し、パノラマ映像を生成することになっている。具体的には、最初に、位置x(τ)〜x(τ+s)を、後段のエンコード処理におけるfps(frame per second)に従って等間隔に分割し、分割点を複数の離散的な座標として表現する。次いで、これらの分割点を、対応するVRコンテンツ内の仮想空間の座標に変換し、その視点位置における360度の視野をパノラマ画像に変換する。最後に、このようにして得られたパノラマ画像列をパノラマ映像へリアルタイムにエンコードするのである。   Next, using the coordinates and virtual velocity values in these virtual spaces as information relating to the movement of the viewpoint in the virtual space, panoramic images (panoramic images 4 to 6 in FIG. 5) are cut out from the VR content based on this viewpoint information. The panorama image is generated by the encoding process. This is because the panoramic image is cut out from the VR content first so that the position in the real world is x (τ) to x (τ + s) and the speed is v (τ) to v (τ + s). A panoramic video is to be generated. Specifically, first, the positions x (τ) to x (τ + s) are divided at equal intervals according to fps (frame per second) in the subsequent encoding process, and the dividing points are set as a plurality of discrete coordinates. Express. Next, these division points are converted into the coordinates of the virtual space in the corresponding VR content, and the 360-degree visual field at the viewpoint position is converted into a panoramic image. Finally, the panoramic image sequence thus obtained is encoded into a panoramic video in real time.

その後、配信サーバ1は、生成したパノラマ映像を、対応VR映像の再生に合わせてHMD2に配信する。ここで、HMD2(バス)は、このパノラマ映像を受信した時点、すなわち時刻t=τでは、すでに位置4へ移動している。その結果、HMD2は、この後位置4から位置5を経て位置6に至る間に、位置4〜6に対応するパノラマ映像を変換したVR映像を、ユーザに対して表示する。すなわち、現実世界におけるHMD2(バス)の位置、速度及び加速度状態と、その時点で表示されるVR映像(仮想空間)内での位置、速度及び加速度状態とが一致し、このVR映像を見たユーザは十分なリアル感や没入感を享受することができるのである。   Thereafter, the distribution server 1 distributes the generated panoramic video to the HMD 2 in accordance with the playback of the corresponding VR video. Here, the HMD 2 (bus) has already moved to the position 4 at the time when the panoramic video is received, that is, at time t = τ. As a result, the HMD 2 displays VR video obtained by converting the panoramic video corresponding to the positions 4 to 6 from the position 4 to the position 6 through the position 5 to the user. That is, the position, speed, and acceleration state of the HMD2 (bus) in the real world coincide with the position, speed, and acceleration state in the VR image (virtual space) displayed at that time, and the VR image was viewed. The user can enjoy a sufficient sense of realism and immersion.

ちなみに、VRコンテンツの内容にもよるが、HMD2(バス)から送信される状態情報は、例えば測位された各時刻における位置情報(例えば緯度及び経度)としてもよい。すなわち、速度や加速度情報がなくても、複数時刻における位置情報によって速度や加速度を決定することが可能である。さらに、基準時刻における位置が分かっていれば、状態情報に位置情報が含まれていなくても、速度情報や加速度情報から上式(1)を用いて位置を予測することも可能である。   Incidentally, although it depends on the contents of the VR content, the state information transmitted from the HMD 2 (bus) may be, for example, position information (for example, latitude and longitude) at each measured time. That is, even if there is no speed or acceleration information, it is possible to determine the speed and acceleration based on position information at a plurality of times. Furthermore, if the position at the reference time is known, the position can be predicted using the above equation (1) from the speed information and the acceleration information even if the position information is not included in the state information.

図6は、本発明による映像配信装置においてクライアント状態を予測して配信処理を行う他の実施例を説明するための模式図である。   FIG. 6 is a schematic diagram for explaining another embodiment for performing a distribution process by predicting a client state in the video distribution apparatus according to the present invention.

図6に示した実施例では、配信サーバ1の状態予測部111(図1)は、予測時刻t=τ又は予測時間区間t=τ〜τ+sでの向きに係る状態情報(例えば、方位や、t=τでの向きを基準とした向きの変化量)を予測する。この際、HMD2(バス)の所在位置を含む経路地図(道路地図)情報に基づいて向きの予測を行うことができる。また、HMD2(バス)の状態情報として、例えば時刻t=0での角加速度情報を取得し、この情報に基づいて進行向きの予測を行うことも可能である。   In the embodiment shown in FIG. 6, the state prediction unit 111 (FIG. 1) of the distribution server 1 performs state information (for example, an azimuth direction) related to the direction at the prediction time t = τ or the prediction time interval t = τ to τ + s. Or the amount of change in direction with reference to the direction at t = τ). At this time, the direction can be predicted based on route map (road map) information including the location of the HMD 2 (bus). Further, as the state information of the HMD 2 (bus), for example, angular acceleration information at time t = 0 can be acquired, and the traveling direction can be predicted based on this information.

具体的に、図6に示した実施例では、配信サーバ1は、HMD2(バス)から、位置3、位置4を経て時刻t=0での位置x(0)が位置5であるとの状態情報を受信する。ここで、配信サーバ1は、受信した状態情報に基づいて、保持する道路地図情報から、「HMD2(バス)はこの先、時刻t=τにおいて位置6に至り、この位置6において進行向きを左に(反時計回りに)90°だけ変更し、時刻t=τ+sにおいて位置8に至る」旨の情報を決定する。   Specifically, in the embodiment shown in FIG. 6, the distribution server 1 is in the state that the position x (0) at time t = 0 is the position 5 from the HMD 2 (bus) through the positions 3 and 4. Receive information. Here, based on the received state information, the distribution server 1 indicates that “HMD2 (bus) will reach position 6 at time t = τ, and the traveling direction will be left at this position 6” The information is changed to 90 ° (counterclockwise) and reaches position 8 at time t = τ + s.

次いで、配信サーバ1は、予測された現実空間での位置6〜8に対応する仮想空間での仮想位置6〜8を算出し、さらに、これらの位置6〜8における(対応VR映像再生時の)正面向きを、位置4から位置6に向かう際の進行向きではなく、位置6〜8に向かう際の進行向きに決定する。さらに、これらの仮想位置6〜8及びその際の正面向きの情報から仮想空間内での視点の移動に係る視点情報を決定し、この視点情報に基づき、決定した進行向きを(HMD2での再生時に)正面に表示するように指定した上で、VRコンテンツからパノラマ画像(パノラマ画像6〜8)を切り出す。次いで、切り出したパノラマ画像に対しエンコード処理を施してパノラマ映像を生成する。その後、配信サーバ1は、生成したパノラマ映像を、対応VR映像の再生に合わせてHMD2に配信するのである。   Next, the distribution server 1 calculates virtual positions 6 to 8 in the virtual space corresponding to the predicted positions 6 to 8 in the real space, and further (at the time of corresponding VR video playback at these positions 6 to 8). ) The front direction is determined not as the direction of travel when moving from position 4 to position 6 but as the direction of travel when moving toward positions 6 to 8. Further, the viewpoint information related to the movement of the viewpoint in the virtual space is determined from the virtual positions 6 to 8 and the information of the front direction at that time, and the determined traveling direction is reproduced based on the viewpoint information (reproduction in HMD2). (Occasionally) After specifying to display in front, panoramic images (panoramic images 6-8) are cut out from the VR content. Next, the cut panorama image is encoded to generate a panoramic video. Thereafter, the distribution server 1 distributes the generated panoramic video to the HMD 2 in accordance with the reproduction of the corresponding VR video.

また、例えば、HMD2(バス)が、この先(3つの進行向きに分かれる)交差点が存在する道路を走行している場合に、この交差点の直前で、角速度情報を含む状態情報を配信サーバ1へ送信するとする。この場合、配信サーバ1は、保持する道路地図情報を参照し、受信した状態情報における角速度の向き及び/又は大きさから、HMD2(バス)が3つの進行向きのいずれに向かうのか(例えば、右折するのか、左折するのか又は直進するのか)を決定することができる。この際、この向きのより確実な予測のため、予め角速度ω値と曲り角の大きさとの関係を調べておき、状態情報として取得した角速度ω値から、この先の曲り角の大きさを予測することも好ましい。   In addition, for example, when the HMD 2 (bus) is traveling on a road on which an intersection (divided into three traveling directions) is present, state information including angular velocity information is transmitted to the distribution server 1 immediately before the intersection. Then. In this case, the distribution server 1 refers to the road map information to be held, and the direction of the angular velocity and / or the magnitude in the received state information indicates which of the three traveling directions the HMD 2 (bus) is directed to (for example, turn right) Whether to turn left or go straight). At this time, for more reliable prediction of this direction, the relationship between the angular velocity ω value and the bending angle is examined in advance, and it is possible to predict the bending angle from the angular velocity ω value acquired as the state information. preferable.

さらに、配信サーバ1は、HMD2(バス)がこの先走行する道路の曲がり具合を、同じく保持する道路地図情報から抽出し、将来の時点でのHMD2(バス)の進行向きの変化を予測することもできる。以上、説明したように、HMD2(バス)の進行向きを適切に予測することによって、現実の進行向きに合致した正面向きを有する再生映像を提供するような配信映像を、確実に生成することも可能となるのである。   Further, the distribution server 1 extracts the degree of bending of the road on which the HMD 2 (bus) travels from the road map information that is also held, and predicts a change in the traveling direction of the HMD 2 (bus) at a future time point. it can. As described above, by appropriately predicting the traveling direction of the HMD 2 (bus), it is possible to reliably generate a distribution video that provides a playback image having a front direction that matches the actual traveling direction. It becomes possible.

図7は、本発明に係るクライアントにおける再生制御処理の一実施形態を説明するための模式図である。   FIG. 7 is a schematic diagram for explaining an embodiment of the reproduction control process in the client according to the present invention.

図7に示した実施例では、最初に、HMD2の状態情報生成部213(図2)は、再生開示時点(t=τ)におけるセンサ出力情報に基づいて、再生開示時点(t=τ)での状態(例えば位置及び/又は速度)情報を取得する。次いで、HMD2の再生制御部212(図2)は、
(a)受信した予測時刻(t=τ)又は予測時間区間(t=τ〜τ+s)での状態と、
(b)検出、測定又は決定された予測時刻(t=τ)又は予測時間区間(t=τ〜τ+s)での自らの状態と
の間の相違の度合い(例えば位置間の距離や、速度値の差又は比)に基づき、再生される映像に表れる仮想状態をHMD2(バス)の状態に合わせるように、予測時刻(t=τ)又は予測時間区間(t=τ〜τ+s)に係る映像の再生速度を調整する。
In the embodiment shown in FIG. 7, first, the state information generation unit 213 (FIG. 2) of the HMD 2 is based on the sensor output information at the playback disclosure time (t = τ) at the playback disclosure time (t = τ). Status (eg, position and / or velocity) information is acquired. Next, the playback control unit 212 (FIG. 2) of the HMD2
(A) the received predicted time (t = τ) or predicted time interval (t = τ to τ + s);
(B) the degree of difference (eg, the distance between positions) between its state at the predicted time (t = τ) or the predicted time interval (t = τ to τ + s) detected, measured or determined Based on the speed value difference or ratio), the predicted time (t = τ) or the predicted time interval (t = τ to τ + s) so that the virtual state appearing in the reproduced video matches the state of the HMD2 (bus) The playback speed of the video related to is adjusted.

具体的に、図7において、配信サーバ1は、時刻t=0に係る状態情報を受信した時点で、HMD2(バス)が時刻t=τで位置4にあり、その後位置5を経て、時刻t=τ+sには位置6に至ると予測し、この予測に基づいたパノラマ映像を生成し配信している。しかしながら、HMD2(バス)は実際には、時刻t=τで位置4にあったものの、時刻t=τ+sでもまだ位置5にあり、配信サーバ1での予測とは異なった状態となっている。   Specifically, in FIG. 7, when the distribution server 1 receives the state information related to time t = 0, the HMD 2 (bus) is at position 4 at time t = τ, and then passes through position 5 to time t = Τ + s is predicted to reach position 6, and a panoramic video based on this prediction is generated and distributed. However, although HMD2 (bus) was actually at position 4 at time t = τ, it was still at position 5 at time t = τ + s, which was different from the prediction at distribution server 1. Yes.

この予測の異なったパノラマ映像を受信したHMD2は、配信サーバ1から併せて受信した、
(a1)予測時間区間(t=τ〜τ+s)での位置4〜6の情報、又は
(a2)予測時点(t=τ)での位置4の情報及び予測時間区間(t=τ〜τ+s)での速度v'(τ〜τ+s)の情報と、
自らのセンサによるセンサ出力情報に基づいて生成した、
(b)再生開始時刻(t=τ)での位置4の情報及び速度値v(τ)の情報と
を比較し、予測時間区間での予測速度v'(τ〜τ+s)とv(τ)とが(所定の判定条件下で)相違していることから、受信したパノラマ映像を再生したVR映像においては、現実世界での状態の推移とは異なった仮想状態の推移が行われることを認識する。そこで、HMD2は、(実際に位置4から位置5へ至るとされる)時間範囲t=τ〜τ+sにおいて再生されるVR映像の動画位置範囲を、位置4及び5の範囲に限定する。
The HMD 2 that has received the panoramic images with different predictions is also received from the distribution server 1.
(A1) Information of positions 4 to 6 in the prediction time interval (t = τ to τ + s), or (a2) Information of position 4 and prediction time interval (t = τ to information on velocity v ′ (τ˜τ + s) at τ + s),
Generated based on sensor output information by own sensor,
(B) The information of the position 4 at the playback start time (t = τ) and the information of the speed value v (τ) are compared, and the predicted speeds v ′ (τ˜τ + s) and v ( (τ) is different (under a predetermined judgment condition), the VR state obtained by reproducing the received panoramic image undergoes a transition of the virtual state different from the state transition in the real world. Recognize Therefore, the HMD 2 limits the moving image position range of the VR video reproduced in the time range t = τ to τ + s (which is actually from the position 4 to the position 5) to the positions 4 and 5.

具体的には、配信サーバ1から受信された速度値v'(τ)の平均値が30m/sであり、一方、自ら取得・生成した速度値v(τ)が20m/sであれば、時刻t=τからのVR映像の再生速度を、基準の0.67(=20/30)倍、すなわち0.67倍速とする。これにより、再生されたVR映像における予測誤差に起因するズレの発生を防止し、再生映像のリアル感を確保することが可能となるのである。   Specifically, if the average value of velocity values v ′ (τ) received from the distribution server 1 is 30 m / s, while the velocity value v (τ) acquired and generated by itself is 20 m / s, The playback speed of the VR video from time t = τ is set to 0.67 (= 20/30) times the reference, that is, 0.67 times speed. As a result, it is possible to prevent a deviation caused by a prediction error in the reproduced VR video, and to ensure a realistic feeling of the reproduced video.

次に、上記の実施例とは逆に、配信サーバ1での予測よりもHMD2(バス)がより先に進行する場合を考える。この場合、配信サーバ1は、時刻t=0に係る状態情報を受信した時点で、HMD2(バス)が時刻t=τで位置4にあり、時刻t=τ+sには位置5に至ると予測し、この予測に基づいたパノラマ映像を配信する。   Next, the case where HMD2 (bus | bath) advances ahead of the prediction in the delivery server 1 contrary to said Example is considered. In this case, when the distribution server 1 receives the state information related to time t = 0, the HMD 2 (bus) is at position 4 at time t = τ and reaches position 5 at time t = τ + s. Predict and distribute panoramic video based on this prediction.

ところが、実際には、HMD2(バス)は結局、t=τ〜τ+sの間に位置4〜6に進んだとする。このような場合に備えて、配信サーバ1では、予測結果から必要とされる位置4及び5に対応したパノラマ映像に加え、さらに進行する可能性のある位置、例えば位置6、7及び8に対応したパノラマ映像を作成し、配信する。   However, in reality, it is assumed that the HMD 2 (bus) eventually advances to positions 4 to 6 during t = τ to τ + s. In preparation for such a case, the distribution server 1 supports panoramic images corresponding to the positions 4 and 5 required from the prediction result, and also supports positions that may further progress, for example, positions 6, 7, and 8. Create and distribute panoramic images.

このようなパノラマ映像を受信したHMD2は、例えば、配信サーバ1から受信された速度値v'(τ)の平均値が30m/sであり、一方、自ら取得・生成した速度値v(τ)が40m/sであれば、時刻t=τからのVR映像の再生速度を、基準の1.3(=40/30)倍、すなわち1.3倍速とする。これにより、HMD2(バス)は、位置4〜6に進む間に、位置4及び5、並びに位置6に対応したパノラマ映像から生成したVR映像を再生することが可能となるのである。   The HMD 2 that has received such a panoramic video has, for example, an average value of velocity values v ′ (τ) received from the distribution server 1 of 30 m / s, while the velocity value v (τ) acquired and generated by itself. Is 40 m / s, the playback speed of the VR video from time t = τ is 1.3 (= 40/30) times the reference, that is, 1.3 times the speed. As a result, the HMD 2 (bus) can reproduce the VR video generated from the panoramic video corresponding to the positions 4 and 5 and the position 6 while proceeding to the positions 4 to 6.

ちなみに、配信サーバ1において、(到達する可能性のある)追加の位置(位置6〜8)に対応したパノラマ映像を生成し配信するタイミングとしては、VR映像の再生が(1ファイル分の)全再生時間sのx%の動画位置に達した時点で、HMD2(バス)の予測進行区間(この場合、位置4から位置5の区間)における実際の進行度合い(y%)がx%を越える(y>xとなる)タイミングとすることができる。   Incidentally, in the distribution server 1, as a timing for generating and distributing a panoramic image corresponding to an additional position (possible to reach) (positions 6 to 8), the reproduction of the VR image is all (for one file). When the video position reaches x% of the playback time s, the actual progress degree (y%) in the predicted progress section (in this case, the section from position 4 to position 5) of HMD2 (bus) exceeds x% ( y> x).

以上、図7を用いて説明したように、本実施形態のHMD2を含む映像配信システムは、VR映像の再生速度を制御して、再生されたVR映像における予測誤差に起因するズレの発生を防止することができる。これにより、再生映像のリアル感を確保し、ユーザに対しより好ましいVR世界の体験を提供することも可能となるのである。   As described above with reference to FIG. 7, the video distribution system including the HMD 2 of the present embodiment controls the playback speed of the VR video to prevent the occurrence of deviation due to the prediction error in the played VR video. can do. As a result, it is possible to secure a realistic feeling of the reproduced video and provide a more preferable VR world experience to the user.

以上、詳細に説明したように、本発明の映像配信装置、システム、プログラム及び方法によれば、取得したクライアントの状態から、将来のクライアントにおける再生時間に合わせた仮想空間での仮想状態を予測し、これに基づいて配信映像を生成する。このような特徴的な状態予測機能を備えているが故に、クライアントの状態に応じた映像が再生可能となる映像データを、クライアントに配信することができる。また、これにより、再生された映像を見たユーザにおける仮想体験のリアル性が向上し、ユーザは十分な没入感を享受することも可能となるのである。   As described above in detail, according to the video distribution apparatus, system, program, and method of the present invention, the virtual state in the virtual space that matches the playback time in the future client is predicted from the acquired client state. Based on this, a distribution video is generated. Since such a characteristic state prediction function is provided, video data that enables playback of video in accordance with the client state can be distributed to the client. This also improves the realism of the virtual experience for the user who sees the reproduced video, and allows the user to enjoy a sufficient immersive feeling.

特に、ユーザが移動しながら映像を視聴する状況において、通信路遅延やエンコード遅延等、原理的にゼロにはできない遅延を仮想的に除去した配信が可能となる。このように、本発明は、例えば、膨大な量のVR関連データの通信が予測される、来る5G(第5世代移動通信システム)においても、ユーザ位置連動型のVRコンテンツ配信サービスを実現するための重要な技術を提供するものとなっている。   In particular, in a situation where the user views a video while moving, it is possible to perform distribution by virtually removing delays that cannot be zero in principle, such as communication path delays and encoding delays. Thus, for example, the present invention is to realize a user content-linked VR content distribution service even in the coming 5G (fifth generation mobile communication system) in which a large amount of VR-related data communication is predicted. It is intended to provide important technology.

以上に述べた本発明の種々の実施形態について、本発明の技術思想及び見地の範囲内での種々の変更、修正及び省略は、当業者によれば容易に行うことができる。以上に述べた説明はあくまで例示であって、何ら制約を意図するものではない。本発明は、特許請求の範囲及びその均等物によってのみ制約される。   Various changes, modifications, and omissions of the various embodiments of the present invention described above within the scope of the technical idea and the viewpoint of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be any limitation. The present invention is limited only by the claims and the equivalents thereof.

1 配信サーバ(映像配信装置)
101 通信インタフェース部
102 VRコンテンツ蓄積部
103 パノラマ画像蓄積部
104 パノラマ映像蓄積部
111 状態予測部
111a 位置予測部
111b 速度・加速度予測部
111c 向き予測部
112 予測時間決定部
113 仮想状態決定部
114 映像生成部
114a パノラマ画像生成部
114b パノラマ映像生成部
115 映像配信制御部
116 通信制御部
2 HMD(クライアント)
201 通信インタフェース部
202 測位部
203 加速度センサ
204 ジャイロセンサ
205 地磁気センサ
206 ディスプレイ
211 通信制御部
212 再生制御部
213 状態情報生成部
3 GPS衛星

1. Distribution server (video distribution device)
DESCRIPTION OF SYMBOLS 101 Communication interface part 102 VR content storage part 103 Panoramic image storage part 104 Panoramic video storage part 111 State prediction part 111a Position prediction part 111b Speed / acceleration prediction part 111c Direction prediction part 112 Prediction time determination part 113 Virtual state determination part 114 Video generation Unit 114a panorama image generation unit 114b panorama image generation unit 115 video distribution control unit 116 communication control unit 2 HMD (client)
DESCRIPTION OF SYMBOLS 201 Communication interface part 202 Positioning part 203 Acceleration sensor 204 Gyro sensor 205 Geomagnetic sensor 206 Display 211 Communication control part 212 Reproduction | regeneration control part 213 Status information generation part 3 GPS satellite

Claims (9)

仮想空間の映像をクライアントに配信する映像配信装置であって、
当該クライアントの1つの時点又は時間区間での状態に係る情報を取得し、他の時点又は時間区間での当該クライアントの状態を予測する状態予測手段と、
予測された当該他の時点又は時間区間での状態に対応する当該仮想空間内での仮想状態を決定する仮想状態決定手段と、
決定された仮想状態に基づいて配信すべき映像を生成する映像生成手段と、
生成された映像を、当該他の時点又は時間区間での再生に合わせて当該クライアントに配信する映像配信制御手段と
を有することを特徴とする映像配信装置。
A video distribution device that distributes video in a virtual space to a client,
State prediction means for acquiring information related to the state of the client at one time point or time interval, and predicting the state of the client at another time point or time interval;
Virtual state determination means for determining a virtual state in the virtual space corresponding to the predicted state at the other time point or time interval;
Video generation means for generating video to be distributed based on the determined virtual state;
A video distribution apparatus comprising: a video distribution control unit that distributes the generated video to the client in accordance with reproduction at the other time point or time interval.
当該映像は、当該仮想空間における視点映像であり、
前記状態予測手段は、当該クライアントの状態として、1つの時点又は時間区間での位置、速度、加速度及び向きのうちの少なくとも1つに係る状態情報を取得して、他の時点又は時間区間での位置、速度、加速度及び向きのうちの少なくとも1つに係る状態情報を予測し、
前記仮想状態決定手段は、予測された当該他の時点又は時間区間での状態情報に対応する当該仮想空間内での位置、速度、加速度及び向きのうちの少なくとも1つに係る仮想状態情報を決定し、
前記映像生成手段は、決定された仮想状態情報に基づいて当該仮想空間内での視点の位置、速度、加速度及び向きのうちの少なくとも1つに係る視点情報を決定し、決定した視点情報に基づいて視点映像を生成する
ことを特徴とする請求項1に記載の映像配信装置。
The video is a viewpoint video in the virtual space,
The state prediction means acquires state information relating to at least one of position, velocity, acceleration, and direction at one time point or time interval as the state of the client, and at another time point or time interval. Predicting state information relating to at least one of position, velocity, acceleration and orientation;
The virtual state determination means determines virtual state information related to at least one of position, velocity, acceleration, and direction in the virtual space corresponding to the predicted state information at the other time point or time interval. And
The video generation means determines viewpoint information related to at least one of the position, velocity, acceleration, and orientation of the viewpoint in the virtual space based on the determined virtual state information, and based on the determined viewpoint information The video distribution apparatus according to claim 1, wherein a viewpoint video is generated.
前記状態予測手段は、当該クライアントの所在位置を含む経路地図情報に基づいて、当該他の時点又は時間区間での向きに係る状態情報を予測することを特徴とする請求項2に記載の映像配信装置。   The video distribution according to claim 2, wherein the state prediction unit predicts state information related to a direction at the other time point or time interval based on route map information including a location of the client. apparatus. 前記状態予測手段は、当該1つの時点又は時間区間での向きに係る情報である角加速度の情報を取得して、当該他の時点又は時間区間での向きに係る状態情報を予測することを特徴とする請求項2又は3に記載の映像配信装置。   The state prediction means obtains angular acceleration information that is information related to the direction at the one time point or time interval, and predicts state information related to the direction at the other time point or time interval. The video distribution apparatus according to claim 2 or 3. 取得された配信遅延時間に係る情報に基づいて、当該他の時点又は時間区間を決定する予測時間決定手段を更に有することを特徴とする請求項1から4のいずれか1項に記載の映像配信装置。   The video delivery according to any one of claims 1 to 4, further comprising a predicted time determination unit that determines the other time point or time interval based on the acquired information related to the delivery delay time. apparatus. クライアントと、仮想空間の映像を当該クライアントに配信する映像配信装置とを有する映像配信システムであって、当該クライアントは、
1つの時点又は時間区間において検出、測定又は決定された自らの状態に係る情報を生成する状態情報生成手段と、
生成された自らの状態に係る情報を、当該1つの時点又は時間区間と紐づけて前記映像配信装置に送信するクライアント通信制御手段と
を有し、前記映像配信装置は、
当該クライアントの1つの時点又は時間区間での状態に係る情報を取得し、他の時点又は時間区間での当該クライアントの状態を予測する状態予測手段と、
予測された当該他の時点又は時間区間での状態に対応する当該仮想空間内での仮想状態を決定する仮想状態決定手段と、
決定された仮想状態に基づいて配信すべき映像を生成する映像生成手段と、
生成された映像を、当該他の時点又は時間区間での再生に合わせて当該クライアントに配信する映像配信制御手段と
を有することを特徴とする映像配信システム。
A video distribution system having a client and a video distribution device that distributes video in a virtual space to the client,
State information generating means for generating information relating to its own state detected, measured or determined in one time point or time interval;
Client communication control means for transmitting the information relating to the generated state to the video distribution apparatus in association with the one time point or time interval, and the video distribution apparatus,
State prediction means for acquiring information related to the state of the client at one time point or time interval, and predicting the state of the client at another time point or time interval;
Virtual state determination means for determining a virtual state in the virtual space corresponding to the predicted state at the other time point or time interval;
Video generation means for generating video to be distributed based on the determined virtual state;
A video distribution system comprising: a video distribution control unit that distributes the generated video to the client in accordance with reproduction at the other time point or time interval.
前記映像配信装置は、予測した当該他の時点又は時間区間での状態を当該クライアントに送信する装置通信制御手段を更に有し、
当該クライアントは、受信した当該他の時点又は時間区間での状態と、検出、測定又は決定された当該他の時点又は時間区間での自らの状態との間の相違の度合いに基づき、再生される映像に表れる仮想状態を当該クライアントの状態に合わせるように、当該他の時点又は時間区間に係る映像の再生速度を調整する再生制御手段を更に有する
ことを特徴とする請求項6に記載の映像配信システム。
The video distribution device further includes device communication control means for transmitting the predicted state at the other time point or time interval to the client,
The client is played based on the degree of difference between the received state at that other time or time interval and its state at that other time or time interval detected, measured or determined 7. The video distribution according to claim 6, further comprising reproduction control means for adjusting a reproduction speed of the video relating to the other time point or time interval so that a virtual state appearing in the video matches the state of the client. system.
仮想空間の映像をクライアントに配信する映像配信装置に搭載されたコンピュータを機能させる映像配信プログラムであって、
当該クライアントの1つの時点又は時間区間での状態に係る情報を取得し、他の時点又は時間区間での当該クライアントの状態を予測する状態予測手段と、
予測された当該他の時点又は時間区間での状態に対応する当該仮想空間内での仮想状態を決定する仮想状態決定手段と、
決定された仮想状態に基づいて配信すべき映像を生成する映像生成手段と、
生成された映像を、当該他の時点又は時間区間での再生に合わせて当該クライアントに配信する映像配信制御手段と
してコンピュータを機能させることを特徴とする映像配信プログラム。
A video distribution program for causing a computer mounted on a video distribution device to distribute video in a virtual space to a client,
State prediction means for acquiring information related to the state of the client at one time point or time interval, and predicting the state of the client at another time point or time interval;
Virtual state determination means for determining a virtual state in the virtual space corresponding to the predicted state at the other time point or time interval;
Video generation means for generating video to be distributed based on the determined virtual state;
A video distribution program for causing a computer to function as video distribution control means for distributing a generated video to the client in accordance with reproduction at the other time point or time interval.
仮想空間の映像をクライアントに配信する映像配信装置に搭載されたコンピュータにおける映像配信方法であって、
当該クライアントの1つの時点又は時間区間での状態に係る情報を取得し、他の時点又は時間区間での当該クライアントの状態を予測するステップと、
予測された当該他の時点又は時間区間での状態に対応する当該仮想空間内での仮想状態を決定するステップと、
決定された仮想状態に基づいて配信すべき映像を生成する映像生成手段と、
生成された映像を、当該他の時点又は時間区間での再生に合わせて当該クライアントに配信するステップと
を有することを特徴とする映像配信方法。

A video distribution method in a computer installed in a video distribution device that distributes video in a virtual space to a client,
Obtaining information related to the state of the client at one time point or time interval, and predicting the state of the client at another time point or time interval;
Determining a virtual state in the virtual space corresponding to the predicted state at the other time point or time interval;
Video generation means for generating video to be distributed based on the determined virtual state;
And a step of distributing the generated video to the client in accordance with reproduction at the other time point or time interval.

JP2017063096A 2017-03-28 2017-03-28 Video distribution apparatus, system, program and method for distributing video according to client status Active JP6648061B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017063096A JP6648061B2 (en) 2017-03-28 2017-03-28 Video distribution apparatus, system, program and method for distributing video according to client status

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017063096A JP6648061B2 (en) 2017-03-28 2017-03-28 Video distribution apparatus, system, program and method for distributing video according to client status

Publications (2)

Publication Number Publication Date
JP2018166279A true JP2018166279A (en) 2018-10-25
JP6648061B2 JP6648061B2 (en) 2020-02-14

Family

ID=63923018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017063096A Active JP6648061B2 (en) 2017-03-28 2017-03-28 Video distribution apparatus, system, program and method for distributing video according to client status

Country Status (1)

Country Link
JP (1) JP6648061B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020080101A (en) * 2018-11-14 2020-05-28 キヤノン株式会社 Information processing device, system including the same, information processing method, and program
WO2021199184A1 (en) * 2020-03-30 2021-10-07 株式会社ソニー・インタラクティブエンタテインメント Image display system, image processing device, image display method, and computer program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206391A (en) * 2009-03-02 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> Display device, display method, display program and recording medium
JP2015513808A (en) * 2012-01-24 2015-05-14 アクシピター ラダー テクノロジーズ, インコーポレイテッド Personal electronic target vision system, apparatus and method
US20150310667A1 (en) * 2014-04-23 2015-10-29 Darrell L. Young Systems and methods for context based information delivery using augmented reality
JP2016156642A (en) * 2015-02-23 2016-09-01 株式会社グッドワークコミュニケーションズ Road guidance server, road guidance server control method, and road guide server control program
WO2016182843A1 (en) * 2015-05-11 2016-11-17 Google Inc. Crowd-sourced creation and updating of area description file for mobile device localization
JP2017102401A (en) * 2015-12-04 2017-06-08 株式会社豊田中央研究所 Virtual Reality System
JP2018514017A (en) * 2015-03-06 2018-05-31 株式会社ソニー・インタラクティブエンタテインメント Head mounted display tracking system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206391A (en) * 2009-03-02 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> Display device, display method, display program and recording medium
JP2015513808A (en) * 2012-01-24 2015-05-14 アクシピター ラダー テクノロジーズ, インコーポレイテッド Personal electronic target vision system, apparatus and method
US20150310667A1 (en) * 2014-04-23 2015-10-29 Darrell L. Young Systems and methods for context based information delivery using augmented reality
JP2016156642A (en) * 2015-02-23 2016-09-01 株式会社グッドワークコミュニケーションズ Road guidance server, road guidance server control method, and road guide server control program
JP2018514017A (en) * 2015-03-06 2018-05-31 株式会社ソニー・インタラクティブエンタテインメント Head mounted display tracking system
WO2016182843A1 (en) * 2015-05-11 2016-11-17 Google Inc. Crowd-sourced creation and updating of area description file for mobile device localization
JP2017102401A (en) * 2015-12-04 2017-06-08 株式会社豊田中央研究所 Virtual Reality System

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020080101A (en) * 2018-11-14 2020-05-28 キヤノン株式会社 Information processing device, system including the same, information processing method, and program
JP7237538B2 (en) 2018-11-14 2023-03-13 キヤノン株式会社 Information processing device, system including the same, information processing method, and program
US11956408B2 (en) 2018-11-14 2024-04-09 Canon Kabushiki Kaisha Information processing system, information processing method, and storage medium
WO2021199184A1 (en) * 2020-03-30 2021-10-07 株式会社ソニー・インタラクティブエンタテインメント Image display system, image processing device, image display method, and computer program

Also Published As

Publication number Publication date
JP6648061B2 (en) 2020-02-14

Similar Documents

Publication Publication Date Title
EP3244591B1 (en) System and method for providing augmented virtual reality content in autonomous vehicles
CN111567052B (en) Scalable FOV + for issuing VR 360 video to remote end user
US10469820B2 (en) Streaming volumetric video for six degrees of freedom virtual reality
KR102343651B1 (en) Generating apparatus and generating method, and reproducing apparatus and playing method
JP6124985B1 (en) Video content distribution system and content management server
CN109644256B (en) Vehicle-mounted video system
US11282265B2 (en) Image processing apparatus and image processing method for transmitting data of a 3D model
KR20160124479A (en) Master device, slave device and control method thereof
JP2019160311A (en) Edge data transmission for connected vehicle
KR20190127716A (en) Shared Synthetic Reality Experience System and Method Using Digital, Physical, Temporal or Spatial Discovery Service
US20140152764A1 (en) Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information transmission/reception method
US20180182261A1 (en) Real Time Car Driving Simulator
EP3648064A1 (en) Generation device and generation method, and playback device and playback method
JP6648061B2 (en) Video distribution apparatus, system, program and method for distributing video according to client status
WO2020220198A1 (en) Timestamp and metadata processing for video compression in autonomous driving vehicles
JP6851278B2 (en) Content distribution devices, systems, programs and methods that determine the bit rate according to user status and complexity
KR20190063590A (en) Operating Method for Live Streaming Service of Virtual Contents based on Tiled Encoding image and electronic device supporting the same
US9283349B2 (en) Methods and apparatus for device based prevention of kinetosis
CN113272034A (en) Method for operating a virtual reality output device, synchronization device, and motor vehicle
JP6952456B2 (en) Information processing equipment, control methods, and programs
US11150102B2 (en) Virtual-space-image providing device and program for providing virtual space image
EP3702864B1 (en) Accounting for latency in teleoperated remote driving
GB2592397A (en) Method and system for mitigating motion sickness of users in a moving vehicle
US11570419B2 (en) Telematics and environmental data of live events in an extended reality environment
JP7268481B2 (en) Information processing device, autonomous vehicle, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200115

R150 Certificate of patent or registration of utility model

Ref document number: 6648061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150