JP2012094990A - Image display system associating with view point - Google Patents

Image display system associating with view point Download PDF

Info

Publication number
JP2012094990A
JP2012094990A JP2010238701A JP2010238701A JP2012094990A JP 2012094990 A JP2012094990 A JP 2012094990A JP 2010238701 A JP2010238701 A JP 2010238701A JP 2010238701 A JP2010238701 A JP 2010238701A JP 2012094990 A JP2012094990 A JP 2012094990A
Authority
JP
Japan
Prior art keywords
viewpoint
image
information
range
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010238701A
Other languages
Japanese (ja)
Inventor
Yoshihisa Ikuta
善久 生田
Zi-Yuan Pan
子圓 潘
Masaki Bandai
雅希 萬代
Takashi Watanabe
尚 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DUSE TECHNOLOGIES CO Ltd
Original Assignee
DUSE TECHNOLOGIES CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DUSE TECHNOLOGIES CO Ltd filed Critical DUSE TECHNOLOGIES CO Ltd
Priority to JP2010238701A priority Critical patent/JP2012094990A/en
Publication of JP2012094990A publication Critical patent/JP2012094990A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve a satisfaction level of a user by providing an image display system associating with a view point capable of performing smooth display while moving a view point in multiple view point video in a remote area and minimizing a communication band by limiting a display image array which is unnecessary for a view point position.SOLUTION: In an image display system associating with a view point, a video distribution server 5 comprises: a distribution control part 21 which obtains a view point position, executes steps S14 to S16 to determine a necessary region 41, and transmits each view point image of a transfer necessary region 44 based on the determined necessary region 41 viewed from each view point position as group image information GGOP. An operation display terminal 3 comprises: a view point position detector 11; a communication device 15 which transmits view point information by the view point position detector 11 to the video distribution server 5 and receives the group image information GGOP from the video distribution server 5; and a display device 17 which displays a view point image corresponding to the view point position based on the group image information GGOP.

Description

この発明は、例えば視点の移動に連動して画像を表示させるような視点連動画像表示システムに関する。   The present invention relates to a viewpoint-linked image display system that displays an image in conjunction with movement of a viewpoint, for example.

従来、映像情報の録画、配信、再生などにおいて、MPEGなどの標準技術をベースにした方式が普及している。そして、高画質化の提案とともに、新たな画像データの圧縮技術も提案されている。   2. Description of the Related Art Conventionally, a method based on a standard technology such as MPEG is widely used for recording, distributing, and reproducing video information. Along with the proposal for higher image quality, a new image data compression technique has also been proposed.

一方、2眼カメラの映像情報を用いた3D映像表示システムも提案されている。近年では、3DTVなど2眼カメラによる映像を再生するシステムも実用化が進んでいる。しかし、このようなシステムは、2眼カメラが固定であるから映像情報にカメラの死角が存在し、必ずしも対象物の視点位置からリアルな再現ができているわけではない。対象物をじっくり観察したい場合、あらゆる角度から観ることが求められるが、2眼カメラからの3D画像の再生では、死角による限界が存在している。   On the other hand, a 3D video display system using video information of a twin-lens camera has also been proposed. In recent years, a system for reproducing video by a twin-lens camera such as 3DTV has been put into practical use. However, in such a system, since the twin-lens camera is fixed, the blind spot of the camera exists in the video information, and realistic reproduction is not necessarily performed from the viewpoint position of the object. When it is desired to observe the object carefully, it is required to view it from all angles, but there is a limit due to blind spots in the reproduction of 3D images from a twin-lens camera.

ここで、複数台のカメラにより多視点で撮影された映像(連続画像)を用いれば、様々な位置に視点を移動しつつ画像を表示することができる。これにより、対象物を様々な視点から見て3次元的にとらえることも可能となる。   Here, by using videos (continuous images) taken from multiple viewpoints by a plurality of cameras, images can be displayed while moving the viewpoint to various positions. As a result, the object can be viewed three-dimensionally from various viewpoints.

多視点映像の符号化方式として、異なる視点映像に対してイントラピクチャ(Iフレーム)を配置することで、全ての視点に対して画像劣化を最小化する方法などが提案されている(特許文献1参照)。
しかし、画像再生時においては、特定視点映像(1〜2視点)のみが表示されることになり、視点位置で必要とする映像を配信し、保存する場合には、視点映像の数に応じて多大なリソース(ネットワーク負荷、記録容量)を用いることになる。
As a multi-view video encoding method, a method of minimizing image degradation for all viewpoints by arranging intra pictures (I frames) for different viewpoint videos has been proposed (Patent Document 1). reference).
However, at the time of image reproduction, only the specific viewpoint video (1 to 2 viewpoints) is displayed. When distributing and storing the video required at the viewpoint position, depending on the number of viewpoint videos A lot of resources (network load, recording capacity) are used.

特表2010−506530号公報Special table 2010-506530 gazette

この発明は、上述の問題点に鑑み、遠隔地の映像を視点移動に応じてスムーズに表示でき、かつネットワークの帯域を最小限に抑制する視点連動画像表示システムを提供し、利用者の満足度を向上させることを目的とする。   In view of the above-described problems, the present invention provides a viewpoint-linked image display system that can smoothly display a video from a remote location in accordance with the movement of the viewpoint and suppresses the bandwidth of the network to the minimum. It aims at improving.

この発明は、画像情報を取得する画像情報取得手段を有するサーバと、前記サーバと通信可能なクライアント端末とを備え、前記サーバは、視点位置の情報である視点情報を取得する視点情報取得手段と、前記視点位置の移動範囲を決定する視点移動範囲決定手段と、前記視点移動範囲決定手段により決定した視点移動範囲に基づく所定範囲の各視点位置から観た各視点画像をグループ視点画像として伝送するグループ視点画像伝送手段とを備え、前記クライアント端末は、前記視点位置の移動入力を許容する視点位置移動入力手段と、前記視点位置移動入力手段で入力された視点位置の視点情報を前記サーバへ送信する視点情報送信手段と、前記グループ視点画像を前記サーバから受信するグループ視点画像受信手段と、前記グループ視点画像に基づいて前記視点位置移動入力手段で入力された視点位置に対応する視点画像を表示する視点画像表示手段とを備えた視点連動画像表示システムであることを特徴とする。   The present invention includes a server having image information acquisition means for acquiring image information, and a client terminal capable of communicating with the server, and the server includes viewpoint information acquisition means for acquiring viewpoint information that is information of a viewpoint position; A viewpoint movement range determination means for determining a movement range of the viewpoint position, and each viewpoint image viewed from each viewpoint position within a predetermined range based on the viewpoint movement range determined by the viewpoint movement range determination means is transmitted as a group viewpoint image. Group viewpoint image transmission means, and the client terminal transmits viewpoint information of viewpoint position input by the viewpoint position movement input means that allows movement input of the viewpoint position and viewpoint position input by the viewpoint position movement input means to the server. Viewpoint information transmitting means, group viewpoint image receiving means for receiving the group viewpoint image from the server, and group viewpoint Characterized in that it is a viewpoint interlocking image display system including a viewpoint image display means for displaying the viewpoint images corresponding to the viewpoint position input by the viewpoint position movement input means based on the image.

この発明により、遠隔地の映像を視点移動しつつスムーズに表示することができる。   According to the present invention, it is possible to smoothly display an image of a remote place while moving the viewpoint.

移動視点映像表示システムのシステム構成を示すブロック図。The block diagram which shows the system configuration | structure of a moving viewpoint video display system. グループ画像情報を抽出する概念の説明図。Explanatory drawing of the concept which extracts group image information. グループ画像情報を抽出する概念の説明図。Explanatory drawing of the concept which extracts group image information. 視点移動とその数値化の説明図。Explanatory drawing of viewpoint movement and its digitization. 視点移動の経路と表示可能性のある範囲を求める計算式の説明図。Explanatory drawing of the calculation formula which calculates | requires the range of a viewpoint movement path | route and display possibility. 必要フレームと不要フレームの比率を求める計算式の説明図。Explanatory drawing of the calculation formula which calculates | requires the ratio of a required frame and an unnecessary frame. 操作表示端末の動作を示すフローチャート。The flowchart which shows operation | movement of an operation display terminal. 映像配信サーバの動作を示すフローチャート。The flowchart which shows operation | movement of a video delivery server. 転送されるグループ画像情報と視点移動と表示画像の説明図。Explanatory drawing of the group image information transferred, viewpoint movement, and a display image.

以下、この発明の一実施形態を図面と共に説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、移動視点映像表示システム1のシステム構成と機能を示すブロック図である。
移動視点映像表示システム1は、操作表示端末3と、映像配信サーバ5とがそれぞれ通信可能に接続されて構成されている。
FIG. 1 is a block diagram showing the system configuration and functions of a moving viewpoint video display system 1.
The moving viewpoint video display system 1 includes an operation display terminal 3 and a video distribution server 5 that are communicably connected to each other.

操作表示端末3および映像配信サーバ5は、いずれも、CPUとROMとRAM(メモリ)等で構成される制御手段、ハードディスク等で構成される記憶手段、キーボードやマウス等で構成される入力手段、液晶ディスプレイ等で構成される表示手段、LANボード等で構成される通信手段、およびUSB等で構成される外部接続手段といったハードウェアで構成されており、記憶手段に記憶されているプログラムに従って制御手段が各種動作を実行する。   Each of the operation display terminal 3 and the video distribution server 5 includes a control unit configured by a CPU, a ROM, a RAM (memory), etc., a storage unit configured by a hard disk, an input unit configured by a keyboard, a mouse, etc. It is composed of hardware such as a display means composed of a liquid crystal display or the like, a communication means composed of a LAN board, etc., and an external connection means composed of a USB or the like, and a control means according to a program stored in the storage means Performs various operations.

操作表示端末3は、前記プログラムに従って制御手段が各ハードウェアを用いて動作する機能ブロックとして、視点位置検出器11、視点切替部12、視点移動履歴部13、視点切替速度算定部14、通信装置15、多視点映像復号化部16、および表示装置17を備えている。   The operation display terminal 3 includes a viewpoint position detector 11, a viewpoint switching unit 12, a viewpoint movement history unit 13, a viewpoint switching speed calculation unit 14, a communication device as functional blocks in which the control unit operates using each hardware according to the program. 15, a multi-view video decoding unit 16 and a display device 17 are provided.

視点位置検出器11は、視点となるユーザ(人)の位置を検出するカメラ、センサ等の装置で構成されており、検出した視点位置を視点切替部12へ送信する。なお、この実施例では、ユーザの動作により視点位置を変更することを想定しているが、これに限らず、タッチパネルやマウス等で視点を入力するなど、視点を特定可能な適宜の装置によって視点位置検出器11を構成してもよい。   The viewpoint position detector 11 includes devices such as a camera and a sensor that detect the position of a user (person) serving as a viewpoint, and transmits the detected viewpoint position to the viewpoint switching unit 12. In this embodiment, it is assumed that the viewpoint position is changed by the user's action. However, the present invention is not limited to this, and the viewpoint is input by an appropriate device capable of specifying the viewpoint, such as inputting the viewpoint with a touch panel or a mouse. The position detector 11 may be configured.

視点切替部12は、ユーザからの視点となる位置情報から多視点映像を選択するための装置である。図示では、1台の視点位置検出器11に接続されているが、複数台の操作表示端末の視点位置検出器11が接続されてもよい。これにより、どの視点位置検出器11から入力されている視点かを認識し、複数のユーザがそれぞれ視点を移動させても、各ユーザの視点を区別して認識することができる。   The viewpoint switching unit 12 is an apparatus for selecting a multi-viewpoint video from position information serving as a viewpoint from the user. In the figure, it is connected to one viewpoint position detector 11, but the viewpoint position detectors 11 of a plurality of operation display terminals may be connected. As a result, it is possible to recognize from which viewpoint position detector 11 the viewpoint is input, and to distinguish and recognize each user's viewpoint even if the plurality of users move the viewpoint.

視点移動履歴部13は、視点の移動履歴を記憶する部位であり、視点切替部12から送信される視点位置の移動履歴と次の視点切替速度算定部の結果を記憶する。   The viewpoint movement history unit 13 is a part for storing the viewpoint movement history, and stores the viewpoint position movement history transmitted from the viewpoint switching unit 12 and the result of the next viewpoint switching speed calculation unit.

視点切替速度算定部14は、視点移動から視点切替速度を算出する。視点移動履歴部13に記憶されている移動履歴の情報も参照し、最大視点切替速度も算出する。また、視点切替速度算定部14は、算出した視点切替速度を通信装置15に送信する。   The viewpoint switching speed calculation unit 14 calculates the viewpoint switching speed from the viewpoint movement. With reference to the movement history information stored in the viewpoint movement history unit 13, the maximum viewpoint switching speed is also calculated. The viewpoint switching speed calculation unit 14 transmits the calculated viewpoint switching speed to the communication device 15.

通信装置15は、映像配信サーバ5と通信する有線あるいは無線による適宜の通信装置である。映像配信サーバ5に対して、視点位置と最大視点切替速度などの情報を送信する処理と、映像配信サーバ5から映像情報を受信する処理とを実行する。   The communication device 15 is an appropriate wired or wireless communication device that communicates with the video distribution server 5. A process of transmitting information such as the viewpoint position and the maximum viewpoint switching speed to the video distribution server 5 and a process of receiving video information from the video distribution server 5 are executed.

多視点映像復号化部16は、通信装置15から受信した映像情報と、視点切替部12から送信される視点位置とに基づいて、映像情報を復号化する。
表示装置17は、多視点映像復号化部16により復号化された映像を表示する。
The multi-view video decoding unit 16 decodes the video information based on the video information received from the communication device 15 and the viewpoint position transmitted from the viewpoint switching unit 12.
The display device 17 displays the video decoded by the multi-view video decoding unit 16.

映像配信サーバ5は、配信制御部21、セッション管理部22、および多視点映像符号化装置23および多視点映像入力装置を備えている。   The video distribution server 5 includes a distribution control unit 21, a session management unit 22, a multi-view video encoding device 23, and a multi-view video input device.

配信制御部21は、操作表示端末3の通信装置15との通信、および視点映像を配信する通信制御を実行する。操作表示端末3との通信について、映像伝送品質を確保する通信プロトコル(RTP/UDP、および、ネットワーク状況最適化できるDCCPなどのプロトコル)をサポートする。通信装置15からは、視点位置変更要求(Request)として視点位置情報等を受信する。   The distribution control unit 21 performs communication with the communication device 15 of the operation display terminal 3 and communication control for distributing the viewpoint video. For communication with the operation display terminal 3, a communication protocol (RTP / UDP and a protocol such as DCCP that can optimize the network status) for ensuring video transmission quality is supported. From the communication device 15, viewpoint position information and the like are received as a viewpoint position change request (Request).

セッション管理部22は、マルチユーザに対応した視点映像を配信するために、複数の操作表示端末からの要求に対応したユーザ視点を管理する装置である。   The session management unit 22 is a device that manages user viewpoints corresponding to requests from a plurality of operation display terminals in order to distribute viewpoint videos corresponding to multiple users.

多視点映像符号化装置23は、多視点映像入力装置24から受信する複数の視点からの映像情報を記憶する。また、セッション管理部22から受信する視点位置等に基づいて、必要な範囲の映像情報を符号化し、配信制御部21に送信する。   The multi-view video encoding device 23 stores video information from a plurality of viewpoints received from the multi-view video input device 24. Further, based on the viewpoint position received from the session management unit 22, video information in a necessary range is encoded and transmitted to the distribution control unit 21.

多視点映像入力装置24は、複数台のカメラ若しくは複数の映像を記録した映像情報等により構成されており、複数の視点からの映像情報を多視点映像符号化装置23に送信する。   The multi-view video input device 24 includes a plurality of cameras or video information recorded with a plurality of videos, and transmits video information from a plurality of viewpoints to the multi-view video encoding device 23.

図2、図3は、多数の視点からの映像情報のうちスムーズな映像再生に必要となる映像情報を抽出する概念の説明図である。   2 and 3 are explanatory diagrams of the concept of extracting video information necessary for smooth video reproduction from video information from many viewpoints.

図2(A)は、複数台のカメラで取得する画像情報と時系列とを示す概念図である。なお、ここで言う画像情報は、連続して撮影した連続画像によって動画表示される映像情報の1コマ(1フレーム)としてのフレーム画像の画像情報を指す。   FIG. 2A is a conceptual diagram showing image information and time series acquired by a plurality of cameras. Note that the image information here refers to image information of a frame image as one frame (one frame) of video information displayed as a moving image by continuous images taken continuously.

図2(A)は、上下方向が視点位置の違いを示し、左右方向が時間の経過を示している。各視点で取得する映像情報は同期がとられており、同じタイミング毎に1フレームの画像情報を取得する構成となっている。   In FIG. 2A, the vertical direction indicates the difference in viewpoint position, and the horizontal direction indicates the passage of time. The video information acquired from each viewpoint is synchronized, and one frame of image information is acquired at the same timing.

画像情報は、Iフレーム31とBフレーム32とPフレーム33の3種類が設定されている。この3種類の画像は、圧縮のための画像の性質によって異なるものである。   Three types of image information are set: an I frame 31, a B frame 32, and a P frame 33. These three types of images differ depending on the nature of the image for compression.

すなわち、Iフレーム31は、フレーム(画面)内符号化によって得られる画像を示す。このIフレーム31は、1つのIフレーム31の画像情報のみで復号できる基準フレームであり、原画像の順序と同じように符号化する。   That is, the I frame 31 indicates an image obtained by intraframe (screen) encoding. The I frame 31 is a reference frame that can be decoded only with the image information of one I frame 31, and is encoded in the same order as the original image.

Bフレーム32は、双予測符号化によって得られる画像を示す。この双予測符号化は、進行方向の前後からの差分の画像であり、Iフレーム31とPフレーム33間に符号化して挿入される。   The B frame 32 shows an image obtained by bi-predictive coding. This bi-predictive encoding is a difference image from before and after in the traveling direction, and is encoded and inserted between the I frame 31 and the P frame 33.

Pフレーム33は、フレーム(画面)間順方向予測符号化によって得られる画像を示す。このPフレーム33は、進行方向の手前のIフレーム31かPフレーム33からの差分の画像であり、原画像の順序と同じように符号化される。   A P frame 33 represents an image obtained by forward prediction encoding between frames (screens). This P frame 33 is a difference image from the previous I frame 31 or P frame 33 in the traveling direction, and is encoded in the same manner as the order of the original images.

このIフレーム31、Bフレーム32、Pフレーム33の3種類の画像情報を復号して連続再生することにより、なめらかな動画再生とデータ量の圧縮とを実現している。   By decoding and continuously reproducing the three types of image information of the I frame 31, B frame 32, and P frame 33, smooth moving image reproduction and data amount compression are realized.

図2(B)は、複数台のカメラと、ユーザの視点位置の変化と時間経過を示す視点移動説明図である。
図中の上下方向に並ぶView1〜View11は、カメラを示している。この図示の例では、11台のカメラが横並びに配置されている。なお、例えば、View1,3,5,7,9,11と間をあけてカメラを配置し、その間の視点での画像(間画像)を合成や補正等によって作成する間画像算出手段を有する構成としてもよい。この場合、間画像算出手段は、視点間を補完する視点間補完画像を間画像として取得する構成にすればよい。
FIG. 2B is an explanatory diagram of viewpoint movement showing a plurality of cameras, a change in the viewpoint position of the user, and the passage of time.
View 1 to View 11 arranged in the vertical direction in the figure indicate cameras. In the illustrated example, 11 cameras are arranged side by side. Note that, for example, a configuration is provided that includes an inter-image calculation unit that arranges a camera at a distance from View 1, 3, 5, 7, 9, and 11 and creates an image (inter-image) at a viewpoint between them by synthesis, correction, or the like. It is good. In this case, the inter-image calculation means may be configured to acquire an inter-viewpoint complement image that complements the viewpoints as an inter-image.

図中の矢印Yは、視点が移動する経路を示している。ユーザが歩きながら横移動等をして視点を変えるといった状況を想定した場合、この図に示すように、視点は、時間経過に伴ってなだらかに連続的に移動する。   An arrow Y in the figure indicates a path along which the viewpoint moves. Assuming a situation in which the user changes the viewpoint by moving sideways while walking, as shown in this figure, the viewpoint moves smoothly and continuously over time.

図2(C)は、画像圧縮の工夫を説明する説明図である。複数視点の画像情報の場合、図2(A)に示したように、通常は全視点、全タイミングの画像情報が必要となる。   FIG. 2C is an explanatory diagram for explaining a technique for image compression. In the case of multi-viewpoint image information, as shown in FIG. 2A, image information of all viewpoints and all timings is usually required.

しかし、図2(B)に示したように移動範囲が限られることを考えれば、図2(C)に示すように、左上のIフレーム31を起点とすると、その下方の三角形の領域35aは、視点となり得ない領域となる。したがって、少なくともこの領域の画像情報は、任意視点での連続した画像情報の再生には不要となる。   However, considering that the movement range is limited as shown in FIG. 2 (B), as shown in FIG. 2 (C), if the upper left I-frame 31 is the starting point, the triangular area 35a below it is This is an area that cannot be a viewpoint. Therefore, at least the image information in this area is not necessary for the reproduction of continuous image information from an arbitrary viewpoint.

同様に、図2(D)に示すように左端の上下方向中央位置のIフレーム31を起点とする場合、Iフレーム31から時間経過とともに視点が離れていく斜め方向より手前側(図示左側)の領域35b,35cの画像情報は不要となる。   Similarly, as shown in FIG. 2D, when starting from the I frame 31 at the center of the vertical direction at the left end, the front side (the left side in the figure) is closer to the oblique direction in which the viewpoint moves away from the I frame 31 with time. The image information in the areas 35b and 35c is not necessary.

ここで、Bフレーム32およびPフレーム33は、差分の画像情報であるため、その差分の基礎となる画像情報が必要になる。そして、図2(A)に示した参照状態で上述した領域35(35a,35b,35c)の画像情報を削除すると、差分の参照元画像が存在しないために正しく復号できない。   Here, since the B frame 32 and the P frame 33 are difference image information, image information that is the basis of the difference is required. If the image information in the above-described region 35 (35a, 35b, 35c) is deleted in the reference state shown in FIG. 2A, it cannot be correctly decoded because there is no difference reference source image.

このため、図2(C)および図2(D)に示すように、領域35の傾斜ライン36(36a,36b,36c)の外側に並ぶフレームについては、図に矢印で示すように斜め方向に参照する差分画像とする。これにより、領域35の画像情報を削除しても復号できる。   Therefore, as shown in FIGS. 2C and 2D, the frames arranged outside the inclined line 36 (36a, 36b, 36c) of the region 35 are inclined as shown by the arrows in the figure. The difference image to be referred to. Thereby, even if the image information in the area 35 is deleted, it can be decoded.

図3(A)は、必要な画像情報をさらに絞り込むための概念を示している。図示するように、時間経過の範囲W(W1,W2)を所定範囲に区切り、この範囲W単位で上述した不要な領域35を削除して、三角形の必要領域41(41a,41b)のフレームのみで1つのグループとしている。このグループの画像情報を全て含めてグループ画像情報GGOPとする。   FIG. 3A shows a concept for further narrowing down the necessary image information. As shown in the figure, the time lapse range W (W1, W2) is divided into predetermined ranges, and the unnecessary area 35 is deleted in units of the range W, and only the frames of the triangular necessary area 41 (41a, 41b) are displayed. One group. All the image information of this group is included as group image information GGOP.

ここで、図示するように、範囲Wは、時間経過における前端の頂点42が、時間経過における後端の底辺43より時間経過の過去となる前段側(図示左側)に位置し、換言すれば必要領域41の内側に位置する。   Here, as shown in the drawing, the range W is located on the front side (the left side in the drawing) where the apex 42 at the front end in the passage of time is past the bottom 43 of the rear end in the passage of time, in other words, necessary. Located inside the region 41.

このため、連続する範囲Wは、図示の範囲W1,W2に示すように重複部分が生じる。このため、時間経過の後段側の範囲W2に対応する必要領域41bのうち、図形的に範囲W1との重複部分を除いた台形の領域を転送すべき必要領域44としている。   For this reason, as shown in the illustrated ranges W1 and W2, overlapping portions occur in the continuous range W. For this reason, of the necessary area 41b corresponding to the range W2 on the latter stage side of the passage of time, a trapezoidal area excluding a portion overlapping the range W1 in figure is set as the necessary area 44 to be transferred.

図3(B)は、処理時間の遅延を示している。図中の(B1)に示す画像情報の取得から、(B2)に示す符号化遅延、および(B3)に示す復号遅延が生じ、表示された後に、視点移動の変更(入力)を発するため、これらの遅延時間が経過してから画像表示に視点移動が反映される。   FIG. 3B shows a processing time delay. In order to issue a change (input) of the viewpoint movement after the display of the encoding delay shown in (B2) and the decoding delay shown in (B3) occurs from the acquisition of the image information shown in (B1) in the figure. After these delay times have elapsed, the viewpoint movement is reflected in the image display.

図3(C)は、必要領域41bのうち重複部分より後段側のフレームで構成される転送必要領域44を示している。図示するように、転送必要領域44には、Iフレーム31、Bフレーム32、およびPフレーム33が全て存在している。特に、Iフレーム31が必ず1つは存在するように構成される。これにより、通信や復号等で前後の画像グループにエラーが生じた場合でも、Iフレーム31を用いて単独で画像グループの表示を行うことができる。   FIG. 3C shows a transfer required area 44 composed of a frame on the rear stage side from the overlapping part in the required area 41b. As shown in the figure, all of the I frame 31, the B frame 32, and the P frame 33 exist in the transfer required area 44. In particular, it is configured such that there is always one I frame 31. As a result, even when an error occurs in the preceding and succeeding image groups due to communication, decoding, or the like, the image groups can be displayed independently using the I frame 31.

図4は、視点移動と、その視点移動の数値化を説明する説明図である。図4(A)に示すように、タイムが1経過すると視点画像(ビュー)が1移動する場合、フレームレートf=スイッチスピードsとなり、このフレームレートfをスイッチスピードsで除算した値の床関数の整数部分である移動レベルkは1となる。   FIG. 4 is an explanatory diagram for explaining viewpoint movement and quantification of the viewpoint movement. As shown in FIG. 4A, when the viewpoint image (view) moves by 1 when time passes, the frame rate f = switch speed s, and the floor function is a value obtained by dividing the frame rate f by the switch speed s. The movement level k which is the integer part of is 1.

図4(B)に示すように、タイムが2経過すると視点画像が1移動する場合、フレームレートfはスイッチスピードsの2倍(f=2s)となり、移動レベルkは2となる。   As shown in FIG. 4B, when the viewpoint image moves by 1 when the time has elapsed, the frame rate f is twice the switch speed s (f = 2s), and the movement level k is 2.

図4(C)に示すように、タイムが1経過すると視点画像が2移動する場合、フレームレートfはスイッチスピードsの半分(f=s/s)となり、移動レベルkは0となる。   As shown in FIG. 4C, when the viewpoint image moves two times when the time has elapsed, the frame rate f becomes half of the switch speed s (f = s / s), and the movement level k becomes zero.

図5は、時刻(t)で表示すべきフレームFi,j(t)を求める計算式と、時刻(t)で表示される可能性のある範囲を示すRi,j’(t)を求める計算式の説明図である。   FIG. 5 shows a calculation formula for obtaining a frame Fi, j (t) to be displayed at time (t) and a calculation for obtaining Ri, j ′ (t) indicating a range that may be displayed at time (t). It is explanatory drawing of a type | formula.

図5(A)に示すように、まず表示経路Nは、N(p,f,Sr,T)で表すことができる。ここで、Srは図中でSの上に矢印を記載したものを表している。   As shown in FIG. 5A, first, the display path N can be represented by N (p, f, Sr, T). Here, Sr represents an arrow on S in the drawing.

pは、初期位置であるFi0,j0を示す。
fは、フレームレートを示す。
Srは、方向と速度を含むスイッチベクトルリストを示す。
Tは、Srに対応するタイムリストを示す。
p indicates Fi0, j0 which is the initial position.
f indicates a frame rate.
Sr indicates a switch vector list including direction and speed.
T indicates a time list corresponding to Sr.

図5(B)に示すように、時刻tで表示されるべきフレームFi,j(t)は、上記表示経路Nを表す各変数f,t,Srおよび初期位置のi0,j0を用いて算出することができる。   As shown in FIG. 5B, the frame Fi, j (t) to be displayed at the time t is calculated using the variables f, t, Sr representing the display path N and the initial positions i0, j0. can do.

図5(C)に示すように、視点移動によって表示される可能性のある予測範囲N’は、N’(p,f,s)で表すことができる。   As shown in FIG. 5C, the prediction range N ′ that may be displayed by moving the viewpoint can be represented by N ′ (p, f, s).

pは、初期位置であるFi0,j0を示す。
fは、フレームレートを示す。
sは、最大スイッチスピードを示す。
p indicates Fi0, j0 which is the initial position.
f indicates a frame rate.
s indicates the maximum switch speed.

図5(D)に示すように、時刻tで表示される可能性のある予測範囲Ri,j’(t)は、上記予測範囲N’を表す各変数f,t,sおよび初期位置のi0,j0を用いて算出することができる。なお、式中のMは、多視点映像における映像番号を示す。   As shown in FIG. 5D, the prediction range Ri, j ′ (t) that may be displayed at time t is the variables f, t, s representing the prediction range N ′ and i0 of the initial position. , J0 can be used for calculation. Note that M in the equation represents a video number in a multi-view video.

図6は、予測範囲N’を用いて、必要フレームPFsと不要フレームRFsの比率を求める計算式の説明図である。   FIG. 6 is an explanatory diagram of a calculation formula for obtaining the ratio between the necessary frame PFs and the unnecessary frame RFs using the prediction range N ′.

図6(A)に示すように、視点jにおける必要フレームPFsは、視点Jから初期視点J0を除算した絶対値に移動レベルkを乗算した値となる。   As shown in FIG. 6A, the necessary frame PFs at the viewpoint j is a value obtained by multiplying the absolute value obtained by dividing the initial viewpoint J0 from the viewpoint J by the movement level k.

図6(B)に示すように、視点jの不要フレームRFsの数は、範囲長さLと前記必要フレームPFsのうち小さいものとなり、これをE(j)で表す。   As shown in FIG. 6B, the number of unnecessary frames RFs at the viewpoint j is the smaller of the range length L and the necessary frames PFs, and this is represented by E (j).

図6(C)に示すように、各範囲の不要フレームRFsの数は、このE(j)をj=1からj=視点の数Mまで合計して求められる。   As shown in FIG. 6C, the number of unnecessary frames RFs in each range is obtained by summing E (j) from j = 1 to j = the number M of viewpoints.

そして、図6(D)に示すように、必要フレームPFsと不要フレームRFsの比率Rは、MにLを乗算した値からj=1からj=MまでのE(j)の合計値を除算し、その値からj=1からj=MまでのE(j)の合計値を除算して求められる。   As shown in FIG. 6D, the ratio R between the necessary frame PFs and the unnecessary frame RFs is obtained by dividing the total value of E (j) from j = 1 to j = M by multiplying L by M. Then, the total value of E (j) from j = 1 to j = M is divided from the value.

図7は、操作表示端末3の制御手段がプログラムに従って各機能ブロックにより実行する視点送信表示処理の動作を示すフローチャートである。   FIG. 7 is a flowchart showing the operation of the viewpoint transmission display process executed by each functional block according to the program by the control means of the operation display terminal 3.

視点位置検出器11により視点移動を検出すると(ステップS1:Yes)、操作表示端末3は、視点切替部12、視点移動履歴部13、および視点切替速度算定部14を介して視点情報を通信装置15によって映像配信サーバ5へ送信する(ステップS2)。   When the viewpoint movement is detected by the viewpoint position detector 11 (step S1: Yes), the operation display terminal 3 transmits the viewpoint information to the communication device via the viewpoint switching unit 12, the viewpoint movement history unit 13, and the viewpoint switching speed calculation unit 14. 15 to the video distribution server 5 (step S2).

このとき送信する視点情報は、例えば現在の視点位置を示す座標(i,j)、および移動レベルkとすることができる。
また、操作表示端末3は、視点切替部12から多視点映像復号化部16にも視点情報を送信する。この送信は、表示する画像を定めるためのものである。
The viewpoint information transmitted at this time can be, for example, the coordinates (i, j) indicating the current viewpoint position and the movement level k.
The operation display terminal 3 also transmits the viewpoint information from the viewpoint switching unit 12 to the multi-view video decoding unit 16. This transmission is for determining an image to be displayed.

操作表示端末3は、映像配信サーバ5からグループ画像情報GGOPを受信すると(ステップS3:Yes)、RAM等の記憶部に一時記憶する(ステップS4)。   When receiving the group image information GGOP from the video distribution server 5 (step S3: Yes), the operation display terminal 3 temporarily stores it in a storage unit such as a RAM (step S4).

操作表示端末3は、次フレームを表示するタイミングであれば(ステップS5)、グループ画像情報GGOPのうち表示するフレーム画像を決定する(ステップS6)。この表示するフレーム画像は、直前の視点位置を示す座標(i,j)と、移動レベルkとによって定まる。   If it is the timing for displaying the next frame (step S5), the operation display terminal 3 determines a frame image to be displayed from the group image information GGOP (step S6). The frame image to be displayed is determined by the coordinates (i, j) indicating the immediately preceding viewpoint position and the movement level k.

すなわち、例えば図4(A)に示したようにk=1であれば、時刻が一つ先(図示右側)で視点方向(図示下方)に一つ移動した斜め方向のフレームのフレーム画像に決定する。図4(B)に示したようにk=2であれば、時刻が一つ先のフレームか、またはそのフレームから視点方向に一つ移動した斜め方向のフレームのフレーム画像に決定する。   That is, for example, as shown in FIG. 4A, if k = 1, the time is determined to be a frame image of an oblique frame that is moved one point in the view direction (downward in the figure) one time ahead (right side in the figure). To do. If k = 2 as shown in FIG. 4B, the frame time is determined to be the next frame, or the frame image of the frame in the oblique direction moved by one in the viewpoint direction from that frame.

このフレーム画像を表示するタイミングか否かは、時間経過とフレームレートfとに基づいて定めるなど、連続する画像を表示する適宜のタイミングに定めるとよい。   Whether or not it is the timing to display this frame image may be determined at an appropriate timing for displaying continuous images, for example, based on the passage of time and the frame rate f.

操作表示端末3は、ステップS6で表示対象に定めたフレーム画像を表示装置17に表示する。   The operation display terminal 3 displays the frame image determined as the display target in step S6 on the display device 17.

操作表示端末3は、不要なフレーム画像があればRAM等の一時記憶部から削除する(ステップS8)。この削除は、例えばグループ画像情報GGOP単位で実行し、表示しているフレームの位置が次のグループ画像情報GGOPに入れば、それまで使用していたグループ画像情報GGOPを削除するように実行すればよい。これにより、画面表示に必要で参照しなければならないフレーム画像(Iフレーム31、Bフレーム32、Pフレーム33)は残しておき、参照されなくなったフレーム画像を削除することができる。   If there is an unnecessary frame image, the operation display terminal 3 deletes it from the temporary storage unit such as a RAM (step S8). This deletion is executed in units of group image information GGOP, for example, and if the position of the frame being displayed enters the next group image information GGOP, the group image information GGOP used so far is deleted. Good. As a result, frame images (I frame 31, B frame 32, P frame 33) that are necessary for screen display and must be referred to remain, and frame images that are no longer referenced can be deleted.

ステップS5で次フレームを表示するタイミングでなければ(ステップS:No)、ステップS9に処理を進める。
操作表示端末3は、終了されなければ(ステップS9:No)、ステップS1に処理を戻して繰り返し、終了されれば(ステップS9:Yes)終了する。
If it is not time to display the next frame in step S5 (step S: No), the process proceeds to step S9.
If the operation display terminal 3 is not ended (step S9: No), the process returns to step S1 and is repeated. If the operation display terminal 3 is ended (step S9: Yes), the operation display terminal 3 ends.

図8は、映像配信サーバ5の制御手段がプログラムに従って各機能ブロックにより実行するグループ画像情報作成送信処理の動作を示すフローチャートである。
映像配信サーバ5は、操作表示端末3から視点情報を受信すると(ステップS11:Yes)、受信した視点情報をメモリ等に一時記憶する(ステップS12)。
FIG. 8 is a flowchart showing the operation of the group image information creation / transmission process executed by each functional block according to the program by the control means of the video distribution server 5.
When receiving the viewpoint information from the operation display terminal 3 (step S11: Yes), the video distribution server 5 temporarily stores the received viewpoint information in a memory or the like (step S12).

映像配信サーバ5は、所定条件か否かを判定する(ステップS13)。ここで、所定条件とは、新たな視点位置のグループ画像情報GGOPを送信するタイミングになったか否か判定できる条件とすることができる。   The video distribution server 5 determines whether or not a predetermined condition is satisfied (step S13). Here, the predetermined condition can be a condition for determining whether or not it is time to transmit the group image information GGOP at a new viewpoint position.

例えば、図3(A)に示した例であれば、1回目のグループ画像情報GGOPのフレームレートfが6で移動レベルkが2であり、2回目のグループ画像情報GGOPの頂点の位置は5フレーム目に位置する。フレーム43のタイミングで視点位置情報を取得した場合、この5フレーム目での視点位置を頂点42とする三角形の必要領域41bが定まる。そして、この必要領域41bから1回目の必要領域41aとの重複部分を除いた台形状の転送必要領域44が定まる。従って、現在表示中のフレーム画像が存在しているグループ画像情報GGOP(必要領域41若しくは転送必要領域44)において、表示しているフレーム画像が次の転送必要領域44が定まる次転送領域確定フレームにまで進んだタイミングを、次のグループ画像情報GGOPを送信するタイミング、すなわち所定条件とする。   For example, in the example shown in FIG. 3A, the frame rate f of the first group image information GGOP is 6, the movement level k is 2, and the vertex position of the second group image information GGOP is 5 Located in the frame. When the viewpoint position information is acquired at the timing of the frame 43, a triangular necessary area 41b having the vertex 42 as the viewpoint position in the fifth frame is determined. Then, a trapezoidal transfer required area 44 is determined by excluding an overlapping part from the required area 41b with the first required area 41a. Therefore, in the group image information GGOP (necessary area 41 or transfer required area 44) where the currently displayed frame image exists, the displayed frame image becomes the next transfer area determination frame in which the next transfer required area 44 is determined. Is the timing at which the next group image information GGOP is transmitted, that is, a predetermined condition.

映像配信サーバ5は、所定条件にならなければ(ステップS13:No)ステップS19へ処理を進め、所定条件になれば(ステップS13:Yes)、基準視点を決定する(ステップS14)。このとき決定する基準視点は、上述した次転送領域確定フレームのタイミングで表示するフレーム画像の座標(i,j)とするとよい。   If the predetermined condition is not satisfied (step S13: No), the video distribution server 5 proceeds to step S19. If the predetermined condition is satisfied (step S13: Yes), the video distribution server 5 determines the reference viewpoint (step S14). The reference viewpoint determined at this time may be the coordinates (i, j) of the frame image displayed at the timing of the next transfer area determination frame.

映像配信サーバ5は、決定した基準視点と、移動レベルk(最大視点切替速度)とに基づいて、三角形の必要領域41を決定する(ステップS15)。この必要領域41は、基準視点の座標(i,j)を頂点として時間の進行方向に末広がりな二等辺三角形をなし、この二等辺三角形の斜面の角度が移動レベルkによって定められているものである。   The video distribution server 5 determines the necessary triangular area 41 based on the determined reference viewpoint and the movement level k (maximum viewpoint switching speed) (step S15). The necessary area 41 is an isosceles triangle that spreads in the direction of time with the coordinates (i, j) of the reference viewpoint as the apex, and the angle of the slope of the isosceles triangle is determined by the movement level k. is there.

映像配信サーバ5は、この必要領域41と、現在のグループ画像情報GGOPの最終時点のフレーム位置(図3(A)の例では6フレーム目)に基づいて、重複部分を除いた台形状の転送必要領域44を決定する(ステップS16)。   The video distribution server 5 transfers the trapezoidal shape excluding the overlapping portion based on the necessary area 41 and the frame position at the final point of the current group image information GGOP (the sixth frame in the example of FIG. 3A). The necessary area 44 is determined (step S16).

映像配信サーバ5は、転送必要領域44のグループ画像情報GGOPを取得する(ステップS17)。このグループ画像情報GGOPは、台形状の転送必要領域44に含まれているフレーム画像の集合であり、Iフレーム31、Bフレーム32、およびPフレーム33が含まれている。   The video distribution server 5 acquires the group image information GGOP of the transfer required area 44 (step S17). The group image information GGOP is a set of frame images included in the trapezoidal transfer required area 44, and includes an I frame 31, a B frame 32, and a P frame 33.

このグループ画像情報GGOPの取得は、多視点映像入力装置24から取得した画像からその都度Iフレーム31、Bフレーム32、およびPフレーム33を求める構成とするとよい。このとき、三角形の必要領域41における斜辺に存在するBフレーム32、およびPフレーム33については、前後の参照を時間軸のまっすぐ前後ではなく、図2(C),(D)とともに説明したとおり斜辺に沿った前後とするようにしている。   The group image information GGOP may be acquired by obtaining the I frame 31, the B frame 32, and the P frame 33 from the image acquired from the multi-view video input device 24 each time. At this time, for the B frame 32 and the P frame 33 existing in the hypotenuse in the necessary area 41 of the triangle, the reference to the front and rear is not straight before and after the time axis, but the hypotenuse as described with reference to FIGS. It is going to be before and after along.

映像配信サーバ5は、生成したグループ画像情報GGOPを操作表示端末3に送信する(ステップS18)。   The video distribution server 5 transmits the generated group image information GGOP to the operation display terminal 3 (step S18).

映像配信サーバ5は、終了でなければ(ステップS19:No)、ステップS11に処理を戻し、終了であれば(ステップS19:Yes)、処理を終了する。   If the video distribution server 5 is not finished (step S19: No), the process returns to step S11, and if finished (step S19: Yes), the process is finished.

以上の構成および動作により、ユーザが任意に視点を変更すると、その視点の移動に追従して動画再生する画像の視点を変化させるリアリティの高い映像表示システムを提供することができる。   With the above configuration and operation, it is possible to provide a highly realistic video display system that changes the viewpoint of an image to be played back by moving the viewpoint when the user arbitrarily changes the viewpoint.

図9(A)の説明図に示すように、画像情報の転送の際、ユーザの視点位置40の視点移動の可能性がある範囲に限ってフレーム画像50をグループ化したグループ画像情報GGOP単位で行い、それ以外の領域に存在するフレーム画像を転送しないため、転送データ量を必要最小限にするとともに、操作表示端末3での視点移動に追従して視点の異なる画像を連続的に表示する動作をスムーズに実行することができる。すなわち、視点移動に伴って必要となり得る範囲のフレーム画像は全て操作表示端末3に転送されているため、スムーズな再生が可能となる。   As shown in the explanatory diagram of FIG. 9A, when image information is transferred, the group image information GGOP is obtained by grouping frame images 50 only within a range in which the viewpoint of the user's viewpoint 40 can be moved. The frame image existing in the other areas is not transferred, so that the amount of transfer data is minimized, and images with different viewpoints are continuously displayed following the movement of the viewpoint on the operation display terminal 3. Can be executed smoothly. That is, since all frame images in a range that may be necessary in accordance with the movement of the viewpoint are transferred to the operation display terminal 3, smooth playback is possible.

グループ画像情報GGOPの範囲を定める際に、頂点42の位置を前のグループ画像情報GGOPの範囲内に定めているため、表示するフレーム画像が途切れるということがなく、連続してグループ画像情報GGOPを送信することができる。   When determining the range of the group image information GGOP, since the position of the vertex 42 is determined within the range of the previous group image information GGOP, the frame image to be displayed is not interrupted, and the group image information GGOP is continuously displayed. Can be sent.

また、視点移動が行われていても、その移動後の視点位置に基づいてグループ画像情報GGOPの頂点42が定まるため、視点移動に追従するためのフレーム画像が存在しないということを防止できる。   Further, even if the viewpoint is moved, the vertex 42 of the group image information GGOP is determined based on the viewpoint position after the movement, so that it can be prevented that there is no frame image for following the viewpoint movement.

また、グループ画像情報GGOPの各フレーム画像は、隣接するカメラの映像情報からの差分圧縮を行ってBフレーム32やPフレーム33を用いて符号化することで、転送する際の全体のデータ容量を削減することができる。   In addition, each frame image of the group image information GGOP is subjected to differential compression from the video information of the adjacent camera and encoded using the B frame 32 or the P frame 33, so that the total data capacity when transferring is reduced. Can be reduced.

また、グループ画像情報GGOP内に1つはIフレーム31を存在させていることにより、GGOP間の再生途中でエラーが生じても当該Iフレーム31に基づいて表示映像を継続させることができる。   In addition, since one I frame 31 exists in the group image information GGOP, even if an error occurs during reproduction between GGOPs, the display video can be continued based on the I frame 31.

したがって、エラー後に不適切な画像が表示され続けることを防止でき、エラーの後も適宜自動的に次のGGOPで修正して適切な画像を継続表示していくことができる。   Accordingly, it is possible to prevent an inappropriate image from being continuously displayed after an error, and it is possible to automatically display an appropriate image continuously after the error by appropriately correcting it with the next GGOP.

なお、以上の実施形態では、複数台のカメラを横並びに設置しておき、ユーザが横方向に視点を移動可能にすることを想定しているが、これに限らず視点移動可能な適宜の構成とすることができる。   In the above embodiment, it is assumed that a plurality of cameras are installed side by side so that the user can move the viewpoint in the horizontal direction. It can be.

例えば、図9(B)に示すように、360度の全方位の映像情報を取得できる広角の全方位カメラでの広角撮影画像51を使用し、この撮影画像を画像加工して360度のパノラマ画像52とし、このパノラマ画像52のどの領域を表示するか視点移動によって任意に選択できるようにしてもよい。この場合、パノラマ画像52のうち、利用者が見たいと思う領域53を視点移動に伴って移動する構成にすればよい。   For example, as shown in FIG. 9B, a wide-angle captured image 51 with a wide-angle omnidirectional camera capable of acquiring 360-degree omnidirectional video information is used, and the captured image is processed to create a 360-degree panorama. The image 52 may be arbitrarily selected by moving the viewpoint to determine which area of the panoramic image 52 is displayed. In this case, the region 53 that the user wants to see in the panoramic image 52 may be configured to move in accordance with the viewpoint movement.

この場合でも、複数の領域53の画像を、複数台のカメラでそれぞれ撮影しているカメラ別画像のようにとらえ、視点移動に追従して表示する画像の視点を変更することができる。   Even in this case, it is possible to change the viewpoint of the image to be displayed following the movement of the viewpoint by capturing the images of the plurality of areas 53 as the images for each camera that are respectively captured by the plurality of cameras.

また、対象物の周囲を囲むように複数台のカメラを配置し、この各カメラからの映像を多視点映像として取得する構成にしてもよい。この場合、対象物の周りを移動するように視点移動して様々な角度から対象物を視認することができ、対象物の追尾を実施できる。   Further, a configuration may be adopted in which a plurality of cameras are arranged so as to surround the periphery of the object, and images from the respective cameras are acquired as multi-view images. In this case, the viewpoint can be moved so as to move around the object, the object can be viewed from various angles, and the object can be tracked.

また、視点移動の入力は、ユーザが歩く方向や顔を向ける方向を全方位カメラや通常のカメラ等で撮影して画像処理によって視点の方向と移動を検出する構成にする、利用者が体を右に寄せるか左に寄せるかによって右移動と左移動を切り替える構成にする、あるいはマウスやタッチパネルや方向キーといった適宜の入力手段により移動方向と移動速度を入力させるなど、適宜の方法によって実行することができる。   In addition, the input of the viewpoint movement is configured such that the user walks and faces the face with an omnidirectional camera or a normal camera and detects the direction and movement of the viewpoint by image processing. Execute by an appropriate method, such as switching between right and left movements depending on whether it moves to the right or left, or by inputting the moving direction and moving speed using appropriate input means such as a mouse, touch panel, or direction key. Can do.

これにより、人の視点位置(ビューポイント)をリアルタイムに検出し、そのビューポイントに最適な映像情報を送出して、リアルな間隔で詳細な3D映像をも再現することができる。   Accordingly, it is possible to detect a person's viewpoint position (viewpoint) in real time, transmit video information optimum for the viewpoint, and reproduce a detailed 3D video at realistic intervals.

また、上述した操作表示端末3と映像配信サーバ5の代わりに、図9(C)のブロック図に示すクライアント端末70とサーバ80を備える構成にしてもよい。
この場合、クライアント端末70は、視点検出装置71と、視点位置移動入力部72と、視点情報送信部73と、視点画像表示部75と、G視点画像受信部76と、視点画像表示装置79とで構成してもよい。この場合、視点検出装置71で視点を検出し、視点位置移動入力部72で視点の移動を入力し、視点情報送信部73でサーバ80に視点情報を送信すればよい。また、G視点画像受信部76で前記サーバ80からG視点画像情報を受信し、視点画像表示部75が、前記視点情報送信部73から受信した視点情報と前記G視点画像情報に基づいて視点画像表示装置79に視点画像を表示すればよい。
Further, instead of the operation display terminal 3 and the video distribution server 5 described above, a configuration including a client terminal 70 and a server 80 shown in the block diagram of FIG.
In this case, the client terminal 70 includes a viewpoint detection device 71, a viewpoint position movement input unit 72, a viewpoint information transmission unit 73, a viewpoint image display unit 75, a G viewpoint image reception unit 76, and a viewpoint image display device 79. You may comprise. In this case, the viewpoint detection device 71 may detect the viewpoint, the viewpoint position movement input unit 72 may input the viewpoint movement, and the viewpoint information transmission unit 73 may transmit the viewpoint information to the server 80. Further, the G viewpoint image receiving unit 76 receives the G viewpoint image information from the server 80, and the viewpoint image display unit 75 generates the viewpoint image based on the viewpoint information received from the viewpoint information transmitting unit 73 and the G viewpoint image information. The viewpoint image may be displayed on the display device 79.

また、サーバ80は、視点情報取得部81と、視点移動範囲決定部82と、画像情報取得部83と、G視点画像伝送部84とで構成してもよい。この場合、視点情報取得部81でクライアント端末70から視点情報を取得し、視点移動範囲決定部82で視点移動の可能性がある所定範囲を決定し、画像入力装置87から必要な画像情報を取得し、G視点画像伝送部84で前記所定範囲の画像情報をクライアント端末70に送信するとよい。
このように構成した場合でも、上述した実施例と同一の作用効果を奏することができる。
Further, the server 80 may include a viewpoint information acquisition unit 81, a viewpoint movement range determination unit 82, an image information acquisition unit 83, and a G viewpoint image transmission unit 84. In this case, the viewpoint information acquisition unit 81 acquires viewpoint information from the client terminal 70, the viewpoint movement range determination unit 82 determines a predetermined range where there is a possibility of viewpoint movement, and acquires necessary image information from the image input device 87. Then, the G viewpoint image transmission unit 84 may transmit the image information in the predetermined range to the client terminal 70.
Even when configured in this manner, the same operational effects as those of the above-described embodiments can be obtained.

この発明の構成と、上述の実施形態との対応において、
この発明の視点連動画像表示システムは、実施形態の移動視点映像表示システム1に対応し、
以下同様に、
クライアント端末は、操作表示端末3に対応し、
サーバおよびコンピュータは、映像配信サーバ5に対応し、
視点位置移動入力手段は、視点位置検出器11に対応し、
視点情報送信手段は、ステップS2を実行する通信装置15に対応し、
グループ視点画像受信手段は、ステップS3を実行する通信装置15に対応し、
視点画像表示手段は、表示装置17に対応し、
グループ視点画像伝送手段は、ステップS18を実行する配信制御部21に対応し、
視点情報取得手段は、ステップS11を実行する配信制御部21に対応し、
視点移動範囲決定手段は、ステップS14〜S16を実行する配信制御部21に対応し、
画像情報取得手段は、多視点映像入力装置24に対応し、
視点移動範囲は、必要領域41に対応し、
所定範囲は、転送必要領域44に対応し、
グループ視点画像は、グループ画像情報GGOPに対応し、
現在視点位置情報および視点位置は、座標(i,j)に対応し、
視点情報は、座標(i,j)および移動レベルkに対応し、
最大視点切替範囲情報は、許容する最大の視点切替時の移動レベルkに対応し、
時間範囲情報は、フレーム数に対応し、
所定時間単位は、6フレーム分の時間単位に対応し、
重複する部分は、必要領域41aと必要領域41bの重複部分に対応し、
視点の異なる複数の入力画像は、View1〜View11の撮影画像に対応し、
視点連動画像表示用プログラムは、ステップS11〜S19を実行するプログラムに対応し、
画像情報は、画像情報およびフレーム画像に対応するが、
この発明は、上述の実施形態の構成のみに限定されるものではなく、多くの実施の形態を得ることができる。
In correspondence between the configuration of the present invention and the above-described embodiment,
The viewpoint linked image display system of the present invention corresponds to the moving viewpoint video display system 1 of the embodiment,
Similarly,
The client terminal corresponds to the operation display terminal 3,
The server and the computer correspond to the video distribution server 5,
The viewpoint position movement input means corresponds to the viewpoint position detector 11,
The viewpoint information transmission means corresponds to the communication device 15 that executes step S2,
The group viewpoint image receiving means corresponds to the communication device 15 that executes step S3,
The viewpoint image display means corresponds to the display device 17,
The group viewpoint image transmission means corresponds to the distribution control unit 21 that executes step S18.
The viewpoint information acquisition unit corresponds to the distribution control unit 21 that executes step S11.
The viewpoint movement range determination means corresponds to the distribution control unit 21 that executes steps S14 to S16,
The image information acquisition means corresponds to the multi-view video input device 24,
The viewpoint movement range corresponds to the necessary area 41,
The predetermined range corresponds to the transfer required area 44,
The group viewpoint image corresponds to the group image information GGOP,
The current viewpoint position information and viewpoint position correspond to coordinates (i, j),
The viewpoint information corresponds to the coordinates (i, j) and the movement level k,
The maximum viewpoint switching range information corresponds to the movement level k at the maximum allowable viewpoint switching,
The time range information corresponds to the number of frames,
The predetermined time unit corresponds to a time unit of 6 frames,
The overlapping part corresponds to the overlapping part of the necessary area 41a and the necessary area 41b,
A plurality of input images with different viewpoints correspond to the captured images of View1 to View11,
The viewpoint linked image display program corresponds to the program that executes steps S11 to S19,
Image information corresponds to image information and frame images,
The present invention is not limited only to the configuration of the above-described embodiment, and many embodiments can be obtained.

この発明は、遠隔地から視点を移動させて対象物や対象風景等を動画で視認する様々なシステムに利用することができ、例えば、遠隔医療システム、3Dゲームシステム、映像監視システム、水族館や動物園などのバーチャル鑑賞システム等、適宜の用途に使用することができる。また、全体の超広域映像を録画したデータから、対象物を追尾するシステム(海上の全方位映像、航空写真からの対象物の映像を追尾するシステム)に応用することや、録画データのトラッキングを目的に再エンコーディングしてネットワーク越しで遠隔再生するシステムに応用することもできる。   The present invention can be used in various systems in which an object or a landscape is visually recognized by moving a viewpoint from a remote place, for example, a telemedicine system, a 3D game system, a video monitoring system, an aquarium or a zoo. It can be used for appropriate applications such as virtual appreciation systems. Also, it can be applied to a system that tracks the object from the data that records the entire ultra wide area video (system that tracks the image of the object from the omnidirectional image and aerial photograph at sea) and tracking of the recorded data. It can also be applied to a system that re-encodes for the purpose and plays back remotely over a network.

1…移動視点映像表示システム、3…操作表示端末、5…映像配信サーバ、11…視点位置検出器、15…通信装置、17…表示装置、21…配信制御部、24…多視点映像入力装置、40…視点位置、41,41a,41b…必要領域、44…転送必要領域、50…フレーム画像、GGOP…グループ画像情報、k…移動レベル DESCRIPTION OF SYMBOLS 1 ... Moving viewpoint video display system, 3 ... Operation display terminal, 5 ... Video distribution server, 11 ... View position detector, 15 ... Communication apparatus, 17 ... Display apparatus, 21 ... Distribution control part, 24 ... Multi-view video input apparatus 40 ... view point position, 41, 41a, 41b ... required area, 44 ... required area, 50 ... frame image, GGOP ... group image information, k ... movement level

Claims (6)

画像情報を取得する画像情報取得手段を有するサーバと、
前記サーバと通信可能なクライアント端末とを備え、
前記サーバは、
視点位置の情報である視点情報を取得する視点情報取得手段と、
前記視点位置の移動範囲を決定する視点移動範囲決定手段と、
前記視点移動範囲決定手段により決定した視点移動範囲に基づく所定範囲の各視点位置から観た各視点画像をグループ視点画像として伝送するグループ視点画像伝送手段とを備え、
前記クライアント端末は、
前記視点位置の移動入力を許容する視点位置移動入力手段と、
前記視点位置移動入力手段で入力された視点位置の視点情報を前記サーバへ送信する視点情報送信手段と、
前記グループ視点画像を前記サーバから受信するグループ視点画像受信手段と、
前記グループ視点画像に基づいて前記視点位置移動入力手段で入力された視点位置に対応する視点画像を表示する視点画像表示手段とを備えた
視点連動画像表示システム。
A server having image information acquisition means for acquiring image information;
A client terminal capable of communicating with the server,
The server
Viewpoint information acquisition means for acquiring viewpoint information which is information of the viewpoint position;
Viewpoint movement range determining means for determining a movement range of the viewpoint position;
Group viewpoint image transmission means for transmitting each viewpoint image viewed from each viewpoint position within a predetermined range based on the viewpoint movement range determined by the viewpoint movement range determination means, as a group viewpoint image,
The client terminal is
Viewpoint position movement input means for allowing movement input of the viewpoint position;
Viewpoint information transmission means for transmitting viewpoint information of the viewpoint position input by the viewpoint position movement input means to the server;
Group viewpoint image receiving means for receiving the group viewpoint image from the server;
A viewpoint linked image display system comprising viewpoint image display means for displaying a viewpoint image corresponding to the viewpoint position input by the viewpoint position movement input means based on the group viewpoint image.
前記所定範囲は、
現在の視点位置を示す現在視点位置情報と、
時刻の経過に伴って視点を切替可能な視点切替範囲を示す最大視点切替範囲情報と、
時刻経過に伴って画像の表示切替をしていく時間範囲情報とで定められる
請求項1記載の視点連動画像表示システム。
The predetermined range is
Current viewpoint position information indicating the current viewpoint position;
Maximum viewpoint switching range information indicating a viewpoint switching range in which viewpoints can be switched over time, and
The viewpoint-linked image display system according to claim 1, which is defined by time range information for switching display of an image as time passes.
前記所定範囲は、
前記現在の視点位置を基点にして時間進行に伴って範囲が広くなる末広がり形状の少なくとも末側の範囲である
請求項2記載の視点連動画像表示システム。
The predetermined range is
3. The viewpoint-linked image display system according to claim 2, wherein the range is a range at least on the end side of a divergent shape whose range becomes wider as time progresses with respect to the current viewpoint position.
前記所定範囲は、所定時間単位で複数定める構成であり、
前記グループ視点画像伝送手段は、
前回送信時の所定範囲と今回送信時の所定範囲に重複がある場合、重複する部分の視点画像を除いて送信する構成である
請求項1、2または3記載の視点連動画像表示システム。
The predetermined range is configured to determine a plurality of predetermined time units,
The group viewpoint image transmission means includes:
4. The viewpoint-linked image display system according to claim 1, 2 or 3, wherein when there is an overlap between a predetermined range at the previous transmission and a predetermined range at the current transmission, the overlapping portion of the viewpoint image is excluded.
前記サーバは、
前記画像情報取得手段により視点の異なる複数の入力画像を取得する構成であり、
前記各入力画像の間の視点での画像である間画像を前記入力画像に基づく演算により算出する間画像算出手段を備えた
請求項1から4のいずれか1つに記載の視点連動画像表示システム。
The server
The image information acquisition unit is configured to acquire a plurality of input images having different viewpoints,
5. The viewpoint-linked image display system according to claim 1, further comprising an inter-image calculation unit that calculates an inter-image that is an image at a viewpoint between the input images by an operation based on the input image. .
コンピュータを、
画像情報を取得する画像情報取得手段と、
視点位置の情報である視点情報を取得する視点情報取得手段と、
前記視点位置の移動範囲を決定する視点移動範囲決定手段と、
前記視点移動範囲決定手段により決定した視点移動範囲に基づく所定範囲の各視点位置から観た各視点画像をグループ視点画像として伝送するグループ視点画像伝送手段として機能させる
視点連動画像表示用プログラム。
Computer
Image information acquisition means for acquiring image information;
Viewpoint information acquisition means for acquiring viewpoint information which is information of the viewpoint position;
Viewpoint movement range determining means for determining a movement range of the viewpoint position;
A viewpoint linked image display program that functions as group viewpoint image transmission means for transmitting each viewpoint image viewed from each viewpoint position in a predetermined range based on the viewpoint movement range determined by the viewpoint movement range determination means as a group viewpoint image.
JP2010238701A 2010-10-25 2010-10-25 Image display system associating with view point Pending JP2012094990A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010238701A JP2012094990A (en) 2010-10-25 2010-10-25 Image display system associating with view point

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010238701A JP2012094990A (en) 2010-10-25 2010-10-25 Image display system associating with view point

Publications (1)

Publication Number Publication Date
JP2012094990A true JP2012094990A (en) 2012-05-17

Family

ID=46387889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010238701A Pending JP2012094990A (en) 2010-10-25 2010-10-25 Image display system associating with view point

Country Status (1)

Country Link
JP (1) JP2012094990A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101350915B1 (en) * 2013-06-27 2014-02-18 주식회사 넥스트이온 Multi-view video steaming system and providing method thereof
JP2014072608A (en) * 2012-09-28 2014-04-21 Brother Ind Ltd Information processing system, information processing device, display device, and program
WO2015012632A1 (en) * 2013-07-25 2015-01-29 주식회사 넥스트이온 Multi-view video streaming system and method for providing same
JP2015225529A (en) * 2014-05-28 2015-12-14 キヤノン株式会社 Information processing device, information processing method and program
JP2016010145A (en) * 2014-06-23 2016-01-18 パナソニックIpマネジメント株式会社 Video distribution method, video reception method, server, terminal device and video distribution system
JP2016507929A (en) * 2012-12-18 2016-03-10 クゥアルコム・インコーポレイテッドQualcomm Incorporated Real viewpoint video method and apparatus
JP2017532918A (en) * 2014-08-18 2017-11-02 ホー ジョング、グワン 360 degree spatial image reproduction method and system
JP2018506205A (en) * 2014-12-23 2018-03-01 ノキア テクノロジーズ オーユー Control virtual reality content
US10015551B2 (en) 2014-12-25 2018-07-03 Panasonic Intellectual Property Management Co., Ltd. Video delivery method for delivering videos captured from a plurality of viewpoints, video reception method, server, and terminal device
US10171794B2 (en) 2015-04-29 2019-01-01 Panasonic Intellectual Property Management Co., Ltd. Method for selecting cameras and image distribution system capable of appropriately selecting cameras
JP2019012533A (en) * 2018-08-08 2019-01-24 キヤノン株式会社 Information processing apparatus, information processing method, and program
US10271082B2 (en) 2014-04-14 2019-04-23 Panasonic Intellectual Property Management Co., Ltd. Video distribution method, video reception method, server, terminal apparatus, and video distribution system
JP2020524450A (en) * 2017-06-29 2020-08-13 4ディーリプレー コリア,インコーポレイテッド Transmission system for multi-channel video, control method thereof, multi-channel video reproduction method and device thereof
US11223821B2 (en) 2016-02-03 2022-01-11 Panasonic Intellectual Property Management Co., Ltd. Video display method and video display device including a selection of a viewpoint from a plurality of viewpoints
JP2022007619A (en) * 2020-06-26 2022-01-13 MasterVisions株式会社 Image distribution device and image generator and program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014072608A (en) * 2012-09-28 2014-04-21 Brother Ind Ltd Information processing system, information processing device, display device, and program
US10116911B2 (en) 2012-12-18 2018-10-30 Qualcomm Incorporated Realistic point of view video method and apparatus
JP2016507929A (en) * 2012-12-18 2016-03-10 クゥアルコム・インコーポレイテッドQualcomm Incorporated Real viewpoint video method and apparatus
KR101350915B1 (en) * 2013-06-27 2014-02-18 주식회사 넥스트이온 Multi-view video steaming system and providing method thereof
WO2015012632A1 (en) * 2013-07-25 2015-01-29 주식회사 넥스트이온 Multi-view video streaming system and method for providing same
US10271082B2 (en) 2014-04-14 2019-04-23 Panasonic Intellectual Property Management Co., Ltd. Video distribution method, video reception method, server, terminal apparatus, and video distribution system
JP2015225529A (en) * 2014-05-28 2015-12-14 キヤノン株式会社 Information processing device, information processing method and program
JP2016010145A (en) * 2014-06-23 2016-01-18 パナソニックIpマネジメント株式会社 Video distribution method, video reception method, server, terminal device and video distribution system
JP2017532918A (en) * 2014-08-18 2017-11-02 ホー ジョング、グワン 360 degree spatial image reproduction method and system
JP2018506205A (en) * 2014-12-23 2018-03-01 ノキア テクノロジーズ オーユー Control virtual reality content
US10015551B2 (en) 2014-12-25 2018-07-03 Panasonic Intellectual Property Management Co., Ltd. Video delivery method for delivering videos captured from a plurality of viewpoints, video reception method, server, and terminal device
US10701448B2 (en) 2014-12-25 2020-06-30 Panasonic Intellectual Property Management Co., Ltd. Video delivery method for delivering videos captured from a plurality of viewpoints, video reception method, server, and terminal device
US10171794B2 (en) 2015-04-29 2019-01-01 Panasonic Intellectual Property Management Co., Ltd. Method for selecting cameras and image distribution system capable of appropriately selecting cameras
US11223821B2 (en) 2016-02-03 2022-01-11 Panasonic Intellectual Property Management Co., Ltd. Video display method and video display device including a selection of a viewpoint from a plurality of viewpoints
JP2020524450A (en) * 2017-06-29 2020-08-13 4ディーリプレー コリア,インコーポレイテッド Transmission system for multi-channel video, control method thereof, multi-channel video reproduction method and device thereof
JP2019012533A (en) * 2018-08-08 2019-01-24 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2022007619A (en) * 2020-06-26 2022-01-13 MasterVisions株式会社 Image distribution device and image generator and program
JP7319228B2 (en) 2020-06-26 2023-08-01 MasterVisions株式会社 Image distribution device, image generation device and program

Similar Documents

Publication Publication Date Title
JP2012094990A (en) Image display system associating with view point
US10015527B1 (en) Panoramic video distribution and viewing
US11706403B2 (en) Positional zero latency
JP6410918B2 (en) System and method for use in playback of panoramic video content
EP2490179B1 (en) Method and apparatus for transmitting and receiving a panoramic video stream
US20170244894A1 (en) Method and Apparatus for Managing Latency of Remote Video Production
CN113170234B (en) Adaptive encoding and streaming method, system and storage medium for multi-directional video
US20210407169A1 (en) Apparatus and method of generating a representation of a virtual environment
US20170125064A1 (en) Method and Apparatus for Automatic Video Production
US20160198140A1 (en) System and method for preemptive and adaptive 360 degree immersive video streaming
US20200059675A1 (en) Image display method and image display apparatus
US10999583B2 (en) Scalability of multi-directional video streaming
TWI824016B (en) Apparatus and method for generating and rendering a video stream
US11282169B2 (en) Method and apparatus for processing and distributing live virtual reality content
JP6512575B2 (en) Method of distributing or broadcasting three-dimensional shape information
US10601889B1 (en) Broadcasting panoramic videos from one server to multiple endpoints
EP3742737A2 (en) Image acquisition system and method
JP2020524450A (en) Transmission system for multi-channel video, control method thereof, multi-channel video reproduction method and device thereof
KR20190019407A (en) Server, method and user device for providing time slice video
KR101922970B1 (en) Live streaming method for virtual reality contents and system thereof
CN114830674A (en) Transmitting apparatus and receiving apparatus
WO2022065040A1 (en) Information processing device, information processing method, and information processing system
KR20180059281A (en) User device and server for providing time slice video
JP4185013B2 (en) Moving image reception display method, moving image transmission method, moving image reception display device, moving image transmission device, moving image reception display program, moving image transmission program, and program recording medium thereof
JP2016065958A (en) Display control system, display control device, and program