JP2007195091A - Synthetic image generating system - Google Patents

Synthetic image generating system Download PDF

Info

Publication number
JP2007195091A
JP2007195091A JP2006013448A JP2006013448A JP2007195091A JP 2007195091 A JP2007195091 A JP 2007195091A JP 2006013448 A JP2006013448 A JP 2006013448A JP 2006013448 A JP2006013448 A JP 2006013448A JP 2007195091 A JP2007195091 A JP 2007195091A
Authority
JP
Japan
Prior art keywords
viewpoint position
line
information
virtual
generation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006013448A
Other languages
Japanese (ja)
Other versions
JP4671873B2 (en
Inventor
Kenichiro Yamamoto
健一郎 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2006013448A priority Critical patent/JP4671873B2/en
Publication of JP2007195091A publication Critical patent/JP2007195091A/en
Application granted granted Critical
Publication of JP4671873B2 publication Critical patent/JP4671873B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Abstract

<P>PROBLEM TO BE SOLVED: To enable to make setting so that a virtual camera cannot be located nor directed in the direction to which one does not want to direct a position to which one does not want the one to move a visual point, and line of sight at a content maker side. <P>SOLUTION: At a transmitting side, limiting/permission information of visual point position of the virtual camera or the direction of the line of sight are beforehand defined by a content maker. At a recipient side, the above-mentioned limiting/permission information are acquired with video data. A virtual camera position/direction decision unit 204 of the recipient side forms control information from intelligence on the visual point position/direction of the line of sight of the virtual camera input from an input device 206 and the acquired above-mentioned limiting/permission information, and sends to an arbitrary visual point image formation 203. The arbitrary visual point image formation 203 synthesizes the arbitrary visual point image, using received video data and camera parameter and control information sent from the virtual camera position/direction decision unit 204. The compound video image is output to a display unit 205. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、合成映像生成システムに関し、より詳細には、それぞれ異なる視点位置・視線方向に配置した多数のカメラによる映像情報から、実際にはカメラの存在しない視点位置・視線方向での映像、すなわち仮想カメラ位置・方向における映像を合成する合成映像生成システムに関する。   The present invention relates to a composite video generation system, and more specifically, from video information obtained by a large number of cameras arranged in different viewpoint positions and line-of-sight directions, in other words, videos in viewpoint positions and line-of-sight directions where no cameras actually exist, The present invention relates to a composite video generation system that synthesizes video at a virtual camera position and direction.

様々な研究機関・大学等で、任意視点映像生成技術が研究されている。これは、あるシーンを多数のカメラを用いて撮影し、その映像データを処理することで、カメラの存在しない地点に仮想カメラを置いた場合の映像を合成する技術である。例えば非特許文献1や非特許文献2のような技術がある。   Arbitrary viewpoint video generation technology is being researched by various research institutions and universities. This is a technique for synthesizing a video when a virtual camera is placed at a point where a camera does not exist by shooting a scene using a large number of cameras and processing the video data. For example, there are technologies such as Non-Patent Document 1 and Non-Patent Document 2.

任意視点映像生成システムの例を図9に示す。図9は、舞台1を複数台のカメラ2を用いて撮影している様子を模式的に示したものである。これらのカメラ2の映像から、実際にはカメラの存在しない仮想カメラ3の位置から撮影したかのような映像を生成するのが、任意視点映像生成技術である。   An example of the arbitrary viewpoint video generation system is shown in FIG. FIG. 9 schematically shows the stage 1 being photographed using a plurality of cameras 2. Arbitrary viewpoint video generation technology generates video from these video images of the camera 2 as if it were shot from the position of the virtual camera 3 where no camera actually exists.

この技術を用いれば、例えば利用者が仮想カメラ3の位置や方向を操作して、特定被写体をずっと追跡して映像を見ることが可能である。例えばスポーツ中継を例に取ると、自分のひいきの選手を常に追跡して見ることができる。また演劇やコンサートの中継に利用すれば、演技者や演奏者を自分の好きな方向から見ることができる。またドラマのようなコンテンツに利用することも可能である。
北原,佐藤,大田,“多眼ステレオ法を用いた運動視差の再現可能な3次元画像表示―表示画像の生成と評価―”,テレビジョン学会誌,Vol.50,No.9,(1996) プリム,藤井,谷本,“自由視点テレビのためのリアルタイムシステム”,信学技報,IE2002−120(2002)
By using this technique, for example, the user can operate the position and direction of the virtual camera 3 to track the specific subject and view the video. For example, taking sports broadcasts as an example, you can always track and watch your favorite players. In addition, if used for theatrical performances and concerts, you can see the performers and performers from their own direction. It can also be used for content such as dramas.
Kitahara, Sato, Ota, “3D image display with motion parallax reproducible using multi-eye stereo method-Generation and evaluation of display image-”, Television Society Journal, Vol. 50, no. 9, (1996) Primm, Fujii, Tanimoto, "Real-time system for free viewpoint television", IEICE Technical Report, IE2002-120 (2002)

このような任意視点映像システムの場合、コンテンツの提供者側としては、視点を移動して欲しくない位置や、視線を向けて欲しくない方向があることが考えられる。例えば、演劇の中継において、舞台セットの裏側まで見えてしまうような視点位置には移動して欲しくないという場合が考えられる。あるいは、ドラマのようなコンテンツにおいて、撮影側の機材やスタッフが映るような方向には視線を向けて欲しくないと思われる。   In the case of such an arbitrary viewpoint video system, the content provider side may have a position where the viewpoint is not desired to move or a direction where the viewpoint is not desired to be directed. For example, there may be a case where it is not desired to move to a viewpoint position that can be seen up to the back of the stage set in a live broadcast. Or, in content such as dramas, you don't want the line of sight to look in the direction of the equipment and staff on the shooting side.

また、カメラの配置の関係から、任意視点映像を生成できない、あるいはエラーの多い映像しか生成できなくなるような視点位置や視線方向が存在し得る。例えば、視点を被写体に近づけすぎるとカメラ映像の解像度が足りなくなり、ぼけた映像しか生成できなくなる。あるいは、視点が地面の下にもぐってしまうような場合は本来映像を生成できない。あるいは、どのカメラからも撮影されておらず映像合成が不可能な視線方向もあり得る。このような場合には、最初からある距離以下には視点を近付けることができないように制限する、あるいは視点位置を地面の下に移動できないように制限する、あるいは視線方向を制限することが望ましい。   In addition, there may be a viewpoint position and a line-of-sight direction in which an arbitrary viewpoint video cannot be generated or only an error-prone video can be generated due to the camera arrangement. For example, if the viewpoint is too close to the subject, the resolution of the camera video becomes insufficient, and only a blurred video can be generated. Or, if the viewpoint goes under the ground, the video cannot be generated. Alternatively, there may be a line-of-sight direction that is not taken from any camera and cannot be combined. In such a case, it is desirable to restrict the viewpoint from being close to a certain distance from the beginning, or restrict the viewpoint position so that it cannot move below the ground, or restrict the line-of-sight direction.

本発明は、上述のごとき実情に鑑みてなされたもので、任意視点映像システムにおいてコンテンツの提供者側で、予め視点を移動できない領域、および視線を向けられない方向を設定できるようにすること、あるいは逆に視点を移動してもよい領域、および視線を向けてもよい方向を設定できるようにすることを課題とする。   The present invention has been made in view of the circumstances as described above, and allows a content provider in an arbitrary viewpoint video system to set an area in which the viewpoint cannot be moved in advance and a direction in which the line of sight cannot be directed, Or it makes it a subject to enable it to set the area | region which may move a viewpoint conversely, and the direction which may turn a line of sight.

前記課題を解決するための本発明の第1の手段は、複数の異なる視点位置および視線方向からの映像を合成して任意の仮想的な視点位置および視線方向での映像を合成する合成映像生成システムにおいて、映像を合成する際の仮想的な視点位置に対する制限情報を、映像データに付加して伝送および記録することを特徴としたものである。   The first means of the present invention for solving the above-mentioned problem is to generate a synthesized video that synthesizes videos from a plurality of different viewpoint positions and line-of-sight directions and synthesizes videos at arbitrary virtual viewpoint positions and line-of-sight directions. The system is characterized in that the restriction information for the virtual viewpoint position when compositing the video is added to the video data and transmitted and recorded.

第2の技術手段は、第1の技術手段において、映像を合成する際の仮想的な視点位置に対する許可情報を、映像データに付加して伝送および記録することを特徴としたものである。   The second technical means is characterized in that, in the first technical means, permission information for a virtual viewpoint position when the video is synthesized is added to the video data and transmitted and recorded.

第3の技術手段は、第1または第2の技術手段において、映像を合成する際の仮想的な視線方向に対する制限情報を、映像データに付加して伝送および記録することを特徴としたものである。   The third technical means is characterized in that, in the first or second technical means, restriction information for a virtual line-of-sight direction when compositing video is added to video data and transmitted and recorded. is there.

第4の技術手段は、第1ないし第3のいずれか1の技術手段において、映像を合成する際の仮想的な視線方向に対する許可情報を、映像データに付加して伝送および記録することを特徴としたものである。   According to a fourth technical means, in any one of the first to third technical means, permission information for a virtual line-of-sight direction when compositing a video is added to video data and transmitted and recorded. It is what.

第5の技術手段は、第1ないし第4のいずれか1の技術手段において、仮想的な視点位置に対する制限情報、仮想的な視点位置に対する許可情報、仮想的な視線方向に対する制限情報、および仮想的な視線方向に対する許可情報のいずれかまたは複数を、平面を表す数式によって指定することを特徴としたものである。   The fifth technical means is any one of the first to fourth technical means, wherein the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual gaze direction, and the virtual One or a plurality of pieces of permission information for a specific line-of-sight direction is designated by a mathematical expression representing a plane.

第6の技術手段は、第1ないし第4のいずれか1の技術手段において、仮想的な視点位置に対する制限情報、仮想的な視点位置に対する許可情報、仮想的な視線方向に対する制限情報、および仮想的な視線方向に対する許可情報のいずれかまたは複数を、球面を表す数式によって指定することを特徴としたものである。   The sixth technical means is any one of the first to fourth technical means, wherein the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual line-of-sight direction, and the virtual One or a plurality of pieces of permission information for a specific line-of-sight direction is designated by a mathematical expression representing a spherical surface.

第7の技術手段は、第5または第6の技術手段において、仮想的な視点位置に対する制限情報、仮想的な視点位置に対する許可情報、仮想的な視線方向に対する制限情報、および仮想的な視線方向に対する許可情報のいずれかまたは複数は、平面または球面を表す数式によって指定された一つ以上の制限情報の論理積または論理和、または平面または球面を表す数式で指定された一つ以上の許可情報の論理積または論理和によって指定することを特徴としたものである。   The seventh technical means is the fifth or sixth technical means, wherein the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual viewing direction, and the virtual viewing direction One or more of the permission information for is an AND or logical sum of one or more pieces of restriction information specified by a mathematical expression representing a plane or a sphere, or one or more permission information specified by a mathematical expression representing a plane or a sphere It is characterized by being specified by the logical product or logical sum of.

第8の技術手段は、第1ないし第7のいずれか1の技術手段において、仮想的な視点位置に対する制限情報、仮想的な視点位置に対する許可情報、仮想的な視線方向に対する制限情報、および仮想的な視線方向に対する許可情報のいずれかまたは複数のフレームレートは、映像データのフレームレートと同一であることを特徴としたものである。   In an eighth technical means, in any one of the first to seventh technical means, restriction information for a virtual viewpoint position, permission information for a virtual viewpoint position, restriction information for a virtual gaze direction, and virtual One or a plurality of frame rates of the permission information for a specific line-of-sight direction is the same as the frame rate of the video data.

第9の技術手段は、第1ないし第7のいずれか1の技術手段において、仮想的な視点位置に対する制限情報、仮想的な視点位置に対する許可情報、仮想的な視線方向に対する制限情報、および仮想的な視線方向に対する許可情報のいずれかまたは複数のフレームレートは、映像データのフレームレートと異なることを特徴としたものである。   The ninth technical means is any one of the first to seventh technical means, wherein the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual line-of-sight direction, and the virtual One or a plurality of frame rates of permission information for a specific line-of-sight direction is different from the frame rate of video data.

第10の技術手段は、第1ないし第9のいずれか1の技術手段において、映像を合成する際の仮想的な視点位置および視線方向について、予め定めた標準的な視点位置・視線方向の情報を、映像データに付加して伝送および記録することを特徴としたものである。   According to a tenth technical means, in any one of the first to ninth technical means, information on a predetermined standard viewpoint position / line-of-sight direction with respect to a virtual viewpoint position and line-of-sight direction when the video is synthesized Is added to video data and transmitted and recorded.

第11の技術手段は、第10の技術手段において、標準的な視点位置・視線方向の情報のフレームレートは、映像データのフレームレートと同一であることを特徴としたものである。   The eleventh technical means is characterized in that, in the tenth technical means, the frame rate of the standard viewpoint position / gaze direction information is the same as the frame rate of the video data.

第12の技術手段は、第10の技術手段において、標準的な視点位置・視線方向の情報のフレームレートは、映像データのフレームレートと異なることを特徴としたものである。   The twelfth technical means is characterized in that, in the tenth technical means, the frame rate of the standard viewpoint position / gaze direction information is different from the frame rate of the video data.

第13の技術手段は、第1ないし第12のいずれか1の技術手段において、データの受信側または再生側において入力装置を有し、入力装置によって仮想的な視点位置・視線方向の入力を受け付けることを特徴としたものである。   A thirteenth technical means is the first technical means according to any one of the first to twelfth technical means, which has an input device on the data reception side or reproduction side, and receives an input of a virtual viewpoint position and line-of-sight direction by the input device. It is characterized by that.

第14の技術手段は、第13の技術手段において、入力装置によって入力された仮想的な視点位置・視線方向に従って映像を合成することを特徴としたものである。   The fourteenth technical means is characterized in that in the thirteenth technical means, the video is synthesized in accordance with the virtual viewpoint position and line-of-sight direction input by the input device.

第15の技術手段は、第14の技術手段において、入力装置によって入力された仮想的な視点位置・視線方向を、映像データに付加された制限情報および/または許可情報に従って判定および処理し、制限情報に合致するか、または許可情報に合致しない視点位置および視線方向における画像は生成しないように制御することを特徴としたものである。   In a fourteenth technical means, a fifteenth technical means determines and processes the virtual viewpoint position and line-of-sight direction input by the input device according to the restriction information and / or permission information added to the video data. Control is performed so as not to generate an image at the viewpoint position and the line-of-sight direction that matches the information or does not match the permission information.

第16の技術手段は、第13ないし第15のいずれか1の技術手段において、入力装置は、フォースフィードバック機構を持つことを特徴としたものである。   The sixteenth technical means is any one of the thirteenth to fifteenth technical means, wherein the input device has a force feedback mechanism.

第17の技術手段は、第16の技術手段において、入力装置によって入力された仮想的な視点位置・視線方向が、映像データに付加された制限情報に合致した場合、または映像データに付加された許可情報に合致しなかった場合は、フォースフィードバック機構に制御信号を送り物理的な刺激を利用者に与えるよう制御することを特徴としたものである。   The seventeenth technical means is the sixteenth technical means, in which the virtual viewpoint position / gaze direction input by the input device matches the restriction information added to the video data, or added to the video data. When the information does not match the permission information, a control signal is sent to the force feedback mechanism to control the user to give a physical stimulus.

第18の技術手段は、第13ないし第17のいずれか1の技術手段において、切り替えスイッチを備え、入力装置によって入力された仮想的な視点位置・視線方向に従って映像を合成するか、標準的な視点位置・視線方向の情報に従って映像を合成するかを切り替えスイッチで切り替えることが可能であることを特徴としたものである。   An eighteenth technical means includes a changeover switch according to any one of the thirteenth to seventeenth technical means, and synthesizes an image according to a virtual viewpoint position / line-of-sight direction input by an input device, or a standard It is characterized in that it is possible to switch with a changeover switch whether to synthesize a video according to information on a viewpoint position and a line-of-sight direction.

第19の技術手段は、第13ないし第18のいずれか1の技術手段において、入力装置による仮想的な視点位置・視線方向の入力が一定時間行われなかった場合に、標準的な視点位置・視線方向の情報に従って映像を合成するよう自動的に切り替えることを特徴としたものである。   In a nineteenth technical means according to any one of the thirteenth to eighteenth technical means, when the input of the virtual viewpoint position / gaze direction by the input device is not performed for a certain period of time, the standard viewpoint position / It is characterized in that it is automatically switched to synthesize a video according to the information on the line of sight.

第20の技術手段は、第13ないし第19のいずれか1の技術手段において、標準的な視点位置・視線方向の情報に従って映像を合成している際に、入力装置による仮想的な視点位置・視線方向の入力が行われた場合に、入力された仮想的な視点位置・視線方向に従って映像を合成するよう自動的に切り替えることを特徴としたものである。   In a twentieth technical means, in any one of the thirteenth to nineteenth technical means, when the video is synthesized in accordance with the information of the standard viewpoint position / gaze direction, the virtual viewpoint position / When the line-of-sight direction is input, the video is automatically switched to synthesize the video according to the input virtual viewpoint position and line-of-sight direction.

第21の技術手段は、第13ないし第20のいずれか1の技術手段において、入力装置によって入力された仮想的な視点位置・視線方向を、映像データに付加された制限情報および/または許可情報に従って判定および処理し、仮想的な視点位置・視線方向が制限情報に合致する場合、または許可情報に合致しない場合には、入力装置によって入力された仮想的な視点位置・視線方向を用いず、標準的な視点位置・視線方向の情報を用いて画像を生成することを特徴としたものである。   In a twenty-first technical means, in any one of the thirteenth to twentieth technical means, the virtual viewpoint position / line-of-sight direction input by the input device is used as the restriction information and / or permission information added to the video data. If the virtual viewpoint position / gaze direction matches the restriction information or does not match the permission information, the virtual viewpoint position / gaze direction input by the input device is not used. An image is generated using information on a standard viewpoint position and line-of-sight direction.

本発明によれば、任意視点映像システムにおいてコンテンツの提供者側で、予め視点を移動できない領域、および視線を向けられない方向を設定できるようにすることができ、また逆に視点を移動してもよい領域、および視線を向けてもよい方向を設定できるようにすることができる。
また、予め定めた標準的な視点位置・視線方向の情報を映像データに付加することで、利用者が入力した視点位置・視線方向が適切ではない場合に、その代わりに標準的な視点位置・視線方向の情報を用いて任意視点映像を合成することができる。さらに、利用者による視点位置・視線方向の入力が無い場合にも、標準的な視点位置・視線方向の情報を用いて任意視点映像を合成することができる。
また、視点位置・視線方向の入力装置を持ちこれにフォースフィードバック機構を付加することで、利用者が入力した視点位置・視線方向が適切ではない場合に、利用者に物理的な刺激を与えることでそれを知らせることができる。
According to the present invention, in the arbitrary viewpoint video system, it is possible to set a region in which the viewpoint cannot be moved and a direction in which the line of sight cannot be directed in advance on the content provider side. It is possible to set a good region and a direction in which the line of sight may be directed.
In addition, by adding information on the predetermined standard viewpoint position / gaze direction to the video data, if the viewpoint position / gaze direction input by the user is not appropriate, instead of the standard viewpoint position / gaze direction, Arbitrary viewpoint video can be synthesized using information on the line of sight. Further, even when there is no input of the viewpoint position / gaze direction by the user, it is possible to synthesize an arbitrary viewpoint video using standard viewpoint position / gaze direction information.
Also, by having a viewpoint position / line-of-sight input device and adding a force feedback mechanism to this, when the viewpoint position / line-of-sight input by the user is not appropriate, the user is physically stimulated You can let it know.

<第1の実施例>
本発明の第1の実施例を以下に説明する。第1の実施例は、テレビ放送に本特許を適用する場合の適用例を示すものである。
図1は、本発明の合成映像生成システムの第1の実施例を説明する図で、合成映像システムの放送局側システムのブロック図を示すものである。放送局側のシステムは、カメラ101、カメラパラメータ記録部102、仮想カメラ位置・方向の制限・許可情報記録部103、データ多重化処理部104、および送信部105を有している。
<First embodiment>
A first embodiment of the present invention will be described below. The first embodiment shows an application example when this patent is applied to television broadcasting.
FIG. 1 is a diagram for explaining a first embodiment of a composite video generation system of the present invention, and shows a block diagram of a broadcasting station side system of the composite video system. The system on the broadcasting station side includes a camera 101, a camera parameter recording unit 102, a virtual camera position / direction restriction / permission information recording unit 103, a data multiplexing processing unit 104, and a transmission unit 105.

カメラ101は、被写体の周囲に一つ以上配置し、被写体を一つないし複数の視点位置・方向から撮影した映像データを得るものである。
カメラパラメータ記録部102は、カメラパラメータを保持しておく部分である。カメラパラメータには、各カメラの焦点距離やレンズの歪みの情報などのいわゆる内部パラメータと、カメラ間の相対的な位置関係を表す外部パラメータがある。これらのカメラパラメータは、任意視点映像を合成する段階で必要となる。
One or more cameras 101 are arranged around the subject to obtain video data obtained by photographing the subject from one or more viewpoint positions and directions.
The camera parameter recording unit 102 is a part that holds camera parameters. The camera parameters include so-called internal parameters such as the focal length of each camera and lens distortion information, and external parameters representing the relative positional relationship between the cameras. These camera parameters are required at the stage of synthesizing an arbitrary viewpoint video.

仮想カメラ位置・方向の制限・許可情報記録部103は、仮想カメラの視点位置や視線方向の制限・許可情報を記録しておく部分である。これらの情報は、あらかじめコンテンツ製作者によって定められ、記録されているものとする。なお、この仮想カメラの視点位置や視線方向の制限・許可情報は、映像データのフレームレートと同一のフレームレートのデータであってもよいし、異なるフレームレートのデータであってもよい。例えば、仮想カメラの視点位置や視線方向の制限・許可情報が複数フレームに渡って同一である場合は、その間データを送らずに済ましてもよい。   The virtual camera position / direction restriction / permission information recording unit 103 is a part for recording the virtual camera viewpoint position and line-of-sight direction restriction / permission information. These pieces of information are preliminarily determined and recorded by the content producer. The restriction / permission information regarding the viewpoint position and the line-of-sight direction of the virtual camera may be data having the same frame rate as the frame rate of the video data, or may be data having a different frame rate. For example, when the restriction position / permission information of the viewpoint position and the line-of-sight direction of the virtual camera is the same over a plurality of frames, the data may not be sent during that time.

データ多重化処理部104は、カメラ101で撮影された映像データ、およびカメラパラメータ記録部102に記録されているカメラパラメータ、および仮想カメラ位置・方向の制限・許可情報記録部103に記録されている仮想カメラの視点位置や視線方向の制限・許可情報を多重化して、多重化ストリームを生成する。
送信部105は、放送電波にこの多重化ストリームを乗せる。
なお、この処理はあくまで一例である。この他にも、カメラ101からの映像を圧縮してから多重化する方法や、各データを多重化しないで複数のストリームの形のまま送信する方法も考えられる。
The data multiplexing processing unit 104 is recorded in the video data captured by the camera 101, the camera parameters recorded in the camera parameter recording unit 102, and the virtual camera position / direction restriction / permission information recording unit 103. The multiplexed stream is generated by multiplexing the restriction / permission information of the viewpoint position and line-of-sight direction of the virtual camera.
The transmission unit 105 places the multiplexed stream on the broadcast radio wave.
This process is merely an example. In addition to this, a method of compressing and multiplexing the video from the camera 101, and a method of transmitting each data in the form of a plurality of streams without multiplexing each data are also conceivable.

図2は、仮想カメラの視点位置の制限・許可情報の記述方法の一例を説明する図である。図2に示したように各辺がx1、y1、z1の長さである直方体111を考える。   FIG. 2 is a diagram for explaining an example of a description method of restriction / permission information of the viewpoint position of the virtual camera. Consider a rectangular parallelepiped 111 having sides of x1, y1, and z1 as shown in FIG.

まず、仮想カメラの視点位置の制限の条件として、直方体111の内部を禁止領域とする。すなわち、直方体111の内部には仮想カメラが入れないものとする。
直方体111の6つの平面は、以下の6つの数式で記述される。
First, as a condition for limiting the viewpoint position of the virtual camera, the inside of the rectangular parallelepiped 111 is set as a prohibited area. That is, it is assumed that no virtual camera can be placed inside the rectangular parallelepiped 111.
The six planes of the rectangular parallelepiped 111 are described by the following six mathematical expressions.

x=0 (1)
x=x1 (2)
y=0 (3)
y=y1 (4)
z=0 (5)
z=z1 (6)
で得る。
x = 0 (1)
x = x1 (2)
y = 0 (3)
y = y1 (4)
z = 0 (5)
z = z1 (6)
Get in.

ここから、直方体111の内部領域は、以下の6つの不等式の論理積で記述できる。
x>0 (7)
x<x1 (8)
y>0 (9)
y<y1 (10)
z>0 (11)
z<z1 (12)
From here, the inner region of the rectangular parallelepiped 111 can be described by the logical product of the following six inequalities.
x> 0 (7)
x <x1 (8)
y> 0 (9)
y <y1 (10)
z> 0 (11)
z <z1 (12)

ある点の座標がこれら6個の不等式全てに当てはまる場合は、その点は直方体111の内部領域にある。また一つでも当てはまらない場合は、その点は直方体111の外部領域にある。
例えば、(x1,y1,z1)=(1,1,1)とするとき、座標が(x,y,z)=(0.5,0.5,0.5)という点は、式(7)ないし式(12)の全ての不等式に合致するため、直方体111の内部領域に位置することがわかる。このため、この点には仮想カメラの視点位置は移動できない。また例えば、座標が(x,y,z)=(1.5,0.5,0.5)という点は、式(8)には当てはまらないため、直方体111の外部領域に位置することがわかる。このため、この点には仮想カメラの視点位置は移動可能である。
If the coordinates of a point apply to all six inequalities, the point is in the inner region of the cuboid 111. If even one of them does not apply, the point is in the outer region of the rectangular parallelepiped 111.
For example, when (x1, y1, z1) = (1, 1, 1), the coordinates are (x, y, z) = (0.5, 0.5, 0.5). 7) thru | or all the inequalities of Formula (12), and it turns out that it is located in the internal region of the rectangular parallelepiped 111. For this reason, the viewpoint position of the virtual camera cannot move to this point. Further, for example, the point of coordinates (x, y, z) = (1.5, 0.5, 0.5) does not apply to the equation (8), and therefore may be located in the external region of the rectangular parallelepiped 111. Recognize. For this reason, the viewpoint position of the virtual camera is movable at this point.

また、直方体111の外部領域は、以下の6つの不等式の論理和で記述できる。
x<0 (13)
x>x1 (14)
y<0 (15)
y>y1 (16)
z<0 (17)
z>z1 (18)
Further, the outer region of the rectangular parallelepiped 111 can be described by the logical sum of the following six inequalities.
x <0 (13)
x> x1 (14)
y <0 (15)
y> y1 (16)
z <0 (17)
z> z1 (18)

ある点の座標がこれら6個の不等式の一つにでも当てはまる場合は、その点は直方体111の外部領域にある。また全てに当てはまらない場合は、その点は直方体111の内部領域にある。   If the coordinates of a point apply to one of these six inequalities, the point is in the outer region of the cuboid 111. If not all of them, the point is in the inner region of the rectangular parallelepiped 111.

例えば、座標が(x,y,z)=(1.5,0.5,0.5)という点は、少なくとも式(14)に当てはまるため、直方体111の外部領域に位置することがわかる。このため、この点には仮想カメラの視点位置は移動可能である。
また例えば、座標が(x,y,z)=(0.5,0.5,0.5)という点は、式(13)ないし式(18)の全ての不等式に当てはまらないため、直方体111の内部領域に位置することがわかる。このため、この点には仮想カメラの視点位置は移動できない。
For example, it can be seen that the coordinates (x, y, z) = (1.5, 0.5, 0.5) are located in the external region of the rectangular parallelepiped 111 because at least the expression (14) applies. For this reason, the viewpoint position of the virtual camera is movable at this point.
Further, for example, the point that the coordinates are (x, y, z) = (0.5, 0.5, 0.5) does not apply to all the inequalities of the equations (13) to (18), and thus the rectangular parallelepiped 111 It can be seen that it is located in the inner region. For this reason, the viewpoint position of the virtual camera cannot move to this point.

このように、一つ以上の平面の組み合わせで表現できる領域は、平面を記述する不等式とその論理積あるいは論理和で定義することができる。また、ある点がどの領域に属しているかをそれらの定義から判定することができる。   Thus, an area that can be expressed by a combination of one or more planes can be defined by an inequality that describes the plane and its logical product or logical sum. In addition, it is possible to determine which region a point belongs to from their definition.

同様の方法で、直方体111の外部を制限領域とする、すなわち直方体111の内部でしか仮想カメラの視点位置が動けない、とすることも可能である。さらに、同様の方法で、直方体111の内部を許可領域とする、すなわち直方体111の内部でしか仮想カメラの視点位置が動けない、とすることも可能である。またさらに、同様の方法で、直方体111の外部を許可領域とする、すなわち直方体111の外部でしか仮想カメラの視点位置が動けない、とすることも可能である。
上記の例のように、仮想カメラの位置の制限・許可情報を記述し、判定することが実現可能である。
In the same way, it is possible to use the outside of the rectangular parallelepiped 111 as a restricted area, that is, the viewpoint position of the virtual camera can move only inside the rectangular parallelepiped 111. Furthermore, in the same way, it is possible to set the inside of the rectangular parallelepiped 111 as a permission region, that is, the viewpoint position of the virtual camera can move only within the rectangular parallelepiped 111. Furthermore, in the same way, it is also possible to set the outside of the rectangular parallelepiped 111 as a permitted area, that is, the viewpoint position of the virtual camera can move only outside the rectangular parallelepiped 111.
As in the above example, it is possible to describe and determine virtual camera position restriction / permission information.

なお、以上では簡単のため、x<0のように記述が単純な平面を例とした。平面は一般にax+by+cz=1と記述できる。このような一般的な記述による平面の式を用いても、上記と同様のことが実現可能である。
また、この他にも、例えば球面のように数式で記述できる曲面により領域を定義する方法や、1つ以上のポリゴンによって領域を定義する方法も考えられる。本発明ではこれら全ての方法を、仮想カメラの視点位置の制限・許可情報の記述方法として用いることが可能である。
またさらに、上記の領域記述方法は一例であり、その他の領域記述方法を用いた場合にも本発明を適用できる。
In the above, for simplicity, an example where the plane is simple such as x <0 is taken as an example. A plane can generally be described as ax + by + cz = 1. The same thing as above can be realized by using a plane expression based on such a general description.
In addition, a method of defining a region by a curved surface that can be described by a mathematical expression such as a spherical surface, or a method of defining a region by one or more polygons is also conceivable. In the present invention, all of these methods can be used as the description method of the restriction / permission information of the viewpoint position of the virtual camera.
Furthermore, the above-described area description method is an example, and the present invention can be applied to cases where other area description methods are used.

次に、仮想カメラの視線方向の制限・許可情報の記述方法の一例を説明する。まずカメラの模式図を図3に示す。図3は、カメラ本体121にレンズ122が取り付けられている様子を示している。また、撮像面の中心とレンズの中心を通って被写体へと向かう方向を、カメラの視線方向123としている。   Next, an example of a description method of restriction / permission information on the viewing direction of the virtual camera will be described. First, a schematic diagram of the camera is shown in FIG. FIG. 3 shows a state where the lens 122 is attached to the camera body 121. Further, a direction toward the subject through the center of the imaging surface and the center of the lens is set as a camera viewing direction 123.

図4は、仮想カメラの視線方向の制限・許可情報の記述方法の一例を説明する図である。図4に示したように、中心が(x2,y2,z2)で半径がRの球112を考える。
まず、仮想カメラの視線方向の制限の条件として、カメラの視線方向123が成す直線が球112の内部のいずれかの領域を通過するような視線方向を禁止する場合を考える。
FIG. 4 is a diagram for explaining an example of a description method of restriction / permission information on the viewing direction of the virtual camera. As shown in FIG. 4, consider a sphere 112 whose center is (x2, y2, z2) and whose radius is R.
First, as a condition for limiting the viewing direction of the virtual camera, consider a case where a viewing direction in which a straight line formed by the viewing direction 123 of the camera passes through any region inside the sphere 112 is prohibited.

この場合、カメラの視線方向123の直線と、球112の中心との距離を算出し、その距離と半径Rを比較すればよい。距離が半径Rより小さければ、カメラの視線方向123は球112の内部の領域を通過する。また距離が半径Rより大きければ、カメラの視線方向123は球112の内部の領域を通過しない。
よって、カメラの視線方向123が成す直線と球112の中心との距離が半径Rより小さくなるような視線方向は禁止される。なお、この制限の条件は、カメラの視線方向123が成す直線が球112の内部のいずれの領域も通過しないような視線方向を許可する条件と等しい。
In this case, the distance between the straight line in the line-of-sight direction 123 of the camera and the center of the sphere 112 is calculated, and the distance is compared with the radius R. If the distance is smaller than the radius R, the viewing direction 123 of the camera passes through the area inside the sphere 112. If the distance is larger than the radius R, the camera viewing direction 123 does not pass through the area inside the sphere 112.
Therefore, a viewing direction in which the distance between the straight line formed by the viewing direction 123 of the camera and the center of the sphere 112 is smaller than the radius R is prohibited. Note that this restriction condition is the same as a condition that permits a line-of-sight direction in which a straight line formed by the line-of-sight direction 123 of the camera does not pass through any region inside the sphere 112.

逆に、カメラの視線方向123が成す直線が球112の内部のいずれかの領域を通過するような方向を許可する場合は、カメラの視線方向123が成す直線と球112の中心との距離が半径Rより小さくなるような視線方向が許可されることになる。なお、この許可の条件は、カメラの視線方向123が成す直線が球112の内部のいずれの領域も通過しないような視線方向を制限する条件と等しい。
上記の例のように、仮想カメラの視線方向の制限・許可情報を記述し、判定することが実現可能である。
なお、上記の仮想カメラの視線方向の制限・許可情報の記述方法は一例であり、その他の記述方法を用いた場合にも本発明を適用できる。
On the contrary, when the direction in which the straight line formed by the camera line-of-sight direction 123 passes through any region inside the sphere 112, the distance between the straight line formed by the camera line-of-sight direction 123 and the center of the sphere 112 is A line-of-sight direction that is smaller than the radius R is permitted. This permission condition is the same as the condition that restricts the line-of-sight direction in which the straight line formed by the line-of-sight direction 123 of the camera does not pass through any region inside the sphere 112.
As in the above example, it is feasible to describe and determine the restriction / permission information of the viewing direction of the virtual camera.
It should be noted that the above-described description method of the restriction / permission information of the viewing direction of the virtual camera is an example, and the present invention can also be applied when other description methods are used.

図5は、本発明の合成映像生成システムの第1の実施例を説明する他の図で、合成映像システムの受信側システムのブロック図を示すものである。受信側のシステムは、受信部201、多重化データ分離処理部202、任意視点映像生成部203、仮想カメラ位置・方向判定部204、表示部205、および入力装置206を有している。   FIG. 5 is another diagram for explaining the first embodiment of the composite video generation system of the present invention, and shows a block diagram of the receiving side system of the composite video system. The reception-side system includes a reception unit 201, a multiplexed data separation processing unit 202, an arbitrary viewpoint video generation unit 203, a virtual camera position / direction determination unit 204, a display unit 205, and an input device 206.

受信部201は、図1の送信部105によって送信された多重化ストリームを受信し、多重化データ分離処理部202に送る。
多重化データ分離処理部202は、多重化ストリームを分離し、映像データ、カメラパラメータ、および仮想カメラの視点位置や視線方向の制限・許可情報を得る。映像データおよびカメラパラメータは任意視点映像生成部203に送られ、仮想カメラの視点位置や視線方向の制限・許可情報は仮想カメラ位置・方向判定部204に送られる。
The receiving unit 201 receives the multiplexed stream transmitted by the transmitting unit 105 in FIG. 1 and sends it to the multiplexed data separation processing unit 202.
The multiplexed data separation processing unit 202 separates the multiplexed stream, and obtains video data, camera parameters, and virtual camera viewpoint position and gaze direction restriction / permission information. The video data and camera parameters are sent to the arbitrary viewpoint video generation unit 203, and the virtual camera viewpoint / line-of-sight direction restriction / permission information is sent to the virtual camera position / direction determination unit 204.

入力装置206は、仮想カメラの視点位置・視線方向の情報を入力するための装置である。例えば、ジョイスティックが利用できる。また、入力装置206はフォースフィードバック機構を備えていても良い。
仮想カメラ位置・方向判定部204は、入力装置206より入力された仮想カメラの視点位置・視線方向の情報と、多重化データ分離処理部202より送られてきた仮想カメラの視点位置や視線方向の制限・許可情報から制御情報を生成し、任意視点映像生成部203へその制御情報を送る。また、入力装置206がフォースフィードバック機構を持つ場合は、その制御を行う。その手順の例については、後で述べる。
The input device 206 is a device for inputting information on the viewpoint position and line-of-sight direction of the virtual camera. For example, a joystick can be used. Further, the input device 206 may include a force feedback mechanism.
The virtual camera position / direction determination unit 204 receives information on the viewpoint position / line-of-sight direction of the virtual camera input from the input device 206 and the viewpoint position and line-of-sight direction of the virtual camera sent from the multiplexed data separation processing unit 202. Control information is generated from the restriction / permission information, and the control information is sent to the arbitrary viewpoint video generation unit 203. If the input device 206 has a force feedback mechanism, the control is performed. An example of the procedure will be described later.

任意視点映像生成部203は、多重化データ分離処理部202より送られた映像データおよびカメラパラメータ、および仮想カメラ位置・方向判定部204より送られた制御情報を用い、任意視点映像を合成する。合成した映像は、表示部205に出力する。
表示部205は、任意視点映像生成部203で生成された映像を表示する装置である。一般的な2次元ディスプレイである場合や、立体視が可能な3次元ディスプレイである場合が考えられる。
The arbitrary viewpoint video generation unit 203 synthesizes an arbitrary viewpoint video using the video data and camera parameters sent from the multiplexed data separation processing unit 202 and the control information sent from the virtual camera position / direction determination unit 204. The synthesized video is output to the display unit 205.
The display unit 205 is a device that displays the video generated by the arbitrary viewpoint video generation unit 203. A case of a general two-dimensional display or a case of a three-dimensional display capable of stereoscopic viewing can be considered.

仮想カメラ位置・方向判定部204における処理手順の例を図6に示す。
まず、入力装置206から仮想カメラの視点位置・視線方向データを取得する(S1)。そして取得した視点位置・視線方向が、仮想カメラの視点位置や視線方向の制限情報によって定められる制限条件に合致するかを判定する(S2)。
An example of a processing procedure in the virtual camera position / direction determination unit 204 is shown in FIG.
First, the viewpoint position / gaze direction data of the virtual camera is acquired from the input device 206 (S1). Then, it is determined whether or not the acquired viewpoint position / line-of-sight direction satisfies a restriction condition determined by restriction information on the viewpoint position and line-of-sight direction of the virtual camera (S2).

S2の判定に合致しない場合(Noの場合)は次に、入力装置206から取得した視点位置・視線方向が、仮想カメラの視点位置や視線方向の許可情報によって定められる許可条件に合致するかを判定する処理を行う(S3)。
S3の判定に合致する場合(Yesの場合)は、視点位置・視線方向データを、任意視点映像生成部203に送る(S4)。
If it does not match the determination of S2 (in the case of No), next, whether the viewpoint position / gaze direction acquired from the input device 206 matches the permission conditions determined by the permission information of the viewpoint position and the gaze direction of the virtual camera. A determination process is performed (S3).
If the determination in S3 is met (in the case of Yes), the viewpoint position / gaze direction data is sent to the arbitrary viewpoint video generation unit 203 (S4).

またS2の判定に合致した場合(Yesの場合)は、すなわち入力装置206から取得した視点位置・視線方向が適切ではない場合であるので、それを入力装置206にフィードバックする(S5)。フィードバック方法としては、入力装置206に振動を発生させて利用者に気づかせる方法、あるいは反力を発生させて視点移動や視線方向変更ができないようにする方法、などが考えられる。
その後、仮想カメラの視点位置や視線方向の制限・許可情報を満たすように、入力装置206から取得した視点位置・視線方向から視点位置・視線方向をずらしたデータを作成する(S6)。そして生成した新たな視点位置・視線方向データを、任意視点映像生成部203に送る(S4)。
If the determination in S2 is met (in the case of Yes), that is, the viewpoint position / gaze direction acquired from the input device 206 is not appropriate, it is fed back to the input device 206 (S5). As a feedback method, a method of causing the input device 206 to vibrate and notifying the user, or a method of generating a reaction force so that the viewpoint cannot be moved or the direction of the line of sight cannot be changed is considered.
Thereafter, data is generated by shifting the viewpoint position / gaze direction from the viewpoint position / gaze direction acquired from the input device 206 so as to satisfy the restriction / permission information of the viewpoint position and gaze direction of the virtual camera (S6). Then, the generated new viewpoint position / gaze direction data is sent to the arbitrary viewpoint video generation unit 203 (S4).

またS3の判定に合致しない場合(Noの場合)も、入力装置206から取得した視点位置・視線方向が適切ではない場合であるので、それを入力装置206にフィードバックする(S5)。
その後、仮想カメラの視点位置や視線方向の制限・許可情報を満たすように、入力装置206から取得した視点位置・視線方向から視点位置・視線方向をずらしたデータを作成する(S6)。そして生成した視点位置・視線方向データを、任意視点映像生成部203に送る(S4)。
If the determination at S3 does not match (No), the viewpoint position / line-of-sight direction acquired from the input device 206 is not appropriate, and it is fed back to the input device 206 (S5).
Thereafter, data is generated by shifting the viewpoint position / gaze direction from the viewpoint position / gaze direction acquired from the input device 206 so as to satisfy the restriction / permission information of the viewpoint position and gaze direction of the virtual camera (S6). The generated viewpoint position / gaze direction data is sent to the arbitrary viewpoint video generation unit 203 (S4).

上記手順のうち、S6の、仮想カメラの視点位置や視線方向の制限・許可情報を満たすように、入力装置206から取得した視点位置・視線方向から視点位置・視線方向をずらしたデータを作成する方法について、具体例を述べる。   Among the above procedures, data is generated by shifting the viewpoint position / gaze direction from the viewpoint position / gaze direction acquired from the input device 206 so as to satisfy the restriction / permission information of the viewpoint position and gaze direction of the virtual camera in S6. A specific example of the method will be described.

まず、仮想カメラ位置の制限・許可情報を満たすように、視点位置をずらす方法について述べる。前記の図2を用いた説明の例では、仮想カメラ位置の制限・許可情報として、平面の組み合わせを用いていた。そこで、入力装置206から取得した視点位置と各平面との距離を求める。距離が一番近かった平面上において、入力装置206から取得した視点位置に最も近い点を求める。そしてその最も近い点を修正した新たな視点位置とする。   First, a method of shifting the viewpoint position so as to satisfy the virtual camera position restriction / permission information will be described. In the example described with reference to FIG. 2, a combination of planes is used as the virtual camera position restriction / permission information. Therefore, the distance between the viewpoint position acquired from the input device 206 and each plane is obtained. A point closest to the viewpoint position acquired from the input device 206 is obtained on the plane having the closest distance. Then, the closest point is set as a new viewpoint position corrected.

次に、仮想カメラ方向の制限・許可情報を満たすように、視線方向をずらす方法について述べる。前記の図3および図4を用いた説明の例では、仮想カメラ方向の制限・許可情報として、球面を用いていた。そこで、入力装置206から取得した視線方向が成す直線上で、球の中心点から最も距離が近い点を求める。この点と球の中心点が成す直線と球面との交点を求める。この交点を仮想カメラの視線方向が成す直線が通るよう、視線方向を修正する。   Next, a method for shifting the line-of-sight direction so as to satisfy the virtual camera direction restriction / permission information will be described. In the example of the description using FIGS. 3 and 4 described above, a spherical surface is used as the restriction / permission information in the virtual camera direction. Therefore, a point closest to the center point of the sphere on the straight line formed by the line-of-sight direction acquired from the input device 206 is obtained. The intersection point between the straight line formed by this point and the center point of the sphere and the spherical surface is obtained. The line-of-sight direction is corrected so that a straight line formed by the line-of-sight direction of the virtual camera passes through this intersection.

上記のような手順を採ることによって、仮想カメラの視点位置や視線方向の制限・許可情報を満たすように、入力装置206から取得した視点位置・視線方向から視点位置・視線方向をずらしたデータを作成することが可能である。
なお、上記の方法は一例であり、その他の方法を用いた場合も本発明を適用できる。
By adopting the above procedure, data obtained by shifting the viewpoint position / gaze direction from the viewpoint position / gaze direction acquired from the input device 206 so as to satisfy the restriction / permission information of the viewpoint position and gaze direction of the virtual camera is obtained. It is possible to create.
In addition, said method is an example and this invention is applicable also when other methods are used.

<第2の実施例>
本発明の第2の実施例を以下に説明する。第2の実施例は、テレビ放送に本発明を適用する場合の別の適用例を示すものである。
図7は、本発明の合成映像生成システムの第2の実施例を説明する図で、合成映像システムの放送局側システムのブロック図を示すものである。本実施例の放送局側のシステムは、図1の構成とほぼ同一であるが、標準視点位置・視線方向情報記録部106が追加されている。
<Second embodiment>
A second embodiment of the present invention will be described below. The second embodiment shows another application example when the present invention is applied to television broadcasting.
FIG. 7 is a diagram for explaining a second embodiment of the composite video generation system of the present invention, and shows a block diagram of a broadcasting station side system of the composite video system. The system on the broadcasting station side in this embodiment is almost the same as the configuration in FIG. 1, but a standard viewpoint position / gaze direction information recording unit 106 is added.

標準視点位置・視線方向情報記録部106は、任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を記録しておく部分である。この情報は、あらかじめコンテンツ製作者によって定められ、記録されているものとする。なお、この任意視点映像を合成する場合の標準的な視点位置・視線方向の情報は、映像データのフレームレートと同一のフレームレートのデータであってもよいし、異なるフレームレートのデータであってもよい。例えば、標準的な視点位置・視線方向が複数フレームに渡って同一である場合は、その間データを送らずに済ましてもよい。   The standard viewpoint position / line-of-sight direction information recording unit 106 is a part for recording information on a standard viewpoint position / line-of-sight direction when an arbitrary viewpoint video is synthesized. This information is determined and recorded in advance by the content producer. Note that the standard viewpoint position / line-of-sight information when combining arbitrary viewpoint videos may be data having the same frame rate as the frame rate of the video data, or data having a different frame rate. Also good. For example, when the standard viewpoint position and line-of-sight direction are the same over a plurality of frames, it is not necessary to send data during that time.

データ多重化処理部104では、カメラ101で撮影された映像データ、およびカメラパラメータ記録部102に記録されているカメラパラメータ、および仮想カメラ位置・方向の制限・許可情報記録部103に記録されている仮想カメラの視点位置や視線方向の制限・許可情報、および標準視点位置・視線方向情報記録部106に記録されている任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を多重化して、多重化ストリームを生成する。   In the data multiplexing processing unit 104, video data captured by the camera 101, camera parameters recorded in the camera parameter recording unit 102, and virtual camera position / direction restriction / permission information recording unit 103 are recorded. Restriction / permission information of viewpoint position and line-of-sight direction of virtual camera and standard viewpoint position / line-of-sight information when combining arbitrary viewpoint video recorded in standard viewpoint position / line-of-sight direction information recording unit 106 are multiplexed. To generate a multiplexed stream.

図8は、本発明の合成映像生成システムの第2の実施例を説明する他の図で、合成映像システムの受信側システムのブロック図を示すものである。受信側のシステムは、図5の構成とほぼ同一であるが、スイッチ207が追加されている。
多重化データ分離処理部202では、多重化ストリームを分離し、映像データおよびカメラパラメータ、仮想カメラの視点位置や視線方向の制限・許可情報、および任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を得る。映像データおよびカメラパラメータは任意視点映像生成部203に送られ、仮想カメラの視点位置や視線方向の制限・許可情報および任意視点映像を合成する場合の標準的な視点位置・視線方向の情報は仮想カメラ位置・方向判定部204に送られる。
FIG. 8 is another diagram for explaining the second embodiment of the composite video generation system of the present invention, and shows a block diagram of the reception side system of the composite video system. The system on the receiving side is almost the same as the configuration in FIG. 5, but a switch 207 is added.
The multiplexed data separation processing unit 202 separates the multiplexed stream, and standard viewpoint position when synthesizing video data and camera parameters, virtual camera viewpoint position and gaze direction restriction / permission information, and arbitrary viewpoint video・ Get information on the line of sight. The video data and camera parameters are sent to the arbitrary viewpoint video generation unit 203, and the viewpoint position and line-of-sight direction restriction / permission information of the virtual camera and the standard viewpoint position / line-of-sight information when combining arbitrary viewpoint video are virtual. It is sent to the camera position / direction determination unit 204.

スイッチ207は、仮想カメラ位置・方向判定部204において制御情報を生成する際に、入力装置206から入力された仮想カメラの視点位置・視線方向の情報を用いるか、多重化データ分離処理部202から送られた任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を用いるかを選択するために用いる。   When the virtual camera position / direction determination unit 204 generates control information, the switch 207 uses information on the viewpoint position / line-of-sight direction of the virtual camera input from the input device 206, or from the multiplexed data separation processing unit 202. This is used to select whether to use standard viewpoint position / line-of-sight direction information when the sent arbitrary viewpoint video is synthesized.

システムの利用者が仮想カメラの視点位置・視線方向を自由に選べることは便利ではあるが、常に自分で仮想カメラの視点位置・視線方向を変更しなければならないのは、手間がかかるとも言える。場合によっては、自動的に仮想カメラの視点位置・視線方向が変更されるほうが望ましいこともある。そこで、自動的に仮想カメラの視点位置・視線方向を変更したい場合には、放送局側から送られてきた任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を用いて映像を生成することで、この問題を解決できる。スイッチ207によって、仮想カメラの視点位置・視線方向の手動決定と自動決定とを自由に選択することが可能になる。   Although it is convenient for the user of the system to freely select the viewpoint position and line-of-sight direction of the virtual camera, it can be said that it is troublesome to always change the viewpoint position and line-of-sight direction of the virtual camera. In some cases, it may be desirable to automatically change the viewpoint position and line-of-sight direction of the virtual camera. Therefore, if you want to automatically change the viewpoint position and line-of-sight direction of the virtual camera, use the standard viewpoint position and line-of-sight information when combining arbitrary viewpoint videos sent from the broadcast station. This problem can be solved by generating The switch 207 can freely select manual determination and automatic determination of the viewpoint position and line-of-sight direction of the virtual camera.

また、一定時間入力装置206からの入力が無い場合に、自動的に放送局側から送られてきた任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を用いるよう切り替える仕組みを付加することも可能である。さらに、放送局側から送られてきた任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を用いて映像を合成している際に入力装置206から入力があった場合は、自動的に入力装置206から取得した視点位置・視線方向を用いて映像を合成するよう切り替える仕組みを付加することも可能である。   In addition, when there is no input from the input device 206 for a certain period of time, there is a mechanism for switching to use standard viewpoint position / line-of-sight information when automatically synthesizing an arbitrary viewpoint video sent from the broadcasting station side. It is also possible to add. Furthermore, when there is an input from the input device 206 when synthesizing the video using the information of the standard viewpoint position / gaze direction when synthesizing the arbitrary viewpoint video sent from the broadcasting station side, It is also possible to add a mechanism for switching to synthesize a video using the viewpoint position / gaze direction automatically acquired from the input device 206.

またさらに、入力装置206から取得した視点位置・視線方向を用いて映像を合成する際に、その入力装置206から取得した視点位置・視線方向の情報が、仮想カメラの視点位置や視線方向の制限・許可情報を満たさなかった場合に、入力装置206から取得した視点位置・視線方向の代わりに標準的な視点位置・視線方向の情報を用いて映像を生成する仕組みとすることも可能である。   Furthermore, when the video is synthesized using the viewpoint position / gaze direction acquired from the input device 206, the information on the viewpoint position / gaze direction acquired from the input device 206 is limited to the viewpoint position and the gaze direction of the virtual camera. In the case where the permission information is not satisfied, it is also possible to adopt a mechanism for generating a video by using standard viewpoint position / gaze direction information instead of the viewpoint position / gaze direction acquired from the input device 206.

なお、上記の第1の実施例および第2の実施例では、テレビ放送に本発明を適用した場合について説明したが、そのほかに、パッケージメディアに記録する場合においても、同様に適用可能である。   In the first and second embodiments described above, the case where the present invention is applied to television broadcasting has been described. However, the present invention can be similarly applied to recording on package media.

本発明の第1の実施例における放送局側のシステムのブロック図である。It is a block diagram of the system by the side of the broadcasting station in the 1st Example of this invention. 本発明の仮想カメラの位置の制限・許可情報の記述方法の一例を説明する図である。It is a figure explaining an example of the description method of the restrictions / permission information of the position of the virtual camera of this invention. 本発明を説明するためのカメラの模式図である。It is a schematic diagram of the camera for demonstrating this invention. 仮想カメラの視線方向の制限・許可情報の記述方法の他の例を説明する図である。It is a figure explaining the other example of the description method of the limitation / permission information of the gaze direction of a virtual camera. 本発明の第1の実施例における受信側のシステムのブロック図である。It is a block diagram of the system of the receiving side in 1st Example of this invention. 本発明の第1の実施例における仮想カメラ位置・方向判定部の処理手順の例を説明するためのフローチャートである。It is a flowchart for demonstrating the example of the process sequence of the virtual camera position and direction determination part in 1st Example of this invention. 本発明の第2の実施例における放送局側のシステムのブロック図である。It is a block diagram of the system by the side of the broadcasting station in the 2nd Example of this invention. 本発明の第2の実施例における受信側のシステムのブロック図である。It is a block diagram of the system of the receiving side in 2nd Example of this invention. 任意視点映像生成システムの例を説明するための図である。It is a figure for demonstrating the example of an arbitrary viewpoint video generation system.

符号の説明Explanation of symbols

1…舞台、2…カメラ、3…仮想カメラ、101…カメラ、102…カメラパラメータ記録部、103…仮想カメラ位置・方向の制限・許可情報記録部、104…データ多重化処理部、105…送信部、106…標準視点位置・視線方向情報記録部、107…映像遅延部、111…直方体、112…球、121…カメラ本体、122…レンズ、123…カメラの視線方向、201…受信部、202…多重化データ分離処理部、203…任意視点映像生成部、204…仮想カメラ位置・方向判定部、205…表示部、206…入力装置、207…スイッチ。 DESCRIPTION OF SYMBOLS 1 ... Stage, 2 ... Camera, 3 ... Virtual camera, 101 ... Camera, 102 ... Camera parameter recording part, 103 ... Virtual camera position / direction restriction / permission information recording part, 104 ... Data multiplexing processing part, 105 ... Transmission 106: Standard viewpoint position / gaze direction information recording unit 107 ... Video delay unit 111 ... Cuboid, 112 ... Sphere, 121 ... Camera body, 122 ... Lens, 123 ... Camera gaze direction, 201 ... Receiver unit, 202 ... multiplexed data separation processing unit, 203 ... arbitrary viewpoint video generation unit, 204 ... virtual camera position / direction determination unit, 205 ... display unit, 206 ... input device, 207 ... switch.

Claims (21)

複数の異なる視点位置および視線方向からの映像を合成して任意の仮想的な視点位置および視線方向での映像を合成する合成映像生成システムにおいて、映像を合成する際の仮想的な視点位置に対する制限情報を、映像データに付加して伝送および記録することを特徴とする合成映像生成システム。   Restriction on virtual viewpoint position when synthesizing video in a synthesized video generation system that synthesizes videos from arbitrary virtual viewpoint positions and gaze directions by synthesizing videos from multiple different viewpoint positions and gaze directions A composite video generation system characterized in that information is added to video data and transmitted and recorded. 映像を合成する際の仮想的な視点位置に対する許可情報を、前記映像データに付加して伝送および記録することを特徴とする請求項1記載の合成映像生成システム。   2. The composite video generation system according to claim 1, wherein permission information for a virtual viewpoint position when the video is synthesized is added to the video data and transmitted and recorded. 映像を合成する際の仮想的な視線方向に対する制限情報を、前記映像データに付加して伝送および記録することを特徴とする請求項1または2記載の合成映像生成システム。   3. The composite video generation system according to claim 1, wherein restriction information on a virtual line-of-sight direction when the video is synthesized is added to the video data and transmitted and recorded. 映像を合成する際の仮想的な視線方向に対する許可情報を、前記映像データに付加して伝送および記録することを特徴とする請求項1ないし3のいずれか1記載の合成映像生成システム。   4. The composite video generation system according to claim 1, wherein permission information for a virtual line-of-sight direction when the video is synthesized is added to the video data and transmitted and recorded. 前記仮想的な視点位置に対する制限情報、前記仮想的な視点位置に対する許可情報、前記仮想的な視線方向に対する制限情報、および前記仮想的な視線方向に対する許可情報のいずれかまたは複数を、平面を表す数式によって指定することを特徴とする請求項1ないし4のいずれか1記載の合成映像生成システム。   One or more of the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual viewing direction, and the permission information for the virtual viewing direction represent a plane. 5. The composite video generation system according to claim 1, wherein the composite video generation system is specified by a mathematical expression. 前記仮想的な視点位置に対する制限情報、前記仮想的な視点位置に対する許可情報、前記仮想的な視線方向に対する制限情報、および前記仮想的な視線方向に対する許可情報のいずれかまたは複数を、球面を表す数式によって指定することを特徴とする請求項1ないし4のいずれか1記載の合成映像生成システム。   One or more of the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual line-of-sight direction, and the permission information for the virtual line-of-sight direction represent a spherical surface. 5. The composite video generation system according to claim 1, wherein the composite video generation system is specified by a mathematical expression. 前記仮想的な視点位置に対する制限情報、前記仮想的な視点位置に対する許可情報、前記仮想的な視線方向に対する制限情報、および前記仮想的な視線方向に対する許可情報のいずれかまたは複数は、
前記平面または前記球面を表す数式によって指定された一つ以上の制限情報の論理積または論理和、または前記平面または前記球面を表す数式で指定された一つ以上の許可情報の論理積または論理和によって指定することを特徴とする請求項5または6記載の合成映像生成システム。
One or more of the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual line-of-sight direction, and the permission information for the virtual line-of-sight direction are:
A logical product or logical sum of one or more pieces of restriction information specified by a mathematical expression representing the plane or the spherical surface, or a logical product or logical sum of one or more pieces of permission information designated by a mathematical formula representing the plane or the spherical surface. The composite video generation system according to claim 5 or 6, characterized in that:
前記仮想的な視点位置に対する制限情報、前記仮想的な視点位置に対する許可情報、前記仮想的な視線方向に対する制限情報、および前記仮想的な視線方向に対する許可情報のいずれかまたは複数のフレームレートは、前記映像データのフレームレートと同一であることを特徴とする請求項1ないし7のいずれか1記載の合成映像生成システム。   One or more frame rates of the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual line-of-sight direction, and the permission information for the virtual line-of-sight direction are: 8. The composite video generation system according to claim 1, wherein the composite video generation system has the same frame rate as the video data. 前記仮想的な視点位置に対する制限情報、前記仮想的な視点位置に対する許可情報、前記仮想的な視線方向に対する制限情報、および前記仮想的な視線方向に対する許可情報のいずれかまたは複数のフレームレートは、前記映像データのフレームレートと異なることを特徴とする請求項1ないし7のいずれか1記載の合成映像生成システム。   One or more frame rates of the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual line-of-sight direction, and the permission information for the virtual line-of-sight direction are: The composite video generation system according to claim 1, wherein the composite video generation system is different from a frame rate of the video data. 映像を合成する際の仮想的な視点位置および視線方向について、予め定めた標準的な視点位置・視線方向の情報を、前記映像データに付加して伝送および記録することを特徴とする請求項1ないし9のいずれか1記載の合成映像生成システム。   2. The virtual viewpoint position and line-of-sight direction when synthesizing video are transmitted and recorded by adding predetermined standard viewpoint position and line-of-sight information to the video data. 10. The composite video generation system according to any one of 9 to 9. 前記標準的な視点位置・視線方向の情報のフレームレートは、前記映像データのフレームレートと同一であることを特徴とする請求項10記載の合成映像生成システム。   11. The composite video generation system according to claim 10, wherein a frame rate of the standard viewpoint position / line-of-sight direction information is the same as a frame rate of the video data. 前記標準的な視点位置・視線方向の情報のフレームレートは、前記映像データのフレームレートと異なることを特徴とする請求項10記載の合成映像生成システム。   The composite video generation system according to claim 10, wherein a frame rate of the standard viewpoint position / line-of-sight direction information is different from a frame rate of the video data. データの受信側または再生側において入力装置を有し、該入力装置によって仮想的な視点位置・視線方向の入力を受け付けることを特徴とする請求項1ないし12のいずれか1記載の合成映像生成システム。   13. The composite video generation system according to claim 1, further comprising an input device on a data reception side or a reproduction side, and receiving an input of a virtual viewpoint position and line-of-sight direction by the input device. . 前記入力装置によって入力された前記仮想的な視点位置・視線方向に従って映像を合成することを特徴とする請求項13記載の合成映像生成システム。   14. The composite video generation system according to claim 13, wherein video is synthesized according to the virtual viewpoint position and line-of-sight direction input by the input device. 前記入力装置によって入力された前記仮想的な視点位置・視線方向を、前記映像データに付加された前記制限情報および/または前記許可情報に従って判定および処理し、前記制限情報に合致するか、または前記許可情報に合致しない視点位置および視線方向における画像は生成しないように制御することを特徴とする請求項14記載の合成映像生成システム。   The virtual viewpoint position / line-of-sight direction input by the input device is determined and processed according to the restriction information and / or permission information added to the video data, and matches the restriction information, or 15. The composite video generation system according to claim 14, wherein control is performed so as not to generate an image at a viewpoint position and a line-of-sight direction that does not match the permission information. 前記入力装置は、フォースフィードバック機構を持つことを特徴とする請求項13ないし15のいずれか1記載の合成映像生成システム。   16. The composite video generation system according to claim 13, wherein the input device has a force feedback mechanism. 前記入力装置によって入力された前記仮想的な視点位置・視線方向が、前記映像データに付加された前記制限情報に合致した場合、または前記映像データに付加された前記許可情報に合致しなかった場合は、前記フォースフィードバック機構に制御信号を送り物理的な刺激を利用者に与えるよう制御することを特徴とする請求項16記載の合成映像生成システム。   When the virtual viewpoint position / gaze direction input by the input device matches the restriction information added to the video data, or does not match the permission information added to the video data 17. The composite video generation system according to claim 16, wherein a control signal is sent to the force feedback mechanism so as to give a physical stimulus to the user. 切り替えスイッチを備え、前記入力装置によって入力された前記仮想的な視点位置・視線方向に従って映像を合成するか、前記標準的な視点位置・視線方向の情報に従って映像を合成するかを前記切り替えスイッチで切り替えることが可能であることを特徴とする請求項13ないし17のいずれか1記載の合成映像生成システム。   A change-over switch, wherein the change-over switch determines whether to synthesize an image according to the virtual viewpoint position / line-of-sight direction input by the input device or to synthesize an image according to the information of the standard viewpoint position / line-of-sight direction. 18. The composite video generation system according to claim 13, wherein the composite video generation system can be switched. 前記入力装置による前記仮想的な視点位置・視線方向の入力が一定時間行われなかった場合に、前記標準的な視点位置・視線方向の情報に従って映像を合成するよう自動的に切り替えることを特徴とする請求項13ないし18のいずれか1記載の合成映像生成システム。   When the input of the virtual viewpoint position / gaze direction by the input device has not been performed for a certain period of time, it is automatically switched to synthesize a video according to the information of the standard viewpoint position / gaze direction. The composite video generation system according to any one of claims 13 to 18. 前記標準的な視点位置・視線方向の情報に従って映像を合成している際に、前記入力装置による前記仮想的な視点位置・視線方向の入力が行われた場合に、該入力された仮想的な視点位置・視線方向に従って映像を合成するよう自動的に切り替えることを特徴とする請求項13ないし19のいずれか1記載の合成映像生成システム。   When the video is synthesized according to the information on the standard viewpoint position / gaze direction, when the virtual viewpoint position / gaze direction is input by the input device, the input virtual 20. The composite video generation system according to claim 13, wherein the composite video generation system automatically switches to synthesize a video according to a viewpoint position and a line-of-sight direction. 前記入力装置によって入力された前記仮想的な視点位置・視線方向を、前記映像データに付加された前記制限情報および/または前記許可情報に従って判定および処理し、前記仮想的な視点位置・視線方向が前記制限情報に合致する場合、または前記許可情報に合致しない場合には、前記入力装置によって入力された前記仮想的な視点位置・視線方向を用いず、前記標準的な視点位置・視線方向の情報を用いて画像を生成することを特徴とする請求項13ないし20のいずれか1記載の合成映像生成システム。   The virtual viewpoint position / gaze direction input by the input device is determined and processed according to the restriction information and / or the permission information added to the video data, and the virtual viewpoint position / gaze direction is determined. When it matches the restriction information or when it does not match the permission information, the information on the standard viewpoint position / line-of-sight direction is used without using the virtual viewpoint position / line-of-sight direction input by the input device. 21. The composite video generation system according to claim 13, wherein an image is generated by using.
JP2006013448A 2006-01-23 2006-01-23 Composite video generation system Expired - Fee Related JP4671873B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006013448A JP4671873B2 (en) 2006-01-23 2006-01-23 Composite video generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006013448A JP4671873B2 (en) 2006-01-23 2006-01-23 Composite video generation system

Publications (2)

Publication Number Publication Date
JP2007195091A true JP2007195091A (en) 2007-08-02
JP4671873B2 JP4671873B2 (en) 2011-04-20

Family

ID=38450402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006013448A Expired - Fee Related JP4671873B2 (en) 2006-01-23 2006-01-23 Composite video generation system

Country Status (1)

Country Link
JP (1) JP4671873B2 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072921A (en) * 2008-09-18 2010-04-02 Kddi Corp Image display device, viewpoint guidance method and program
JP2011151773A (en) * 2009-12-21 2011-08-04 Canon Inc Video processing apparatus and control method
JP2011172169A (en) * 2010-02-22 2011-09-01 Canon Inc Video processing apparatus and control method thereof
WO2011121920A1 (en) * 2010-03-30 2011-10-06 パナソニック株式会社 Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method
KR20140009913A (en) * 2012-07-12 2014-01-23 삼성전자주식회사 Method and appratus for processing virtual world
JP2015187797A (en) * 2014-03-27 2015-10-29 シャープ株式会社 Image data generation device and image data reproduction device
WO2017204173A1 (en) 2016-05-25 2017-11-30 Canon Kabushiki Kaisha Control device, control method, and storage medium
JP2018182428A (en) * 2017-04-06 2018-11-15 株式会社フューチャリズムワークス Video distribution device, video distribution system, and video distribution method
JP2019016862A (en) * 2017-07-04 2019-01-31 キヤノン株式会社 Information processing device, information processing system, information processing device control method, and program
JP2019071650A (en) * 2018-12-27 2019-05-09 キヤノン株式会社 Control device, control method, and program
EP3487176A1 (en) 2017-11-20 2019-05-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
JP2019152903A (en) * 2018-02-28 2019-09-12 キヤノン株式会社 Information processing apparatus and control method thereof
JP2019197348A (en) * 2018-05-09 2019-11-14 キヤノン株式会社 Information processor, method for processing information, and program
JP2020503792A (en) * 2016-12-30 2020-01-30 華為技術有限公司Huawei Technologies Co.,Ltd. Information processing method and apparatus
JP2020036116A (en) * 2018-08-28 2020-03-05 キヤノン株式会社 Information processing device, method for controlling information processing device, and program
WO2020050103A1 (en) * 2018-09-06 2020-03-12 キヤノン株式会社 Virtual viewpoint control device and method for controlling same
JP2021048459A (en) * 2019-09-17 2021-03-25 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7387792B2 (en) 2017-11-13 2023-11-28 キヤノン株式会社 Information processing device, information processing method and program
JP7418101B2 (en) 2019-07-26 2024-01-19 キヤノン株式会社 Information processing device, information processing method, and program
JP7458735B2 (en) 2019-10-01 2024-04-01 キヤノン株式会社 Image processing device, image processing method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019102907A (en) 2017-11-30 2019-06-24 キヤノン株式会社 Setting device, setting method, and program
WO2021059669A1 (en) 2019-09-25 2021-04-01 ソニー株式会社 Information processing device, video generation method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006013978A (en) * 2004-06-28 2006-01-12 Sharp Corp Television broadcast transmitter and receiver, broadcast program participation system, and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006013978A (en) * 2004-06-28 2006-01-12 Sharp Corp Television broadcast transmitter and receiver, broadcast program participation system, and method

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072921A (en) * 2008-09-18 2010-04-02 Kddi Corp Image display device, viewpoint guidance method and program
JP2011151773A (en) * 2009-12-21 2011-08-04 Canon Inc Video processing apparatus and control method
JP2011172169A (en) * 2010-02-22 2011-09-01 Canon Inc Video processing apparatus and control method thereof
WO2011121920A1 (en) * 2010-03-30 2011-10-06 パナソニック株式会社 Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method
JP5607146B2 (en) * 2010-03-30 2014-10-15 パナソニック株式会社 Imaging control apparatus, immersive position information generating apparatus, imaging control method, and immersive position information generating method
US9167134B2 (en) 2010-03-30 2015-10-20 Panasonic Intellectual Property Managment Co., Ltd. Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method
KR20140009913A (en) * 2012-07-12 2014-01-23 삼성전자주식회사 Method and appratus for processing virtual world
KR102024863B1 (en) 2012-07-12 2019-09-24 삼성전자주식회사 Method and appratus for processing virtual world
JP2015187797A (en) * 2014-03-27 2015-10-29 シャープ株式会社 Image data generation device and image data reproduction device
WO2017204173A1 (en) 2016-05-25 2017-11-30 Canon Kabushiki Kaisha Control device, control method, and storage medium
KR20190010646A (en) 2016-05-25 2019-01-30 캐논 가부시끼가이샤 Control device, control method and storage medium
CN109644265A (en) * 2016-05-25 2019-04-16 佳能株式会社 Control device, control method and storage medium
RU2704608C1 (en) * 2016-05-25 2019-10-30 Кэнон Кабусики Кайся Control device, control method and data medium
JP7058273B2 (en) 2016-12-30 2022-04-21 華為技術有限公司 Information processing method and equipment
JP2020503792A (en) * 2016-12-30 2020-01-30 華為技術有限公司Huawei Technologies Co.,Ltd. Information processing method and apparatus
JP2018182428A (en) * 2017-04-06 2018-11-15 株式会社フューチャリズムワークス Video distribution device, video distribution system, and video distribution method
JP7087158B2 (en) 2017-07-04 2022-06-20 キヤノン株式会社 Information processing equipment, information processing methods and programs
US10529122B2 (en) 2017-07-04 2020-01-07 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP2021114787A (en) * 2017-07-04 2021-08-05 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2019016862A (en) * 2017-07-04 2019-01-31 キヤノン株式会社 Information processing device, information processing system, information processing device control method, and program
JP7387792B2 (en) 2017-11-13 2023-11-28 キヤノン株式会社 Information processing device, information processing method and program
EP3487176A1 (en) 2017-11-20 2019-05-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
US10986324B2 (en) 2017-11-20 2021-04-20 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium for virtual viewpoint image creation
JP2019152903A (en) * 2018-02-28 2019-09-12 キヤノン株式会社 Information processing apparatus and control method thereof
US11409424B2 (en) 2018-02-28 2022-08-09 Canon Kabushiki Kaisha Information processing apparatus, control method, and storage medium for controlling a virtual viewpoint of a virtual viewpoint image
JP7045218B2 (en) 2018-02-28 2022-03-31 キヤノン株式会社 Information processing equipment and information processing methods, programs
JP2019197348A (en) * 2018-05-09 2019-11-14 キヤノン株式会社 Information processor, method for processing information, and program
JP7091133B2 (en) 2018-05-09 2022-06-27 キヤノン株式会社 Information processing equipment, information processing methods, and programs
JP2020036116A (en) * 2018-08-28 2020-03-05 キヤノン株式会社 Information processing device, method for controlling information processing device, and program
JP7254464B2 (en) 2018-08-28 2023-04-10 キヤノン株式会社 Information processing device, control method for information processing device, and program
JP7459341B2 (en) 2018-08-28 2024-04-01 キヤノン株式会社 Information processing device, control method for information processing device, and program
WO2020050103A1 (en) * 2018-09-06 2020-03-12 キヤノン株式会社 Virtual viewpoint control device and method for controlling same
US11558598B2 (en) 2018-09-06 2023-01-17 Canon Kabushiki Kaisha Control apparatus and control method for same
JP2019071650A (en) * 2018-12-27 2019-05-09 キヤノン株式会社 Control device, control method, and program
JP7418101B2 (en) 2019-07-26 2024-01-19 キヤノン株式会社 Information processing device, information processing method, and program
JP2021048459A (en) * 2019-09-17 2021-03-25 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7395296B2 (en) 2019-09-17 2023-12-11 キヤノン株式会社 Image processing device, image processing method, and program
JP7458735B2 (en) 2019-10-01 2024-04-01 キヤノン株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP4671873B2 (en) 2011-04-20

Similar Documents

Publication Publication Date Title
JP4671873B2 (en) Composite video generation system
Domański et al. Immersive visual media—MPEG-I: 360 video, virtual navigation and beyond
US10645369B2 (en) Stereo viewing
TWI459369B (en) Apparatus, systems and methods for shared viewing experience using head mounted displays
JP5429034B2 (en) Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method
JP5328082B2 (en) Video transmission and reception method and apparatus, and transmission stream structure thereof
US9191645B2 (en) Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
JP2011229146A (en) Display apparatus and 3d glasses, and display system including the 3d glasses
US20170339469A1 (en) Efficient distribution of real-time and live streaming 360 spherical video
CN104335243A (en) Processing panoramic pictures
KR101329057B1 (en) An apparatus and method for transmitting multi-view stereoscopic video
JP5682149B2 (en) Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method
WO2012026342A1 (en) 3d-image-data transmission device, 3d-image-data transmission method, 3d-image-data reception device, and 3d-image-data reception method
JP2011151773A (en) Video processing apparatus and control method
JP5520146B2 (en) Video receiving apparatus and control method thereof
CN111684823B (en) Transmission device, transmission method, processing device, and processing method
JP2004200814A (en) Stereoscopic image forming method and stereoscopic image forming device
JP2011228821A (en) Multi-viewpoint image encoder
JP2014175813A (en) Stereoscopic video display method and device
KR102178947B1 (en) System and method for transmitting 360 multi view video using stitching
WO2012160812A1 (en) Image processing device, transmitting device, stereoscopic image viewing system, image processing method, image processing program and integrated circuit
JP2012182578A (en) Image output device and image output method
EA037243B1 (en) Method of data transmission and reception

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110118

R150 Certificate of patent or registration of utility model

Ref document number: 4671873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees