JP2007195091A - Synthetic image generating system - Google Patents
Synthetic image generating system Download PDFInfo
- Publication number
- JP2007195091A JP2007195091A JP2006013448A JP2006013448A JP2007195091A JP 2007195091 A JP2007195091 A JP 2007195091A JP 2006013448 A JP2006013448 A JP 2006013448A JP 2006013448 A JP2006013448 A JP 2006013448A JP 2007195091 A JP2007195091 A JP 2007195091A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint position
- line
- information
- virtual
- generation system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Abstract
Description
本発明は、合成映像生成システムに関し、より詳細には、それぞれ異なる視点位置・視線方向に配置した多数のカメラによる映像情報から、実際にはカメラの存在しない視点位置・視線方向での映像、すなわち仮想カメラ位置・方向における映像を合成する合成映像生成システムに関する。 The present invention relates to a composite video generation system, and more specifically, from video information obtained by a large number of cameras arranged in different viewpoint positions and line-of-sight directions, in other words, videos in viewpoint positions and line-of-sight directions where no cameras actually exist, The present invention relates to a composite video generation system that synthesizes video at a virtual camera position and direction.
様々な研究機関・大学等で、任意視点映像生成技術が研究されている。これは、あるシーンを多数のカメラを用いて撮影し、その映像データを処理することで、カメラの存在しない地点に仮想カメラを置いた場合の映像を合成する技術である。例えば非特許文献1や非特許文献2のような技術がある。
Arbitrary viewpoint video generation technology is being researched by various research institutions and universities. This is a technique for synthesizing a video when a virtual camera is placed at a point where a camera does not exist by shooting a scene using a large number of cameras and processing the video data. For example, there are technologies such as
任意視点映像生成システムの例を図9に示す。図9は、舞台1を複数台のカメラ2を用いて撮影している様子を模式的に示したものである。これらのカメラ2の映像から、実際にはカメラの存在しない仮想カメラ3の位置から撮影したかのような映像を生成するのが、任意視点映像生成技術である。
An example of the arbitrary viewpoint video generation system is shown in FIG. FIG. 9 schematically shows the
この技術を用いれば、例えば利用者が仮想カメラ3の位置や方向を操作して、特定被写体をずっと追跡して映像を見ることが可能である。例えばスポーツ中継を例に取ると、自分のひいきの選手を常に追跡して見ることができる。また演劇やコンサートの中継に利用すれば、演技者や演奏者を自分の好きな方向から見ることができる。またドラマのようなコンテンツに利用することも可能である。
このような任意視点映像システムの場合、コンテンツの提供者側としては、視点を移動して欲しくない位置や、視線を向けて欲しくない方向があることが考えられる。例えば、演劇の中継において、舞台セットの裏側まで見えてしまうような視点位置には移動して欲しくないという場合が考えられる。あるいは、ドラマのようなコンテンツにおいて、撮影側の機材やスタッフが映るような方向には視線を向けて欲しくないと思われる。 In the case of such an arbitrary viewpoint video system, the content provider side may have a position where the viewpoint is not desired to move or a direction where the viewpoint is not desired to be directed. For example, there may be a case where it is not desired to move to a viewpoint position that can be seen up to the back of the stage set in a live broadcast. Or, in content such as dramas, you don't want the line of sight to look in the direction of the equipment and staff on the shooting side.
また、カメラの配置の関係から、任意視点映像を生成できない、あるいはエラーの多い映像しか生成できなくなるような視点位置や視線方向が存在し得る。例えば、視点を被写体に近づけすぎるとカメラ映像の解像度が足りなくなり、ぼけた映像しか生成できなくなる。あるいは、視点が地面の下にもぐってしまうような場合は本来映像を生成できない。あるいは、どのカメラからも撮影されておらず映像合成が不可能な視線方向もあり得る。このような場合には、最初からある距離以下には視点を近付けることができないように制限する、あるいは視点位置を地面の下に移動できないように制限する、あるいは視線方向を制限することが望ましい。 In addition, there may be a viewpoint position and a line-of-sight direction in which an arbitrary viewpoint video cannot be generated or only an error-prone video can be generated due to the camera arrangement. For example, if the viewpoint is too close to the subject, the resolution of the camera video becomes insufficient, and only a blurred video can be generated. Or, if the viewpoint goes under the ground, the video cannot be generated. Alternatively, there may be a line-of-sight direction that is not taken from any camera and cannot be combined. In such a case, it is desirable to restrict the viewpoint from being close to a certain distance from the beginning, or restrict the viewpoint position so that it cannot move below the ground, or restrict the line-of-sight direction.
本発明は、上述のごとき実情に鑑みてなされたもので、任意視点映像システムにおいてコンテンツの提供者側で、予め視点を移動できない領域、および視線を向けられない方向を設定できるようにすること、あるいは逆に視点を移動してもよい領域、および視線を向けてもよい方向を設定できるようにすることを課題とする。 The present invention has been made in view of the circumstances as described above, and allows a content provider in an arbitrary viewpoint video system to set an area in which the viewpoint cannot be moved in advance and a direction in which the line of sight cannot be directed, Or it makes it a subject to enable it to set the area | region which may move a viewpoint conversely, and the direction which may turn a line of sight.
前記課題を解決するための本発明の第1の手段は、複数の異なる視点位置および視線方向からの映像を合成して任意の仮想的な視点位置および視線方向での映像を合成する合成映像生成システムにおいて、映像を合成する際の仮想的な視点位置に対する制限情報を、映像データに付加して伝送および記録することを特徴としたものである。 The first means of the present invention for solving the above-mentioned problem is to generate a synthesized video that synthesizes videos from a plurality of different viewpoint positions and line-of-sight directions and synthesizes videos at arbitrary virtual viewpoint positions and line-of-sight directions. The system is characterized in that the restriction information for the virtual viewpoint position when compositing the video is added to the video data and transmitted and recorded.
第2の技術手段は、第1の技術手段において、映像を合成する際の仮想的な視点位置に対する許可情報を、映像データに付加して伝送および記録することを特徴としたものである。 The second technical means is characterized in that, in the first technical means, permission information for a virtual viewpoint position when the video is synthesized is added to the video data and transmitted and recorded.
第3の技術手段は、第1または第2の技術手段において、映像を合成する際の仮想的な視線方向に対する制限情報を、映像データに付加して伝送および記録することを特徴としたものである。 The third technical means is characterized in that, in the first or second technical means, restriction information for a virtual line-of-sight direction when compositing video is added to video data and transmitted and recorded. is there.
第4の技術手段は、第1ないし第3のいずれか1の技術手段において、映像を合成する際の仮想的な視線方向に対する許可情報を、映像データに付加して伝送および記録することを特徴としたものである。 According to a fourth technical means, in any one of the first to third technical means, permission information for a virtual line-of-sight direction when compositing a video is added to video data and transmitted and recorded. It is what.
第5の技術手段は、第1ないし第4のいずれか1の技術手段において、仮想的な視点位置に対する制限情報、仮想的な視点位置に対する許可情報、仮想的な視線方向に対する制限情報、および仮想的な視線方向に対する許可情報のいずれかまたは複数を、平面を表す数式によって指定することを特徴としたものである。 The fifth technical means is any one of the first to fourth technical means, wherein the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual gaze direction, and the virtual One or a plurality of pieces of permission information for a specific line-of-sight direction is designated by a mathematical expression representing a plane.
第6の技術手段は、第1ないし第4のいずれか1の技術手段において、仮想的な視点位置に対する制限情報、仮想的な視点位置に対する許可情報、仮想的な視線方向に対する制限情報、および仮想的な視線方向に対する許可情報のいずれかまたは複数を、球面を表す数式によって指定することを特徴としたものである。 The sixth technical means is any one of the first to fourth technical means, wherein the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual line-of-sight direction, and the virtual One or a plurality of pieces of permission information for a specific line-of-sight direction is designated by a mathematical expression representing a spherical surface.
第7の技術手段は、第5または第6の技術手段において、仮想的な視点位置に対する制限情報、仮想的な視点位置に対する許可情報、仮想的な視線方向に対する制限情報、および仮想的な視線方向に対する許可情報のいずれかまたは複数は、平面または球面を表す数式によって指定された一つ以上の制限情報の論理積または論理和、または平面または球面を表す数式で指定された一つ以上の許可情報の論理積または論理和によって指定することを特徴としたものである。 The seventh technical means is the fifth or sixth technical means, wherein the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual viewing direction, and the virtual viewing direction One or more of the permission information for is an AND or logical sum of one or more pieces of restriction information specified by a mathematical expression representing a plane or a sphere, or one or more permission information specified by a mathematical expression representing a plane or a sphere It is characterized by being specified by the logical product or logical sum of.
第8の技術手段は、第1ないし第7のいずれか1の技術手段において、仮想的な視点位置に対する制限情報、仮想的な視点位置に対する許可情報、仮想的な視線方向に対する制限情報、および仮想的な視線方向に対する許可情報のいずれかまたは複数のフレームレートは、映像データのフレームレートと同一であることを特徴としたものである。 In an eighth technical means, in any one of the first to seventh technical means, restriction information for a virtual viewpoint position, permission information for a virtual viewpoint position, restriction information for a virtual gaze direction, and virtual One or a plurality of frame rates of the permission information for a specific line-of-sight direction is the same as the frame rate of the video data.
第9の技術手段は、第1ないし第7のいずれか1の技術手段において、仮想的な視点位置に対する制限情報、仮想的な視点位置に対する許可情報、仮想的な視線方向に対する制限情報、および仮想的な視線方向に対する許可情報のいずれかまたは複数のフレームレートは、映像データのフレームレートと異なることを特徴としたものである。 The ninth technical means is any one of the first to seventh technical means, wherein the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual line-of-sight direction, and the virtual One or a plurality of frame rates of permission information for a specific line-of-sight direction is different from the frame rate of video data.
第10の技術手段は、第1ないし第9のいずれか1の技術手段において、映像を合成する際の仮想的な視点位置および視線方向について、予め定めた標準的な視点位置・視線方向の情報を、映像データに付加して伝送および記録することを特徴としたものである。 According to a tenth technical means, in any one of the first to ninth technical means, information on a predetermined standard viewpoint position / line-of-sight direction with respect to a virtual viewpoint position and line-of-sight direction when the video is synthesized Is added to video data and transmitted and recorded.
第11の技術手段は、第10の技術手段において、標準的な視点位置・視線方向の情報のフレームレートは、映像データのフレームレートと同一であることを特徴としたものである。 The eleventh technical means is characterized in that, in the tenth technical means, the frame rate of the standard viewpoint position / gaze direction information is the same as the frame rate of the video data.
第12の技術手段は、第10の技術手段において、標準的な視点位置・視線方向の情報のフレームレートは、映像データのフレームレートと異なることを特徴としたものである。 The twelfth technical means is characterized in that, in the tenth technical means, the frame rate of the standard viewpoint position / gaze direction information is different from the frame rate of the video data.
第13の技術手段は、第1ないし第12のいずれか1の技術手段において、データの受信側または再生側において入力装置を有し、入力装置によって仮想的な視点位置・視線方向の入力を受け付けることを特徴としたものである。 A thirteenth technical means is the first technical means according to any one of the first to twelfth technical means, which has an input device on the data reception side or reproduction side, and receives an input of a virtual viewpoint position and line-of-sight direction by the input device. It is characterized by that.
第14の技術手段は、第13の技術手段において、入力装置によって入力された仮想的な視点位置・視線方向に従って映像を合成することを特徴としたものである。 The fourteenth technical means is characterized in that in the thirteenth technical means, the video is synthesized in accordance with the virtual viewpoint position and line-of-sight direction input by the input device.
第15の技術手段は、第14の技術手段において、入力装置によって入力された仮想的な視点位置・視線方向を、映像データに付加された制限情報および/または許可情報に従って判定および処理し、制限情報に合致するか、または許可情報に合致しない視点位置および視線方向における画像は生成しないように制御することを特徴としたものである。 In a fourteenth technical means, a fifteenth technical means determines and processes the virtual viewpoint position and line-of-sight direction input by the input device according to the restriction information and / or permission information added to the video data. Control is performed so as not to generate an image at the viewpoint position and the line-of-sight direction that matches the information or does not match the permission information.
第16の技術手段は、第13ないし第15のいずれか1の技術手段において、入力装置は、フォースフィードバック機構を持つことを特徴としたものである。 The sixteenth technical means is any one of the thirteenth to fifteenth technical means, wherein the input device has a force feedback mechanism.
第17の技術手段は、第16の技術手段において、入力装置によって入力された仮想的な視点位置・視線方向が、映像データに付加された制限情報に合致した場合、または映像データに付加された許可情報に合致しなかった場合は、フォースフィードバック機構に制御信号を送り物理的な刺激を利用者に与えるよう制御することを特徴としたものである。 The seventeenth technical means is the sixteenth technical means, in which the virtual viewpoint position / gaze direction input by the input device matches the restriction information added to the video data, or added to the video data. When the information does not match the permission information, a control signal is sent to the force feedback mechanism to control the user to give a physical stimulus.
第18の技術手段は、第13ないし第17のいずれか1の技術手段において、切り替えスイッチを備え、入力装置によって入力された仮想的な視点位置・視線方向に従って映像を合成するか、標準的な視点位置・視線方向の情報に従って映像を合成するかを切り替えスイッチで切り替えることが可能であることを特徴としたものである。 An eighteenth technical means includes a changeover switch according to any one of the thirteenth to seventeenth technical means, and synthesizes an image according to a virtual viewpoint position / line-of-sight direction input by an input device, or a standard It is characterized in that it is possible to switch with a changeover switch whether to synthesize a video according to information on a viewpoint position and a line-of-sight direction.
第19の技術手段は、第13ないし第18のいずれか1の技術手段において、入力装置による仮想的な視点位置・視線方向の入力が一定時間行われなかった場合に、標準的な視点位置・視線方向の情報に従って映像を合成するよう自動的に切り替えることを特徴としたものである。 In a nineteenth technical means according to any one of the thirteenth to eighteenth technical means, when the input of the virtual viewpoint position / gaze direction by the input device is not performed for a certain period of time, the standard viewpoint position / It is characterized in that it is automatically switched to synthesize a video according to the information on the line of sight.
第20の技術手段は、第13ないし第19のいずれか1の技術手段において、標準的な視点位置・視線方向の情報に従って映像を合成している際に、入力装置による仮想的な視点位置・視線方向の入力が行われた場合に、入力された仮想的な視点位置・視線方向に従って映像を合成するよう自動的に切り替えることを特徴としたものである。 In a twentieth technical means, in any one of the thirteenth to nineteenth technical means, when the video is synthesized in accordance with the information of the standard viewpoint position / gaze direction, the virtual viewpoint position / When the line-of-sight direction is input, the video is automatically switched to synthesize the video according to the input virtual viewpoint position and line-of-sight direction.
第21の技術手段は、第13ないし第20のいずれか1の技術手段において、入力装置によって入力された仮想的な視点位置・視線方向を、映像データに付加された制限情報および/または許可情報に従って判定および処理し、仮想的な視点位置・視線方向が制限情報に合致する場合、または許可情報に合致しない場合には、入力装置によって入力された仮想的な視点位置・視線方向を用いず、標準的な視点位置・視線方向の情報を用いて画像を生成することを特徴としたものである。 In a twenty-first technical means, in any one of the thirteenth to twentieth technical means, the virtual viewpoint position / line-of-sight direction input by the input device is used as the restriction information and / or permission information added to the video data. If the virtual viewpoint position / gaze direction matches the restriction information or does not match the permission information, the virtual viewpoint position / gaze direction input by the input device is not used. An image is generated using information on a standard viewpoint position and line-of-sight direction.
本発明によれば、任意視点映像システムにおいてコンテンツの提供者側で、予め視点を移動できない領域、および視線を向けられない方向を設定できるようにすることができ、また逆に視点を移動してもよい領域、および視線を向けてもよい方向を設定できるようにすることができる。
また、予め定めた標準的な視点位置・視線方向の情報を映像データに付加することで、利用者が入力した視点位置・視線方向が適切ではない場合に、その代わりに標準的な視点位置・視線方向の情報を用いて任意視点映像を合成することができる。さらに、利用者による視点位置・視線方向の入力が無い場合にも、標準的な視点位置・視線方向の情報を用いて任意視点映像を合成することができる。
また、視点位置・視線方向の入力装置を持ちこれにフォースフィードバック機構を付加することで、利用者が入力した視点位置・視線方向が適切ではない場合に、利用者に物理的な刺激を与えることでそれを知らせることができる。
According to the present invention, in the arbitrary viewpoint video system, it is possible to set a region in which the viewpoint cannot be moved and a direction in which the line of sight cannot be directed in advance on the content provider side. It is possible to set a good region and a direction in which the line of sight may be directed.
In addition, by adding information on the predetermined standard viewpoint position / gaze direction to the video data, if the viewpoint position / gaze direction input by the user is not appropriate, instead of the standard viewpoint position / gaze direction, Arbitrary viewpoint video can be synthesized using information on the line of sight. Further, even when there is no input of the viewpoint position / gaze direction by the user, it is possible to synthesize an arbitrary viewpoint video using standard viewpoint position / gaze direction information.
Also, by having a viewpoint position / line-of-sight input device and adding a force feedback mechanism to this, when the viewpoint position / line-of-sight input by the user is not appropriate, the user is physically stimulated You can let it know.
<第1の実施例>
本発明の第1の実施例を以下に説明する。第1の実施例は、テレビ放送に本特許を適用する場合の適用例を示すものである。
図1は、本発明の合成映像生成システムの第1の実施例を説明する図で、合成映像システムの放送局側システムのブロック図を示すものである。放送局側のシステムは、カメラ101、カメラパラメータ記録部102、仮想カメラ位置・方向の制限・許可情報記録部103、データ多重化処理部104、および送信部105を有している。
<First embodiment>
A first embodiment of the present invention will be described below. The first embodiment shows an application example when this patent is applied to television broadcasting.
FIG. 1 is a diagram for explaining a first embodiment of a composite video generation system of the present invention, and shows a block diagram of a broadcasting station side system of the composite video system. The system on the broadcasting station side includes a
カメラ101は、被写体の周囲に一つ以上配置し、被写体を一つないし複数の視点位置・方向から撮影した映像データを得るものである。
カメラパラメータ記録部102は、カメラパラメータを保持しておく部分である。カメラパラメータには、各カメラの焦点距離やレンズの歪みの情報などのいわゆる内部パラメータと、カメラ間の相対的な位置関係を表す外部パラメータがある。これらのカメラパラメータは、任意視点映像を合成する段階で必要となる。
One or
The camera
仮想カメラ位置・方向の制限・許可情報記録部103は、仮想カメラの視点位置や視線方向の制限・許可情報を記録しておく部分である。これらの情報は、あらかじめコンテンツ製作者によって定められ、記録されているものとする。なお、この仮想カメラの視点位置や視線方向の制限・許可情報は、映像データのフレームレートと同一のフレームレートのデータであってもよいし、異なるフレームレートのデータであってもよい。例えば、仮想カメラの視点位置や視線方向の制限・許可情報が複数フレームに渡って同一である場合は、その間データを送らずに済ましてもよい。
The virtual camera position / direction restriction / permission
データ多重化処理部104は、カメラ101で撮影された映像データ、およびカメラパラメータ記録部102に記録されているカメラパラメータ、および仮想カメラ位置・方向の制限・許可情報記録部103に記録されている仮想カメラの視点位置や視線方向の制限・許可情報を多重化して、多重化ストリームを生成する。
送信部105は、放送電波にこの多重化ストリームを乗せる。
なお、この処理はあくまで一例である。この他にも、カメラ101からの映像を圧縮してから多重化する方法や、各データを多重化しないで複数のストリームの形のまま送信する方法も考えられる。
The data
The
This process is merely an example. In addition to this, a method of compressing and multiplexing the video from the
図2は、仮想カメラの視点位置の制限・許可情報の記述方法の一例を説明する図である。図2に示したように各辺がx1、y1、z1の長さである直方体111を考える。
FIG. 2 is a diagram for explaining an example of a description method of restriction / permission information of the viewpoint position of the virtual camera. Consider a
まず、仮想カメラの視点位置の制限の条件として、直方体111の内部を禁止領域とする。すなわち、直方体111の内部には仮想カメラが入れないものとする。
直方体111の6つの平面は、以下の6つの数式で記述される。
First, as a condition for limiting the viewpoint position of the virtual camera, the inside of the
The six planes of the
x=0 (1)
x=x1 (2)
y=0 (3)
y=y1 (4)
z=0 (5)
z=z1 (6)
で得る。
x = 0 (1)
x = x1 (2)
y = 0 (3)
y = y1 (4)
z = 0 (5)
z = z1 (6)
Get in.
ここから、直方体111の内部領域は、以下の6つの不等式の論理積で記述できる。
x>0 (7)
x<x1 (8)
y>0 (9)
y<y1 (10)
z>0 (11)
z<z1 (12)
From here, the inner region of the
x> 0 (7)
x <x1 (8)
y> 0 (9)
y <y1 (10)
z> 0 (11)
z <z1 (12)
ある点の座標がこれら6個の不等式全てに当てはまる場合は、その点は直方体111の内部領域にある。また一つでも当てはまらない場合は、その点は直方体111の外部領域にある。
例えば、(x1,y1,z1)=(1,1,1)とするとき、座標が(x,y,z)=(0.5,0.5,0.5)という点は、式(7)ないし式(12)の全ての不等式に合致するため、直方体111の内部領域に位置することがわかる。このため、この点には仮想カメラの視点位置は移動できない。また例えば、座標が(x,y,z)=(1.5,0.5,0.5)という点は、式(8)には当てはまらないため、直方体111の外部領域に位置することがわかる。このため、この点には仮想カメラの視点位置は移動可能である。
If the coordinates of a point apply to all six inequalities, the point is in the inner region of the cuboid 111. If even one of them does not apply, the point is in the outer region of the
For example, when (x1, y1, z1) = (1, 1, 1), the coordinates are (x, y, z) = (0.5, 0.5, 0.5). 7) thru | or all the inequalities of Formula (12), and it turns out that it is located in the internal region of the
また、直方体111の外部領域は、以下の6つの不等式の論理和で記述できる。
x<0 (13)
x>x1 (14)
y<0 (15)
y>y1 (16)
z<0 (17)
z>z1 (18)
Further, the outer region of the
x <0 (13)
x> x1 (14)
y <0 (15)
y> y1 (16)
z <0 (17)
z> z1 (18)
ある点の座標がこれら6個の不等式の一つにでも当てはまる場合は、その点は直方体111の外部領域にある。また全てに当てはまらない場合は、その点は直方体111の内部領域にある。
If the coordinates of a point apply to one of these six inequalities, the point is in the outer region of the cuboid 111. If not all of them, the point is in the inner region of the
例えば、座標が(x,y,z)=(1.5,0.5,0.5)という点は、少なくとも式(14)に当てはまるため、直方体111の外部領域に位置することがわかる。このため、この点には仮想カメラの視点位置は移動可能である。
また例えば、座標が(x,y,z)=(0.5,0.5,0.5)という点は、式(13)ないし式(18)の全ての不等式に当てはまらないため、直方体111の内部領域に位置することがわかる。このため、この点には仮想カメラの視点位置は移動できない。
For example, it can be seen that the coordinates (x, y, z) = (1.5, 0.5, 0.5) are located in the external region of the
Further, for example, the point that the coordinates are (x, y, z) = (0.5, 0.5, 0.5) does not apply to all the inequalities of the equations (13) to (18), and thus the
このように、一つ以上の平面の組み合わせで表現できる領域は、平面を記述する不等式とその論理積あるいは論理和で定義することができる。また、ある点がどの領域に属しているかをそれらの定義から判定することができる。 Thus, an area that can be expressed by a combination of one or more planes can be defined by an inequality that describes the plane and its logical product or logical sum. In addition, it is possible to determine which region a point belongs to from their definition.
同様の方法で、直方体111の外部を制限領域とする、すなわち直方体111の内部でしか仮想カメラの視点位置が動けない、とすることも可能である。さらに、同様の方法で、直方体111の内部を許可領域とする、すなわち直方体111の内部でしか仮想カメラの視点位置が動けない、とすることも可能である。またさらに、同様の方法で、直方体111の外部を許可領域とする、すなわち直方体111の外部でしか仮想カメラの視点位置が動けない、とすることも可能である。
上記の例のように、仮想カメラの位置の制限・許可情報を記述し、判定することが実現可能である。
In the same way, it is possible to use the outside of the
As in the above example, it is possible to describe and determine virtual camera position restriction / permission information.
なお、以上では簡単のため、x<0のように記述が単純な平面を例とした。平面は一般にax+by+cz=1と記述できる。このような一般的な記述による平面の式を用いても、上記と同様のことが実現可能である。
また、この他にも、例えば球面のように数式で記述できる曲面により領域を定義する方法や、1つ以上のポリゴンによって領域を定義する方法も考えられる。本発明ではこれら全ての方法を、仮想カメラの視点位置の制限・許可情報の記述方法として用いることが可能である。
またさらに、上記の領域記述方法は一例であり、その他の領域記述方法を用いた場合にも本発明を適用できる。
In the above, for simplicity, an example where the plane is simple such as x <0 is taken as an example. A plane can generally be described as ax + by + cz = 1. The same thing as above can be realized by using a plane expression based on such a general description.
In addition, a method of defining a region by a curved surface that can be described by a mathematical expression such as a spherical surface, or a method of defining a region by one or more polygons is also conceivable. In the present invention, all of these methods can be used as the description method of the restriction / permission information of the viewpoint position of the virtual camera.
Furthermore, the above-described area description method is an example, and the present invention can be applied to cases where other area description methods are used.
次に、仮想カメラの視線方向の制限・許可情報の記述方法の一例を説明する。まずカメラの模式図を図3に示す。図3は、カメラ本体121にレンズ122が取り付けられている様子を示している。また、撮像面の中心とレンズの中心を通って被写体へと向かう方向を、カメラの視線方向123としている。
Next, an example of a description method of restriction / permission information on the viewing direction of the virtual camera will be described. First, a schematic diagram of the camera is shown in FIG. FIG. 3 shows a state where the
図4は、仮想カメラの視線方向の制限・許可情報の記述方法の一例を説明する図である。図4に示したように、中心が(x2,y2,z2)で半径がRの球112を考える。
まず、仮想カメラの視線方向の制限の条件として、カメラの視線方向123が成す直線が球112の内部のいずれかの領域を通過するような視線方向を禁止する場合を考える。
FIG. 4 is a diagram for explaining an example of a description method of restriction / permission information on the viewing direction of the virtual camera. As shown in FIG. 4, consider a
First, as a condition for limiting the viewing direction of the virtual camera, consider a case where a viewing direction in which a straight line formed by the
この場合、カメラの視線方向123の直線と、球112の中心との距離を算出し、その距離と半径Rを比較すればよい。距離が半径Rより小さければ、カメラの視線方向123は球112の内部の領域を通過する。また距離が半径Rより大きければ、カメラの視線方向123は球112の内部の領域を通過しない。
よって、カメラの視線方向123が成す直線と球112の中心との距離が半径Rより小さくなるような視線方向は禁止される。なお、この制限の条件は、カメラの視線方向123が成す直線が球112の内部のいずれの領域も通過しないような視線方向を許可する条件と等しい。
In this case, the distance between the straight line in the line-of-
Therefore, a viewing direction in which the distance between the straight line formed by the
逆に、カメラの視線方向123が成す直線が球112の内部のいずれかの領域を通過するような方向を許可する場合は、カメラの視線方向123が成す直線と球112の中心との距離が半径Rより小さくなるような視線方向が許可されることになる。なお、この許可の条件は、カメラの視線方向123が成す直線が球112の内部のいずれの領域も通過しないような視線方向を制限する条件と等しい。
上記の例のように、仮想カメラの視線方向の制限・許可情報を記述し、判定することが実現可能である。
なお、上記の仮想カメラの視線方向の制限・許可情報の記述方法は一例であり、その他の記述方法を用いた場合にも本発明を適用できる。
On the contrary, when the direction in which the straight line formed by the camera line-of-
As in the above example, it is feasible to describe and determine the restriction / permission information of the viewing direction of the virtual camera.
It should be noted that the above-described description method of the restriction / permission information of the viewing direction of the virtual camera is an example, and the present invention can also be applied when other description methods are used.
図5は、本発明の合成映像生成システムの第1の実施例を説明する他の図で、合成映像システムの受信側システムのブロック図を示すものである。受信側のシステムは、受信部201、多重化データ分離処理部202、任意視点映像生成部203、仮想カメラ位置・方向判定部204、表示部205、および入力装置206を有している。
FIG. 5 is another diagram for explaining the first embodiment of the composite video generation system of the present invention, and shows a block diagram of the receiving side system of the composite video system. The reception-side system includes a
受信部201は、図1の送信部105によって送信された多重化ストリームを受信し、多重化データ分離処理部202に送る。
多重化データ分離処理部202は、多重化ストリームを分離し、映像データ、カメラパラメータ、および仮想カメラの視点位置や視線方向の制限・許可情報を得る。映像データおよびカメラパラメータは任意視点映像生成部203に送られ、仮想カメラの視点位置や視線方向の制限・許可情報は仮想カメラ位置・方向判定部204に送られる。
The receiving
The multiplexed data
入力装置206は、仮想カメラの視点位置・視線方向の情報を入力するための装置である。例えば、ジョイスティックが利用できる。また、入力装置206はフォースフィードバック機構を備えていても良い。
仮想カメラ位置・方向判定部204は、入力装置206より入力された仮想カメラの視点位置・視線方向の情報と、多重化データ分離処理部202より送られてきた仮想カメラの視点位置や視線方向の制限・許可情報から制御情報を生成し、任意視点映像生成部203へその制御情報を送る。また、入力装置206がフォースフィードバック機構を持つ場合は、その制御を行う。その手順の例については、後で述べる。
The
The virtual camera position /
任意視点映像生成部203は、多重化データ分離処理部202より送られた映像データおよびカメラパラメータ、および仮想カメラ位置・方向判定部204より送られた制御情報を用い、任意視点映像を合成する。合成した映像は、表示部205に出力する。
表示部205は、任意視点映像生成部203で生成された映像を表示する装置である。一般的な2次元ディスプレイである場合や、立体視が可能な3次元ディスプレイである場合が考えられる。
The arbitrary viewpoint
The
仮想カメラ位置・方向判定部204における処理手順の例を図6に示す。
まず、入力装置206から仮想カメラの視点位置・視線方向データを取得する(S1)。そして取得した視点位置・視線方向が、仮想カメラの視点位置や視線方向の制限情報によって定められる制限条件に合致するかを判定する(S2)。
An example of a processing procedure in the virtual camera position /
First, the viewpoint position / gaze direction data of the virtual camera is acquired from the input device 206 (S1). Then, it is determined whether or not the acquired viewpoint position / line-of-sight direction satisfies a restriction condition determined by restriction information on the viewpoint position and line-of-sight direction of the virtual camera (S2).
S2の判定に合致しない場合(Noの場合)は次に、入力装置206から取得した視点位置・視線方向が、仮想カメラの視点位置や視線方向の許可情報によって定められる許可条件に合致するかを判定する処理を行う(S3)。
S3の判定に合致する場合(Yesの場合)は、視点位置・視線方向データを、任意視点映像生成部203に送る(S4)。
If it does not match the determination of S2 (in the case of No), next, whether the viewpoint position / gaze direction acquired from the
If the determination in S3 is met (in the case of Yes), the viewpoint position / gaze direction data is sent to the arbitrary viewpoint video generation unit 203 (S4).
またS2の判定に合致した場合(Yesの場合)は、すなわち入力装置206から取得した視点位置・視線方向が適切ではない場合であるので、それを入力装置206にフィードバックする(S5)。フィードバック方法としては、入力装置206に振動を発生させて利用者に気づかせる方法、あるいは反力を発生させて視点移動や視線方向変更ができないようにする方法、などが考えられる。
その後、仮想カメラの視点位置や視線方向の制限・許可情報を満たすように、入力装置206から取得した視点位置・視線方向から視点位置・視線方向をずらしたデータを作成する(S6)。そして生成した新たな視点位置・視線方向データを、任意視点映像生成部203に送る(S4)。
If the determination in S2 is met (in the case of Yes), that is, the viewpoint position / gaze direction acquired from the
Thereafter, data is generated by shifting the viewpoint position / gaze direction from the viewpoint position / gaze direction acquired from the
またS3の判定に合致しない場合(Noの場合)も、入力装置206から取得した視点位置・視線方向が適切ではない場合であるので、それを入力装置206にフィードバックする(S5)。
その後、仮想カメラの視点位置や視線方向の制限・許可情報を満たすように、入力装置206から取得した視点位置・視線方向から視点位置・視線方向をずらしたデータを作成する(S6)。そして生成した視点位置・視線方向データを、任意視点映像生成部203に送る(S4)。
If the determination at S3 does not match (No), the viewpoint position / line-of-sight direction acquired from the
Thereafter, data is generated by shifting the viewpoint position / gaze direction from the viewpoint position / gaze direction acquired from the
上記手順のうち、S6の、仮想カメラの視点位置や視線方向の制限・許可情報を満たすように、入力装置206から取得した視点位置・視線方向から視点位置・視線方向をずらしたデータを作成する方法について、具体例を述べる。
Among the above procedures, data is generated by shifting the viewpoint position / gaze direction from the viewpoint position / gaze direction acquired from the
まず、仮想カメラ位置の制限・許可情報を満たすように、視点位置をずらす方法について述べる。前記の図2を用いた説明の例では、仮想カメラ位置の制限・許可情報として、平面の組み合わせを用いていた。そこで、入力装置206から取得した視点位置と各平面との距離を求める。距離が一番近かった平面上において、入力装置206から取得した視点位置に最も近い点を求める。そしてその最も近い点を修正した新たな視点位置とする。
First, a method of shifting the viewpoint position so as to satisfy the virtual camera position restriction / permission information will be described. In the example described with reference to FIG. 2, a combination of planes is used as the virtual camera position restriction / permission information. Therefore, the distance between the viewpoint position acquired from the
次に、仮想カメラ方向の制限・許可情報を満たすように、視線方向をずらす方法について述べる。前記の図3および図4を用いた説明の例では、仮想カメラ方向の制限・許可情報として、球面を用いていた。そこで、入力装置206から取得した視線方向が成す直線上で、球の中心点から最も距離が近い点を求める。この点と球の中心点が成す直線と球面との交点を求める。この交点を仮想カメラの視線方向が成す直線が通るよう、視線方向を修正する。
Next, a method for shifting the line-of-sight direction so as to satisfy the virtual camera direction restriction / permission information will be described. In the example of the description using FIGS. 3 and 4 described above, a spherical surface is used as the restriction / permission information in the virtual camera direction. Therefore, a point closest to the center point of the sphere on the straight line formed by the line-of-sight direction acquired from the
上記のような手順を採ることによって、仮想カメラの視点位置や視線方向の制限・許可情報を満たすように、入力装置206から取得した視点位置・視線方向から視点位置・視線方向をずらしたデータを作成することが可能である。
なお、上記の方法は一例であり、その他の方法を用いた場合も本発明を適用できる。
By adopting the above procedure, data obtained by shifting the viewpoint position / gaze direction from the viewpoint position / gaze direction acquired from the
In addition, said method is an example and this invention is applicable also when other methods are used.
<第2の実施例>
本発明の第2の実施例を以下に説明する。第2の実施例は、テレビ放送に本発明を適用する場合の別の適用例を示すものである。
図7は、本発明の合成映像生成システムの第2の実施例を説明する図で、合成映像システムの放送局側システムのブロック図を示すものである。本実施例の放送局側のシステムは、図1の構成とほぼ同一であるが、標準視点位置・視線方向情報記録部106が追加されている。
<Second embodiment>
A second embodiment of the present invention will be described below. The second embodiment shows another application example when the present invention is applied to television broadcasting.
FIG. 7 is a diagram for explaining a second embodiment of the composite video generation system of the present invention, and shows a block diagram of a broadcasting station side system of the composite video system. The system on the broadcasting station side in this embodiment is almost the same as the configuration in FIG. 1, but a standard viewpoint position / gaze direction
標準視点位置・視線方向情報記録部106は、任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を記録しておく部分である。この情報は、あらかじめコンテンツ製作者によって定められ、記録されているものとする。なお、この任意視点映像を合成する場合の標準的な視点位置・視線方向の情報は、映像データのフレームレートと同一のフレームレートのデータであってもよいし、異なるフレームレートのデータであってもよい。例えば、標準的な視点位置・視線方向が複数フレームに渡って同一である場合は、その間データを送らずに済ましてもよい。
The standard viewpoint position / line-of-sight direction
データ多重化処理部104では、カメラ101で撮影された映像データ、およびカメラパラメータ記録部102に記録されているカメラパラメータ、および仮想カメラ位置・方向の制限・許可情報記録部103に記録されている仮想カメラの視点位置や視線方向の制限・許可情報、および標準視点位置・視線方向情報記録部106に記録されている任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を多重化して、多重化ストリームを生成する。
In the data multiplexing
図8は、本発明の合成映像生成システムの第2の実施例を説明する他の図で、合成映像システムの受信側システムのブロック図を示すものである。受信側のシステムは、図5の構成とほぼ同一であるが、スイッチ207が追加されている。
多重化データ分離処理部202では、多重化ストリームを分離し、映像データおよびカメラパラメータ、仮想カメラの視点位置や視線方向の制限・許可情報、および任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を得る。映像データおよびカメラパラメータは任意視点映像生成部203に送られ、仮想カメラの視点位置や視線方向の制限・許可情報および任意視点映像を合成する場合の標準的な視点位置・視線方向の情報は仮想カメラ位置・方向判定部204に送られる。
FIG. 8 is another diagram for explaining the second embodiment of the composite video generation system of the present invention, and shows a block diagram of the reception side system of the composite video system. The system on the receiving side is almost the same as the configuration in FIG. 5, but a
The multiplexed data
スイッチ207は、仮想カメラ位置・方向判定部204において制御情報を生成する際に、入力装置206から入力された仮想カメラの視点位置・視線方向の情報を用いるか、多重化データ分離処理部202から送られた任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を用いるかを選択するために用いる。
When the virtual camera position /
システムの利用者が仮想カメラの視点位置・視線方向を自由に選べることは便利ではあるが、常に自分で仮想カメラの視点位置・視線方向を変更しなければならないのは、手間がかかるとも言える。場合によっては、自動的に仮想カメラの視点位置・視線方向が変更されるほうが望ましいこともある。そこで、自動的に仮想カメラの視点位置・視線方向を変更したい場合には、放送局側から送られてきた任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を用いて映像を生成することで、この問題を解決できる。スイッチ207によって、仮想カメラの視点位置・視線方向の手動決定と自動決定とを自由に選択することが可能になる。
Although it is convenient for the user of the system to freely select the viewpoint position and line-of-sight direction of the virtual camera, it can be said that it is troublesome to always change the viewpoint position and line-of-sight direction of the virtual camera. In some cases, it may be desirable to automatically change the viewpoint position and line-of-sight direction of the virtual camera. Therefore, if you want to automatically change the viewpoint position and line-of-sight direction of the virtual camera, use the standard viewpoint position and line-of-sight information when combining arbitrary viewpoint videos sent from the broadcast station. This problem can be solved by generating The
また、一定時間入力装置206からの入力が無い場合に、自動的に放送局側から送られてきた任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を用いるよう切り替える仕組みを付加することも可能である。さらに、放送局側から送られてきた任意視点映像を合成する場合の標準的な視点位置・視線方向の情報を用いて映像を合成している際に入力装置206から入力があった場合は、自動的に入力装置206から取得した視点位置・視線方向を用いて映像を合成するよう切り替える仕組みを付加することも可能である。
In addition, when there is no input from the
またさらに、入力装置206から取得した視点位置・視線方向を用いて映像を合成する際に、その入力装置206から取得した視点位置・視線方向の情報が、仮想カメラの視点位置や視線方向の制限・許可情報を満たさなかった場合に、入力装置206から取得した視点位置・視線方向の代わりに標準的な視点位置・視線方向の情報を用いて映像を生成する仕組みとすることも可能である。
Furthermore, when the video is synthesized using the viewpoint position / gaze direction acquired from the
なお、上記の第1の実施例および第2の実施例では、テレビ放送に本発明を適用した場合について説明したが、そのほかに、パッケージメディアに記録する場合においても、同様に適用可能である。 In the first and second embodiments described above, the case where the present invention is applied to television broadcasting has been described. However, the present invention can be similarly applied to recording on package media.
1…舞台、2…カメラ、3…仮想カメラ、101…カメラ、102…カメラパラメータ記録部、103…仮想カメラ位置・方向の制限・許可情報記録部、104…データ多重化処理部、105…送信部、106…標準視点位置・視線方向情報記録部、107…映像遅延部、111…直方体、112…球、121…カメラ本体、122…レンズ、123…カメラの視線方向、201…受信部、202…多重化データ分離処理部、203…任意視点映像生成部、204…仮想カメラ位置・方向判定部、205…表示部、206…入力装置、207…スイッチ。
DESCRIPTION OF
Claims (21)
前記平面または前記球面を表す数式によって指定された一つ以上の制限情報の論理積または論理和、または前記平面または前記球面を表す数式で指定された一つ以上の許可情報の論理積または論理和によって指定することを特徴とする請求項5または6記載の合成映像生成システム。 One or more of the restriction information for the virtual viewpoint position, the permission information for the virtual viewpoint position, the restriction information for the virtual line-of-sight direction, and the permission information for the virtual line-of-sight direction are:
A logical product or logical sum of one or more pieces of restriction information specified by a mathematical expression representing the plane or the spherical surface, or a logical product or logical sum of one or more pieces of permission information designated by a mathematical formula representing the plane or the spherical surface. The composite video generation system according to claim 5 or 6, characterized in that:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006013448A JP4671873B2 (en) | 2006-01-23 | 2006-01-23 | Composite video generation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006013448A JP4671873B2 (en) | 2006-01-23 | 2006-01-23 | Composite video generation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007195091A true JP2007195091A (en) | 2007-08-02 |
JP4671873B2 JP4671873B2 (en) | 2011-04-20 |
Family
ID=38450402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006013448A Expired - Fee Related JP4671873B2 (en) | 2006-01-23 | 2006-01-23 | Composite video generation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4671873B2 (en) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010072921A (en) * | 2008-09-18 | 2010-04-02 | Kddi Corp | Image display device, viewpoint guidance method and program |
JP2011151773A (en) * | 2009-12-21 | 2011-08-04 | Canon Inc | Video processing apparatus and control method |
JP2011172169A (en) * | 2010-02-22 | 2011-09-01 | Canon Inc | Video processing apparatus and control method thereof |
WO2011121920A1 (en) * | 2010-03-30 | 2011-10-06 | パナソニック株式会社 | Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method |
KR20140009913A (en) * | 2012-07-12 | 2014-01-23 | 삼성전자주식회사 | Method and appratus for processing virtual world |
JP2015187797A (en) * | 2014-03-27 | 2015-10-29 | シャープ株式会社 | Image data generation device and image data reproduction device |
WO2017204173A1 (en) | 2016-05-25 | 2017-11-30 | Canon Kabushiki Kaisha | Control device, control method, and storage medium |
JP2018182428A (en) * | 2017-04-06 | 2018-11-15 | 株式会社フューチャリズムワークス | Video distribution device, video distribution system, and video distribution method |
JP2019016862A (en) * | 2017-07-04 | 2019-01-31 | キヤノン株式会社 | Information processing device, information processing system, information processing device control method, and program |
JP2019071650A (en) * | 2018-12-27 | 2019-05-09 | キヤノン株式会社 | Control device, control method, and program |
EP3487176A1 (en) | 2017-11-20 | 2019-05-22 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and program |
JP2019152903A (en) * | 2018-02-28 | 2019-09-12 | キヤノン株式会社 | Information processing apparatus and control method thereof |
JP2019197348A (en) * | 2018-05-09 | 2019-11-14 | キヤノン株式会社 | Information processor, method for processing information, and program |
JP2020503792A (en) * | 2016-12-30 | 2020-01-30 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Information processing method and apparatus |
JP2020036116A (en) * | 2018-08-28 | 2020-03-05 | キヤノン株式会社 | Information processing device, method for controlling information processing device, and program |
WO2020050103A1 (en) * | 2018-09-06 | 2020-03-12 | キヤノン株式会社 | Virtual viewpoint control device and method for controlling same |
JP2021048459A (en) * | 2019-09-17 | 2021-03-25 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP7387792B2 (en) | 2017-11-13 | 2023-11-28 | キヤノン株式会社 | Information processing device, information processing method and program |
JP7418101B2 (en) | 2019-07-26 | 2024-01-19 | キヤノン株式会社 | Information processing device, information processing method, and program |
JP7458735B2 (en) | 2019-10-01 | 2024-04-01 | キヤノン株式会社 | Image processing device, image processing method, and program |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019102907A (en) | 2017-11-30 | 2019-06-24 | キヤノン株式会社 | Setting device, setting method, and program |
WO2021059669A1 (en) | 2019-09-25 | 2021-04-01 | ソニー株式会社 | Information processing device, video generation method, and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006013978A (en) * | 2004-06-28 | 2006-01-12 | Sharp Corp | Television broadcast transmitter and receiver, broadcast program participation system, and method |
-
2006
- 2006-01-23 JP JP2006013448A patent/JP4671873B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006013978A (en) * | 2004-06-28 | 2006-01-12 | Sharp Corp | Television broadcast transmitter and receiver, broadcast program participation system, and method |
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010072921A (en) * | 2008-09-18 | 2010-04-02 | Kddi Corp | Image display device, viewpoint guidance method and program |
JP2011151773A (en) * | 2009-12-21 | 2011-08-04 | Canon Inc | Video processing apparatus and control method |
JP2011172169A (en) * | 2010-02-22 | 2011-09-01 | Canon Inc | Video processing apparatus and control method thereof |
WO2011121920A1 (en) * | 2010-03-30 | 2011-10-06 | パナソニック株式会社 | Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method |
JP5607146B2 (en) * | 2010-03-30 | 2014-10-15 | パナソニック株式会社 | Imaging control apparatus, immersive position information generating apparatus, imaging control method, and immersive position information generating method |
US9167134B2 (en) | 2010-03-30 | 2015-10-20 | Panasonic Intellectual Property Managment Co., Ltd. | Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method |
KR20140009913A (en) * | 2012-07-12 | 2014-01-23 | 삼성전자주식회사 | Method and appratus for processing virtual world |
KR102024863B1 (en) | 2012-07-12 | 2019-09-24 | 삼성전자주식회사 | Method and appratus for processing virtual world |
JP2015187797A (en) * | 2014-03-27 | 2015-10-29 | シャープ株式会社 | Image data generation device and image data reproduction device |
WO2017204173A1 (en) | 2016-05-25 | 2017-11-30 | Canon Kabushiki Kaisha | Control device, control method, and storage medium |
KR20190010646A (en) | 2016-05-25 | 2019-01-30 | 캐논 가부시끼가이샤 | Control device, control method and storage medium |
CN109644265A (en) * | 2016-05-25 | 2019-04-16 | 佳能株式会社 | Control device, control method and storage medium |
RU2704608C1 (en) * | 2016-05-25 | 2019-10-30 | Кэнон Кабусики Кайся | Control device, control method and data medium |
JP7058273B2 (en) | 2016-12-30 | 2022-04-21 | 華為技術有限公司 | Information processing method and equipment |
JP2020503792A (en) * | 2016-12-30 | 2020-01-30 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Information processing method and apparatus |
JP2018182428A (en) * | 2017-04-06 | 2018-11-15 | 株式会社フューチャリズムワークス | Video distribution device, video distribution system, and video distribution method |
JP7087158B2 (en) | 2017-07-04 | 2022-06-20 | キヤノン株式会社 | Information processing equipment, information processing methods and programs |
US10529122B2 (en) | 2017-07-04 | 2020-01-07 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP2021114787A (en) * | 2017-07-04 | 2021-08-05 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2019016862A (en) * | 2017-07-04 | 2019-01-31 | キヤノン株式会社 | Information processing device, information processing system, information processing device control method, and program |
JP7387792B2 (en) | 2017-11-13 | 2023-11-28 | キヤノン株式会社 | Information processing device, information processing method and program |
EP3487176A1 (en) | 2017-11-20 | 2019-05-22 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and program |
US10986324B2 (en) | 2017-11-20 | 2021-04-20 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and storage medium for virtual viewpoint image creation |
JP2019152903A (en) * | 2018-02-28 | 2019-09-12 | キヤノン株式会社 | Information processing apparatus and control method thereof |
US11409424B2 (en) | 2018-02-28 | 2022-08-09 | Canon Kabushiki Kaisha | Information processing apparatus, control method, and storage medium for controlling a virtual viewpoint of a virtual viewpoint image |
JP7045218B2 (en) | 2018-02-28 | 2022-03-31 | キヤノン株式会社 | Information processing equipment and information processing methods, programs |
JP2019197348A (en) * | 2018-05-09 | 2019-11-14 | キヤノン株式会社 | Information processor, method for processing information, and program |
JP7091133B2 (en) | 2018-05-09 | 2022-06-27 | キヤノン株式会社 | Information processing equipment, information processing methods, and programs |
JP2020036116A (en) * | 2018-08-28 | 2020-03-05 | キヤノン株式会社 | Information processing device, method for controlling information processing device, and program |
JP7254464B2 (en) | 2018-08-28 | 2023-04-10 | キヤノン株式会社 | Information processing device, control method for information processing device, and program |
JP7459341B2 (en) | 2018-08-28 | 2024-04-01 | キヤノン株式会社 | Information processing device, control method for information processing device, and program |
WO2020050103A1 (en) * | 2018-09-06 | 2020-03-12 | キヤノン株式会社 | Virtual viewpoint control device and method for controlling same |
US11558598B2 (en) | 2018-09-06 | 2023-01-17 | Canon Kabushiki Kaisha | Control apparatus and control method for same |
JP2019071650A (en) * | 2018-12-27 | 2019-05-09 | キヤノン株式会社 | Control device, control method, and program |
JP7418101B2 (en) | 2019-07-26 | 2024-01-19 | キヤノン株式会社 | Information processing device, information processing method, and program |
JP2021048459A (en) * | 2019-09-17 | 2021-03-25 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP7395296B2 (en) | 2019-09-17 | 2023-12-11 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP7458735B2 (en) | 2019-10-01 | 2024-04-01 | キヤノン株式会社 | Image processing device, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP4671873B2 (en) | 2011-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4671873B2 (en) | Composite video generation system | |
Domański et al. | Immersive visual media—MPEG-I: 360 video, virtual navigation and beyond | |
US10645369B2 (en) | Stereo viewing | |
TWI459369B (en) | Apparatus, systems and methods for shared viewing experience using head mounted displays | |
JP5429034B2 (en) | Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method | |
JP5328082B2 (en) | Video transmission and reception method and apparatus, and transmission stream structure thereof | |
US9191645B2 (en) | Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium | |
JP2011229146A (en) | Display apparatus and 3d glasses, and display system including the 3d glasses | |
US20170339469A1 (en) | Efficient distribution of real-time and live streaming 360 spherical video | |
CN104335243A (en) | Processing panoramic pictures | |
KR101329057B1 (en) | An apparatus and method for transmitting multi-view stereoscopic video | |
JP5682149B2 (en) | Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method | |
WO2012026342A1 (en) | 3d-image-data transmission device, 3d-image-data transmission method, 3d-image-data reception device, and 3d-image-data reception method | |
JP2011151773A (en) | Video processing apparatus and control method | |
JP5520146B2 (en) | Video receiving apparatus and control method thereof | |
CN111684823B (en) | Transmission device, transmission method, processing device, and processing method | |
JP2004200814A (en) | Stereoscopic image forming method and stereoscopic image forming device | |
JP2011228821A (en) | Multi-viewpoint image encoder | |
JP2014175813A (en) | Stereoscopic video display method and device | |
KR102178947B1 (en) | System and method for transmitting 360 multi view video using stitching | |
WO2012160812A1 (en) | Image processing device, transmitting device, stereoscopic image viewing system, image processing method, image processing program and integrated circuit | |
JP2012182578A (en) | Image output device and image output method | |
EA037243B1 (en) | Method of data transmission and reception |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4671873 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140128 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |