JP4523538B2 - 3D image display device - Google Patents

3D image display device Download PDF

Info

Publication number
JP4523538B2
JP4523538B2 JP2005340134A JP2005340134A JP4523538B2 JP 4523538 B2 JP4523538 B2 JP 4523538B2 JP 2005340134 A JP2005340134 A JP 2005340134A JP 2005340134 A JP2005340134 A JP 2005340134A JP 4523538 B2 JP4523538 B2 JP 4523538B2
Authority
JP
Japan
Prior art keywords
camera
video
spherical surface
stereoscopic
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005340134A
Other languages
Japanese (ja)
Other versions
JP2007150536A (en
Inventor
崇文 小池
Original Assignee
株式会社 日立ディスプレイズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立ディスプレイズ filed Critical 株式会社 日立ディスプレイズ
Priority to JP2005340134A priority Critical patent/JP4523538B2/en
Publication of JP2007150536A publication Critical patent/JP2007150536A/en
Application granted granted Critical
Publication of JP4523538B2 publication Critical patent/JP4523538B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、立体映像を撮影し表示する立体映像表示システムに関し、特に、カメラアレイにおけるカメラの配置方法に関する。   The present invention relates to a stereoscopic video display system that captures and displays a stereoscopic video, and more particularly, to a camera arrangement method in a camera array.

観察者が眼鏡等の特殊な装置を使用することなく、立体映像を観察することができる表示装置として、裸眼立体視表示装置が知られている。この裸眼立体視表示装置は、レンチキュラ方式やホログラフィ方式等のさまざまな方式によって立体映像を表示する。これらのほとんどの方式の根本原理は、観察者の目に入射する光線情報を制御して、左右の目に違う光線情報を入射することによって、裸眼立体視を実現する。   An autostereoscopic display device is known as a display device that allows an observer to observe a stereoscopic image without using a special device such as glasses. This autostereoscopic display device displays stereoscopic images by various methods such as a lenticular method and a holography method. The fundamental principle of most of these methods realizes autostereoscopic vision by controlling the light ray information incident on the eyes of the observer and entering different light ray information on the left and right eyes.

このような裸眼立体視表示方式の一つに、複数のレンズによって任意の場所に光点を生成するインテグラルフォトグラフィ方式がある(非特許文献1参照)。   One such autostereoscopic display method is an integral photography method in which a light spot is generated at an arbitrary place by a plurality of lenses (see Non-Patent Document 1).

このインテグラルフォトグラフィ方式の一例を図14に示す。このインテグラルフォトグラフィ方式による裸眼立体視表示装置は、ディスプレイ1と多数のレンズ2より成るレンズアレイ3とによって構成される。各レンズ2の下には複数の画素があり、その画素の一つが光点4を表示する。   An example of this integral photography system is shown in FIG. This autostereoscopic display device using the integral photography system includes a display 1 and a lens array 3 including a large number of lenses 2. Below each lens 2 are a plurality of pixels, one of which displays a light spot 4.

また、図15は、図14のA−A断面図である。視点Aから見たときには、各レンズを通して画素Aが見え、視点Bから見たときには、各レンズを通して画素Bが見える。従って、観察者が、右眼を視点A、左眼を視点Bに置くことによって、左右の眼で違う画素が見えるため、立体映像を見ることが可能となる。   FIG. 15 is a cross-sectional view taken along the line AA in FIG. When viewed from the viewpoint A, the pixel A is seen through each lens, and when viewed from the viewpoint B, the pixel B is seen through each lens. Accordingly, when the observer places the right eye at the viewpoint A and the left eye at the viewpoint B, different pixels can be seen by the left and right eyes, so that a stereoscopic image can be seen.

また、このような立体映像を表示するための映像を撮影するためにカメラアレイが用いられる。カメラアレイとは、複数台の映像撮影装置を規則的に並べた装置である。このカメラアレイは、より多くの情報量(画素数)を取得して撮影映像の解像度を高め、また、より多くの視点からの映像を撮影することができる。   In addition, a camera array is used to capture a video for displaying such a stereoscopic video. The camera array is a device in which a plurality of video photographing devices are regularly arranged. This camera array can acquire a larger amount of information (number of pixels) to increase the resolution of the captured image, and can capture images from more viewpoints.

カメラアレイの構成としては、多数のカメラを、等間隔に平行に配置する方法が知られている(非特許文献2参照)。また、カメラを物体を中心とした円周上に設置し、この円周を水平に一回転して物体を撮影する回転カメラシステムも知られている(非特許文献3参照)。
特開平7−7747号公報 M.G.Lippmann、「Epreuves reversibles donnant la sensation du relief」、(フランス)、Vol.7、J. de Phys、1908、p.821−825 古川、羽沼、高木、「指向性三次元表示に用いる平行カメラアレイによる三次元動画像の取得」、3次元画像コンファレンス2005 高木、大力、「高密度指向性表示三次元ディスプレイによる質感表示」、3次元画像コンファレンス2005
As a configuration of the camera array, a method of arranging a large number of cameras in parallel at equal intervals is known (see Non-Patent Document 2). There is also known a rotating camera system in which a camera is installed on a circumference centered on an object and the circumference is horizontally rotated once to photograph an object (see Non-Patent Document 3).
Japanese Patent Laid-Open No. 7-7747 MGLippmann, “Epreuves reversibles donnant la sensation du relief” (France), Vol. 7, J. de Phys, 1908, p. 821-825 Furukawa, Hanuma, Takagi, “Acquisition of three-dimensional moving image by parallel camera array used for directional three-dimensional display”, three-dimensional image conference 2005 Takagi, Daikoku, "Texture Display with High-Density Directional Display 3D Display", 3D Image Conference 2005

前述したカメラアレイによる裸眼立体視ディスプレイでは、通常、カメラと視点が一対一に対応するようにカメラを設置するが普通である。   In the above-described autostereoscopic display using a camera array, the camera is usually installed so that the camera and the viewpoint correspond one-to-one.

一方、インテグラルフォトグラフィ方式の裸眼立体視ディスプレイは、ディスプレイ面上の解像度が一番高く、ディスプレイ面から離れた立体像の解像度が低くなるという特徴を持つ。そのため、例えば、前記、平面上に格子に光軸を平行に並べたカメラアレイでは、ディスプレイ面では非常に密にサンプリングすることになり、解像度が低下する不具合がある。また、平面上に格子に光軸が交わるように並べたカメラアレイでは、平面の中心と端でのカメラでの、被写体までの距離の違いが大きく、被写界振動の影響が大きく出る課題がある。   On the other hand, an integral photography autostereoscopic display has the highest resolution on the display surface and a low resolution of a stereoscopic image away from the display surface. Therefore, for example, in the camera array in which the optical axes are arranged in parallel on the plane on the plane, sampling is performed very densely on the display surface, and there is a problem that the resolution is lowered. In addition, in a camera array arranged so that the optical axis intersects the grating on the plane, there is a large difference in the distance to the subject at the center and end of the plane, and there is a problem that the influence of field vibration is greatly affected is there.

また、円周にカメラを配置し、回転させるカメラアレイ方式では、横方向のみの視差画像しか撮影できないので、インテグラルフォトグラフィ法を用いた裸眼立体視ディスプレイには適用できない。   In addition, the camera array system in which cameras are arranged and rotated around the circumference can only capture parallax images in the horizontal direction, and thus cannot be applied to autostereoscopic displays using the integral photography method.

本発明は、以上のような問題点に鑑みてなされたものであり、カメラアレイの位置を球面上に並べ、かつ、カメラの光軸方向を被写体の中心に向けることによって、インテグラルフォトグラフィ方式の裸眼立体視ディスプレイでの解像度を向上させることを目的とする。   The present invention has been made in view of the above-described problems. An integral photography system is formed by arranging the positions of camera arrays on a spherical surface and directing the optical axis direction of the camera toward the center of the subject. An object of the present invention is to improve the resolution in the autostereoscopic display.

本発明による一実施形態によると、撮像レンズと撮像部とを備えた複数のカメラと、カメラを固定する略球面形状の架台と、を備えたカメラアレイと、カメラによって撮影された映像データを補正する映像処理装置と、映像処理装置によって補正されたカメラ毎の映像データを合成する映像合成装置と、複数の第1のレンズからなる第1のレンズアレイを備え、映像合成装置によって合成された映像データを立体映像として表示する立体映像表示装置と、を備える立体映像表示システムであって、カメラは、前記球面の垂直軸に関する所定の緯度の緯線と前記球面の水平軸に関する所定の緯度の緯線との交点に、前記球面の中心から所定の間隔で前記架台に配置され、球面の略中心にある被写体を撮影することを特徴とする。 According to an embodiment of the present invention, a camera array including a plurality of cameras including an imaging lens and an imaging unit, a substantially spherical base for fixing the camera, and video data captured by the camera are corrected. A video processing apparatus, a video synthesis apparatus that synthesizes video data for each camera corrected by the video processing apparatus, and a first lens array including a plurality of first lenses, and the video synthesized by the video synthesis apparatus A stereoscopic video display system for displaying data as a stereoscopic video, wherein the camera has a latitude line of latitude with respect to a vertical axis of the spherical surface and a latitude line of latitude with respect to a horizontal axis of the spherical surface The object is located at the intersection of the spherical surface at a predetermined interval from the center of the spherical surface and is photographed at a substantial center of the spherical surface.

本発明によると、カメラアレイにおる個々のカメラの光軸を一点で交わるように設置しているので、光軸が交わる面での映像の解像度を高くすることが可能である。また、カメラを球面に並べることによって、各カメラの焦点距離も光軸の交点上で一致し、かつ、光軸の交点を含む平面上での視域も一致させることが可能である。その結果、インテグラルフォトグラフィ方式の特徴であるディスプレイ面で一番解像度が高くなるような画像の取得が実現可能である。   According to the present invention, since the optical axes of the individual cameras in the camera array are installed so as to intersect at one point, it is possible to increase the resolution of the image on the surface where the optical axes intersect. Further, by arranging the cameras on a spherical surface, the focal lengths of the respective cameras can be matched at the intersection of the optical axes, and the viewing areas on the plane including the intersection of the optical axes can also be matched. As a result, it is possible to obtain an image with the highest resolution on the display surface, which is a feature of the integral photography system.

以下に、本発明の実施の形態について図面を参照して説明する。
<第1実施形態>
図1は、本発明の第1の実施の形態の立体映像撮影表示システムの構成図である。
Embodiments of the present invention will be described below with reference to the drawings.
<First Embodiment>
FIG. 1 is a configuration diagram of a stereoscopic video shooting and display system according to the first embodiment of the present invention.

この立体映像撮影表示システムは、カメラアレイ70、映像処理装置40、映像合成装置50及び立体映像表示装置60を備える。   This stereoscopic video shooting and display system includes a camera array 70, a video processing device 40, a video synthesis device 50, and a stereoscopic video display device 60.

カメラアレイ70は、光点11に置かれた対象物(被写体)を撮影することによって、映像データを取得する。カメラアレイ70は、複数のカメラ30と架台20とを備える。カメラ30は、レンズ31と撮像部32とを備える。このカメラ30は、それぞれ架台20の所定の位置に固定されており、レンズ31は、その光軸が架台の中心11に向かうように設置されている。従って、全てのカメラ30は、そのレンズ31の光軸が中心11の一点で交わるように設置されている。   The camera array 70 acquires video data by photographing an object (subject) placed at the light spot 11. The camera array 70 includes a plurality of cameras 30 and a gantry 20. The camera 30 includes a lens 31 and an imaging unit 32. Each camera 30 is fixed at a predetermined position on the gantry 20, and the lens 31 is installed such that its optical axis is directed toward the center 11 of the gantry. Therefore, all the cameras 30 are installed so that the optical axes of the lenses 31 intersect at one point of the center 11.

映像処理装置40は、各カメラ30にそれぞれ接続されており、カメラ30が撮影した映像データを取得して、取得した映像データに必要な処理を施し、これを映像合成装置50に送る。   The video processing device 40 is connected to each camera 30, acquires video data captured by the camera 30, performs necessary processing on the acquired video data, and sends this to the video composition device 50.

映像合成装置50は、各映像処理装置40から送られた映像データを収集し、これらを合成し、立体映像表示のための必要な処理を施して、所定の映像信号として立体映像表示装置60に送る。   The video composition device 50 collects the video data sent from the respective video processing devices 40, synthesizes them, performs necessary processing for stereoscopic video display, and sends them to the stereoscopic video display device 60 as a predetermined video signal. send.

立体映像表示装置60は、映像を表示し、その映像を観察者に立体映像として観察可能な映像を表示する。立体映像表示装置60は、ディスプレイ1と、多数のレンズ2によって構成されるレンズアレイ3とを備える。このディスプレイ1によって表示された映像が、レンズアレイ3の各レンズ2によって屈折されて、光点12を結ぶ。これによって、観察者が、光点12において立体映像表示装置60を観察すると、右眼及び左眼に結ばれた画像の差違によって立体映像を観察できる。   The stereoscopic image display device 60 displays an image, and displays an image that can be observed as a stereoscopic image for an observer. The stereoscopic image display device 60 includes a display 1 and a lens array 3 including a large number of lenses 2. The image displayed on the display 1 is refracted by each lens 2 of the lens array 3 to connect the light spots 12. Accordingly, when the observer observes the stereoscopic video display device 60 at the light spot 12, the stereoscopic video can be observed due to the difference between the images connected to the right eye and the left eye.

図2は、前述したカメラアレイ70の構成の説明図である。   FIG. 2 is an explanatory diagram of the configuration of the camera array 70 described above.

前述のように、カメラアレイ70は、架台20に複数のカメラ30が設置されており、それぞれのレンズ31は、その光軸が中心11に向かっている。   As described above, in the camera array 70, a plurality of cameras 30 are installed on the gantry 20, and the optical axis of each lens 31 is directed toward the center 11.

カメラ30は、略球面形状の架台20において、架台20の中心点である中心11からの緯度21と経度22とが交わる箇所に、所定の間隔で設置する。   The camera 30 is installed at a predetermined interval at a location where the latitude 21 and the longitude 22 from the center 11 that is the center point of the gantry 20 intersect in the substantially spherical gantry 20.

図2の例では、中心11を中心として、緯度10度、0度、−10度それぞれについて、経度10度、0度、−10度の箇所に三つのカメラ30を配置する。すなわち、9台のカメラ30が、架台20の球面上に設置される。これら9台のカメラ30が中心11に配置された対象物を撮影することによって、立体映像表示のための映像データが撮影される。   In the example of FIG. 2, the three cameras 30 are arranged at 10 degrees, 0 degrees, and −10 degrees of longitude about the center 11 and about 10 degrees, 0 degrees, and −10 degrees of latitude. That is, nine cameras 30 are installed on the spherical surface of the gantry 20. Video data for stereoscopic video display is shot by shooting these nine cameras 30 at the center 11.

なお、カメラ30は、全ての緯度21と経度22に関して必ずしも等間隔である必要はなく、違う緯度においては、違う間隔で等間隔に並んでいてもよいし、違う経度においては、違う間隔で等間隔に並んでいてもよい。   It should be noted that the cameras 30 do not necessarily need to be equally spaced with respect to all latitudes 21 and longitudes 22; they may be evenly spaced at different intervals at different latitudes, or at different intervals at different longitudes. It may be arranged at intervals.

例えば、緯度0度において、経度−10度、0度、10度にカメラを設置し、緯度10度と経度−10度とにおいて、経度−15度、−5度、5度、15度にカメラを設置する。従って、カメラ30を互い違いに設置してもよい。また、経度と緯度との組み合わせを、擬似乱数によって決定したり、全てのカメラ30をランダムに設置してもよい。全てのカメラ30が架台20において球面上にかつ光軸が一点で交わっていればよい。   For example, at 0 degrees latitude, cameras are installed at longitudes of −10 degrees, 0 degrees, and 10 degrees, and at latitudes of 10 degrees and longitudes of −10 degrees, the cameras are at longitudes of −15 degrees, −5 degrees, 5 degrees, and 15 degrees. Is installed. Therefore, the cameras 30 may be installed alternately. Further, the combination of longitude and latitude may be determined by pseudo random numbers, or all the cameras 30 may be installed at random. It suffices that all the cameras 30 are on the spherical surface of the gantry 20 and the optical axes intersect at one point.

図3は、カメラアレイ70の別の構成の説明図である。   FIG. 3 is an explanatory diagram of another configuration of the camera array 70.

図3の例は、前述の図2の構成と異なり、垂直軸に対応する緯度21と、水平軸に対応する緯度22とが交差した箇所にカメラ30を設置する。   In the example of FIG. 3, unlike the configuration of FIG. 2 described above, the camera 30 is installed at a location where a latitude 21 corresponding to the vertical axis and a latitude 22 corresponding to the horizontal axis intersect.

前述した図2の構成では、カメラ30の位置が上端(北極)又は下端(南極)に近づくにつれてカメラ30の水平方向の間隔が狭くなる。これに対して図3の例では、上端又は下端近くでも水平方向の間隔は大きく変わらない。そのため、図2のカメラアレイ70と比較して、図3のカメラアレイ70によって撮影された映像データによって表示された立体映像は、水平方向の歪みがより少ない映像となる。   In the configuration of FIG. 2 described above, the horizontal interval between the cameras 30 becomes narrower as the position of the camera 30 approaches the upper end (north pole) or the lower end (south pole). On the other hand, in the example of FIG. 3, the horizontal interval does not change greatly even near the upper end or the lower end. Therefore, compared with the camera array 70 of FIG. 2, the stereoscopic video displayed by the video data captured by the camera array 70 of FIG. 3 is a video with less horizontal distortion.

図4は、カメラアレイ70のレンズ31の光軸の説明図である。   FIG. 4 is an explanatory diagram of the optical axis of the lens 31 of the camera array 70.

前述のように、カメラ30は、架台20において球面上に設置され、全てのカメラ30のレンズ31の光軸が中心11の一点で交差する。   As described above, the camera 30 is installed on a spherical surface in the gantry 20, and the optical axes of the lenses 31 of all the cameras 30 intersect at one point of the center 11.

そして、これらのレンズ31の画角によって撮影可能な範囲は、全て、中心11を中心とした範囲33に設定されている。従って、範囲33に置かれている対象物は、余すところなく全てのカメラ30によって撮影される。特に、カメラ30は、中心11を中心とした球面である架台20に設置されているので、レンズ31の焦点距離が中心11で一致し、かつ、全てのカメラ30によって撮影される範囲が範囲33において一致する。そのため、撮影された映像データは、解像度が最も高いデータとなる。従って、立体映像表示装置60によって表示される立体映像は、立体映像表示装置60のディスプレイ面において最も解像度が高い映像となる。さらに、観察者にとっては視線の誤差が少なく、よりきれいな裸眼立体視映像を観察者が観察できる。   The range that can be photographed depending on the angle of view of these lenses 31 is set to a range 33 with the center 11 as the center. Accordingly, the object placed in the range 33 is photographed by all the cameras 30 without leaving a surplus. In particular, since the camera 30 is installed on the gantry 20 which is a spherical surface with the center 11 as the center, the focal length of the lens 31 coincides with the center 11 and the range photographed by all the cameras 30 is a range 33. Match in Therefore, the captured video data has the highest resolution. Accordingly, the stereoscopic video displayed by the stereoscopic video display device 60 is a video with the highest resolution on the display surface of the stereoscopic video display device 60. Furthermore, the observer has little line-of-sight error, and the observer can observe a cleaner autostereoscopic image.

図5A乃至図5Dは、カメラ30、映像処理装置40、映像合成装置50及び立体映像表示装置60の論理的な構成例の説明図である。   5A to 5D are explanatory diagrams of logical configuration examples of the camera 30, the video processing device 40, the video synthesis device 50, and the stereoscopic video display device 60.

図5Aは、図1において前述したように、各カメラ30にそれぞれ映像処理装置40が接続されている例を示す。この各映像処理装置40によって出力された映像データが、映像合成処理装置50で合成され、立体映像表示装置60によって再構築されて、立体映像として表示される。   FIG. 5A shows an example in which the video processing device 40 is connected to each camera 30 as described above with reference to FIG. The video data output by each video processing device 40 is synthesized by the video synthesis processing device 50, reconstructed by the stereoscopic video display device 60, and displayed as a stereoscopic video.

図5Bは、別の構成例を示す。図5Bの例では、映像処理装置40又は立体映像表示装置60の何れか一方が、映像合成装置50において実行される処理を実行する。又は、映像処理装置40及び立体映像表示装置60の双方が、映像合成装置50において実行される処理を実行する。   FIG. 5B shows another configuration example. In the example of FIG. 5B, either the video processing device 40 or the stereoscopic video display device 60 executes processing that is executed in the video composition device 50. Alternatively, both the video processing device 40 and the stereoscopic video display device 60 execute processing executed in the video composition device 50.

映像処理装置40又は立体映像表示装置60の処理能力が充分に高い場合は、何れか一方又は双方に映像合成装置50によって実行される処理を実行させることが可能となる。   When the processing capability of the video processing device 40 or the stereoscopic video display device 60 is sufficiently high, it is possible to cause one or both of the processing to be executed by the video synthesis device 50 to be executed.

図5Cは、さらに別の構成例を示す。図5Cの例では、一つの映像処理装置40が、複数のカメラ30が取得した画像データを処理して、映像合成処理装置50にデータを出力する。   FIG. 5C shows still another configuration example. In the example of FIG. 5C, one video processing device 40 processes image data acquired by a plurality of cameras 30 and outputs the data to the video composition processing device 50.

映像処理装置40の処理能力が充分に高い場合は、カメラ30の台数よりも少ない映像処理装置40によって、カメラ30が取得した画像データを処理することが可能となる。   When the processing capability of the video processing device 40 is sufficiently high, the image data acquired by the camera 30 can be processed by the video processing devices 40 that are fewer than the number of cameras 30.

なお、図5Cの例においても、図5Bにおいて前述したように、映像合成処理装置50の処理を、映像処理装置40及び立体映像表示装置60の何れか一方又は双方によって実行してもよい。   In the example of FIG. 5C as well, as described above with reference to FIG. 5B, the processing of the video composition processing device 50 may be executed by one or both of the video processing device 40 and the stereoscopic video display device 60.

図5Dは、さらに別の構成例を示す。図5Dの例では、前述の映像処理装置40及び映像合成装置50の実行する処理を、全て立体映像表示装置60によって実行する。すなわち、立体画像表示装置60の処理能力が充分に高い場合は、カメラ30が撮影した映像データを取得し、以降の全ての処理を立体画像表示装置60において実行することが可能となる。   FIG. 5D shows still another configuration example. In the example of FIG. 5D, all the processes executed by the video processing device 40 and the video composition device 50 described above are executed by the stereoscopic video display device 60. That is, when the processing capability of the stereoscopic image display device 60 is sufficiently high, it is possible to acquire video data captured by the camera 30 and execute all subsequent processing in the stereoscopic image display device 60.

次に、前述のように構成された立体映像撮影表示システムの処理を説明する。   Next, the processing of the stereoscopic video shooting and display system configured as described above will be described.

図6は、映像処理装置40によって実行される処理の説明図である。   FIG. 6 is an explanatory diagram of processing executed by the video processing device 40.

カメラ30によって撮影された映像データが、映像処理装置40に送られる。この映像データは、映像取得部41によって取得される。幾何補正部42は、取得した画像データに対して幾何学的な補正を実行する。また、色補正部43は、取得した画像データに対して色の補正を実行する。そして、これら幾何学的な補正及び色の補正がされた映像データが、映像合成装置60に送られる。   Video data photographed by the camera 30 is sent to the video processing device 40. This video data is acquired by the video acquisition unit 41. The geometric correction unit 42 performs geometric correction on the acquired image data. Further, the color correction unit 43 performs color correction on the acquired image data. Then, the video data subjected to the geometric correction and the color correction is sent to the video composition device 60.

なお、幾何学的な補正及び色の補正は、一般的にカメラキャリリブレーションと呼ばれ、カメラ30のCCD等の映像撮影部の特性やレンズ31の特性等に応じた適切な補正が実行される。このカメラキャリブレーションには各種方法が知られている。なお、カメラ30自体がカメラキャリブレーションの機能を実行してもよい。また、カメラ30のCCDやレンズ31の特性が充分に良い場合や、実効性能を上げる必要がある場合は、カメラキャリブレーションを実行しなくてもよい。   Geometric correction and color correction are generally called camera calibration, and appropriate correction is performed according to the characteristics of the image capturing unit such as the CCD of the camera 30 and the characteristics of the lens 31. The Various methods are known for this camera calibration. Note that the camera 30 itself may execute a camera calibration function. Further, when the characteristics of the CCD and the lens 31 of the camera 30 are sufficiently good or when it is necessary to improve the effective performance, the camera calibration need not be executed.

図7は、映像合成装置50によって実行される処理の説明図である。   FIG. 7 is an explanatory diagram of processing executed by the video composition device 50.

各カメラ30によって撮影され、映像処理装置40によって処理された映像データが、全て映像合成装置50に送られる。これらの映像データが、映像合成部51に入力される。   All video data shot by each camera 30 and processed by the video processing device 40 is sent to the video composition device 50. These video data are input to the video composition unit 51.

映像合成部51は、映像データに、その映像データの各画素に対応する固有の光線情報を付加する。そして、光線情報を付加した映像データを合成したデータに変換する。このことによって、立体映像表示装置60が立体映像として表示可能な立体映像データが生成される。なお、映像データに光線情報を付加することによって、インテグラルフォトグラフィ方式の裸眼立体視ディスプレイだけでなく、他の方式、例えば二眼式や多眼式等の方式を用いた裸眼立体視ディスプレイでの立体映像の表示も可能となる。   The video composition unit 51 adds unique light beam information corresponding to each pixel of the video data to the video data. Then, the video data to which the light ray information is added is converted into synthesized data. As a result, stereoscopic video data that can be displayed as a stereoscopic video by the stereoscopic video display device 60 is generated. In addition, by adding light ray information to video data, not only integral photography autostereoscopic displays, but also autostereoscopic displays using other methods, such as binocular and multi-view types. 3D video can be displayed.

次に、エンコード部52は、光線情報が付加した立体映像データに、必要に応じて、符号化や暗号化を実行する。例えば、映像合成装置50と立体映像表示装置60とが、内部バスに比べて低速なネットワーク回線等で接続されている場合には、立体映像データをこのネットワーク回線の帯域幅に適したデータに変換して送信する必要がある。また、インターネット等の公衆回線を用いる場合には、立体映像データの秘匿性のための処理が必要となる場合もありうる。   Next, the encoding unit 52 performs encoding and encryption as necessary on the stereoscopic video data to which the light ray information is added. For example, when the video composition device 50 and the stereoscopic video display device 60 are connected by a network line that is slower than the internal bus, the stereoscopic video data is converted into data suitable for the bandwidth of the network line. And need to send. In addition, when a public line such as the Internet is used, processing for concealing stereoscopic video data may be necessary.

そのため、エンコード部52において、送信する立体映像データの情報量を削減するための符号化処理や、暗号化等の処理を実行する。なお、データの符号化、暗号化には、既存の方法(例えばMPEG方式やRSA方式等)を用いる。なお、これらの符号化方法、暗号化方法は、各種の方法が知られているので、どのような方式を用いてもかまわない。   Therefore, the encoding unit 52 executes an encoding process for reducing the amount of information of the stereoscopic video data to be transmitted and a process such as encryption. Note that an existing method (for example, MPEG method or RSA method) is used for data encoding and encryption. In addition, since various methods are known for these encoding methods and encryption methods, any method may be used.

なお、映像合成装置50と立体映像表示装置60とが高速な内部バスで接続されている場合や、立体映像表示処理部60が映像合成装置50の処理を実行する場合は、エンコード部52は必要ない。   Note that the encoding unit 52 is necessary when the video composition device 50 and the stereoscopic video display device 60 are connected by a high-speed internal bus, or when the stereoscopic video display processing unit 60 executes the processing of the video composition device 50. Absent.

図8は、立体映像表示装置60によって実行される処理の説明図である。   FIG. 8 is an explanatory diagram of processing executed by the stereoscopic video display device 60.

映像合成装置50によって生成された立体映像データが、立体映像表示装置60に送られる。立体映像表示装置60において、まず、デコード部61は、映像合成装置50のエンコード部52によって符号化又は暗号化されたデータを元の映像データに復元する処理を実行する。なお。エンコード部52が符号化又は暗号化の処理を実行しなかった場合は、デコード部61は、同様に処理を実行しない。   The stereoscopic video data generated by the video composition device 50 is sent to the stereoscopic video display device 60. In the stereoscopic video display device 60, first, the decoding unit 61 executes a process of restoring the data encoded or encrypted by the encoding unit 52 of the video composition device 50 to the original video data. Note that. When the encoding unit 52 does not execute the encoding or encryption process, the decoding unit 61 does not execute the process in the same manner.

デコード部61によって復元された立体映像データは、立体映像生成変換部62によって、光線情報と立体映像表示部64の情報とに基づいて、立体映像表示部64によって立体映像を表示するために必要なデータに変換する。   The stereoscopic video data restored by the decoding unit 61 is necessary for the stereoscopic video generation conversion unit 62 to display the stereoscopic video by the stereoscopic video display unit 64 based on the light ray information and the information of the stereoscopic video display unit 64. Convert to data.

次に、立体映像表示制御部63は、立体映像表示部64の動作を制御して、立体映像生成部64によって生成されたデータを、立体映像として、立体映像表示部64に表示する。   Next, the stereoscopic video display control unit 63 controls the operation of the stereoscopic video display unit 64 to display the data generated by the stereoscopic video generation unit 64 on the stereoscopic video display unit 64 as a stereoscopic video.

より具体的には、立体映像生成変換部62は、パーソナルコンピュータ等の汎用のコンピュータである。また、立体映像表示制御部63は、液晶を表示させるためのコントローラやドライバー等である。また、立体映像表示部64は、前述したディスプレイ1及びレンズアレイ3を備える。ディスプレイ1は、液晶パネルを用いる。   More specifically, the stereoscopic video generation conversion unit 62 is a general-purpose computer such as a personal computer. The stereoscopic video display control unit 63 is a controller, a driver, or the like for displaying liquid crystal. The stereoscopic video display unit 64 includes the display 1 and the lens array 3 described above. The display 1 uses a liquid crystal panel.

なお、立体映像表示部64は、これ以外にもさまざまな組み合わせが考えられる。例えば、レンズアレイ3とフラットパネルディスプレイとの組み合わせたものでもよい。フラットパネルディスプレイは、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、フィールドエミッションディスプレイ又は電子ペーパー等を用いることができる。また、立体映像表示部64は、必ずしも平坦なフラットパネルディスプレイである必要はなく、ブラウン管や、液晶を数枚組み合わせたものを用いてもよい。   Note that various combinations of the stereoscopic video display unit 64 are possible other than this. For example, a combination of the lens array 3 and a flat panel display may be used. As the flat panel display, a liquid crystal display, a plasma display, an organic EL display, a field emission display, electronic paper, or the like can be used. Further, the stereoscopic image display unit 64 is not necessarily a flat flat panel display, and a combination of a cathode ray tube or several liquid crystals may be used.

図9は、光線情報の説明図である。   FIG. 9 is an explanatory diagram of light ray information.

光線情報とは、映像合成部51によって、カメラ30によって撮影された画像の画素毎に設定される情報であり、カメラ30の位置や向き、及び、映像データ中の画素の位置によって定まる。立体映像データにこの光線情報を付加することによって、立体映像表示部64によって立体映像を表示することが可能となる。   The light ray information is information set for each pixel of the image taken by the camera 30 by the video composition unit 51, and is determined by the position and orientation of the camera 30 and the position of the pixel in the video data. By adding this light ray information to the stereoscopic video data, the stereoscopic video display unit 64 can display the stereoscopic video.

光線情報は、ベクトル情報として表される。一般的に、任意のベクトルは二つの点と二つの角度とによって決定することができる。   Ray information is represented as vector information. In general, any vector can be determined by two points and two angles.

図9に示すように、三次元座標x軸y軸及びz軸において、ベクトルとz軸とによってなされる角度をθとし、このベクトルをx−y平面に射影したときのベクトルとy軸とによってなされる角度をφとする。   As shown in FIG. 9, in the three-dimensional coordinate x-axis y-axis and z-axis, the angle formed by the vector and the z-axis is θ, and this vector is projected onto the xy plane by the vector and the y-axis. Let the angle made be φ.

このように、光線情報は、x−y平面の位置(x,y)と、角度θと、角度φとを持つ四次元のパラメータの情報である。   As described above, the ray information is information of four-dimensional parameters having the position (x, y) on the xy plane, the angle θ, and the angle φ.

図10は、映像合成装置50の映像合成部の処理のフローチャートである。   FIG. 10 is a flowchart of the processing of the video composition unit of the video composition device 50.

なお、ここでは四つのカメラ30から四つの映像データが入力された場合について説明する。   Here, a case where four video data are input from four cameras 30 will be described.

まず、映像合成部51は、受信した映像データに、重複しない識別子をである映像データ番号を付与する。具体的には、四つの映像データに対して、それぞれ0乃至3の値を付与する。なお、映像データ番号は、予め、カメラ30毎に決定しておけばよい。   First, the video composition unit 51 assigns a video data number that is a unique identifier to the received video data. Specifically, a value of 0 to 3 is assigned to each of the four video data. The video data number may be determined for each camera 30 in advance.

そして、映像合成部51は、映像データの処理のために映像データ番号nに初期値である0を設定して、最初に処理をする映像データを決定する(ステップS100)。   Then, the video composition unit 51 sets 0, which is an initial value, to the video data number n for processing the video data, and determines the video data to be processed first (step S100).

次に、受信した各映像データは二次元の映像であるので、この映像データ内の各画素を処理するために、映像合成部51は、映像データ内の縦座標を示すyに初期値である0を設定する(ステップS110)。続いて、映像データ内の横座標を示すxに初期値である0を設定する(ステップS120)。   Next, since each received video data is a two-dimensional video, in order to process each pixel in this video data, the video composition unit 51 has an initial value y indicating the ordinate in the video data. 0 is set (step S110). Subsequently, 0 which is an initial value is set to x indicating the abscissa in the video data (step S120).

なお、映像データ内の二次元座標の設定方法は、0ではなく1を初期値としてもよい。また、映像データの各画素の縦横のは位置が直行していれば、縦軸と横軸とをどのように設定してもかまわない。   Note that the setting method of the two-dimensional coordinates in the video data may be 1 as an initial value instead of 0. Further, as long as the vertical and horizontal positions of each pixel of the video data are orthogonal, the vertical axis and the horizontal axis may be set in any manner.

次に、映像合成部51は、映像データ番号nの映像データの画素(x,y)に対して、カメラ30の位置や向き、及び、映像データ中のその画素の位置から決定された、四次元のパラメータ(x,y,θ,φ)を持つ光線情報を計算する(ステップS130)。より具体的には、その映像データを撮影したカメラ30の位置及びその映像データの中の該当する画素の位置から対象物とのベクトルが定まるので、このベクトルを元に光線情報が決定される。   Next, the video composition unit 51 determines the position and orientation of the camera 30 and the position of the pixel in the video data for the pixel (x, y) of the video data of the video data number n. Light ray information having dimension parameters (x, y, θ, φ) is calculated (step S130). More specifically, since the vector with the object is determined from the position of the camera 30 that captured the video data and the position of the corresponding pixel in the video data, the ray information is determined based on this vector.

そして、映像合成部51は、計算された光線情報と映像データ内の画素のデータとを関連付けた立体映像データを生成し、生成した立体映像データを映像合成部51内のバッファに格納する(ステップS140)。なお、立体映像は、映像データとそれに対応する光線情報とを個別のデータとして設定し、これらの組を立体映像データとして格納しもよい。また、光線情報の任意のパラメータ(例えば光線情報のx軸の情報)にそって、順次、他のパラメータ及び対応する画素データを一つのデータとして格納してもよい。   Then, the video composition unit 51 generates stereoscopic video data in which the calculated light ray information is associated with the pixel data in the video data, and stores the generated stereoscopic video data in a buffer in the video synthesis unit 51 (Step S1). S140). Note that for stereoscopic video, video data and corresponding ray information may be set as individual data, and these sets may be stored as stereoscopic video data. In addition, other parameters and corresponding pixel data may be sequentially stored as one data in accordance with an arbitrary parameter of light ray information (for example, x-axis information of light ray information).

次に、映像合成部51は、xの値に1を加算して、次の画素の処理の準備をする(ステップS150)。そして、xの値が、映像データの横幅の画素数以下であるか否かを判定する(ステップS60)。xの値が映像データの横幅の画素数以下であればステップS130に戻り、対応する画素の処理を実行する。xの値がが映像データの横幅の画素数を超えた場合は、ステップS170に進む。   Next, the video composition unit 51 adds 1 to the value of x and prepares for the processing of the next pixel (step S150). Then, it is determined whether or not the value of x is equal to or less than the number of horizontal pixels of the video data (step S60). If the value of x is equal to or less than the number of horizontal pixels of the video data, the process returns to step S130 and the corresponding pixel processing is executed. If the value of x exceeds the number of horizontal pixels of the video data, the process proceeds to step S170.

ステップS170では、映像合成部51は、yの値に1を加算して、次の画素の処理の準備をする(ステップS170)。そして、yの値が映像データの縦幅の画素数以下であるか否かを判定する(ステップS180)。yの値が映像データの縦幅の画素数以下であれば、ステップS120に戻り、対応する画素の処理を実行する。yの値が映像データの横幅を超えた場合は、映像データの全ての画素の処置が終了したので、ステップS190に進む。   In step S170, the video composition unit 51 adds 1 to the value of y and prepares for the processing of the next pixel (step S170). Then, it is determined whether or not the value of y is equal to or less than the number of vertical pixels of the video data (step S180). If the value of y is equal to or less than the number of pixels of the vertical width of the video data, the process returns to step S120 and the corresponding pixel processing is executed. If the value of y exceeds the horizontal width of the video data, the processing for all the pixels of the video data has been completed, and the process proceeds to step S190.

ステップS190では、映像合成部51は、映像データ番号nに1を加算して次の映像データの処理の準備をする。そして、映像データ番号nが映像データの数(ここでは3)以下であるか否かを判定する(ステップS200)。映像データ番号nが映像データの数以下であれば、ステップS110に戻り、対応する映像データの処理を実行する。映像データ番号nが映像データの数を超えた場合は、以上の処理によって生成された立体映像データを、エンコード部52に出力して、処理を終了する。   In step S190, the video composition unit 51 prepares for the processing of the next video data by adding 1 to the video data number n. Then, it is determined whether or not the video data number n is equal to or less than the number of video data (here, 3) (step S200). If the video data number n is less than or equal to the number of video data, the process returns to step S110 to execute the corresponding video data processing. When the video data number n exceeds the number of video data, the stereoscopic video data generated by the above processing is output to the encoding unit 52, and the processing is terminated.

以上のような処理によって、映像合成部51は、各映像データの各画素に対応する光線情報を計算して、この光線情報を付与した立体映像データを生成する。   Through the processing as described above, the video composition unit 51 calculates light ray information corresponding to each pixel of each video data, and generates stereoscopic video data to which the light ray information is added.

図11は、立体映像生成変換部62の処理のフローチャートである。   FIG. 11 is a flowchart of the process of the stereoscopic video generation / conversion unit 62.

立体映像生成変換部62は、映像合成装置50によって生成された立体映像データが入力される。また、立体映像生成変換部62は、立体映像表示部64のディスプレイやレンズアレイの特性の情報である立体映像表示部プロファイルを予め保持している。立体映像生成変換部62は、この立体映像表示部プロファイルと入力された立体映像データとによって、立体映像を表示するためのデータを生成する。   The stereoscopic video generation conversion unit 62 receives the stereoscopic video data generated by the video composition device 50. In addition, the stereoscopic video generation / conversion unit 62 holds a stereoscopic video display unit profile that is information on the characteristics of the display and lens array of the stereoscopic video display unit 64 in advance. The stereoscopic video generation / conversion unit 62 generates data for displaying a stereoscopic video based on the stereoscopic video display unit profile and the input stereoscopic video data.

立体映像表示部64は、液晶パネル等の二次元映像表示デバイスを用いることが多いため、ここでは、二次元映像表示デバイスに立体映像を表示するための処理を説明する。なお、立体映像表示部64が三次元映像データを受け付けるデバイスであれば、z方向のパラメータを持ったデータを生成すればよい
まず、立体映像生成変換部62は、立体映像表示部64の縦座標を示すyに初期値である0を設定する(ステップS300)。続いて、立体映像表示部64の横座標を示すxに初期値である0を設定する(ステップS310)。
Since the stereoscopic video display unit 64 often uses a two-dimensional video display device such as a liquid crystal panel, a process for displaying a stereoscopic video on the two-dimensional video display device will be described here. If the stereoscopic video display unit 64 is a device that accepts 3D video data, it is only necessary to generate data having parameters in the z direction. An initial value of 0 is set in y indicating “S” (step S300). Subsequently, 0 which is an initial value is set to x indicating the abscissa of the stereoscopic video display unit 64 (step S310).

これら立体映像表示部64の二次元座標の設定方法は、立体映像表示部64の各画素二対応する座標に従ってどのように設定してもよく、初期値を0ではなく1としてもよい。   The setting method of the two-dimensional coordinates of the stereoscopic video display unit 64 may be set in any way according to the coordinates corresponding to each pixel of the stereoscopic video display unit 64, and the initial value may be 1 instead of 0.

次に、立体映像生成変換部62は、立体映像表示部プロファイルを参照して、そのx座標及びy座標に対応する画素によって表示される立体映像のための四次元のパラメータ(x,y,θ,φ)を持つ光線情報を計算する(ステップS320)。より具体的には、映像表示部64上の画素の位置から光点12とのベクトルが定まるので、このベクトルを元に光線情報が定まる。   Next, the stereoscopic video generation conversion unit 62 refers to the stereoscopic video display unit profile and refers to the four-dimensional parameters (x, y, θ) for the stereoscopic video displayed by the pixels corresponding to the x and y coordinates. , Φ) is calculated (step S320). More specifically, since the vector with the light spot 12 is determined from the position of the pixel on the video display unit 64, the light ray information is determined based on this vector.

そして、立体映像生成変換部62は、計算された光線情報に基づいて、この光線情報に最も近い光線情報のパラメータを持つ立体映像データの画素を選択する(ステップS330)。   Then, based on the calculated ray information, the stereoscopic image generation / conversion unit 62 selects a pixel of the stereoscopic image data having a parameter of ray information closest to the ray information (step S330).

この画素の選択は、各パラメータに重み付けをして、線形補間などの方法で一つの画素を選択してもよいし、近似する光線情報を何点か選択し、さらに、それぞれに線形補間などの方法を用いた計算によって対応する画素を求めてもよい。また、線形補間でなく、事前に変換テーブルを作成しておいて、これを利用してもよい。   This pixel selection may be performed by weighting each parameter and selecting one pixel by a method such as linear interpolation, or by selecting several points of approximate ray information, and further by linear interpolation or the like. The corresponding pixel may be obtained by calculation using a method. Further, instead of linear interpolation, a conversion table may be created in advance and used.

次に、立体映像生成変換部62は、xの値に1を加算して、次の画素の処理の準備をする(ステップS340)。そして、xの値が、立体映像表示部64の横幅以下であるか否かを判定する(ステップS350)。xの値が立体映像表示部64の横幅以下である場合は、ステップS320に戻り、対応する画素の処理を実行する。xの値が立体映像表示部64の横幅を超えた場合は、ステップS360に進む。   Next, the stereoscopic video generation conversion unit 62 adds 1 to the value of x and prepares for the processing of the next pixel (step S340). Then, it is determined whether or not the value of x is equal to or smaller than the horizontal width of the stereoscopic video display unit 64 (step S350). If the value of x is equal to or less than the horizontal width of the stereoscopic video display unit 64, the process returns to step S320 and the corresponding pixel process is executed. When the value of x exceeds the horizontal width of the stereoscopic video display unit 64, the process proceeds to step S360.

ステップS360では、立体映像生成変換部62は、yの値に1を加算して、次の画素の処理の準備をする。そして、yの値が、立体映像表示部64の縦幅以下であるか否かを判定する(ステップS370)。yの値が立体映像表示部64の縦幅以下である場合は、ステップS310に戻り、対応する画素の処理を実行する。yの値が立体映像表示部64の縦幅を超えた場合は、選択した画素のデータを立体映像表示制御部63を介して立体映像表示部64に送信して、立体映像を表示する。   In step S360, the stereoscopic video generation conversion unit 62 adds 1 to the value of y and prepares for the processing of the next pixel. Then, it is determined whether or not the value of y is equal to or less than the vertical width of the stereoscopic video display unit 64 (step S370). If the value of y is less than or equal to the vertical width of the stereoscopic video display unit 64, the process returns to step S310 and the corresponding pixel processing is executed. When the value of y exceeds the vertical width of the stereoscopic video display unit 64, the data of the selected pixel is transmitted to the stereoscopic video display unit 64 via the stereoscopic video display control unit 63 to display the stereoscopic video.

以上のような処理によって、立体映像表示部64が、立体映像データに基づいた立体映像として表示することが可能となる。   Through the processing as described above, the stereoscopic video display unit 64 can display a stereoscopic video based on the stereoscopic video data.

このように、本発明の第1の実施の形態は、カメラアレイ70の個々のカメラ30のレンズ31の光軸を、中心11において一点で交わるように設置しているので、光軸が交わる面での映像の解像度を高くすることができる。また、カメラを球面状の架台20に並べることによって、各カメラの焦点距離も中心11で一致し、かつ、中心11を含む範囲を一致させることができる。その結果、インテグラルフォトグラフィ方式の特徴であるディスプレイ面で最も解像度が高くなるような立体映像を表示することが可能となる。   As described above, in the first embodiment of the present invention, the optical axes of the lenses 31 of the individual cameras 30 in the camera array 70 are installed so as to intersect at a single point at the center 11, so the surfaces where the optical axes intersect. Video resolution can be increased. Further, by arranging the cameras on the spherical base 20, the focal lengths of the respective cameras can be matched at the center 11 and the range including the center 11 can be matched. As a result, it is possible to display a stereoscopic image having the highest resolution on the display surface, which is a feature of the integral photography system.

なお、映像処理装置40、映像合成装置50及び立体映像表示装置60は、機能的に異なるものであるため、別々として図示したが、全てを一つのパーソナルコンピュータで実行することも可能である。この場合は、各機能が、ソフトウェアによって構造的に分かれていればよいし、一つのソフトウェアによって全ての機能がまとめて実装されていてもよい。また、映像合成装置50と立体映像表示装置60とは通常ケーブルを介してネットワークによって接続されるが、カメラアレイ70で撮影した映像データを全て直接立体映像表示装置60に送ってもよい。
<第2実施形態>
次に、第2の実施の形態を説明する。
Note that the video processing device 40, the video composition device 50, and the stereoscopic video display device 60 are functionally different, and are illustrated as separate, but all can be executed by one personal computer. In this case, each function may be structurally divided by software, or all functions may be implemented collectively by one software. In addition, although the video composition device 50 and the stereoscopic video display device 60 are normally connected via a network via a cable, all video data captured by the camera array 70 may be sent directly to the stereoscopic video display device 60.
<Second Embodiment>
Next, a second embodiment will be described.

図12は、本発明の第2の実施の形態の立体映像撮影表示システムの構成図である。なお、第1の実施の形態と同一の構成には同一の号を付し、その説明は省略する。   FIG. 12 is a configuration diagram of a stereoscopic video shooting and display system according to the second embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the structure same as 1st Embodiment, and the description is abbreviate | omitted.

第2の実施の形態は、前述した第1の実施の形態とほぼ同様であるが、中心11の対象物(被写体)の配置方法が異なる。具体的には、範囲33(図4)に対応する箇所にレンズアレイ311を備える。そして、カメラ30が撮影する対象物が、レンズアレイ311の背面に置かれている。カメラ30は、このレンズアレイ311によって屈折された対象物の映像を撮影する。   The second embodiment is substantially the same as the first embodiment described above, but the arrangement method of the object (subject) at the center 11 is different. Specifically, a lens array 311 is provided at a location corresponding to the range 33 (FIG. 4). An object to be photographed by the camera 30 is placed on the back surface of the lens array 311. The camera 30 captures an image of the object refracted by the lens array 311.

レンズアレイ311には、レンズ毎に対象物の屈折像が映し出される。従って、カメラ30は、レンズアレイ311のレンズの個数と同じ数の対象物の画像を撮影することができる。   A refractive image of the object is displayed on the lens array 311 for each lens. Therefore, the camera 30 can take images of the same number of objects as the number of lenses in the lens array 311.

より解像度の高い立体映像を表示するためには、カメラ30の個数を増やすことによって情報量、すなわち、立体映像における視点の数を増やす必要がある。しかしながら、前述のように架台20の複数のカメラ30を設置する方法では、カメラ30の物理的な限界があるので、視点数を増やすことができない。   In order to display a stereoscopic video with higher resolution, it is necessary to increase the amount of information, that is, the number of viewpoints in the stereoscopic video by increasing the number of cameras 30. However, in the method of installing the plurality of cameras 30 on the gantry 20 as described above, the number of viewpoints cannot be increased because of the physical limitations of the camera 30.

そこで、本実施の形態では、カメラ30の個数を増やすのではなく、カメラ30によって撮影される対象物の個数を増やすことによって、視点数を増やす方法を採る。より具体的には、カメラアレイ70によって、[カメラ30の個数×レンズアレイ311のレンズの個数]分の映像を取得することができる。従って、この映像の数だけ視点数を増やすことができる。これによって、立体映像表示装置60は、より解像度の高く繊細な立体映像を表示することが可能となる。   Therefore, in the present embodiment, a method of increasing the number of viewpoints by increasing the number of objects photographed by the camera 30 instead of increasing the number of cameras 30 is adopted. More specifically, the camera array 70 can acquire images corresponding to [the number of cameras 30 × the number of lenses of the lens array 311]. Therefore, the number of viewpoints can be increased by the number of images. As a result, the stereoscopic video display device 60 can display a fine stereoscopic video with higher resolution.

なお、レンズアレイ311は、立体映像表示装置60に備えられたレンズアレイ3と同じ特性である必要はない。
<第3実施形態>
次に、第3の実施の形態を説明する。
Note that the lens array 311 does not have to have the same characteristics as the lens array 3 provided in the stereoscopic video display device 60.
<Third Embodiment>
Next, a third embodiment will be described.

図13は、本発明の第3の実施の形態の立体映像撮影表示システムの構成図である。なお、第1の実施の形態と同一の構成には同一の号を付し、その説明は省略する。   FIG. 13 is a configuration diagram of a stereoscopic video shooting and display system according to the third embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the structure same as 1st Embodiment, and the description is abbreviate | omitted.

第3の実施の形態は、前述した第1の実施の形態とほぼ同様であるが、カメラ30のレンズ31の構成が異なる。具体的には、レンズ31とカメラ30の撮像部との間にレンズアレイ312を備える。これによって、前述した第2の実施の形態とほぼ同様の効果を得ることができる。   The third embodiment is substantially the same as the first embodiment described above, but the configuration of the lens 31 of the camera 30 is different. Specifically, a lens array 312 is provided between the lens 31 and the imaging unit of the camera 30. Thereby, substantially the same effect as that of the second embodiment described above can be obtained.

すなわち、カメラ30において、レンズアレイ312によってレンズ毎に対象物の屈折像が映し出される。従って、カメラ30は、レンズアレイ312のレンズの個数と同じ数の対象物の画像を撮影することができる。これによって、第2の実施の形態と同様に、カメラアレイ70によって、[カメラ30の個数×レンズアレイ312のレンズの個数]分の映像を取得することができる。従って、この映像の数だけ視点数を増やすことができ、立体映像表示装置60は、より解像度の高く繊細な立体映像を表示することが可能となる。   In other words, in the camera 30, a refraction image of the object is displayed for each lens by the lens array 312. Accordingly, the camera 30 can take images of the same number of objects as the number of lenses in the lens array 312. Thus, as in the second embodiment, the camera array 70 can acquire [number of cameras 30 × number of lenses of the lens array 312] images. Therefore, the number of viewpoints can be increased by the number of videos, and the stereoscopic video display device 60 can display a fine stereoscopic video with higher resolution.

なお、レンズアレイ312は、立体映像表示装置60に備えられたレンズアレイ3と同じ特性である必要はない。   The lens array 312 does not need to have the same characteristics as the lens array 3 provided in the stereoscopic video display device 60.

本発明は、テレビ電話、ゲーム機などのアミューズメント装置、CADや各種コンテンツ制作のための立体映像表示装置に適用できる。   The present invention can be applied to an amusement device such as a videophone and a game machine, a stereoscopic image display device for CAD and various contents production.

本発明の第1の実施の形態の立体映像撮影表示システムの構成図である。1 is a configuration diagram of a stereoscopic video shooting and display system according to a first embodiment of the present invention. 本発明の第1の実施の形態の前述したカメラアレイの構成の説明図である。It is explanatory drawing of a structure of the camera array mentioned above of the 1st Embodiment of this invention. 本発明の第1の実施の形態のカメラアレイの別の構成の説明図である。It is explanatory drawing of another structure of the camera array of the 1st Embodiment of this invention. 本発明の第1の実施の形態のカメラアレイの光軸の説明図である。It is explanatory drawing of the optical axis of the camera array of the 1st Embodiment of this invention. 本発明の第1の実施の形態のカメラ、映像処理装置、映像合成装置及び立体映像表示装置の論理的な構成例の説明図である。It is explanatory drawing of the logical structural example of the camera of 1st Embodiment of this invention, a video processing apparatus, a video synthesizing | combining apparatus, and a three-dimensional video display apparatus. 本発明の第1の実施の形態のカメラ、映像処理装置、映像合成装置及び立体映像表示装置の別の論理的な構成例の説明図である。It is explanatory drawing of another logical structural example of the camera of 1st Embodiment of this invention, a video processing apparatus, a video synthesizing | combining apparatus, and a three-dimensional video display apparatus. 本発明の第1の実施の形態のカメラ、映像処理装置、映像合成装置及び立体映像表示装置の別の論理的な構成例の説明図である。It is explanatory drawing of another logical structural example of the camera of 1st Embodiment of this invention, a video processing apparatus, a video synthesizing | combining apparatus, and a three-dimensional video display apparatus. 本発明の第1の実施の形態のカメラ、映像処理装置、映像合成装置及び立体映像表示装置の別の論理的な構成例の説明図である。It is explanatory drawing of another logical structural example of the camera of 1st Embodiment of this invention, a video processing apparatus, a video synthesizing | combining apparatus, and a three-dimensional video display apparatus. 本発明の第1の実施の形態の映像処理装置によって実行される処理の説明図である。It is explanatory drawing of the process performed by the video processing apparatus of the 1st Embodiment of this invention. 本発明の第1の実施の形態の映像合成装置によって実行される処理の説明図である。It is explanatory drawing of the process performed by the video composition apparatus of the 1st Embodiment of this invention. 本発明の第1の実施の形態の立体映像表示装置によって実行される処理の説明図である。It is explanatory drawing of the process performed by the stereoscopic video display apparatus of the 1st Embodiment of this invention. 本発明の第1の実施の形態の光線情報の説明図である。It is explanatory drawing of the light ray information of the 1st Embodiment of this invention. 本発明の第1の実施の形態の映像合成装置の映像合成部の処理のフローチャートである。It is a flowchart of a process of the video composition part of the video composition device of a 1st embodiment of the present invention. 本発明の第1の実施の形態の立体映像生成変換部の処理のフローチャートである。It is a flowchart of the process of the stereo image production | generation conversion part of the 1st Embodiment of this invention. 本発明の第2の実施の形態の立体映像撮影表示システムの構成図である。It is a block diagram of the three-dimensional-video imaging | photography display system of the 2nd Embodiment of this invention. 本発明の第3の実施の形態の立体映像撮影表示システムの構成図である。It is a block diagram of the three-dimensional image | video imaging | photography display system of the 3rd Embodiment of this invention. 従来の、インテグラルフォトグラフィ方式の説明図である。It is explanatory drawing of the conventional integral photography system. 図14のA−A断面図である。It is AA sectional drawing of FIG.

符号の説明Explanation of symbols

1 ディスプレイ
2 レンズ
3 レンズアレイ
11架台の中心
12 光点
20 架台
30 カメラ
31 レンズ
32 撮像部
40 映像処理装置
50 映像合成装置
60 立体映像表示装置
70 カメラアレイ
DESCRIPTION OF SYMBOLS 1 Display 2 Lens 3 Lens array 11 Center of mount 12 Light spot 20 Mount 30 Camera 31 Lens 32 Image pick-up part 40 Image processing apparatus 50 Image composition apparatus 60 Three-dimensional image display apparatus 70 Camera array

Claims (10)

撮像レンズと撮像部とを備えた複数のカメラと、前記カメラを固定する略球面形状の架台と、を備えたカメラアレイと、
前記カメラによって撮影された映像データを補正する映像処理装置と、
前記映像処理装置によって補正された前記カメラ毎の映像データを合成する映像合成装置と、
複数の第1のレンズからなる第1のレンズアレイを備え、前記映像合成装置によって合成された映像データを立体映像として表示する立体映像表示装置と、を備える立体映像表示システムであって、
前記カメラは、前記球面の垂直軸に関する所定の緯度の緯線と前記球面の水平軸に関する所定の緯度の緯線との交点に、前記球面の中心から所定の間隔で前記架台に配置され、前記球面の略中心にある被写体を撮影することを特徴とする立体映像表示システム。
A camera array including a plurality of cameras including an imaging lens and an imaging unit; and a substantially spherical base that fixes the camera;
A video processing device for correcting video data captured by the camera;
A video synthesizing device that synthesizes video data for each of the cameras corrected by the video processing device;
A stereoscopic video display system comprising: a first lens array including a plurality of first lenses; and a stereoscopic video display device that displays video data synthesized by the video synthesis device as a stereoscopic video,
The camera is disposed on the gantry at a predetermined interval from the center of the spherical surface at an intersection of a predetermined latitude latitude line with respect to the vertical axis of the spherical surface and a predetermined latitude latitude line with respect to the horizontal axis of the spherical surface. A three-dimensional video display system characterized by photographing a subject at substantially the center.
前記撮像レンズは、光軸が前記球面の中心に向かっており、前記球面の略中心に焦点を合わせていることを特徴とする請求項1に記載の立体映像表示システム。2. The stereoscopic image display system according to claim 1, wherein the imaging lens has an optical axis directed toward a center of the spherical surface and is focused on a substantial center of the spherical surface. 前記カメラによって撮影される被写体が、前記球面の中心に配置されていることを特徴とする請求項1に記載の立体映像表示システム。The stereoscopic image display system according to claim 1, wherein a subject photographed by the camera is disposed at a center of the spherical surface. 前記架台は、前記球面の中心に複数の第2のレンズからなる第2のレンズアレイを備え、前記カメラは前記第2のレンズアレイによって屈折された被写体を撮影することを特徴とする請求項1に記載の立体映像表示システム。The gantry includes a second lens array including a plurality of second lenses at the center of the spherical surface, and the camera photographs a subject refracted by the second lens array. 3D image display system described in 1. 前記カメラは、前記撮像レンズと前記撮像部との間に複数の第3のレンズからなる第3のレンズアレイを備え、前記撮像レンズによって合焦され、前記第3のレンズアレイによって屈折された映像を撮影することを特徴とする請求項1に記載の立体映像表示システム。The camera includes a third lens array including a plurality of third lenses between the imaging lens and the imaging unit, and is focused by the imaging lens and refracted by the third lens array. The three-dimensional image display system according to claim 1, wherein the three-dimensional image display system is photographed. 撮像レンズと撮像部とを備えた複数のカメラと、前記カメラを固定する略球面形状の架台と、を備え、A plurality of cameras provided with an imaging lens and an imaging unit; and a substantially spherical frame for fixing the camera;
前記カメラによって撮影された映像データを補正する映像処理装置と、前記映像処理装置によって補正された前記カメラ毎の映像データを合成する映像合成装置と、複数の第1のレンズからなる第1のレンズアレイを備え、前記映像合成装置によって合成された映像データを立体映像として表示する立体映像表示装置と、を備える立体映像表示システムに接続されるカメラアレイであって、A video processing apparatus that corrects video data captured by the camera, a video synthesis apparatus that combines video data for each camera corrected by the video processing apparatus, and a first lens that includes a plurality of first lenses A camera array connected to a stereoscopic video display system comprising an array, and a stereoscopic video display device that displays video data synthesized by the video synthesis device as a stereoscopic video,
前記カメラは、前記球面の垂直軸に関する所定の緯度の緯線と前記球面の水平軸に関する所定の緯度の緯線との交点に、前記球面の中心から所定の間隔で前記架台に配置され、前記球面の略中心にある被写体を撮影することを特徴とするカメラアレイ。The camera is disposed on the pedestal at a predetermined distance from the center of the spherical surface at an intersection of a latitude line with a predetermined latitude with respect to the vertical axis of the spherical surface and a latitude line with a predetermined latitude with respect to the horizontal axis of the spherical surface. A camera array characterized by photographing a subject located substantially at the center.
前記撮像レンズは、光軸が前記球面の中心に向かっており、前記球面の略中心に焦点を合わせていることを特徴とする請求項6に記載のカメラアレイ。The camera array according to claim 6, wherein the imaging lens has an optical axis directed toward a center of the spherical surface and is focused on a substantial center of the spherical surface. 前記カメラによって撮影される被写体が、前記球面の中心に配置されていることを特徴とする請求項6に記載のカメラアレイ。The camera array according to claim 6, wherein a subject photographed by the camera is arranged at a center of the spherical surface. 前記架台は、前記球面の中心に複数の第2のレンズからなる第2のレンズアレイを備え、前記カメラは前記第2のレンズアレイによって屈折された被写体を撮影することを特徴とする請求項6に記載のカメラアレイ。7. The gantry includes a second lens array including a plurality of second lenses at the center of the spherical surface, and the camera photographs a subject refracted by the second lens array. The camera array described in 1. 前記カメラは、前記撮像レンズと前記撮像部との間に複数の第3のレンズからなる第3のレンズアレイを備え、前記撮像レンズによって合焦され、前記第3のレンズアレイによって屈折された映像を撮影することを特徴とする請求項6に記載のカメラアレイ。The camera includes a third lens array including a plurality of third lenses between the imaging lens and the imaging unit, and is focused by the imaging lens and refracted by the third lens array. The camera array according to claim 6, wherein the camera array is photographed.
JP2005340134A 2005-11-25 2005-11-25 3D image display device Expired - Fee Related JP4523538B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005340134A JP4523538B2 (en) 2005-11-25 2005-11-25 3D image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005340134A JP4523538B2 (en) 2005-11-25 2005-11-25 3D image display device

Publications (2)

Publication Number Publication Date
JP2007150536A JP2007150536A (en) 2007-06-14
JP4523538B2 true JP4523538B2 (en) 2010-08-11

Family

ID=38211436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005340134A Expired - Fee Related JP4523538B2 (en) 2005-11-25 2005-11-25 3D image display device

Country Status (1)

Country Link
JP (1) JP4523538B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101560616B1 (en) 2009-02-18 2015-10-16 삼성전자주식회사 2/3 2D/3D switchable integral imaging system
CN202068512U (en) * 2010-04-21 2011-12-07 刘家方 Stereo video live device watched with naked eyes
JP6450226B2 (en) * 2015-03-13 2019-01-09 日本放送協会 Camera control apparatus and program thereof
KR102333458B1 (en) * 2016-03-31 2021-11-30 스미토모 겐키 가부시키가이샤 Shovel and shovel display device
JP2020147105A (en) * 2019-03-12 2020-09-17 日本放送協会 Camera control device and program thereof and multi view point robot camera system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678338A (en) * 1992-08-27 1994-03-18 Olympus Optical Co Ltd Stereoscopic photographic device
JPH077747A (en) * 1993-06-21 1995-01-10 Toshiba Corp Stereoscopic display system
JPH118863A (en) * 1997-06-18 1999-01-12 Ricoh Co Ltd Three-dimensional camera
JPH1155690A (en) * 1997-07-31 1999-02-26 Sanyo Electric Co Ltd Stereoscopic display method, stereoscopic display device and computer readable recording medium recording stereoscopic display program
JP2001141423A (en) * 1999-11-11 2001-05-25 Fuji Photo Film Co Ltd Image pickup device and image processor
JP2002232768A (en) * 2001-02-06 2002-08-16 Olympus Optical Co Ltd Imaging apparatus for al-round image
JP2004336239A (en) * 2003-05-02 2004-11-25 Nippon Hoso Kyokai <Nhk> Stereoscopic video image correcting apparatus and method therefor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678338A (en) * 1992-08-27 1994-03-18 Olympus Optical Co Ltd Stereoscopic photographic device
JPH077747A (en) * 1993-06-21 1995-01-10 Toshiba Corp Stereoscopic display system
JPH118863A (en) * 1997-06-18 1999-01-12 Ricoh Co Ltd Three-dimensional camera
JPH1155690A (en) * 1997-07-31 1999-02-26 Sanyo Electric Co Ltd Stereoscopic display method, stereoscopic display device and computer readable recording medium recording stereoscopic display program
JP2001141423A (en) * 1999-11-11 2001-05-25 Fuji Photo Film Co Ltd Image pickup device and image processor
JP2002232768A (en) * 2001-02-06 2002-08-16 Olympus Optical Co Ltd Imaging apparatus for al-round image
JP2004336239A (en) * 2003-05-02 2004-11-25 Nippon Hoso Kyokai <Nhk> Stereoscopic video image correcting apparatus and method therefor

Also Published As

Publication number Publication date
JP2007150536A (en) 2007-06-14

Similar Documents

Publication Publication Date Title
JP4942221B2 (en) High resolution virtual focal plane image generation method
CN102457752B (en) Imaging device, image processing equipment, image processing method and program
JP5499778B2 (en) Imaging device
WO2011052064A1 (en) Information processing device and method
US8614738B2 (en) Stereoscopic image display method and stereoscopic image display apparatus
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
CN101636747A (en) Two dimensional/three dimensional digital information obtains and display device
CN101883215A (en) Imaging device
JP2020510241A5 (en)
JP4764624B2 (en) Stereoscopic display device and stereoscopic image generation method
JP2020514810A5 (en)
US20190132576A1 (en) Generating virtual reality content via light fields
JP7243631B2 (en) Regeneration device and method, and generation device and method
JP4523538B2 (en) 3D image display device
JP5452801B2 (en) Stereoscopic image generating apparatus and program thereof
JP2010181826A (en) Three-dimensional image forming apparatus
WO2018079283A1 (en) Image-processing device, image-processing method, and program
JP2019029721A (en) Image processing apparatus, image processing method, and program
US10965861B2 (en) Image processing device, image processing method, and program
US11012605B2 (en) Image processing device, image processing method, and program for generating a focused image
JP4183466B2 (en) Method for generating omnidirectional binocular stereoscopic image
JP4695557B2 (en) Element image group correction apparatus, element image group acquisition system, element image group correction method, and element image group correction program
JP5243359B2 (en) Stereoscopic image generation system and program
JPH08116556A (en) Image processing method and device
JP2011182003A (en) Panorama camera and 360-degree panorama stereoscopic video system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100527

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130604

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130604

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees