JP4875680B2 - 3D information integration apparatus and 3D information integration program - Google Patents

3D information integration apparatus and 3D information integration program Download PDF

Info

Publication number
JP4875680B2
JP4875680B2 JP2008232664A JP2008232664A JP4875680B2 JP 4875680 B2 JP4875680 B2 JP 4875680B2 JP 2008232664 A JP2008232664 A JP 2008232664A JP 2008232664 A JP2008232664 A JP 2008232664A JP 4875680 B2 JP4875680 B2 JP 4875680B2
Authority
JP
Japan
Prior art keywords
element image
group
image
dimensional information
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008232664A
Other languages
Japanese (ja)
Other versions
JP2010068251A (en
Inventor
淳 洗井
真宏 河北
文男 岡野
博史 川井
久幸 佐々木
人誌 日浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2008232664A priority Critical patent/JP4875680B2/en
Publication of JP2010068251A publication Critical patent/JP2010068251A/en
Application granted granted Critical
Publication of JP4875680B2 publication Critical patent/JP4875680B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、インテグラルフォトグラフィ(Integral Photography:以下IP)方式により複数の要素画像からなる三次元情報(要素画像群)を複数取得し、取得した複数の三次元情報のそれぞれについて大きさの比率および奥行き制御を行い、これらを統合して一つの三次元情報を生成するための三次元情報統合装置および三次元情報統合プログラムに関する。   The present invention acquires a plurality of three-dimensional information (group of element images) composed of a plurality of element images by an integral photography (hereinafter referred to as IP) method, and a ratio of sizes for each of the acquired plurality of three-dimensional information. The present invention relates to a three-dimensional information integration apparatus and a three-dimensional information integration program for performing depth control and integrating them to generate one piece of three-dimensional information.

一般に、レンズアレイや空間フィルタを通して被写体の三次元情報を取得する手法のうち、微小な光学素子アレイを用いて立体画像を撮像および表示する手法として、IP方式が知られている。   In general, among the methods for acquiring three-dimensional information of a subject through a lens array or a spatial filter, an IP method is known as a method for capturing and displaying a stereoscopic image using a minute optical element array.

ここで、図16(a)および図16(b)を用いてIP方式に基づく通常の立体画像撮影について説明する。図16(a)に示す立体画像撮影装置は、矢印で示す撮影方向114から、例えば、凸レンズで構成されたレンズ群112を通して被写体111を撮影する。ここで撮影方向114は、立体画像撮影装置がレンズ群112の前方(図16(a)では左方)に配置された被写体111を撮影する方向である。このときレンズ群112の後方(図16(a)では右方)の撮影板113には、レンズ群112を構成する凸レンズの個数と同じ個数だけ被写体111の像、例えば、像115が結像する。ここで、撮影板113は、基板上に配設された複数の撮像素子を備えて構成された情報取得デバイスである。各撮像素子は、例えば、CCD(Charge Coupled Device)撮像素子である。   Here, normal stereoscopic image shooting based on the IP method will be described with reference to FIGS. 16 (a) and 16 (b). The stereoscopic image capturing apparatus illustrated in FIG. 16A captures an object 111 from a capturing direction 114 indicated by an arrow through a lens group 112 configured by, for example, a convex lens. Here, the photographing direction 114 is a direction in which the stereoscopic image photographing device photographs the subject 111 arranged in front of the lens group 112 (leftward in FIG. 16A). At this time, on the imaging plate 113 behind the lens group 112 (right side in FIG. 16A), the same number of images of the subject 111, for example, the image 115 is formed as the number of convex lenses constituting the lens group 112. . Here, the imaging plate 113 is an information acquisition device configured to include a plurality of imaging elements arranged on a substrate. Each image sensor is, for example, a CCD (Charge Coupled Device) image sensor.

図16(b)は、一平面状に凸レンズを配列したレンズ群122と表示素子123により構成される立体画像表示装置、および立体像121、観察方向124、レンズ群の像125を示す図である。ここで、表示素子123には、図16(a)に示した立体画像撮影装置の撮影板113により撮影された像115に対応する像125を表示する。この表示素子123は、例えば液晶パネル等の情報表示デバイスから構成されている。立体画像表示装置から表示させた結果、図16(b)に示すように、被写体111が存在した場所と同じ場所に立体像121が生成される。ただし、立体像121は逆視像として生成される。すなわち、図16(a)に示すように、撮影方向114から見た場合には、被写体111の円柱が角柱に対して手前に存在している。ところが、図16(b)に示すように、被写体111に対応する立体像121では、観察方向124から見て、角柱が円柱の手前に生成されている。   FIG. 16B is a diagram showing a stereoscopic image display device including a lens group 122 in which convex lenses are arranged in one plane and a display element 123, a stereoscopic image 121, an observation direction 124, and an image 125 of the lens group. . Here, the display element 123 displays an image 125 corresponding to the image 115 photographed by the photographing plate 113 of the stereoscopic image photographing device shown in FIG. The display element 123 is composed of an information display device such as a liquid crystal panel. As a result of the display from the stereoscopic image display device, a stereoscopic image 121 is generated at the same place as the place where the subject 111 exists, as shown in FIG. However, the stereoscopic image 121 is generated as a reverse view image. That is, as shown in FIG. 16A, when viewed from the shooting direction 114, the cylinder of the subject 111 is present in front of the prism. However, as shown in FIG. 16B, in the stereoscopic image 121 corresponding to the subject 111, a prism is generated in front of the cylinder as viewed from the observation direction 124.

なお、図16(a)、図16(b)には微小な光学素子アレイとしてレンズ群を表示し、このレンズ群を用いて被写体の立体情報の取得および表示を行うものとして動作を説明したが、微小な光学素子アレイとしては微小開口アレイ(空間フィルタ)を使用しても良い。   In FIGS. 16A and 16B, the lens group is displayed as a minute optical element array, and the operation is described on the assumption that the three-dimensional information of the subject is acquired and displayed using this lens group. As a minute optical element array, a minute aperture array (spatial filter) may be used.

図16(a)において、被写体111の角柱の大きさ(高さ)をxc、レンズ群112から被写体111の角柱までの距離をzc、レンズ群112から像115が撮影される面までの距離をdc、レンズ群112を構成する凸レンズピッチをpc、レンズ群112を構成する凸レンズにより生成される被写体の像の大きさ(高さ)をkcとする。また、図16(b)において、立体像121の角柱の大きさ(高さ)をxr、レンズ群122から立体像121の角柱までの距離をzr、レンズ群122から像125が表示される面までの距離をdr、レンズ群122を構成する凸レンズピッチをpr、表示素子123に表示される個々の像の大きさ(高さ)をkrとする。この場合、xcとxrの関係は、非特許文献1により式(101)で表される。   In FIG. 16A, the size (height) of the prism of the subject 111 is xc, the distance from the lens group 112 to the prism of the subject 111 is zc, and the distance from the lens group 112 to the surface on which the image 115 is photographed. Let dc be the pitch of the convex lens that constitutes the lens group 112, and pc be the size (height) of the image of the subject that is generated by the convex lens that constitutes the lens group 112. In FIG. 16B, the size (height) of the prism of the stereoscopic image 121 is xr, the distance from the lens group 122 to the prism of the stereoscopic image 121 is zr, and the surface on which the image 125 is displayed from the lens group 122. , The convex lens pitch constituting the lens group 122 is pr, and the size (height) of each image displayed on the display element 123 is kr. In this case, the relationship between xc and xr is expressed by Equation (101) by Non-Patent Document 1.

Figure 0004875680
ここで、
Figure 0004875680
here,

前記した式(102)の関係から、図16(a)に示した立体画像撮影装置のレンズ群112を構成する凸レンズのピッチpcと、図16(b)に示した立体画像表示装置のレンズ群122を構成する凸レンズのピッチprとを異なるものとすることで、被写体111に対する立体像121の大きさの比率xr/xcを制御できることが導かれる。また、同様に、撮影された被写体の像115の大きさkcと、表示する像125の大きさkrとを変化させることで、被写体111に対する立体像121の大きさの比率xr/xcを制御できることが導かれる。   From the relationship of the above-described formula (102), the pitch pc of the convex lenses constituting the lens group 112 of the stereoscopic image capturing apparatus shown in FIG. 16A and the lens group of the stereoscopic image display apparatus shown in FIG. By making the pitch pr of the convex lenses constituting 122 different from each other, it is derived that the ratio xr / xc of the size of the stereoscopic image 121 with respect to the subject 111 can be controlled. Similarly, the ratio xr / xc of the size of the stereoscopic image 121 to the subject 111 can be controlled by changing the size kc of the photographed subject image 115 and the size kr of the displayed image 125. Is guided.

また、従来、被写体と比較して奥行きが反転した逆視像が生成される問題を解決するために、図16(a)に示した立体画像撮影装置で取得した情報を演算処理し、演算処理した後の情報を図16(b)に示す立体画像表示装置に入力し、最終的に正しい奥行きの立体像を生成する立体画像奥行き変換装置が開示されている(特許文献1参照)。   Conventionally, in order to solve the problem of generating a reverse-view image in which the depth is inverted compared to the subject, the information acquired by the stereoscopic image capturing device shown in FIG. A stereoscopic image depth conversion device that inputs the information after the input to the stereoscopic image display device shown in FIG. 16B and finally generates a stereoscopic image with the correct depth is disclosed (see Patent Document 1).

特許文献1で開示されている立体画像奥行き変換装置について図17(a)および図17(b)を参照して説明する。図17(a)は、図16(a)で取得した像131、第1の仮想的なレンズアレイ132、仮想的に生成される立体像133、第2の仮想的なレンズアレイ134、第2の仮想的なレンズアレイ134により生成される像135(仮想的に生成された立体像133の像)を示す図である。ここで、像135は、光学的に生成されるものではなく、立体画像奥行き変換装置の演算処理により生成される。   A stereoscopic image depth conversion device disclosed in Patent Document 1 will be described with reference to FIGS. 17 (a) and 17 (b). FIG. 17A shows the image 131 acquired in FIG. 16A, the first virtual lens array 132, the virtually generated stereoscopic image 133, the second virtual lens array 134, and the second. It is a figure which shows the image 135 (image of the three-dimensional image 133 produced | generated virtually) produced | generated by the virtual lens array 134 of FIG. Here, the image 135 is not optically generated, but is generated by calculation processing of the stereoscopic image depth conversion device.

図17(b)は、図17(a)で演算処理により生成された像141(つまり図16(a)における像135)、一平面状に凸レンズを配列したレンズ群142、立体像143、観察方向144を示す図である。図17(b)に示すように、例えば図16(b)の立体画像表示装置の動作の結果、観察方向144から見て、円柱が角柱に対して手前に観察されることとなる。立体像143は、図16(a)における被写体の奥行き関係と等価である。
特開2007−114483号公報 J. Opt. Soc. Am. A, Vol. 21, pp.951-958, 2004
FIG. 17B shows an image 141 generated by the arithmetic processing in FIG. 17A (that is, the image 135 in FIG. 16A), a lens group 142 in which convex lenses are arranged in one plane, a stereoscopic image 143, and an observation. FIG. As shown in FIG. 17B, for example, as a result of the operation of the stereoscopic image display apparatus of FIG. 16B, the cylinder is observed in front of the prism as viewed from the observation direction 144. The stereoscopic image 143 is equivalent to the depth relationship of the subject in FIG.
JP 2007-114483 A J. Opt. Soc. Am. A, Vol. 21, pp. 951-958, 2004

ところで、近年、より演出効果を高める狙いから、複数の三次元情報を統合し、一つの三次元情報を生成する技術の確立が望まれている。
しかしながら、従来技術では、単一の三次元空間の大きさの比率および奥行き制御処理を行うことができるものの、複数の三次元情報のそれぞれについて大きさの比率および奥行き制御処理を行った後に、これらを統合して、一つの三次元情報を生成することができない。また、複数の三次元情報を統合して、一つの三次元情報を生成する際には、一つの三次元情報を立体像として表示させたときに、複数の三次元情報が奥行き方向に互いに重なり合う部分に、いわゆるファントム現象が発生するのを防止することも重要な問題である。
By the way, in recent years, in order to further enhance the production effect, establishment of a technique for integrating a plurality of three-dimensional information and generating one three-dimensional information is desired.
However, although the conventional technology can perform the size ratio and depth control processing of a single three-dimensional space, after performing the size ratio and depth control processing for each of a plurality of three-dimensional information, It is not possible to generate one three-dimensional information by integrating. In addition, when a plurality of three-dimensional information is integrated to generate one three-dimensional information, when the three-dimensional information is displayed as a stereoscopic image, the plurality of three-dimensional information overlap each other in the depth direction. It is also an important problem to prevent the so-called phantom phenomenon from occurring in the part.

かかる事情に鑑み、本発明は、複数の三次元情報が互いに重なり合う部分にいわゆるファントム現象を発生させることなく、複数の三次元情報のそれぞれについて、大きさの比率および奥行き制御処理を行った後に、これらを統合して、一つの三次元情報を生成することが可能な三次元情報統合装置および三次元情報統合プログラムを提供することを目的とする。   In view of such circumstances, the present invention performs a size ratio and depth control processing for each of a plurality of three-dimensional information without causing a so-called phantom phenomenon in a portion where the plurality of three-dimensional information overlap each other. An object of the present invention is to provide a three-dimensional information integration apparatus and a three-dimensional information integration program capable of integrating these and generating one piece of three-dimensional information.

本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載の三次元情報統合装置は、被写体を立体画像として表示するために、インテグラルフォトグラフィ方式により取得した複数の要素画像からなる三次元情報を複数統合して一つの三次元情報を生成するための三次元情報統合装置であって、要素画像分離手段と、画素記憶手段と、立体画像奥行き制御手段と、統合三次元情報記憶手段と、画素値割り当て済み位置記憶手段と、出力手段と、を備えることを特徴とする。   The present invention was created to achieve the above object, and first, the three-dimensional information integration device according to claim 1 is acquired by an integral photography method in order to display a subject as a stereoscopic image. A three-dimensional information integration device for generating a single three-dimensional information by integrating a plurality of three-dimensional information composed of a plurality of element images, comprising: an element image separation means, a pixel storage means, and a stereoscopic image depth control means And integrated three-dimensional information storage means, pixel value assigned position storage means, and output means.

かかる構成によれば、三次元情報統合装置は、要素画像分離手段によって、外部から入力された操作信号に基づいて、複数の要素画像群についてそれぞれ、個々の要素画像から、所望の奥行き範囲に存在する被写体領域に対応する画素とそれ以外の領域に対応する画素を分離する。また、三次元情報統合装置は、要素画像分離手段によって、被写体領域に対応する画素からなる処理対象要素画像群をそれぞれ画素記憶手段に出力して記憶させる。   According to such a configuration, the three-dimensional information integration device exists in a desired depth range from each element image for each of a plurality of element image groups based on the operation signal input from the outside by the element image separation unit. A pixel corresponding to the subject area to be processed and a pixel corresponding to the other area are separated. In the three-dimensional information integration device, the element image separation unit outputs and stores the processing target element image group including the pixels corresponding to the subject area to the pixel storage unit.

また、三次元情報統合装置は、立体画像奥行き制御手段によって、画素記憶手段に記憶された複数の処理対象要素画像群のそれぞれに対応付けられた被写体のそれぞれについて指定された統合後の三次元情報における任意の奥行き位置を示す値により特定される、統合後の三次元情報において最も手前に配置される被写体に対応付けられた処理対象要素画像群から順に画素記憶手段から読み出し、当該読み出した処理対象要素画像群について、被写体の大きさに対する再生像の大きさの比率が予め設定された任意の値となるように制御する処理、および、奥行き位置を示す値に従って奥行き制御する処理を行って処理済要素画像群を生成する。 Further, the three-dimensional information integration apparatus is a three-dimensional information integration unit that is specified by the stereoscopic image depth control unit for each of the subjects associated with each of the plurality of processing target element image groups stored in the pixel storage unit. Are read from the pixel storage means in order from the processing target element image group associated with the subject arranged in the forefront in the integrated three-dimensional information specified by a value indicating an arbitrary depth position in the image, and the read processing target the elements images, processing is controlled to be any value that the size ratio of the reproduced image relative to size of the object is set in advance, and performs a process of controlling the depth according to the value that indicates the depth position processing A completed element image group is generated.

そして、三次元情報統合装置は、統合三次元情報記憶手段によって、立体画像奥行き制御手段により生成された処理済要素画像群を記憶する。そして、三次元情報統合装置は、画素値割り当て済み位置記憶手段によって、立体画像奥行き制御手段から入力された、統合三次元情報記憶手段に画素値が割り当てられた位置を記憶する。   Then, the 3D information integration apparatus stores the processed element image group generated by the stereoscopic image depth control unit by the integrated 3D information storage unit. Then, the three-dimensional information integration apparatus stores the position where the pixel value is assigned to the integrated three-dimensional information storage means, which is input from the stereoscopic image depth control means, by the pixel value assigned position storage means.

ここで、三次元情報統合装置は、二番目以降に統合の処理対象となる処理対象要素画像群については、立体画像奥行き制御手段によって、画素値割り当て済み位置記憶手段を参照し、当該処理対象要素画像群が割り当てられるべき画素のうち、統合三次元情報記憶手段においてまだ情報が割り当てられていない画素のみ、大きさの比率および奥行きを制御した画素値を統合三次元情報記憶手段の画素に割り当てる。   Here, the three-dimensional information integration apparatus refers to the pixel value assigned position storage unit by the stereoscopic image depth control unit for the processing target element image group that is the second and subsequent integration target processing units, and Of the pixels to which the image group is to be assigned, only the pixels to which no information has been assigned yet in the integrated three-dimensional information storage means are assigned pixel values whose size ratio and depth are controlled to the pixels of the integrated three-dimensional information storage means.

これによれば、複数の三次元情報の大きさの比率および奥行きを操作者の任意で制御して統合することができる。さらに、統合三次元情報において最も手前に配置される被写体の要素画像群から順に、大きさの比率および奥行き制御処理を行い、統合三次元情報記憶手段に画素値を割り当てるとともに、奥行き方向に複数の画素値を割り当てないようにしたため、統合三次元情報を立体画像として表示させたときに、複数の被写体が重なり合う部分については、手前に配置される被写体のみが表示されることとなる。これにより、複数の被写体が互いに重なりあう部分に、いわゆるファントム現象が発生することを防止することができる。   According to this, the size ratio and depth of the plurality of three-dimensional information can be arbitrarily controlled by the operator and integrated. Further, in the integrated 3D information, the size ratio and the depth control process are performed in order from the element image group of the subject arranged at the foremost side, the pixel values are assigned to the integrated 3D information storage means, and a plurality of pixels are arranged in the depth direction. Since the pixel value is not assigned, when the integrated 3D information is displayed as a stereoscopic image, only the subject arranged in front is displayed for the portion where a plurality of subjects overlap. Thereby, it is possible to prevent a so-called phantom phenomenon from occurring in a portion where a plurality of subjects overlap each other.

また、三次元情報統合装置は、全ての処理対象要素画像群についての大きさの比率および奥行き制御の終了後、出力手段によって、統合三次元情報記憶手段に記憶された統合三次元情報を外部へ出力する。出力先としては、例えば、表示装置や記憶媒体等が該当する。   Also, the 3D information integration apparatus outputs the integrated 3D information stored in the integrated 3D information storage means to the outside by the output means after the size ratio and depth control for all the processing target element image groups is completed. Output. For example, a display device or a storage medium corresponds to the output destination.

請求項2に記載の三次元情報統合装置は、請求項1に記載の立体画像表示装置において、前記立体画像奥行き制御手段が、前記処理対象要素画像群の光波を要素画像毎に分配する分配手段と、この分配手段で分配された要素画像の光波を、第1の仮想的な開口群を通過して前記第1の仮想的な開口群と開口のピッチの異なる第2の仮想的な開口群へ伝搬する光波に変換する第1要素画像変換手段と、この第1要素画像変換手段で変換されたそれぞれの要素画像の光波を前記分配された数だけ、前記第2の仮想的な開口群の入射面で加算する加算手段と、この加算手段で加算された光波を、前記要素画像毎に再分配する再分配手段と、この再分配手段で分配された要素画像の光波を、前記第2の仮想的な開口群を通過して結像するまでの距離だけ伝搬した光波に変換する第2要素画像変換手段と、この第2要素画像変換手段で変換された光波を、前記再分配された数だけ結合することで、前記処理済要素画像群を生成する結合手段と、を備え、前記処理対象要素画像群について大きさの比率を制御する処理を、予め任意の値に設定された前記第1の仮想的な開口群と前記第2の仮想的な開口群とのピッチの比Φに応じて行うことを特徴とする。
また、請求項2に記載の三次元情報統合装置は、請求項1または請求項2に記載の立体画像表示装置において、立体画像奥行き制御手段での全ての処理対象要素画像群についての大きさの比率および奥行き制御処理の終了後、外部から入力された操作信号に基づき、統合三次元情報記憶手段において、まだ画素値が割り当てられていない画素に画素値を割り当てる画素値割り当て手段をさらに備えることを特徴とする。これにより、統合三次元情報記憶手段の全ての画素に画素値を割り当てることができる。
The three-dimensional information integration device according to claim 2 is the stereoscopic image display device according to claim 1, wherein the stereoscopic image depth control means distributes the light wave of the processing target element image group for each element image. And the second virtual aperture group in which the light wave of the element image distributed by the distribution means passes through the first virtual aperture group and the pitch of the aperture is different from that of the first virtual aperture group. First element image conversion means for converting light waves propagating to the first element image conversion means, and light waves of the respective element images converted by the first element image conversion means for the second virtual aperture group by the distributed number. An addition means for adding on the entrance surface, a redistribution means for redistributing the light wave added by the addition means for each element image, and a light wave of the element image distributed by the redistribution means The distance from the virtual aperture group to the image formation A second element image converting means for converting into a propagated light wave, and a combination for generating the processed element image group by combining the redistributed number of light waves converted by the second element image converting means. Means for controlling the size ratio of the processing target element image group, the first virtual opening group and the second virtual opening group set to arbitrary values in advance. And the pitch ratio Φ.
Further, the 3D information integration apparatus according to claim 2 is the stereoscopic image display apparatus according to claim 1 or 2, wherein the size of all the processing target element image groups in the stereoscopic image depth control means is the same. After completion of the ratio and depth control processing, the integrated three-dimensional information storage means further comprises pixel value assigning means for assigning pixel values to pixels to which pixel values have not yet been assigned based on operation signals input from the outside. Features. Thereby, pixel values can be assigned to all the pixels of the integrated three-dimensional information storage means.

また、請求項に記載の三次元情報統合プログラムは、複数の要素画像からなる三次元情報を複数統合して一つの三次元情報を生成するために、コンピュータを、要素画像分離手段、画素記憶手段、立体画像奥行き制御手段、統合三次元情報記憶手段、画素値割り当て済み位置記憶手段、出力手段、として機能させることを特徴とする。 According to a fourth aspect of the present invention, there is provided a three-dimensional information integration program for integrating a plurality of three-dimensional information composed of a plurality of element images to generate a single piece of three-dimensional information. And a three-dimensional image depth control unit, an integrated three-dimensional information storage unit, a pixel value assigned position storage unit, and an output unit.

本発明は、以下に示す優れた効果を奏するものである。請求項1、2および請求項に記載の発明によれば、複数の三次元情報を統合した統合三次元情報を生成することができる。また、統合三次元情報記憶手段においてすでに画素値が割り当てられた位置には重複して画素値を割り当てないようにしているため、当該統合三次元情報を立体画像として表示させたときに、複数の被写体が互いに重なり合う部分にいわゆるファントム現象が発生しない統合三次元情報を生成することができる。また、複数の被写体の大きさの比率および奥行きを操作者の任意で制御して統合することができる。このため、様々なバリエーションの立体画像を生成することができ、画像の演出効果を高めることができる。さらに、本発明によれば、複数の三次元情報を統合した統合三次元情報を演算により生成することができるため、装置の構成を簡素化することができる。また、請求項に記載の発明によれば、請求項1に記載の発明の効果に加え、統合三次元情報記憶手段において統合三次元情報が割り当てられない画素にも、画素値を割り当てることができる。 The present invention has the following excellent effects. According to the invention described in claim 1, 2 and claim 4, it is possible to produce an integrated three-dimensional information that integrates a plurality of three-dimensional information. Further, since the pixel value is not assigned to the position where the pixel value has already been assigned in the integrated three-dimensional information storage means, when the integrated three-dimensional information is displayed as a stereoscopic image, a plurality of the pixel values are not assigned. It is possible to generate integrated three-dimensional information in which a so-called phantom phenomenon does not occur in a portion where subjects overlap each other. In addition, the size ratio and depth of a plurality of subjects can be arbitrarily controlled by the operator and integrated. For this reason, various variations of stereoscopic images can be generated, and the effect of rendering the images can be enhanced. Furthermore, according to the present invention, integrated three-dimensional information obtained by integrating a plurality of three-dimensional information can be generated by calculation, so that the configuration of the apparatus can be simplified. According to the invention described in claim 3 , in addition to the effect of the invention described in claim 1, it is possible to assign a pixel value to a pixel to which the integrated 3D information is not allocated in the integrated 3D information storage means. it can.

以下、本実施形態について、適宜図面を参照しながら詳細に説明する。
[概略]
まず、本実施形態に係る三次元情報統合装置の詳細な説明に先立ち、本発明の概略について図1を参照して簡単に説明する。図1は、本発明の概略を説明するための図であり、複数の三次元情報(要素画像群)を統合して一つの三次元情報(要素画像群)を生成する様子を説明するための説明図である。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as appropriate.
[Outline]
First, prior to detailed description of the three-dimensional information integration apparatus according to the present embodiment, an outline of the present invention will be briefly described with reference to FIG. FIG. 1 is a diagram for explaining the outline of the present invention, for explaining how a plurality of three-dimensional information (element image group) is integrated to generate one three-dimensional information (element image group). It is explanatory drawing.

図1に示すように、要素画像群30および要素画像群30は、フィルムに、ピンホールまたは凸レンズの大きさおよび数に応じた縮小された被写体の倒立像(要素画像)を撮影してなるものである。本実施形態の場合、要素画像群30は、円柱と三角錐からなる被写体および背景を撮影したものであり、要素画像群30は、球体と三角錐からなる被写体および背景を撮影したものである。本発明の三次元情報統合装置は、この要素画像群30の一部、例えば被写体領域と、要素画像群30の一部、例えば被写体領域のそれぞれについて、大きさの比率および奥行き制御処理を行った後に統合し、図1の最右図に示すような統合三次元情報を生成するものである。 As shown in FIG. 1, element image group 30 1 and the element image group 30 2, the film was shot inverted image of the reduced object corresponding to the size and number of pinholes or convex lens (element image) It will be. In this embodiment, the element image group 30 1 is obtained by photographing an object and a background consisting of a cylinder and triangular pyramid, elemental image group 30 2 is obtained by photographing an object and a background consisting of spherical and triangular pyramid is there. Three-dimensional information integration device of the present invention, a portion of the element images 30 1, for example, a subject area, a part of the elemental image group 30 2, for example, for each of the subject region, the magnitude ratio and the depth control processing After performing, it integrates and produces | generates integrated three-dimensional information as shown in the rightmost figure of FIG.

また、本発明の三次元情報統合装置は、IP方式により被写体を撮影して得られた要素画像群における被写体の大きさおよび奥行きに関わらず、複数の要素画像群のそれぞれの大きさの比率および奥行きを操作者の任意で制御した後に統合することが可能である。   Further, the three-dimensional information integration device of the present invention provides the ratio of the size of each of the plurality of element image groups, regardless of the size and depth of the object in the element image group obtained by photographing the subject by the IP method. It is possible to integrate after the depth is arbitrarily controlled by the operator.

[三次元情報統合装置の構成]
以下、図2を参照して、三次元情報統合装置1の構成について説明する。図2は、本実施形態に係る三次元情報統合装置の構成を示すブロック図である。
図2に示すように、本実施形態に係る三次元情報統合装置1は、要素画像分離手段2と、画素記憶手段3と、立体画像奥行き制御手段4と、統合三次元情報記憶手段5と、画素値割り当て済み位置記憶手段6と、画素値割り当て手段7と、出力手段8と、を備えている。
[Configuration of 3D information integration device]
Hereinafter, the configuration of the three-dimensional information integration device 1 will be described with reference to FIG. FIG. 2 is a block diagram showing the configuration of the three-dimensional information integration apparatus according to this embodiment.
As shown in FIG. 2, the three-dimensional information integration device 1 according to this embodiment includes an element image separation unit 2, a pixel storage unit 3, a stereoscopic image depth control unit 4, an integrated three-dimensional information storage unit 5, A pixel value assigned position storage means 6, a pixel value assignment means 7, and an output means 8 are provided.

要素画像分離手段2は、外部から入力された操作信号に基づいて、IP方式で撮影された複数の三次元情報(要素画像群)を受け取り、複数の要素画像群についてそれぞれ、個々の要素画像から、所望の奥行き範囲に存在する被写体領域に対応する画素とそれ以外の領域に対応する画素を分離するものである。   The element image separation means 2 receives a plurality of three-dimensional information (element image groups) photographed by the IP method based on an operation signal input from the outside, and each of the plurality of element image groups is obtained from each element image. The pixel corresponding to the subject area existing in the desired depth range and the pixel corresponding to the other area are separated.

要素画像分離手段2は、例えば、映像信号の色・輝度成分を利用するものや、被写体の奥行き情報を利用するものが該当する。映像信号の色成分を利用する手法としては、クロマキー技術を利用することができる。これは、ある特定の色(キー信号)の背景の前面に被写体を配置して三次元情報を生成し、外部から入力された操作信号に基づいて、個々の要素画像から特定の色を有する映像信号のみをキー信号として分離し、キー信号以外の映像信号のみを抽出するものである。これによれば、所望の奥行き範囲に存在する被写体領域(キー信号以外の映像信号)とそれ以外の領域(キー信号)を分離することができる。   The element image separation means 2 corresponds to, for example, one that uses color / luminance components of a video signal and one that uses depth information of a subject. A chroma key technique can be used as a method of using the color component of the video signal. This is a video having a specific color from individual element images based on an operation signal input from the outside by generating a three-dimensional information by placing a subject in front of a background of a specific color (key signal). Only the signal is separated as the key signal, and only the video signal other than the key signal is extracted. According to this, it is possible to separate the subject area (video signal other than the key signal) existing in the desired depth range and the other area (key signal).

また、被写体の奥行き情報を利用する手法では、個々の要素画像から被写体の奥行き情報を算出し、算出した奥行き情報を用いて、所望の奥行き範囲に存在する被写体領域とそれ以外の領域を分離することができる。
複数の要素画像群のそれぞれについて、操作者により入力手段を介して所望の奥行き範囲が入力されると、要素画像分離手段2が、算出された奥行き情報に基づいて、個々の要素画像から当該奥行き範囲に存在する画素を抽出することにより、所望の奥行き範囲に存在する被写体領域とそれ以外の領域(背景領域)を分離できるようになっている。複数の被写体が重なり合っている場合には、複数の被写体を全て抽出するか、あるいは、一番手前の被写体のみを抽出する。要素画像分離手段2によって分離された所望の奥行き範囲に存在する被写体に対応する画素は、処理対象要素画像群として画素記憶手段3に出力され、記憶される。
Further, in the method using the depth information of the subject, the depth information of the subject is calculated from each element image, and the subject region existing in the desired depth range is separated from the other region using the calculated depth information. be able to.
When a desired depth range is input by the operator via the input unit for each of the plurality of element image groups, the element image separation unit 2 determines the depth from each element image based on the calculated depth information. By extracting the pixels existing in the range, the subject region existing in the desired depth range and the other region (background region) can be separated. If a plurality of subjects are overlapped, all the plurality of subjects are extracted, or only the foremost subject is extracted. Pixels corresponding to a subject existing in a desired depth range separated by the element image separation unit 2 are output to the pixel storage unit 3 and stored as a processing target element image group.

ここで、外部から入力された操作信号とは、本実施形態では、入力手段20を介した操作者による三次元情報統合装置1への所定の操作信号の入力をいう。入力手段20とは、例えば、コンピュータのキーボード等が該当し、所定の操作信号の入力とは、例えば、コンピュータのキーボードの操作等が該当する。例えば、被写体の奥行き情報を利用する手法では、コンピュータのキーボードで奥行き範囲の数値を入力することが該当する。   Here, the operation signal input from the outside means an input of a predetermined operation signal to the three-dimensional information integration apparatus 1 by the operator via the input unit 20 in the present embodiment. The input means 20 corresponds to, for example, a computer keyboard, and the input of a predetermined operation signal corresponds to, for example, an operation of a computer keyboard. For example, in the method using the depth information of the subject, inputting a numerical value of the depth range with a computer keyboard is applicable.

画素記憶手段3は、要素画像分離手段2から入力された所望の奥行き範囲に存在する被写体領域に対応する画素で構成される複数の処理対象要素画像群を記憶するものである。この画素記憶手段3は、例えば、ハードディスクや光メモリ、磁気ディスク等であって、画像を記憶するのに十分な容量を有するものが使用される。   The pixel storage unit 3 stores a plurality of processing target element image groups composed of pixels corresponding to a subject area existing in a desired depth range input from the element image separation unit 2. The pixel storage means 3 is, for example, a hard disk, an optical memory, a magnetic disk or the like having a sufficient capacity for storing an image.

立体画像奥行き制御手段4は、外部から入力された操作信号により特定された、統合三次元情報において最も手前に配置される被写体に対応付けられた処理対象要素画像群から順に、画素記憶手段3から読み出し、読み出した処理対象要素画像群の大きさの比率および奥行き制御を行うものである。   The three-dimensional image depth control means 4 starts from the pixel storage means 3 in order from the processing target element image group that is specified by the operation signal input from the outside and that is associated with the subject that is arranged in the forefront in the integrated three-dimensional information. The read and the size ratio and depth control of the read processing target element image group are performed.

ここで、外部から入力された操作信号とは、例えば、入力手段20がコンピュータのキーボードの場合、統合三次元情報での被写体の奥行き位置を表す数値などが該当する。
例えば、操作者が、奥行値“0”や奥行値“51”などの任意の数値を入力することにより、統合三次元情報での被写体の奥行き位置が決定される。
Here, the operation signal input from the outside corresponds to, for example, a numerical value representing the depth position of the subject in the integrated three-dimensional information when the input unit 20 is a computer keyboard.
For example, when the operator inputs an arbitrary numerical value such as a depth value “0” or a depth value “51”, the depth position of the subject in the integrated 3D information is determined.

立体画像奥行き制御手段4における被写体に対応する画素の大きさの比率および奥行きの制御処理は、処理対象となる被写体の大きさや奥行きを利用して行うことができる。処理対象となる被写体の大きさや奥行きの情報は、三次元情報が生成されたときの被写体の大きさや奥行きの情報を予め取得し、これを用いても良い。また、特開2002−51358号公報に示すように、要素画像群から算出された被写体の奥行き情報を用いても良い。   The control of the ratio of the size of the pixel corresponding to the subject and the depth in the stereoscopic image depth control unit 4 can be performed using the size and depth of the subject to be processed. Information on the size and depth of the subject to be processed may be obtained by acquiring in advance information on the size and depth of the subject when the three-dimensional information is generated. Further, as shown in Japanese Patent Laid-Open No. 2002-51358, depth information of a subject calculated from an element image group may be used.

立体画像奥行き制御手段4としては、例えば、特開2007−114483号公報に記載のような立体画像奥行き変換装置を用いることができる。
次に、図3および適宜図4を参照して、本実施形態に係る立体画像奥行き制御手段4の構成について詳細に説明する。図3は、本実施形態に係る立体画像奥行き制御手段の構成を示すブロック構成図、図4は、本実施形態に係る立体画像奥行き制御手段によって、演算により立体画像の奥行きを制御する方法を説明するための模式図である。
As the stereoscopic image depth control means 4, for example, a stereoscopic image depth conversion device as described in JP 2007-114483 A can be used.
Next, the configuration of the stereoscopic image depth control means 4 according to the present embodiment will be described in detail with reference to FIG. 3 and FIG. 4 as appropriate. FIG. 3 is a block diagram illustrating the configuration of the stereoscopic image depth control unit according to the present embodiment, and FIG. 4 illustrates a method for controlling the depth of the stereoscopic image by calculation using the stereoscopic image depth control unit according to the present embodiment. It is a schematic diagram for doing.

なお、立体画像奥行き制御手段4に入力される要素画像群は、立体画像撮影装置(図示せず)において、CCD等によって撮影された映像信号、あるいは、計算機によって生成された、CCDと等価な映像信号である。本実施形態に係る立体画像奥行き制御手段4は、図4に示すような、光学系による立体画像の奥行き制御を演算で行うものである。 The element image group input to the stereoscopic image depth control means 4 is a video signal captured by a CCD or the like in a stereoscopic image capturing device (not shown), or a video equivalent to a CCD generated by a computer. Signal. The stereoscopic image depth control means 4 according to the present embodiment performs the depth control of the stereoscopic image by the optical system as shown in FIG.

図3に示すように、立体画像奥行き制御手段4は、分配手段41と、要素画像分の要素画像変換手段42、奥行き変換手段43および要素画像再生手段44と、加算手段45とを備えている。   As shown in FIG. 3, the stereoscopic image depth control unit 4 includes a distribution unit 41, an element image conversion unit 42 for element images, a depth conversion unit 43, an element image reproduction unit 44, and an addition unit 45. .

分配手段41は、入力された要素画像群を要素画像単位に分割するものである。ここで、分配手段41は、入力された要素画像群における第1の要素画像面11aの表示面に表示される処理対象要素画像群のm番目の要素画像の光波(gs,m(xs,m,ys,m))を、m番目の要素画像に予め対応付けられている要素画像変換手段42に出力する。なお、ここで、光波とは、画素値を光の波動として扱った場合の振幅と位相を複素数で表したものである。 The distribution unit 41 divides the input element image group into element image units. Here, the distribution unit 41 outputs the light wave (gs , m (x s) of the m-th element image of the processing target element image group displayed on the display surface of the first element image surface 11a in the input element image group. , M 1 , y s, m 2 )) are output to the element image conversion means 42 previously associated with the mth element image. Here, the light wave is a complex number representing the amplitude and phase when the pixel value is handled as a wave of light.

要素画像変換手段(処理対象要素画像光波変換手段)42は、要素画像の光波を、予め定めた焦点距離となる要素レンズ(仮想のピンホールまたはレンズ)を通した際の光波に変換するものである。ここでは、要素画像変換手段42は、光波計算手段42aと、位相シフト手段42bとを備えている。   Element image conversion means (processing object element image light wave conversion means) 42 converts the light wave of the element image into a light wave when passing through an element lens (virtual pinhole or lens) having a predetermined focal length. is there. Here, the element image conversion means 42 includes a light wave calculation means 42a and a phase shift means 42b.

光波計算手段42aは、要素画像の光波をフレネル近似(Fresnel diffraction)することで、要素レンズ(仮想のピンホールまたはレンズ)に入射する光波を演算するものである。光波計算手段42aから出力された光波は、位相シフト手段42bに出力される。 The light wave calculating means 42a calculates the light wave incident on the element lens (virtual pinhole or lens) by Fresnel approximation of the light wave of the element image. Lightwave outputted from the light wave meter Sante stage 42a is output to the phase shift means 42b.

位相シフト手段42bは、光波計算手段42aから入力された要素画像の光波(Ri,m(xo,m,yo,m))から、位相を仮想の要素レンズに相当する位相分だけシフトさせた光波を演算するものである。
この要素画像ごとの光波(Ro,m(xo,m,yo,m))は、奥行き変換手段43に出力される。
The phase shift unit 42b shifts the phase by the phase corresponding to the virtual element lens from the light wave (R i, m (x o, m , y o, m )) of the element image input from the light wave calculation unit 42a. The calculated light wave is calculated.
The light wave (R o, m (x o, m , y o, m )) for each element image is output to the depth conversion means 43.

奥行き変換手段43は、要素画像変換手段42で変換された光波を、予め定めた焦点距離となる仮想の奥行き制御レンズL(凸レンズ)を通した際の光波に変換するものである。ここでは、奥行き変換手段43は、位相シフト手段43aと、再分配手段43bとを備えている。
位相シフト手段43aは、要素画像変換手段42で変換された光波の位相を仮想の凸レンズに相当する位相分だけシフトさせた光波を演算するものである。
The depth conversion unit 43 converts the light wave converted by the element image conversion unit 42 into a light wave when passing through a virtual depth control lens L (convex lens) having a predetermined focal length. Here, the depth conversion means 43 includes a phase shift means 43a and a redistribution means 43b.
The phase shift unit 43a calculates a light wave obtained by shifting the phase of the light wave converted by the element image conversion unit 42 by a phase corresponding to a virtual convex lens.

再分配手段43bは、位相シフト手段43aから入力された要素画像ごとの光波(Rd,m(xo,m,yo,m))から、第2の仮想的な開口群12bの開口部(要素レンズ)に入射する光波を演算するものである。
この第2の仮想的な開口群12bの開口部ごとの光波(Rp,n,m(xp,n,yp,n))は、要素画像再生手段44に出力される。
The redistribution unit 43b uses the light wave (R d, m (x o, m , y o, m )) for each element image input from the phase shift unit 43a, and the apertures of the second virtual aperture group 12b. The light wave incident on the (element lens) is calculated.
The light wave (R p, n, m (x p, n , y p, n )) for each opening of the second virtual opening group 12 b is output to the element image reproduction means 44.

要素画像再生手段(処理済要素画像光波変換手段)44は、奥行き変換手段43で変換された光波を、予め定めた焦点距離となる要素レンズ(仮想のピンホールまたはレンズ)を通した際の光波に変換するものである。ここでは、要素画像再生手段44は、位相シフト手段44aと、光波計算手段44bとを備えている。   The element image reproduction means (processed element image light wave conversion means) 44 is a light wave when the light wave converted by the depth conversion means 43 passes through an element lens (virtual pinhole or lens) having a predetermined focal length. It is to convert to. Here, the element image reproduction means 44 includes a phase shift means 44a and a light wave calculation means 44b.

位相シフト手段44aは、奥行き変換手段43で変換された光波(Rp,n,m(xp,n,yp,n))から、位相を仮想の要素レンズに相当する位相分だけシフトさせた光波を演算するものである。 The phase shift means 44a shifts the phase from the light wave (R p, n, m (x p, n , y p, n )) converted by the depth conversion means 43 by the phase corresponding to the virtual element lens. The light wave is calculated.

光波計算手段44bは、要素レンズごとの光波をフレネル近似することで、要素レンズ(仮想のピンホールまたはレンズ)から出射し、第2の要素画像面12aの撮影面に到達する光波を演算するものである。   The light wave calculating means 44b calculates the light wave that is emitted from the element lens (virtual pinhole or lens) and reaches the imaging surface of the second element image surface 12a by approximating the light wave of each element lens by Fresnel approximation. It is.

加算手段45は、要素画像再生手段44から出力された要素画像ごとの光波から、その光波電力の総和を演算することで、奥行き変換処理が施された映像信号、すなわち、第2要素画像群(処理済要素画像群)となる映像信号を生成するものである。また、加算手段45は、光波電力の総和を演算する際に、画素値割り当て済み位置記憶手段6を参照し、統合三次元情報記憶手段5において画素値が割り当てられた位置に対応する画素については、演算を行わない。   The adding means 45 calculates the sum of the light wave power from the light wave for each element image output from the element image reproducing means 44, thereby obtaining a video signal subjected to depth conversion processing, that is, a second element image group ( A video signal to be a processed element image group) is generated. Further, the adding means 45 refers to the pixel value assigned position storage means 6 when calculating the total sum of the lightwave power, and for the pixels corresponding to the positions to which the pixel values are assigned in the integrated three-dimensional information storage means 5. , Do not calculate.

このように構成された立体画像奥行き制御手段4は、演算により、立体画像として表示される再生像の奥行きを変化させた画像(処理済要素画像群)を生成することができる。
また、立体画像奥行き制御手段4は、大きさの比率および奥行き制御処理を行った処理済要素画像群の画素値を統合三次元情報記憶手段5に出力し、記憶させる。
The stereoscopic image depth control means 4 configured as described above can generate an image (processed element image group) in which the depth of a reproduced image displayed as a stereoscopic image is changed by calculation.
Further, the stereoscopic image depth control means 4 outputs the size ratio and the pixel value of the processed element image group subjected to the depth control processing to the integrated three-dimensional information storage means 5 for storage.

さらに、立体画像奥行き制御手段4は、統合三次元情報記憶手段5において画素値が割り当てられた位置の情報を画素値割り当て済み位置記憶手段6に出力し、記憶させる。例えば、立体画像奥行き制御手段4は、統合三次元情報記憶手段5において画素値が割り当てられた画素と対応する画素値割り当て済み位置記憶手段6の画素に“1”を割り当て、統合三次元情報記憶手段5において画素値が割り当てられていない画素と対応する画素値割り当て済み位置記憶手段の画素には“0”を割り当てる。   Further, the stereoscopic image depth control means 4 outputs the information on the position to which the pixel value is assigned in the integrated three-dimensional information storage means 5 to the pixel value assigned position storage means 6 for storage. For example, the stereoscopic image depth control means 4 assigns “1” to the pixel of the pixel value assigned position storage means 6 corresponding to the pixel to which the pixel value is assigned in the integrated three-dimensional information storage means 5, thereby integrating the three-dimensional information storage. "0" is assigned to the pixel in the pixel value assigned position storage means corresponding to the pixel to which no pixel value is assigned in the means 5.

図2に戻って、統合三次元情報記憶手段5は、立体画像奥行き制御手段4から入力された、大きさの比率および奥行きが制御された画素を記憶するものである。統合三次元情報記憶手段5は、立体画像奥行き制御手段4から入力された処理済要素画像群を全て記憶可能な容量を有している。   Returning to FIG. 2, the integrated three-dimensional information storage means 5 stores the pixels whose size ratio and depth are controlled, which are input from the stereoscopic image depth control means 4. The integrated 3D information storage means 5 has a capacity capable of storing all processed element image groups input from the stereoscopic image depth control means 4.

画素値割り当て済み位置記憶手段6は、立体画像奥行き制御手段4から入力された、統合三次元情報記憶手段5に画素値が割り当てられた位置を記憶する。画素値割り当て済み位置記憶手段6は、統合三次元情報記憶手段5に画素値が割り当てられた位置を全て記憶可能な容量を有している。   The pixel value assigned position storage means 6 stores the position where the pixel value is assigned to the integrated three-dimensional information storage means 5 input from the stereoscopic image depth control means 4. The pixel value assigned position storage means 6 has a capacity capable of storing all the positions where the pixel values are assigned to the integrated three-dimensional information storage means 5.

画素値割り当て手段7は、全ての処理対象要素画像群についての大きさの比率および奥行き制御処理の終了後、外部から入力された操作信号に基づき、統合三次元情報記憶手段5においてまだ画素値が割り当てられていない画素に画素値を割り当てるものである。出力手段8は、統合三次元情報記憶手段5に記憶された統合三次元情報を外部へ出力するものである。出力先は、例えば、表示装置や記憶媒体等である。なお、画素値割り当て手段7は、設けなくても良い。この場合、統合三次元情報記憶手段5において統合三次元情報が割り当てられない画素については、画素値を割り当てない(映像信号を0とする)。   The pixel value allocating unit 7 determines that the pixel value is not yet stored in the integrated three-dimensional information storage unit 5 based on the operation signal input from the outside after the size ratio and depth control processing for all the processing target element image groups. Pixel values are assigned to pixels that are not assigned. The output unit 8 outputs the integrated 3D information stored in the integrated 3D information storage unit 5 to the outside. The output destination is, for example, a display device or a storage medium. Note that the pixel value assigning means 7 may not be provided. In this case, no pixel value is assigned to the pixel to which the integrated 3D information is not assigned in the integrated 3D information storage means 5 (the video signal is set to 0).

[三次元情報統合装置の動作]
以下、図5ないし図8および適宜図2ないし図4を参照して、本実施形態に係る三次元情報統合装置1の動作を説明する。具体的には、異なる三次元空間に配置された被写体同士を統合する際の三次元情報統合装置1の動作を説明する。
参照する図5は、本実施形態に係る三次元情報統合装置の要素画像分離手段の動作を説明するための概念図、図6は、画素記憶手段に記憶した処理対象要素画像群の処理順序が決定される様子を説明するための概念図、図7(a)〜(e)は、本実施形態に係る三次元情報統合装置の立体画像奥行き制御手段によって、統合三次元情報記憶手段に画素値が割り当てられる様子、(f)〜(h)は、画素値割り当て済み位置記憶手段に、統合三次元情報記憶手段に画素値が割り当てられた位置の情報が割り当てられる様子を説明するための概念図、図8は、本実施形態に係る三次元情報統合装置の動作を示すフローチャートである。なお、図7(a)および(f)に示すように、統合三次元情報記憶手段5および画素値割り当て済み位置記憶手段6は、初期状態であるものとする。
[Operation of 3D information integration device]
Hereinafter, the operation of the three-dimensional information integration device 1 according to the present embodiment will be described with reference to FIGS. 5 to 8 and FIGS. 2 to 4 as appropriate. Specifically, the operation of the three-dimensional information integration device 1 when integrating subjects arranged in different three-dimensional spaces will be described.
FIG. 5 to be referred to is a conceptual diagram for explaining the operation of the element image separation unit of the three-dimensional information integration apparatus according to the present embodiment, and FIG. 6 illustrates the processing order of the processing target element image group stored in the pixel storage unit. FIGS. 7A to 7E are conceptual diagrams for explaining a state of being determined. FIG. 7A to FIG. 7E are pixel values stored in the integrated three-dimensional information storage unit by the stereoscopic image depth control unit of the three-dimensional information integration apparatus according to the present embodiment. (F) to (h) are conceptual diagrams for explaining a state in which information on positions where pixel values are assigned to the integrated three-dimensional information storage means is assigned to the pixel value assigned position storage means. FIG. 8 is a flowchart showing the operation of the three-dimensional information integration apparatus according to this embodiment. As shown in FIGS. 7A and 7F, it is assumed that the integrated three-dimensional information storage unit 5 and the pixel value assigned position storage unit 6 are in an initial state.

図2および図5に示すように、外部から複数の要素画像群30が入力されると、三次元情報統合装置1は、要素画像分離手段2によって、外部から入力された操作信号に基づき、複数の要素画像群30(要素画像群30〜要素画像群30)についてそれぞれ、個々の要素画像から所望の奥行き範囲に存在する被写体領域とそれ以外の範囲に存在する領域を分離する。 As shown in FIG. 2 and FIG. 5, when a plurality of element image groups 30 are input from the outside, the three-dimensional information integration device 1 uses a plurality of element image separation means 2 based on operation signals input from the outside. For each of the element image groups 30 (element image group 30 1 to element image group 30 n ), a subject area existing in a desired depth range and an area existing in other ranges are separated from each element image.

例えば、図5に示すように、要素画像群30において、操作信号により指定された奥行き範囲に存在する三角形と、三角形と一部重なり合って奥に配置される四角形からなる被写体領域と、それ以外の範囲に存在する領域(図5で薄いグレーで表された背景領域)を分離する。また、要素画像群30において、操作信号により指定された奥行き範囲に存在する円形の被写体領域と、それ以外の範囲に存在する領域(三角形の被写体領域および濃いグレーで表された背景領域)を分離する。
そして、要素画像分離手段2は、このようにして複数の要素画像群30からそれぞれ分離された複数の処理対象要素画像群31(処理対象要素画像群31〜処理対象要素画像群31)を画素記憶手段3に出力し、順次記憶させる(ステップS1)。
For example, as shown in FIG. 5, the elemental image group 30 3, and a triangle present in the depth range specified by the operation signal, and the object region composed of rectangles arranged in the rear overlapping part and a triangle, otherwise The region existing in the range (the background region represented in light gray in FIG. 5) is separated. In the element image group 30 n , a circular subject region existing in the depth range specified by the operation signal and a region existing in the other range (a triangular subject region and a background region represented by dark gray) are displayed. To separate.
Then, the element image separating unit 2 converts the plurality of processing target element image groups 31 (processing target element image group 31 1 to processing target element image group 31 n ) thus separated from the plurality of element image groups 30 respectively. The data is output to the pixel storage means 3 and stored sequentially (step S1).

図2および図6に示すように、三次元情報統合装置1は、立体画像奥行き制御手段4によって、外部から入力された操作信号により特定された順番に従って、画素記憶手段3に記憶された複数の処理対象要素画像群31を読み出す。ここでいう順番とは、操作者により任意に決定された、統合三次元情報における複数の被写体の奥行き方向の並び順であり、立体画像奥行き制御手段4は、複数の処理対象要素画像群31のうち、統合三次元情報において最も手前に配置される被写体に対応づけられた処理対象要素画像群から順に画素記憶手段3から読み出す(ステップS2)。   As shown in FIGS. 2 and 6, the three-dimensional information integration device 1 includes a plurality of pieces of information stored in the pixel storage unit 3 according to the order specified by the operation signal input from the outside by the stereoscopic image depth control unit 4. The processing target element image group 31 is read out. The order here is the order in which the plurality of subjects are arranged in the depth direction in the integrated three-dimensional information arbitrarily determined by the operator, and the stereoscopic image depth control means 4 includes the plurality of processing target element image groups 31. Among them, the processing target element image group associated with the subject arranged closest in the integrated 3D information is sequentially read from the pixel storage unit 3 (step S2).

例えば、本実施形態では、図6左図に示すように、画素記憶手段3によって、処理対象要素画像群31〜処理対象要素画像群31が記憶されているところ、立体画像奥行き制御手段4によって、操作信号により指定された順、例えば、本実施形態では図6右図に示すように、処理対象要素画像群31、処理対象要素画像群31、処理対象要素画像群31・・処理対象要素画像群31の順に読み出す。なお、複数の処理対象要素画像群の処理順序は、全ての処理対象要素画像群について一度に決定しても良いし、一つの処理対象要素画像群についての処理が終了する都度、次に処理を行う処理対象要素画像群を決定するようにしても良い。 For example, in the present embodiment, as illustrated in the left diagram of FIG. 6, the processing target element image group 31 1 to the processing target element image group 31 n are stored by the pixel storage unit 3. , In the order specified by the operation signal, for example, as shown in the right diagram of FIG. 6 in this embodiment, the processing target element image group 31 3 , the processing target element image group 31 n , the processing target element image group 31 1. read in the order of the processing target element image group 31 2. Note that the processing order of the plurality of processing target element image groups may be determined at once for all the processing target element image groups, or each time processing for one processing target element image group ends, the next processing is performed. A processing target element image group to be performed may be determined.

次に、三次元情報統合装置1は、立体画像奥行き制御手段4によって、画素値割り当て済み位置記憶手段6から、統合三次元情報記憶手段5においてすでに画素値が割り当てられている位置を読み出す(ステップS3)。   Next, the three-dimensional information integration device 1 reads the position where the pixel value has already been assigned in the integrated three-dimensional information storage means 5 from the pixel value assigned position storage means 6 by the stereoscopic image depth control means 4 (Step 3). S3).

そして、立体画像奥行き制御手段4は、処理対象要素画像群31の大きさの比率および奥行き制御処理を行い、統合三次元情報記憶手段5に制御後の画素値を割り当てる(ステップS4)。ただし、立体画像奥行き制御手段4は、画素値割り当て済み位置記憶手段6を参照した結果、処理対象要素画像群31の大きさの比率および奥行き制御処理を行った後の画素値が割り当てられるべき画素にすでに他の処理済要素画像群の画素値が割り当てられている場合には、当該割り当て済み画素に対応する位置の画素を除いて、処理済要素画像群32を生成する。 Then, the three-dimensional image depth control means 4 performs the ratio and depth control processing size of the processing target element image group 31 3 assigns a pixel value after the control in the integrated three-dimensional information storage unit 5 (step S4). However, the three-dimensional image depth control means 4 as a result of referring to the pixel values assigned position storage means 6, to the pixel value obtained after the ratio of the size of the processing target element image group 31 3 and the depth control processing is allocated If already pixel values of the other processed element images in the pixel are allocated, except for the pixel locations corresponding to the assigned pixel, and generates the processed element image group 32 3.

すなわち、立体画像奥行き制御手段4は、次のように動作する。立体画像奥行き制御手段4は、分配手段41によって、入力された映像信号における第1の要素画像面11aの表示面に表示される処理対象要素画像群31のm番目の要素画像の光波(gs,m(xs,m,ys,m))を、m番目の要素画像に予め対応付けられている要素画像変換手段42に出力する。 That is, the stereoscopic image depth control means 4 operates as follows. Stereoscopic image depth control means 4, by the distribution means 41, light waves of the first element image plane 11a processing is displayed on the display surface target element image group 31 3 of the m-th element image in an inputted video signal (g s, m (x s, m , y s, m )) is output to the element image conversion means 42 previously associated with the m-th element image.

立体画像奥行き制御手段4は、光波計算手段42aによって、第1の仮想的な開口群11bのm番目の開口部(要素レンズ等)に到達する光波に相当する信号として、一般的なフレネル近似を用いて、以下の式(2)により要素画像ごとの光波(Ri,m(xo,m,yo,m))を演算する。 The stereoscopic image depth control unit 4 performs a general Fresnel approximation as a signal corresponding to a light wave reaching the mth opening (element lens or the like) of the first virtual aperture group 11b by the light wave calculation unit 42a. Then, the light wave (R i, m (x o, m , yo, m )) for each element image is calculated by the following equation (2).

Figure 0004875680
Figure 0004875680

ここで、xs,m、xo,mは、それぞれ画像全体(処理対象要素画像群)におけるm番目の要素画像の中心のx座標、第1の仮想的な開口群11bのm番目の開口部の光軸中心からのx座標である。また、ys,m、yo,mは、それぞれ画像全体(処理対象要素画像群)におけるm番目の要素画像の中心のy座標、第1の仮想的な開口群11bのm番目の開口部の光軸中心からのy座標である。また、fは第1の仮想的な開口群11bの開口部(要素レンズ)の焦点距離、kは波数2π/λ(λは波長)である。
この要素画像ごとの光波(Ri,m(xo,m,yo,m))は、位相シフト手段42bに出力される。
Here, x s, m and x o, m are the x coordinate of the center of the m-th element image in the entire image (processing target element image group), and the m-th opening of the first virtual opening group 11b. X coordinate from the center of the optical axis of the part. Y s, m , yo, m are the y-coordinate of the center of the m-th element image in the entire image (processing target element image group), and the m-th opening of the first virtual opening group 11b. Y coordinate from the optical axis center. F 1 is the focal length of the aperture (element lens) of the first virtual aperture group 11b, and k is the wave number 2π / λ (λ is the wavelength).
The light wave (R i, m (x o, m , y o, m )) for each element image is output to the phase shift means 42b.

立体画像奥行き制御手段4は、位相シフト手段42bによって、以下の式(3)に示すように、要素レンズに相当する位相分だけ光波(Ri,m(xo,m,yo,m))をシフトさせることで、要素レンズから出射する光波に相当する信号(光波Ro,m(xo,m,yo,m))を演算する。 The stereoscopic image depth control unit 4 uses the phase shift unit 42b to generate light waves (R i, m (x o, m , y o, m ) corresponding to the phase corresponding to the element lens, as shown in the following expression (3). ) Is calculated , a signal (light wave R o, m (x o, m , y o, m )) corresponding to the light wave emitted from the element lens is calculated.

Figure 0004875680
Figure 0004875680

この要素画像ごとの光波(Ro,m(xo,m,yo,m))は、奥行き変換手段43に出力される。
立体画像奥行き制御手段4は、奥行き変換手段43の位相シフト手段43aによって、以下の(4)式に示すように、奥行き制御レンズLに相当する位相分だけ光波(Ro,m(xo,m,yo,m))をシフトさせることで、奥行き制御レンズLから出射する光波に相当する信号(光波Rd,m(xo,m,yo,m))を演算する。
The light wave (R o, m (x o, m , y o, m )) for each element image is output to the depth conversion means 43.
The stereoscopic image depth control unit 4 causes the phase shift unit 43a of the depth conversion unit 43 to generate light waves (R o, m (x o, x), as much as the phase corresponding to the depth control lens L, as shown in the following equation (4) . m , yo, m )) is shifted to calculate a signal (light wave Rd, m ( xo, m , yo, m )) corresponding to the light wave emitted from the depth control lens L.

Figure 0004875680
Figure 0004875680

ここで、x,yは奥行き制御レンズLの光学中心からの距離である。また、第1の仮想的な開口群11bの開口部(要素レンズ)のピッチをPとすると、x=xo,m+mP、y=yo,m+mPの関係が成り立つ。
この位相シフト手段43aで演算された要素画像ごとの光波(Rd,m(xo,m,yo,m))は、再分配手段43bに出力される。
Here, x 0 and y 0 are distances from the optical center of the depth control lens L. If the pitch of the apertures (element lenses) of the first virtual aperture group 11b is P, the relationship of x o = x o, m + mP, y o = y o, m + mP is established.
The light wave (R d, m (x o, m , y o, m )) for each element image calculated by the phase shift means 43a is output to the redistribution means 43b.

位相シフト手段43aで演算された光波(Rd,m(xo,m,yo,m))は、m番目の要素レンズに到達するだけではなく、周辺の要素レンズにも到達することになる。そこで、再分配手段43bは、位相シフト手段43aから入力された要素画像ごとの光波(Rd,m(xo,m,yo,m))が、第2の仮想的な開口群12bの開口部(要素レンズ)に分配された結果となるn番目の要素レンズに到達した光波(Rp,n,m(xp,n,yp,n))を、一般的なフレネル近似を用いて、以下の式(5)により演算する。 The light wave (R d, m (x o, m , y o, m )) calculated by the phase shift means 43a not only reaches the mth element lens but also reaches the surrounding element lens. Become. Therefore, the redistribution unit 43b causes the light wave (R d, m (x o, m , y o, m )) input from the phase shift unit 43a to the second virtual aperture group 12b. The light wave (R p, n, m (x p, n , y p, n )) that has reached the nth element lens, which is the result of being distributed to the aperture (element lens), is obtained using a general Fresnel approximation. Thus, calculation is performed according to the following equation (5).

Figure 0004875680
Figure 0004875680

ここで、xp,n、yp,nは、それぞれn番目の第2の仮想的な開口群12bの開口部(要素レンズ)の光学中心からのx座標、y座標である。また、Lは奥行き制御レンズLと第2の仮想的な開口群12bとの距離である。
この第2の仮想的な開口群12bの開口部ごとの光波(Rp,n,m(xp,n,yp,n))は、要素画像再生手段44に出力される。
Here, x p, n and y p, n are the x coordinate and the y coordinate from the optical center of the aperture (element lens) of the nth second virtual aperture group 12b, respectively. L d is the distance between the depth control lens L and the second virtual aperture group 12b.
The light wave (R p, n, m (x p, n , y p, n )) for each opening of the second virtual opening group 12 b is output to the element image reproduction means 44.

立体画像奥行き制御手段4は、要素画像再生手段44の位相シフト手段44aによって、奥行き変換手段43で変換された光波(Rp,n,m(xp,n,yp,n))から、位相を仮想の要素レンズに相当する位相分だけシフトさせた光波を演算するものである。すなわち、位相シフト手段44aは、以下の式(6)に示すように、要素レンズに相当する位相分だけ光波(Rp,n,m(xp,n,yp,n))をシフトさせることで、要素レンズから出射する光波に相当する信号(光波Rr,n,m(xo,m,yo,m))を演算する。 The stereoscopic image depth control means 4 is obtained from the light wave (R p, n, m (x p, n , y p, n )) converted by the depth conversion means 43 by the phase shift means 44a of the element image reproduction means 44. A light wave whose phase is shifted by a phase corresponding to a virtual element lens is calculated. That is, the phase shift means 44a shifts the light wave (R p, n, m (x p, n , y p, n )) by the phase corresponding to the element lens, as shown in the following formula (6). Thus, a signal (light wave R r, n, m (x o, m , yo, m )) corresponding to the light wave emitted from the element lens is calculated.

Figure 0004875680
Figure 0004875680

ここで、fは第2の仮想的な開口群12bの開口部(要素レンズ)の焦点距離である。この要素レンズごとの光波(Rr,n,m(xp,n,yp,n))は、光波計算手段44bに出力される。 Here, f 2 is the focal length of the opening of the second virtual opening group 12b (element lens). The light wave (R r, n, m (x p, n , y p, n )) for each element lens is output to the light wave calculation means 44b.

立体画像奥行き制御手段4は、要素画像再生手段44の光波計算手段44bによって、以下の式(7)により、n番目の要素レンズから出射されて第2の要素画像面12aの撮影面に到達する光波(Re,n,m(xe,n,ye,n))を演算する。 The stereoscopic image depth control means 4 is emitted from the n-th element lens by the light wave calculation means 44b of the element image reproduction means 44 according to the following equation (7) and reaches the imaging surface of the second element image surface 12a. The light wave (R e, n, m (x e, n , y e, n )) is calculated.

Figure 0004875680
Figure 0004875680

ここで、xe,n、ye,nは、それぞれ要素画像の中心からのx座標、y座標である。この光波計算手段44bで演算された光波(Re,n,m(xe,n,ye,n))は、加算手段45に出力される。 Here, x e, n and y e, n are the x coordinate and y coordinate from the center of the element image, respectively. The light wave (R e, n, m (x e, n , y e, n )) calculated by the light wave calculating unit 44 b is output to the adding unit 45.

ところで、要素画像再生手段44から出力される第2の要素画像面12aの撮影面に到達する光波(Re,n,m(xe,n,ye,n))の電力は、光の振幅の2乗で表すことができる。また、処理対象要素画像群31の各要素画像として発せられた光波は、インコヒーレント(波長や位相が一定ではない)であるため、光波の位相は無相関であるとみなすことができる。 By the way, the power of the light wave (R e, n, m (x e, n , y e, n )) reaching the imaging surface of the second element image surface 12a output from the element image reproduction means 44 is the light power. It can be expressed by the square of the amplitude. Further, the light wave emitted as the element image of the processing target element image group 31 3 are the incoherent (not wavelength or phase is constant), the light wave phase can be considered to be uncorrelated.

そこで、立体画像奥行き制御手段4は、加算手段45によって、処理対象要素画像群31の各要素画像(−M〜M)として発せられた光波の電力の総和を、以下の式(8)により演算することで、処理対象要素画像群31の一つの要素画像(式(8)ではn番目の要素画像)の電力を求め、その電力に比例した映像信号を出力する。 Therefore, the stereoscopic image depth control means 4, the addition means 45, the total power of the light wave emitted as the element image of the processing target element image group 31 3 (-M~M), the following equation (8) by calculating to obtain the power of one element image to be processed element image group 31 3 (equation (8), the n-th element image), and outputs a video signal that is proportional to its power.

Figure 0004875680
Figure 0004875680

本実施形態では、画素値割り当て済み位置記憶手段6を参照すると、図7(f)に示すように、現時点では、統合三次元情報記憶手段5の全ての画素に画素値が割り当てられていない状態であることがわかるため、加算手段45によって、処理対象要素画像群31の全ての画素について、光波の電力の総和を求める。これにより、図7(b)に示すような処理済要素画像群32が生成されるので、立体画像奥行き制御手段4は、統合三次元情報記憶手段5に出力し、記憶させる。 In the present embodiment, referring to the pixel value assigned position storage means 6, as shown in FIG. 7 (f), the pixel values are not assigned to all the pixels of the integrated three-dimensional information storage means 5 at this time. since it can be seen is, the adding means 45, for all pixels of the processing target element image group 31 3, obtaining the total power of the light wave. Thus, since the processed element image group 32 3 as shown in FIG. 7 (b) is generated, the stereoscopic image depth control means 4 outputs to the integrated three-dimensional information storage unit 5 to be stored therein.

このようにして、三次元情報統合装置1は、立体画像奥行き制御手段4によって、処理対象要素画像群31の光をあたかも光学的に表示して再撮影したかのような演算処理を実行する。また、光波は、開口のピッチが異なる二つの仮想的な開口群(第1の仮想的な開口群11bと第2の仮想的な開口群12b)を通過するので、被写体の大きさから変化させた自由な大きさの再生像を表示させる処理済要素画像群を生成することができる。 In this way, three-dimensional information integrating device 1, the stereoscopic image depth control means 4, as if executing the arithmetic processing as if they were optically displayed to retake the light of the processing target element image group 31 3 . Further, since the light wave passes through two virtual aperture groups (the first virtual aperture group 11b and the second virtual aperture group 12b) having different aperture pitches, it is changed from the size of the subject. In addition, it is possible to generate a processed element image group that displays a reproduction image having a free size.

三次元情報統合装置1は、立体画像奥行き制御手段4によって、図7(g)に示すように、画素値割り当て済み位置記憶手段6に、統合三次元情報記憶手段5に画素値が割り当てられた位置(処理済要素画像群32が割り当てられた位置)の情報を出力し、記憶させる(ステップS6)。 In the three-dimensional information integration device 1, as shown in FIG. 7G, pixel values are assigned to the integrated three-dimensional information storage unit 5 by the stereoscopic image depth control unit 4 to the pixel value assigned position storage unit 6. position outputs information (processed element image group 32 3 is assigned a position) to be stored therein (step S6).

なお、現在処理を行っている大きさの比率および奥行き制御後の処理対象要素画像群に、統合三次元情報記憶手段5においてすでに画素値が割り当てられている位置に対応する画素がある場合には、当該画素を除いて処理済要素画像群を生成する。処理対象要素画像群31の処理を行う場合を例にとって説明する。画素値割り当て済み位置記憶手段6を参照すると、図7(g)に示すように、統合三次元情報記憶手段5には、すでに処理済要素画像群32が割り当てられていることがわかる。このため、加算手段45によって、大きさの比率および奥行き制御を行った処理対象要素画像群31から、処理済要素画像群32が割り当てられている画素に対応する位置の画素を除いて、光波の電力の総和を求める。このようにして、図7(c)に示すように、統合三次元情報記憶手段5に処理済要素画像群32が割り当てられている位置に対応する画素を除いて処理済要素画像群32を生成する。 In addition, when there is a pixel corresponding to a position to which a pixel value has already been assigned in the integrated three-dimensional information storage unit 5 in the processing target element image group after the size ratio and depth control currently being processed. The processed element image group is generated by excluding the pixel. A case where the processing of the processing target element image group 31 n is performed will be described as an example. Referring to the pixel value assigned position storage means 6, as shown in FIG. 7 (g), the integrated three-dimensional information storage unit 5, it can be seen that already processed element image group 32 3 assigned. For this reason, the pixel at the position corresponding to the pixel to which the processed element image group 32 3 is assigned is excluded from the processing target element image group 31 n subjected to the size ratio and depth control by the adding unit 45. Find the total power of light waves. In this way, as shown in FIG. 7 (c), integrated three-dimensional information storage unit 5 in the processed element image group 32 3 except a corresponding pixel position is assigned the processed element image group 32 n Is generated.

三次元情報統合装置1は、図7(c)に示すように、立体画像奥行き制御手段4によって、生成した処理済要素画像群32を統合三次元情報記憶手段5に出力し、記憶させる。なお、図7(c)では、見易さのため、すでに割り当てられている処理済要素画像群32については、破線で表示している。また、三次元情報統合装置1は、立体画像奥行き制御手段4によって、図7(h)に示すように、画素値割り当て済み位置記憶手段6に、統合三次元情報記憶手段5に画素値が割り当てられた位置(処理済要素画像群32が割り当てられた位置)の情報を出力し、記憶させる。 As shown in FIG. 7C, the three-dimensional information integration device 1 outputs the generated processed element image group 32 n to the integrated three-dimensional information storage unit 5 by the stereoscopic image depth control unit 4 and stores it. In FIG. 7 (c), the order of clarity, the processed element image group 32 3 already assigned are displayed in broken lines. Further, the three-dimensional information integration apparatus 1 assigns pixel values to the integrated three-dimensional information storage means 5 by the stereoscopic image depth control means 4 as shown in FIG. Information on the assigned position (position to which the processed element image group 32 n is assigned) is output and stored.

また、三次元情報統合装置1は、立体画像奥行き制御手段4によって、図7(g)に示すように、画素値割り当て済み位置記憶手段6に、統合三次元情報記憶手段5に画素値が割り当てられた位置(処理済要素画像群32が割り当てられた位置)の情報を出力し、記憶させる(ステップS6)。 Further, the three-dimensional information integration device 1 assigns pixel values to the integrated three-dimensional information storage means 5 by the stereoscopic image depth control means 4 as shown in FIG. was positioned Print information (processed element image group 32 3 is assigned a position) to be stored therein (step S6).

このようにして、全ての処理対象要素画像群についての処理が終了するまでステップS2からステップS6を繰り返す。   In this way, steps S2 to S6 are repeated until the processing for all the processing target element image groups is completed.

そして、全ての処理対象要素画像群について処理が終了した場合(ステップS7でYes)、立体画像奥行き制御手段4は、画素値割り当て手段7へ処理の終了を通知する制御信号を出力する。   When the processing is completed for all the processing target element image groups (Yes in step S7), the stereoscopic image depth control unit 4 outputs a control signal that notifies the pixel value allocation unit 7 of the end of the processing.

画素値割り当て手段7は、立体画像奥行き制御手段4から制御信号が入力されると、画素値割り当て済み位置記憶手段6から、統合三次元情報記憶手段5において画素値が割り当てられた画素を読み出す(ステップS8)。   When the control signal is input from the stereoscopic image depth control unit 4, the pixel value allocation unit 7 reads out the pixel to which the pixel value is allocated in the integrated three-dimensional information storage unit 5 from the pixel value allocated position storage unit 6 ( Step S8).

そして、外部から入力された操作信号に基づき、図7(d)に示すように、統合三次元情報記憶手段5に画素値が割り当てられていない画素に画素値を割り当てる(ステップS9)。例えば、操作者が単色の背景となる三次元空間を構築する場合には、所望の単色情報を情報が割り当てられていない画素に割り当てる。なお、画素値割り当て手段7を設けない場合には、統合三次元情報記憶手段5に画素値が割り当てられていない画素に画素値を割り当てない。このようにして、図7(e)に示すように、統合三次元情報が生成される。
そして、統合三次元情報記憶手段5は、統合三次元情報を出力手段8へ出力する。
Then, based on the operation signal input from the outside, as shown in FIG. 7D, pixel values are assigned to pixels to which no pixel value is assigned to the integrated three-dimensional information storage means 5 (step S9). For example, when the operator constructs a three-dimensional space serving as a monochromatic background, desired monochromatic information is allocated to pixels to which no information is allocated. If the pixel value assigning unit 7 is not provided, no pixel value is assigned to a pixel to which no pixel value is assigned to the integrated three-dimensional information storage unit 5. In this way, integrated three-dimensional information is generated as shown in FIG.
Then, the integrated 3D information storage unit 5 outputs the integrated 3D information to the output unit 8.

出力手段8は、統合三次元情報記憶手段5から入力された統合三次元情報を外部へ出力する(ステップS10)。
以上が、三次元情報統合装置1の一連の動作である。
The output means 8 outputs the integrated 3D information input from the integrated 3D information storage means 5 to the outside (step S10).
The above is a series of operations of the three-dimensional information integration apparatus 1.

なお、本発明は、この構成に限定されるものではない。例えば、本実施形態では、要素画像群から被写体の奥行き情報を算出したが、これに限られず、三次元情報を計算機で生成する場合には、被写体の大きさや奥行き位置情報を予め取得しておいても良いし、三次元情報をCCD等によって撮影された映像信号から生成する場合には、変調された赤外光等を被写体に照射することにより被写体の奥行き情報を取得してもよいことはもちろんである。   The present invention is not limited to this configuration. For example, in the present embodiment, the depth information of the subject is calculated from the group of element images. However, the present invention is not limited to this, and when three-dimensional information is generated by a computer, the size and depth position information of the subject is acquired in advance. If the 3D information is generated from a video signal photographed by a CCD or the like, the subject depth information may be acquired by irradiating the subject with modulated infrared light or the like. Of course.

また例えば、立体画像の奥行き制御手段として、前記した立体画像奥行き制御手段4に替えて、次に説明する立体画像奥行き制御手段4Bを用いても良い。
[立体画像奥行き制御手段の構成の概要]
図9を参照して立体画像奥行き制御手段の他の構成例を説明する。図9は、本発明の三次元情報統合装置に適用される立体画像奥行き制御手段の他の構成例を示すブロック構成図である。
Further, for example, a stereoscopic image depth control unit 4B described below may be used as the stereoscopic image depth control unit instead of the stereoscopic image depth control unit 4 described above.
[Outline of configuration of stereoscopic image depth control means]
Another configuration example of the stereoscopic image depth control means will be described with reference to FIG. FIG. 9 is a block configuration diagram showing another configuration example of the stereoscopic image depth control means applied to the three-dimensional information integration device of the present invention.

立体画像奥行き制御手段4Bは、立体画像として表示されたときに被写体の凹凸が反転した再生像となる処理対象要素画像群(以下、「第1要素画像群」ともいう。)の光波を変換し、立体画像として表示されたときに被写体の凹凸と同じで像の大きさが変化した再生像となる処理済要素画像群(以下、「第2要素画像群」ともいう。)を生成するものである。なお、立体画像奥行き制御手段4Bは、外部から入力された操作信号により特定された、統合三次元情報において最も手前に配置される被写体に対応付けられた処理対象要素画像群から順に、画素記憶手段3から読み出し、処理を行う。この立体画像奥行き制御手段4Bに入力される第1要素画像群は、立体画像撮影装置(図示せず)において、CCD等の撮像素子によって撮影された映像信号である。この立体画像奥行き制御手段4Bで生成された第2要素画像群は、立体画像表示装置(図示せず)に出力される。   The stereoscopic image depth control means 4B converts light waves of a processing target element image group (hereinafter also referred to as “first element image group”) that is a reproduced image in which the unevenness of the subject is reversed when displayed as a stereoscopic image. , A processed element image group (hereinafter also referred to as a “second element image group”) that is a reproduced image in which the image size is changed in the same manner as the unevenness of the subject when displayed as a stereoscopic image. is there. Note that the stereoscopic image depth control means 4B is a pixel storage means in order from the processing target element image group that is specified by the operation signal input from the outside and that is associated with the subject that is arranged closest to the integrated 3D information. 3 is read and processed. The first element image group input to the stereoscopic image depth control unit 4B is a video signal captured by an imaging element such as a CCD in a stereoscopic image capturing device (not shown). The second element image group generated by the stereoscopic image depth control unit 4B is output to a stereoscopic image display device (not shown).

図9に示すように、立体画像奥行き制御手段4Bは、分配手段41Bと、第1要素画像変換手段42Bと、加算手段43Bと、再分配手段44Bと、第2要素画像変換手段45Bと、結合手段46Bとを備えている。立体画像奥行き制御手段4Bは、図10に示すような、光学系による立体画像の奥行き制御を演算で行うものである。   As shown in FIG. 9, the stereoscopic image depth control means 4B is combined with a distribution means 41B, a first element image conversion means 42B, an addition means 43B, a redistribution means 44B, and a second element image conversion means 45B. Means 46B. The stereoscopic image depth control means 4B performs the depth control of the stereoscopic image by the optical system as shown in FIG.

分配手段41Bは、第1要素画像群の光波を要素画像毎に分配するものである。ここでは、分配された要素画像をm(−M≦m≦M)で識別することとする。第1要素画像変換手段42Bは、この分配された例えば(2M+1)個の要素画像毎に機能する。そして、分配された要素画像mは、その後、加算手段43Bで加算され、再分配手段44Bで再び分配される。このとき再分配された要素画像をn(−N≦n≦N)で識別することとする。第2要素画像変換手段45Bは、この再分配された例えば(2N+1)個の要素画像毎に機能する。そして、再分配された要素画像nは、その後、結合手段46Bで結合され処理済要素画像群(第2要素画像群)が生成されることとなる。   The distribution unit 41B distributes the light wave of the first element image group for each element image. Here, the distributed element image is identified by m (−M ≦ m ≦ M). The first element image conversion means 42B functions for each (2M + 1) distributed element images. The distributed element image m is then added by the adding means 43B and distributed again by the redistributing means 44B. At this time, the redistributed element images are identified by n (−N ≦ n ≦ N). The second element image conversion means 45B functions for each (2N + 1) element images that have been redistributed. The redistributed element images n are then combined by the combining unit 46B to generate a processed element image group (second element image group).

[立体画像奥行き制御手段の演算処理で想定する仮想的な開口群の概要]
次に、本実施形態の立体画像奥行き制御手段の演算処理で想定する仮想的な開口群の概要について図10を参照(適宜図9参照)して説明する。図10は、立体画像奥行き制御手段の演算処理で想定する仮想的な開口群の一例を模式的に示す説明図である。図9に示す第1要素画像変換手段42Bは、分配手段41Bで分配された要素画像の光波を、第1の仮想的な開口群11Bb(図10参照)を通過して第2の仮想的な開口群12Bb(図10参照)へ伝搬する光波に変換する。ここで、光波とは、映像信号を光の波動として扱った場合の振幅と位相を複素数で表わしたものである。また、開口群を構成する要素(開口)は、レンズ等の光学素子やピンホール等の空間フィルタのことを意味する。以下では、開口を図10に示すように凸レンズ(要素レンズ)で表すこととする。また、図10に示すように、第1の仮想的な開口群11Bbと第2の仮想的な開口群12Bbとは所定距離Lだけ離間している。図10のように第1の仮想的な開口群11Bbが仮想的なレンズアレイであれば、この所定距離Lは、要素レンズの焦点距離とすることができる。なお、第1および第2の仮想的な開口群11Bb,12Bbは実際には存在せず、立体画像奥行き制御手段4Bが演算処理を行うために想定したものである。
[Outline of virtual aperture group assumed in calculation processing of stereoscopic image depth control means]
Next, an outline of a virtual aperture group assumed in the calculation processing of the stereoscopic image depth control unit of the present embodiment will be described with reference to FIG. 10 (see FIG. 9 as appropriate). FIG. 10 is an explanatory diagram schematically showing an example of a virtual aperture group assumed in the calculation processing of the stereoscopic image depth control means. The first element image conversion means 42B shown in FIG. 9 passes the light wave of the element image distributed by the distribution means 41B through the first virtual aperture group 11Bb (see FIG. 10) and the second virtual image. It converts into the light wave which propagates to aperture group 12Bb (refer FIG. 10). Here, the light wave is a complex number representing the amplitude and phase when a video signal is handled as a wave of light. In addition, the elements (openings) constituting the aperture group mean optical elements such as lenses and spatial filters such as pinholes. Hereinafter, the aperture is represented by a convex lens (element lens) as shown in FIG. Further, as shown in FIG. 10, the first virtual opening group 11Bb and the second virtual opening group 12Bb are separated by a predetermined distance L. If the first virtual aperture group 11Bb is a virtual lens array as shown in FIG. 10, the predetermined distance L can be the focal length of the element lens. Note that the first and second virtual aperture groups 11Bb and 12Bb do not actually exist and are assumed for the stereoscopic image depth control means 4B to perform arithmetic processing.

図10において、第1要素画像群の光波は、第1の要素画像面11Baから出射して、図10において厚み方向を示した平面状の第1および第2の仮想的な開口群11Bb,12Bbを、左から右へ通過して第2の要素画像面12Baに入射する。また、k1は第1要素画像群におけるm番目の要素画像の領域を示し、d1は第1要素画像群(第1の要素画像面11Ba)から第1の仮想的な開口群11Bbまでの距離を示す。同様に、k2は第2要素画像群におけるn番目の要素画像の領域を示し、d2は第2の仮想的な開口群12Bbから第2要素画像群(第2の要素画像面12Ba)までの距離を示す。   In FIG. 10, the light waves of the first element image group are emitted from the first element image surface 11Ba, and the planar first and second virtual opening groups 11Bb and 12Bb whose thickness direction is shown in FIG. Passes from the left to the right and enters the second element image plane 12Ba. K1 represents the area of the mth element image in the first element image group, and d1 represents the distance from the first element image group (first element image surface 11Ba) to the first virtual opening group 11Bb. Show. Similarly, k2 indicates the area of the nth element image in the second element image group, and d2 is the distance from the second virtual opening group 12Bb to the second element image group (second element image plane 12Ba). Indicates.

また、図10において、p1は第1の仮想的な開口群11Bbを形成する要素レンズのピッチを示し、p2は第2の仮想的な開口群12Bbを形成する要素レンズのピッチを示す。本実施形態では、以下の式(9)で表わされるピッチの比ΦをΦ≠1として設定する。つまり、第1および第2の仮想的な開口群11Bb,12Bbの要素レンズ(開口)のピッチは異なる。なお、図10では、Φ<1の状態が図示されているが、Φ>1と設定してもよい。   In FIG. 10, p1 indicates the pitch of the element lenses that form the first virtual aperture group 11Bb, and p2 indicates the pitch of the element lenses that form the second virtual aperture group 12Bb. In the present embodiment, the pitch ratio Φ represented by the following formula (9) is set as Φ ≠ 1. That is, the pitches of the element lenses (openings) of the first and second virtual aperture groups 11Bb and 12Bb are different. In FIG. 10, the state of Φ <1 is shown, but Φ> 1 may be set.

Figure 0004875680
Figure 0004875680

[立体画像奥行き制御手段の詳細な構成]
分配手段41Bは、入力された映像信号(第1要素画像群の光波)を要素画像単位に分割する。入力された映像信号(第1の要素画像面11Baから出射する光波)は、第1要素画像群を構成する各要素画像の光波の束に相当し、これを第1要素画像群t1と表記することとする。この分配手段41Bは、入力された映像信号における第1要素画像群t1のm番目の要素画像の光波(gs,m(xs,m,ys,m))を、このm番目の要素画像に予め対応付けられている第1要素画像変換手段42Bに出力する。ここで、xs,mは、入力画像全体(第1要素画像群)におけるm番目の要素画像の中心を原点とした場合のx座標を示す。同様に、ys,mは、入力画像全体(第1要素画像群)におけるm番目の要素画像の中心を原点とした場合のy座標を示す。
[Detailed Configuration of Stereoscopic Image Depth Control Unit]
The distribution unit 41B divides the input video signal (light wave of the first element image group) into element images. The input video signal (the light wave emitted from the first element image surface 11Ba) corresponds to a bundle of light waves of each element image constituting the first element image group, and is denoted as a first element image group t1. I will do it. The distribution means 41B preliminarily applies the light wave (gs, m (xs, m, ys, m)) of the m-th element image of the first element image group t1 in the input video signal to the m-th element image. It outputs to the 1st element image conversion means 42B matched. Here, xs, m indicates the x coordinate when the center of the mth element image in the entire input image (first element image group) is the origin. Similarly, ys, m represents the y coordinate when the center of the mth element image in the entire input image (first element image group) is the origin.

第1要素画像変換手段42Bは、図9に示すように、光波計算手段42Baと、位相シフト手段42Bbと、光波計算手段42Bcとを備えている。
光波計算手段42Baは、要素画像の光波から、フレネル近似に基づいて、第1の仮想的な開口群11Bb(図10参照)を構成する要素レンズに入射する光波を演算するものである。つまり、光波計算手段42Baは、第1の仮想的な開口群11Bbのm番目の要素レンズに到達する光波に相当する信号として、一般的なフレネル近似を用いて、以下の式(10)により要素画像毎の光波(Ri,m(xo,m,yo,m))を演算する。
As shown in FIG. 9, the first element image conversion unit 42B includes a light wave calculation unit 42Ba, a phase shift unit 42Bb, and a light wave calculation unit 42Bc.
The light wave calculating means 42Ba calculates light waves incident on the element lenses constituting the first virtual aperture group 11Bb (see FIG. 10) from the light waves of the element image based on Fresnel approximation. That is, the light wave calculating means 42Ba uses the general Fresnel approximation as a signal corresponding to the light wave reaching the mth element lens of the first virtual aperture group 11Bb, and uses the following equation (10) to calculate the element The light wave (Ri, m (x0, m, yo, m)) for each image is calculated.

Figure 0004875680
Figure 0004875680

ここで、xo,mは、第1の仮想的な開口群11Bbのm番目の要素レンズの光軸中心を原点とした場合のx座標である。同様に、yo,mは、第1の仮想的な開口群11Bbの要素レンズ群のm番目の開口部の光軸中心を原点とした場合のy座標である。また、f1は、第1の仮想的な開口群11Bbの要素レンズの焦点距離を示す。また、kは、波数2π/λ(λは光波の波長)である。この要素画像毎の光波(Ri,m(xo,m,yo,m))は、位相シフト手段42Bbに出力される。   Here, x o, m is the x coordinate when the optical axis center of the m-th element lens of the first virtual aperture group 11Bb is the origin. Similarly, yo, m is the y coordinate when the optical axis center of the mth aperture of the element lens group of the first virtual aperture group 11Bb is the origin. F1 indicates the focal length of the element lens of the first virtual aperture group 11Bb. K is the wave number 2π / λ (λ is the wavelength of the light wave). The light wave (Ri, m (x0, m, y0, m)) for each element image is output to the phase shift means 42Bb.

位相シフト手段42Bbは、入力された要素画像の光波(Ri,m(xo,m,yo,m))から、位相を、第1の仮想的な開口群11Bbの要素レンズに相当する位相分だけシフトさせた光波を演算するものである。すなわち、位相シフト手段42Bbは、以下の式(11)に示すように、光波(Ri,m(xo,m,yo,m))を、第1の仮想的な開口群11Bbの要素レンズに相当する位相分だけシフトさせることで、第1の仮想的な開口群11Bbの要素レンズから出射する光波に相当する信号(Ro,m(xo,m,yo,m))を演算する。この光波(Ro,m(xo,m,yo,m))は、光波計算手段42Bcへ出力される。   The phase shift means 42Bb converts the phase from the light wave (Ri, m (x0, m, y0, m)) of the input element image by a phase corresponding to the element lens of the first virtual aperture group 11Bb. The shifted light wave is calculated. That is, the phase shift means 42Bb corresponds to the element lens of the first virtual aperture group 11Bb by applying the light wave (Ri, m (x0, m, y0, m)) as shown in the following equation (11). By shifting the phase by the phase, the signal corresponding to the light wave emitted from the element lens of the first virtual aperture group 11Bb (Ro, m (xo, m, yo, m)) is calculated. This light wave (Ro, m (xo, m, yo, m)) is output to the light wave calculation means 42Bc.

Figure 0004875680
Figure 0004875680

光波計算手段42Bcは、第1の仮想的な開口群11Bbの要素レンズから出射する光波、すなわち、位相シフト手段42Bbから入力された要素画像の光波(Ro,m(xo,m,yo,m))をフレネル近似することで、第2の仮想的な開口群12Bb(図10参照)の要素レンズに入射する光波を演算するものである。つまり、光波計算手段42Bcは、第2の仮想的な開口群12Bbの要素レンズに到達する光波に相当する信号として、一般的なフレネル近似を用いて、以下の式(12)により要素画像毎の光波(Rd,m(xd,m,yd,m))を演算する。この要素画像毎の光波(Rd,m(xd,m,yd,m))は加算手段43Bへ出力される。   The light wave calculation means 42Bc is a light wave emitted from the element lens of the first virtual aperture group 11Bb, that is, a light wave (Ro, m (xo, m, yo, m) of the element image inputted from the phase shift means 42Bb. ) Is Fresnel approximated to calculate the light wave incident on the element lens of the second virtual aperture group 12Bb (see FIG. 10). That is, the light wave calculation means 42Bc uses a general Fresnel approximation as a signal corresponding to the light wave reaching the element lens of the second virtual aperture group 12Bb, and uses the following formula (12) for each element image. The light wave (Rd, m (xd, m, yd, m)) is calculated. The light wave (Rd, m (xd, m, yd, m)) for each element image is output to the adding means 43B.

Figure 0004875680
Figure 0004875680

式(12)において、xd,mは、第1の仮想的な開口群11Bbのm番目の要素レンズの光軸中心を原点とした場合の、第2の仮想的な開口群12Bbの入射面におけるx座標である。同様に、yd,mは、第1の仮想的な開口群11Bbのm番目の要素レンズの光軸中心を原点とした場合の、第2の仮想的な開口群12Bbの入射面におけるy座標を示す。また、Lは、第1の仮想的な開口群11Bbと第2の仮想的な開口群12Bbとの距離である。また、積分計算を実施する範囲は、m番目の要素画像(要素画像(m))の拡がる範囲と等価に設定することとする。第1要素画像群におけるm番目の要素画像が広がる範囲wの一例を図11に示す。この場合、第1要素画像群におけるm番目の要素画像が広がる範囲wは式(13)で表わされる。なお、k1は第1要素画像群におけるm番目の要素画像の領域を示し、d1は処理対象要素画像群(第1の要素画像面11Ba)から第1の仮想的な開口群11Bbまでの距離を示す。   In Expression (12), xd, m is the incident surface of the second virtual aperture group 12Bb when the optical axis center of the mth element lens of the first virtual aperture group 11Bb is the origin. x coordinate. Similarly, yd, m is the y coordinate on the incident surface of the second virtual aperture group 12Bb when the optical axis center of the m-th element lens of the first virtual aperture group 11Bb is the origin. Show. L is the distance between the first virtual opening group 11Bb and the second virtual opening group 12Bb. Further, the range in which the integral calculation is performed is set to be equivalent to the range in which the m-th element image (element image (m)) expands. An example of the range w in which the mth element image in the first element image group extends is shown in FIG. In this case, a range w in which the m-th element image in the first element image group extends is expressed by Expression (13). Here, k1 represents the area of the mth element image in the first element image group, and d1 represents the distance from the processing target element image group (first element image surface 11Ba) to the first virtual opening group 11Bb. Show.

Figure 0004875680
Figure 0004875680

加算手段43Bは、第1要素画像変換手段42Bで変換されたそれぞれの要素画像の光波を、分配手段41Bで分配された数だけ、第2の仮想的な開口群12Bbの入射面で加算するものである。加算手段43Bは、第1の仮想的な開口群11Bbの要素レンズの画角に対応する光波を加算する。この加算手段43Bは、第1の仮想的な開口群11Bbの要素レンズから出射されて第2の仮想的な開口群12Bbの要素レンズの入射面に到達する光波(Rd,m(xd,m,yd,m))を、第2の仮想的な開口群12Bbの領域内で加算する。つまり、第2の仮想的な開口群12Bbの入射面での光波に相当する信号として、以下の式(14)により、第2の仮想的な開口群12Bbの入射面での光波(Rp(xp,yp))を演算する。   The adding means 43B adds the light waves of the respective element images converted by the first element image converting means 42B by the number distributed by the distributing means 41B on the incident surface of the second virtual aperture group 12Bb. It is. The adding means 43B adds light waves corresponding to the field angles of the element lenses of the first virtual aperture group 11Bb. The adding means 43B emits a light wave (Rd, m (xd, m,) which is emitted from the element lens of the first virtual aperture group 11Bb and reaches the entrance surface of the element lens of the second virtual aperture group 12Bb. yd, m)) is added within the region of the second virtual aperture group 12Bb. That is, as a signal corresponding to the light wave on the incident surface of the second virtual aperture group 12Bb, the light wave (Rp (xp) on the incident surface of the second virtual aperture group 12Bb is obtained by the following equation (14). , Yp)).

Figure 0004875680
Figure 0004875680

ここで、xpは、第2の仮想的な開口群12Bbの中心を原点とした場合のx座標であり、同様に、ypは、第2の仮想的な開口群12Bbの中心を原点とした場合のy座標である。この光波(Rp(xp,yp))は再分配手段44Bへ出力される。   Here, xp is the x coordinate when the center of the second virtual aperture group 12Bb is the origin, and similarly, yp is the case where the center of the second virtual aperture group 12Bb is the origin. Y coordinate. This light wave (Rp (xp, yp)) is output to the redistribution means 44B.

再分配手段44Bは、加算手段43Bで加算された光波を、第2要素画像群を構成する要素画像毎に再分配するものである。この再分配手段44Bは、加算手段43Bから入力された光波(Rp(xp,yp))を要素画像単位に分割する。光波(Rp(xp,yp))を再分配した要素画像ごとの光波として、第2の仮想的な開口群12Bbを構成するn番目の要素レンズに対応する光波を、(Rp,n(xp,n,yp,n))とする。ここで、再分配手段14は、第2の仮想的な開口群12Bbを構成する各要素レンズに入力された光波(Rp,n(xp,n,yp,n))を、第2の仮想的な開口群12Bbを横成するn番目の要素レンズに予め対応付けられている第2要素画像変換手段45Bに出力する。   The redistribution unit 44B redistributes the light waves added by the addition unit 43B for each element image constituting the second element image group. The redistribution unit 44B divides the light wave (Rp (xp, yp)) input from the addition unit 43B into element image units. As a light wave for each element image obtained by redistributing the light wave (Rp (xp, yp)), a light wave corresponding to the nth element lens constituting the second virtual aperture group 12Bb is represented by (Rp, n (xp, n, yp, n)). Here, the redistribution means 14 converts the light wave (Rp, n (xp, n, yp, n)) input to each element lens constituting the second virtual aperture group 12Bb into the second virtual Output to the second element image conversion means 45B associated in advance with the n-th element lens that crosses the open aperture group 12Bb.

第2要素画像変換手段45Bは、再分配手段44Bで分配された要素画像の光波を、第2の仮想的な開口群12Bbを通過して結像するまでの距離だけ伝搬した光波に変換するものである。この第2要素画像変換手段45Bは、再分配手段44Bから入力された光波を、第2の仮想的な開口群12Bbの要素レンズ(焦点距離f2)の開口領域に再分配した後、その要素レンズ(焦点距離f2)を通過する光波に変換し、さらに、その要素レンズの焦点距離f2だけ光波を伝搬させる。第2要素画像変換手段45Bは、例えば(2N+1)個の要素画像毎に機能することで、各要素画像の光波の束を伝搬させる。これら伝搬する各要素画像の光波の束から第2要素画像群が構成されることとなる。これを第2要素画像群t2と表記することとする。つまり、第2要素画像変換手段45Bは、第2要素画像群t2を演算する。第2要素画像変換手段45Bは、図9に示すように、位相シフト手段45Baと、光波計算手段45Bbとを備えている。   The second element image conversion unit 45B converts the light wave of the element image distributed by the redistribution unit 44B into a light wave that has propagated through the second virtual aperture group 12Bb until the image is formed. It is. The second element image conversion means 45B redistributes the light wave input from the redistribution means 44B to the aperture region of the element lens (focal length f2) of the second virtual aperture group 12Bb, and then the element lens. It is converted into a light wave that passes through (focal length f2), and the light wave is further propagated by the focal length f2 of the element lens. The second element image conversion unit 45B functions for every (2N + 1) element images, for example, to propagate a bundle of light waves of each element image. The second element image group is composed of a bundle of light waves of the element images that propagate. This is expressed as a second element image group t2. That is, the second element image conversion unit 45B calculates the second element image group t2. As shown in FIG. 9, the second element image conversion unit 45B includes a phase shift unit 45Ba and a light wave calculation unit 45Bb.

位相シフト手段45Baは、再分配手段44Bから入力された光波(Rp,n(xp,n,yp,n))から、位相を、第2の仮想的な開口群12Bbの要素レンズに相当する位相分だけシフトさせた光波を演算するものである。すなわち、位相シフト手段45Baは、以下の式(15)に示すように、光波(Rp,n(xp,n,yp,n))を、第2の仮想的な開口群12Bbの要素レンズに相当する位相分だけシフトさせることで、第2の仮想的な開口群12Bbの要素レンズから出射する光波に相当する信号(Rr,n(xp,n,yp,n))を演算する。   The phase shift unit 45Ba converts the phase from the light wave (Rp, n (xp, n, yp, n)) input from the redistribution unit 44B to a phase corresponding to the element lens of the second virtual aperture group 12Bb. The light wave shifted by the amount is calculated. In other words, the phase shift means 45Ba corresponds to the element lens of the second virtual aperture group 12Bb by applying the light wave (Rp, n (xp, n, yp, n)) as shown in the following equation (15). By shifting the phase by the phase, the signal (Rr, n (xp, n, yp, n)) corresponding to the light wave emitted from the element lens of the second virtual aperture group 12Bb is calculated.

Figure 0004875680
Figure 0004875680

ここで、xp,nは、第2の仮想的な開口群12Bbのn番目の要素レンズの光軸中心を原点とした場合のx座標である。同様に、yp,nは、第2の仮想的な開口群12Bbのn番目の要素レンズの光軸中心を原点とした場合のy座標である。また、f2は、第2の仮想的な開口群12Bbの要素レンズの焦点距離である。この要素画像毎の光波(Rr,n(xp,n,yp,n))は、光波計算手段45Bbへ出力される。   Here, xp, n is an x coordinate when the optical axis center of the nth element lens of the second virtual aperture group 12Bb is the origin. Similarly, yp, n is the y coordinate when the center of the optical axis of the nth element lens of the second virtual aperture group 12Bb is the origin. F2 is a focal length of the element lens of the second virtual aperture group 12Bb. The light wave (Rr, n (xp, n, yp, n)) for each element image is output to the light wave calculating means 45Bb.

光波計算手段45Bbは、第2の仮想的な開口群12Bbの要素レンズ毎の光波をフレネル近似することで、第2の仮想的な開口群12Bbの要素レンズから出射し、第2の要素画像面12Ba(図10参照)に到達する光波を演算するものである。すなわち、光波計算手段45Bbは、以下の式(16)により、第2の仮想的な開口群12Bbのn番目の要素レンズから出射されて第2の要素画像面12Baに到達する光波(Re,n(xe,n,ye,n))を演算する。   The light wave calculating means 45Bb emits the light wave for each element lens of the second virtual aperture group 12Bb from the element lens of the second virtual aperture group 12Bb by performing Fresnel approximation, and the second element image plane The light wave reaching 12Ba (see FIG. 10) is calculated. That is, the light wave calculation means 45Bb calculates the light wave (Re, n) emitted from the nth element lens of the second virtual aperture group 12Bb and reaching the second element image plane 12Ba by the following equation (16). (Xe, n, ye, n)) is calculated.

Figure 0004875680
Figure 0004875680

ここで、xe,nは、出力画像全体(第2要素画像群)におけるn番目の要素画像の中心からのx座標である。同様に、ye,nは出力画像全体におけるn番目の要素画像の中心からのy座標である。この光波計算手段45Bbで演算された光波(Re,n(xe,n,ye,n))は結合手段46Bへ出力される。   Here, xe, n is an x coordinate from the center of the nth element image in the entire output image (second element image group). Similarly, ye, n is the y coordinate from the center of the nth element image in the entire output image. The light wave (Re, n (xe, n, ye, n)) calculated by the light wave calculating means 45Bb is output to the coupling means 46B.

結合手段46Bは、第2要素画像変換手段45Bで変換された光波を、再分配手段44Bで再分配された数だけ結合することで、第2要素画像群を生成するものである。この結合手段46Bは、第2要素画像変換手段45Bから出力された要素画像毎の光波から、その光波の電力の総和を演算することで、立体像の大きさが変換処理された映像信号、すなわち、第2要素画像群t2となる映像信号を生成する。この結合手段46Bで得られた第2要素画像群t2は、立体画像表示装置(図示せず)へ出力される。   The combining means 46B generates the second element image group by combining the light waves converted by the second element image converting means 45B by the number redistributed by the redistributing means 44B. This combining means 46B calculates the sum of the powers of the light waves from the light waves for each element image output from the second element image conversion means 45B, thereby obtaining a video signal in which the size of the stereoscopic image is converted, that is, Then, a video signal to be the second element image group t2 is generated. The second element image group t2 obtained by the combining means 46B is output to a stereoscopic image display device (not shown).

ここで、第2要素画像変換手段45Bから出力される第2の要素画像面12Baに到達する光波(Re,n(xe,n,ye,n))の電力は、光の振幅の2乗で表わすことができる。また、第1要素画像群t1の各要素画像として発せられた光波は、インコヒーレント(波長や位相が一定ではない)であるため、光波の位相は無相関であるとみなすことができる。そこで、結合手段46Bは、以下の式(17)に示すように、第2の要素画像面12Baに到達する各要素画像の光波(例えばn番目の要素画像であればその光波は(Re,n(xe,n,ye,n))である)の2乗を計算し、その和をとることで、第2要素画像群t2全体の映像信号を得る。   Here, the power of the light wave (Re, n (xe, n, ye, n)) reaching the second element image plane 12Ba output from the second element image conversion means 45B is the square of the amplitude of the light. Can be represented. Moreover, since the light wave emitted as each element image of the first element image group t1 is incoherent (the wavelength and phase are not constant), the phase of the light wave can be regarded as uncorrelated. Therefore, as shown in the following equation (17), the combining unit 46B uses the light wave of each element image that reaches the second element image plane 12Ba (for example, if it is the n-th element image, the light wave is (Re, n (Xe, n, ye, n)) is calculated, and the sum thereof is calculated to obtain a video signal of the entire second element image group t2.

Figure 0004875680
Figure 0004875680

このとき、立体画像奥行き制御手段4Bは、画素値割り当て済み位置記憶手段6から統合三次元情報記憶手段5においてすでに画素値が割り当てられている画素の情報を取得し、現在処理を行っている大きさの比率および奥行き制御後の処理対象要素画像群に、統合三次元情報記憶手段5においてすでに画素値が割り当てられている位置に対応する画素がない場合、結合手段46Bによって、第1要素画像群(例えば、図6に示す処理対象要素画像群31)の全ての画素について、光波の電力の総和を求める。これにより、第2要素画像群(図7に示す処理済要素画像群32)が生成されるので、立体画像奥行き制御手段4Bは、統合三次元情報記憶手段5に出力し、記憶させる。 At this time, the stereoscopic image depth control unit 4B acquires information on the pixels to which pixel values have already been assigned in the integrated three-dimensional information storage unit 5 from the pixel value assigned position storage unit 6, and performs the current processing. When there is no pixel corresponding to the position to which the pixel value is already assigned in the integrated three-dimensional information storage unit 5 in the processing target element image group after the depth ratio and depth control, the first element image group is combined by the combining unit 46B. For all the pixels of the processing target element image group 31 3 shown in FIG. As a result, the second element image group (processed element image group 32 3 shown in FIG. 7) is generated, so that the stereoscopic image depth control means 4B outputs to and stores the integrated three-dimensional information storage means 5.

一方、現在処理を行っている処理対象要素画像群に、統合三次元情報記憶手段5においてすでに画素値が割り当てられている位置に対応する画素がある場合には、結合手段4Bによって、当該画素を除いた光波の電力の総和を求める。 On the other hand, when there is a pixel corresponding to a position to which a pixel value has already been assigned in the integrated three-dimensional information storage unit 5 in the processing target element image group currently being processed, the combination unit 4 6 B The sum of the power of the light wave excluding the pixels is obtained.

立体画像奥行き制御手段4Bは、画素値割り当て済み位置記憶手段6に、統合三次元情報記憶手段5に画素値が割り当てられた位置(例えば、処理済要素画像群32が割り当てられた位置)の情報を出力し、記憶させる。その他の構成の動作は、前記した三次元情報統合装置1と同様であるので、記載を省略する。 Stereoscopic image depth control means 4B is a pixel value assigned position storage unit 6, the integrated three-dimensional information storage unit 5 position where a pixel value is assigned to the (e.g., the processed element image group 32 3 assigned position) Output and store information. Since the operation of the other configuration is the same as that of the above-described three-dimensional information integration apparatus 1, description thereof is omitted.

[再生像の大きさの比率制御]
立体画像奥行き制御手段4Bは、前記のように詳細に説明した構成を備えており、前記した式(9)で表わされるピッチの比Φを予め設定しておくことで、再生像の大きさの比率を所望の値に制御することができる。仮に、立体画像奥行き制御手段4Bの処理を行わない場合、つまり、第1および第2の仮想的な開口群11Bb,12Bbを用いない場合には、被写体の大きさxc(図16(a)参照)と再生される立体像の大きさxr(図16(b)参照)との関係は、前記した式(101)の通りである。このように立体画像奥行き制御手段4Bを用いない場合、前記した式(101)において、α=γとすると、被写体の大きさxc(図16(a)参照)と、再生される立体像の大きさxr(図16(b)参照)との関係は、以下の式(18)で表わされることとなる。
[Reproduction image size ratio control]
The stereoscopic image depth control means 4B has the configuration described in detail as described above, and by setting in advance the pitch ratio Φ represented by the above equation (9), the size of the reproduced image can be adjusted. The ratio can be controlled to a desired value. If the processing of the stereoscopic image depth control unit 4B is not performed, that is, if the first and second virtual aperture groups 11Bb and 12Bb are not used, the subject size xc (see FIG. 16A). ) And the size of the stereoscopic image to be reproduced xr (see FIG. 16B) is as in the above-described equation (101). When the stereoscopic image depth control means 4B is not used in this way, if α = γ in the above equation (101), the subject size xc (see FIG. 16A) and the size of the reproduced stereoscopic image The relationship with the length xr (see FIG. 16B) is expressed by the following equation (18).

Figure 0004875680
Figure 0004875680

つまり、図9において、立体画像奥行き制御手段4Bを無視して、要素レンズのピッチpc(図16(a)参照)と、要素レンズのピッチpr(図16(b)参照)とが等しい場合には、被写体の大きさxc(図16(a)参照)と、再生像される立体像の大きさxr(図16(b)参照)とは等しくなってしまう。一方、立体画像奥行き制御手段4Bを用いた場合には、被写体の大きさxc(図16(a)参照)と、再生される立体像の大きさxr(図16(b)参照)との関係は、以下の式(19)で表わされる。   That is, in FIG. 9, when the stereoscopic image depth control means 4B is ignored, the element lens pitch pc (see FIG. 16A) is equal to the element lens pitch pr (see FIG. 16B). Is equal to the size xc of the subject (see FIG. 16A) and the size xr of the stereoscopic image to be reproduced (see FIG. 16B). On the other hand, when the stereoscopic image depth control means 4B is used, the relationship between the subject size xc (see FIG. 16A) and the reproduced stereoscopic image size xr (see FIG. 16B). Is represented by the following equation (19).

Figure 0004875680
Figure 0004875680

つまり、図9において、要素レンズのピッチpc(図16(a)参照)と、要素レンズのピッチpr(図16(b)参照)とが仮に等しかったとしても、第1の仮想的な開口群11Bbの要素レンズのピッチp1(図10参照)と、第2の仮想的な開口群12Bbの要素レンズのピッチp2(図10参照)とを制御することで、被写体の大きさxc(図16(a)参照)に対する再生される立体像の大きさxr(図16(b)参照)を変化させることが可能となる。   That is, in FIG. 9, even if the element lens pitch pc (see FIG. 16A) and the element lens pitch pr (see FIG. 16B) are equal, the first virtual aperture group By controlling the pitch p1 (see FIG. 10) of the element lens of 11Bb and the pitch p2 (see FIG. 10) of the element lens of the second virtual aperture group 12Bb, the size xc of the subject (see FIG. 16). It is possible to change the size xr (see FIG. 16B) of the reproduced stereoscopic image with respect to (a).

なお、説明の都合上、前記した式(18)および式(19)の説明において、前記した式(101)においてαとγとが等しい場合について記述したが、本発明では、前記した式(101)においてα≠γとしてもよい。同様に、要素レンズのピッチpcと、要素レンズのピッチprとが等しい場合について記述したが、pc≠prとしてもよい。   For convenience of explanation, the case where α and γ are equal in the above-described equation (101) has been described in the above-described equations (18) and (19). However, in the present invention, the above-described equation (101) is described. ) May be α ≠ γ. Similarly, the case where the pitch pc of the element lens is equal to the pitch pr of the element lens is described, but pc ≠ pr may be used.

このような立体画像奥行き制御手段4Bによれば、第1要素画像群t1を、各要素画像mの光波が、第1および第2の仮想的な開口群11Bb,12Bbを通過したものとして演算処理することで、被写体の撮影および表示に用いる光学的な装置に依存することなく、被写体の凹凸と同じで像の大きさを所望の大きさに変化させた像を再生するような第2要素画像群t2へと変換することができる。したがって、このように演算処理で立体像の大きさを変化できるので、従来のようにレンズ等の撮影および表示に用いる光学的な装置を変更する必要がない。また、立体画像奥行き制御手段4Bによれば、演算処理により、被写体を複数の要素画像として撮影した要素画像群としての画像から発せられる光を再度撮影した場合と等価な画像を生成することができる。さらに、被写体に対する大きさが任意に制御された再生像を表示する際に、立体画像の演出効果を高めることが可能となる。   According to such a stereoscopic image depth control means 4B, the first element image group t1 is processed by assuming that the light wave of each element image m has passed through the first and second virtual aperture groups 11Bb and 12Bb. Thus, the second element image that reproduces an image in which the size of the image is changed to a desired size is the same as the unevenness of the subject without depending on the optical device used for photographing and displaying the subject. It can be converted into the group t2. Therefore, since the size of the stereoscopic image can be changed by the arithmetic processing in this way, it is not necessary to change the optical device used for photographing and displaying such as a lens as in the conventional case. In addition, according to the stereoscopic image depth control unit 4B, an image equivalent to a case where light emitted from an image as an element image group obtained by imaging a subject as a plurality of element images can be generated by arithmetic processing. . Furthermore, when displaying a reproduced image whose size with respect to the subject is arbitrarily controlled, it is possible to enhance the effect of rendering a stereoscopic image.

なお、立体画像奥行き制御手段4Bは、演算回路によって実現することも可能であるし、中央演算処理装置(CPU:Central Processing Unit)、主記憶装置(RAM:Random Access Memory)等を備えた一般的なコンピュータを、前記した各手段として機能させるプログラムとして実現することも可能である。   The stereoscopic image depth control means 4B can be realized by an arithmetic circuit, and is generally provided with a central processing unit (CPU), a main storage device (RAM: Random Access Memory), and the like. It is also possible to realize a simple computer as a program that functions as each of the above-described means.

なお、前記した立体画像奥行き制御手段4、4Bはそれぞれ、波動光学的手法を用いて立体画像の奥行きを制御するものであるが、これに限られるものではなく、幾何光学的手法を用いても良い。以下、幾何光学的手法により立体画像の奥行きを制御する立体画像奥行き制御手段4Cについて説明する。   Each of the stereoscopic image depth control means 4 and 4B controls the depth of a stereoscopic image using a wave optical technique, but is not limited to this, and a geometrical optical technique may be used. good. Hereinafter, the stereoscopic image depth control unit 4C that controls the depth of the stereoscopic image by a geometric optical method will be described.

図12に示すのは、本発明の三次元情報統合装置に適用される立体画像奥行き制御手段の他の構成例を示すブロック構成図および要素画像群撮像装置の構成例を模式的に示した模式図である。
立体画像奥行き制御手段4Cは、予め設定された要素画像群撮像装置50の要素レンズ群51と撮像手段52の撮像面との距離g1、および、隣接する2要素レンズL1、L1のピッチp1の情報に基づいて、被写体の処理対象要素画像群(以下、「第1要素画像群」ともいう)を、任意の奥行きの位置に、奥行きの位置関係の正しい立体像を表示できる処理済要素画像群(以下、「第2要素画像群」ともいう)に変換するものである。なお、
要素画像群撮像装置50と立体画像奥行き制御手段4Cの間には、図示しないが、要素画像分離手段2(図2参照)と画素記憶手段3(図2参照)が配置されている。
立体画像奥行き制御手段4Cは、外部から入力された操作信号により特定された、統合三次元情報において最も手前に配置される被写体に対応付けられた処理対象要素画像群から順に、画素記憶手段3から読み出し、処理を行う。ここでは、立体画像奥行き制御手段4Cは、第2要素画像生成手段47を備える。
FIG. 12 shows a block configuration diagram showing another configuration example of the stereoscopic image depth control means applied to the three-dimensional information integration device of the present invention, and a schematic diagram schematically showing a configuration example of the element image group imaging device. FIG.
The stereoscopic image depth control unit 4C is configured to store information on the preset distance g1 between the element lens group 51 of the element image group imaging device 50 and the imaging surface of the imaging unit 52, and the pitch p1 of the adjacent two element lenses L1 and L1. The processed element image group (hereinafter, also referred to as “first element image group”) of the subject can be displayed at a position of an arbitrary depth as a processed three-dimensional image having a correct depth positional relationship ( Hereinafter, it is also referred to as “second element image group”). In addition,
Although not shown, an element image separation unit 2 (see FIG. 2) and a pixel storage unit 3 (see FIG. 2) are arranged between the element image group imaging device 50 and the stereoscopic image depth control unit 4C.
The stereoscopic image depth control means 4C starts from the pixel storage means 3 in order from the processing target element image group that is specified by the operation signal input from the outside and that is associated with the subject that is arranged in the forefront in the integrated 3D information. Read and process. Here, the stereoscopic image depth control unit 4 </ b> C includes a second element image generation unit 47.

第2要素画像生成手段47は、要素画像群撮像装置50によって撮像された第1要素画像群(例えば、図6に示す処理対象要素画像群31)を、任意の奥行きの位置に、奥行きの位置関係の正しい立体像を表示できる第2要素画像群(図7に示す処理対象要素画像群32)に変換するものである。第2要素画像生成手段47は、立体情報割当手段47aと、立体情報補間手段47bとを備える。 The second element image generation unit 47 converts the first element image group (for example, the processing target element image group 31 3 shown in FIG. 6) captured by the element image group imaging device 50 to a position of an arbitrary depth. This is converted to the second element image group (processing object element image group 32 3 shown in FIG. 7) that can display a stereoscopic image with a correct positional relationship. The second element image generation unit 47 includes a 3D information allocation unit 47a and a 3D information interpolation unit 47b.

なお、ここでは、要素画像群撮像装置50によって撮像された第1要素画像群31の各画素の輝度値の情報は、画素記憶手段3(図2参照)に記憶されていることとし、第2要素画像生成手段47が、画素記憶手段3(図2参照)から、各画素の輝度値の情報を読み出すこととした。 Here, the information of the luminance value of each pixel of the first element image group 31 3 taken by the element image group imaging device 50, and it is stored in the pixel memory means 3 (see FIG. 2), the The two-element image generation unit 47 reads out information on the luminance value of each pixel from the pixel storage unit 3 (see FIG. 2).

ここで、図13を参照(適宜図12参照)して、第2要素画像生成手段47が第1要素画像群31 を変換する方法について説明する。図13は、奥行き変換手段の第1要素画像群の変換方法を説明するための説明図である。 Referring now to FIG. 13 (appropriately with reference to Figure 12), the second element image generating means 47 will be described how to convert the first element image group 31 3. FIG. 13 is an explanatory diagram for explaining a conversion method of the first element image group of the depth conversion means.

図13に示すように、第2要素画像生成手段47は、第1要素画像群31を仮想的に表示する第1の要素画像面11Caと、要素レンズ群1と要素レンズL1のピッチp1の同じ仮想的な複数の仮想要素レンズである第1の仮想的な開口L1´が同一平面上に配列された第1の仮想的な開口群11Cbと、この第1の仮想的な開口群11Cbによって仮想的に再生された立体像(図示せず)の像I、I、・・・を結像する仮想要素レンズである第2の仮想的な開口L2´が同一平面上に配列された第2の仮想的な開口群12Cbと、像Iからなる第2要素画像群32が仮想的に結像する第2の要素画像面12Caとを仮想的に(計算によって)設定する。そして、第2要素画像生成手段47は、要素画像群撮像装置50によって撮像された第1要素画像群31の各々の画素の輝度値(画素値)に基づいて、第1の要素画像面11Caに仮想的に表示された第1要素画像群31からの光が、第1の仮想的な開口群11Cbおよび第2の仮想的な開口群12Cbを介して第2の要素画像面12Caに結像して生成される第2要素画像群32上の画素の輝度値を算出することで、第2要素画像群32を生成することとした。 As shown in FIG. 13, the second element image generating means 47, the first and the element image plane 11Ca, element lens group 5 1 and element lens L1 for displaying a first component image group 31 3 virtually pitch p1 A first virtual aperture group 11Cb in which first virtual apertures L1 ′, which are the same virtual plurality of virtual element lenses, are arranged on the same plane, and the first virtual aperture group 11Cb A second virtual aperture L2 ′, which is a virtual element lens that forms images I, I,... Of a stereoscopic image (not shown) virtually reproduced by the first image, is arranged on the same plane. and 2 of the virtual aperture group 12Cb, (by calculation) virtually the second elemental image surface 12Ca of the second element image group 32 3 made of the image I is imaged virtually set. The second element image generating means 47, based on the first luminance value of each pixel of the element images 31 3 taken by the element image group imaging device 50 (pixel value), the first elemental image surface 11Ca forming light from the first elemental image group 31 3 which is virtually displayed and via the first virtual aperture group 11Cb and a second virtual aperture group 12Cb second elemental image surface 12Ca to by calculating the brightness values of the pixels on the second element image group 32 3 generated in the image, it was decided to produce a second component image group 32 3.

ここで、第1の要素画像面11Caと第1の仮想的な開口群11Cbとの距離g1は、要素画像群撮像装置50の要素レンズ群51と撮像手段52との撮像面(図示せず)との距離g1に等しい。また、第1の仮想的な開口L1’と、第2の仮想的な開口L2’とは、光軸が平行である。一方、第1の仮想的な開口L1’と、第2の仮想的な開口L2’とは、ピッチp1、p2が等しくても異なっていてもよく、第1の要素画像面11Caと第1の仮想的な開口群11Cbとの距離g1、および、第2の仮想的な開口群12Cbと第2の要素画像面12Caとの距離g2も、等しくても異なっていても良い。   Here, the distance g1 between the first element image plane 11Ca and the first virtual aperture group 11Cb is the imaging plane (not shown) of the element lens group 51 and the imaging means 52 of the element image group imaging apparatus 50. Is equal to the distance g1. The first virtual opening L1 'and the second virtual opening L2' are parallel to the optical axis. On the other hand, the first virtual opening L1 ′ and the second virtual opening L2 ′ may have the same or different pitches p1 and p2, and the first element image plane 11Ca and the first virtual opening L2 ′ may be different from each other. The distance g1 between the virtual aperture group 11Cb and the distance g2 between the second virtual aperture group 12Cb and the second element image plane 12Ca may be equal or different.

なお、図13では、図12の被写体Sの位置に第2の仮想的な開口L2´が配置される場合を例に示したが、第2要素画像生成手段47は、第2の仮想的な開口群12Cbと第2の要素画像面12Caとを、第1の仮想的な開口群11Cbから出射された第1の要素画像面11Caの第1要素画像群31 からの光の仮想的な光路上において任意の位置に設定することができる。そして、第2要素画像生成手段47によって、第1の仮想的な開口群11Cbから出射された光の仮想的な光路上において設定された第2の仮想的な開口群12Cbおよび第2の要素画像面12Caから被写体Sの位置に相当する位置までの距離に応じて、立体画像表示装置(図示せず)によって表示される立体像(図示せず)の立体画像表示装置(図示せず)からの奥行き方向の距離が定まる。このように、第2要素画像生成手段47は、第2の仮想的な開口群12Cbと第2の要素画像面12Caとを、立体像を表示する奥行き方向の位置に対応する位置に設定することで、立体像をこの奥行き方向の位置に表示することができる第2要素画像群32を生成することができる。 FIG. 13 shows an example in which the second virtual opening L2 ′ is arranged at the position of the subject S in FIG. opening group 12Cb and the second element image plane 12Ca, a first virtual virtual light of the light from the first element image group 31 3 of the first element image surface 11Ca emitted from aperture group 11Cb It can be set at an arbitrary position on the road. Then, by the second element image generation means 47, the second virtual aperture group 12Cb and the second element image set on the virtual optical path of the light emitted from the first virtual aperture group 11Cb. Depending on the distance from the surface 12Ca to the position corresponding to the position of the subject S, a stereoscopic image (not shown) displayed by the stereoscopic image display device (not shown) from the stereoscopic image display device (not shown). The distance in the depth direction is determined. As described above, the second element image generation unit 47 sets the second virtual aperture group 12Cb and the second element image surface 12Ca at positions corresponding to positions in the depth direction for displaying a stereoscopic image. in, it is possible to generate the second element image group 32 3 capable of displaying a stereoscopic image on the depth direction position.

さらに、第2要素画像生成手段47は、第1の仮想的な開口群11Cbから出射された第1の要素画像面11Caの第1要素画像群31からの光を、第2の仮想的な開口群12Cbによって第2の要素画像面12Caに仮想的に結像させた第2要素画像群32を生成するため、この第2要素画像群32は、図12の要素画像群撮像装置50の撮影方向とは逆向きの撮影方向から撮像されたものとなる。これによって、第2要素画像生成手段47は、立体画像表示装置(図示せず)によって被写体Sと比較して奥行きの位置関係の正しい立体像(図示せず)を表示することができる。 Furthermore, the second element image generating means 47, the light from the first elemental image plane first element image group 31 3 11Ca emitted from the first virtual aperture group 11cb, a second virtual In order to generate the second element image group 32 3 that is virtually imaged on the second element image surface 12Ca by the aperture group 12Cb, the second element image group 32 3 is the element image group imaging device 50 of FIG. The image is taken from a direction opposite to the image taking direction. As a result, the second element image generation means 47 can display a stereoscopic image (not shown) having a correct positional relationship in depth compared to the subject S by a stereoscopic image display device (not shown).

図12に戻って説明を続ける。立体情報割当手段(割当手段)47aは、要素画像群撮像装置50によって撮像された第1要素画像群31の各々の画素の輝度値を、当該画素からの光が、第1の仮想的な開口群11Cbおよび第2の仮想的な開口群12Cbを介して第2の要素画像面12Caに結像する第2要素画像群32上の画素の輝度値とするものである。 Returning to FIG. 12, the description will be continued. Three-dimensional information assigning means (assignment means) 47a has a luminance value of each pixel of the first element image group 31 3 taken by the element image group imaging device 50, the light from the pixel, a first virtual it is an intensity value of the pixel on the second element image group 32 3 which forms the second element image plane 12Ca through the opening group 11Cb and a second virtual aperture group 12Cb.

ここで、図14を参照して、立体情報割当手段47aが第1要素画像群31の各々の画素の輝度値を第2要素画像群323上の画素に割り当てる方法について説明する。図14は、立体情報割当手段が、第1要素画像群の各々の画素の輝度値を第2要素画像群上の画素に割り当てる方法を説明するための説明図である。 Referring now to FIG. 14, the three-dimensional information allocation means 47a methods described for assigning luminance values of the pixels of each of the first element image group 31 3 to the pixels on the second element image group 323. FIG. 14 is an explanatory diagram for explaining a method in which the three-dimensional information assigning unit assigns the luminance value of each pixel of the first element image group to the pixel on the second element image group.

図14に示すように、立体情報割当手段47aが、第1の要素画像面11Caと、第1の仮想的な開口群11Cbと、第2の仮想的な開口群12Cbと、第2の要素画像面12Caとを仮想的に設定し、第1要素画像群31には被写体Saの像Ia、Iaが含まれているとする。そして、第1要素画像群31の像Iaの画素から第1の仮想的な開口L1’の中心を通過する仮想的な光(以下、仮想光線という)が、第2の仮想的な開口L2’の中心を通過する場合には、立体情報割当手段47aは、この仮想光線と第2の要素画像面12Caとの交点に当たる第2要素画像群32の画素に、この第1要素画像群31の画素の輝度値を割り当てる。 As shown in FIG. 14, the three-dimensional information allocating unit 47a includes a first element image plane 11Ca, a first virtual opening group 11Cb, a second virtual opening group 12Cb, and a second element image. set the surface 12Ca virtually, and the first element image group 31 3 contains the image Ia 1, Ia 2 subjects Sa. The virtual light from the pixel image Ia 1 of the first element image group 31 3 passes through the center of the first virtual aperture L1 '(hereinafter, referred to as virtual ray) is a second virtual aperture when passing through the center of L2 'is three-dimensional information assigning means 47a is in the virtual ray and the intersection second element pixels of the image group 32 3 which corresponds to the second element image plane 12Ca, the first element image group Assign a luminance value of 3 13 pixels.

一方、第1要素画像群31の像Iaの画素から第1の仮想的な開口L1’の中心を通過する仮想光線が、第2の仮想的な開口L2’の中心を通過しない場合には、立体情報割当手段47aは、この仮想光線に平行で、当該第2の仮想的な開口L2’の中心を通過する線と第2の要素画像面12Caとの交点に当たる第2要素画像群32の画素に、この第1要素画像群31の画素の輝度値を割り当てる。 On the other hand, if the pixel image Ia 2 of the first element image group 31 3 first virtual aperture L1 'virtual ray passing through the center of, the second virtual aperture L2' does not pass through the center of the The three-dimensional information assigning means 47a is a second element image group 32 corresponding to the intersection of a line passing through the center of the second virtual opening L2 ′ and the second element image plane 12Ca parallel to the virtual ray. the third pixel, assigning a brightness value of the pixels of the first element image group 31 3.

図12に戻って説明を続ける。立体情報補間手段47bは、立体情報割当手段47aによって輝度値の割り当てられていない第2要素画像群32の画素の輝度値を、当該画素の近傍の画素の輝度値に基づいて補間して算出するものである。 Returning to FIG. 12, the description will be continued. Stereo information interpolating unit 47b is calculated brightness value of the pixels of the stereoscopic information allocation means 47a second element image group 32 3 unassigned luminance values by interpolating, based on the luminance value of the pixels near the pixel To do.

ここで、図15を参照して、立体情報補間手段47bが近傍の画素の輝度値に基づいて、第2要素画像群32の画素の輝度値を補間して算出する方法について説明する。図15は、立体情報割当手段が、第1要素画像群の各々の画素の輝度値を第2要素画像群上の画素に割り当てる方法を説明するための説明図であり、(a)は、仮想的に設定された第1の要素画像面と、第1の仮想的な開口群と、第2の仮想的な開口群と、第2の要素画像面と、第2要素画像群に仮想的に含まれる像とを模式的に示す模式図、(b)は、(a)におけるAに示した部分を拡大して示した、第2要素画像群に仮想的に含まれる像と、当該像の画素の情報から補間して求められる画素とを模式的に示す模式図である。 Referring now to FIG. 15, based on the luminance value of the stereoscopic information interpolating unit 47b is in the vicinity of the pixel, a method for calculating by interpolation luminance values of the pixels of the second element image group 32 3. FIG. 15 is an explanatory diagram for explaining a method by which the three-dimensional information allocating unit allocates the luminance value of each pixel of the first element image group to the pixel on the second element image group. Virtually set to the first element image plane, the first virtual aperture group, the second virtual aperture group, the second element image plane, and the second element image group. The schematic diagram schematically showing the included image, (b) is an enlarged view of the portion indicated by A in (a), the image virtually included in the second element image group, and the image of the image It is a schematic diagram which shows typically the pixel calculated | required by interpolating from the information of a pixel.

図15(a)に示すように、第1要素画像群31には、異なる被写体(図示せず)の像Ia、Ibが含まれているとする。そして、立体情報割当手段47aによって、第1要素画像群31の像Iaの画素に対応する第2要素画像群32の画素と、第1要素画像群31の像Ibの画素に対応する第2要素画像群32の画素とに、各々対応する第1要素画像群31の画素の輝度値が割り当てられていることとする。また、図15(b)に示すように、この像Ia、Ib(図15(a)参照)の画素Pa、Pbの間の画素Pcには、立体情報割当手段47aによって輝度値が割り当てられていないこととする。 As shown in FIG. 15 (a), the first element image group 31 3, and contains the image Ia, Ib of different subjects (not shown). Then, the three-dimensional information assigning means 47a, corresponding to the pixels of the second pixel element image group 32 3, the image Ib of the first element image group 31 3 corresponding to the pixels of the image Ia of the first element image group 31 3 to a pixel of the second element image group 32 3, and that each luminance value of the pixels of the corresponding first element image group 31 3 is assigned. Further, as shown in FIG. 15B, a luminance value is assigned to the pixel Pc between the pixels Pa and Pb of the images Ia and Ib (see FIG. 15A) by the three-dimensional information assigning unit 47a. Suppose there is nothing.

そうすると、立体情報補間手段47bは、画素Pcの上下の画素Pa、Pbの輝度値に基づいて、画素Pcの輝度値mを、以下の式(20)によって算出する。ここで、m、mは、画素Pa、Pbの輝度値であり、a、bは、画素Pcからの画素Pa、Pbまでの距離である。 Then, the three-dimensional information interpolating unit 47b, based on the luminance values of the pixels Pa, Pb of the upper and lower pixel Pc, and the luminance value m c of the pixel Pc, calculated by the following equation (20). Here, m a, m b is the pixel Pa, a luminance value of Pb, a, b is the distance to the pixel Pa, Pb of the pixel Pc.

Figure 0004875680
Figure 0004875680

なお、ここでは、立体情報補間手段47bが、画素Pcの上下の画素Pa、Pbの輝度値に基づいて、式(20)に示す一次元の補間式を用いて補間する場合について説明したが、補間対象となる画素Pcの上下左右や斜めにある画素(図示せず)の輝度値に基づいて補間することとしてもよい。このとき、立体情報補間手段47bは、例えば、井上誠喜他、「C言語で学ぶ実践画像処理」、オーム社、1999、p.149に記載されるような、二次元に拡張した補間式を用いて補間することができる。   Here, although the case where the three-dimensional information interpolation unit 47b interpolates using the one-dimensional interpolation equation shown in Equation (20) based on the luminance values of the pixels Pa and Pb above and below the pixel Pc has been described, Interpolation may be performed based on the luminance value of a pixel (not shown) that is vertically or horizontally or diagonally with respect to the pixel Pc to be interpolated. At this time, the three-dimensional information interpolating means 47b is, for example, Seiko Inoue et al., “Practical image processing learned in C language”, Ohmsha, 1999, p. 149 can be interpolated using a two-dimensionally expanded interpolation formula.

また、立体情報補間手段47bが、城戸健一、「ディジタル信号処理入門」、丸善、1985、p.31−35に記載されるような、離散的なデータ列から連続的なデータ関数を生成する標本化関数を用いて、画素ごとの離散的な輝度値の情報を連続的な情報として、補間対象となる画素Pcの輝度値を求めることとしてもよい。   Further, the three-dimensional information interpolation means 47b is described in Kenichi Kido, “Introduction to Digital Signal Processing”, Maruzen, 1985, p. A sampling function that generates a continuous data function from a discrete data string as described in 31-35, and information on discrete luminance values for each pixel is used as continuous information. It is also possible to obtain the luminance value of the pixel Pc.

このようにして生成された第2要素画像群32は、立体画像奥行き制御手段4Cによって、統合三次元情報記憶手段5に出力される。また、立体画像奥行き制御手段4Cは、統合三次元情報記憶手段5において画素値が割り当てられた画素の位置が画素値割り当て済み位置記憶手段6に出力する。このようにして、全ての処理対象要素画像群についての処理が終了するまで、同様の処理を繰り返す。なお、二番目以降に処理対象となる処理対象要素画像群については、立体画像奥行き制御手段4Cは、画素値割り当て済み位置記憶手段6を参照し、現在処理を行っている処理対象要素画像群に、統合三次元情報記憶手段5においてすでに画素値が割り当てられている位置に対応する画素がある場合には、立体情報割当手段47aおよび立体情報補間手段47bで、当該画素を除いて演算を行う。 Such second element image group 32 3 generated by the, by the stereoscopic image depth control means 4C, is output to the integrated three-dimensional information storage unit 5. In addition, the stereoscopic image depth control unit 4C outputs the position of the pixel to which the pixel value is assigned in the integrated three-dimensional information storage unit 5 to the pixel value assigned position storage unit 6. In this way, the same processing is repeated until the processing for all the processing target element image groups is completed. Note that the 3D image depth control unit 4C refers to the pixel value assigned position storage unit 6 for the second and subsequent processing target element image groups, and sets the processing target element image group currently being processed. When there is a pixel corresponding to a position to which a pixel value has already been assigned in the integrated 3D information storage means 5, the 3D information assigning means 47a and the 3D information interpolation means 47b perform the calculation excluding the pixel.

そして、全ての処理対象要素画像群についての処理を終了後、立体画像奥行き制御手段4Cは、処理の終了を知らせる制御信号を画素値割り当て手段7に出力する。なお、画素値割り当て手段7を設けない場合には、当該信号を出力しない。   Then, after finishing the processing for all the processing target element image groups, the stereoscopic image depth control means 4C outputs a control signal notifying the end of the processing to the pixel value assignment means 7. If the pixel value assigning means 7 is not provided, the signal is not output.

以上説明したような立体画像奥行き制御手段4Cによれば、第2の仮想的な開口群12Cbの、第1要素画像群および第1の仮想的な開口群11Cbに対する位置に応じて、再生時の立体像の奥行き方向の距離が定まるので、第2の仮想的な開口群12Cbの位置を調整することで、立体像を所望の奥行き方向の位置に表示させることができる第2要素画像群を生成することができる。   According to the stereoscopic image depth control means 4C as described above, according to the position of the second virtual opening group 12Cb with respect to the first element image group and the first virtual opening group 11Cb, Since the distance in the depth direction of the stereoscopic image is determined, a second element image group that can display the stereoscopic image at a desired position in the depth direction is generated by adjusting the position of the second virtual aperture group 12Cb. can do.

なお、立体画像奥行き制御手段4Cは、演算回路によって実現することも可能であるし、中央演算処理装置(CPU:Central Processing Unit)、主記憶装置(RAM:Random Access Memory)等を備えた一般的なコンピュータを、前記した各手段として機能させるプログラムとして実現することも可能である。   The stereoscopic image depth control means 4C can be realized by an arithmetic circuit, and is generally provided with a central processing unit (CPU), a main storage device (RAM), and the like. It is also possible to realize a simple computer as a program that functions as each of the above-described means.

以上説明したように、三次元情報統合装置1によれば、複数の三次元情報を統合した一つの三次元情報(統合三次元情報)を生成することができる。また、複数の三次元情報についてそれぞれ操作者の任意の大きさの比率および奥行きに制御した状態で統合することができる。   As described above, according to the three-dimensional information integration device 1, one three-dimensional information (integrated three-dimensional information) obtained by integrating a plurality of three-dimensional information can be generated. Further, it is possible to integrate a plurality of pieces of three-dimensional information in a state of being controlled to an arbitrary ratio and depth of the operator.

さらに、三次元情報統合装置1によれば、統合三次元情報記憶手段5の画素に複数の画素値が割り当てられない、すなわち、複数の被写体が互いに重なり合う部分には、最も手前に配置される被写体に対応する処理対象要素画像群のみ割り当てるため、統合三次元情報を立体画像として表示させたときに、複数の被写体が互いに重なり合う部分にいわゆるファントム現象が発生することを防止できる。   Furthermore, according to the three-dimensional information integration device 1, a plurality of pixel values are not assigned to the pixels of the integrated three-dimensional information storage means 5, that is, a subject that is disposed in the forefront in a portion where a plurality of subjects overlap each other. Therefore, when the integrated 3D information is displayed as a stereoscopic image, a so-called phantom phenomenon can be prevented from occurring in a portion where a plurality of subjects overlap each other.

加えて、三次元情報統合装置1によれば、処理対象要素画像群のうち、統合三次元情報記憶手段5においてすでに画素値が割り当てられている位置に割り当てられる画素を除いて処理済要素画像群を生成するため、演算量を削減することができ、処理速度を向上させることができる。   In addition, according to the three-dimensional information integration device 1, the processed element image group except for the pixels assigned to the position to which the pixel value has already been assigned in the integrated three-dimensional information storage unit 5 in the processing target element image group. Therefore, the calculation amount can be reduced and the processing speed can be improved.

なお、前記した実施形態では、異なる三次元空間の被写体同士を統合する手法について説明したが、同一の三次元空間の被写体同士を統合する場合には、大きさの比率および奥行きの制御を行わなくても良い。   In the above-described embodiment, the method of integrating subjects in different three-dimensional spaces has been described. However, when subjects in the same three-dimensional space are integrated, size ratio and depth control are not performed. May be.

以上説明した三次元情報統合装置1は、前記した各手段を演算回路によって実現することも可能であるし、中央処理装置(CPU:Central Processing Unit)、主記憶装置(RAM:Random Access Memory)等を備えた一般的なコンピュータを、前記した各手段として機能させるプログラム(三次元情報統合プログラム)により動作させることで実現することも可能である。以上説明したように、本発明は、再生像の大きさの比率および奥行きの制御処理を光学系ではなく演算により行うことで、装置を小型化することができる効果を奏することになる。   The three-dimensional information integration device 1 described above can realize each of the above-described units by an arithmetic circuit, a central processing unit (CPU), a main storage device (RAM), and the like. It is also possible to realize a general computer provided with the above by operating it with a program (three-dimensional information integration program) that functions as each means described above. As described above, the present invention has an effect that the apparatus can be miniaturized by performing the control processing of the ratio of the size of the reproduced image and the depth not by the optical system but by calculation.

本発明の概略を説明するための図であり、複数の三次元情報(要素画像群)を統合して一つの三次元情報(要素画像群)を生成する様子を説明するための説明図である。It is a figure for demonstrating the outline of this invention, and is explanatory drawing for demonstrating a mode that several 3D information (element image group) is integrated and one 3D information (element image group) is produced | generated. . 本実施形態に係る三次元情報統合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional information integration apparatus which concerns on this embodiment. 本実施形態に係る三次元情報統合装置における立体画像奥行き制御手段の構成を示すブロック構成図である。It is a block block diagram which shows the structure of the stereo image depth control means in the three-dimensional information integration apparatus which concerns on this embodiment. 本実施形態に係る三次元情報統合装置の立体画像奥行き制御手段によって、演算により立体画像の奥行きを制御する方法を説明するための模式図である。It is a schematic diagram for demonstrating the method of controlling the depth of a stereo image by a calculation by the stereo image depth control means of the three-dimensional information integration apparatus which concerns on this embodiment. 本実施形態に係る三次元情報統合装置の要素画像分離手段の動作を説明するための概念図である。It is a conceptual diagram for demonstrating operation | movement of the element image separation means of the three-dimensional information integration apparatus which concerns on this embodiment. 画素記憶手段に記憶した処理対象要素画像群の処理順序が決定される様子を説明するための概念図である。It is a conceptual diagram for demonstrating a mode that the process order of the process target element image group memorize | stored in the pixel memory | storage means is determined. (a)〜(e)は、本実施形態に係る三次元情報統合装置の立体画像奥行き制御手段によって、統合三次元情報記憶手段に画素値が割り当てられる様子、(f)〜(h)は、画素値割り当て済み位置記憶手段に、統合三次元情報記憶手段に画素値が割り当てられた位置の情報が割り当てられる様子を説明するための概念図である。(A) to (e) are states in which pixel values are assigned to the integrated 3D information storage unit by the stereoscopic image depth control unit of the 3D information integration apparatus according to the present embodiment, and (f) to (h) are: It is a conceptual diagram for demonstrating a mode that the information of the position where the pixel value was allocated to the integrated three-dimensional information storage means is assigned to the pixel value assigned position storage means. 本実施形態に係る三次元情報統合装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the three-dimensional information integration apparatus which concerns on this embodiment. 本発明の三次元情報統合装置に適用される立体画像奥行き制御手段の他の構成例を示すブロック構成図である。It is a block block diagram which shows the other structural example of the stereo image depth control means applied to the three-dimensional information integration apparatus of this invention. 立体画像奥行き制御手段の演算処理で想定する仮想的な開口群の一例を模式的に示す説明図である。It is explanatory drawing which shows typically an example of the virtual opening group assumed by the arithmetic processing of a stereo image depth control means. 立体画像奥行き制御手段の演算処理で用いる積分範囲の例を模式的に示す説明図である。It is explanatory drawing which shows typically the example of the integration range used by the arithmetic processing of a stereo image depth control means. 本発明の三次元情報統合装置に適用される立体画像奥行き制御手段の他の構成例を示すブロック構成図である。It is a block block diagram which shows the other structural example of the stereo image depth control means applied to the three-dimensional information integration apparatus of this invention. 奥行き変換手段の第1要素画像群の変換方法を説明するための説明図である。It is explanatory drawing for demonstrating the conversion method of the 1st element image group of a depth conversion means. 立体情報割当手段が、第1要素画像群の各々の画素の輝度値を第2要素画像群上の画素に割り当てる方法を説明するための説明図である。It is explanatory drawing for demonstrating the method in which a three-dimensional information allocation means allocates the luminance value of each pixel of a 1st element image group to the pixel on a 2nd element image group. 立体情報割当手段が、第1要素画像群の各々の画素の輝度値を第2要素画像群上の画素に割り当てる方法を説明するための説明図であり、(a)は、仮想的に設定された第1の要素画像面と、第1の仮想的な開口群と、第2の仮想的な開口群と、第2の要素画像面と、処理済要素画像群に仮想的に含まれる像とを模式的に示す模式図、(b)は、(a)におけるAに示した部分を拡大して示した、第2要素画像群に仮想的に含まれる像と、当該像の画素の情報から補間して求められる画素とを模式的に示す模式図である。It is explanatory drawing for demonstrating the method for a three-dimensional information allocation means to allocate the luminance value of each pixel of a 1st element image group to the pixel on a 2nd element image group, (a) is set virtually. A first element image plane, a first virtual aperture group, a second virtual aperture group, a second element image plane, and an image virtually included in the processed element image group (B) is an enlarged view of the portion indicated by A in (a), and an image virtually included in the second element image group, and pixel information of the image. It is a schematic diagram which shows typically the pixel calculated | required by interpolation. 従来のIP方式による立体画像の撮影および再生を模式的に示す説明図であり、(a)は、立体画像撮影装置、(b)は、立体画像表示装置をそれぞれ示している。It is explanatory drawing which shows typically imaging | photography and reproduction | regeneration of the stereo image by the conventional IP system, (a) has shown the stereo image imaging device, (b) has each shown the stereo image display apparatus. 従来の逆視を回避する方法を模式的に示す説明図であり、(a)は、撮影で取得された情報を交換する立体画像奥行き制御手段、(b)は、変換された像を表示する立体画像表示装置をそれぞれ示している。It is explanatory drawing which shows typically the method of avoiding the conventional reverse vision, (a) is the stereo image depth control means which exchanges the information acquired by imaging | photography, (b) displays the converted image. A stereoscopic image display device is shown.

符号の説明Explanation of symbols

1 三次元情報統合装置
2 要素画像分離手段
3 画素記憶手段
4 立体画像奥行き制御手段
41 分配手段
42 要素画像変換手段
43 奥行き変換手段
44 要素画像再生手段
45 加算手段
5 統合三次元情報記憶手段
6 画素値割り当て済み位置記憶手段
7 未処理画素割り当て手段
8 出力手段
DESCRIPTION OF SYMBOLS 1 3D information integration apparatus 2 Element image separation means 3 Pixel storage means 4 Stereo image depth control means 41 Distribution means 42 Element image conversion means 43 Depth conversion means 44 Element image reproduction means 45 Addition means 5 Integrated 3D information storage means 6 Pixel Value assigned position storage means 7 Unprocessed pixel assignment means 8 Output means

Claims (4)

インテグラルフォトグラフィ方式により、複数の要素画像からなる要素画像群である三次元情報を複数取得し、取得した複数の三次元情報のそれぞれについて大きさの比率および奥行き制御を行い、これらを統合して一つの三次元情報を生成するための三次元情報統合装置であって、
外部から入力された操作信号に基づいて、複数の要素画像群についてそれぞれ、個々の要素画像から、所望の奥行き範囲に存在する被写体領域に対応する画素とそれ以外の領域に対応する画素を分離する要素画像分離手段と、
前記要素画像分離手段により分離された前記所望の奥行き範囲に存在する被写体領域に対応する画素で構成される処理対象要素画像群をそれぞれ記憶する画素記憶手段と、
外部から入力された操作信号により前記画素記憶手段に記憶された複数の処理対象要素画像群のそれぞれに対応付けられた被写体のそれぞれについて指定された統合後の三次元情報における奥行き位置を示す値により特定される、統合後の三次元情報において最も手前に配置される被写体に対応付けられた処理対象要素画像群から順に前記画素記憶手段から読み出し、当該読み出した処理対象要素画像群について、被写体の大きさに対する再生像の大きさの比率が予め設定された任意の値となるように制御する処理、および、前記奥行き位置を示す値に従って奥行き制御する処理を行って処理済要素画像群を生成する立体画像奥行き制御手段と、
前記立体画像奥行き制御手段により生成された前記処理済要素画像群を記憶する統合三次元情報記憶手段と、
前記統合三次元情報記憶手段に前記処理済要素画像群が割り当てられた位置を記憶する画素値割り当て済み位置記憶手段と、
前記統合三次元情報記憶手段に記憶された統合三次元情報を外部へ出力する出力手段と、を備え、
前記立体画像奥行き制御手段は、
二番目以降に統合の処理対象となる処理対象要素画像群については、前記画素値割り当て済み位置記憶手段を参照し、当該処理対象要素画像群が割り当てられるべき領域のうち、前記統合三次元情報記憶手段においてまだ画素値が割り当てられていない画素のみ、大きさの比率および奥行きを制御した画素値を前記統合三次元情報記憶手段の画素に割り当てることを特徴とする三次元情報統合装置。
Integral photography system acquires multiple 3D information that is an element image group consisting of multiple element images, performs size ratio and depth control for each of the acquired 3D information, and integrates them. A three-dimensional information integration device for generating one piece of three-dimensional information,
Based on an operation signal input from the outside, for each of a plurality of element image groups, a pixel corresponding to a subject area existing in a desired depth range and a pixel corresponding to another area are separated from each element image. Element image separation means;
Pixel storage means for storing each processing target element image group composed of pixels corresponding to a subject area existing in the desired depth range separated by the element image separation means;
By a value indicating the depth position in the integrated three-dimensional information specified for each of the subjects associated with each of the plurality of processing target element image groups stored in the pixel storage unit by the operation signal input from the outside Read from the pixel storage unit in order from the processing target element image group associated with the subject that is specified in the three-dimensional information after integration , and the size of the subject for the read processing target element image group. A processed element image group is generated by performing processing for controlling the ratio of the size of the reproduced image to the height to an arbitrary value set in advance and processing for controlling the depth according to the value indicating the depth position. Stereoscopic image depth control means;
An integrated three-dimensional information storage means for storing the processed element images generated by the stereoscopic image depth control means,
Pixel value assigned position storage means for storing the position where the processed element image group is assigned to the integrated three-dimensional information storage means;
Output means for outputting the integrated three-dimensional information stored in the integrated three-dimensional information storage means to the outside,
The stereoscopic image depth control means includes:
For the processing target element image group to be integrated after the second, refer to the pixel value assigned position storage means, and the integrated three-dimensional information storage among the areas to which the processing target element image group should be assigned. A three-dimensional information integration apparatus, wherein only a pixel to which no pixel value has been assigned yet is assigned to a pixel of the integrated three-dimensional information storage means, with a pixel value whose size ratio and depth are controlled.
前記立体画像奥行き制御手段は、The stereoscopic image depth control means includes:
前記処理対象要素画像群の光波を要素画像毎に分配する分配手段と、Distributing means for distributing the light wave of the processing target element image group for each element image;
この分配手段で分配された要素画像の光波を、第1の仮想的な開口群を通過して前記第1の仮想的な開口群と開口のピッチの異なる第2の仮想的な開口群へ伝搬する光波に変換する第1要素画像変換手段と、The light wave of the element image distributed by this distribution means passes through the first virtual aperture group and propagates to the second virtual aperture group having a pitch different from that of the first virtual aperture group. First element image conversion means for converting into a light wave to
この第1要素画像変換手段で変換されたそれぞれの要素画像の光波を前記分配された数だけ、前記第2の仮想的な開口群の入射面で加算する加算手段と、Adding means for adding the light waves of the respective element images converted by the first element image conversion means by the distributed number at the entrance surface of the second virtual aperture group;
この加算手段で加算された光波を、前記要素画像毎に再分配する再分配手段と、Redistribution means for redistributing the light waves added by the addition means for each element image;
この再分配手段で分配された要素画像の光波を、前記第2の仮想的な開口群を通過して結像するまでの距離だけ伝搬した光波に変換する第2要素画像変換手段と、A second element image conversion means for converting the light wave of the element image distributed by the redistribution means into a light wave propagated by a distance until it passes through the second virtual aperture group and forms an image;
この第2要素画像変換手段で変換された光波を、前記再分配された数だけ結合することで、前記処理済要素画像群を生成する結合手段と、を備え、A combining unit that generates the processed element image group by combining the light waves converted by the second element image converting unit by the redistributed number;
前記処理対象要素画像群について大きさの比率を制御する処理を、予め任意の値に設定された前記第1の仮想的な開口群と前記第2の仮想的な開口群とのピッチの比Φに応じて行うことを特徴とする請求項1に記載の三次元情報統合装置。The ratio Φ of the pitch between the first virtual aperture group and the second virtual aperture group, which is set to an arbitrary value in advance, is a process for controlling the ratio of the sizes of the processing target element image group. The three-dimensional information integration apparatus according to claim 1, wherein the three-dimensional information integration apparatus is performed according to
前記立体画像奥行き制御手段での全ての前記処理対象要素画像群についての大きさの比率および奥行き制御処理の終了後、外部から入力された操作信号に基づき、前記統合三次元情報記憶手段においてまだ画素値が割り当てられていない画素に画素値を割り当てる画素値割り当て手段をさらに備えた
ことを特徴とする請求項1または請求項2に記載の三次元情報統合装置。
After completion of the ratio of the sizes of all the processing target element image groups in the stereoscopic image depth control means and the depth control processing, pixels are still stored in the integrated 3D information storage means based on the operation signal input from the outside. The three-dimensional information integration device according to claim 1 or 2 , further comprising pixel value assignment means for assigning a pixel value to a pixel to which no value is assigned.
インテグラルフォトグラフィ方式により、複数の要素画像からなる要素画像群である三次元情報を複数取得し、取得した複数の三次元情報のそれぞれについて大きさの比率および奥行き制御を行い、これらを統合して一つの三次元情報を生成するために、コンピュータを、
外部から入力された操作信号に基づいて、複数の要素画像群についてそれぞれ、個々の要素画像から、所望の奥行き範囲に存在する被写体領域に対応する画素とそれ以外の領域に対応する画素を分離し、前記所望の奥行き範囲に存在する被写体領域に対応する画素で構成される処理対象要素画像群を画素記憶手段に記憶させる要素画像分離手段、
外部から入力された操作信号により前記画素記憶手段に記憶された複数の処理対象要素画像群のそれぞれに対応付けられた被写体のそれぞれについて指定された統合後の三次元情報における任意の奥行き位置を示す値により特定される、統合後の三次元情報において最も手前に配置される被写体に対応付けられた処理対象要素画像群から順に前記画素記憶手段から読み出し、当該読み出した処理対象要素画像群について、被写体の大きさに対する再生像の大きさの比率が予め設定された任意の値となるように制御する処理、および、前記奥行き位置を示す値に従って奥行き制御する処理を行って生成した処理済要素画像群統合三次元情報記憶手段に記憶させるとともに、前記統合三次元情報記憶手段に前記処理済要素画像群が割り当てられた位置を画素値割り当て済み位置記憶手段に記憶させる立体画像奥行き制御手段、
前記統合三次元情報記憶手段に記憶された統合三次元情報を外部へ出力する出力手段、
として機能させることを特徴とする三次元情報統合プログラム。
Integral photography system acquires multiple 3D information that is an element image group consisting of multiple element images, performs size ratio and depth control for each of the acquired 3D information, and integrates them. Computer to generate a single 3D information
Based on an operation signal input from the outside, for each of a plurality of element image groups, a pixel corresponding to a subject area existing in a desired depth range and a pixel corresponding to another area are separated from each element image. Element image separation means for storing a processing target element image group composed of pixels corresponding to a subject area existing in the desired depth range in a pixel storage means,
Indicates an arbitrary depth position in the integrated three-dimensional information specified for each of the subjects associated with each of the plurality of processing target element image groups stored in the pixel storage unit by an operation signal input from the outside The processing target element image group associated with the subject arranged in the forefront in the integrated three-dimensional information identified by the value is read from the pixel storage unit in order, and the read processing target element image group is subject to the subject. A processed element image generated by performing processing for controlling the ratio of the size of the reproduced image to the size of the image to an arbitrary value set in advance, and processing for controlling the depth according to the value indicating the depth position And storing the processed element image group in the integrated three-dimensional information storage means. Position stereoscopic image depth control means for storing the pixel values assigned position storing means,
Output means for outputting the integrated three-dimensional information stored in the integrated three-dimensional information storage means to the outside;
A three-dimensional information integration program characterized by functioning as
JP2008232664A 2008-09-10 2008-09-10 3D information integration apparatus and 3D information integration program Active JP4875680B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008232664A JP4875680B2 (en) 2008-09-10 2008-09-10 3D information integration apparatus and 3D information integration program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008232664A JP4875680B2 (en) 2008-09-10 2008-09-10 3D information integration apparatus and 3D information integration program

Publications (2)

Publication Number Publication Date
JP2010068251A JP2010068251A (en) 2010-03-25
JP4875680B2 true JP4875680B2 (en) 2012-02-15

Family

ID=42193436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008232664A Active JP4875680B2 (en) 2008-09-10 2008-09-10 3D information integration apparatus and 3D information integration program

Country Status (1)

Country Link
JP (1) JP4875680B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011244218A (en) * 2010-05-18 2011-12-01 Sony Corp Data transmission system
JP2016001326A (en) * 2010-06-16 2016-01-07 株式会社ニコン Image display device
JP5066244B2 (en) * 2010-10-29 2012-11-07 株式会社東芝 Video playback apparatus and video playback method
JP6076082B2 (en) * 2012-12-26 2017-02-08 日本放送協会 Stereoscopic image correction apparatus and program thereof
JP6076083B2 (en) * 2012-12-26 2017-02-08 日本放送協会 Stereoscopic image correction apparatus and program thereof
JP6300346B2 (en) * 2013-11-28 2018-03-28 日本放送協会 IP stereoscopic image estimation apparatus and program thereof
JP6300359B2 (en) * 2014-05-26 2018-03-28 日本放送協会 Stereoscopic image depth correction apparatus and program thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002051358A (en) * 2000-08-03 2002-02-15 Nippon Hoso Kyokai <Nhk> Image pickup device and depth-detecting device
JP4184690B2 (en) * 2002-03-28 2008-11-19 株式会社東芝 Image forming method, image forming program, and image forming apparatus
JP2003304562A (en) * 2002-04-10 2003-10-24 Victor Co Of Japan Ltd Object encoding method, object encoder, and program for object encoding
JP2005101797A (en) * 2003-09-24 2005-04-14 Victor Co Of Japan Ltd Stereoscopic display system
JP4676862B2 (en) * 2005-10-20 2011-04-27 日本放送協会 Stereoscopic image re-photographing device

Also Published As

Publication number Publication date
JP2010068251A (en) 2010-03-25

Similar Documents

Publication Publication Date Title
JP4875680B2 (en) 3D information integration apparatus and 3D information integration program
KR101953686B1 (en) Image processing apparatus and method for rendering subpixel
KR100730406B1 (en) Three-dimensional display apparatus using intermediate elemental images
JP5751986B2 (en) Image generation device
KR102240568B1 (en) Method and apparatus for processing image
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
CN102124749B (en) Stereoscopic image display apparatus
JP5663857B2 (en) Image display device and image display method
JP2013005259A (en) Image processing apparatus, image processing method, and program
CN103460684A (en) Image processing apparatus, imaging system, and image processing system
JP6406853B2 (en) Method and apparatus for generating optical field images
JP4676862B2 (en) Stereoscopic image re-photographing device
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
JPH10500498A (en) Spatial effective image generation method
JP5452801B2 (en) Stereoscopic image generating apparatus and program thereof
JP6128748B2 (en) Image processing apparatus and method
JP4829924B2 (en) Stereoscopic image conversion apparatus and program thereof
JP2009168536A (en) Three-dimensional shape measuring device and method, three-dimensional shape regenerating device and method, and program
JP4729011B2 (en) Element image group conversion device, stereoscopic image display device, and element image group conversion program
JP4862004B2 (en) Depth data generation apparatus, depth data generation method, and program thereof
JP6076083B2 (en) Stereoscopic image correction apparatus and program thereof
KR100927234B1 (en) Method, apparatus for creating depth information and computer readable record-medium on which program for executing method thereof
KR101567002B1 (en) Computer graphics based stereo floting integral imaging creation system
JP5744642B2 (en) Image processing apparatus, image processing method, and program.
JP2021002783A (en) Depth map generation device and program thereof, and stereoscopic image generation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4875680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250