JP4875680B2 - 3D information integration apparatus and 3D information integration program - Google Patents
3D information integration apparatus and 3D information integration program Download PDFInfo
- Publication number
- JP4875680B2 JP4875680B2 JP2008232664A JP2008232664A JP4875680B2 JP 4875680 B2 JP4875680 B2 JP 4875680B2 JP 2008232664 A JP2008232664 A JP 2008232664A JP 2008232664 A JP2008232664 A JP 2008232664A JP 4875680 B2 JP4875680 B2 JP 4875680B2
- Authority
- JP
- Japan
- Prior art keywords
- element image
- group
- image
- dimensional information
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010354 integration Effects 0.000 title claims description 67
- 238000003860 storage Methods 0.000 claims description 125
- 238000006243 chemical reaction Methods 0.000 claims description 50
- 238000000034 method Methods 0.000 claims description 34
- 238000000926 separation method Methods 0.000 claims description 17
- 238000009826 distribution Methods 0.000 claims description 12
- 230000000644 propagated effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 28
- 238000004364 calculation method Methods 0.000 description 27
- 230000003287 optical effect Effects 0.000 description 25
- 238000003384 imaging method Methods 0.000 description 24
- 230000010363 phase shift Effects 0.000 description 24
- 239000011295 pitch Substances 0.000 description 24
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000009877 rendering Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Description
本発明は、インテグラルフォトグラフィ(Integral Photography:以下IP)方式により複数の要素画像からなる三次元情報(要素画像群)を複数取得し、取得した複数の三次元情報のそれぞれについて大きさの比率および奥行き制御を行い、これらを統合して一つの三次元情報を生成するための三次元情報統合装置および三次元情報統合プログラムに関する。 The present invention acquires a plurality of three-dimensional information (group of element images) composed of a plurality of element images by an integral photography (hereinafter referred to as IP) method, and a ratio of sizes for each of the acquired plurality of three-dimensional information. The present invention relates to a three-dimensional information integration apparatus and a three-dimensional information integration program for performing depth control and integrating them to generate one piece of three-dimensional information.
一般に、レンズアレイや空間フィルタを通して被写体の三次元情報を取得する手法のうち、微小な光学素子アレイを用いて立体画像を撮像および表示する手法として、IP方式が知られている。 In general, among the methods for acquiring three-dimensional information of a subject through a lens array or a spatial filter, an IP method is known as a method for capturing and displaying a stereoscopic image using a minute optical element array.
ここで、図16(a)および図16(b)を用いてIP方式に基づく通常の立体画像撮影について説明する。図16(a)に示す立体画像撮影装置は、矢印で示す撮影方向114から、例えば、凸レンズで構成されたレンズ群112を通して被写体111を撮影する。ここで撮影方向114は、立体画像撮影装置がレンズ群112の前方(図16(a)では左方)に配置された被写体111を撮影する方向である。このときレンズ群112の後方(図16(a)では右方)の撮影板113には、レンズ群112を構成する凸レンズの個数と同じ個数だけ被写体111の像、例えば、像115が結像する。ここで、撮影板113は、基板上に配設された複数の撮像素子を備えて構成された情報取得デバイスである。各撮像素子は、例えば、CCD(Charge Coupled Device)撮像素子である。
Here, normal stereoscopic image shooting based on the IP method will be described with reference to FIGS. 16 (a) and 16 (b). The stereoscopic image capturing apparatus illustrated in FIG. 16A captures an object 111 from a capturing
図16(b)は、一平面状に凸レンズを配列したレンズ群122と表示素子123により構成される立体画像表示装置、および立体像121、観察方向124、レンズ群の像125を示す図である。ここで、表示素子123には、図16(a)に示した立体画像撮影装置の撮影板113により撮影された像115に対応する像125を表示する。この表示素子123は、例えば液晶パネル等の情報表示デバイスから構成されている。立体画像表示装置から表示させた結果、図16(b)に示すように、被写体111が存在した場所と同じ場所に立体像121が生成される。ただし、立体像121は逆視像として生成される。すなわち、図16(a)に示すように、撮影方向114から見た場合には、被写体111の円柱が角柱に対して手前に存在している。ところが、図16(b)に示すように、被写体111に対応する立体像121では、観察方向124から見て、角柱が円柱の手前に生成されている。
FIG. 16B is a diagram showing a stereoscopic image display device including a
なお、図16(a)、図16(b)には微小な光学素子アレイとしてレンズ群を表示し、このレンズ群を用いて被写体の立体情報の取得および表示を行うものとして動作を説明したが、微小な光学素子アレイとしては微小開口アレイ(空間フィルタ)を使用しても良い。 In FIGS. 16A and 16B, the lens group is displayed as a minute optical element array, and the operation is described on the assumption that the three-dimensional information of the subject is acquired and displayed using this lens group. As a minute optical element array, a minute aperture array (spatial filter) may be used.
図16(a)において、被写体111の角柱の大きさ(高さ)をxc、レンズ群112から被写体111の角柱までの距離をzc、レンズ群112から像115が撮影される面までの距離をdc、レンズ群112を構成する凸レンズピッチをpc、レンズ群112を構成する凸レンズにより生成される被写体の像の大きさ(高さ)をkcとする。また、図16(b)において、立体像121の角柱の大きさ(高さ)をxr、レンズ群122から立体像121の角柱までの距離をzr、レンズ群122から像125が表示される面までの距離をdr、レンズ群122を構成する凸レンズピッチをpr、表示素子123に表示される個々の像の大きさ(高さ)をkrとする。この場合、xcとxrの関係は、非特許文献1により式(101)で表される。
In FIG. 16A, the size (height) of the prism of the subject 111 is xc, the distance from the
前記した式(102)の関係から、図16(a)に示した立体画像撮影装置のレンズ群112を構成する凸レンズのピッチpcと、図16(b)に示した立体画像表示装置のレンズ群122を構成する凸レンズのピッチprとを異なるものとすることで、被写体111に対する立体像121の大きさの比率xr/xcを制御できることが導かれる。また、同様に、撮影された被写体の像115の大きさkcと、表示する像125の大きさkrとを変化させることで、被写体111に対する立体像121の大きさの比率xr/xcを制御できることが導かれる。
From the relationship of the above-described formula (102), the pitch pc of the convex lenses constituting the
また、従来、被写体と比較して奥行きが反転した逆視像が生成される問題を解決するために、図16(a)に示した立体画像撮影装置で取得した情報を演算処理し、演算処理した後の情報を図16(b)に示す立体画像表示装置に入力し、最終的に正しい奥行きの立体像を生成する立体画像奥行き変換装置が開示されている(特許文献1参照)。 Conventionally, in order to solve the problem of generating a reverse-view image in which the depth is inverted compared to the subject, the information acquired by the stereoscopic image capturing device shown in FIG. A stereoscopic image depth conversion device that inputs the information after the input to the stereoscopic image display device shown in FIG. 16B and finally generates a stereoscopic image with the correct depth is disclosed (see Patent Document 1).
特許文献1で開示されている立体画像奥行き変換装置について図17(a)および図17(b)を参照して説明する。図17(a)は、図16(a)で取得した像131、第1の仮想的なレンズアレイ132、仮想的に生成される立体像133、第2の仮想的なレンズアレイ134、第2の仮想的なレンズアレイ134により生成される像135(仮想的に生成された立体像133の像)を示す図である。ここで、像135は、光学的に生成されるものではなく、立体画像奥行き変換装置の演算処理により生成される。
A stereoscopic image depth conversion device disclosed in
図17(b)は、図17(a)で演算処理により生成された像141(つまり図16(a)における像135)、一平面状に凸レンズを配列したレンズ群142、立体像143、観察方向144を示す図である。図17(b)に示すように、例えば図16(b)の立体画像表示装置の動作の結果、観察方向144から見て、円柱が角柱に対して手前に観察されることとなる。立体像143は、図16(a)における被写体の奥行き関係と等価である。
ところで、近年、より演出効果を高める狙いから、複数の三次元情報を統合し、一つの三次元情報を生成する技術の確立が望まれている。
しかしながら、従来技術では、単一の三次元空間の大きさの比率および奥行き制御処理を行うことができるものの、複数の三次元情報のそれぞれについて大きさの比率および奥行き制御処理を行った後に、これらを統合して、一つの三次元情報を生成することができない。また、複数の三次元情報を統合して、一つの三次元情報を生成する際には、一つの三次元情報を立体像として表示させたときに、複数の三次元情報が奥行き方向に互いに重なり合う部分に、いわゆるファントム現象が発生するのを防止することも重要な問題である。
By the way, in recent years, in order to further enhance the production effect, establishment of a technique for integrating a plurality of three-dimensional information and generating one three-dimensional information is desired.
However, although the conventional technology can perform the size ratio and depth control processing of a single three-dimensional space, after performing the size ratio and depth control processing for each of a plurality of three-dimensional information, It is not possible to generate one three-dimensional information by integrating. In addition, when a plurality of three-dimensional information is integrated to generate one three-dimensional information, when the three-dimensional information is displayed as a stereoscopic image, the plurality of three-dimensional information overlap each other in the depth direction. It is also an important problem to prevent the so-called phantom phenomenon from occurring in the part.
かかる事情に鑑み、本発明は、複数の三次元情報が互いに重なり合う部分にいわゆるファントム現象を発生させることなく、複数の三次元情報のそれぞれについて、大きさの比率および奥行き制御処理を行った後に、これらを統合して、一つの三次元情報を生成することが可能な三次元情報統合装置および三次元情報統合プログラムを提供することを目的とする。 In view of such circumstances, the present invention performs a size ratio and depth control processing for each of a plurality of three-dimensional information without causing a so-called phantom phenomenon in a portion where the plurality of three-dimensional information overlap each other. An object of the present invention is to provide a three-dimensional information integration apparatus and a three-dimensional information integration program capable of integrating these and generating one piece of three-dimensional information.
本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載の三次元情報統合装置は、被写体を立体画像として表示するために、インテグラルフォトグラフィ方式により取得した複数の要素画像からなる三次元情報を複数統合して一つの三次元情報を生成するための三次元情報統合装置であって、要素画像分離手段と、画素記憶手段と、立体画像奥行き制御手段と、統合三次元情報記憶手段と、画素値割り当て済み位置記憶手段と、出力手段と、を備えることを特徴とする。
The present invention was created to achieve the above object, and first, the three-dimensional information integration device according to
かかる構成によれば、三次元情報統合装置は、要素画像分離手段によって、外部から入力された操作信号に基づいて、複数の要素画像群についてそれぞれ、個々の要素画像から、所望の奥行き範囲に存在する被写体領域に対応する画素とそれ以外の領域に対応する画素を分離する。また、三次元情報統合装置は、要素画像分離手段によって、被写体領域に対応する画素からなる処理対象要素画像群をそれぞれ画素記憶手段に出力して記憶させる。 According to such a configuration, the three-dimensional information integration device exists in a desired depth range from each element image for each of a plurality of element image groups based on the operation signal input from the outside by the element image separation unit. A pixel corresponding to the subject area to be processed and a pixel corresponding to the other area are separated. In the three-dimensional information integration device, the element image separation unit outputs and stores the processing target element image group including the pixels corresponding to the subject area to the pixel storage unit.
また、三次元情報統合装置は、立体画像奥行き制御手段によって、画素記憶手段に記憶された複数の処理対象要素画像群のそれぞれに対応付けられた被写体のそれぞれについて指定された統合後の三次元情報における任意の奥行き位置を示す値により特定される、統合後の三次元情報において最も手前に配置される被写体に対応付けられた処理対象要素画像群から順に画素記憶手段から読み出し、当該読み出した処理対象要素画像群について、被写体の大きさに対する再生像の大きさの比率が予め設定された任意の値となるように制御する処理、および、奥行き位置を示す値に従って奥行きを制御する処理を行って処理済要素画像群を生成する。 Further, the three-dimensional information integration apparatus is a three-dimensional information integration unit that is specified by the stereoscopic image depth control unit for each of the subjects associated with each of the plurality of processing target element image groups stored in the pixel storage unit. Are read from the pixel storage means in order from the processing target element image group associated with the subject arranged in the forefront in the integrated three-dimensional information specified by a value indicating an arbitrary depth position in the image, and the read processing target the elements images, processing is controlled to be any value that the size ratio of the reproduced image relative to size of the object is set in advance, and performs a process of controlling the depth according to the value that indicates the depth position processing A completed element image group is generated.
そして、三次元情報統合装置は、統合三次元情報記憶手段によって、立体画像奥行き制御手段により生成された処理済要素画像群を記憶する。そして、三次元情報統合装置は、画素値割り当て済み位置記憶手段によって、立体画像奥行き制御手段から入力された、統合三次元情報記憶手段に画素値が割り当てられた位置を記憶する。 Then, the 3D information integration apparatus stores the processed element image group generated by the stereoscopic image depth control unit by the integrated 3D information storage unit. Then, the three-dimensional information integration apparatus stores the position where the pixel value is assigned to the integrated three-dimensional information storage means, which is input from the stereoscopic image depth control means, by the pixel value assigned position storage means.
ここで、三次元情報統合装置は、二番目以降に統合の処理対象となる処理対象要素画像群については、立体画像奥行き制御手段によって、画素値割り当て済み位置記憶手段を参照し、当該処理対象要素画像群が割り当てられるべき画素のうち、統合三次元情報記憶手段においてまだ情報が割り当てられていない画素のみ、大きさの比率および奥行きを制御した画素値を統合三次元情報記憶手段の画素に割り当てる。 Here, the three-dimensional information integration apparatus refers to the pixel value assigned position storage unit by the stereoscopic image depth control unit for the processing target element image group that is the second and subsequent integration target processing units, and Of the pixels to which the image group is to be assigned, only the pixels to which no information has been assigned yet in the integrated three-dimensional information storage means are assigned pixel values whose size ratio and depth are controlled to the pixels of the integrated three-dimensional information storage means.
これによれば、複数の三次元情報の大きさの比率および奥行きを操作者の任意で制御して統合することができる。さらに、統合三次元情報において最も手前に配置される被写体の要素画像群から順に、大きさの比率および奥行き制御処理を行い、統合三次元情報記憶手段に画素値を割り当てるとともに、奥行き方向に複数の画素値を割り当てないようにしたため、統合三次元情報を立体画像として表示させたときに、複数の被写体が重なり合う部分については、手前に配置される被写体のみが表示されることとなる。これにより、複数の被写体が互いに重なりあう部分に、いわゆるファントム現象が発生することを防止することができる。 According to this, the size ratio and depth of the plurality of three-dimensional information can be arbitrarily controlled by the operator and integrated. Further, in the integrated 3D information, the size ratio and the depth control process are performed in order from the element image group of the subject arranged at the foremost side, the pixel values are assigned to the integrated 3D information storage means, and a plurality of pixels are arranged in the depth direction. Since the pixel value is not assigned, when the integrated 3D information is displayed as a stereoscopic image, only the subject arranged in front is displayed for the portion where a plurality of subjects overlap. Thereby, it is possible to prevent a so-called phantom phenomenon from occurring in a portion where a plurality of subjects overlap each other.
また、三次元情報統合装置は、全ての処理対象要素画像群についての大きさの比率および奥行き制御の終了後、出力手段によって、統合三次元情報記憶手段に記憶された統合三次元情報を外部へ出力する。出力先としては、例えば、表示装置や記憶媒体等が該当する。 Also, the 3D information integration apparatus outputs the integrated 3D information stored in the integrated 3D information storage means to the outside by the output means after the size ratio and depth control for all the processing target element image groups is completed. Output. For example, a display device or a storage medium corresponds to the output destination.
請求項2に記載の三次元情報統合装置は、請求項1に記載の立体画像表示装置において、前記立体画像奥行き制御手段が、前記処理対象要素画像群の光波を要素画像毎に分配する分配手段と、この分配手段で分配された要素画像の光波を、第1の仮想的な開口群を通過して前記第1の仮想的な開口群と開口のピッチの異なる第2の仮想的な開口群へ伝搬する光波に変換する第1要素画像変換手段と、この第1要素画像変換手段で変換されたそれぞれの要素画像の光波を前記分配された数だけ、前記第2の仮想的な開口群の入射面で加算する加算手段と、この加算手段で加算された光波を、前記要素画像毎に再分配する再分配手段と、この再分配手段で分配された要素画像の光波を、前記第2の仮想的な開口群を通過して結像するまでの距離だけ伝搬した光波に変換する第2要素画像変換手段と、この第2要素画像変換手段で変換された光波を、前記再分配された数だけ結合することで、前記処理済要素画像群を生成する結合手段と、を備え、前記処理対象要素画像群について大きさの比率を制御する処理を、予め任意の値に設定された前記第1の仮想的な開口群と前記第2の仮想的な開口群とのピッチの比Φに応じて行うことを特徴とする。
また、請求項2に記載の三次元情報統合装置は、請求項1または請求項2に記載の立体画像表示装置において、立体画像奥行き制御手段での全ての処理対象要素画像群についての大きさの比率および奥行き制御処理の終了後、外部から入力された操作信号に基づき、統合三次元情報記憶手段において、まだ画素値が割り当てられていない画素に画素値を割り当てる画素値割り当て手段をさらに備えることを特徴とする。これにより、統合三次元情報記憶手段の全ての画素に画素値を割り当てることができる。
The three-dimensional information integration device according to claim 2 is the stereoscopic image display device according to
Further, the 3D information integration apparatus according to claim 2 is the stereoscopic image display apparatus according to
また、請求項4に記載の三次元情報統合プログラムは、複数の要素画像からなる三次元情報を複数統合して一つの三次元情報を生成するために、コンピュータを、要素画像分離手段、画素記憶手段、立体画像奥行き制御手段、統合三次元情報記憶手段、画素値割り当て済み位置記憶手段、出力手段、として機能させることを特徴とする。 According to a fourth aspect of the present invention, there is provided a three-dimensional information integration program for integrating a plurality of three-dimensional information composed of a plurality of element images to generate a single piece of three-dimensional information. And a three-dimensional image depth control unit, an integrated three-dimensional information storage unit, a pixel value assigned position storage unit, and an output unit.
本発明は、以下に示す優れた効果を奏するものである。請求項1、2および請求項4に記載の発明によれば、複数の三次元情報を統合した統合三次元情報を生成することができる。また、統合三次元情報記憶手段においてすでに画素値が割り当てられた位置には重複して画素値を割り当てないようにしているため、当該統合三次元情報を立体画像として表示させたときに、複数の被写体が互いに重なり合う部分にいわゆるファントム現象が発生しない統合三次元情報を生成することができる。また、複数の被写体の大きさの比率および奥行きを操作者の任意で制御して統合することができる。このため、様々なバリエーションの立体画像を生成することができ、画像の演出効果を高めることができる。さらに、本発明によれば、複数の三次元情報を統合した統合三次元情報を演算により生成することができるため、装置の構成を簡素化することができる。また、請求項3に記載の発明によれば、請求項1に記載の発明の効果に加え、統合三次元情報記憶手段において統合三次元情報が割り当てられない画素にも、画素値を割り当てることができる。
The present invention has the following excellent effects. According to the invention described in
以下、本実施形態について、適宜図面を参照しながら詳細に説明する。
[概略]
まず、本実施形態に係る三次元情報統合装置の詳細な説明に先立ち、本発明の概略について図1を参照して簡単に説明する。図1は、本発明の概略を説明するための図であり、複数の三次元情報(要素画像群)を統合して一つの三次元情報(要素画像群)を生成する様子を説明するための説明図である。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as appropriate.
[Outline]
First, prior to detailed description of the three-dimensional information integration apparatus according to the present embodiment, an outline of the present invention will be briefly described with reference to FIG. FIG. 1 is a diagram for explaining the outline of the present invention, for explaining how a plurality of three-dimensional information (element image group) is integrated to generate one three-dimensional information (element image group). It is explanatory drawing.
図1に示すように、要素画像群301および要素画像群302は、フィルムに、ピンホールまたは凸レンズの大きさおよび数に応じた縮小された被写体の倒立像(要素画像)を撮影してなるものである。本実施形態の場合、要素画像群301は、円柱と三角錐からなる被写体および背景を撮影したものであり、要素画像群302は、球体と三角錐からなる被写体および背景を撮影したものである。本発明の三次元情報統合装置は、この要素画像群301の一部、例えば被写体領域と、要素画像群302の一部、例えば被写体領域のそれぞれについて、大きさの比率および奥行き制御処理を行った後に統合し、図1の最右図に示すような統合三次元情報を生成するものである。
As shown in FIG. 1,
また、本発明の三次元情報統合装置は、IP方式により被写体を撮影して得られた要素画像群における被写体の大きさおよび奥行きに関わらず、複数の要素画像群のそれぞれの大きさの比率および奥行きを操作者の任意で制御した後に統合することが可能である。 Further, the three-dimensional information integration device of the present invention provides the ratio of the size of each of the plurality of element image groups, regardless of the size and depth of the object in the element image group obtained by photographing the subject by the IP method. It is possible to integrate after the depth is arbitrarily controlled by the operator.
[三次元情報統合装置の構成]
以下、図2を参照して、三次元情報統合装置1の構成について説明する。図2は、本実施形態に係る三次元情報統合装置の構成を示すブロック図である。
図2に示すように、本実施形態に係る三次元情報統合装置1は、要素画像分離手段2と、画素記憶手段3と、立体画像奥行き制御手段4と、統合三次元情報記憶手段5と、画素値割り当て済み位置記憶手段6と、画素値割り当て手段7と、出力手段8と、を備えている。
[Configuration of 3D information integration device]
Hereinafter, the configuration of the three-dimensional
As shown in FIG. 2, the three-dimensional
要素画像分離手段2は、外部から入力された操作信号に基づいて、IP方式で撮影された複数の三次元情報(要素画像群)を受け取り、複数の要素画像群についてそれぞれ、個々の要素画像から、所望の奥行き範囲に存在する被写体領域に対応する画素とそれ以外の領域に対応する画素を分離するものである。 The element image separation means 2 receives a plurality of three-dimensional information (element image groups) photographed by the IP method based on an operation signal input from the outside, and each of the plurality of element image groups is obtained from each element image. The pixel corresponding to the subject area existing in the desired depth range and the pixel corresponding to the other area are separated.
要素画像分離手段2は、例えば、映像信号の色・輝度成分を利用するものや、被写体の奥行き情報を利用するものが該当する。映像信号の色成分を利用する手法としては、クロマキー技術を利用することができる。これは、ある特定の色(キー信号)の背景の前面に被写体を配置して三次元情報を生成し、外部から入力された操作信号に基づいて、個々の要素画像から特定の色を有する映像信号のみをキー信号として分離し、キー信号以外の映像信号のみを抽出するものである。これによれば、所望の奥行き範囲に存在する被写体領域(キー信号以外の映像信号)とそれ以外の領域(キー信号)を分離することができる。 The element image separation means 2 corresponds to, for example, one that uses color / luminance components of a video signal and one that uses depth information of a subject. A chroma key technique can be used as a method of using the color component of the video signal. This is a video having a specific color from individual element images based on an operation signal input from the outside by generating a three-dimensional information by placing a subject in front of a background of a specific color (key signal). Only the signal is separated as the key signal, and only the video signal other than the key signal is extracted. According to this, it is possible to separate the subject area (video signal other than the key signal) existing in the desired depth range and the other area (key signal).
また、被写体の奥行き情報を利用する手法では、個々の要素画像から被写体の奥行き情報を算出し、算出した奥行き情報を用いて、所望の奥行き範囲に存在する被写体領域とそれ以外の領域を分離することができる。
複数の要素画像群のそれぞれについて、操作者により入力手段を介して所望の奥行き範囲が入力されると、要素画像分離手段2が、算出された奥行き情報に基づいて、個々の要素画像から当該奥行き範囲に存在する画素を抽出することにより、所望の奥行き範囲に存在する被写体領域とそれ以外の領域(背景領域)を分離できるようになっている。複数の被写体が重なり合っている場合には、複数の被写体を全て抽出するか、あるいは、一番手前の被写体のみを抽出する。要素画像分離手段2によって分離された所望の奥行き範囲に存在する被写体に対応する画素は、処理対象要素画像群として画素記憶手段3に出力され、記憶される。
Further, in the method using the depth information of the subject, the depth information of the subject is calculated from each element image, and the subject region existing in the desired depth range is separated from the other region using the calculated depth information. be able to.
When a desired depth range is input by the operator via the input unit for each of the plurality of element image groups, the element image separation unit 2 determines the depth from each element image based on the calculated depth information. By extracting the pixels existing in the range, the subject region existing in the desired depth range and the other region (background region) can be separated. If a plurality of subjects are overlapped, all the plurality of subjects are extracted, or only the foremost subject is extracted. Pixels corresponding to a subject existing in a desired depth range separated by the element image separation unit 2 are output to the
ここで、外部から入力された操作信号とは、本実施形態では、入力手段20を介した操作者による三次元情報統合装置1への所定の操作信号の入力をいう。入力手段20とは、例えば、コンピュータのキーボード等が該当し、所定の操作信号の入力とは、例えば、コンピュータのキーボードの操作等が該当する。例えば、被写体の奥行き情報を利用する手法では、コンピュータのキーボードで奥行き範囲の数値を入力することが該当する。
Here, the operation signal input from the outside means an input of a predetermined operation signal to the three-dimensional
画素記憶手段3は、要素画像分離手段2から入力された所望の奥行き範囲に存在する被写体領域に対応する画素で構成される複数の処理対象要素画像群を記憶するものである。この画素記憶手段3は、例えば、ハードディスクや光メモリ、磁気ディスク等であって、画像を記憶するのに十分な容量を有するものが使用される。
The
立体画像奥行き制御手段4は、外部から入力された操作信号により特定された、統合三次元情報において最も手前に配置される被写体に対応付けられた処理対象要素画像群から順に、画素記憶手段3から読み出し、読み出した処理対象要素画像群の大きさの比率および奥行き制御を行うものである。 The three-dimensional image depth control means 4 starts from the pixel storage means 3 in order from the processing target element image group that is specified by the operation signal input from the outside and that is associated with the subject that is arranged in the forefront in the integrated three-dimensional information. The read and the size ratio and depth control of the read processing target element image group are performed.
ここで、外部から入力された操作信号とは、例えば、入力手段20がコンピュータのキーボードの場合、統合三次元情報での被写体の奥行き位置を表す数値などが該当する。
例えば、操作者が、奥行値“0”や奥行値“51”などの任意の数値を入力することにより、統合三次元情報での被写体の奥行き位置が決定される。
Here, the operation signal input from the outside corresponds to, for example, a numerical value representing the depth position of the subject in the integrated three-dimensional information when the
For example, when the operator inputs an arbitrary numerical value such as a depth value “0” or a depth value “51”, the depth position of the subject in the integrated 3D information is determined.
立体画像奥行き制御手段4における被写体に対応する画素の大きさの比率および奥行きの制御処理は、処理対象となる被写体の大きさや奥行きを利用して行うことができる。処理対象となる被写体の大きさや奥行きの情報は、三次元情報が生成されたときの被写体の大きさや奥行きの情報を予め取得し、これを用いても良い。また、特開2002−51358号公報に示すように、要素画像群から算出された被写体の奥行き情報を用いても良い。
The control of the ratio of the size of the pixel corresponding to the subject and the depth in the stereoscopic image
立体画像奥行き制御手段4としては、例えば、特開2007−114483号公報に記載のような立体画像奥行き変換装置を用いることができる。
次に、図3および適宜図4を参照して、本実施形態に係る立体画像奥行き制御手段4の構成について詳細に説明する。図3は、本実施形態に係る立体画像奥行き制御手段の構成を示すブロック構成図、図4は、本実施形態に係る立体画像奥行き制御手段によって、演算により立体画像の奥行きを制御する方法を説明するための模式図である。
As the stereoscopic image depth control means 4, for example, a stereoscopic image depth conversion device as described in JP 2007-114483 A can be used.
Next, the configuration of the stereoscopic image depth control means 4 according to the present embodiment will be described in detail with reference to FIG. 3 and FIG. 4 as appropriate. FIG. 3 is a block diagram illustrating the configuration of the stereoscopic image depth control unit according to the present embodiment, and FIG. 4 illustrates a method for controlling the depth of the stereoscopic image by calculation using the stereoscopic image depth control unit according to the present embodiment. It is a schematic diagram for doing.
なお、立体画像奥行き制御手段4に入力される要素画像群は、立体画像撮影装置(図示せず)において、CCD等によって撮影された映像信号、あるいは、計算機によって生成された、CCDと等価な映像信号である。本実施形態に係る立体画像奥行き制御手段4は、図4に示すような、光学系による立体画像の奥行き制御を演算で行うものである。 The element image group input to the stereoscopic image depth control means 4 is a video signal captured by a CCD or the like in a stereoscopic image capturing device (not shown), or a video equivalent to a CCD generated by a computer. Signal. The stereoscopic image depth control means 4 according to the present embodiment performs the depth control of the stereoscopic image by the optical system as shown in FIG.
図3に示すように、立体画像奥行き制御手段4は、分配手段41と、要素画像分の要素画像変換手段42、奥行き変換手段43および要素画像再生手段44と、加算手段45とを備えている。
As shown in FIG. 3, the stereoscopic image
分配手段41は、入力された要素画像群を要素画像単位に分割するものである。ここで、分配手段41は、入力された要素画像群における第1の要素画像面11aの表示面に表示される処理対象要素画像群のm番目の要素画像の光波(gs,m(xs,m,ys,m))を、m番目の要素画像に予め対応付けられている要素画像変換手段42に出力する。なお、ここで、光波とは、画素値を光の波動として扱った場合の振幅と位相を複素数で表したものである。
The
要素画像変換手段(処理対象要素画像光波変換手段)42は、要素画像の光波を、予め定めた焦点距離となる要素レンズ(仮想のピンホールまたはレンズ)を通した際の光波に変換するものである。ここでは、要素画像変換手段42は、光波計算手段42aと、位相シフト手段42bとを備えている。 Element image conversion means (processing object element image light wave conversion means) 42 converts the light wave of the element image into a light wave when passing through an element lens (virtual pinhole or lens) having a predetermined focal length. is there. Here, the element image conversion means 42 includes a light wave calculation means 42a and a phase shift means 42b.
光波計算手段42aは、要素画像の光波をフレネル近似(Fresnel diffraction)することで、要素レンズ(仮想のピンホールまたはレンズ)に入射する光波を演算するものである。光波計算手段42aから出力された光波は、位相シフト手段42bに出力される。
The light
位相シフト手段42bは、光波計算手段42aから入力された要素画像の光波(Ri,m(xo,m,yo,m))から、位相を仮想の要素レンズに相当する位相分だけシフトさせた光波を演算するものである。
この要素画像ごとの光波(Ro,m(xo,m,yo,m))は、奥行き変換手段43に出力される。
The
The light wave (R o, m (x o, m , y o, m )) for each element image is output to the depth conversion means 43.
奥行き変換手段43は、要素画像変換手段42で変換された光波を、予め定めた焦点距離となる仮想の奥行き制御レンズL(凸レンズ)を通した際の光波に変換するものである。ここでは、奥行き変換手段43は、位相シフト手段43aと、再分配手段43bとを備えている。
位相シフト手段43aは、要素画像変換手段42で変換された光波の位相を仮想の凸レンズに相当する位相分だけシフトさせた光波を演算するものである。
The depth conversion unit 43 converts the light wave converted by the element image conversion unit 42 into a light wave when passing through a virtual depth control lens L (convex lens) having a predetermined focal length. Here, the depth conversion means 43 includes a phase shift means 43a and a redistribution means 43b.
The
再分配手段43bは、位相シフト手段43aから入力された要素画像ごとの光波(Rd,m(xo,m,yo,m))から、第2の仮想的な開口群12bの開口部(要素レンズ)に入射する光波を演算するものである。
この第2の仮想的な開口群12bの開口部ごとの光波(Rp,n,m(xp,n,yp,n))は、要素画像再生手段44に出力される。
The
The light wave (R p, n, m (x p, n , y p, n )) for each opening of the second
要素画像再生手段(処理済要素画像光波変換手段)44は、奥行き変換手段43で変換された光波を、予め定めた焦点距離となる要素レンズ(仮想のピンホールまたはレンズ)を通した際の光波に変換するものである。ここでは、要素画像再生手段44は、位相シフト手段44aと、光波計算手段44bとを備えている。 The element image reproduction means (processed element image light wave conversion means) 44 is a light wave when the light wave converted by the depth conversion means 43 passes through an element lens (virtual pinhole or lens) having a predetermined focal length. It is to convert to. Here, the element image reproduction means 44 includes a phase shift means 44a and a light wave calculation means 44b.
位相シフト手段44aは、奥行き変換手段43で変換された光波(Rp,n,m(xp,n,yp,n))から、位相を仮想の要素レンズに相当する位相分だけシフトさせた光波を演算するものである。 The phase shift means 44a shifts the phase from the light wave (R p, n, m (x p, n , y p, n )) converted by the depth conversion means 43 by the phase corresponding to the virtual element lens. The light wave is calculated.
光波計算手段44bは、要素レンズごとの光波をフレネル近似することで、要素レンズ(仮想のピンホールまたはレンズ)から出射し、第2の要素画像面12aの撮影面に到達する光波を演算するものである。 The light wave calculating means 44b calculates the light wave that is emitted from the element lens (virtual pinhole or lens) and reaches the imaging surface of the second element image surface 12a by approximating the light wave of each element lens by Fresnel approximation. It is.
加算手段45は、要素画像再生手段44から出力された要素画像ごとの光波から、その光波電力の総和を演算することで、奥行き変換処理が施された映像信号、すなわち、第2要素画像群(処理済要素画像群)となる映像信号を生成するものである。また、加算手段45は、光波電力の総和を演算する際に、画素値割り当て済み位置記憶手段6を参照し、統合三次元情報記憶手段5において画素値が割り当てられた位置に対応する画素については、演算を行わない。 The adding means 45 calculates the sum of the light wave power from the light wave for each element image output from the element image reproducing means 44, thereby obtaining a video signal subjected to depth conversion processing, that is, a second element image group ( A video signal to be a processed element image group) is generated. Further, the adding means 45 refers to the pixel value assigned position storage means 6 when calculating the total sum of the lightwave power, and for the pixels corresponding to the positions to which the pixel values are assigned in the integrated three-dimensional information storage means 5. , Do not calculate.
このように構成された立体画像奥行き制御手段4は、演算により、立体画像として表示される再生像の奥行きを変化させた画像(処理済要素画像群)を生成することができる。
また、立体画像奥行き制御手段4は、大きさの比率および奥行き制御処理を行った処理済要素画像群の画素値を統合三次元情報記憶手段5に出力し、記憶させる。
The stereoscopic image depth control means 4 configured as described above can generate an image (processed element image group) in which the depth of a reproduced image displayed as a stereoscopic image is changed by calculation.
Further, the stereoscopic image depth control means 4 outputs the size ratio and the pixel value of the processed element image group subjected to the depth control processing to the integrated three-dimensional information storage means 5 for storage.
さらに、立体画像奥行き制御手段4は、統合三次元情報記憶手段5において画素値が割り当てられた位置の情報を画素値割り当て済み位置記憶手段6に出力し、記憶させる。例えば、立体画像奥行き制御手段4は、統合三次元情報記憶手段5において画素値が割り当てられた画素と対応する画素値割り当て済み位置記憶手段6の画素に“1”を割り当て、統合三次元情報記憶手段5において画素値が割り当てられていない画素と対応する画素値割り当て済み位置記憶手段の画素には“0”を割り当てる。
Further, the stereoscopic image depth control means 4 outputs the information on the position to which the pixel value is assigned in the integrated three-dimensional information storage means 5 to the pixel value assigned position storage means 6 for storage. For example, the stereoscopic image depth control means 4 assigns “1” to the pixel of the pixel value assigned position storage means 6 corresponding to the pixel to which the pixel value is assigned in the integrated three-dimensional information storage means 5, thereby integrating the three-dimensional information storage. "0" is assigned to the pixel in the pixel value assigned position storage means corresponding to the pixel to which no pixel value is assigned in the
図2に戻って、統合三次元情報記憶手段5は、立体画像奥行き制御手段4から入力された、大きさの比率および奥行きが制御された画素を記憶するものである。統合三次元情報記憶手段5は、立体画像奥行き制御手段4から入力された処理済要素画像群を全て記憶可能な容量を有している。 Returning to FIG. 2, the integrated three-dimensional information storage means 5 stores the pixels whose size ratio and depth are controlled, which are input from the stereoscopic image depth control means 4. The integrated 3D information storage means 5 has a capacity capable of storing all processed element image groups input from the stereoscopic image depth control means 4.
画素値割り当て済み位置記憶手段6は、立体画像奥行き制御手段4から入力された、統合三次元情報記憶手段5に画素値が割り当てられた位置を記憶する。画素値割り当て済み位置記憶手段6は、統合三次元情報記憶手段5に画素値が割り当てられた位置を全て記憶可能な容量を有している。 The pixel value assigned position storage means 6 stores the position where the pixel value is assigned to the integrated three-dimensional information storage means 5 input from the stereoscopic image depth control means 4. The pixel value assigned position storage means 6 has a capacity capable of storing all the positions where the pixel values are assigned to the integrated three-dimensional information storage means 5.
画素値割り当て手段7は、全ての処理対象要素画像群についての大きさの比率および奥行き制御処理の終了後、外部から入力された操作信号に基づき、統合三次元情報記憶手段5においてまだ画素値が割り当てられていない画素に画素値を割り当てるものである。出力手段8は、統合三次元情報記憶手段5に記憶された統合三次元情報を外部へ出力するものである。出力先は、例えば、表示装置や記憶媒体等である。なお、画素値割り当て手段7は、設けなくても良い。この場合、統合三次元情報記憶手段5において統合三次元情報が割り当てられない画素については、画素値を割り当てない(映像信号を0とする)。
The pixel value allocating unit 7 determines that the pixel value is not yet stored in the integrated three-dimensional
[三次元情報統合装置の動作]
以下、図5ないし図8および適宜図2ないし図4を参照して、本実施形態に係る三次元情報統合装置1の動作を説明する。具体的には、異なる三次元空間に配置された被写体同士を統合する際の三次元情報統合装置1の動作を説明する。
参照する図5は、本実施形態に係る三次元情報統合装置の要素画像分離手段の動作を説明するための概念図、図6は、画素記憶手段に記憶した処理対象要素画像群の処理順序が決定される様子を説明するための概念図、図7(a)〜(e)は、本実施形態に係る三次元情報統合装置の立体画像奥行き制御手段によって、統合三次元情報記憶手段に画素値が割り当てられる様子、(f)〜(h)は、画素値割り当て済み位置記憶手段に、統合三次元情報記憶手段に画素値が割り当てられた位置の情報が割り当てられる様子を説明するための概念図、図8は、本実施形態に係る三次元情報統合装置の動作を示すフローチャートである。なお、図7(a)および(f)に示すように、統合三次元情報記憶手段5および画素値割り当て済み位置記憶手段6は、初期状態であるものとする。
[Operation of 3D information integration device]
Hereinafter, the operation of the three-dimensional
FIG. 5 to be referred to is a conceptual diagram for explaining the operation of the element image separation unit of the three-dimensional information integration apparatus according to the present embodiment, and FIG. 6 illustrates the processing order of the processing target element image group stored in the pixel storage unit. FIGS. 7A to 7E are conceptual diagrams for explaining a state of being determined. FIG. 7A to FIG. 7E are pixel values stored in the integrated three-dimensional information storage unit by the stereoscopic image depth control unit of the three-dimensional information integration apparatus according to the present embodiment. (F) to (h) are conceptual diagrams for explaining a state in which information on positions where pixel values are assigned to the integrated three-dimensional information storage means is assigned to the pixel value assigned position storage means. FIG. 8 is a flowchart showing the operation of the three-dimensional information integration apparatus according to this embodiment. As shown in FIGS. 7A and 7F, it is assumed that the integrated three-dimensional
図2および図5に示すように、外部から複数の要素画像群30が入力されると、三次元情報統合装置1は、要素画像分離手段2によって、外部から入力された操作信号に基づき、複数の要素画像群30(要素画像群301〜要素画像群30n)についてそれぞれ、個々の要素画像から所望の奥行き範囲に存在する被写体領域とそれ以外の範囲に存在する領域を分離する。
As shown in FIG. 2 and FIG. 5, when a plurality of
例えば、図5に示すように、要素画像群303において、操作信号により指定された奥行き範囲に存在する三角形と、三角形と一部重なり合って奥に配置される四角形からなる被写体領域と、それ以外の範囲に存在する領域(図5で薄いグレーで表された背景領域)を分離する。また、要素画像群30nにおいて、操作信号により指定された奥行き範囲に存在する円形の被写体領域と、それ以外の範囲に存在する領域(三角形の被写体領域および濃いグレーで表された背景領域)を分離する。
そして、要素画像分離手段2は、このようにして複数の要素画像群30からそれぞれ分離された複数の処理対象要素画像群31(処理対象要素画像群311〜処理対象要素画像群31n)を画素記憶手段3に出力し、順次記憶させる(ステップS1)。
For example, as shown in FIG. 5, the
Then, the element image separating unit 2 converts the plurality of processing target element image groups 31 (processing target
図2および図6に示すように、三次元情報統合装置1は、立体画像奥行き制御手段4によって、外部から入力された操作信号により特定された順番に従って、画素記憶手段3に記憶された複数の処理対象要素画像群31を読み出す。ここでいう順番とは、操作者により任意に決定された、統合三次元情報における複数の被写体の奥行き方向の並び順であり、立体画像奥行き制御手段4は、複数の処理対象要素画像群31のうち、統合三次元情報において最も手前に配置される被写体に対応づけられた処理対象要素画像群から順に画素記憶手段3から読み出す(ステップS2)。
As shown in FIGS. 2 and 6, the three-dimensional
例えば、本実施形態では、図6左図に示すように、画素記憶手段3によって、処理対象要素画像群311〜処理対象要素画像群31nが記憶されているところ、立体画像奥行き制御手段4によって、操作信号により指定された順、例えば、本実施形態では図6右図に示すように、処理対象要素画像群313、処理対象要素画像群31n、処理対象要素画像群311・・処理対象要素画像群312の順に読み出す。なお、複数の処理対象要素画像群の処理順序は、全ての処理対象要素画像群について一度に決定しても良いし、一つの処理対象要素画像群についての処理が終了する都度、次に処理を行う処理対象要素画像群を決定するようにしても良い。
For example, in the present embodiment, as illustrated in the left diagram of FIG. 6, the processing target
次に、三次元情報統合装置1は、立体画像奥行き制御手段4によって、画素値割り当て済み位置記憶手段6から、統合三次元情報記憶手段5においてすでに画素値が割り当てられている位置を読み出す(ステップS3)。
Next, the three-dimensional
そして、立体画像奥行き制御手段4は、処理対象要素画像群313の大きさの比率および奥行き制御処理を行い、統合三次元情報記憶手段5に制御後の画素値を割り当てる(ステップS4)。ただし、立体画像奥行き制御手段4は、画素値割り当て済み位置記憶手段6を参照した結果、処理対象要素画像群313の大きさの比率および奥行き制御処理を行った後の画素値が割り当てられるべき画素にすでに他の処理済要素画像群の画素値が割り当てられている場合には、当該割り当て済み画素に対応する位置の画素を除いて、処理済要素画像群323を生成する。
Then, the three-dimensional image depth control means 4 performs the ratio and depth control processing size of the processing target
すなわち、立体画像奥行き制御手段4は、次のように動作する。立体画像奥行き制御手段4は、分配手段41によって、入力された映像信号における第1の要素画像面11aの表示面に表示される処理対象要素画像群313のm番目の要素画像の光波(gs,m(xs,m,ys,m))を、m番目の要素画像に予め対応付けられている要素画像変換手段42に出力する。
That is, the stereoscopic image depth control means 4 operates as follows. Stereoscopic image depth control means 4, by the distribution means 41, light waves of the first element image plane 11a processing is displayed on the display surface target
立体画像奥行き制御手段4は、光波計算手段42aによって、第1の仮想的な開口群11bのm番目の開口部(要素レンズ等)に到達する光波に相当する信号として、一般的なフレネル近似を用いて、以下の式(2)により要素画像ごとの光波(Ri,m(xo,m,yo,m))を演算する。
The stereoscopic image
ここで、xs,m、xo,mは、それぞれ画像全体(処理対象要素画像群)におけるm番目の要素画像の中心のx座標、第1の仮想的な開口群11bのm番目の開口部の光軸中心からのx座標である。また、ys,m、yo,mは、それぞれ画像全体(処理対象要素画像群)におけるm番目の要素画像の中心のy座標、第1の仮想的な開口群11bのm番目の開口部の光軸中心からのy座標である。また、f1は第1の仮想的な開口群11bの開口部(要素レンズ)の焦点距離、kは波数2π/λ(λは波長)である。
この要素画像ごとの光波(Ri,m(xo,m,yo,m))は、位相シフト手段42bに出力される。
Here, x s, m and x o, m are the x coordinate of the center of the m-th element image in the entire image (processing target element image group), and the m-th opening of the first virtual opening group 11b. X coordinate from the center of the optical axis of the part. Y s, m , yo, m are the y-coordinate of the center of the m-th element image in the entire image (processing target element image group), and the m-th opening of the first virtual opening group 11b. Y coordinate from the optical axis center. F 1 is the focal length of the aperture (element lens) of the first virtual aperture group 11b, and k is the wave number 2π / λ (λ is the wavelength).
The light wave (R i, m (x o, m , y o, m )) for each element image is output to the phase shift means 42b.
立体画像奥行き制御手段4は、位相シフト手段42bによって、以下の式(3)に示すように、要素レンズに相当する位相分だけ光波(Ri,m(xo,m,yo,m))をシフトさせることで、要素レンズから出射する光波に相当する信号(光波Ro,m(xo,m,yo,m))を演算する。
The stereoscopic image
この要素画像ごとの光波(Ro,m(xo,m,yo,m))は、奥行き変換手段43に出力される。
立体画像奥行き制御手段4は、奥行き変換手段43の位相シフト手段43aによって、以下の(4)式に示すように、奥行き制御レンズLに相当する位相分だけ光波(Ro,m(xo,m,yo,m))をシフトさせることで、奥行き制御レンズLから出射する光波に相当する信号(光波Rd,m(xo,m,yo,m))を演算する。
The light wave (R o, m (x o, m , y o, m )) for each element image is output to the depth conversion means 43.
The stereoscopic image
ここで、x0,y0は奥行き制御レンズLの光学中心からの距離である。また、第1の仮想的な開口群11bの開口部(要素レンズ)のピッチをPとすると、xo=xo,m+mP、yo=yo,m+mPの関係が成り立つ。
この位相シフト手段43aで演算された要素画像ごとの光波(Rd,m(xo,m,yo,m))は、再分配手段43bに出力される。
Here, x 0 and y 0 are distances from the optical center of the depth control lens L. If the pitch of the apertures (element lenses) of the first virtual aperture group 11b is P, the relationship of x o = x o, m + mP, y o = y o, m + mP is established.
The light wave (R d, m (x o, m , y o, m )) for each element image calculated by the phase shift means 43a is output to the redistribution means 43b.
位相シフト手段43aで演算された光波(Rd,m(xo,m,yo,m))は、m番目の要素レンズに到達するだけではなく、周辺の要素レンズにも到達することになる。そこで、再分配手段43bは、位相シフト手段43aから入力された要素画像ごとの光波(Rd,m(xo,m,yo,m))が、第2の仮想的な開口群12bの開口部(要素レンズ)に分配された結果となるn番目の要素レンズに到達した光波(Rp,n,m(xp,n,yp,n))を、一般的なフレネル近似を用いて、以下の式(5)により演算する。
The light wave (R d, m (x o, m , y o, m )) calculated by the phase shift means 43a not only reaches the mth element lens but also reaches the surrounding element lens. Become. Therefore, the
ここで、xp,n、yp,nは、それぞれn番目の第2の仮想的な開口群12bの開口部(要素レンズ)の光学中心からのx座標、y座標である。また、Ldは奥行き制御レンズLと第2の仮想的な開口群12bとの距離である。
この第2の仮想的な開口群12bの開口部ごとの光波(Rp,n,m(xp,n,yp,n))は、要素画像再生手段44に出力される。
Here, x p, n and y p, n are the x coordinate and the y coordinate from the optical center of the aperture (element lens) of the nth second
The light wave (R p, n, m (x p, n , y p, n )) for each opening of the second
立体画像奥行き制御手段4は、要素画像再生手段44の位相シフト手段44aによって、奥行き変換手段43で変換された光波(Rp,n,m(xp,n,yp,n))から、位相を仮想の要素レンズに相当する位相分だけシフトさせた光波を演算するものである。すなわち、位相シフト手段44aは、以下の式(6)に示すように、要素レンズに相当する位相分だけ光波(Rp,n,m(xp,n,yp,n))をシフトさせることで、要素レンズから出射する光波に相当する信号(光波Rr,n,m(xo,m,yo,m))を演算する。 The stereoscopic image depth control means 4 is obtained from the light wave (R p, n, m (x p, n , y p, n )) converted by the depth conversion means 43 by the phase shift means 44a of the element image reproduction means 44. A light wave whose phase is shifted by a phase corresponding to a virtual element lens is calculated. That is, the phase shift means 44a shifts the light wave (R p, n, m (x p, n , y p, n )) by the phase corresponding to the element lens, as shown in the following formula (6). Thus, a signal (light wave R r, n, m (x o, m , yo, m )) corresponding to the light wave emitted from the element lens is calculated.
ここで、f2は第2の仮想的な開口群12bの開口部(要素レンズ)の焦点距離である。この要素レンズごとの光波(Rr,n,m(xp,n,yp,n))は、光波計算手段44bに出力される。
Here, f 2 is the focal length of the opening of the second
立体画像奥行き制御手段4は、要素画像再生手段44の光波計算手段44bによって、以下の式(7)により、n番目の要素レンズから出射されて第2の要素画像面12aの撮影面に到達する光波(Re,n,m(xe,n,ye,n))を演算する。 The stereoscopic image depth control means 4 is emitted from the n-th element lens by the light wave calculation means 44b of the element image reproduction means 44 according to the following equation (7) and reaches the imaging surface of the second element image surface 12a. The light wave (R e, n, m (x e, n , y e, n )) is calculated.
ここで、xe,n、ye,nは、それぞれ要素画像の中心からのx座標、y座標である。この光波計算手段44bで演算された光波(Re,n,m(xe,n,ye,n))は、加算手段45に出力される。
Here, x e, n and y e, n are the x coordinate and y coordinate from the center of the element image, respectively. The light wave (R e, n, m (x e, n , y e, n )) calculated by the light
ところで、要素画像再生手段44から出力される第2の要素画像面12aの撮影面に到達する光波(Re,n,m(xe,n,ye,n))の電力は、光の振幅の2乗で表すことができる。また、処理対象要素画像群313の各要素画像として発せられた光波は、インコヒーレント(波長や位相が一定ではない)であるため、光波の位相は無相関であるとみなすことができる。
By the way, the power of the light wave (R e, n, m (x e, n , y e, n )) reaching the imaging surface of the second element image surface 12a output from the element image reproduction means 44 is the light power. It can be expressed by the square of the amplitude. Further, the light wave emitted as the element image of the processing target
そこで、立体画像奥行き制御手段4は、加算手段45によって、処理対象要素画像群313の各要素画像(−M〜M)として発せられた光波の電力の総和を、以下の式(8)により演算することで、処理対象要素画像群313の一つの要素画像(式(8)ではn番目の要素画像)の電力を求め、その電力に比例した映像信号を出力する。 Therefore, the stereoscopic image depth control means 4, the addition means 45, the total power of the light wave emitted as the element image of the processing target element image group 31 3 (-M~M), the following equation (8) by calculating to obtain the power of one element image to be processed element image group 31 3 (equation (8), the n-th element image), and outputs a video signal that is proportional to its power.
本実施形態では、画素値割り当て済み位置記憶手段6を参照すると、図7(f)に示すように、現時点では、統合三次元情報記憶手段5の全ての画素に画素値が割り当てられていない状態であることがわかるため、加算手段45によって、処理対象要素画像群313の全ての画素について、光波の電力の総和を求める。これにより、図7(b)に示すような処理済要素画像群323が生成されるので、立体画像奥行き制御手段4は、統合三次元情報記憶手段5に出力し、記憶させる。
In the present embodiment, referring to the pixel value assigned position storage means 6, as shown in FIG. 7 (f), the pixel values are not assigned to all the pixels of the integrated three-dimensional information storage means 5 at this time. since it can be seen is, the adding means 45, for all pixels of the processing target
このようにして、三次元情報統合装置1は、立体画像奥行き制御手段4によって、処理対象要素画像群313の光をあたかも光学的に表示して再撮影したかのような演算処理を実行する。また、光波は、開口のピッチが異なる二つの仮想的な開口群(第1の仮想的な開口群11bと第2の仮想的な開口群12b)を通過するので、被写体の大きさから変化させた自由な大きさの再生像を表示させる処理済要素画像群を生成することができる。
In this way, three-dimensional
三次元情報統合装置1は、立体画像奥行き制御手段4によって、図7(g)に示すように、画素値割り当て済み位置記憶手段6に、統合三次元情報記憶手段5に画素値が割り当てられた位置(処理済要素画像群323が割り当てられた位置)の情報を出力し、記憶させる(ステップS6)。
In the three-dimensional
なお、現在処理を行っている大きさの比率および奥行き制御後の処理対象要素画像群に、統合三次元情報記憶手段5においてすでに画素値が割り当てられている位置に対応する画素がある場合には、当該画素を除いて処理済要素画像群を生成する。処理対象要素画像群31nの処理を行う場合を例にとって説明する。画素値割り当て済み位置記憶手段6を参照すると、図7(g)に示すように、統合三次元情報記憶手段5には、すでに処理済要素画像群323が割り当てられていることがわかる。このため、加算手段45によって、大きさの比率および奥行き制御を行った処理対象要素画像群31nから、処理済要素画像群323が割り当てられている画素に対応する位置の画素を除いて、光波の電力の総和を求める。このようにして、図7(c)に示すように、統合三次元情報記憶手段5に処理済要素画像群323が割り当てられている位置に対応する画素を除いて処理済要素画像群32nを生成する。
In addition, when there is a pixel corresponding to a position to which a pixel value has already been assigned in the integrated three-dimensional
三次元情報統合装置1は、図7(c)に示すように、立体画像奥行き制御手段4によって、生成した処理済要素画像群32nを統合三次元情報記憶手段5に出力し、記憶させる。なお、図7(c)では、見易さのため、すでに割り当てられている処理済要素画像群323については、破線で表示している。また、三次元情報統合装置1は、立体画像奥行き制御手段4によって、図7(h)に示すように、画素値割り当て済み位置記憶手段6に、統合三次元情報記憶手段5に画素値が割り当てられた位置(処理済要素画像群32nが割り当てられた位置)の情報を出力し、記憶させる。
As shown in FIG. 7C, the three-dimensional
また、三次元情報統合装置1は、立体画像奥行き制御手段4によって、図7(g)に示すように、画素値割り当て済み位置記憶手段6に、統合三次元情報記憶手段5に画素値が割り当てられた位置(処理済要素画像群323が割り当てられた位置)の情報を出力し、記憶させる(ステップS6)。
Further, the three-dimensional
このようにして、全ての処理対象要素画像群についての処理が終了するまでステップS2からステップS6を繰り返す。 In this way, steps S2 to S6 are repeated until the processing for all the processing target element image groups is completed.
そして、全ての処理対象要素画像群について処理が終了した場合(ステップS7でYes)、立体画像奥行き制御手段4は、画素値割り当て手段7へ処理の終了を通知する制御信号を出力する。
When the processing is completed for all the processing target element image groups (Yes in step S7), the stereoscopic image
画素値割り当て手段7は、立体画像奥行き制御手段4から制御信号が入力されると、画素値割り当て済み位置記憶手段6から、統合三次元情報記憶手段5において画素値が割り当てられた画素を読み出す(ステップS8)。
When the control signal is input from the stereoscopic image
そして、外部から入力された操作信号に基づき、図7(d)に示すように、統合三次元情報記憶手段5に画素値が割り当てられていない画素に画素値を割り当てる(ステップS9)。例えば、操作者が単色の背景となる三次元空間を構築する場合には、所望の単色情報を情報が割り当てられていない画素に割り当てる。なお、画素値割り当て手段7を設けない場合には、統合三次元情報記憶手段5に画素値が割り当てられていない画素に画素値を割り当てない。このようにして、図7(e)に示すように、統合三次元情報が生成される。
そして、統合三次元情報記憶手段5は、統合三次元情報を出力手段8へ出力する。
Then, based on the operation signal input from the outside, as shown in FIG. 7D, pixel values are assigned to pixels to which no pixel value is assigned to the integrated three-dimensional information storage means 5 (step S9). For example, when the operator constructs a three-dimensional space serving as a monochromatic background, desired monochromatic information is allocated to pixels to which no information is allocated. If the pixel value assigning unit 7 is not provided, no pixel value is assigned to a pixel to which no pixel value is assigned to the integrated three-dimensional
Then, the integrated 3D
出力手段8は、統合三次元情報記憶手段5から入力された統合三次元情報を外部へ出力する(ステップS10)。
以上が、三次元情報統合装置1の一連の動作である。
The output means 8 outputs the integrated 3D information input from the integrated 3D information storage means 5 to the outside (step S10).
The above is a series of operations of the three-dimensional
なお、本発明は、この構成に限定されるものではない。例えば、本実施形態では、要素画像群から被写体の奥行き情報を算出したが、これに限られず、三次元情報を計算機で生成する場合には、被写体の大きさや奥行き位置情報を予め取得しておいても良いし、三次元情報をCCD等によって撮影された映像信号から生成する場合には、変調された赤外光等を被写体に照射することにより被写体の奥行き情報を取得してもよいことはもちろんである。 The present invention is not limited to this configuration. For example, in the present embodiment, the depth information of the subject is calculated from the group of element images. However, the present invention is not limited to this, and when three-dimensional information is generated by a computer, the size and depth position information of the subject is acquired in advance. If the 3D information is generated from a video signal photographed by a CCD or the like, the subject depth information may be acquired by irradiating the subject with modulated infrared light or the like. Of course.
また例えば、立体画像の奥行き制御手段として、前記した立体画像奥行き制御手段4に替えて、次に説明する立体画像奥行き制御手段4Bを用いても良い。
[立体画像奥行き制御手段の構成の概要]
図9を参照して立体画像奥行き制御手段の他の構成例を説明する。図9は、本発明の三次元情報統合装置に適用される立体画像奥行き制御手段の他の構成例を示すブロック構成図である。
Further, for example, a stereoscopic image depth control unit 4B described below may be used as the stereoscopic image depth control unit instead of the stereoscopic image
[Outline of configuration of stereoscopic image depth control means]
Another configuration example of the stereoscopic image depth control means will be described with reference to FIG. FIG. 9 is a block configuration diagram showing another configuration example of the stereoscopic image depth control means applied to the three-dimensional information integration device of the present invention.
立体画像奥行き制御手段4Bは、立体画像として表示されたときに被写体の凹凸が反転した再生像となる処理対象要素画像群(以下、「第1要素画像群」ともいう。)の光波を変換し、立体画像として表示されたときに被写体の凹凸と同じで像の大きさが変化した再生像となる処理済要素画像群(以下、「第2要素画像群」ともいう。)を生成するものである。なお、立体画像奥行き制御手段4Bは、外部から入力された操作信号により特定された、統合三次元情報において最も手前に配置される被写体に対応付けられた処理対象要素画像群から順に、画素記憶手段3から読み出し、処理を行う。この立体画像奥行き制御手段4Bに入力される第1要素画像群は、立体画像撮影装置(図示せず)において、CCD等の撮像素子によって撮影された映像信号である。この立体画像奥行き制御手段4Bで生成された第2要素画像群は、立体画像表示装置(図示せず)に出力される。 The stereoscopic image depth control means 4B converts light waves of a processing target element image group (hereinafter also referred to as “first element image group”) that is a reproduced image in which the unevenness of the subject is reversed when displayed as a stereoscopic image. , A processed element image group (hereinafter also referred to as a “second element image group”) that is a reproduced image in which the image size is changed in the same manner as the unevenness of the subject when displayed as a stereoscopic image. is there. Note that the stereoscopic image depth control means 4B is a pixel storage means in order from the processing target element image group that is specified by the operation signal input from the outside and that is associated with the subject that is arranged closest to the integrated 3D information. 3 is read and processed. The first element image group input to the stereoscopic image depth control unit 4B is a video signal captured by an imaging element such as a CCD in a stereoscopic image capturing device (not shown). The second element image group generated by the stereoscopic image depth control unit 4B is output to a stereoscopic image display device (not shown).
図9に示すように、立体画像奥行き制御手段4Bは、分配手段41Bと、第1要素画像変換手段42Bと、加算手段43Bと、再分配手段44Bと、第2要素画像変換手段45Bと、結合手段46Bとを備えている。立体画像奥行き制御手段4Bは、図10に示すような、光学系による立体画像の奥行き制御を演算で行うものである。
As shown in FIG. 9, the stereoscopic image depth control means 4B is combined with a distribution means 41B, a first element image conversion means 42B, an addition means 43B, a redistribution means 44B, and a second element image conversion means 45B.
分配手段41Bは、第1要素画像群の光波を要素画像毎に分配するものである。ここでは、分配された要素画像をm(−M≦m≦M)で識別することとする。第1要素画像変換手段42Bは、この分配された例えば(2M+1)個の要素画像毎に機能する。そして、分配された要素画像mは、その後、加算手段43Bで加算され、再分配手段44Bで再び分配される。このとき再分配された要素画像をn(−N≦n≦N)で識別することとする。第2要素画像変換手段45Bは、この再分配された例えば(2N+1)個の要素画像毎に機能する。そして、再分配された要素画像nは、その後、結合手段46Bで結合され処理済要素画像群(第2要素画像群)が生成されることとなる。
The
[立体画像奥行き制御手段の演算処理で想定する仮想的な開口群の概要]
次に、本実施形態の立体画像奥行き制御手段の演算処理で想定する仮想的な開口群の概要について図10を参照(適宜図9参照)して説明する。図10は、立体画像奥行き制御手段の演算処理で想定する仮想的な開口群の一例を模式的に示す説明図である。図9に示す第1要素画像変換手段42Bは、分配手段41Bで分配された要素画像の光波を、第1の仮想的な開口群11Bb(図10参照)を通過して第2の仮想的な開口群12Bb(図10参照)へ伝搬する光波に変換する。ここで、光波とは、映像信号を光の波動として扱った場合の振幅と位相を複素数で表わしたものである。また、開口群を構成する要素(開口)は、レンズ等の光学素子やピンホール等の空間フィルタのことを意味する。以下では、開口を図10に示すように凸レンズ(要素レンズ)で表すこととする。また、図10に示すように、第1の仮想的な開口群11Bbと第2の仮想的な開口群12Bbとは所定距離Lだけ離間している。図10のように第1の仮想的な開口群11Bbが仮想的なレンズアレイであれば、この所定距離Lは、要素レンズの焦点距離とすることができる。なお、第1および第2の仮想的な開口群11Bb,12Bbは実際には存在せず、立体画像奥行き制御手段4Bが演算処理を行うために想定したものである。
[Outline of virtual aperture group assumed in calculation processing of stereoscopic image depth control means]
Next, an outline of a virtual aperture group assumed in the calculation processing of the stereoscopic image depth control unit of the present embodiment will be described with reference to FIG. 10 (see FIG. 9 as appropriate). FIG. 10 is an explanatory diagram schematically showing an example of a virtual aperture group assumed in the calculation processing of the stereoscopic image depth control means. The first element image conversion means 42B shown in FIG. 9 passes the light wave of the element image distributed by the distribution means 41B through the first virtual aperture group 11Bb (see FIG. 10) and the second virtual image. It converts into the light wave which propagates to aperture group 12Bb (refer FIG. 10). Here, the light wave is a complex number representing the amplitude and phase when a video signal is handled as a wave of light. In addition, the elements (openings) constituting the aperture group mean optical elements such as lenses and spatial filters such as pinholes. Hereinafter, the aperture is represented by a convex lens (element lens) as shown in FIG. Further, as shown in FIG. 10, the first virtual opening group 11Bb and the second virtual opening group 12Bb are separated by a predetermined distance L. If the first virtual aperture group 11Bb is a virtual lens array as shown in FIG. 10, the predetermined distance L can be the focal length of the element lens. Note that the first and second virtual aperture groups 11Bb and 12Bb do not actually exist and are assumed for the stereoscopic image depth control means 4B to perform arithmetic processing.
図10において、第1要素画像群の光波は、第1の要素画像面11Baから出射して、図10において厚み方向を示した平面状の第1および第2の仮想的な開口群11Bb,12Bbを、左から右へ通過して第2の要素画像面12Baに入射する。また、k1は第1要素画像群におけるm番目の要素画像の領域を示し、d1は第1要素画像群(第1の要素画像面11Ba)から第1の仮想的な開口群11Bbまでの距離を示す。同様に、k2は第2要素画像群におけるn番目の要素画像の領域を示し、d2は第2の仮想的な開口群12Bbから第2要素画像群(第2の要素画像面12Ba)までの距離を示す。 In FIG. 10, the light waves of the first element image group are emitted from the first element image surface 11Ba, and the planar first and second virtual opening groups 11Bb and 12Bb whose thickness direction is shown in FIG. Passes from the left to the right and enters the second element image plane 12Ba. K1 represents the area of the mth element image in the first element image group, and d1 represents the distance from the first element image group (first element image surface 11Ba) to the first virtual opening group 11Bb. Show. Similarly, k2 indicates the area of the nth element image in the second element image group, and d2 is the distance from the second virtual opening group 12Bb to the second element image group (second element image plane 12Ba). Indicates.
また、図10において、p1は第1の仮想的な開口群11Bbを形成する要素レンズのピッチを示し、p2は第2の仮想的な開口群12Bbを形成する要素レンズのピッチを示す。本実施形態では、以下の式(9)で表わされるピッチの比ΦをΦ≠1として設定する。つまり、第1および第2の仮想的な開口群11Bb,12Bbの要素レンズ(開口)のピッチは異なる。なお、図10では、Φ<1の状態が図示されているが、Φ>1と設定してもよい。 In FIG. 10, p1 indicates the pitch of the element lenses that form the first virtual aperture group 11Bb, and p2 indicates the pitch of the element lenses that form the second virtual aperture group 12Bb. In the present embodiment, the pitch ratio Φ represented by the following formula (9) is set as Φ ≠ 1. That is, the pitches of the element lenses (openings) of the first and second virtual aperture groups 11Bb and 12Bb are different. In FIG. 10, the state of Φ <1 is shown, but Φ> 1 may be set.
[立体画像奥行き制御手段の詳細な構成]
分配手段41Bは、入力された映像信号(第1要素画像群の光波)を要素画像単位に分割する。入力された映像信号(第1の要素画像面11Baから出射する光波)は、第1要素画像群を構成する各要素画像の光波の束に相当し、これを第1要素画像群t1と表記することとする。この分配手段41Bは、入力された映像信号における第1要素画像群t1のm番目の要素画像の光波(gs,m(xs,m,ys,m))を、このm番目の要素画像に予め対応付けられている第1要素画像変換手段42Bに出力する。ここで、xs,mは、入力画像全体(第1要素画像群)におけるm番目の要素画像の中心を原点とした場合のx座標を示す。同様に、ys,mは、入力画像全体(第1要素画像群)におけるm番目の要素画像の中心を原点とした場合のy座標を示す。
[Detailed Configuration of Stereoscopic Image Depth Control Unit]
The
第1要素画像変換手段42Bは、図9に示すように、光波計算手段42Baと、位相シフト手段42Bbと、光波計算手段42Bcとを備えている。
光波計算手段42Baは、要素画像の光波から、フレネル近似に基づいて、第1の仮想的な開口群11Bb(図10参照)を構成する要素レンズに入射する光波を演算するものである。つまり、光波計算手段42Baは、第1の仮想的な開口群11Bbのm番目の要素レンズに到達する光波に相当する信号として、一般的なフレネル近似を用いて、以下の式(10)により要素画像毎の光波(Ri,m(xo,m,yo,m))を演算する。
As shown in FIG. 9, the first element
The light wave calculating means 42Ba calculates light waves incident on the element lenses constituting the first virtual aperture group 11Bb (see FIG. 10) from the light waves of the element image based on Fresnel approximation. That is, the light wave calculating means 42Ba uses the general Fresnel approximation as a signal corresponding to the light wave reaching the mth element lens of the first virtual aperture group 11Bb, and uses the following equation (10) to calculate the element The light wave (Ri, m (x0, m, yo, m)) for each image is calculated.
ここで、xo,mは、第1の仮想的な開口群11Bbのm番目の要素レンズの光軸中心を原点とした場合のx座標である。同様に、yo,mは、第1の仮想的な開口群11Bbの要素レンズ群のm番目の開口部の光軸中心を原点とした場合のy座標である。また、f1は、第1の仮想的な開口群11Bbの要素レンズの焦点距離を示す。また、kは、波数2π/λ(λは光波の波長)である。この要素画像毎の光波(Ri,m(xo,m,yo,m))は、位相シフト手段42Bbに出力される。 Here, x o, m is the x coordinate when the optical axis center of the m-th element lens of the first virtual aperture group 11Bb is the origin. Similarly, yo, m is the y coordinate when the optical axis center of the mth aperture of the element lens group of the first virtual aperture group 11Bb is the origin. F1 indicates the focal length of the element lens of the first virtual aperture group 11Bb. K is the wave number 2π / λ (λ is the wavelength of the light wave). The light wave (Ri, m (x0, m, y0, m)) for each element image is output to the phase shift means 42Bb.
位相シフト手段42Bbは、入力された要素画像の光波(Ri,m(xo,m,yo,m))から、位相を、第1の仮想的な開口群11Bbの要素レンズに相当する位相分だけシフトさせた光波を演算するものである。すなわち、位相シフト手段42Bbは、以下の式(11)に示すように、光波(Ri,m(xo,m,yo,m))を、第1の仮想的な開口群11Bbの要素レンズに相当する位相分だけシフトさせることで、第1の仮想的な開口群11Bbの要素レンズから出射する光波に相当する信号(Ro,m(xo,m,yo,m))を演算する。この光波(Ro,m(xo,m,yo,m))は、光波計算手段42Bcへ出力される。 The phase shift means 42Bb converts the phase from the light wave (Ri, m (x0, m, y0, m)) of the input element image by a phase corresponding to the element lens of the first virtual aperture group 11Bb. The shifted light wave is calculated. That is, the phase shift means 42Bb corresponds to the element lens of the first virtual aperture group 11Bb by applying the light wave (Ri, m (x0, m, y0, m)) as shown in the following equation (11). By shifting the phase by the phase, the signal corresponding to the light wave emitted from the element lens of the first virtual aperture group 11Bb (Ro, m (xo, m, yo, m)) is calculated. This light wave (Ro, m (xo, m, yo, m)) is output to the light wave calculation means 42Bc.
光波計算手段42Bcは、第1の仮想的な開口群11Bbの要素レンズから出射する光波、すなわち、位相シフト手段42Bbから入力された要素画像の光波(Ro,m(xo,m,yo,m))をフレネル近似することで、第2の仮想的な開口群12Bb(図10参照)の要素レンズに入射する光波を演算するものである。つまり、光波計算手段42Bcは、第2の仮想的な開口群12Bbの要素レンズに到達する光波に相当する信号として、一般的なフレネル近似を用いて、以下の式(12)により要素画像毎の光波(Rd,m(xd,m,yd,m))を演算する。この要素画像毎の光波(Rd,m(xd,m,yd,m))は加算手段43Bへ出力される。 The light wave calculation means 42Bc is a light wave emitted from the element lens of the first virtual aperture group 11Bb, that is, a light wave (Ro, m (xo, m, yo, m) of the element image inputted from the phase shift means 42Bb. ) Is Fresnel approximated to calculate the light wave incident on the element lens of the second virtual aperture group 12Bb (see FIG. 10). That is, the light wave calculation means 42Bc uses a general Fresnel approximation as a signal corresponding to the light wave reaching the element lens of the second virtual aperture group 12Bb, and uses the following formula (12) for each element image. The light wave (Rd, m (xd, m, yd, m)) is calculated. The light wave (Rd, m (xd, m, yd, m)) for each element image is output to the adding means 43B.
式(12)において、xd,mは、第1の仮想的な開口群11Bbのm番目の要素レンズの光軸中心を原点とした場合の、第2の仮想的な開口群12Bbの入射面におけるx座標である。同様に、yd,mは、第1の仮想的な開口群11Bbのm番目の要素レンズの光軸中心を原点とした場合の、第2の仮想的な開口群12Bbの入射面におけるy座標を示す。また、Lは、第1の仮想的な開口群11Bbと第2の仮想的な開口群12Bbとの距離である。また、積分計算を実施する範囲は、m番目の要素画像(要素画像(m))の拡がる範囲と等価に設定することとする。第1要素画像群におけるm番目の要素画像が広がる範囲wの一例を図11に示す。この場合、第1要素画像群におけるm番目の要素画像が広がる範囲wは式(13)で表わされる。なお、k1は第1要素画像群におけるm番目の要素画像の領域を示し、d1は処理対象要素画像群(第1の要素画像面11Ba)から第1の仮想的な開口群11Bbまでの距離を示す。 In Expression (12), xd, m is the incident surface of the second virtual aperture group 12Bb when the optical axis center of the mth element lens of the first virtual aperture group 11Bb is the origin. x coordinate. Similarly, yd, m is the y coordinate on the incident surface of the second virtual aperture group 12Bb when the optical axis center of the m-th element lens of the first virtual aperture group 11Bb is the origin. Show. L is the distance between the first virtual opening group 11Bb and the second virtual opening group 12Bb. Further, the range in which the integral calculation is performed is set to be equivalent to the range in which the m-th element image (element image (m)) expands. An example of the range w in which the mth element image in the first element image group extends is shown in FIG. In this case, a range w in which the m-th element image in the first element image group extends is expressed by Expression (13). Here, k1 represents the area of the mth element image in the first element image group, and d1 represents the distance from the processing target element image group (first element image surface 11Ba) to the first virtual opening group 11Bb. Show.
加算手段43Bは、第1要素画像変換手段42Bで変換されたそれぞれの要素画像の光波を、分配手段41Bで分配された数だけ、第2の仮想的な開口群12Bbの入射面で加算するものである。加算手段43Bは、第1の仮想的な開口群11Bbの要素レンズの画角に対応する光波を加算する。この加算手段43Bは、第1の仮想的な開口群11Bbの要素レンズから出射されて第2の仮想的な開口群12Bbの要素レンズの入射面に到達する光波(Rd,m(xd,m,yd,m))を、第2の仮想的な開口群12Bbの領域内で加算する。つまり、第2の仮想的な開口群12Bbの入射面での光波に相当する信号として、以下の式(14)により、第2の仮想的な開口群12Bbの入射面での光波(Rp(xp,yp))を演算する。 The adding means 43B adds the light waves of the respective element images converted by the first element image converting means 42B by the number distributed by the distributing means 41B on the incident surface of the second virtual aperture group 12Bb. It is. The adding means 43B adds light waves corresponding to the field angles of the element lenses of the first virtual aperture group 11Bb. The adding means 43B emits a light wave (Rd, m (xd, m,) which is emitted from the element lens of the first virtual aperture group 11Bb and reaches the entrance surface of the element lens of the second virtual aperture group 12Bb. yd, m)) is added within the region of the second virtual aperture group 12Bb. That is, as a signal corresponding to the light wave on the incident surface of the second virtual aperture group 12Bb, the light wave (Rp (xp) on the incident surface of the second virtual aperture group 12Bb is obtained by the following equation (14). , Yp)).
ここで、xpは、第2の仮想的な開口群12Bbの中心を原点とした場合のx座標であり、同様に、ypは、第2の仮想的な開口群12Bbの中心を原点とした場合のy座標である。この光波(Rp(xp,yp))は再分配手段44Bへ出力される。 Here, xp is the x coordinate when the center of the second virtual aperture group 12Bb is the origin, and similarly, yp is the case where the center of the second virtual aperture group 12Bb is the origin. Y coordinate. This light wave (Rp (xp, yp)) is output to the redistribution means 44B.
再分配手段44Bは、加算手段43Bで加算された光波を、第2要素画像群を構成する要素画像毎に再分配するものである。この再分配手段44Bは、加算手段43Bから入力された光波(Rp(xp,yp))を要素画像単位に分割する。光波(Rp(xp,yp))を再分配した要素画像ごとの光波として、第2の仮想的な開口群12Bbを構成するn番目の要素レンズに対応する光波を、(Rp,n(xp,n,yp,n))とする。ここで、再分配手段14は、第2の仮想的な開口群12Bbを構成する各要素レンズに入力された光波(Rp,n(xp,n,yp,n))を、第2の仮想的な開口群12Bbを横成するn番目の要素レンズに予め対応付けられている第2要素画像変換手段45Bに出力する。
The redistribution unit 44B redistributes the light waves added by the
第2要素画像変換手段45Bは、再分配手段44Bで分配された要素画像の光波を、第2の仮想的な開口群12Bbを通過して結像するまでの距離だけ伝搬した光波に変換するものである。この第2要素画像変換手段45Bは、再分配手段44Bから入力された光波を、第2の仮想的な開口群12Bbの要素レンズ(焦点距離f2)の開口領域に再分配した後、その要素レンズ(焦点距離f2)を通過する光波に変換し、さらに、その要素レンズの焦点距離f2だけ光波を伝搬させる。第2要素画像変換手段45Bは、例えば(2N+1)個の要素画像毎に機能することで、各要素画像の光波の束を伝搬させる。これら伝搬する各要素画像の光波の束から第2要素画像群が構成されることとなる。これを第2要素画像群t2と表記することとする。つまり、第2要素画像変換手段45Bは、第2要素画像群t2を演算する。第2要素画像変換手段45Bは、図9に示すように、位相シフト手段45Baと、光波計算手段45Bbとを備えている。
The second element
位相シフト手段45Baは、再分配手段44Bから入力された光波(Rp,n(xp,n,yp,n))から、位相を、第2の仮想的な開口群12Bbの要素レンズに相当する位相分だけシフトさせた光波を演算するものである。すなわち、位相シフト手段45Baは、以下の式(15)に示すように、光波(Rp,n(xp,n,yp,n))を、第2の仮想的な開口群12Bbの要素レンズに相当する位相分だけシフトさせることで、第2の仮想的な開口群12Bbの要素レンズから出射する光波に相当する信号(Rr,n(xp,n,yp,n))を演算する。 The phase shift unit 45Ba converts the phase from the light wave (Rp, n (xp, n, yp, n)) input from the redistribution unit 44B to a phase corresponding to the element lens of the second virtual aperture group 12Bb. The light wave shifted by the amount is calculated. In other words, the phase shift means 45Ba corresponds to the element lens of the second virtual aperture group 12Bb by applying the light wave (Rp, n (xp, n, yp, n)) as shown in the following equation (15). By shifting the phase by the phase, the signal (Rr, n (xp, n, yp, n)) corresponding to the light wave emitted from the element lens of the second virtual aperture group 12Bb is calculated.
ここで、xp,nは、第2の仮想的な開口群12Bbのn番目の要素レンズの光軸中心を原点とした場合のx座標である。同様に、yp,nは、第2の仮想的な開口群12Bbのn番目の要素レンズの光軸中心を原点とした場合のy座標である。また、f2は、第2の仮想的な開口群12Bbの要素レンズの焦点距離である。この要素画像毎の光波(Rr,n(xp,n,yp,n))は、光波計算手段45Bbへ出力される。 Here, xp, n is an x coordinate when the optical axis center of the nth element lens of the second virtual aperture group 12Bb is the origin. Similarly, yp, n is the y coordinate when the center of the optical axis of the nth element lens of the second virtual aperture group 12Bb is the origin. F2 is a focal length of the element lens of the second virtual aperture group 12Bb. The light wave (Rr, n (xp, n, yp, n)) for each element image is output to the light wave calculating means 45Bb.
光波計算手段45Bbは、第2の仮想的な開口群12Bbの要素レンズ毎の光波をフレネル近似することで、第2の仮想的な開口群12Bbの要素レンズから出射し、第2の要素画像面12Ba(図10参照)に到達する光波を演算するものである。すなわち、光波計算手段45Bbは、以下の式(16)により、第2の仮想的な開口群12Bbのn番目の要素レンズから出射されて第2の要素画像面12Baに到達する光波(Re,n(xe,n,ye,n))を演算する。 The light wave calculating means 45Bb emits the light wave for each element lens of the second virtual aperture group 12Bb from the element lens of the second virtual aperture group 12Bb by performing Fresnel approximation, and the second element image plane The light wave reaching 12Ba (see FIG. 10) is calculated. That is, the light wave calculation means 45Bb calculates the light wave (Re, n) emitted from the nth element lens of the second virtual aperture group 12Bb and reaching the second element image plane 12Ba by the following equation (16). (Xe, n, ye, n)) is calculated.
ここで、xe,nは、出力画像全体(第2要素画像群)におけるn番目の要素画像の中心からのx座標である。同様に、ye,nは出力画像全体におけるn番目の要素画像の中心からのy座標である。この光波計算手段45Bbで演算された光波(Re,n(xe,n,ye,n))は結合手段46Bへ出力される。 Here, xe, n is an x coordinate from the center of the nth element image in the entire output image (second element image group). Similarly, ye, n is the y coordinate from the center of the nth element image in the entire output image. The light wave (Re, n (xe, n, ye, n)) calculated by the light wave calculating means 45Bb is output to the coupling means 46B.
結合手段46Bは、第2要素画像変換手段45Bで変換された光波を、再分配手段44Bで再分配された数だけ結合することで、第2要素画像群を生成するものである。この結合手段46Bは、第2要素画像変換手段45Bから出力された要素画像毎の光波から、その光波の電力の総和を演算することで、立体像の大きさが変換処理された映像信号、すなわち、第2要素画像群t2となる映像信号を生成する。この結合手段46Bで得られた第2要素画像群t2は、立体画像表示装置(図示せず)へ出力される。 The combining means 46B generates the second element image group by combining the light waves converted by the second element image converting means 45B by the number redistributed by the redistributing means 44B. This combining means 46B calculates the sum of the powers of the light waves from the light waves for each element image output from the second element image conversion means 45B, thereby obtaining a video signal in which the size of the stereoscopic image is converted, that is, Then, a video signal to be the second element image group t2 is generated. The second element image group t2 obtained by the combining means 46B is output to a stereoscopic image display device (not shown).
ここで、第2要素画像変換手段45Bから出力される第2の要素画像面12Baに到達する光波(Re,n(xe,n,ye,n))の電力は、光の振幅の2乗で表わすことができる。また、第1要素画像群t1の各要素画像として発せられた光波は、インコヒーレント(波長や位相が一定ではない)であるため、光波の位相は無相関であるとみなすことができる。そこで、結合手段46Bは、以下の式(17)に示すように、第2の要素画像面12Baに到達する各要素画像の光波(例えばn番目の要素画像であればその光波は(Re,n(xe,n,ye,n))である)の2乗を計算し、その和をとることで、第2要素画像群t2全体の映像信号を得る。
Here, the power of the light wave (Re, n (xe, n, ye, n)) reaching the second element image plane 12Ba output from the second element image conversion means 45B is the square of the amplitude of the light. Can be represented. Moreover, since the light wave emitted as each element image of the first element image group t1 is incoherent (the wavelength and phase are not constant), the phase of the light wave can be regarded as uncorrelated. Therefore, as shown in the following equation (17), the combining
このとき、立体画像奥行き制御手段4Bは、画素値割り当て済み位置記憶手段6から統合三次元情報記憶手段5においてすでに画素値が割り当てられている画素の情報を取得し、現在処理を行っている大きさの比率および奥行き制御後の処理対象要素画像群に、統合三次元情報記憶手段5においてすでに画素値が割り当てられている位置に対応する画素がない場合、結合手段46Bによって、第1要素画像群(例えば、図6に示す処理対象要素画像群313)の全ての画素について、光波の電力の総和を求める。これにより、第2要素画像群(図7に示す処理済要素画像群323)が生成されるので、立体画像奥行き制御手段4Bは、統合三次元情報記憶手段5に出力し、記憶させる。
At this time, the stereoscopic image depth control unit 4B acquires information on the pixels to which pixel values have already been assigned in the integrated three-dimensional
一方、現在処理を行っている処理対象要素画像群に、統合三次元情報記憶手段5においてすでに画素値が割り当てられている位置に対応する画素がある場合には、結合手段46Bによって、当該画素を除いた光波の電力の総和を求める。
On the other hand, when there is a pixel corresponding to a position to which a pixel value has already been assigned in the integrated three-dimensional
立体画像奥行き制御手段4Bは、画素値割り当て済み位置記憶手段6に、統合三次元情報記憶手段5に画素値が割り当てられた位置(例えば、処理済要素画像群323が割り当てられた位置)の情報を出力し、記憶させる。その他の構成の動作は、前記した三次元情報統合装置1と同様であるので、記載を省略する。
Stereoscopic image depth control means 4B is a pixel value assigned
[再生像の大きさの比率制御]
立体画像奥行き制御手段4Bは、前記のように詳細に説明した構成を備えており、前記した式(9)で表わされるピッチの比Φを予め設定しておくことで、再生像の大きさの比率を所望の値に制御することができる。仮に、立体画像奥行き制御手段4Bの処理を行わない場合、つまり、第1および第2の仮想的な開口群11Bb,12Bbを用いない場合には、被写体の大きさxc(図16(a)参照)と再生される立体像の大きさxr(図16(b)参照)との関係は、前記した式(101)の通りである。このように立体画像奥行き制御手段4Bを用いない場合、前記した式(101)において、α=γとすると、被写体の大きさxc(図16(a)参照)と、再生される立体像の大きさxr(図16(b)参照)との関係は、以下の式(18)で表わされることとなる。
[Reproduction image size ratio control]
The stereoscopic image depth control means 4B has the configuration described in detail as described above, and by setting in advance the pitch ratio Φ represented by the above equation (9), the size of the reproduced image can be adjusted. The ratio can be controlled to a desired value. If the processing of the stereoscopic image depth control unit 4B is not performed, that is, if the first and second virtual aperture groups 11Bb and 12Bb are not used, the subject size xc (see FIG. 16A). ) And the size of the stereoscopic image to be reproduced xr (see FIG. 16B) is as in the above-described equation (101). When the stereoscopic image depth control means 4B is not used in this way, if α = γ in the above equation (101), the subject size xc (see FIG. 16A) and the size of the reproduced stereoscopic image The relationship with the length xr (see FIG. 16B) is expressed by the following equation (18).
つまり、図9において、立体画像奥行き制御手段4Bを無視して、要素レンズのピッチpc(図16(a)参照)と、要素レンズのピッチpr(図16(b)参照)とが等しい場合には、被写体の大きさxc(図16(a)参照)と、再生像される立体像の大きさxr(図16(b)参照)とは等しくなってしまう。一方、立体画像奥行き制御手段4Bを用いた場合には、被写体の大きさxc(図16(a)参照)と、再生される立体像の大きさxr(図16(b)参照)との関係は、以下の式(19)で表わされる。 That is, in FIG. 9, when the stereoscopic image depth control means 4B is ignored, the element lens pitch pc (see FIG. 16A) is equal to the element lens pitch pr (see FIG. 16B). Is equal to the size xc of the subject (see FIG. 16A) and the size xr of the stereoscopic image to be reproduced (see FIG. 16B). On the other hand, when the stereoscopic image depth control means 4B is used, the relationship between the subject size xc (see FIG. 16A) and the reproduced stereoscopic image size xr (see FIG. 16B). Is represented by the following equation (19).
つまり、図9において、要素レンズのピッチpc(図16(a)参照)と、要素レンズのピッチpr(図16(b)参照)とが仮に等しかったとしても、第1の仮想的な開口群11Bbの要素レンズのピッチp1(図10参照)と、第2の仮想的な開口群12Bbの要素レンズのピッチp2(図10参照)とを制御することで、被写体の大きさxc(図16(a)参照)に対する再生される立体像の大きさxr(図16(b)参照)を変化させることが可能となる。 That is, in FIG. 9, even if the element lens pitch pc (see FIG. 16A) and the element lens pitch pr (see FIG. 16B) are equal, the first virtual aperture group By controlling the pitch p1 (see FIG. 10) of the element lens of 11Bb and the pitch p2 (see FIG. 10) of the element lens of the second virtual aperture group 12Bb, the size xc of the subject (see FIG. 16). It is possible to change the size xr (see FIG. 16B) of the reproduced stereoscopic image with respect to (a).
なお、説明の都合上、前記した式(18)および式(19)の説明において、前記した式(101)においてαとγとが等しい場合について記述したが、本発明では、前記した式(101)においてα≠γとしてもよい。同様に、要素レンズのピッチpcと、要素レンズのピッチprとが等しい場合について記述したが、pc≠prとしてもよい。 For convenience of explanation, the case where α and γ are equal in the above-described equation (101) has been described in the above-described equations (18) and (19). However, in the present invention, the above-described equation (101) is described. ) May be α ≠ γ. Similarly, the case where the pitch pc of the element lens is equal to the pitch pr of the element lens is described, but pc ≠ pr may be used.
このような立体画像奥行き制御手段4Bによれば、第1要素画像群t1を、各要素画像mの光波が、第1および第2の仮想的な開口群11Bb,12Bbを通過したものとして演算処理することで、被写体の撮影および表示に用いる光学的な装置に依存することなく、被写体の凹凸と同じで像の大きさを所望の大きさに変化させた像を再生するような第2要素画像群t2へと変換することができる。したがって、このように演算処理で立体像の大きさを変化できるので、従来のようにレンズ等の撮影および表示に用いる光学的な装置を変更する必要がない。また、立体画像奥行き制御手段4Bによれば、演算処理により、被写体を複数の要素画像として撮影した要素画像群としての画像から発せられる光を再度撮影した場合と等価な画像を生成することができる。さらに、被写体に対する大きさが任意に制御された再生像を表示する際に、立体画像の演出効果を高めることが可能となる。 According to such a stereoscopic image depth control means 4B, the first element image group t1 is processed by assuming that the light wave of each element image m has passed through the first and second virtual aperture groups 11Bb and 12Bb. Thus, the second element image that reproduces an image in which the size of the image is changed to a desired size is the same as the unevenness of the subject without depending on the optical device used for photographing and displaying the subject. It can be converted into the group t2. Therefore, since the size of the stereoscopic image can be changed by the arithmetic processing in this way, it is not necessary to change the optical device used for photographing and displaying such as a lens as in the conventional case. In addition, according to the stereoscopic image depth control unit 4B, an image equivalent to a case where light emitted from an image as an element image group obtained by imaging a subject as a plurality of element images can be generated by arithmetic processing. . Furthermore, when displaying a reproduced image whose size with respect to the subject is arbitrarily controlled, it is possible to enhance the effect of rendering a stereoscopic image.
なお、立体画像奥行き制御手段4Bは、演算回路によって実現することも可能であるし、中央演算処理装置(CPU:Central Processing Unit)、主記憶装置(RAM:Random Access Memory)等を備えた一般的なコンピュータを、前記した各手段として機能させるプログラムとして実現することも可能である。 The stereoscopic image depth control means 4B can be realized by an arithmetic circuit, and is generally provided with a central processing unit (CPU), a main storage device (RAM: Random Access Memory), and the like. It is also possible to realize a simple computer as a program that functions as each of the above-described means.
なお、前記した立体画像奥行き制御手段4、4Bはそれぞれ、波動光学的手法を用いて立体画像の奥行きを制御するものであるが、これに限られるものではなく、幾何光学的手法を用いても良い。以下、幾何光学的手法により立体画像の奥行きを制御する立体画像奥行き制御手段4Cについて説明する。
Each of the stereoscopic image depth control means 4 and 4B controls the depth of a stereoscopic image using a wave optical technique, but is not limited to this, and a geometrical optical technique may be used. good. Hereinafter, the stereoscopic image
図12に示すのは、本発明の三次元情報統合装置に適用される立体画像奥行き制御手段の他の構成例を示すブロック構成図および要素画像群撮像装置の構成例を模式的に示した模式図である。
立体画像奥行き制御手段4Cは、予め設定された要素画像群撮像装置50の要素レンズ群51と撮像手段52の撮像面との距離g1、および、隣接する2要素レンズL1、L1のピッチp1の情報に基づいて、被写体の処理対象要素画像群(以下、「第1要素画像群」ともいう)を、任意の奥行きの位置に、奥行きの位置関係の正しい立体像を表示できる処理済要素画像群(以下、「第2要素画像群」ともいう)に変換するものである。なお、
要素画像群撮像装置50と立体画像奥行き制御手段4Cの間には、図示しないが、要素画像分離手段2(図2参照)と画素記憶手段3(図2参照)が配置されている。
立体画像奥行き制御手段4Cは、外部から入力された操作信号により特定された、統合三次元情報において最も手前に配置される被写体に対応付けられた処理対象要素画像群から順に、画素記憶手段3から読み出し、処理を行う。ここでは、立体画像奥行き制御手段4Cは、第2要素画像生成手段47を備える。
FIG. 12 shows a block configuration diagram showing another configuration example of the stereoscopic image depth control means applied to the three-dimensional information integration device of the present invention, and a schematic diagram schematically showing a configuration example of the element image group imaging device. FIG.
The stereoscopic image
Although not shown, an element image separation unit 2 (see FIG. 2) and a pixel storage unit 3 (see FIG. 2) are arranged between the element image group imaging device 50 and the stereoscopic image
The stereoscopic image depth control means 4C starts from the pixel storage means 3 in order from the processing target element image group that is specified by the operation signal input from the outside and that is associated with the subject that is arranged in the forefront in the integrated 3D information. Read and process. Here, the stereoscopic image
第2要素画像生成手段47は、要素画像群撮像装置50によって撮像された第1要素画像群(例えば、図6に示す処理対象要素画像群313)を、任意の奥行きの位置に、奥行きの位置関係の正しい立体像を表示できる第2要素画像群(図7に示す処理対象要素画像群323)に変換するものである。第2要素画像生成手段47は、立体情報割当手段47aと、立体情報補間手段47bとを備える。
The second element image generation unit 47 converts the first element image group (for example, the processing target
なお、ここでは、要素画像群撮像装置50によって撮像された第1要素画像群313の各画素の輝度値の情報は、画素記憶手段3(図2参照)に記憶されていることとし、第2要素画像生成手段47が、画素記憶手段3(図2参照)から、各画素の輝度値の情報を読み出すこととした。
Here, the information of the luminance value of each pixel of the first
ここで、図13を参照(適宜図12参照)して、第2要素画像生成手段47が第1要素画像群31 3 を変換する方法について説明する。図13は、奥行き変換手段の第1要素画像群の変換方法を説明するための説明図である。
Referring now to FIG. 13 (appropriately with reference to Figure 12), the second element image generating means 47 will be described how to convert the first
図13に示すように、第2要素画像生成手段47は、第1要素画像群313を仮想的に表示する第1の要素画像面11Caと、要素レンズ群51と要素レンズL1のピッチp1の同じ仮想的な複数の仮想要素レンズである第1の仮想的な開口L1´が同一平面上に配列された第1の仮想的な開口群11Cbと、この第1の仮想的な開口群11Cbによって仮想的に再生された立体像(図示せず)の像I、I、・・・を結像する仮想要素レンズである第2の仮想的な開口L2´が同一平面上に配列された第2の仮想的な開口群12Cbと、像Iからなる第2要素画像群323が仮想的に結像する第2の要素画像面12Caとを仮想的に(計算によって)設定する。そして、第2要素画像生成手段47は、要素画像群撮像装置50によって撮像された第1要素画像群313の各々の画素の輝度値(画素値)に基づいて、第1の要素画像面11Caに仮想的に表示された第1要素画像群313からの光が、第1の仮想的な開口群11Cbおよび第2の仮想的な開口群12Cbを介して第2の要素画像面12Caに結像して生成される第2要素画像群323上の画素の輝度値を算出することで、第2要素画像群323を生成することとした。
As shown in FIG. 13, the second element image generating means 47, the first and the element image plane 11Ca,
ここで、第1の要素画像面11Caと第1の仮想的な開口群11Cbとの距離g1は、要素画像群撮像装置50の要素レンズ群51と撮像手段52との撮像面(図示せず)との距離g1に等しい。また、第1の仮想的な開口L1’と、第2の仮想的な開口L2’とは、光軸が平行である。一方、第1の仮想的な開口L1’と、第2の仮想的な開口L2’とは、ピッチp1、p2が等しくても異なっていてもよく、第1の要素画像面11Caと第1の仮想的な開口群11Cbとの距離g1、および、第2の仮想的な開口群12Cbと第2の要素画像面12Caとの距離g2も、等しくても異なっていても良い。 Here, the distance g1 between the first element image plane 11Ca and the first virtual aperture group 11Cb is the imaging plane (not shown) of the element lens group 51 and the imaging means 52 of the element image group imaging apparatus 50. Is equal to the distance g1. The first virtual opening L1 'and the second virtual opening L2' are parallel to the optical axis. On the other hand, the first virtual opening L1 ′ and the second virtual opening L2 ′ may have the same or different pitches p1 and p2, and the first element image plane 11Ca and the first virtual opening L2 ′ may be different from each other. The distance g1 between the virtual aperture group 11Cb and the distance g2 between the second virtual aperture group 12Cb and the second element image plane 12Ca may be equal or different.
なお、図13では、図12の被写体Sの位置に第2の仮想的な開口L2´が配置される場合を例に示したが、第2要素画像生成手段47は、第2の仮想的な開口群12Cbと第2の要素画像面12Caとを、第1の仮想的な開口群11Cbから出射された第1の要素画像面11Caの第1要素画像群31 3 からの光の仮想的な光路上において任意の位置に設定することができる。そして、第2要素画像生成手段47によって、第1の仮想的な開口群11Cbから出射された光の仮想的な光路上において設定された第2の仮想的な開口群12Cbおよび第2の要素画像面12Caから被写体Sの位置に相当する位置までの距離に応じて、立体画像表示装置(図示せず)によって表示される立体像(図示せず)の立体画像表示装置(図示せず)からの奥行き方向の距離が定まる。このように、第2要素画像生成手段47は、第2の仮想的な開口群12Cbと第2の要素画像面12Caとを、立体像を表示する奥行き方向の位置に対応する位置に設定することで、立体像をこの奥行き方向の位置に表示することができる第2要素画像群323を生成することができる。
FIG. 13 shows an example in which the second virtual opening L2 ′ is arranged at the position of the subject S in FIG. opening group 12Cb and the second element image plane 12Ca, a first virtual virtual light of the light from the first
さらに、第2要素画像生成手段47は、第1の仮想的な開口群11Cbから出射された第1の要素画像面11Caの第1要素画像群313からの光を、第2の仮想的な開口群12Cbによって第2の要素画像面12Caに仮想的に結像させた第2要素画像群323を生成するため、この第2要素画像群323は、図12の要素画像群撮像装置50の撮影方向とは逆向きの撮影方向から撮像されたものとなる。これによって、第2要素画像生成手段47は、立体画像表示装置(図示せず)によって被写体Sと比較して奥行きの位置関係の正しい立体像(図示せず)を表示することができる。
Furthermore, the second element image generating means 47, the light from the first elemental image plane first
図12に戻って説明を続ける。立体情報割当手段(割当手段)47aは、要素画像群撮像装置50によって撮像された第1要素画像群313の各々の画素の輝度値を、当該画素からの光が、第1の仮想的な開口群11Cbおよび第2の仮想的な開口群12Cbを介して第2の要素画像面12Caに結像する第2要素画像群323上の画素の輝度値とするものである。
Returning to FIG. 12, the description will be continued. Three-dimensional information assigning means (assignment means) 47a has a luminance value of each pixel of the first
ここで、図14を参照して、立体情報割当手段47aが第1要素画像群313の各々の画素の輝度値を第2要素画像群323上の画素に割り当てる方法について説明する。図14は、立体情報割当手段が、第1要素画像群の各々の画素の輝度値を第2要素画像群上の画素に割り当てる方法を説明するための説明図である。
Referring now to FIG. 14, the three-dimensional information allocation means 47a methods described for assigning luminance values of the pixels of each of the first
図14に示すように、立体情報割当手段47aが、第1の要素画像面11Caと、第1の仮想的な開口群11Cbと、第2の仮想的な開口群12Cbと、第2の要素画像面12Caとを仮想的に設定し、第1要素画像群313には被写体Saの像Ia1、Ia2が含まれているとする。そして、第1要素画像群313の像Ia1の画素から第1の仮想的な開口L1’の中心を通過する仮想的な光(以下、仮想光線という)が、第2の仮想的な開口L2’の中心を通過する場合には、立体情報割当手段47aは、この仮想光線と第2の要素画像面12Caとの交点に当たる第2要素画像群323の画素に、この第1要素画像群313の画素の輝度値を割り当てる。
As shown in FIG. 14, the three-dimensional information allocating unit 47a includes a first element image plane 11Ca, a first virtual opening group 11Cb, a second virtual opening group 12Cb, and a second element image. set the surface 12Ca virtually, and the first
一方、第1要素画像群313の像Ia2の画素から第1の仮想的な開口L1’の中心を通過する仮想光線が、第2の仮想的な開口L2’の中心を通過しない場合には、立体情報割当手段47aは、この仮想光線に平行で、当該第2の仮想的な開口L2’の中心を通過する線と第2の要素画像面12Caとの交点に当たる第2要素画像群323の画素に、この第1要素画像群313の画素の輝度値を割り当てる。
On the other hand, if the pixel image Ia 2 of the first
図12に戻って説明を続ける。立体情報補間手段47bは、立体情報割当手段47aによって輝度値の割り当てられていない第2要素画像群323の画素の輝度値を、当該画素の近傍の画素の輝度値に基づいて補間して算出するものである。
Returning to FIG. 12, the description will be continued. Stereo
ここで、図15を参照して、立体情報補間手段47bが近傍の画素の輝度値に基づいて、第2要素画像群323の画素の輝度値を補間して算出する方法について説明する。図15は、立体情報割当手段が、第1要素画像群の各々の画素の輝度値を第2要素画像群上の画素に割り当てる方法を説明するための説明図であり、(a)は、仮想的に設定された第1の要素画像面と、第1の仮想的な開口群と、第2の仮想的な開口群と、第2の要素画像面と、第2要素画像群に仮想的に含まれる像とを模式的に示す模式図、(b)は、(a)におけるAに示した部分を拡大して示した、第2要素画像群に仮想的に含まれる像と、当該像の画素の情報から補間して求められる画素とを模式的に示す模式図である。
Referring now to FIG. 15, based on the luminance value of the stereoscopic
図15(a)に示すように、第1要素画像群313には、異なる被写体(図示せず)の像Ia、Ibが含まれているとする。そして、立体情報割当手段47aによって、第1要素画像群313の像Iaの画素に対応する第2要素画像群323の画素と、第1要素画像群313の像Ibの画素に対応する第2要素画像群323の画素とに、各々対応する第1要素画像群313の画素の輝度値が割り当てられていることとする。また、図15(b)に示すように、この像Ia、Ib(図15(a)参照)の画素Pa、Pbの間の画素Pcには、立体情報割当手段47aによって輝度値が割り当てられていないこととする。
As shown in FIG. 15 (a), the first
そうすると、立体情報補間手段47bは、画素Pcの上下の画素Pa、Pbの輝度値に基づいて、画素Pcの輝度値mcを、以下の式(20)によって算出する。ここで、ma、mbは、画素Pa、Pbの輝度値であり、a、bは、画素Pcからの画素Pa、Pbまでの距離である。
Then, the three-dimensional
なお、ここでは、立体情報補間手段47bが、画素Pcの上下の画素Pa、Pbの輝度値に基づいて、式(20)に示す一次元の補間式を用いて補間する場合について説明したが、補間対象となる画素Pcの上下左右や斜めにある画素(図示せず)の輝度値に基づいて補間することとしてもよい。このとき、立体情報補間手段47bは、例えば、井上誠喜他、「C言語で学ぶ実践画像処理」、オーム社、1999、p.149に記載されるような、二次元に拡張した補間式を用いて補間することができる。
Here, although the case where the three-dimensional
また、立体情報補間手段47bが、城戸健一、「ディジタル信号処理入門」、丸善、1985、p.31−35に記載されるような、離散的なデータ列から連続的なデータ関数を生成する標本化関数を用いて、画素ごとの離散的な輝度値の情報を連続的な情報として、補間対象となる画素Pcの輝度値を求めることとしてもよい。 Further, the three-dimensional information interpolation means 47b is described in Kenichi Kido, “Introduction to Digital Signal Processing”, Maruzen, 1985, p. A sampling function that generates a continuous data function from a discrete data string as described in 31-35, and information on discrete luminance values for each pixel is used as continuous information. It is also possible to obtain the luminance value of the pixel Pc.
このようにして生成された第2要素画像群323は、立体画像奥行き制御手段4Cによって、統合三次元情報記憶手段5に出力される。また、立体画像奥行き制御手段4Cは、統合三次元情報記憶手段5において画素値が割り当てられた画素の位置が画素値割り当て済み位置記憶手段6に出力する。このようにして、全ての処理対象要素画像群についての処理が終了するまで、同様の処理を繰り返す。なお、二番目以降に処理対象となる処理対象要素画像群については、立体画像奥行き制御手段4Cは、画素値割り当て済み位置記憶手段6を参照し、現在処理を行っている処理対象要素画像群に、統合三次元情報記憶手段5においてすでに画素値が割り当てられている位置に対応する画素がある場合には、立体情報割当手段47aおよび立体情報補間手段47bで、当該画素を除いて演算を行う。
Such second element image group 32 3 generated by the, by the stereoscopic image depth control means 4C, is output to the integrated three-dimensional
そして、全ての処理対象要素画像群についての処理を終了後、立体画像奥行き制御手段4Cは、処理の終了を知らせる制御信号を画素値割り当て手段7に出力する。なお、画素値割り当て手段7を設けない場合には、当該信号を出力しない。 Then, after finishing the processing for all the processing target element image groups, the stereoscopic image depth control means 4C outputs a control signal notifying the end of the processing to the pixel value assignment means 7. If the pixel value assigning means 7 is not provided, the signal is not output.
以上説明したような立体画像奥行き制御手段4Cによれば、第2の仮想的な開口群12Cbの、第1要素画像群および第1の仮想的な開口群11Cbに対する位置に応じて、再生時の立体像の奥行き方向の距離が定まるので、第2の仮想的な開口群12Cbの位置を調整することで、立体像を所望の奥行き方向の位置に表示させることができる第2要素画像群を生成することができる。 According to the stereoscopic image depth control means 4C as described above, according to the position of the second virtual opening group 12Cb with respect to the first element image group and the first virtual opening group 11Cb, Since the distance in the depth direction of the stereoscopic image is determined, a second element image group that can display the stereoscopic image at a desired position in the depth direction is generated by adjusting the position of the second virtual aperture group 12Cb. can do.
なお、立体画像奥行き制御手段4Cは、演算回路によって実現することも可能であるし、中央演算処理装置(CPU:Central Processing Unit)、主記憶装置(RAM:Random Access Memory)等を備えた一般的なコンピュータを、前記した各手段として機能させるプログラムとして実現することも可能である。 The stereoscopic image depth control means 4C can be realized by an arithmetic circuit, and is generally provided with a central processing unit (CPU), a main storage device (RAM), and the like. It is also possible to realize a simple computer as a program that functions as each of the above-described means.
以上説明したように、三次元情報統合装置1によれば、複数の三次元情報を統合した一つの三次元情報(統合三次元情報)を生成することができる。また、複数の三次元情報についてそれぞれ操作者の任意の大きさの比率および奥行きに制御した状態で統合することができる。
As described above, according to the three-dimensional
さらに、三次元情報統合装置1によれば、統合三次元情報記憶手段5の画素に複数の画素値が割り当てられない、すなわち、複数の被写体が互いに重なり合う部分には、最も手前に配置される被写体に対応する処理対象要素画像群のみ割り当てるため、統合三次元情報を立体画像として表示させたときに、複数の被写体が互いに重なり合う部分にいわゆるファントム現象が発生することを防止できる。
Furthermore, according to the three-dimensional
加えて、三次元情報統合装置1によれば、処理対象要素画像群のうち、統合三次元情報記憶手段5においてすでに画素値が割り当てられている位置に割り当てられる画素を除いて処理済要素画像群を生成するため、演算量を削減することができ、処理速度を向上させることができる。
In addition, according to the three-dimensional
なお、前記した実施形態では、異なる三次元空間の被写体同士を統合する手法について説明したが、同一の三次元空間の被写体同士を統合する場合には、大きさの比率および奥行きの制御を行わなくても良い。 In the above-described embodiment, the method of integrating subjects in different three-dimensional spaces has been described. However, when subjects in the same three-dimensional space are integrated, size ratio and depth control are not performed. May be.
以上説明した三次元情報統合装置1は、前記した各手段を演算回路によって実現することも可能であるし、中央処理装置(CPU:Central Processing Unit)、主記憶装置(RAM:Random Access Memory)等を備えた一般的なコンピュータを、前記した各手段として機能させるプログラム(三次元情報統合プログラム)により動作させることで実現することも可能である。以上説明したように、本発明は、再生像の大きさの比率および奥行きの制御処理を光学系ではなく演算により行うことで、装置を小型化することができる効果を奏することになる。
The three-dimensional
1 三次元情報統合装置
2 要素画像分離手段
3 画素記憶手段
4 立体画像奥行き制御手段
41 分配手段
42 要素画像変換手段
43 奥行き変換手段
44 要素画像再生手段
45 加算手段
5 統合三次元情報記憶手段
6 画素値割り当て済み位置記憶手段
7 未処理画素割り当て手段
8 出力手段
DESCRIPTION OF
Claims (4)
外部から入力された操作信号に基づいて、複数の要素画像群についてそれぞれ、個々の要素画像から、所望の奥行き範囲に存在する被写体領域に対応する画素とそれ以外の領域に対応する画素を分離する要素画像分離手段と、
前記要素画像分離手段により分離された前記所望の奥行き範囲に存在する被写体領域に対応する画素で構成される処理対象要素画像群をそれぞれ記憶する画素記憶手段と、
外部から入力された操作信号により前記画素記憶手段に記憶された複数の処理対象要素画像群のそれぞれに対応付けられた被写体のそれぞれについて指定された統合後の三次元情報における奥行き位置を示す値により特定される、統合後の三次元情報において最も手前に配置される被写体に対応付けられた処理対象要素画像群から順に前記画素記憶手段から読み出し、当該読み出した処理対象要素画像群について、被写体の大きさに対する再生像の大きさの比率が予め設定された任意の値となるように制御する処理、および、前記奥行き位置を示す値に従って奥行きを制御する処理を行って処理済要素画像群を生成する立体画像奥行き制御手段と、
前記立体画像奥行き制御手段により生成された前記処理済要素画像群を記憶する統合三次元情報記憶手段と、
前記統合三次元情報記憶手段に前記処理済要素画像群が割り当てられた位置を記憶する画素値割り当て済み位置記憶手段と、
前記統合三次元情報記憶手段に記憶された統合三次元情報を外部へ出力する出力手段と、を備え、
前記立体画像奥行き制御手段は、
二番目以降に統合の処理対象となる処理対象要素画像群については、前記画素値割り当て済み位置記憶手段を参照し、当該処理対象要素画像群が割り当てられるべき領域のうち、前記統合三次元情報記憶手段においてまだ画素値が割り当てられていない画素のみ、大きさの比率および奥行きを制御した画素値を前記統合三次元情報記憶手段の画素に割り当てることを特徴とする三次元情報統合装置。 Integral photography system acquires multiple 3D information that is an element image group consisting of multiple element images, performs size ratio and depth control for each of the acquired 3D information, and integrates them. A three-dimensional information integration device for generating one piece of three-dimensional information,
Based on an operation signal input from the outside, for each of a plurality of element image groups, a pixel corresponding to a subject area existing in a desired depth range and a pixel corresponding to another area are separated from each element image. Element image separation means;
Pixel storage means for storing each processing target element image group composed of pixels corresponding to a subject area existing in the desired depth range separated by the element image separation means;
By a value indicating the depth position in the integrated three-dimensional information specified for each of the subjects associated with each of the plurality of processing target element image groups stored in the pixel storage unit by the operation signal input from the outside Read from the pixel storage unit in order from the processing target element image group associated with the subject that is specified in the three-dimensional information after integration , and the size of the subject for the read processing target element image group. A processed element image group is generated by performing processing for controlling the ratio of the size of the reproduced image to the height to an arbitrary value set in advance and processing for controlling the depth according to the value indicating the depth position. Stereoscopic image depth control means;
An integrated three-dimensional information storage means for storing the processed element images generated by the stereoscopic image depth control means,
Pixel value assigned position storage means for storing the position where the processed element image group is assigned to the integrated three-dimensional information storage means;
Output means for outputting the integrated three-dimensional information stored in the integrated three-dimensional information storage means to the outside,
The stereoscopic image depth control means includes:
For the processing target element image group to be integrated after the second, refer to the pixel value assigned position storage means, and the integrated three-dimensional information storage among the areas to which the processing target element image group should be assigned. A three-dimensional information integration apparatus, wherein only a pixel to which no pixel value has been assigned yet is assigned to a pixel of the integrated three-dimensional information storage means, with a pixel value whose size ratio and depth are controlled.
前記処理対象要素画像群の光波を要素画像毎に分配する分配手段と、Distributing means for distributing the light wave of the processing target element image group for each element image;
この分配手段で分配された要素画像の光波を、第1の仮想的な開口群を通過して前記第1の仮想的な開口群と開口のピッチの異なる第2の仮想的な開口群へ伝搬する光波に変換する第1要素画像変換手段と、The light wave of the element image distributed by this distribution means passes through the first virtual aperture group and propagates to the second virtual aperture group having a pitch different from that of the first virtual aperture group. First element image conversion means for converting into a light wave to
この第1要素画像変換手段で変換されたそれぞれの要素画像の光波を前記分配された数だけ、前記第2の仮想的な開口群の入射面で加算する加算手段と、Adding means for adding the light waves of the respective element images converted by the first element image conversion means by the distributed number at the entrance surface of the second virtual aperture group;
この加算手段で加算された光波を、前記要素画像毎に再分配する再分配手段と、Redistribution means for redistributing the light waves added by the addition means for each element image;
この再分配手段で分配された要素画像の光波を、前記第2の仮想的な開口群を通過して結像するまでの距離だけ伝搬した光波に変換する第2要素画像変換手段と、A second element image conversion means for converting the light wave of the element image distributed by the redistribution means into a light wave propagated by a distance until it passes through the second virtual aperture group and forms an image;
この第2要素画像変換手段で変換された光波を、前記再分配された数だけ結合することで、前記処理済要素画像群を生成する結合手段と、を備え、A combining unit that generates the processed element image group by combining the light waves converted by the second element image converting unit by the redistributed number;
前記処理対象要素画像群について大きさの比率を制御する処理を、予め任意の値に設定された前記第1の仮想的な開口群と前記第2の仮想的な開口群とのピッチの比Φに応じて行うことを特徴とする請求項1に記載の三次元情報統合装置。The ratio Φ of the pitch between the first virtual aperture group and the second virtual aperture group, which is set to an arbitrary value in advance, is a process for controlling the ratio of the sizes of the processing target element image group. The three-dimensional information integration apparatus according to claim 1, wherein the three-dimensional information integration apparatus is performed according to
ことを特徴とする請求項1または請求項2に記載の三次元情報統合装置。 After completion of the ratio of the sizes of all the processing target element image groups in the stereoscopic image depth control means and the depth control processing, pixels are still stored in the integrated 3D information storage means based on the operation signal input from the outside. The three-dimensional information integration device according to claim 1 or 2 , further comprising pixel value assignment means for assigning a pixel value to a pixel to which no value is assigned.
外部から入力された操作信号に基づいて、複数の要素画像群についてそれぞれ、個々の要素画像から、所望の奥行き範囲に存在する被写体領域に対応する画素とそれ以外の領域に対応する画素を分離し、前記所望の奥行き範囲に存在する被写体領域に対応する画素で構成される処理対象要素画像群を画素記憶手段に記憶させる要素画像分離手段、
外部から入力された操作信号により前記画素記憶手段に記憶された複数の処理対象要素画像群のそれぞれに対応付けられた被写体のそれぞれについて指定された統合後の三次元情報における任意の奥行き位置を示す値により特定される、統合後の三次元情報において最も手前に配置される被写体に対応付けられた処理対象要素画像群から順に前記画素記憶手段から読み出し、当該読み出した処理対象要素画像群について、被写体の大きさに対する再生像の大きさの比率が予め設定された任意の値となるように制御する処理、および、前記奥行き位置を示す値に従って奥行きを制御する処理を行って生成した処理済要素画像群統合三次元情報記憶手段に記憶させるとともに、前記統合三次元情報記憶手段に前記処理済要素画像群が割り当てられた位置を画素値割り当て済み位置記憶手段に記憶させる立体画像奥行き制御手段、
前記統合三次元情報記憶手段に記憶された統合三次元情報を外部へ出力する出力手段、
として機能させることを特徴とする三次元情報統合プログラム。 Integral photography system acquires multiple 3D information that is an element image group consisting of multiple element images, performs size ratio and depth control for each of the acquired 3D information, and integrates them. Computer to generate a single 3D information
Based on an operation signal input from the outside, for each of a plurality of element image groups, a pixel corresponding to a subject area existing in a desired depth range and a pixel corresponding to another area are separated from each element image. Element image separation means for storing a processing target element image group composed of pixels corresponding to a subject area existing in the desired depth range in a pixel storage means,
Indicates an arbitrary depth position in the integrated three-dimensional information specified for each of the subjects associated with each of the plurality of processing target element image groups stored in the pixel storage unit by an operation signal input from the outside The processing target element image group associated with the subject arranged in the forefront in the integrated three-dimensional information identified by the value is read from the pixel storage unit in order, and the read processing target element image group is subject to the subject. A processed element image generated by performing processing for controlling the ratio of the size of the reproduced image to the size of the image to an arbitrary value set in advance, and processing for controlling the depth according to the value indicating the depth position And storing the processed element image group in the integrated three-dimensional information storage means. Position stereoscopic image depth control means for storing the pixel values assigned position storing means,
Output means for outputting the integrated three-dimensional information stored in the integrated three-dimensional information storage means to the outside;
A three-dimensional information integration program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008232664A JP4875680B2 (en) | 2008-09-10 | 2008-09-10 | 3D information integration apparatus and 3D information integration program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008232664A JP4875680B2 (en) | 2008-09-10 | 2008-09-10 | 3D information integration apparatus and 3D information integration program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010068251A JP2010068251A (en) | 2010-03-25 |
JP4875680B2 true JP4875680B2 (en) | 2012-02-15 |
Family
ID=42193436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008232664A Active JP4875680B2 (en) | 2008-09-10 | 2008-09-10 | 3D information integration apparatus and 3D information integration program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4875680B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011244218A (en) * | 2010-05-18 | 2011-12-01 | Sony Corp | Data transmission system |
JP2016001326A (en) * | 2010-06-16 | 2016-01-07 | 株式会社ニコン | Image display device |
JP5066244B2 (en) * | 2010-10-29 | 2012-11-07 | 株式会社東芝 | Video playback apparatus and video playback method |
JP6076082B2 (en) * | 2012-12-26 | 2017-02-08 | 日本放送協会 | Stereoscopic image correction apparatus and program thereof |
JP6076083B2 (en) * | 2012-12-26 | 2017-02-08 | 日本放送協会 | Stereoscopic image correction apparatus and program thereof |
JP6300346B2 (en) * | 2013-11-28 | 2018-03-28 | 日本放送協会 | IP stereoscopic image estimation apparatus and program thereof |
JP6300359B2 (en) * | 2014-05-26 | 2018-03-28 | 日本放送協会 | Stereoscopic image depth correction apparatus and program thereof |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002051358A (en) * | 2000-08-03 | 2002-02-15 | Nippon Hoso Kyokai <Nhk> | Image pickup device and depth-detecting device |
JP4184690B2 (en) * | 2002-03-28 | 2008-11-19 | 株式会社東芝 | Image forming method, image forming program, and image forming apparatus |
JP2003304562A (en) * | 2002-04-10 | 2003-10-24 | Victor Co Of Japan Ltd | Object encoding method, object encoder, and program for object encoding |
JP2005101797A (en) * | 2003-09-24 | 2005-04-14 | Victor Co Of Japan Ltd | Stereoscopic display system |
JP4676862B2 (en) * | 2005-10-20 | 2011-04-27 | 日本放送協会 | Stereoscopic image re-photographing device |
-
2008
- 2008-09-10 JP JP2008232664A patent/JP4875680B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010068251A (en) | 2010-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4875680B2 (en) | 3D information integration apparatus and 3D information integration program | |
KR101953686B1 (en) | Image processing apparatus and method for rendering subpixel | |
KR100730406B1 (en) | Three-dimensional display apparatus using intermediate elemental images | |
JP5751986B2 (en) | Image generation device | |
KR102240568B1 (en) | Method and apparatus for processing image | |
JP4065488B2 (en) | 3D image generation apparatus, 3D image generation method, and storage medium | |
CN102124749B (en) | Stereoscopic image display apparatus | |
JP5663857B2 (en) | Image display device and image display method | |
JP2013005259A (en) | Image processing apparatus, image processing method, and program | |
CN103460684A (en) | Image processing apparatus, imaging system, and image processing system | |
JP6406853B2 (en) | Method and apparatus for generating optical field images | |
JP4676862B2 (en) | Stereoscopic image re-photographing device | |
JP6585938B2 (en) | Stereoscopic image depth conversion apparatus and program thereof | |
JPH10500498A (en) | Spatial effective image generation method | |
JP5452801B2 (en) | Stereoscopic image generating apparatus and program thereof | |
JP6128748B2 (en) | Image processing apparatus and method | |
JP4829924B2 (en) | Stereoscopic image conversion apparatus and program thereof | |
JP2009168536A (en) | Three-dimensional shape measuring device and method, three-dimensional shape regenerating device and method, and program | |
JP4729011B2 (en) | Element image group conversion device, stereoscopic image display device, and element image group conversion program | |
JP4862004B2 (en) | Depth data generation apparatus, depth data generation method, and program thereof | |
JP6076083B2 (en) | Stereoscopic image correction apparatus and program thereof | |
KR100927234B1 (en) | Method, apparatus for creating depth information and computer readable record-medium on which program for executing method thereof | |
KR101567002B1 (en) | Computer graphics based stereo floting integral imaging creation system | |
JP5744642B2 (en) | Image processing apparatus, image processing method, and program. | |
JP2021002783A (en) | Depth map generation device and program thereof, and stereoscopic image generation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110901 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111101 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111125 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4875680 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |