JP5852465B2 - Spatial information interpolation apparatus and program thereof - Google Patents

Spatial information interpolation apparatus and program thereof Download PDF

Info

Publication number
JP5852465B2
JP5852465B2 JP2012030209A JP2012030209A JP5852465B2 JP 5852465 B2 JP5852465 B2 JP 5852465B2 JP 2012030209 A JP2012030209 A JP 2012030209A JP 2012030209 A JP2012030209 A JP 2012030209A JP 5852465 B2 JP5852465 B2 JP 5852465B2
Authority
JP
Japan
Prior art keywords
information
interpolation
imaging
image group
element image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012030209A
Other languages
Japanese (ja)
Other versions
JP2013168760A (en
Inventor
洗井 淳
淳 洗井
三浦 雅人
雅人 三浦
人誌 日浦
人誌 日浦
久幸 佐々木
久幸 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2012030209A priority Critical patent/JP5852465B2/en
Publication of JP2013168760A publication Critical patent/JP2013168760A/en
Application granted granted Critical
Publication of JP5852465B2 publication Critical patent/JP5852465B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、IP等の3次元映像について、レンズアレイや空間フィルタを通して被写体が存在する空間の情報を取得する技術に係り、特に、空間情報に欠落が生じた場合に、欠落した空間情報の補間を行う空間情報補間装置およびそのプログラムに関する。   The present invention relates to a technique for acquiring information on a space where a subject exists through a lens array or a spatial filter for a three-dimensional image such as an IP, and in particular, interpolation of the missing spatial information when the spatial information is missing. The present invention relates to a spatial information interpolation apparatus and a program thereof.

従来、レンズアレイや空間フィルタを通して、被写体が存在する空間の情報を取得する手法のうち、複数の微小な光学素子または複数の要素ピンホールが二次元状に配列された撮像光学要素アレイを用いて立体画像を撮像および表示する装置として、インテグラルフォトグラフィ(IP:Integral Photography)方式が知られている。   Conventionally, among techniques for acquiring information on a space where a subject exists through a lens array or a spatial filter, an imaging optical element array in which a plurality of minute optical elements or a plurality of element pinholes are arranged in a two-dimensional manner is used. An integral photography (IP) system is known as an apparatus for capturing and displaying a stereoscopic image.

IP方式に基づく通常の空間情報取得装置について図16および図17を参照して説明する。図16および図17は、鉛直方向下向きに見たときの装置の概念図である。まず、図16に示すように、一平面状に凸レンズを配列したレンズ群112と、撮像板113と、を空間情報取得装置110が備えている。なお、レンズ群112を構成するレンズは紙面に垂直な方向(レンズ群112の高さ方向)にも配列されているが、図16ではレンズ群112を水平方向の一列(一次元)で示している。また、レンズの個数は一例である。また、撮像板113は、板状で紙面に垂直な方向に広がりを有すると共に、紙面に沿った厚みを有しているが、図16ではレンズ群112の列に平行な直線で示している。   A normal spatial information acquisition apparatus based on the IP system will be described with reference to FIGS. 16 and 17. 16 and 17 are conceptual diagrams of the device when viewed downward in the vertical direction. First, as shown in FIG. 16, the spatial information acquisition device 110 includes a lens group 112 in which convex lenses are arranged in a single plane and an imaging plate 113. The lenses constituting the lens group 112 are also arranged in the direction perpendicular to the paper surface (the height direction of the lens group 112), but in FIG. 16, the lens group 112 is shown in a horizontal row (one-dimensional). Yes. The number of lenses is an example. Further, the imaging plate 113 is plate-shaped and has a spread in a direction perpendicular to the paper surface, and has a thickness along the paper surface, but is shown by a straight line parallel to the row of lens groups 112 in FIG.

この空間情報取得装置110では、矢印で示す撮影方向114からレンズ群112を通して被写体111を撮影する。撮像板113には、レンズ群112を構成する凸レンズと同じ数だけ被写体111の像、例えば像115が撮影される。個々の凸レンズで取得される像を要素画像(撮影要素画像)、複数の凸レンズで取得される像の集まりを要素画像群(撮影要素画像群)という。図16では、被写体がレンズ群112によって撮像板113上に結像する位置に被写体の像をそれぞれ模式的に示す。撮像板113上に結像する被写体の像を構成する画素(要素画素)には、当該画素の位置に応じて輝度等の画素情報が記録される。なお、個々の凸レンズで取得される撮影要素画像の映像信号が集積され、IP方式で提示されると、被写体111に対応した立体像を再構築することができる。   In this spatial information acquisition device 110, the subject 111 is photographed through the lens group 112 from the photographing direction 114 indicated by the arrow. On the imaging plate 113, the same number of images of the subject 111, for example, the image 115, are taken as many as the convex lenses constituting the lens group 112. An image acquired by each convex lens is referred to as an element image (imaging element image), and a collection of images acquired by a plurality of convex lenses is referred to as an element image group (imaging element image group). In FIG. 16, an image of the subject is schematically shown at a position where the subject forms an image on the imaging plate 113 by the lens group 112. Pixel information such as luminance is recorded in pixels (element pixels) constituting an image of a subject formed on the imaging plate 113 in accordance with the position of the pixel. Note that when the video signals of the photographing element images acquired by the individual convex lenses are integrated and presented by the IP method, a stereoscopic image corresponding to the subject 111 can be reconstructed.

図16に示す空間情報取得装置110で取得された空間情報を表示する空間情報表示装置120の一例を図17に示す。ここで、空間情報は、被写体が存在する空間が画像として表示されたときの当該画像の輝度等の画素情報を示す。図17に示すように、一平面状に凸レンズを配列したレンズ群122と、表示素子123と、を空間情報表示装置120が備えている。なお、レンズ群122を図17では水平方向の一列(一次元)で示している。また、表示素子123は、紙面に垂直な方向に広がった表示面を有すると共に、紙面に沿った厚みを有しているが、図17ではレンズ群122の列に平行な直線で示している。   An example of the spatial information display device 120 that displays the spatial information acquired by the spatial information acquisition device 110 shown in FIG. 16 is shown in FIG. Here, the spatial information indicates pixel information such as luminance of the image when the space where the subject exists is displayed as an image. As shown in FIG. 17, the spatial information display device 120 includes a lens group 122 in which convex lenses are arranged in a single plane and a display element 123. In FIG. 17, the lens group 122 is shown in a horizontal row (one-dimensional). Further, the display element 123 has a display surface extending in a direction perpendicular to the paper surface and has a thickness along the paper surface. However, in FIG. 17, the display element 123 is indicated by a straight line parallel to the row of lens groups 122.

表示素子123には、図16の空間情報取得装置110の撮像板113により撮影された像115に対応する画像125を表示する。この結果、図17に示すように、観察者Hは、被写体が存在した場所と同様な位置に生成された立体像を観察することができる。ただし、図16に示すように、矢印で示す撮影方向114から見た場合は、被写体111の円柱が角柱に対して手前に存在するが、図17に示すように、被写体111に対応する立体像121では、矢印で示す観察方向124から見て、角柱が円柱の手前に生成される。したがって、この場合には、被写体と比較して奥行きが反転した逆視像が生成されている。逆視像では、被写体において実際は凸状である箇所が、凹状のように見えてしまう。そのため、提示される立体像の凹凸が正常になるように、例えば、空間情報取得装置110で取得した像の奥行きを予め反転しておいてから、空間情報表示装置120の表示素子123に表示することも一般的に行われている。   The display element 123 displays an image 125 corresponding to the image 115 photographed by the imaging plate 113 of the spatial information acquisition device 110 in FIG. As a result, as shown in FIG. 17, the observer H can observe a three-dimensional image generated at the same position as the place where the subject exists. However, as shown in FIG. 16, when viewed from the shooting direction 114 indicated by the arrow, the cylinder of the subject 111 exists in front of the prism, but as shown in FIG. 17, a stereoscopic image corresponding to the subject 111 is obtained. In 121, a prism is generated in front of the cylinder as viewed from the observation direction 124 indicated by the arrow. Therefore, in this case, a reverse view image in which the depth is inverted compared to the subject is generated. In a reverse-view image, a portion that is actually convex in the subject appears to be concave. Therefore, for example, the depth of the image acquired by the spatial information acquisition device 110 is inverted in advance so that the unevenness of the presented stereoscopic image becomes normal, and then displayed on the display element 123 of the spatial information display device 120. It is also generally done.

図16および図17では、光学要素アレイとして微小な光学素子アレイ(レンズ群)を用いて、被写体が存在する空間の情報を取得および表示する動作を説明したが、光学要素アレイとして微小なピンホールアレイを用いてもよいし、ピンホールアレイを有する空間フィルタを使用してもよい。   In FIGS. 16 and 17, the operation of acquiring and displaying information on the space in which the subject exists using a small optical element array (lens group) as the optical element array has been described. However, a small pinhole is used as the optical element array. An array may be used, or a spatial filter having a pinhole array may be used.

IP方式に基づく通常の空間情報取得装置110において、被写体の大きさと、再生される立体像の大きさとの対応関係は、例えば装置に依存して決まる。ここで、図16に示すように、被写体111の角柱の大きさをxc、レンズ群112から被写体111の角柱までの距離をzc、レンズ群112から像115が撮影される面までの距離をdc、レンズ群112を構成する凸レンズピッチをpc、レンズ群112を構成する凸レンズにより生成される被写体の像の大きさをkcとする。 In a normal spatial information acquisition device 110 based on the IP method, the correspondence between the size of a subject and the size of a stereoscopic image to be reproduced is determined depending on the device, for example. Here, as shown in FIG. 16, the size of the prism 111 of the subject 111 is x c , the distance from the lens group 112 to the prism of the subject 111 is z c , and the distance from the lens group 112 to the surface on which the image 115 is taken. D c , the pitch of the convex lens constituting the lens group 112 is p c , and the size of the subject image generated by the convex lens constituting the lens group 112 is k c .

図16において、xc(+)は、x方向(ここでは高さ方向、つまり紙面に垂直な方向)の長さであって、被写体の角柱の底面を基準にした正の値を示す。zc(−)は、z方向(撮影方向および観察方向、つまり図16において横方向)の長さであって、レンズ群112の配置面を基準にした負の値を示す。dc(+)はz方向の長さであってレンズ群112の配置面を基準にした正の値を示す。 In FIG. 16, x c (+) is the length in the x direction (here, the height direction, that is, the direction perpendicular to the paper surface), and indicates a positive value based on the bottom surface of the prism of the subject. z c (−) is the length in the z direction (the shooting direction and the observation direction, that is, the horizontal direction in FIG. 16), and indicates a negative value based on the arrangement surface of the lens group 112. d c (+) is the length in the z direction and indicates a positive value based on the arrangement surface of the lens group 112.

また、図17に示すように、立体像121の角柱の大きさをxr、レンズ群122から立体像121の角柱までの距離をzr、レンズ群122から画像125が表示される面までの距離をdr、レンズ群122を構成する凸レンズピッチをpr、表示素子123に表示される個々の像の大きさをkrとする。 As shown in FIG. 17, the size of the prism of the stereoscopic image 121 is x r , the distance from the lens group 122 to the prism of the stereoscopic image 121 is z r , and the distance from the lens group 122 to the surface on which the image 125 is displayed. distance d r, the convex lens pitch p r of the lens group 122, the size of each image displayed on the display device 123 and k r.

図17において、xr(+)は、x方向(紙面に垂直な方向)の長さであって、被写体の像である角柱の底面を基準にした正の値を示す。zr(+)は、z方向(水平方向、つまり図17において横方向)の長さであって、レンズ群122の配置面を基準にした正の値を示す。dc(−)はz方向の長さであってレンズ群122の配置面を基準にした負の値を示す。 In FIG. 17, x r (+) is a length in the x direction (a direction perpendicular to the paper surface), and indicates a positive value based on the bottom surface of the prism that is the image of the subject. z r (+) is the length in the z direction (horizontal direction, that is, the horizontal direction in FIG. 17), and indicates a positive value based on the arrangement surface of the lens group 122. d c (−) is the length in the z direction and represents a negative value based on the arrangement surface of the lens group 122.

なお、図16に示す各パラメータの添え字cは、被写体から空間情報を取得する側に関係することを表し、図17に示す各パラメータの添え字rは、空間情報の提示側(像の再構築側)に関係することを表す。以下、本明細書中では、正負の符号(+),(−)を省略して各パラメータを表記する。   The subscript c of each parameter shown in FIG. 16 indicates that it relates to the side where the spatial information is acquired from the subject, and the subscript r of each parameter shown in FIG. Represents the relationship to the construction side). Hereinafter, in this specification, each parameter is described by omitting the positive and negative signs (+) and (−).

この場合、図16に示すxcと図17に示すxrとの関係は、非特許文献1により式(1)で表わされる。 In this case, the relationship between x c shown in FIG. 16 and x r shown in FIG. 17 is expressed by Equation (1) by Non-Patent Document 1.

Figure 0005852465
Figure 0005852465

式(1)中のパラメータαは、次の式(2a)で表されるように、空間情報の取得側の凸レンズピッチをpcに対する提示側の凸レンズピッチprの比率(拡大率または縮小率)を表す。式(1)中のパラメータγは、次の式(2c)で表されるように、空間情報の取得側の像の大きさkcに対する提示側の画像の大きさkrの比率を表す。ここで、次の式(2b)により、空間情報の取得側の距離dc(+)に対する提示側の距離dr(−)の符号を含む比率としてパラメータβを定義する。 The parameter α in the formula (1), as represented by the following formula (2a), the ratio of the convex lens pitch p r presented side convex lens pitch of the acquisition side of the spatial information for the p c (enlargement ratio or reduction ratio ). The parameter γ in the equation (1) represents the ratio of the image size k r on the presentation side to the image size k c on the spatial information acquisition side, as represented by the following equation (2c). Here, the parameter β is defined as a ratio including the sign of the distance d r (−) on the presentation side with respect to the distance d c (+) on the spatial information acquisition side by the following equation (2b).

Figure 0005852465
Figure 0005852465

また、図16に示すzcと図17に示すzrとの関係は、非特許文献1により式(3)で表わされる。なお、式(3)の右辺は、空間情報の取得側に関係するパラメータ(zc,dc)と、比率を示すパラメータα,β,γとで表され、式(3)の左辺は空間情報の提示側のパラメータzrのみで表されている。 Further, the relationship between z c shown in FIG. 16 and z r shown in FIG. 17 is expressed by Equation (3) by Non-Patent Document 1. The right side of Expression (3) is represented by parameters (z c , d c ) related to the space information acquisition side and parameters α, β, γ indicating the ratio, and the left side of Expression (3) is the space. It is represented only by the parameter z r on the information presentation side.

Figure 0005852465
Figure 0005852465

J. Opt. Soc. Am. A, 2004, vol.21, p.951-958J. Opt. Soc. Am. A, 2004, vol.21, p.951-958

インテグラルフォトグラフィ方式において、高い空間分解能で空間情報を取得するためには、空間情報取得装置110の撮像板113(図16参照)として、多画素高精細な撮像素子が必要となる。そこで、例えば図18に示す空間情報取得装置130のように、複数の撮像素子131を用いて撮像素子アレイ132を構成し、撮像素子アレイ132とレンズ群112とにより、空間情報を取得することが考えられる。なお、撮像素子アレイ132を構成する撮像素子は紙面に垂直な方向にも配列されているが、図18では、撮像素子アレイ132を、一画素の列とした撮像素子131a,131b,131cで示している。この場合、撮像素子131aで取得される撮影要素画像群の映像信号、撮像素子131bで取得される撮影要素画像群の映像信号、撮像素子131cで取得される撮影要素画像群の映像信号が集積され、IP方式で提示されると、被写体111に対応した立体像を再構築することができる。   In the integral photography method, in order to acquire spatial information with high spatial resolution, a multi-pixel high-definition image sensor is required as the imaging plate 113 (see FIG. 16) of the spatial information acquisition device 110. Therefore, for example, like the spatial information acquisition device 130 illustrated in FIG. 18, the imaging element array 132 is configured using a plurality of imaging elements 131, and the spatial information can be acquired by the imaging element array 132 and the lens group 112. Conceivable. In addition, although the image pick-up element which comprises the image pick-up element array 132 is also arranged in the direction perpendicular | vertical to a paper surface, in FIG. 18, the image pick-up element array 132 is shown with the image pick-up element 131a, 131b, 131c which made the column of one pixel. ing. In this case, the video signal of the imaging element image group acquired by the imaging element 131a, the video signal of the imaging element image group acquired by the imaging element 131b, and the video signal of the imaging element image group acquired by the imaging element 131c are integrated. When presented in the IP system, a stereoscopic image corresponding to the subject 111 can be reconstructed.

図16および図17を参照して説明したように、レンズ群、撮像素子および表示素子を用いることで、被写体が存在する空間の情報の取得および表示が可能となる。そして、図18を参照して説明したように、複数の撮像素子から構成される撮像素子アレイを用いることで、被写体が存在する空間の情報を、高い空間分解能で取得することが可能である。   As described with reference to FIGS. 16 and 17, by using the lens group, the image sensor, and the display element, it is possible to acquire and display information on the space where the subject exists. Then, as described with reference to FIG. 18, it is possible to acquire information on a space in which a subject exists with high spatial resolution by using an imaging element array including a plurality of imaging elements.

しかしながら、図18に示すように、撮像素子アレイ132を用いる場合、例えば隣接する撮像素子131aと撮像素子131bとの画素間に、間隙133が生じる。したがって、このような間隙133が生じている撮像素子アレイ132を用いて、被写体が存在する空間の情報を取得すると、取得した空間情報に欠落が生じてしまう。つまり、もしも間隙133が生じていなければ本来は取得できたはずの空間情報を取得することができなくなってしまう。   However, as shown in FIG. 18, when the image sensor array 132 is used, for example, a gap 133 is generated between the pixels of the adjacent image sensor 131a and the image sensor 131b. Therefore, when information on a space where a subject exists is acquired using the image sensor array 132 in which such a gap 133 is generated, the acquired space information is lost. That is, if the gap 133 is not generated, it is impossible to acquire spatial information that should have been originally acquired.

本発明は、以上のような問題点に鑑みてなされたものであり、撮像素子アレイで取得された空間情報の欠落を補間することのできる空間情報補間装置及びそのプログラムを提供することを課題とする。   The present invention has been made in view of the above problems, and it is an object of the present invention to provide a spatial information interpolating apparatus capable of interpolating a lack of spatial information acquired by an image sensor array and a program thereof. To do.

本発明は、前記課題を解決するために創案されたものであり、まず、請求項1に記載の空間情報補間装置は、複数の要素光学素子または複数の要素ピンホールが二次元状に配列された撮像光学要素アレイと、複数の撮像素子から構成される撮像素子アレイと、を用いて撮影により被写体が存在する空間の空間情報として得られる撮影要素画像群の画素情報に欠落している空間情報を補間する空間情報補間装置であって、記憶手段と、撮像光学要素アレイ配置情報取得手段と、撮像素子アレイ配置情報取得手段と、統合手段と、補間要素画像群生成手段とを備えることとした。   The present invention has been made to solve the above-mentioned problems. First, in the spatial information interpolating device according to claim 1, a plurality of element optical elements or a plurality of element pinholes are arranged two-dimensionally. Spatial information missing in the pixel information of the imaging element image group obtained as spatial information of the space where the subject exists by imaging using the imaging optical element array and the imaging element array composed of a plurality of imaging elements Information interpolating apparatus for interpolating the image, and comprising storage means, imaging optical element array arrangement information acquisition means, imaging element array arrangement information acquisition means, integration means, and interpolation element image group generation means .

かかる構成によれば、空間情報補間装置は、撮像光学要素アレイ配置情報取得手段によって、前記撮像光学要素アレイを構成する各光学要素の配置情報を外部から取得して前記記憶手段に格納する。そして、空間情報補間装置は、撮像素子アレイ配置情報取得手段によって、前記撮像素子アレイを構成する各撮像素子の配置情報を外部から取得して前記記憶手段に格納する。そして、空間情報補間装置は、統合手段によって、前記撮像素子アレイを構成する各撮像素子において前記被写体を撮影した映像信号として取得される撮影要素画像群の画素情報を各撮像素子に対応してそれぞれ受け付け、前記受け付けたそれぞれの撮影要素画像群の画素情報を予め取得された前記撮像素子の配置情報で特定される位置に合わせて並べて前記撮像素子間の間隙を含めて前記各撮影要素画像群の画素情報を統合して統合撮影要素画像群の画素情報を生成する。ここで、撮像素子アレイにおいて隣接する撮像素子間に間隙が生じている場合には、それが反映され、統合撮影要素画像群に欠落が生じる。そして、空間情報補間装置は、補間要素画像群生成手段によって、前記撮像素子の配置情報に基づいて並べた前記統合撮影要素画像群と、予め取得された前記光学要素の配置情報で特定される位置に仮想的な光学要素が二次元状に配列されて構成される第1および第2仮想光学要素アレイと、仮想的な画素が配列された仮想撮像素子と、を仮想空間上にそれぞれ離間させて配置し、前記仮想空間上における幾何光学的演算により前記統合撮影要素画像群の画素情報に対応付けた補間要素画像群の画素情報を前記仮想撮像素子上に生成する。ここで、補間要素画像群生成手段が利用する統合撮影要素画像群には、隣接する撮像素子間の間隙の位置が既に反映されているので、補間要素画像群生成手段は、隣接する撮像素子間の間隙の位置が反映された補間要素画像群の画素情報を生成することができる。そして、この補間要素画像群生成手段は、統合前の前記撮影要素画像群において空間情報が欠落していた画素については、前記補間要素画像群において前記撮影要素画像群の画素情報が正しく対応付けられている画素を用いて補間処理を行う。したがって、空間情報補間装置は、撮像素子アレイで取得された空間情報の欠落を補間することができる。   According to such a configuration, the spatial information interpolating apparatus acquires the arrangement information of each optical element constituting the imaging optical element array from the outside by the imaging optical element array arrangement information acquisition unit and stores it in the storage unit. Then, the spatial information interpolating apparatus acquires the arrangement information of each imaging element constituting the imaging element array from the outside by the imaging element array arrangement information acquisition means and stores it in the storage means. Then, the spatial information interpolating device corresponds to each image sensor with pixel information of the imaging element image group acquired as a video signal obtained by imaging the subject in each image sensor constituting the image sensor array by the integration unit. Receiving, arranging the pixel information of each received imaging element image group in accordance with the position specified by the arrangement information of the imaging element acquired in advance, and including the gap between the imaging elements. Pixel information of the integrated photographing element image group is generated by integrating the pixel information. Here, when a gap is generated between adjacent image sensors in the image sensor array, this is reflected, and a lack occurs in the integrated photographing element image group. Then, the spatial information interpolating apparatus is a position specified by the interpolated element image group generation means based on the integrated photographing element image group arranged based on the arrangement information of the image sensor and the arrangement information of the optical element acquired in advance. First and second virtual optical element arrays configured by arranging virtual optical elements in a two-dimensional manner and a virtual imaging device having virtual pixels arranged are spaced apart from each other in a virtual space. The pixel information of the interpolation element image group that is arranged and associated with the pixel information of the integrated photographing element image group is generated on the virtual imaging element by geometrical optical calculation in the virtual space. Here, since the integrated photographing element image group used by the interpolation element image group generation means already reflects the position of the gap between the adjacent image pickup elements, the interpolation element image group generation means is used between the adjacent image pickup elements. The pixel information of the interpolated element image group reflecting the position of the gap can be generated. Then, the interpolation element image group generation means correctly associates the pixel information of the imaging element image group in the interpolation element image group with respect to the pixels for which spatial information is missing in the imaging element image group before integration. Interpolation processing is performed using the current pixel. Therefore, the spatial information interpolation apparatus can interpolate the lack of spatial information acquired by the image sensor array.

また、請求項2に記載の空間情報補間装置は、請求項1に記載の空間情報補間装置において、前記統合手段が、統合メモリ確保手段と、空間情報割当手段と、仮輝度情報及び識別符号割当手段と、を備えることとした。   The spatial information interpolating apparatus according to claim 2 is the spatial information interpolating apparatus according to claim 1, wherein the integrating means includes integrated memory securing means, spatial information allocating means, provisional luminance information, and identification code allocation. Means.

かかる構成によれば、空間情報補間装置は、統合メモリ確保手段によって、前記撮像素子アレイを構成する各撮像素子で取得される撮影要素画像群の画素情報が展開可能な記憶領域を前記記憶手段において統合メモリとして確保し、前記撮像素子アレイを構成する撮像素子の配置情報に含まれる、隣接する前記撮像素子間の間隙の距離情報にしたがって、前記間隙に対応して要素画像群の画素情報が展開可能な記憶領域を前記統合メモリに含める。そして、空間情報補間装置は、空間情報割当手段によって、前記撮像素子アレイを構成する各撮像素子で取得される撮影要素画像群の画素に対応した画素情報を空間情報として前記統合メモリに割り当てて書き込む。そして、空間情報補間装置は、仮輝度情報及び識別符号割当手段によって、前記統合メモリにおいて前記撮影要素画像群の画素に対応した画素情報が割り当てられていないメモリ領域に、所定の輝度情報を仮の画素情報として割り当てて書き込むと共に、当該画素情報が仮のものであることを識別するための識別符号を割り当てる。そして、空間情報補間装置は、前記補間要素画像群生成手段が、前記統合メモリの情報を参照し、前記幾何光学的演算により検出された統合撮影要素画像群の画素に前記識別符号が割り当てられている場合に、当該画素は統合前に空間情報が欠落していた画素であるものとして前記補間処理を行う。したがって、空間情報補間装置は、補間要素画像群生成手段が、統合撮影要素画像群の画素を検出するための演算処理において、統合メモリにおいて空間情報として割り当てられた画素と割り当てられていない画素とを同様に検出しつつ、識別符号によって空間情報が欠落していた画素については、統合メモリに割り当てられている仮輝度値を用いずに、補間処理を行うことが可能となる。   According to such a configuration, the spatial information interpolating device has a storage area in which the pixel information of the imaging element image group acquired by each imaging element constituting the imaging element array can be expanded in the storage means by the integrated memory securing unit. The pixel information of the element image group is expanded corresponding to the gap according to the distance information of the gap between the adjacent image pickup elements, which is secured as an integrated memory and included in the arrangement information of the image pickup elements constituting the image pickup element array. Possible storage areas are included in the integrated memory. Then, the spatial information interpolating apparatus allocates and writes, as spatial information, the pixel information corresponding to the pixels of the imaging element image group acquired by each imaging element constituting the imaging element array to the integrated memory by the spatial information allocation unit. . Then, the spatial information interpolation device temporarily stores predetermined luminance information in a memory area to which pixel information corresponding to the pixels of the imaging element image group is not allocated in the integrated memory by the temporary luminance information and identification code assigning unit. While assigning and writing as pixel information, an identification code for identifying that the pixel information is provisional is assigned. In the spatial information interpolating apparatus, the interpolation element image group generation means refers to the information in the integrated memory, and the identification code is assigned to the pixels of the integrated photographing element image group detected by the geometric optical calculation. If so, the interpolation processing is performed assuming that the pixel is a pixel for which spatial information is missing before integration. Therefore, in the spatial information interpolating apparatus, the interpolation element image group generation means calculates the pixels allocated as spatial information and the unallocated pixels in the integrated memory in the arithmetic processing for detecting the pixels of the integrated photographing element image group. Similarly, it is possible to perform interpolation processing for pixels for which spatial information is missing due to the identification code without using the temporary luminance value assigned to the integrated memory.

また、請求項3に記載の空間情報補間装置は、請求項2に記載の空間情報補間装置において、前記補間要素画像群生成手段が、補間要素画像メモリ確保手段と、対応画素検出及び割当手段と、補間処理手段と、を備えることとした。   The spatial information interpolation apparatus according to claim 3 is the spatial information interpolation apparatus according to claim 2, wherein the interpolation element image group generation means includes an interpolation element image memory securing means, a corresponding pixel detection and allocation means, And interpolation processing means.

かかる構成によれば、空間情報補間装置は、補間要素画像メモリ確保手段によって、前記統合メモリと同じ大きさの記憶領域であって、前記仮想撮像素子上の画素の画素情報を記憶する記憶領域を前記記憶手段において補間要素画像メモリとして確保する。そして、空間情報補間装置は、対応画素検出及び割当手段によって、前記補間要素画像メモリの所定位置に画素情報を割り当てられる前記仮想撮像素子上の任意の画素に対応して、前記幾何光学的演算により検出した前記統合撮影要素画像群の画素について前記統合メモリ上の位置を検出し、当該位置に記憶されている画素情報を統合撮影要素画像群の画素情報として前記補間要素画像メモリに割り当てて書き込むと共に、前記統合メモリ上で検出した位置に前記識別符号が記憶されている場合、当該識別符号を前記補間要素画像メモリの前記所定位置に割り当てる。そして、空間情報補間装置は、補間処理手段によって、前記統合メモリに記憶された前記統合撮影要素画像群の画素情報が前記補間要素画像メモリに書き込まれた後に当該補間要素画像メモリを参照して、前記識別符号が割り当てられている画素について前記補間処理を行う。   According to this configuration, the spatial information interpolating device has a storage area having the same size as that of the integrated memory, and a storage area for storing pixel information of the pixels on the virtual imaging device by the interpolation element image memory securing unit. The storage means secures an interpolation element image memory. Then, the spatial information interpolating device corresponds to an arbitrary pixel on the virtual image sensor to which pixel information is allocated to a predetermined position of the interpolation element image memory by the corresponding pixel detection and allocation unit, and performs geometric optical calculation. For the detected pixels of the integrated photographing element image group, the position on the integrated memory is detected, and the pixel information stored at the position is assigned and written to the interpolation element image memory as pixel information of the integrated photographing element image group. When the identification code is stored at the position detected on the integrated memory, the identification code is assigned to the predetermined position in the interpolation element image memory. The spatial information interpolating apparatus refers to the interpolation element image memory after the pixel information of the integrated photographing element image group stored in the integrated memory is written into the interpolation element image memory by the interpolation processing unit, The interpolation processing is performed on the pixels to which the identification code is assigned.

また、請求項4に記載の空間情報補間装置は、請求項2または請求項3に記載の空間情報補間装置において、前記仮輝度情報及び識別符号割当手段が、前記統合メモリにおいて前記空間情報割当手段によって前記画素情報が割り当てられていないメモリ領域に、前記仮の画素情報および前記識別符号を示す1つの情報として、前記撮像素子で取得される撮影要素画像群の画素の輝度値の中で予め定められた最低輝度値または最高輝度値を割り当てることとした。   The spatial information interpolating device according to claim 4 is the spatial information interpolating device according to claim 2 or 3, wherein the provisional luminance information and the identification code allocating means are the spatial information allocating means in the integrated memory. As a piece of information indicating the provisional pixel information and the identification code in a memory area to which the pixel information has not been assigned, the luminance values of the pixels of the imaging element image group acquired by the imaging element are determined in advance. The assigned minimum luminance value or maximum luminance value was assigned.

かかる構成によれば、空間情報補間装置は、仮の画素情報と識別符号とを別々の情報として扱う場合に比べて、必要な記憶容量を低減することができる。   According to such a configuration, the spatial information interpolating device can reduce the necessary storage capacity as compared with the case where the temporary pixel information and the identification code are handled as separate information.

また、請求項5に記載の空間情報補間装置は、請求項1から請求項4のいずれか一項に記載の空間情報補間装置において、前記補間要素画像群生成手段が、奥行き補正手段をさらに備えることとした。   The spatial information interpolation apparatus according to claim 5 is the spatial information interpolation apparatus according to any one of claims 1 to 4, wherein the interpolation element image group generation unit further includes a depth correction unit. It was decided.

かかる構成によれば、空間情報補間装置は、奥行き補正手段によって、統合前の前記撮影要素画像群において空間情報が欠落していた画素に対応して前記補間要素画像群において前記補間処理を実行した後に、前記仮想撮像素子上に生成された補間要素画像群の空間情報を提示した場合の立体像の奥行きが、前記被写体の奥行きと等しくなるように前記補間要素画像群の空間情報を補正する。したがって、空間情報を提示する際に、被写体と同様の奥行きを再現した自然な立体像を提示することができる。   According to such a configuration, the spatial information interpolation device performs the interpolation processing in the interpolation element image group corresponding to the pixels in which spatial information is missing in the imaging element image group before integration by the depth correction unit. Later, the spatial information of the interpolation element image group is corrected so that the depth of the stereoscopic image when the spatial information of the interpolation element image group generated on the virtual image sensor is presented is equal to the depth of the subject. Therefore, when presenting spatial information, it is possible to present a natural stereoscopic image that reproduces the same depth as the subject.

また、請求項6に記載の空間情報補間プログラムは、複数の要素光学素子または複数の要素ピンホールが二次元状に配列された撮像光学要素アレイと、複数の撮像素子から構成される撮像素子アレイと、を用いて撮影により被写体が存在する空間の空間情報として得られる撮影要素画像群の画素情報に欠落している空間情報を補間するために、記憶手段を備えたコンピュータを、撮像光学要素アレイ配置情報取得手段、撮像素子アレイ配置情報取得手段、統合手段、補間要素画像群生成手段、として機能させるための空間情報補間プログラムであることとした。   In addition, the spatial information interpolation program according to claim 6 is an imaging element array including an imaging optical element array in which a plurality of element optical elements or a plurality of element pinholes are two-dimensionally arranged, and a plurality of imaging elements. In order to interpolate the missing spatial information in the pixel information of the imaging element image group obtained as the spatial information of the space where the subject exists by imaging using an imaging optical element array The spatial information interpolation program is to function as an arrangement information acquisition unit, an image sensor array arrangement information acquisition unit, an integration unit, and an interpolation element image group generation unit.

かかる構成によれば、空間情報補間プログラムは、撮像光学要素アレイ配置情報取得手段によって、前記撮像光学要素アレイを構成する各光学要素の配置情報を外部から取得して前記記憶手段に格納する。そして、空間情報補間プログラムは、撮像素子アレイ配置情報取得手段によって、前記撮像素子アレイを構成する各撮像素子の配置情報を外部から取得して前記記憶手段に格納する。そして、空間情報補間プログラムは、統合手段によって、前記撮像素子アレイを構成する各撮像素子において前記被写体を撮影した映像信号として取得される撮影要素画像群の画素情報を各撮像素子に対応してそれぞれ受け付け、前記受け付けたそれぞれの撮影要素画像群の画素情報を予め取得された前記撮像素子の配置情報で特定される位置に合わせて並べて前記撮像素子間の間隙を含めて前記各撮影要素画像群の画素情報を統合して統合撮影要素画像群の画素情報を生成する。そして、空間情報補間プログラムは、補間要素画像群生成手段によって、前記撮像素子の配置情報に基づいて並べた前記統合撮影要素画像群と、予め取得された前記光学要素の配置情報で特定される位置に仮想的な光学要素が二次元状に配列されて構成される第1および第2仮想光学要素アレイと、仮想的な画素が配列された仮想撮像素子と、を仮想空間上にそれぞれ離間させて配置し、前記仮想空間上における幾何光学的演算により前記統合撮影要素画像群の画素情報に対応付けた補間要素画像群の画素情報を前記仮想撮像素子上に生成する。この補間要素画像群生成手段は、統合前の前記撮影要素画像群において空間情報が欠落していた画素については、前記補間要素画像群において前記撮影要素画像群の画素情報が正しく対応付けられている画素を用いて補間処理を行う。   According to this configuration, the spatial information interpolation program acquires the arrangement information of each optical element constituting the imaging optical element array from the outside by the imaging optical element array arrangement information acquisition unit, and stores it in the storage unit. Then, the spatial information interpolation program acquires from the outside the arrangement information of each imaging element constituting the imaging element array by the imaging element array arrangement information acquisition means, and stores it in the storage means. Then, the spatial information interpolation program corresponds to each image sensor with pixel information of a photographing element image group acquired as a video signal obtained by photographing the subject in each image sensor constituting the image sensor array by the integration unit. Receiving, arranging the pixel information of each received imaging element image group in accordance with the position specified by the arrangement information of the imaging element acquired in advance, and including the gap between the imaging elements. Pixel information of the integrated photographing element image group is generated by integrating the pixel information. Then, the spatial information interpolation program is a position specified by the interpolated element image group generation means based on the integrated photographing element image group arranged based on the arrangement information of the image sensor and the arrangement information of the optical element acquired in advance. First and second virtual optical element arrays configured by arranging virtual optical elements in a two-dimensional manner and a virtual imaging device having virtual pixels arranged are spaced apart from each other in a virtual space. The pixel information of the interpolation element image group that is arranged and associated with the pixel information of the integrated photographing element image group is generated on the virtual imaging element by geometrical optical calculation in the virtual space. The interpolation element image group generation means correctly associates pixel information of the imaging element image group in the interpolation element image group with respect to pixels in which spatial information is missing in the imaging element image group before integration. Interpolation processing is performed using pixels.

本発明は、以下に示す効果を奏するものである。
請求項1に記載の発明によれば、空間情報補間装置は、インテグラルフォトグラフィ方式において複数の撮像素子により空間情報を取得する際に、隣接する撮像素子間の間隙により生じる空間情報の欠落を補間した状態で補間要素画像群を生成することができる。
The present invention has the following effects.
According to the first aspect of the present invention, when the spatial information interpolation apparatus acquires spatial information by a plurality of image sensors in the integral photography system, the spatial information missing is caused by a gap between adjacent image sensors. An interpolated element image group can be generated in an interpolated state.

請求項2に記載の発明によれば、空間情報補間装置は、撮像素子で取得される撮影要素画像群の画素と、空間情報が欠落していた画素と、を区別して統合メモリに割り当てて書き込むので、補間すべき画素を容易に検出することができる。
請求項3に記載の発明によれば、空間情報補間装置は、統合メモリの情報を参照することで、空間情報が欠落していた画素を容易に検出して補間処理を行うことができる。
According to the second aspect of the invention, the spatial information interpolating device distinguishes between the pixels of the photographing element image group acquired by the image sensor and the pixels in which the spatial information is missing, assigns them to the integrated memory, and writes them. Therefore, the pixel to be interpolated can be easily detected.
According to the third aspect of the present invention, the spatial information interpolation apparatus can easily detect the pixel lacking the spatial information and perform the interpolation process by referring to the information in the integrated memory.

請求項4に記載の発明によれば、空間情報補間装置は、仮の画素情報と識別符号とを1つの情報として統合メモリに割り当てるので、別々の情報として扱う場合に比べて、必要な記憶容量を低減することができる。   According to the invention described in claim 4, since the spatial information interpolating device allocates the temporary pixel information and the identification code to the integrated memory as one piece of information, the required storage capacity is compared with the case where the information is handled as separate information. Can be reduced.

請求項5に記載の発明によれば、空間情報補間装置は、被写体の奥行きと等しくなるように補間要素画像群の空間情報を補正するので、空間情報を提示する際に、被写体と同様の奥行きを再現した自然な立体像を提示することができる。   According to the fifth aspect of the present invention, the spatial information interpolation device corrects the spatial information of the interpolation element image group so as to be equal to the depth of the subject. Therefore, when presenting the spatial information, the same depth as the subject is obtained. It is possible to present a natural three-dimensional image that reproduces.

請求項6に記載の発明によれば、空間情報補間プログラムをインストールされたコンピュータは、このプログラムに基づいた各機能を実現することで、空間情報補間装置と同等の効果を奏することができる。   According to the sixth aspect of the present invention, the computer in which the spatial information interpolation program is installed can achieve the same effects as the spatial information interpolation device by realizing each function based on this program.

本発明の第1実施形態に係る空間情報補間装置の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the spatial information interpolation apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る空間情報補間装置が備える統合手段の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the integration means with which the spatial information interpolation apparatus which concerns on 1st Embodiment of this invention is provided. 図2に示す統合メモリ確保手段の動作を模式的に示す概念図であって、(a)は撮像素子アレイ、(b)は(a)に対応した統合メモリを示している。FIGS. 3A and 3B are conceptual diagrams schematically showing the operation of the integrated memory securing unit shown in FIG. 2, wherein FIG. 3A shows an image sensor array, and FIG. 3B shows an integrated memory corresponding to FIG. 本発明の第1実施形態に係る空間情報補間装置が備える補間要素画像群生成手段の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the interpolation element image group production | generation means with which the spatial information interpolation apparatus which concerns on 1st Embodiment of this invention is provided. 図4に示す対応画素検出及び割当手段の動作を模式的に示す概念図である。It is a conceptual diagram which shows typically operation | movement of the corresponding pixel detection and allocation means shown in FIG. 図4に示す対応画素検出及び割当手段の効果を模式的に示す概念図である。It is a conceptual diagram which shows typically the effect of a corresponding pixel detection and allocation means shown in FIG. 図4に示す対応画素検出及び割当手段による演算処理の過程で仮想レンズアレイ間に生成される中間像を模式的に示す概念図である。FIG. 5 is a conceptual diagram schematically showing an intermediate image generated between virtual lens arrays in the process of calculation processing by the corresponding pixel detection and assignment unit shown in FIG. 4. 図4に示す補間処理手段で補間処理を実行した後の補間要素画像メモリの情報から生成される再生像を模式的に示す概念図である。FIG. 5 is a conceptual diagram schematically showing a reproduced image generated from information in an interpolation element image memory after the interpolation processing is executed by the interpolation processing means shown in FIG. 4. 本発明の第2実施形態に係る空間情報補間装置が備える補間要素画像群生成手段の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the interpolation element image group production | generation means with which the spatial information interpolation apparatus which concerns on 2nd Embodiment of this invention is provided. 図9に示す第2対応画素検出及び割当手段の動作を模式的に示す概念図である。It is a conceptual diagram which shows typically operation | movement of the 2nd corresponding | compatible pixel detection and allocation means shown in FIG. 図9に示す第2対応画素検出及び割当手段による演算処理の過程で仮想レンズアレイ間に生成される中間像を模式的に示す概念図である。FIG. 10 is a conceptual diagram schematically showing an intermediate image generated between virtual lens arrays in the process of calculation processing by the second corresponding pixel detection and assignment unit shown in FIG. 9. 図9に示す第2対応画素検出及び割当手段で割り当てた第2補間要素画像メモリの情報により提示される再生像を模式的に示す概念図である。FIG. 10 is a conceptual diagram schematically showing a reproduced image presented by information in a second interpolation element image memory allocated by the second corresponding pixel detection and allocation unit shown in FIG. 9. 図9に示す反転処理情報生成手段において再生像の奥行きを反転させるための第3補間要素画像メモリの情報を生成する動作を模式的に示す概念図である。FIG. 10 is a conceptual diagram schematically showing an operation of generating information in a third interpolation element image memory for inverting the depth of a reproduced image in the inversion processing information generating means shown in FIG. 9. 図9に示す反転処理情報生成手段の処理で生成された第3補間要素画像メモリの情報により提示される再生像を模式的に示す概念図である。FIG. 10 is a conceptual diagram schematically showing a reproduced image presented by information in a third interpolation element image memory generated by the process of the inversion processing information generation unit shown in FIG. 9. 図9に示す反転処理情報生成手段で第3補間要素画像メモリの情報を左右反転させた情報により提示される再生像を模式的に示す概念図である。FIG. 10 is a conceptual diagram schematically showing a reproduced image presented by information obtained by horizontally inverting the information in the third interpolation element image memory by the inversion processing information generation unit shown in FIG. 9. 従来の空間情報取得装置の配置例を模式的に示す概念図である。It is a conceptual diagram which shows typically the example of arrangement | positioning of the conventional spatial information acquisition apparatus. 従来の空間情報提示装置の配置例を模式的に示す概念図である。It is a conceptual diagram which shows typically the example of arrangement | positioning of the conventional spatial information presentation apparatus. 従来の複数の撮像素子を用いた空間情報取得装置の一例を模式的に示す概念図である。It is a conceptual diagram which shows typically an example of the spatial information acquisition apparatus using the conventional several image pick-up element.

以下、本発明の空間情報補間装置を実施するための形態について、図面を参照して詳細に説明する。なお、各図面に示される部材等のサイズや位置関係等は、説明を明確にするため誇張していることがある。   Hereinafter, embodiments for implementing a spatial information interpolation apparatus of the present invention will be described in detail with reference to the drawings. Note that the size and positional relationship of members and the like shown in the drawings may be exaggerated for clarity of explanation.

(第1実施形態)
[空間情報補間装置の概要]
図1に示す第1実施形態に係る空間情報補間装置2は、空間情報取得装置1を用いて撮影により被写体が存在する空間の空間情報として得られる撮影要素画像群の画素情報に欠落している空間情報を補間するものである。
(First embodiment)
[Outline of Spatial Information Interpolator]
The spatial information interpolation device 2 according to the first embodiment shown in FIG. 1 is missing in the pixel information of the photographing element image group obtained as spatial information of the space where the subject exists by photographing using the spatial information acquisition device 1. It interpolates spatial information.

空間情報取得装置1は、複数の微小な光学素子または複数の微小なピンホールが二次元状に配列された撮像光学要素アレイと、複数の撮像素子40から構成される撮像素子アレイ140(図3(a)参照)と、を備える。
以下では、撮像光学要素アレイが、図16に示すような一平面状に凸レンズを配列したレンズ群112と同様な撮像光学素子アレイであって、図5の第1および第2仮想レンズアレイ31,32と等価な大きさを有しているものとする。また、撮像素子の数は、複数であれば特に限定されないが、以下では一例として4個であるものとして説明する。
The spatial information acquisition apparatus 1 includes an imaging element array 140 (FIG. 3) including an imaging optical element array in which a plurality of minute optical elements or a plurality of minute pinholes are two-dimensionally arranged, and a plurality of imaging elements 40. (See (a)).
In the following, the imaging optical element array is an imaging optical element array similar to the lens group 112 in which convex lenses are arranged in a single plane as shown in FIG. 16, and the first and second virtual lens arrays 31, FIG. It is assumed that it has a size equivalent to 32. Further, the number of imaging elements is not particularly limited as long as it is plural, but in the following description, it is assumed that the number is four as an example.

撮像素子アレイ140は、図3(a)に正面視で示すように、例えば、2行2列の配置で4つの矩形の撮像素子40を備える。1行目の2つの撮像素子40A,40Bと、2行目の2つの撮像素子40C,40Dとは、間に間隙41をあけて離間させて図示しない基板上に配設されている。1列目の2つの撮像素子40A,40Cと、2列目の2つの撮像素子40B,40Dとは、間に間隙42をあけて離間させて図示しない基板上に配設されている。なお、間隙41は、1行目の撮像素子40の画素と、2行目の撮像素子40の画素との間の間隔を示し、間隙42は、1列目の撮像素子40の画素と、2列目の撮像素子40の画素との間の間隔を示す。   As shown in a front view in FIG. 3A, the imaging element array 140 includes, for example, four rectangular imaging elements 40 in an arrangement of 2 rows and 2 columns. The two image sensors 40A and 40B in the first row and the two image sensors 40C and 40D in the second row are arranged on a substrate (not shown) with a gap 41 therebetween. The two image pickup devices 40A and 40C in the first row and the two image pickup devices 40B and 40D in the second row are arranged on a substrate (not shown) with a gap 42 therebetween. Note that the gap 41 indicates the distance between the pixels of the image sensor 40 in the first row and the pixels of the image sensor 40 in the second row, and the gap 42 indicates the pixels of the image sensor 40 in the first column and 2 The space | interval between the pixels of the image sensor 40 in the column is shown.

空間情報取得装置1は、インテグラルフォトグラフィ(IP)方式で被写体を撮影することで、被写体が存在する空間の空間情報を取得する。この空間情報取得装置1で取得される空間情報は、図18に示すような複数の撮像素子を用いた従来の空間情報取得装置130によって撮影された撮影要素画像群の映像信号である。なお、図3(a)に示す撮像素子アレイ140は、撮像素子40A,40B,40C,40Dの配設箇所では、撮影した被写体の空間情報を取得することができるが、間隙41,42の箇所では、被写体の空間情報を取得することはできない。   The spatial information acquisition apparatus 1 acquires spatial information of a space where a subject exists by photographing the subject using an integral photography (IP) method. The spatial information acquired by the spatial information acquisition device 1 is a video signal of a photographing element image group captured by a conventional spatial information acquisition device 130 using a plurality of imaging elements as shown in FIG. Note that the image sensor array 140 shown in FIG. 3A can acquire spatial information of the photographed subject at the locations where the image sensors 40A, 40B, 40C, and 40D are provided, but the locations of the gaps 41 and 42. Then, it is not possible to acquire the spatial information of the subject.

空間情報補間装置2には、空間情報取得装置1から、撮像素子アレイ140の撮像素子40A,40B,40C,40Dでそれぞれ取得される撮影要素画像群の映像信号が入力される。なお、空間情報補間装置2は、外部から入力される撮影要素画像群の映像信号をそのまま処理に用いてもよいし、入力される撮影要素画像群の映像信号を空間情報補間装置2内に蓄積しておき、処理の際に装置内部から読み出すようにしてもよい。   The spatial information interpolating device 2 receives from the spatial information acquiring device 1 video signals of imaging element image groups respectively acquired by the imaging elements 40A, 40B, 40C, and 40D of the imaging element array 140. Note that the spatial information interpolation device 2 may use the video signal of the photographing element image group input from the outside as it is for processing, or store the input video signal of the photographing element image group in the spatial information interpolation device 2. In addition, it may be read from the inside of the apparatus at the time of processing.

[空間情報補間装置の構成]
空間情報補間装置2は、例えば、CPU(Central Processing Unit)等の演算手段と、メモリ、ハードディスク等の記憶手段と、外部との間で各種情報の送受信を行うインタフェースとを備えたコンピュータと、このコンピュータにインストールされたプログラムとから構成され、図1に示すように、記憶手段21と、処理手段22とを備えている。
[Configuration of Spatial Information Interpolator]
The spatial information interpolation apparatus 2 includes, for example, a computer including a calculation unit such as a CPU (Central Processing Unit), a storage unit such as a memory and a hard disk, and an interface that transmits and receives various types of information to and from the outside. It comprises a program installed in a computer, and comprises storage means 21 and processing means 22 as shown in FIG.

記憶手段21は、処理手段22による処理を行う前に予め格納された制御プログラムや各種情報、また、処理手段22の処理によって補間処理等の準備のために事前に取得したデータや、補間処理等のメインの処理の演算結果等を記憶するものであって、一般的なハードディスクやメモリから構成される。記憶手段21には、後記する統合メモリ51aや補間要素画像メモリ61a等のための記憶領域が確保される。なお、記憶内容は同じ記憶手段に記憶されていてもよいし、それぞれ他の記憶手段に分散記憶されていてもよい。   The storage unit 21 stores control programs and various information stored in advance before processing by the processing unit 22, data acquired in advance for preparation of interpolation processing by the processing of the processing unit 22, interpolation processing, etc. The calculation result of the main processing is stored in a general hard disk or memory. In the storage means 21, storage areas for an integrated memory 51a, an interpolation element image memory 61a and the like which will be described later are secured. The stored contents may be stored in the same storage unit, or may be distributed and stored in other storage units.

処理手段22は、図1に示すように、撮像光学素子アレイ配置情報取得手段3と、撮像素子アレイ配置情報取得手段4と、統合手段5と、補間要素画像群生成手段6と、を備えている。   As shown in FIG. 1, the processing unit 22 includes an imaging optical element array arrangement information acquisition unit 3, an imaging element array arrangement information acquisition unit 4, an integration unit 5, and an interpolation element image group generation unit 6. Yes.

<撮像光学素子アレイ配置情報取得手段>
撮像光学素子アレイ配置情報取得手段(撮像光学要素アレイ配置情報取得手段)3は、撮像光学素子アレイ(例えばレンズ群112:図16参照)を構成する個々の要素光学素子の配置情報を外部から取得して記憶手段21に格納するものである。撮像光学素子アレイ配置情報取得手段3は、補間要素画像群生成手段6が補間処理等を行うことができるように事前に要素光学素子の配置情報を取得する。
<Imaging optical element array arrangement information acquisition means>
The imaging optical element array arrangement information acquisition means (imaging optical element array arrangement information acquisition means) 3 acquires the arrangement information of individual element optical elements constituting the imaging optical element array (for example, the lens group 112: see FIG. 16) from the outside. And stored in the storage means 21. The imaging optical element array arrangement information acquisition unit 3 acquires the arrangement information of the element optical elements in advance so that the interpolation element image group generation unit 6 can perform an interpolation process or the like.

撮像光学素子アレイを構成する個々の要素光学素子の配置情報は、例えばマウス、キーボード、ディスクドライブ装置等の入力装置11から入力され、撮像光学素子アレイ配置情報取得手段3によって、記憶手段21に書き込まれる。また、補間要素画像群生成手段6が補間処理等を行う際には、撮像光学素子アレイ配置情報取得手段3は、記憶手段21から、撮像光学素子アレイを構成する個々の要素光学素子の配置情報を読み出して補間要素画像群生成手段6に出力する。   Arrangement information of individual element optical elements constituting the imaging optical element array is input from an input device 11 such as a mouse, a keyboard, or a disk drive device, and is written in the storage unit 21 by the imaging optical element array arrangement information acquisition unit 3. It is. When the interpolation element image group generation unit 6 performs an interpolation process or the like, the imaging optical element array arrangement information acquisition unit 3 receives from the storage unit 21 arrangement information of individual element optical elements constituting the imaging optical element array. Is output to the interpolation element image group generation means 6.

本実施形態では、空間情報取得装置1で取得した空間情報を表示するために想定される表示装置(例えば空間情報表示装置120:図17参照)で使用する光学要素アレイ(例えばレンズ群122:図17参照)が、一例として、撮像光学素子アレイと同じものであるとする。このような光学要素アレイを表示レンズアレイ122A(図8参照)と表記する。撮像光学素子アレイ配置情報取得手段3では、この表示装置で想定される表示レンズアレイ122Aにおける凸レンズ(要素光学素子)のピッチ、焦点距離、開口幅(レンズ径)の情報を取得する。   In the present embodiment, an optical element array (for example, the lens group 122: FIG. 17) used in a display device (for example, the spatial information display device 120: see FIG. 17) assumed to display the spatial information acquired by the spatial information acquisition device 1. 17) is, for example, the same as the imaging optical element array. Such an optical element array is referred to as a display lens array 122A (see FIG. 8). The imaging optical element array arrangement information acquisition unit 3 acquires information on the pitch, focal length, and aperture width (lens diameter) of the convex lens (element optical element) in the display lens array 122A assumed in this display device.

なお、想定される表示装置で使用する光学要素アレイが、要素ピンホールを二次元状に配列して構成されている場合には、要素ピンホールのピッチ、開口幅(ピンホール径)、要素ピンホールから撮像面までの距離の情報を取得する。   In addition, when the optical element array used in the assumed display device is configured by two-dimensionally arranging the element pinholes, the pitch of the element pinholes, the opening width (pinhole diameter), the element pins Information on the distance from the hall to the imaging surface is acquired.

<撮像素子アレイ配置情報取得手段>
撮像素子アレイ配置情報取得手段4は、撮像素子アレイ140を構成する各撮像素子40の配置情報を外部から取得して記憶手段21に格納するものである。撮像素子アレイ配置情報取得手段4は、統合手段5や補間要素画像群生成手段6が処理を行うことができるように事前に、撮像素子アレイ140を構成する各撮像素子40の配置情報を取得する。
<Image sensor array arrangement information acquisition means>
The imaging element array arrangement information acquisition unit 4 acquires the arrangement information of each imaging element 40 constituting the imaging element array 140 from the outside and stores it in the storage unit 21. The imaging element array arrangement information acquisition unit 4 acquires the arrangement information of each imaging element 40 constituting the imaging element array 140 in advance so that the integration unit 5 and the interpolation element image group generation unit 6 can perform processing. .

撮像素子アレイ140を構成する各撮像素子40の配置情報は、例えばマウス、キーボード、ディスクドライブ装置等の入力装置11から入力され、撮像素子アレイ配置情報取得手段4によって、記憶手段21に書き込まれる。また、統合手段5や補間要素画像群生成手段6が処理を行う際には、撮像素子アレイ配置情報取得手段4は、記憶手段21から、撮像素子アレイ140を構成する各撮像素子40の配置情報を読み出して統合手段5や補間要素画像群生成手段6に出力する。撮像素子アレイ配置情報取得手段4では、撮像素子アレイ140を構成する個々の撮像素子40の位置情報、隣接する撮像素子の画素間の間隙41,42の距離情報を取得する。   Arrangement information of each image pickup element 40 constituting the image pickup element array 140 is input from the input device 11 such as a mouse, a keyboard, and a disk drive device, and is written in the storage unit 21 by the image pickup element array arrangement information acquisition unit 4. Further, when the integration unit 5 and the interpolation element image group generation unit 6 perform processing, the image sensor array arrangement information acquisition unit 4 receives the arrangement information of each image sensor 40 constituting the image sensor array 140 from the storage unit 21. Is output to the integration unit 5 and the interpolation element image group generation unit 6. The image sensor array arrangement information acquisition unit 4 acquires position information of individual image sensors 40 constituting the image sensor array 140 and distance information of the gaps 41 and 42 between pixels of adjacent image sensors.

<統合手段>
統合手段5は、撮像素子アレイを構成する各撮像素子において被写体を撮影した映像信号として取得される撮影要素画像群の画素情報を各撮像素子に対応してそれぞれ受け付け、受け付けたそれぞれの撮影要素画像群の画素情報を予め取得された撮像素子の配置情報で特定される位置に合わせて並べて前記撮像素子間の間隙を含めて各撮影要素画像群の画素情報を統合して統合撮影要素画像群の画素情報を生成するものである。
本実施形態では、統合手段5は、空間情報取得装置1から入力される撮影要素画像群について、撮像素子アレイ140を構成する個々の撮像素子40A,40B,40C,40Dで取得される撮影要素画像群を統合する。
<Integration means>
The integration unit 5 accepts pixel information of a photographing element image group acquired as a video signal obtained by photographing a subject in each of the imaging elements constituting the imaging element array, corresponding to each imaging element, and each received photographing element image. The pixel information of the groups is aligned with the position specified by the pre-acquired image sensor arrangement information, and the pixel information of each imaging element image group including the gap between the imaging elements is integrated to integrate the group imaging element image group. Pixel information is generated.
In the present embodiment, the integration unit 5 captures image element images acquired by the individual image sensors 40A, 40B, 40C, and 40D constituting the image sensor array 140 for the image element groups input from the spatial information acquisition device 1. Integrate groups.

統合手段5は、図2に示すように、統合メモリ確保手段51と、空間情報割当手段52と、仮輝度情報及び識別符号割当手段53とを備えている。   As shown in FIG. 2, the integrating unit 5 includes an integrated memory securing unit 51, a spatial information allocating unit 52, and provisional luminance information and identification code allocating unit 53.

≪統合メモリ確保手段≫
統合メモリ確保手段51は、撮像素子アレイ140を構成する各撮像素子40で取得される撮影要素画像群の画素情報のすべてが展開可能な記憶領域を記憶手段21において統合メモリ51a(図3(b)参照)として確保するものである。この際に、統合メモリ確保手段51は、撮像素子アレイ配置情報取得手段4で取得した、隣接する撮像素子の画素間の間隙41,42の距離情報にしたがって、間隙41,42の部分の情報も記憶可能な領域のメモリを確保する。なお、図3(b)の詳細な説明については後記する。
≪Integrated memory securing means≫
The integrated memory securing unit 51 stores a storage area in which all of the pixel information of the imaging element image group acquired by each imaging element 40 constituting the imaging element array 140 can be developed in the integrated memory 51a (FIG. 3B). ))). At this time, the integrated memory securing unit 51 also obtains information on the portions of the gaps 41 and 42 according to the distance information of the gaps 41 and 42 between the pixels of the adjacent image pickup devices acquired by the image pickup device array arrangement information acquisition unit 4. Allocate a memory area that can be stored. Details of FIG. 3B will be described later.

≪空間情報割当手段≫
空間情報割当手段52は、撮像素子アレイ140を構成する各撮像素子40で取得される撮影要素画像群の画素に対応した画素情報を空間情報として統合メモリ51aに割り当てて書き込むものである。
統合メモリ51aに割り当てられる空間情報は、撮影要素画像群の画素の位置情報と、輝度等の画素情報とを含んでいる。なお、画素の輝度を例えば8ビットの情報で表した場合、0〜255のいずれかの値が当該画素の空間情報として含まれることになる。
≪Spatial information allocation means≫
The spatial information allocating means 52 allocates and writes pixel information corresponding to the pixels of the imaging element image group acquired by each imaging element 40 constituting the imaging element array 140 to the integrated memory 51a as spatial information.
The spatial information assigned to the integrated memory 51a includes pixel position information of the photographing element image group and pixel information such as luminance. Note that when the luminance of a pixel is represented by, for example, 8-bit information, any value from 0 to 255 is included as the spatial information of the pixel.

≪仮輝度情報及び識別符号割当手段≫
仮輝度情報及び識別符号割当手段53は、統合メモリ51aにおいて撮影要素画像群の画素に対応した画素情報が割り当てられていないメモリ領域に、所定の輝度情報を仮の画素情報として割り当てて書き込むと共に、当該画素情報が仮のものであることを識別するための識別符号を割り当てるものである。
≪Temporary luminance information and identification code assigning means≫
The temporary luminance information and identification code assigning means 53 assigns and writes predetermined luminance information as temporary pixel information to a memory area to which pixel information corresponding to the pixels of the photographing element image group is not assigned in the integrated memory 51a. An identification code for identifying that the pixel information is provisional is assigned.

ここで、仮の画素情報として割り当てられる輝度は、任意の値でよく、例えば固定値でもよいし、乱数でもよい。すなわち、画素の輝度を例えば8ビットの情報で表した場合、0〜255のいずれかの値をとることになる。また、識別符号も、任意の値でよい。例えば、1ビットの情報で表した場合、識別符号を割り当てるという条件判定が満たされた場合、F=1を設定し、そうでない場合F=0に設定しておく。または、Fの設定値を入れ替えてもよい。   Here, the luminance assigned as temporary pixel information may be an arbitrary value, for example, a fixed value or a random number. That is, when the luminance of the pixel is represented by, for example, 8-bit information, it takes any value from 0 to 255. Also, the identification code may be an arbitrary value. For example, when represented by 1-bit information, F = 1 is set when the condition determination of assigning an identification code is satisfied, and F = 0 is set otherwise. Alternatively, the set value of F may be switched.

≪処理の具体例≫
ここで、統合手段5による処理の具体例として、撮像素子アレイ140の配置と、統合メモリ51aに割り当てられて書き込まれる情報の対応関係について、図3(a)および図3(b)を参照(適宜図2参照)して説明する。図3(a)は、撮像素子アレイ140を構成する各撮像素子40の配置の模式図であり、図3(b)は、統合メモリ確保手段51により確保された、統合メモリ51aの記憶領域を模式的に示す概念図である。
≪Specific example of processing≫
Here, as a specific example of the processing by the integration means 5, refer to FIG. 3A and FIG. 3B for the correspondence between the arrangement of the image sensor array 140 and the information assigned to and written in the integrated memory 51a ( This will be described with reference to FIG. FIG. 3A is a schematic diagram of the arrangement of the image pickup devices 40 constituting the image pickup device array 140. FIG. 3B shows the storage area of the integrated memory 51a reserved by the integrated memory reservation unit 51. It is a conceptual diagram showing typically.

図3(b)に示すように、統合メモリ51aは、撮像素子アレイ140を構成する撮像素子40A,40B,40C,40Dの配置に対応して、例えば、2行2列の配置で4つの記憶領域50A,50B,50C,50Dを備える。1行目の2つの記憶領域50A,50Bと、2行目の2つの記憶領域50C,50Dとの間には、図3(a)の間隙41に対応して記憶領域50Eを備える。1列目の2つの記憶領域50A,50Cと、2列目の2つの記憶領域50B,50Dとの間には、図3(a)の間隙42に対応して記憶領域50Fを備える。   As shown in FIG. 3B, the integrated memory 51a corresponds to the arrangement of the image pickup devices 40A, 40B, 40C, and 40D constituting the image pickup device array 140, for example, four memories in an arrangement of 2 rows and 2 columns. Regions 50A, 50B, 50C, and 50D are provided. Between the two storage areas 50A and 50B in the first row and the two storage areas 50C and 50D in the second row, a storage area 50E is provided corresponding to the gap 41 in FIG. Between the two storage areas 50A, 50C in the first column and the two storage areas 50B, 50D in the second column, a storage area 50F is provided corresponding to the gap 42 in FIG.

空間情報割当手段52は、図3(a)に示す撮像素子40Aにより取得された撮影要素画像群の画素情報を、図3(b)に示す記憶領域50Aに割り当てて書き込む。撮像素子40B〜40Dについても、記憶領域50B〜50Dにそれぞれ同様に割り当てて書き込む。
仮輝度情報及び識別符号割当手段53は、撮像素子アレイ140の間隙41,42に相当する部分の空間情報として、仮輝度値及び識別符号を、記憶領域50E,50Fに割り当てる。これにより、統合撮影要素画像群の画素情報が生成されたことになる。
なお、図3(b)の例では、記憶領域50E,50Fの交差点には記憶領域50E,50Fのいずれかがあるものとして仮輝度値及び識別符号を割り当て、二重に割り当てることはしない。
The spatial information assigning means 52 assigns and writes the pixel information of the photographing element image group acquired by the image sensor 40A shown in FIG. 3A to the storage area 50A shown in FIG. 3B. Similarly, the image sensors 40B to 40D are assigned and written to the storage areas 50B to 50D, respectively.
The provisional luminance information and identification code assigning means 53 assigns provisional luminance values and identification codes to the storage areas 50E and 50F as spatial information of portions corresponding to the gaps 41 and 42 of the image sensor array 140. Thereby, the pixel information of the integrated photographing element image group is generated.
In the example of FIG. 3B, the temporary luminance value and the identification code are assigned to the intersection of the storage areas 50E and 50F, assuming that one of the storage areas 50E and 50F is present, and is not assigned twice.

図1を参照して、空間情報補間装置2の構成の説明を続ける。
[補間要素画像群生成手段の概要]
補間要素画像群生成手段6は、統合手段5で生成された統合撮影要素画像群を基に、この統合撮影要素画像群の画素情報に対応付けた補間要素画像群の画素情報を、仮想的な画素が配列された仮想撮像素子400(図6参照)上に生成する演算処理を行うものである。
補間要素画像群生成手段6は、この演算処理のために、撮像光学素子アレイ配置情報取得手段3によって予め取得された表示レンズアレイ122A(図8参照)における凸レンズ(要素光学素子)の配置情報に基づいて並べた前記統合撮影要素画像群を利用する。加えて、補間要素画像群生成手段6は、撮像素子アレイ配置情報取得手段4によって予め取得された撮像素子アレイ140(図3(a)参照)の撮像素子40の配置情報で特定される位置に仮想的な光学要素が二次元状に配列されて構成される第1および第2仮想レンズアレイ31,32(図5参照)を利用する。
With reference to FIG. 1, description of the structure of the spatial information interpolation apparatus 2 is continued.
[Outline of Interpolating Element Image Group Generation Means]
Interpolation element image group generation means 6 is based on the integrated photographing element image group generated by the integration means 5, and the pixel information of the interpolation element image group associated with the pixel information of the integrated photographing element image group is virtually The calculation processing is performed on the virtual imaging device 400 (see FIG. 6) in which the pixels are arranged.
The interpolation element image group generation means 6 uses the arrangement information of the convex lenses (element optical elements) in the display lens array 122A (see FIG. 8) acquired in advance by the imaging optical element array arrangement information acquisition means 3 for this calculation process. The integrated photographing element image group arranged on the basis is used. In addition, the interpolation element image group generation unit 6 is located at a position specified by the arrangement information of the image sensor 40 of the image sensor array 140 (see FIG. 3A) acquired in advance by the image sensor array arrangement information acquisition unit 4. The first and second virtual lens arrays 31 and 32 (see FIG. 5) configured by two-dimensionally arranging virtual optical elements are used.

補間要素画像群生成手段6は、統合撮影要素画像群と、第1および第2仮想レンズアレイ31,32(図5参照)と、仮想撮像素子400(図6参照)とを仮想空間上にそれぞれ離間させて配置し、この仮想空間上における幾何光学的演算により、補間要素画像群の画素情報を生成する。なお、幾何光学的演算の説明については後記する。補間要素画像群生成手段6は、統合前の撮影要素画像群において空間情報が欠落していた画素については、補間要素画像群において撮影要素画像群の画素情報が正しく対応付けられている画素を用いて補間処理を行う。   The interpolation element image group generation means 6 includes the integrated photographing element image group, the first and second virtual lens arrays 31 and 32 (see FIG. 5), and the virtual image sensor 400 (see FIG. 6) on the virtual space. The pixel information of the interpolated element image group is generated by geometrical optical calculation in the virtual space. The description of the geometric optical calculation will be described later. The interpolation element image group generation means 6 uses a pixel in which the pixel information of the imaging element image group is correctly associated in the interpolation element image group for the pixel in which the spatial information is missing in the imaging element image group before integration. To perform interpolation processing.

[補間要素画像群生成手段による処理手順の概要]
補間要素画像群生成手段6は、補間要素画像群の画素情報を生成する演算処理のために、図6に示すように、統合撮影要素画像群と、第1および第2仮想レンズアレイ31,32と、仮想撮像素子400とを予め定められた相対位置に配置することを前提とする。なお、図6の説明については後記する。
補間要素画像群生成手段6は、仮想撮像素子400上の任意の画素から射出される光線を基準にして第1および第2仮想レンズアレイ31,32を介して統合撮影要素画像群に到達する光路についての幾何光学的演算により、統合撮影要素画像群の特定の画素(撮像素子アレイ140の画素または間隙が対応)を検出する。
[Outline of processing procedure by interpolation element image group generation means]
As shown in FIG. 6, the interpolating element image group generating means 6 performs integrated processing of generating the pixel information of the interpolating element image group, and the first and second virtual lens arrays 31 and 32, as shown in FIG. And the virtual image sensor 400 are assumed to be arranged at predetermined relative positions. The description of FIG. 6 will be described later.
The interpolation element image group generation means 6 is an optical path that reaches the integrated photographing element image group via the first and second virtual lens arrays 31 and 32 with reference to a light beam emitted from an arbitrary pixel on the virtual image sensor 400. A specific pixel (corresponding to a pixel or a gap of the image sensor array 140) of the integrated photographing element image group is detected by the geometric optical calculation.

補間要素画像群生成手段6は、検出された画素の画素情報を光線の始点となる画素に割り当てて仮想撮像素子400上に記録することで、統合撮影要素画像群の画素情報に対応付けられた補間要素画像群の画素情報を仮想撮像素子400上に生成する。
ただし、補間要素画像群生成手段6は、仮想撮像素子400上の画素から射出される光線に対応して検出された統合撮影要素画像群の画素が、統合前の撮影要素画像群において空間情報が欠落していた画素である場合、仮想撮像素子400上に割り当てない。この場合、補間要素画像群生成手段6は、補間要素画像群において撮影要素画像群の画素情報が正しく対応付けられている画素に割り当てられている画素情報を用いて、補間処理により生成した画素情報を、光線の始点となる画素に割り当てる。
The interpolation element image group generation unit 6 assigns the pixel information of the detected pixels to the pixel that is the starting point of the light ray and records it on the virtual image sensor 400, thereby associating with the pixel information of the integrated shooting element image group. Pixel information of the interpolation element image group is generated on the virtual image sensor 400.
However, the interpolation element image group generation means 6 is configured so that the pixels of the integrated photographing element image group detected corresponding to the light rays emitted from the pixels on the virtual image sensor 400 have the spatial information in the photographing element image group before integration. If the pixel is missing, it is not assigned on the virtual image sensor 400. In this case, the interpolation element image group generation means 6 uses the pixel information assigned to the pixels in which the pixel information of the photographing element image group is correctly associated in the interpolation element image group, and the pixel information generated by the interpolation process. Is assigned to the pixel that is the starting point of the ray.

[補間要素画像群生成手段の構成例]
補間要素画像群生成手段6の構成例について、図4を参照して説明する。
補間要素画像群生成手段6は、図4に示すように、補間要素画像メモリ確保手段61と、対応画素検出及び割当手段62と、補間処理手段63とを備えている。
[Configuration example of interpolation element image group generation means]
A configuration example of the interpolation element image group generation unit 6 will be described with reference to FIG.
As illustrated in FIG. 4, the interpolation element image group generation unit 6 includes an interpolation element image memory securing unit 61, a corresponding pixel detection and allocation unit 62, and an interpolation processing unit 63.

<補間要素画像メモリ確保手段>
補間要素画像メモリ確保手段61は、統合メモリ51a(図3(b)参照)と同じ大きさの記憶領域であって、仮想撮像素子400(図6参照)上の画素の画素情報を記憶する記憶領域を記憶手段21において補間要素画像メモリ(図示せず)として確保する。以下では、統合メモリ51aと区別するために、補間要素画像メモリ61aと表記する。
<Interpolating element image memory securing means>
The interpolation element image memory securing means 61 is a storage area having the same size as the integrated memory 51a (see FIG. 3B), and stores the pixel information of the pixels on the virtual image sensor 400 (see FIG. 6). The area is secured in the storage means 21 as an interpolation element image memory (not shown). Hereinafter, in order to distinguish from the integrated memory 51a, it is expressed as an interpolation element image memory 61a.

<対応画素検出及び割当手段>
≪対応画素検出及び割当手段の概要≫
対応画素検出及び割当手段62は、補間要素画像メモリ61aに対応する統合メモリ51a上の位置を検出し、統合メモリ51aの当該位置に記憶されている統合要素画像群の画素情報を補間要素画像メモリ61aに割り当てて書き込むものである。
<Corresponding pixel detection and allocation means>
≪Outline of corresponding pixel detection and allocation means≫
Corresponding pixel detection and allocation means 62 detects the position on the integrated memory 51a corresponding to the interpolation element image memory 61a, and the pixel information of the integrated element image group stored at the position of the integrated memory 51a is stored in the interpolation element image memory. This is assigned to 61a and written.

≪対応画素検出及び割当手段による動作≫
ここでは、対応画素検出及び割当手段62が行う幾何光学的演算による動作について図5を参照して説明する。図5は、第1仮想レンズアレイ31と第2仮想レンズアレイ32が、仮想的な3次元空間に配置された様子を模式的に示す概念図である。この仮想的な3次元空間は、x方向(紙面に垂直な方向)と、y方向(紙面に沿った幅方向)と、z方向(紙面に沿った奥行き方向)に対応している。図5に示す第1および第2仮想レンズアレイ31,32は、空間情報取得装置1の図示しない撮像光学素子アレイと等価な大きさを有している。
<< Operation by corresponding pixel detection and allocation means >>
Here, the operation by the geometric optical calculation performed by the corresponding pixel detection and assignment unit 62 will be described with reference to FIG. FIG. 5 is a conceptual diagram schematically showing a state in which the first virtual lens array 31 and the second virtual lens array 32 are arranged in a virtual three-dimensional space. This virtual three-dimensional space corresponds to the x direction (direction perpendicular to the paper surface), the y direction (width direction along the paper surface), and the z direction (depth direction along the paper surface). The first and second virtual lens arrays 31 and 32 shown in FIG. 5 have a size equivalent to an imaging optical element array (not shown) of the spatial information acquisition apparatus 1.

第1仮想レンズアレイ31に対応付けて、統合メモリ51aの情報が図5に示されている。図5では、仮想的な3次元空間において統合メモリ51aの情報が配置されたz方向(紙面に沿った奥行き方向)の位置(x11平面)を特定して示している。この統合メモリ51aの情報は、そのすべてが提示されたときに統合撮影要素画像群となる。よって、統合メモリ51aの情報とは、統合撮影要素画像群の画素情報を意味する。また、統合撮影要素画像群の画素情報とは、統合撮影要素画像群の要素画像を構成する要素画素に対応したそれぞれの画素情報(位置、輝度)を表す。 The information of the integrated memory 51a is shown in FIG. 5 in association with the first virtual lens array 31. In FIG. 5, the position (x 1 y 1 plane) in the z direction (depth direction along the paper surface) where the information of the integrated memory 51 a is arranged in a virtual three-dimensional space is specified and shown. The information in the integrated memory 51a becomes an integrated photographing element image group when all of the information is presented. Therefore, the information in the integrated memory 51a means pixel information of the integrated photographing element image group. Further, the pixel information of the integrated photographing element image group represents pixel information (position and luminance) corresponding to the element pixels constituting the element image of the integrated photographing element image group.

また、第2仮想レンズアレイ32に対応付けて、補間要素画像メモリ61aの情報が図5に示されている。図5では、仮想的な3次元空間において補間要素画像メモリ61aの情報が配置されたz方向(紙面に沿った奥行き方向)の位置(x22平面)を特定して示している。補間要素画像メモリ61aの情報は、対応画素検出及び割当手段62の処理においては、仮想撮像素子400上に記録した情報を意味する。補間要素画像メモリ61aの情報とは、対応画素検出及び割当手段62の処理の途中で更新され、処理が終了した時点において、統合撮影要素画像群の画素情報が、補間要素画像メモリ61a内の記憶領域の適所に移送された情報となる。なお、第1実施形態では、補間処理手段63が処理を終了するまで補間要素画像メモリ61aの更新が行われるので、この時点まで補間要素画像群の画素情報は更新されながら生成される。 Further, information of the interpolation element image memory 61a is shown in FIG. 5 in association with the second virtual lens array 32. In FIG. 5, the position (x 2 y 2 plane) in the z direction (depth direction along the paper surface) where the information of the interpolation element image memory 61a is arranged in a virtual three-dimensional space is shown. The information in the interpolation element image memory 61a means information recorded on the virtual image sensor 400 in the processing of the corresponding pixel detection and allocation unit 62. The information in the interpolation element image memory 61a is updated during the processing of the corresponding pixel detection and assignment unit 62, and the pixel information of the integrated photographing element image group is stored in the interpolation element image memory 61a when the processing is completed. It will be the information transferred to the right place in the area. In the first embodiment, since the interpolation element image memory 61a is updated until the interpolation processing unit 63 finishes the process, the pixel information of the interpolation element image group is generated while being updated until this point.

図5のz方向(紙面に沿った奥行き方向)において、統合メモリ51aの情報から第1仮想レンズアレイ31までの距離d1と、第2仮想レンズアレイ32から補間要素画像メモリ61aの情報までの距離d2とは、空間情報取得装置1の図示しない撮像光学素子アレイを構成する光学素子の焦点距離に相当する。また、第1仮想レンズアレイ31から第2仮想レンズアレイ32までの距離Lは、任意に設定することができる。なお、図5のL(+)は第1仮想レンズアレイ31の配置面を基準にした正の値を示す。 In the z direction (depth direction along the paper surface) in FIG. 5, the distance d 1 from the information in the integrated memory 51 a to the first virtual lens array 31 and the information from the second virtual lens array 32 to the information in the interpolation element image memory 61 a. The distance d 2 corresponds to the focal length of an optical element constituting an imaging optical element array (not shown) of the spatial information acquisition device 1. Further, the distance L from the first virtual lens array 31 to the second virtual lens array 32 can be arbitrarily set. Note that L (+) in FIG. 5 indicates a positive value based on the arrangement surface of the first virtual lens array 31.

補間要素画像メモリ61aの情報として、図5の位置(h2,v2)で特定される情報(ここでは、点P2(h2,v2)の情報という)に対して、統合メモリ51aの情報を割り当てる手順は、以下の(a1)〜(a6)の通りである。 As information in the interpolation element image memory 61a, for the information specified by the position (h 2 , v 2 ) in FIG. 5 (here, information of the point P 2 (h 2 , v 2 )), the integrated memory 51a The procedure for assigning the information is as follows (a1) to (a6).

(a1)点P2(h2,v2)を始点として、点P2(h2,v2)から最も近距離にある、第2仮想レンズアレイ32を構成する光学素子g2を検出し、点P2(h2,v2)と光学素子g2の主点P20とを通る直線h2を演算処理により求めて設定する。
(a2)直線h2と第1仮想レンズアレイ31との交点P11を検出する。
(a3)交点P11から最も近距離にある、第1仮想レンズアレイ31を構成する光学素子g1を検出し、光学素子g1の主点P10を検出する。
(a4)光学素子g1の主点P10を通る直線であって、直線h2と傾きが等しい直線hを演算処理により求めて設定する。
(a5)直線hと、x11平面(統合メモリ51aの情報)とが交差する位置(h1,v1)で特定される情報(ここでは、点P1(h1,v1)の情報という)を検出する。そして、統合メモリ51aの情報のうち、点P1(h1,v1)の情報を、補間要素画像メモリ61aの情報P2(h2,v2)として割り当てて書き込む。
(a6)ただし、統合メモリ51a上の点P1(h1,v1)に、仮輝度と共に識別符号が割り当てられている場合、仮輝度と識別符号を併せて補間要素画像メモリ61aの情報P2(h2,v2)に割り当てて書き込む。
The (a1) point P 2 (h 2, v 2) as the starting point, in the most short distance from the point P 2 (h 2, v 2), to detect the optical element g 2 constituting the second virtual lens array 32 , the point P 2 (h 2, v 2 ) and the determined and set by the arithmetic processor straight h 2 passing through the principal point P 20 of the optical element g 2.
(A2) The intersection point P 11 between the straight line h 2 and the first virtual lens array 31 is detected.
(A3) The optical element g 1 constituting the first virtual lens array 31 that is closest to the intersection point P 11 is detected, and the principal point P 10 of the optical element g 1 is detected.
(A4) A straight line h 1 passing through the principal point P 10 of the optical element g 1 and having the same inclination as the straight line h 2 is obtained and set by calculation processing.
(A5) Information (here, the point P 1 (h 1 , v 1 ) specified by the position (h 1 , v 1 ) where the straight line h 1 and the x 1 y 1 plane (information in the integrated memory 51a) intersect. ) Is detected. Of the information in the integrated memory 51a, the information on the point P 1 (h 1 , v 1 ) is assigned and written as information P 2 (h 2 , v 2 ) in the interpolation element image memory 61a.
(A6) However, when an identification code is assigned to the point P 1 (h 1 , v 1 ) on the integrated memory 51a together with the temporary luminance, the information P of the interpolation element image memory 61a is combined with the temporary luminance and the identification code. 2 Assign to (h 2 , v 2 ) and write.

図4を参照して、補間要素画像群生成手段6の構成例の説明を続ける。
<補間処理手段>
補間処理手段63は、統合メモリ51aに記憶された統合撮影要素画像群の画素情報が補間要素画像メモリ61aに割り当てられた後に当該補間要素画像メモリ61aを参照して、識別符号が割り当てられている画素について補間処理を行うものである。
例えば補間処理として、識別符号が付与されている画素の周囲の画素情報から、線型内挿により補間する手法が挙げられるが、その他の高次の内挿法を適用してもよい。
With reference to FIG. 4, the description of the configuration example of the interpolation element image group generation means 6 will be continued.
<Interpolation processing means>
The interpolation processing means 63 is assigned an identification code with reference to the interpolation element image memory 61a after the pixel information of the integrated photographing element image group stored in the integration memory 51a is assigned to the interpolation element image memory 61a. Interpolation processing is performed on the pixels.
For example, as an interpolation process, there is a method of performing interpolation by linear interpolation from pixel information around a pixel to which an identification code is assigned, but other high-order interpolation methods may be applied.

補間処理手段63が処理を終了すると、補間要素画像メモリ61aの更新も終了する。よって、この時点で補間要素画像群の画素情報は更新が終了する。この生成された補間要素画像群の画素情報を用いて、通常の空間情報表示装置120(図17参照)で提示すれば、空間情報取得装置1(図1参照)にて撮影した被写体に対応した立体像を再構築することができる。また、この生成された補間要素画像群の画素情報を、出力装置12(図1参照)に出力してもよい。出力装置12は、例えばLCD(Liquid Crystal Display)等の表示装置から構成される。   When the interpolation processing unit 63 ends the process, the update of the interpolation element image memory 61a is also ended. Therefore, the update of the pixel information of the interpolation element image group is completed at this time. By using the generated pixel information of the interpolated element image group and presenting it on a normal spatial information display device 120 (see FIG. 17), it corresponds to the subject photographed by the spatial information acquisition device 1 (see FIG. 1). A stereoscopic image can be reconstructed. Further, the generated pixel information of the interpolation element image group may be output to the output device 12 (see FIG. 1). The output device 12 includes a display device such as an LCD (Liquid Crystal Display).

[空間情報補間装置による処理の詳細]
ここでは、空間情報補間装置2の補間要素画像群生成手段6による演算処理について詳細に説明する。
図6は、図5に示した仮想的な3次元空間の配置を2次元で簡略に示し、撮像素子の配置と、メモリ空間の配置とも対応させた概念図である。図5と同じ構成には同じ符号を付し、詳細な説明を適宜省略する。
[Details of processing by spatial information interpolator]
Here, the arithmetic processing by the interpolation element image group generation means 6 of the spatial information interpolation device 2 will be described in detail.
FIG. 6 is a conceptual diagram schematically showing the arrangement of the virtual three-dimensional space shown in FIG. 5 in two dimensions, and corresponding to the arrangement of the image sensor and the arrangement of the memory space. The same reference numerals are given to the same components as those in FIG.

図6において、例えば、統合メモリ51aの情報は、撮像素子アレイ140を構成する撮像素子の配置(実空間)に対応して割り当てられた記憶領域(メモリ空間)に格納されている。図6において、撮像素子アレイ140を構成する撮像素子を太い実線で示し、太い実線の一部を削除することで撮像素子アレイ140に間隙があることを示した。なお、撮像素子の個数やレンズアレイのレンズの個数は一例である。また、撮像素子を示す太い実線に沿って、つまり画素に沿って、画素に対応したメモリ空間の記憶領域を矩形で示した。   In FIG. 6, for example, the information of the integrated memory 51 a is stored in a storage area (memory space) assigned corresponding to the arrangement (real space) of the image sensors that constitute the image sensor array 140. In FIG. 6, the image sensor that constitutes the image sensor array 140 is indicated by a thick solid line, and a part of the thick solid line is deleted to indicate that there is a gap in the image sensor array 140. The number of image sensors and the number of lenses in the lens array are examples. The storage area of the memory space corresponding to the pixel is indicated by a rectangle along the thick solid line indicating the image sensor, that is, along the pixel.

また、図6において、補間要素画像メモリ61aの情報は、仮想撮像素子400が実際には存在しないがあたかも実空間に存在するかのような配置に対応して割り当てられた記憶領域(メモリ空間)に格納されている。図6において、仮想撮像素子400を太い実線で示した。また、仮想撮像素子400を示す太い実線に沿って、つまり画素に沿って、画素に対応したメモリ空間の記憶領域を矩形で示した。   In FIG. 6, the information in the interpolation element image memory 61a is a storage area (memory space) allocated corresponding to the arrangement as if the virtual imaging device 400 does not actually exist but exists in the real space. Stored in In FIG. 6, the virtual image sensor 400 is indicated by a thick solid line. The storage area of the memory space corresponding to the pixel is indicated by a rectangle along the thick solid line indicating the virtual image sensor 400, that is, along the pixel.

対応画素検出及び割当手段62は、図6に示すように、補間要素画像メモリ61aの基準とする所定位置(例えば図6の(h2,v2))に画素情報を割り当てられる仮想撮像素子400上の任意の画素に対応して、幾何光学的演算により検出した統合撮影要素画像群の画素について統合メモリ51a上の位置(例えば図6の(h1,v1))を検出する。対応画素検出及び割当手段62は、この統合メモリ51a上で検出した位置(例えば図6の(h1,v1))に記憶されている画素情報(点P1(h1,v1)の情報)を、統合撮影要素画像群の画素情報として補間要素画像メモリ61aに割り当てる。 As shown in FIG. 6, the corresponding pixel detection and allocation unit 62 assigns pixel information to a predetermined position (for example, (h 2 , v 2 ) in FIG. 6) as a reference in the interpolation element image memory 61a. Corresponding to the upper arbitrary pixel, the position (for example, (h 1 , v 1 ) in FIG. 6) of the integrated photographing element image group detected by the geometric optical calculation is detected on the integrated memory 51a. Corresponding pixel detection and allocation means 62 stores pixel information (points P 1 (h 1 , v 1 )) stored at a position (for example, (h 1 , v 1 ) in FIG. 6) detected on the integrated memory 51a. Information) is assigned to the interpolation element image memory 61a as pixel information of the integrated photographing element image group.

撮像素子アレイ140の隣接する撮像素子間に間隙が生じていると、統合メモリ51aでは、間隙から欠落していて実際には存在しない画素に沿って、画素に対応したメモリ空間の記憶領域において、ある範囲の情報が連続して欠落する。この記憶領域における連続した画素にそれぞれ対応した、欠落した情報を図6では一例としてe1,e2,e3の位置に塗りつぶしで示した。なお、欠落は3画素分とは限らない。 When a gap is generated between adjacent image sensors in the image sensor array 140, in the integrated memory 51a, in the storage area of the memory space corresponding to the pixels along the pixels that are missing from the gap and do not actually exist. A range of information is missing continuously. In FIG. 6, the missing information corresponding to each successive pixel in the storage area is shown as filled in the positions e 1 , e 2 , and e 3 as an example. Note that the omission is not limited to three pixels.

本発明の比較例として、例えば統合メモリ51a上で、図6に示す欠落したe2の情報を内挿処理により補間する場合、e2の周囲のe1とe3の情報も欠落しているために、内挿処理の精度が劣化する。 As a comparative example of the present invention, for example, when interpolating the missing e 2 information shown in FIG. 6 on the integrated memory 51a, the information on e 1 and e 3 around e 2 is also missing. For this reason, the accuracy of the interpolation process deteriorates.

一方で、本発明の実施形態に係る空間情報補間装置2の補間要素画像メモリ61a上では、対応画素検出及び割当手段62の演算処理により、連続して欠落していた情報が、図6に示すように、補間要素画像メモリ61a上の記憶領域の分散した位置(図6において例えばec1,ec2,ec3で表す位置)に割り当てられることになる。したがって、補間要素画像メモリ61a上では、欠落した情報の周囲に、正しく割り当てられた情報が存在するそのため、欠落した情報を内挿処理により高い精度で補間することが可能となる。 On the other hand, on the interpolation element image memory 61a of the spatial information interpolating apparatus 2 according to the embodiment of the present invention, information continuously missing due to the arithmetic processing of the corresponding pixel detection and allocation means 62 is shown in FIG. In this manner, the storage areas on the interpolation element image memory 61a are assigned to dispersed positions (for example, positions represented by e c1 , e c2 and e c3 in FIG. 6). Therefore, on the interpolation element image memory 61a, there is information correctly assigned around the missing information. Therefore, the missing information can be interpolated with high accuracy by interpolation processing.

以上の理由から、補間要素画像群生成手段6の補間処理手段63は、補間要素画像メモリ61a上の情報を用いて、識別符号が付与されている画素について補間処理を行うこととした。   For the above reason, the interpolation processing unit 63 of the interpolation element image group generation unit 6 uses the information on the interpolation element image memory 61a to perform the interpolation processing on the pixels to which the identification code is assigned.

続いて、補間処理手段63で補間処理を実行した後の補間要素画像メモリ61a上の情報を用いて、従来の空間情報提示装置で空間情報を提示した場合の立体像の位置について図7および図8を参照して説明する。
図7は、図6の概念図に対応した概念図であり、図6と同じ構成には同じ符号を付し、詳細な説明を適宜省略する。図7において、例えば、統合メモリ51aの情報を表すために、撮像素子アレイを直線で示し、この直線に沿って統合要素画像群を示した。なお、ここでは間隙を無視している。また、図7において、補間要素画像メモリ61a上の情報を表すために、仮想撮像素子を直線で示し、この直線に沿って補間要素画像群を示した。
図7は、対応画素検出及び割当手段62による演算処理の過程で第1および第2仮想レンズアレイ31,32間に生成される中間像を模式的に示す概念図である。
Subsequently, the position of the three-dimensional image when the spatial information is presented by the conventional spatial information presentation device using the information on the interpolation element image memory 61a after the interpolation processing by the interpolation processing means 63 is shown in FIGS. Explanation will be made with reference to FIG.
7 is a conceptual diagram corresponding to the conceptual diagram of FIG. 6. The same components as those in FIG. 6 are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate. In FIG. 7, for example, in order to represent information in the integrated memory 51 a, the image sensor array is indicated by a straight line, and the integrated element image group is indicated along the straight line. Here, the gap is ignored. Further, in FIG. 7, in order to represent information on the interpolation element image memory 61 a, the virtual imaging element is shown by a straight line, and the interpolation element image group is shown along this straight line.
FIG. 7 is a conceptual diagram schematically showing an intermediate image generated between the first and second virtual lens arrays 31 and 32 in the process of calculation processing by the corresponding pixel detection and assignment unit 62.

この仮想的な中間像は、図1の空間情報取得装置1が、図16に示す被写体111を撮影した場合に生成される立体像に対応している。統合メモリ51aの情報(統合撮影要素画像群)が第1仮想レンズアレイ31により結像されると、仮想的な中間像が生成される。そして、この仮想的な中間像が第2仮想レンズアレイにより変化を受けて、いわば再撮影されたように変換されて仮想撮像素子400上に補間要素画像メモリ61a上の情報として記録される。このとき、被写体111から、図1の空間情報取得装置1の図示しない撮像光学素子アレイまでの距離をzcとすると(図16参照)、第1仮想レンズアレイ31から中間像までの距離zc2は、次の式(4)で表わされる。 This virtual intermediate image corresponds to a stereoscopic image generated when the spatial information acquisition device 1 in FIG. 1 captures the subject 111 shown in FIG. When information (integrated photographing element image group) in the integrated memory 51a is imaged by the first virtual lens array 31, a virtual intermediate image is generated. Then, this virtual intermediate image is changed by the second virtual lens array, converted so as to be re-photographed, and recorded on the virtual image sensor 400 as information on the interpolation element image memory 61a. At this time, if the distance from the subject 111 to the imaging optical element array (not shown) of the spatial information acquisition device 1 in FIG. 1 is z c (see FIG. 16), the distance z c2 from the first virtual lens array 31 to the intermediate image. Is represented by the following equation (4).

Figure 0005852465
Figure 0005852465

図8は、補間処理手段63で補間処理を実行した後の補間要素画像メモリ61a上の情報から生成される再生像を模式的に示す概念図である。図8において、表示レンズアレイ122Aを備える空間情報表示装置の表示素子を、表示レンズアレイ122Aの列に平行な直線で簡略化して示しているが、この表示素子は、紙面に垂直な方向に広がった表示面を有すると共に、紙面に沿った厚みを有している。この表示素子に、補間処理手段63で補間処理を実行した後の補間要素画像メモリ61a上の情報、つまり補間要素画像群を表示すると、図8に示すように再生像が生成される。ここで、表示レンズアレイ122Aから、表示素子において補間要素画像群が表示される面までの距離をdrとすると、表示レンズアレイ122Aから再生像までの距離zrは、図7および図8の幾何学的な関係から、次の式(5)で表わすことができる。 FIG. 8 is a conceptual diagram schematically showing a reproduced image generated from information on the interpolation element image memory 61a after the interpolation processing unit 63 executes the interpolation processing. In FIG. 8, the display element of the spatial information display device including the display lens array 122A is simplified by a straight line parallel to the column of the display lens array 122A, but this display element spreads in a direction perpendicular to the paper surface. And a thickness along the plane of the paper. When information on the interpolation element image memory 61a after the interpolation processing by the interpolation processing means 63, that is, an interpolation element image group is displayed on this display element, a reproduced image is generated as shown in FIG. Here, the display lens array 122A, when the distance to the face interpolator image group is displayed on the display device and d r, the distance z r to the reproduced image from the display lens array 122A is in FIGS. 7 and 8 From the geometric relationship, it can be expressed by the following equation (5).

Figure 0005852465
Figure 0005852465

以上説明したように、第1実施形態に係る空間情報補間装置2は、インテグラルフォトグラフィ方式において複数の撮像素子40により空間情報を取得する際に、隣接する撮像素子40間の間隙により生じる空間情報の欠落を補間した状態で補間要素画像群を生成することができる。
また、空間情報補間装置2は、統合撮影要素画像群の画素情報を第1および第2仮想レンズアレイ31,32を介した光路を用いた幾何光学的演算処理により仮想撮像素子400上に対応付けるので、仮想撮像素子400上において画素情報が正しく対応付けられている画素を補間処理に用いることができる。
As described above, the spatial information interpolating apparatus 2 according to the first embodiment has the space generated by the gap between the adjacent image sensors 40 when acquiring spatial information by the plurality of image sensors 40 in the integral photography method. An interpolated element image group can be generated in a state where the lack of information is interpolated.
In addition, the spatial information interpolation device 2 associates the pixel information of the integrated photographing element image group on the virtual imaging device 400 by the geometric optical calculation process using the optical path via the first and second virtual lens arrays 31 and 32. A pixel in which pixel information is correctly associated on the virtual image sensor 400 can be used for the interpolation process.

(第2実施形態)
本発明の第2実施形態に係る空間情報補間装置は、第1実施形態と比べて補間要素画像群生成手段6の機能が異なっているので、図1の構成と同じ構成には同じ符号を付して説明を省略する。図9は、本発明の第2実施形態に係る空間情報補間装置が備える補間要素画像群生成手段の構成を模式的に示すブロック図である。
図9に示す補間要素画像群生成手段6Aは、図4の構成に、奥行き補正手段64が追加されている点が相違しているので、以下では相違点のみを説明する。
(Second Embodiment)
The spatial information interpolating apparatus according to the second embodiment of the present invention differs from the first embodiment in the function of the interpolation element image group generation means 6, so the same components as those in FIG. Therefore, the description is omitted. FIG. 9 is a block diagram schematically showing the configuration of the interpolation element image group generation means provided in the spatial information interpolation apparatus according to the second embodiment of the present invention.
Since the interpolation element image group generation unit 6A shown in FIG. 9 is different from the configuration of FIG. 4 in that a depth correction unit 64 is added, only the difference will be described below.

奥行き補正手段64は、統合前の撮影要素画像群において空間情報が欠落していた画素に対応して補間要素画像群において補間処理を実行した後に、仮想撮像素子400(図6参照)上に生成された補間要素画像群の空間情報を提示した場合の立体像(再生像:図8参照)の奥行きが、被写体111(図16参照)の奥行きと等しくなるように補間要素画像群の空間情報を補正するものである。   The depth correction unit 64 generates the image on the virtual image sensor 400 (see FIG. 6) after executing the interpolation processing in the interpolation element image group corresponding to the pixel in which the spatial information is missing in the imaging element image group before integration. When the spatial information of the interpolated element image group is presented, the spatial information of the interpolated element image group is set so that the depth of the stereoscopic image (reproduced image: see FIG. 8) is equal to the depth of the subject 111 (see FIG. 16). It is to correct.

前記した式(5)に示すように、表示レンズアレイ122Aから再生像までの距離zrは、図16の被写体111から、図1の空間情報取得装置1の図示しない撮像光学素子アレイまでの距離zcとは異なっている。距離が異なっていたとしても、映像を提示するときの1つの演出効果として好ましい場合もある。例えば、被写体を凹面鏡や凸面鏡を介して拡大したような映像効果を用いる場合には、スケール変換は問題にはならない。
第2実施形態では、被写体のスケール変換をしない映像演出を行う場合を想定する。
As shown in Equation (5), the distance z r from the display lens array 122A to the reproduced image is the distance from the subject 111 in FIG. 16 to the imaging optical element array (not shown) of the spatial information acquisition device 1 in FIG. It is different from z c . Even if the distance is different, it may be preferable as one effect when presenting an image. For example, scale conversion is not a problem when using an image effect in which a subject is enlarged through a concave mirror or a convex mirror.
In the second embodiment, it is assumed that a video effect without subject scale conversion is performed.

そこで、奥行き補正手段64は、被写体から撮像光学素子アレイまでの距離zcと、表示レンズアレイ122Aから再生像までの距離zrとが等しくなるようにするために、補間要素画像メモリ61a上の情報を更新する。
このために、奥行き補正手段64は、図9に示すように、第2補間要素画像メモリ確保手段641と、第2対応画素検出及び割当手段642と、反転処理情報生成手段643とを備えている。
Therefore, the depth correction unit 64 stores the distance z c from the subject to the imaging optical element array and the distance z r from the display lens array 122A to the reproduced image on the interpolation element image memory 61a. Update information.
For this purpose, as shown in FIG. 9, the depth correction unit 64 includes a second interpolation element image memory securing unit 641, a second corresponding pixel detection and allocation unit 642, and an inversion processing information generation unit 643. .

<第2補間要素画像メモリ確保手段>
第2補間要素画像メモリ確保手段641は、補間要素画像メモリ確保手段61と同様の機能を有し、補間要素画像メモリ61aと同じ大きさの領域を有する第2補間要素画像メモリ(図示せず)を確保する。以下では、確保した領域を第2補間要素画像メモリ71aと表記する。
<Second interpolation element image memory securing means>
The second interpolation element image memory securing means 641 has a function similar to that of the interpolation element image memory securing means 61, and a second interpolation element image memory (not shown) having an area of the same size as the interpolation element image memory 61a. Secure. Hereinafter, the secured area is referred to as a second interpolation element image memory 71a.

第2対応画素検出及び割当手段642は、第2補間要素画像メモリ71aに対応する補間要素画像メモリ61a上の位置を検出し、補間要素画像メモリ61aの当該位置に記憶されている補間要素画像群の画素情報を第2補間要素画像メモリ71aに割り当てるものである。つまり、第2対応画素検出及び割当手段642は、対応画素検出及び割当手段62と同様の機能を有するが、補間要素画像メモリ61aの情報と、第2補間要素画像メモリ71aの情報との間で対応画素の検出および割当を行う点が相違している。   The second corresponding pixel detection and allocation unit 642 detects a position on the interpolation element image memory 61a corresponding to the second interpolation element image memory 71a, and stores an interpolation element image group stored at the position in the interpolation element image memory 61a. Is assigned to the second interpolation element image memory 71a. That is, the second corresponding pixel detection and allocation unit 642 has the same function as the corresponding pixel detection and allocation unit 62, but between the information in the interpolation element image memory 61a and the information in the second interpolation element image memory 71a. The difference is that the corresponding pixels are detected and assigned.

第2対応画素検出及び割当手段642が行う幾何光学的演算による動作について図10を参照して説明する。図10は、第3仮想レンズアレイ33と第4仮想レンズアレイ34が、仮想的な3次元空間に配置された様子を模式的に示す概念図である。図10の見方は、図5と同様である。第3仮想レンズアレイ33に対応付けて、補間要素画像メモリ61aの情報が図10に示されている。また、第4仮想レンズアレイ34に対応付けて、第2補間要素画像メモリ71aの情報が図10に示されている。   The operation by geometric optical calculation performed by the second corresponding pixel detection and assignment unit 642 will be described with reference to FIG. FIG. 10 is a conceptual diagram schematically showing a state in which the third virtual lens array 33 and the fourth virtual lens array 34 are arranged in a virtual three-dimensional space. The way of viewing FIG. 10 is the same as that of FIG. The information in the interpolation element image memory 61a is shown in FIG. 10 in association with the third virtual lens array 33. Further, information of the second interpolation element image memory 71a is shown in FIG. 10 in association with the fourth virtual lens array 34.

図10において、第3仮想レンズアレイ33に関係して添字に3を付して図示される距離、位置、座標軸等を表す記号は、図5において、第1仮想レンズアレイ31に関係して添字に1を付して図示される距離、位置、座標軸等を表す記号と同様な記号を表している。図10において、第4仮想レンズアレイ34に関係して添字に4を付して図示される距離、位置、座標軸等を表す記号は、図5において、第2仮想レンズアレイ32に関係して添字に2を付して図示される距離、位置、座標軸等を表す記号と同様な記号を表している。したがって、詳細な説明は省略する。   In FIG. 10, a symbol indicating a distance, a position, a coordinate axis, and the like illustrated by adding 3 to the subscript related to the third virtual lens array 33 is a subscript related to the first virtual lens array 31 in FIG. 5. Symbols similar to symbols representing distances, positions, coordinate axes, and the like shown in FIG. In FIG. 10, a symbol indicating a distance, a position, a coordinate axis, and the like illustrated by adding 4 to the subscript related to the fourth virtual lens array 34 is a subscript related to the second virtual lens array 32 in FIG. 5. A symbol similar to the symbol representing the distance, position, coordinate axis, etc. shown in FIG. Therefore, detailed description is omitted.

第2対応画素検出及び割当手段642は、図10に示すように、補間要素画像メモリ61aの情報、第3仮想レンズアレイ33、第4仮想レンズアレイ34を用いて、補間要素画像メモリ61aの情報を第2補間要素画像メモリ71aに割り当てる。   As shown in FIG. 10, the second corresponding pixel detection and allocation unit 642 uses the information in the interpolation element image memory 61a and the information in the interpolation element image memory 61a using the third virtual lens array 33 and the fourth virtual lens array 34. Are assigned to the second interpolation element image memory 71a.

第2補間要素画像メモリ71aの情報として、図10の位置(h4,v4)で特定される情報(ここでは、点P4(h4,v4)の情報という)に対して、補間要素画像メモリ61aの情報を割り当てる手順は、以下の(b1)〜(b5)の通りである。 As information of the second interpolation element image memory 71a, interpolation is performed on information specified by the position (h 4 , v 4 ) in FIG. 10 (here, information of the point P 4 (h 4 , v 4 )). The procedure for assigning information in the element image memory 61a is as follows (b1) to (b5).

(b1)点P4(h4,v4)を始点として、点P4(h4,v4)から最も近距離にある、第4仮想レンズアレイ34を構成する光学素子g4を検出し、点P4(h4,v4)と光学素子g4の主点P40とを通る直線h4を演算処理により求めて設定する。
(b2)直線h4と第3仮想レンズアレイ33との交点P31を検出する。
(b3)交点P31から最も近距離にある、第3仮想レンズアレイ33を構成する光学素子g3を検出し、光学素子g3の主点P30を検出する。
(b4)光学素子g3の主点P30を通る直線であって、直線h4と傾きが等しい直線h3を演算処理により求めて設定する。
(b5)直線h3と、x33平面(補間要素画像メモリ61aの情報)とが交差する位置(h3,v3)で特定される情報(ここでは、点P3(h3,v3)の情報という)を検出する。そして、補間要素画像メモリ61aの情報のうち、点P3(h3,v3)の情報を、第2補間要素画像メモリ71aの情報P4(h4,v4)として割り当てて書き込む。
(B1) point P 4 and (h 4, v 4) as the starting point, in the most short distance from the point P 4 (h 4, v 4), to detect the optical element g 4 constituting a fourth virtual lens array 34 , the point P 4 (h 4, v 4 ) and determined and set by the arithmetic processor straight h 4 passing through the principal point P 40 of the optical element g 4.
(B2) The intersection point P 31 between the straight line h 4 and the third virtual lens array 33 is detected.
(B3) The optical element g 3 constituting the third virtual lens array 33 that is closest to the intersection point P 31 is detected, and the principal point P 30 of the optical element g 3 is detected.
(B4) A straight line h 3 passing through the principal point P 30 of the optical element g 3 and having the same inclination as the straight line h 4 is obtained and set by calculation processing.
(B5) Information (here, the point P 3 (h 3 , h 3 , v 3 )) specified by the position (h 3 , v 3 ) where the straight line h 3 and the x 3 y 3 plane (information in the interpolation element image memory 61a) intersect. v 3 that information)) is detected. Then, of the information in the interpolation element image memory 61a, the information on the point P 3 (h 3 , v 3 ) is assigned and written as information P 4 (h 4 , v 4 ) in the second interpolation element image memory 71a.

続いて、第2対応画素検出及び割当手段642で処理を実行した後の第2補間要素画像メモリ71a上の情報を用いて、従来の空間情報提示装置で空間情報を提示した場合の立体像の位置について図11および図12を参照して説明する。   Subsequently, using the information on the second interpolation element image memory 71a after the processing by the second corresponding pixel detection and assignment unit 642, the stereoscopic image when the spatial information is presented by the conventional spatial information presentation device is used. The position will be described with reference to FIGS. 11 and 12.

図11は、図7の概念図と同様の形式の概念図である。図11において、例えば、補間要素画像メモリ61aの情報を表すために、仮想撮像素子を直線で示し、この直線に沿って補間処理後の補間要素画像群を示した。また、図11において、第2補間要素画像メモリ71a上の情報を表すために、仮想撮像素子を直線で示し、この直線に沿って更新後の補間要素画像群を示した。つまり、図11は、第2対応画素検出及び割当手段642による演算処理の過程で第3および第4仮想レンズアレイ33,34間に生成される中間像2を模式的に示す概念図である。この仮想的な中間像2は、図7の仮想的な中間像と比べて、奥行きの方向(図11において水平方向)が反転し、左右の方向(図11において垂直方向)が反転した像になっている。   FIG. 11 is a conceptual diagram in the same format as the conceptual diagram of FIG. In FIG. 11, for example, in order to represent information in the interpolation element image memory 61 a, the virtual imaging element is indicated by a straight line, and the interpolation element image group after the interpolation processing is indicated along the straight line. In FIG. 11, in order to represent the information on the second interpolation element image memory 71a, the virtual image sensor is indicated by a straight line, and the updated interpolation element image group is indicated along the straight line. That is, FIG. 11 is a conceptual diagram schematically showing the intermediate image 2 generated between the third and fourth virtual lens arrays 33 and 34 in the process of the arithmetic processing by the second corresponding pixel detection and assignment unit 642. The virtual intermediate image 2 is an image in which the depth direction (horizontal direction in FIG. 11) is inverted and the left and right directions (vertical direction in FIG. 11) are inverted, compared to the virtual intermediate image of FIG. It has become.

このとき、図10および図11に示すように、補間要素画像メモリ61aの情報から第3仮想レンズアレイ33までの距離をd3、第4仮想レンズアレイ34から第2補間要素画像メモリ71aの情報までの距離をd4とすれば、第3仮想レンズアレイ33から中間像2までの距離zr2は、次の式(6)で表わされる。 At this time, as shown in FIGS. 10 and 11, the distance from the information in the interpolation element image memory 61a to the third virtual lens array 33 is d 3 , and the information from the fourth virtual lens array 34 to the second interpolation element image memory 71a. Is d 4 , the distance z r2 from the third virtual lens array 33 to the intermediate image 2 is expressed by the following equation (6).

Figure 0005852465
Figure 0005852465

式(6)のdrは、図8に示すように、表示レンズアレイ122Aから、表示素子において画像が表示される面までの距離drを示す。また、式(6)のzrは、前記式(5)で表され、図8に示すように、補間処理を実行した後の補間要素画像メモリ61a上の情報を用いたときに、表示レンズアレイ122Aから、生成される再生像までの距離を示している。一方、図12は、図8に対応しており、第2補間要素画像メモリ71aの情報を提示している点が相違している。すなわち、図12は、第2対応画素検出及び割当手段642で割り当てた第2補間要素画像メモリ71aの情報により提示される再生像を模式的に示す概念図である。なお、図12においても、表示レンズアレイ122Aから、表示素子において画像が表示される面までの距離はdrである。 D r of formula (6), as shown in FIG. 8, the display lens array 122A, shows the distance d r to the surface on which an image is displayed on the display device. Also, z r in equation (6) is expressed by equation (5), and as shown in FIG. 8, when information on the interpolation element image memory 61a after executing the interpolation processing is used, the display lens The distance from the array 122A to the reproduced image to be generated is shown. On the other hand, FIG. 12 corresponds to FIG. 8 and is different in that information in the second interpolation element image memory 71a is presented. That is, FIG. 12 is a conceptual diagram schematically showing a reproduced image presented by the information in the second interpolation element image memory 71a assigned by the second corresponding pixel detection and assignment means 642. Also in FIG. 12, the distance from the display lens array 122A, to the surface on which an image is displayed on the display device is d r.

図12において、表示レンズアレイ122Aから再生像までの距離zr3は、図11および図12の幾何学的な関係から、次の式(7)で表わすことができる。 In FIG. 12, the distance z r3 from the display lens array 122A to the reproduced image can be expressed by the following equation (7) from the geometrical relationship of FIGS.

Figure 0005852465
Figure 0005852465

ここで、図11に示す補間要素画像メモリ61aの情報から第3仮想レンズアレイ33までの距離d3と、図12に示す第2補間要素画像メモリ71aの情報から表示レンズアレイまでの距離drと、図11に示す第4仮想レンズアレイ34から第2補間要素画像メモリ71aの情報までの距離d4との関係を、d3=d4=−drに設定すれば、前記式(7)で示す距離zr3は、次の式(8)で表わされることになる。 Here, the distance d 3 from the information of the interpolation element image memory 61a shown in FIG. 11 to the third virtual lens array 33, a distance d r from the information of the second interpolator image memory 71a shown in FIG. 12 to the display lens array When the relationship between the distance d 4 from the fourth virtual lens array 34 shown in FIG. 11 to the information of the second interpolator image memory 71a, it is set to d 3 = d 4 = -d r , the formula (7 ) distance z r3 represented by will be expressed by the following equation (8).

Figure 0005852465
Figure 0005852465

ここで、式(8)の右辺の距離zrは、前記式(5)に示すように、距離d1(統合メモリ51aの情報から第1仮想レンズアレイまでの距離)と、距離d2(第2仮想レンズアレイ32から補間要素画像メモリ61aの情報までの距離)とに関係付けられている。そこで、これら距離d1と距離d2とを等しい距離に設定すれば、式(5)より、距離zrは式(9)で表わされる。 Here, the distance z r on the right side of the equation (8) is, as shown in the equation (5), the distance d 1 (the distance from the information in the integrated memory 51a to the first virtual lens array) and the distance d 2 ( The distance from the second virtual lens array 32 to the information in the interpolation element image memory 61a). Therefore, if these distances d 1 and d 2 are set to be equal distances, the distance z r is represented by the expression (9) from the expression (5).

Figure 0005852465
Figure 0005852465

前記式(8)は、距離L2(第3および第4仮想レンズアレイ33,34間の距離)と関係付けられており、一方、前記式(9)は、距離L(第1および第2仮想レンズアレイ31,32間の距離)と関係付けられている。そこで、これら距離L2と距離Lとを等しい距離に設定すれば、式(8)と式(9)より、距離zr3は式(10)で表わされる。 The equation (8) is related to the distance L 2 (the distance between the third and fourth virtual lens arrays 33 and 34), while the equation (9) is the distance L (first and second). The distance between the virtual lens arrays 31 and 32). Therefore, if these distances L 2 and L are set to be equal distances, the distance z r3 is expressed by the expression (10) from the expressions (8) and (9).

Figure 0005852465
Figure 0005852465

ここで、距離zcは、被写体111から、図1の空間情報取得装置1の図示しない撮像光学素子アレイまでの距離(図16参照)である。よって、図12において、表示レンズアレイ122Aから再生像までの距離zr3と、被写体から撮像光学素子アレイまでの距離とは等しくなる。ただし、距離zcは負の値(図16参照)であって、距離zr3は正の値(図12参照)である。よって、図12に示す再生像は、被写体に比して奥行きが反転する逆視像となっている。つまり、撮影時に図16において右から撮像光学素子アレイを介して見た被写体の奥行き(例えば凸形状)ではなく、あたかも撮影時に左から見た被写体と同じ奥行き(例えば凹形状)を持った像が、図12において右から表示レンズアレイ122Aを介して見た再生像として観察されることになる。 Here, the distance z c is a distance (see FIG. 16) from the subject 111 to an imaging optical element array (not shown) of the spatial information acquisition device 1 in FIG. Therefore, in FIG. 12, the distance z r3 from the display lens array 122A to the reproduced image is equal to the distance from the subject to the imaging optical element array. However, the distance z c is a negative value (see FIG. 16), and the distance z r3 is a positive value (see FIG. 12). Therefore, the reproduced image shown in FIG. 12 is a reverse-view image in which the depth is inverted compared to the subject. That is, an image having the same depth (for example, concave shape) as that of the subject viewed from the left at the time of shooting is not the depth of the subject (for example, convex shape) viewed from the right through the imaging optical element array in FIG. In FIG. 12, it is observed as a reproduced image viewed from the right through the display lens array 122A.

図9に戻って、奥行き補正手段64の構成の説明を続ける。
<反転処理情報生成手段>
反転処理情報生成手段643は、立体像として表示されたときに被写体の凹凸が反転した再生像となる要素画像群を構成する個々の要素画像をそれぞれ点対称に反転させる演算処理を行って、被写体の凹凸と同じ再生像となる要素画像群を反転処理情報として生成するものである。この反転処理情報生成手段643は、従来公知なので、簡単に説明する。
Returning to FIG. 9, the description of the configuration of the depth correction means 64 will be continued.
<Inversion processing information generation means>
The inversion processing information generation unit 643 performs arithmetic processing for inverting the individual element images constituting the element image group that is a reproduction image in which the unevenness of the subject is inverted when displayed as a stereoscopic image, in a point-symmetric manner. A group of element images that are the same reconstructed image as the projections and depressions are generated as inversion processing information. Since this inversion processing information generating means 643 is conventionally known, it will be described briefly.

図13は、反転処理情報生成手段643において再生像の奥行きを反転させるための第3補間要素画像メモリの情報を生成する動作を模式的に示す概念図である。
反転処理情報生成手段643は、第2補間要素画像メモリ確保手段641と同様の機能を有し、第2補間要素画像メモリ71aと同じ大きさの領域を有する第3補間要素画像メモリ(図示せず)を確保する。以下では、確保した領域を第3補間要素画像メモリ72aと表記する。図13に示す第5仮想レンズアレイ35は、図13に示すように、第2補間要素画像メモリ71aの情報に対して、要素画像ごとに(仮想レンズごとに)反転処理を行い、第3補間要素画像メモリ72aの情報を生成する。
FIG. 13 is a conceptual diagram schematically showing the operation of generating information in the third interpolation element image memory for inverting the depth of the reproduced image in the inversion processing information generating means 643.
The inversion processing information generating unit 643 has the same function as the second interpolation element image memory securing unit 641 and has a third interpolation element image memory (not shown) having the same size as the second interpolation element image memory 71a. ). Hereinafter, the secured area is referred to as a third interpolation element image memory 72a. As shown in FIG. 13, the fifth virtual lens array 35 shown in FIG. 13 performs inversion processing for each element image (for each virtual lens) on the information in the second interpolation element image memory 71a, and performs third interpolation. Information in the element image memory 72a is generated.

続いて、反転処理情報生成手段643で第5仮想レンズアレイ35を介した処理を実行した後の第3補間要素画像メモリ72a上の情報を用いて、従来の空間情報提示装置で空間情報を提示した場合の立体像の位置について図14を参照して説明する。図14は、図12に対応しており、第3補間要素画像メモリ72aの情報を提示している点が相違している。   Subsequently, using the information on the third interpolation element image memory 72a after the processing through the fifth virtual lens array 35 is executed by the inversion processing information generation means 643, the spatial information is presented by the conventional spatial information presentation device. The position of the stereoscopic image in this case will be described with reference to FIG. FIG. 14 corresponds to FIG. 12 and is different in that information in the third interpolation element image memory 72a is presented.

図14において、表示レンズアレイ122Aから再生像までの距離zr3と、被写体から撮像光学素子アレイまでの距離zcとは等しくなり、かつ、距離zr3も距離zcと同様に負の値となる(zr3=zc)。よって、図14に示す再生像は、被写体の凹凸と同じ再生像となっている。 In FIG. 14, the distance z r3 from the display lens array 122A to the reproduced image is equal to the distance z c from the subject to the imaging optical element array, and the distance z r3 is also a negative value as in the distance z c. (Z r3 = z c ) Therefore, the reproduced image shown in FIG. 14 is the same reproduced image as the unevenness of the subject.

<第2実施形態の変形例>
図14の再生像は、被写体111(図16参照)と比較した場合の左右関係が異なっている。ここで、左右は、図14において、観察者が、白抜き矢印で示す観察方向から再生像を観察する向きを正面としたときの左右を示す(図14において上が、左右の右を表す)。具体的には、撮影時に図16において右から撮像光学素子アレイを介して見た被写体の円柱は右手前にあるが、図14において右から表示レンズアレイ122Aを介して見たときに再生像の円柱は左手前に観察されることになる。被写体と比較した場合の左右関係が異なっていたとしても、映像を提示するときの1つの演出効果として好ましい場合もある。また、例えば、鏡に映った被写体を撮影するという特殊な方法を採用すれば、提示するときに、被写体と等価な再生像が生成されることになる。
第2実施形態の変形例では、被写体と等価な再生像が生成されるように演算処理を行う場合を想定する。
<Modification of Second Embodiment>
The reproduced image in FIG. 14 is different in the left-right relationship when compared with the subject 111 (see FIG. 16). Here, the left and right indicate the left and right when the direction in which the observer observes the reproduced image from the observation direction indicated by the white arrow is the front in FIG. 14 (the upper in FIG. 14 represents the right and left right). . Specifically, the cylinder of the subject viewed from the right through the imaging optical element array in FIG. 16 at the time of shooting is in front of the right side, but when viewed from the right through the display lens array 122A in FIG. The cylinder will be observed on the left side. Even if the left-right relationship when compared with the subject is different, it may be preferable as one effect when presenting an image. For example, if a special method of photographing a subject reflected in a mirror is employed, a reproduced image equivalent to the subject is generated when presented.
In the modification of the second embodiment, it is assumed that the calculation process is performed so that a reproduced image equivalent to the subject is generated.

反転処理情報生成手段643は、図14の再生像を表示してしまう要素画像情報を補正するために、第3補間要素画像メモリ72aの情報全体を左右に反転する処理を行うこととした。この反転処理情報生成手段643にて、第3補間要素画像メモリ72aの情報全体を左右に反転する処理を実行した後の第3補間要素画像メモリ72a上の情報を用いて、従来の空間情報提示装置で空間情報を提示した場合の立体像の位置を図15に示す。図15に示すように、反転処理情報生成手段643の処理の結果、被写体と等価な再生像が生成されることになる。   The inversion processing information generation means 643 performs processing to invert the entire information in the third interpolation element image memory 72a to the left and right in order to correct the element image information that displays the reproduced image of FIG. By using the information on the third interpolation element image memory 72a after executing the process of inverting the entire information of the third interpolation element image memory 72a to the left and right by the inversion processing information generation means 643, the conventional spatial information presentation is performed. FIG. 15 shows the position of the stereoscopic image when the spatial information is presented by the apparatus. As shown in FIG. 15, a reproduction image equivalent to the subject is generated as a result of the processing by the inversion processing information generation means 643.

以上、各実施形態について説明したが、本発明はこれらに限定されるものではなく、その趣旨を変えない範囲でさまざまに実施することができる。例えば、仮輝度情報及び識別符号割当手段53は、統合メモリ51aにおいて画素情報が割り当てられていないメモリ領域に、仮の画素情報および識別符号を割り当てるものとして説明したが、仮の画素情報および識別符号を1つの情報として割り当てることもできる。   As mentioned above, although each embodiment was described, this invention is not limited to these, In the range which does not change the meaning, it can implement variously. For example, the provisional luminance information and identification code assigning means 53 has been described as assigning provisional pixel information and identification code to a memory area to which pixel information is not assigned in the integrated memory 51a. Can be assigned as one piece of information.

この場合、空間情報取得装置1の撮像素子アレイ140を構成する撮像素子40で取得される撮影要素画像群の画素の輝度値の中で予め定められた最低輝度値または最高輝度値を割り当てる。例えば、画素の輝度を8ビットの情報で表した場合、0〜255のいずれかの値をとることになるが、空間情報が欠落した画素については、255または0を、仮の画素情報(輝度)として割り当てるようにする。これにより、統合メモリ51aにおいて、255または0を、仮の画素情報(輝度)および識別符号として扱い、それ以外の画素情報を、撮像素子40で取得された情報があるものとして識別することができる。その結果、空間情報補間装置は、仮の画素情報と識別符号とを別々の情報として扱う場合に比べて、必要な記憶容量を低減することができる。   In this case, a predetermined minimum luminance value or maximum luminance value is assigned among the luminance values of the pixels of the imaging element image group acquired by the imaging element 40 constituting the imaging element array 140 of the spatial information acquisition apparatus 1. For example, when the luminance of a pixel is represented by 8-bit information, it takes any value from 0 to 255. However, for a pixel lacking spatial information, 255 or 0 is set as temporary pixel information (luminance). ). Thereby, in the integrated memory 51a, 255 or 0 can be treated as temporary pixel information (luminance) and an identification code, and other pixel information can be identified as having information acquired by the image sensor 40. . As a result, the spatial information interpolating device can reduce the required storage capacity as compared with the case where the temporary pixel information and the identification code are handled as separate information.

また、対応画素検出及び割当手段62の処理手順(a6)において、仮輝度と共に識別符号が割り当てられている場合、仮輝度と識別符号を併せて補間要素画像メモリ61aの情報に割り当てることとしたが、これに限定されない。例えば、仮の画素情報(輝度)と識別符号とが別々の情報であるとき、統合メモリ51aに割り当てられている仮輝度値を補間要素画像メモリ61aに割り当てることはしなくてもよい。   In the processing procedure (a6) of the corresponding pixel detection and assignment unit 62, when the identification code is assigned together with the temporary luminance, the temporary luminance and the identification code are assigned to the information in the interpolation element image memory 61a together. However, the present invention is not limited to this. For example, when the temporary pixel information (luminance) and the identification code are different information, the temporary luminance value assigned to the integrated memory 51a may not be assigned to the interpolation element image memory 61a.

また、各実施形態では、第1〜第5仮想光学要素アレイを構成する光学要素を要素レンズとして説明したが、ピンホールに置き換えてもよい。この場合、要素レンズの焦点距離に対応する距離は任意の距離とすることができる。   Moreover, in each embodiment, although the optical element which comprises the 1st-5th virtual optical element array was demonstrated as an element lens, you may substitute to a pinhole. In this case, the distance corresponding to the focal length of the element lens can be an arbitrary distance.

また、空間情報補間装置は、前記した各手段を演算回路によって実現することも可能であるし、中央処理装置(CPU:Central Processing Unit)、主記憶装置(RAM:Random Access Memory)等を備えた一般的な計算機を、前記した各手段として機能させるプログラム(空間情報補間プログラム)により動作させることで実現することも可能である。このプログラム(補間プログラム)は、通信回線を介して提供することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。   In addition, the spatial information interpolating device can realize each of the above means by an arithmetic circuit, and includes a central processing unit (CPU), a main storage device (RAM: Random Access Memory), and the like. It can also be realized by operating a general computer by a program (spatial information interpolation program) that functions as each means described above. This program (interpolation program) can be provided via a communication line, or can be written on a recording medium such as a CD-ROM and distributed.

1 空間情報取得装置
2 空間情報補間装置
3 撮像光学素子アレイ配置情報取得手段(撮像光学要素アレイ配置情報取得手段)
4 撮像素子アレイ配置情報取得手段
5 統合手段
6,6A 補間要素画像群生成手段
11 入力装置
12 出力装置
21 記憶手段
22 処理手段
31 第1仮想レンズアレイ(第1仮想光学要素アレイ)
32 第2仮想レンズアレイ(第2仮想光学要素アレイ)
33 第3仮想レンズアレイ(第3仮想光学要素アレイ)
34 第4仮想レンズアレイ(第4仮想光学要素アレイ)
35 第5仮想レンズアレイ(第5仮想光学要素アレイ)
40A,40B,40C,40D,40 撮像素子
41 間隙
51 統合メモリ確保手段
51a 統合メモリ
52 空間情報割当手段
53 仮輝度情報及び識別符号割当手段
61 補間要素画像メモリ確保手段
61a 補間要素画像メモリ
62 対応画素検出及び割当手段
63 補間処理手段
64 奥行き補正手段
71a 第2補間要素画像メモリ
72a 第3補間要素画像メモリ
122A 表示レンズアレイ
140 撮像素子アレイ
641 第2補間要素画像メモリ確保手段
642 第2対応画素検出及び割当手段
643 反転処理情報生成手段
DESCRIPTION OF SYMBOLS 1 Spatial information acquisition apparatus 2 Spatial information interpolation apparatus 3 Imaging optical element array arrangement information acquisition means (Imaging optical element array arrangement information acquisition means)
4 Image sensor array arrangement information acquisition means 5 Integration means 6, 6A Interpolation element image group generation means 11 Input device 12 Output device 21 Storage means 22 Processing means 31 First virtual lens array (first virtual optical element array)
32 Second virtual lens array (second virtual optical element array)
33 Third virtual lens array (third virtual optical element array)
34 Fourth virtual lens array (fourth virtual optical element array)
35 Fifth virtual lens array (fifth virtual optical element array)
40A, 40B, 40C, 40D, 40 Image sensor 41 Gap 51 Integrated memory securing means 51a Integrated memory 52 Spatial information allocation means 53 Temporary luminance information and identification code allocation means 61 Interpolation element image memory securing means 61a Interpolation element image memory 62 Corresponding pixel Detection and allocation means 63 Interpolation processing means 64 Depth correction means 71a Second interpolation element image memory 72a Third interpolation element image memory 122A Display lens array 140 Image sensor array 641 Second interpolation element image memory securing means 642 Second corresponding pixel detection and Assigning means 643 Inversion processing information generating means

Claims (6)

複数の要素光学素子または複数の要素ピンホールが二次元状に配列された撮像光学要素アレイと、複数の撮像素子から構成される撮像素子アレイと、を用いて撮影により被写体が存在する空間の空間情報として得られる撮影要素画像群の画素情報に欠落している空間情報を補間する空間情報補間装置であって、
記憶手段と、
前記撮像光学要素アレイを構成する各光学要素の配置情報を外部から取得して前記記憶手段に格納する撮像光学要素アレイ配置情報取得手段と、
前記撮像素子アレイを構成する各撮像素子の配置情報を外部から取得して前記記憶手段に格納する撮像素子アレイ配置情報取得手段と、
前記撮像素子アレイを構成する各撮像素子において前記被写体を撮影した映像信号として取得される撮影要素画像群の画素情報を各撮像素子に対応してそれぞれ受け付け、前記受け付けたそれぞれの撮影要素画像群の画素情報を予め取得された前記撮像素子の配置情報で特定される位置に合わせて並べて前記撮像素子間の間隙を含めて前記各撮影要素画像群の画素情報を統合して統合撮影要素画像群の画素情報を生成する統合手段と、
前記撮像素子の配置情報に基づいて並べた前記統合撮影要素画像群と、予め取得された前記光学要素の配置情報で特定される位置に仮想的な光学要素が二次元状に配列されて構成される第1および第2仮想光学要素アレイと、仮想的な画素が配列された仮想撮像素子と、を仮想空間上にそれぞれ離間させて配置し、前記仮想空間上における幾何光学的演算により前記統合撮影要素画像群の画素情報に対応付けた補間要素画像群の画素情報を前記仮想撮像素子上に生成する補間要素画像群生成手段とを備え、
前記補間要素画像群生成手段は、
統合前の前記撮影要素画像群において空間情報が欠落していた画素については、前記補間要素画像群において前記撮影要素画像群の画素情報が正しく対応付けられている画素を用いて補間処理を行うことを特徴とする空間情報補間装置。
A space in which a subject is present by photographing using an imaging optical element array in which a plurality of element optical elements or a plurality of element pinholes are two-dimensionally arranged, and an imaging element array composed of a plurality of imaging elements A spatial information interpolating device for interpolating spatial information missing in pixel information of a photographing element image group obtained as information,
Storage means;
Imaging optical element array arrangement information acquisition means for acquiring arrangement information of each optical element constituting the imaging optical element array from outside and storing it in the storage means;
Image sensor array arrangement information acquisition means for acquiring arrangement information of each image sensor constituting the image sensor array from the outside and storing it in the storage means;
The pixel information of the imaging element image group acquired as a video signal obtained by imaging the subject in each imaging element constituting the imaging element array is received corresponding to each imaging element, and each of the received imaging element image groups is received. The pixel information is arranged in accordance with the position specified by the arrangement information of the image pickup element acquired in advance, and the pixel information of each of the image pickup element image groups including the gap between the image pickup elements is integrated to obtain the integrated image pickup element image group. An integration means for generating pixel information;
The integrated photographing element image group arranged based on the arrangement information of the image sensor, and virtual optical elements are arranged in a two-dimensional manner at a position specified by the optical element arrangement information acquired in advance. The first and second virtual optical element arrays and the virtual image sensor on which virtual pixels are arranged are arranged separately from each other in the virtual space, and the integrated photographing is performed by geometric optical calculation in the virtual space. Interpolating element image group generation means for generating pixel information of the interpolation element image group associated with the pixel information of the element image group on the virtual imaging device,
The interpolation element image group generation means includes
For pixels in which spatial information is missing in the imaging element image group before integration, interpolation processing is performed using pixels in the interpolation element image group that are correctly associated with pixel information of the imaging element image group. Spatial information interpolation device characterized by the above.
前記統合手段は、
前記撮像素子アレイを構成する各撮像素子で取得される撮影要素画像群の画素情報が展開可能な記憶領域を前記記憶手段において統合メモリとして確保し、前記撮像素子アレイを構成する撮像素子の配置情報に含まれる、隣接する前記撮像素子間の間隙の距離情報にしたがって、前記間隙に対応して要素画像群の画素情報が展開可能な記憶領域を前記統合メモリに含める統合メモリ確保手段と、
前記撮像素子アレイを構成する各撮像素子で取得される撮影要素画像群の画素に対応した画素情報を空間情報として前記統合メモリに割り当てて書き込む空間情報割当手段と、
前記統合メモリにおいて前記撮影要素画像群の画素に対応した画素情報が割り当てられていないメモリ領域に、所定の輝度情報を仮の画素情報として割り当てて書き込むと共に、当該画素情報が仮のものであることを識別するための識別符号を割り当てる仮輝度情報及び識別符号割当手段と、を備え、
前記補間要素画像群生成手段は、
前記統合メモリの情報を参照し、前記幾何光学的演算により検出された統合撮影要素画像群の画素に前記識別符号が割り当てられている場合に、当該画素は統合前に空間情報が欠落していた画素であるものとして前記補間処理を行うことを特徴とする請求項1に記載の空間情報補間装置。
The integration means includes
A storage area where the pixel information of the imaging element image group acquired by each imaging element constituting the imaging element array can be developed as an integrated memory in the storage means, and arrangement information of the imaging elements constituting the imaging element array Integrated memory securing means for including, in the integrated memory, a storage area in which pixel information of an elemental image group can be developed corresponding to the gap, according to the distance information of the gap between the adjacent image sensors included in
Spatial information allocating means for allocating and writing pixel information corresponding to the pixels of the photographic element image group acquired by each imaging element constituting the imaging element array to the integrated memory as spatial information;
Predetermined luminance information is allocated and written as temporary pixel information in a memory area to which pixel information corresponding to pixels of the imaging element image group is not allocated in the integrated memory, and the pixel information is temporary Provisional luminance information and identification code assigning means for assigning an identification code for identifying
The interpolation element image group generation means includes
When the identification code is assigned to the pixel of the integrated photographing element image group detected by the geometric optical calculation with reference to the information of the integrated memory, the pixel has lost spatial information before the integration. The spatial information interpolation apparatus according to claim 1, wherein the interpolation processing is performed on the assumption that the pixel is a pixel.
前記補間要素画像群生成手段は、
前記統合メモリと同じ大きさの記憶領域であって、前記仮想撮像素子上の画素の画素情報を記憶する記憶領域を前記記憶手段において補間要素画像メモリとして確保する補間要素画像メモリ確保手段と、
前記補間要素画像メモリの所定位置に画素情報を割り当てられる前記仮想撮像素子上の任意の画素に対応して、前記幾何光学的演算により検出した前記統合撮影要素画像群の画素について前記統合メモリ上の位置を検出し、当該位置に記憶されている画素情報を統合撮影要素画像群の画素情報として前記補間要素画像メモリに割り当てて書き込むと共に、前記統合メモリ上で検出した位置に前記識別符号が記憶されている場合、当該識別符号を前記補間要素画像メモリの前記所定位置に割り当てる対応画素検出及び割当手段と、
前記統合メモリに記憶された前記統合撮影要素画像群の画素情報が前記補間要素画像メモリに書き込まれた後に当該補間要素画像メモリを参照して、前記識別符号が割り当てられている画素について前記補間処理を行う補間処理手段と、
を備えることを特徴とする請求項2に記載の空間情報補間装置。
The interpolation element image group generation means includes
Interpolation element image memory securing means that secures a storage area having the same size as the integrated memory and storing pixel information of pixels on the virtual image sensor as an interpolation element image memory in the storage means;
Corresponding to an arbitrary pixel on the virtual image sensor to which pixel information is assigned to a predetermined position of the interpolation element image memory, pixels of the integrated photographing element image group detected by the geometric optical calculation are stored on the integrated memory. A position is detected, and pixel information stored at the position is assigned and written to the interpolation element image memory as pixel information of the integrated photographing element image group, and the identification code is stored at the position detected on the integrated memory. Corresponding pixel detection and assignment means for assigning the identification code to the predetermined position of the interpolation element image memory,
After the pixel information of the integrated photographing element image group stored in the integrated memory is written in the interpolation element image memory, the interpolation processing is performed on the pixels to which the identification code is assigned with reference to the interpolation element image memory. Interpolation processing means for performing
The spatial information interpolating apparatus according to claim 2, comprising:
前記仮輝度情報及び識別符号割当手段は、
前記統合メモリにおいて前記空間情報割当手段によって前記画素情報が割り当てられていないメモリ領域に、前記仮の画素情報および前記識別符号を示す1つの情報として、前記撮像素子で取得される撮影要素画像群の画素の輝度値の中で予め定められた最低輝度値または最高輝度値を割り当てることを特徴とする請求項2または請求項3に記載の空間情報補間装置。
The temporary luminance information and the identification code assigning means are
In the integrated memory, as a piece of information indicating the provisional pixel information and the identification code in a memory area to which the pixel information is not allocated by the spatial information allocation unit, 4. The spatial information interpolation apparatus according to claim 2, wherein a predetermined minimum luminance value or maximum luminance value is assigned among the luminance values of the pixels.
前記補間要素画像群生成手段は、
統合前の前記撮影要素画像群において空間情報が欠落していた画素に対応して前記補間要素画像群において前記補間処理を実行した後に、前記仮想撮像素子上に生成された補間要素画像群の空間情報を提示した場合の立体像の奥行きが、前記被写体の奥行きと等しくなるように前記補間要素画像群の空間情報を補正する奥行き補正手段をさらに備えることを特徴とする請求項1から請求項4のいずれか一項に記載の空間情報補間装置。
The interpolation element image group generation means includes
The space of the interpolation element image group generated on the virtual imaging device after executing the interpolation processing in the interpolation element image group corresponding to the pixel in which spatial information is missing in the imaging element image group before integration 5. The apparatus according to claim 1, further comprising a depth correction unit that corrects spatial information of the interpolation element image group so that a depth of a stereoscopic image when information is presented is equal to a depth of the subject. The spatial information interpolation device according to any one of the above.
複数の要素光学素子または複数の要素ピンホールが二次元状に配列された撮像光学要素アレイと、複数の撮像素子から構成される撮像素子アレイと、を用いて撮影により被写体が存在する空間の空間情報として得られる撮影要素画像群の画素情報に欠落している空間情報を補間するために、記憶手段を備えたコンピュータを、
前記撮像光学要素アレイを構成する各光学要素の配置情報を外部から取得して前記記憶手段に格納する撮像光学要素アレイ配置情報取得手段、
前記撮像素子アレイを構成する各撮像素子の配置情報を外部から取得して前記記憶手段に格納する撮像素子アレイ配置情報取得手段、
前記撮像素子アレイを構成する各撮像素子において前記被写体を撮影した映像信号として取得される撮影要素画像群の画素情報を各撮像素子に対応してそれぞれ受け付け、前記受け付けたそれぞれの撮影要素画像群の画素情報を予め取得された前記撮像素子の配置情報で特定される位置に合わせて並べて前記撮像素子間の間隙を含めて前記各撮影要素画像群の画素情報を統合して統合撮影要素画像群の画素情報を生成する統合手段、
前記撮像素子の配置情報に基づいて並べた前記統合撮影要素画像群と、予め取得された前記光学要素の配置情報で特定される位置に仮想的な光学要素が二次元状に配列されて構成される第1および第2仮想光学要素アレイと、仮想的な画素が配列された仮想撮像素子と、を仮想空間上にそれぞれ離間させて配置し、前記仮想空間上における幾何光学的演算により前記統合撮影要素画像群の画素情報に対応付けた補間要素画像群の画素情報を前記仮想撮像素子上に生成する補間要素画像群生成手段、
として機能させるための空間情報補間プログラムであって、
前記補間要素画像群生成手段は、
統合前の前記撮影要素画像群において空間情報が欠落していた画素については、前記補間要素画像群において前記撮影要素画像群の画素情報が正しく対応付けられている画素を用いて補間処理を行うことを特徴とする空間情報補間プログラム。
A space in which a subject is present by photographing using an imaging optical element array in which a plurality of element optical elements or a plurality of element pinholes are two-dimensionally arranged, and an imaging element array composed of a plurality of imaging elements In order to interpolate the missing spatial information in the pixel information of the imaging element image group obtained as information, a computer having storage means,
Imaging optical element array arrangement information acquisition means for acquiring arrangement information of each optical element constituting the imaging optical element array from outside and storing it in the storage means;
Image pickup device array arrangement information acquisition means for acquiring arrangement information of each image pickup element constituting the image pickup element array from the outside and storing it in the storage means;
The pixel information of the imaging element image group acquired as a video signal obtained by imaging the subject in each imaging element constituting the imaging element array is received corresponding to each imaging element, and each of the received imaging element image groups is received. The pixel information is arranged in accordance with the position specified by the arrangement information of the image pickup element acquired in advance, and the pixel information of each of the image pickup element image groups including the gap between the image pickup elements is integrated to obtain the integrated image pickup element image group. Integration means for generating pixel information;
The integrated photographing element image group arranged based on the arrangement information of the image sensor, and virtual optical elements are arranged in a two-dimensional manner at a position specified by the optical element arrangement information acquired in advance. The first and second virtual optical element arrays and the virtual image sensor on which virtual pixels are arranged are arranged separately from each other in the virtual space, and the integrated photographing is performed by geometric optical calculation in the virtual space. Interpolation element image group generation means for generating pixel information of an interpolation element image group associated with pixel information of the element image group on the virtual imaging device;
Spatial information interpolation program for functioning as
The interpolation element image group generation means includes
For pixels in which spatial information is missing in the imaging element image group before integration, interpolation processing is performed using pixels in the interpolation element image group that are correctly associated with pixel information of the imaging element image group. Spatial information interpolation program characterized by
JP2012030209A 2012-02-15 2012-02-15 Spatial information interpolation apparatus and program thereof Expired - Fee Related JP5852465B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012030209A JP5852465B2 (en) 2012-02-15 2012-02-15 Spatial information interpolation apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012030209A JP5852465B2 (en) 2012-02-15 2012-02-15 Spatial information interpolation apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2013168760A JP2013168760A (en) 2013-08-29
JP5852465B2 true JP5852465B2 (en) 2016-02-03

Family

ID=49178860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012030209A Expired - Fee Related JP5852465B2 (en) 2012-02-15 2012-02-15 Spatial information interpolation apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP5852465B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6192222B2 (en) * 2013-11-21 2017-09-06 日本放送協会 Imaging device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4377557B2 (en) * 2001-06-27 2009-12-02 日本放送協会 Stereo imaging device
JP4538766B2 (en) * 2008-08-21 2010-09-08 ソニー株式会社 Imaging device, display device, and image processing device
JP5313187B2 (en) * 2010-02-03 2013-10-09 日本放送協会 Stereoscopic image correction apparatus and stereoscopic image correction method

Also Published As

Publication number Publication date
JP2013168760A (en) 2013-08-29

Similar Documents

Publication Publication Date Title
US8581961B2 (en) Stereoscopic panoramic video capture system using surface identification and distance registration technique
CN112655024B (en) Image calibration method and device
JP4768367B2 (en) Stereoscopic image pickup apparatus and stereoscopic image display apparatus
JP6750183B2 (en) Image distance calculating device, image distance calculating method, and image distance calculating program
JP6365153B2 (en) Image encoding method and image encoding apparatus
JP2007101930A (en) Method for forming and displaying element image of stereoscopic image and stereoscopic image display device
JP2014064213A5 (en)
JP5522794B2 (en) Stereoscopic image generating apparatus and program thereof
JP6018468B2 (en) Depth range calculation device and program thereof
JP5452801B2 (en) Stereoscopic image generating apparatus and program thereof
JP5313187B2 (en) Stereoscopic image correction apparatus and stereoscopic image correction method
JP4729011B2 (en) Element image group conversion device, stereoscopic image display device, and element image group conversion program
JP2006101224A (en) Image generating apparatus, method, and program
JP5852465B2 (en) Spatial information interpolation apparatus and program thereof
JP2020028114A (en) Stereoscopic image generation device and program thereof
US10708493B2 (en) Panoramic video
JP6012396B2 (en) Image processing apparatus, image processing method, and program.
JP6073123B2 (en) Stereoscopic display system, stereoscopic image generating apparatus, and stereoscopic image generating program
JP6118527B2 (en) Spatial distortion correction apparatus and program thereof
JP2014127789A (en) Device of correcting stereoscopic image, and program of the same
KR20090025420A (en) Apparatus for volumetric image computational reconstruction using scale-variant mapping technique
JP6073121B2 (en) 3D display device and 3D display system
JP4922234B2 (en) 3D information generation apparatus and 3D information generation program
JP2020129773A (en) Stereoscopic image generation system, stereoscopic image generation device, and program thereof
JP4843640B2 (en) 3D information generation apparatus and 3D information generation program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151204

R150 Certificate of patent or registration of utility model

Ref document number: 5852465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees