JP2016178658A - Synthesis method of light field - Google Patents

Synthesis method of light field Download PDF

Info

Publication number
JP2016178658A
JP2016178658A JP2016089208A JP2016089208A JP2016178658A JP 2016178658 A JP2016178658 A JP 2016178658A JP 2016089208 A JP2016089208 A JP 2016089208A JP 2016089208 A JP2016089208 A JP 2016089208A JP 2016178658 A JP2016178658 A JP 2016178658A
Authority
JP
Japan
Prior art keywords
light field
image
image information
dimensional
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016089208A
Other languages
Japanese (ja)
Other versions
JP6115676B2 (en
Inventor
河合 直樹
Naoki Kawai
直樹 河合
セドリック オドラ
Audras Cedric
セドリック オドラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2016089208A priority Critical patent/JP6115676B2/en
Publication of JP2016178658A publication Critical patent/JP2016178658A/en
Application granted granted Critical
Publication of JP6115676B2 publication Critical patent/JP6115676B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To present a composite stereoscopic image free from discomfort, by mutually synthesizing a plurality of sets of multi-view image information, including the stereoscopic information about a separate subject.SOLUTION: Based on a light field Fαr including first subject information and a light field Fβr including second subject information, a third light field Fγr is created on a composite surface W. In order to determine the pixel value of a specific light beam vector Lγ passing a specific point P(xγ, yγ) and directing a specific direction D, a light beam vector Lα passing the intersection P(xα, yα) of a reference straight line R including the specific light beam vector Lγ and the Fαr and directing the specific direction D, and a light beam vector Lβ passing the intersection P(xβ, yβ) of the reference straight line R and the Fβr and directing the specific direction D are identified. Based on at least one of the pixel value of the light beam vector Lα and the pixel value of the light beam vector Lβ, the pixel value of the specific light beam vector Lγ is determined.SELECTED DRAWING: Figure 19

Description

本発明は、ライトフィールドの合成方法に関し、特に、被写体の立体画像を提示するために利用される多視点画像情報を合成する技術に関する。 The present invention relates to a light field synthesis method, and more particularly to a technique for synthesizing multi-viewpoint image information used for presenting a stereoscopic image of a subject.

立体画像を提示するために、古くから様々な方法が提案されてきており、その一部については既に実用化が図られている。たとえば、下記の特許文献1には、同一の被写体を異なる方向に平行投影して得られる複数枚の平行投影画像を、多数の短冊領域に分割して所定の順序で並び替えて媒体上に印刷し、その上にレンチキュラーレンズを配置することにより、特定の視点位置から特定の平行投影画像が観察されるようにして立体画像を提示する方法が開示されている。   In order to present a stereoscopic image, various methods have been proposed for a long time, and some of them have already been put into practical use. For example, in Patent Document 1 below, a plurality of parallel projection images obtained by parallel projection of the same subject in different directions are divided into a large number of strip regions, rearranged in a predetermined order, and printed on a medium. A method of presenting a stereoscopic image so that a specific parallel projection image is observed from a specific viewpoint position by disposing a lenticular lens thereon is disclosed.

また、下記の特許文献2には、同一の被写体を複数方向から実写撮影することによって多視点画像を取得し、この実写多視点画像に基づいてディスプレイ画面上に立体画像を表示する技術が開示されている。このような実写撮影は、通常、被写体の近傍に直線状もしくは円弧状のレールを敷設し、このレールに沿ってカメラを移動させながら行われる。   Patent Document 2 below discloses a technique for acquiring a multi-viewpoint image by shooting a single subject from multiple directions and displaying a stereoscopic image on a display screen based on the real-view multi-viewpoint image. ing. Such live-action shooting is usually performed while a linear or arc-shaped rail is laid near the subject and the camera is moved along the rail.

これらの方法は、いずれも、同一の被写体を異なる方向に投影もしくは異なる方向から撮影して得られる複数枚の二次元画像群によって多視点画像情報を構成し、この多視点画像情報に基づいて被写体の立体画像を提示する、という手法を採用するものである。すなわち、特許文献1に係る方法は、印刷媒体とレンチキュラーレンズとの組み合わせにより多視点画像情報の具体的な提示を行っているのに対して、特許文献2に係る方法は、コンピュータによる画像処理を経てディスプレイ画面上に表示される画像として多視点画像情報の具体的な提示を行っていることになる。   In any of these methods, multi-viewpoint image information is constituted by a plurality of two-dimensional image groups obtained by projecting the same subject in different directions or photographing from different directions, and the subject is based on the multi-viewpoint image information. The method of presenting a stereoscopic image is adopted. That is, the method according to Patent Document 1 specifically presents multi-viewpoint image information by a combination of a print medium and a lenticular lens, whereas the method according to Patent Document 2 performs image processing by a computer. As a result, the multi-viewpoint image information is specifically presented as an image displayed on the display screen.

最近では、被写体の異なる方向への平行投影像の集合体から構成される多視点画像情報を、様々な方向を向いた光線ベクトルを平面上に定義した「ライトフィールド(Light Field)」という概念で取り扱う手法が提案されている。たとえば、下記の非特許文献1には、空間内の光線のふるまいを完全に記述するために、「空間内の座標値(x,y,z)で示される点を、方位角φおよび仰角θで示される方向に向かって、波長λをもつ光線が時刻tにおいて通過した」という現象を、Plenopticという7次元の関数Pを用いて、P(x,y,z,φ,θ,λ,t)という形式で記述する理論が開示されており、そのような記述形式を立体画像の提示技術に利用する一形態として、下記の非特許文献2には、「ライトフィールド(Light Field)」という概念の導入が提唱されている。更に、下記の特許文献3および4には、このようなライトフィールドを利用した三次元画像の具体的な取り扱い方法が開示されている。   Recently, the multi-viewpoint image information composed of a collection of parallel projection images in different directions of the subject is based on the concept of “Light Field” in which light vectors pointing in various directions are defined on a plane. A handling method has been proposed. For example, in the following Non-Patent Document 1, in order to completely describe the behavior of light rays in space, “a point indicated by coordinate values (x, y, z) in space is represented by an azimuth angle φ and an elevation angle θ. The light beam having the wavelength λ has passed through the direction indicated by the symbol “p” at the time t using the seven-dimensional function P called Plenoptic, P (x, y, z, φ, θ, λ, t ) Is disclosed, and as a form of using such a description format for stereoscopic image presentation technology, the following non-patent document 2 describes the concept of “Light Field”. Has been proposed. Further, Patent Documents 3 and 4 below disclose a specific method for handling a three-dimensional image using such a light field.

特開2007−147737号公報JP 2007-147737 A 特開2010−226500号公報JP 2010-226500 A 特開2004−199702号公報JP 2004-199702 A 特開2008−257686号公報JP 2008-257686A

Edward H. Adelson and James R. Bergen "The Plenoptic Function and the Elements of Early Vision" Computational Models of Visual Processing (pp. 3-20). Cambridge, MA: MIT Press (1991).Edward H. Adelson and James R. Bergen "The Plenoptic Function and the Elements of Early Vision" Computational Models of Visual Processing (pp. 3-20). Cambridge, MA: MIT Press (1991). Marc Levoy and Pat Hanrahan "Light Field Rendering" Proceedings of ACM SIGGRAPH '96, ACM, 1996, pp.43-54.Marc Levoy and Pat Hanrahan "Light Field Rendering" Proceedings of ACM SIGGRAPH '96, ACM, 1996, pp.43-54.

上述したとおり、特定の被写体について多視点画像情報を用意することができれば、この多視点画像情報を利用して、当該被写体の立体表示が可能な印刷媒体を作成することもできるし、ディスプレイ画面上に当該被写体の立体表示を行うことも可能になる。   As described above, if multi-viewpoint image information can be prepared for a specific subject, a print medium capable of stereoscopic display of the subject can be created using this multi-viewpoint image information. It is also possible to perform stereoscopic display of the subject.

しかしながら、このような多視点画像情報を実写撮影によって用意するには、実物の被写体を様々な方向から撮影する作業が必要になり、上述したように、カメラを移動させるためのレールが敷設された大掛かりな設備が必要になる。また、実写撮影時にカメラの位置を正確に制御するための駆動制御装置なども必要になる。被写体が小さな物品である場合には、小規模なスタジオでの実写撮影が可能であるが、被写体が複数のメンバーからなる人物の集合体のような場合、体育館などの大型施設にレールや資材を搬入し、これらを組み立てて撮影設備を構築する必要がある。また、被写体の背景画像として、屋外の景色などを利用したい場合、屋外にレールを敷設して撮影する必要があるが、現実的には、そのような撮影は非常に困難である。   However, in order to prepare such multi-viewpoint image information by shooting, it is necessary to shoot a real subject from various directions, and as described above, a rail for moving the camera is laid. Large-scale equipment is required. In addition, a drive control device or the like for accurately controlling the position of the camera at the time of actual shooting is required. When the subject is a small article, live-action shooting is possible in a small studio, but when the subject is a group of people consisting of multiple members, rails and materials are attached to a large facility such as a gymnasium. It is necessary to carry in and assemble these to construct a photographing facility. In addition, when an outdoor scenery or the like is used as a background image of a subject, it is necessary to shoot with a rail installed outside, but in reality, such shooting is very difficult.

もちろん、多視点画像情報をCG画像として用意する手法を採れば、実写撮影が不要になるため、上述した大掛かりな設備は不要になる。しかしながら、実写画像と同等品質の被写体画像をCGで作成するには、それなりの費用と制作時間が必要になる。このため、CG画像のみによって構成される多視点画像情報は、実用上、限定的な用途での利用にしか適していない。   Of course, if a method of preparing multi-viewpoint image information as a CG image is used, since the actual shooting is not necessary, the large-scale equipment described above is not necessary. However, in order to create a subject image of the same quality as a real image with CG, a certain amount of cost and production time are required. For this reason, the multi-viewpoint image information composed only of the CG image is practically suitable only for limited use.

そこで本発明は、それぞれ別個の被写体についての情報を含んだ複数組の多視点画像情報を相互に合成し、違和感のない合成立体画像を提示する方法を提供することを目的とする。   Accordingly, an object of the present invention is to provide a method for synthesizing a plurality of sets of multi-viewpoint image information including information on separate subjects and presenting a synthesized stereoscopic image without any sense of incongruity.

本発明は、ライトフィールドの合成方法に関するものであるが、当該発明の基本的な着想は、多視点画像情報を合成する新たな手法に端を発するものである。そこで、ここでは説明の便宜上、本発明に関連する多視点画像情報の合成方法および合成装置を参考態様として述べることにする。The present invention relates to a light field synthesis method, but the basic idea of the invention originates in a new method for synthesizing multi-viewpoint image information. Therefore, here, for convenience of description, the multi-viewpoint image information synthesizing method and synthesizing apparatus related to the present invention will be described as a reference mode.

本発明の第1の参考態様は、被写体をそれぞれ異なる方向に平行投影した複数n枚の二次元画像によって構成される多視点画像情報を合成する多視点画像情報の合成方法において、
コンピュータが、第1の被写体αが記録された第1の多視点画像情報E(α)と、第2の被写体βが記録された第2の多視点画像情報E(β)と、を入力する画像情報入力段階と、
コンピュータが、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成するための合成条件を設定する合成条件設定段階と、
コンピュータが、第1の多視点画像情報E(α)を構成する第i番目(1≦i≦n)の二次元画像Pαiと、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiと、を合成して、所定の合成面W上に第i番目の合成二次元画像Pγiを作成する処理を、i=1〜nについて繰り返し実行する画像合成段階と、
コンピュータが、画像合成段階で得られたn枚の合成二次元画像Pγ1〜Pγnによって構成される多視点画像情報を、合成された多視点画像情報E(γ)として出力する画像情報出力段階と、
を行うようにし、
第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiは、第1の被写体αを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiは、第2の被写体βを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、
合成条件は、第1の多視点画像情報E(α)を構成する二次元画像の合成面Wに対する位置および第2の多視点画像情報E(β)を構成する二次元画像の合成面Wに対する位置を示す条件であり、第1の多視点画像情報E(α)を構成する二次元画像についての奥行値Zαと、第2の多視点画像情報E(β)を構成する二次元画像についての奥行値Zβと、を含んでおり、
画像合成段階では、第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zαとなるような所定位置に配置し、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zβとなるような所定位置に配置し、合成面W上に、二次元画像Pαiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、二次元画像Pβiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより第i番目の合成二次元画像Pγiを作成するようにしたものである。
A first reference aspect of the present invention is a multi-viewpoint image information synthesis method for synthesizing multi-viewpoint image information composed of a plurality of n two-dimensional images obtained by parallel projecting subjects in different directions.
The computer inputs the first multi-view image information E (α) in which the first subject α is recorded and the second multi-view image information E (β) in which the second subject β is recorded. An image information input stage;
A synthesis condition setting stage in which a computer sets a synthesis condition for synthesizing the first multi-view image information E (α) and the second multi-view image information E (β);
The i-th (1 ≦ i ≦ n) two-dimensional image Pαi constituting the first multi-view image information E (α) and the i-th constituting the second multi-view image information E (β). An image synthesis step of repeatedly executing, for i = 1 to n, a process of creating an i-th synthesized two-dimensional image Pγi on a predetermined synthesis plane W by synthesizing the second two-dimensional image Pβi.
An image information output stage in which the computer outputs multi-viewpoint image information composed of the n synthesized two-dimensional images Pγ1 to Pγn obtained in the image synthesis stage as synthesized multi-viewpoint image information E (γ);
And do
The i-th two-dimensional image Pαi constituting the first multi-viewpoint image information E (α) projects the first subject α on a predetermined projection plane in a direction parallel to the i-th observation direction Di. The i-th two-dimensional image Pβi forming the parallel projection image obtained in this way and constituting the second multi-viewpoint image information E (β) is obtained by observing the second subject β on the predetermined projection plane. A parallel projection image obtained by projecting in a direction parallel to the direction Di is formed,
The composition condition is the position of the two-dimensional image constituting the first multi-view image information E (α) with respect to the composition surface W and the composition surface W of the two-dimensional image constituting the second multi-view image information E (β). This is a condition indicating the position, and the depth value Zα for the two-dimensional image constituting the first multi-view image information E (α) and the two-dimensional image constituting the second multi-view image information E (β). Depth value Zβ, and
In the image composition stage, the i-th two-dimensional image Pαi constituting the first multi-viewpoint image information E (α) is parallel to the composition surface W and a predetermined position at which the distance to the composition surface W becomes the depth value Zα. And the i-th two-dimensional image Pβi constituting the second multi-viewpoint image information E (β) is placed in a predetermined position parallel to the composite surface W and the distance to the composite surface W is the depth value Zβ. A parallel projection image obtained by projecting the two-dimensional image Pαi in a direction parallel to the i-th observation direction Di and the two-dimensional image Pβi parallel to the i-th observation direction Di on the composite plane W. The i-th synthesized two-dimensional image Pγi is created by forming parallel projected images obtained by projecting in various directions and combining the parallel projected images in consideration of the positional relationship based on the depth values Zα and Zβ. It is what you do.

本発明の第2の参考態様は、上述した第1の参考態様に係る多視点画像情報の合成方法において、
所定の基準点Qを含む平面上に基準点Qを通る複数n組の方向ベクトルを定義し、第1の多視点画像情報E(α)および第2の多視点画像情報E(β)として、n組の方向ベクトルの方向を個々の観察方向とする多視点画像情報を用いるようにしたものである。
A second reference aspect of the present invention is a multi-viewpoint image information synthesis method according to the first reference aspect described above,
A plurality of n sets of direction vectors passing through the reference point Q on a plane including the predetermined reference point Q are defined as first multi-view image information E (α) and second multi-view image information E (β). Multi-viewpoint image information in which the directions of n sets of direction vectors are the individual observation directions is used.

本発明の第3の参考態様は、上述した第1の参考態様に係る多視点画像情報の合成方法において、
XYZ三次元座標系の原点Oを通るベクトルであって、XY平面上への正射影投影像とY軸とのなす方位角φと、XY平面に対する仰角θと、によって特定される方向ベクトルD(φ,θ)を、θをa通り、φをb通りに変化させることにより、a×b通り定義し、第1の多視点画像情報E(α)および第2の多視点画像情報E(β)として、合計n通り(但し、n=a×b)の方向ベクトルの方向を個々の観察方向とする多視点画像情報を用いるようにしたものである。
According to a third reference aspect of the present invention, in the method for synthesizing multi-viewpoint image information according to the first reference aspect described above,
A vector passing through the origin O of the XYZ three-dimensional coordinate system, which is a direction vector D () specified by an azimuth angle φ formed by an orthogonal projection image on the XY plane and the Y axis, and an elevation angle θ with respect to the XY plane. φ, θ) are defined as a × b by changing θ to a and φ to b, and the first multi-view image information E (α) and the second multi-view image information E (β ), Multi-viewpoint image information having a total of n (however, n = a × b) direction vector directions as individual observation directions is used.

本発明の第4の参考態様は、上述した第1〜第3の参考態様に係る多視点画像情報の合成方法において、
合成条件設定段階で、奥行値ZαおよびZβの値として、一方については正の値もしくは負の値または零を設定し、他方については正の値もしくは負の値を設定し、
画像合成段階では、奥行値の小さい画像についての平行投影像が手前に観察されるような合成を行うようにしたものである。
A fourth reference aspect of the present invention is the above-described multi-viewpoint image information synthesis method according to the first to third reference aspects .
In the synthesis condition setting stage, as the values of the depth values Zα and Zβ, a positive value or a negative value or zero is set for one, a positive value or a negative value is set for the other,
In the image composition stage, composition is performed such that a parallel projection image of an image having a small depth value is observed in front.

本発明の第5の参考態様は、上述した第4の参考態様に係る多視点画像情報の合成方法において、
画像合成段階で、合成面W上において、形成される平行投影像が重複しない領域については、形成される平行投影像をそのまま記録し、形成される平行投影像が重複する領域については、手前に観察される平行投影像のみを記録することにより合成を行うようにしたものである。
A fifth reference aspect of the present invention is the above-described method for synthesizing multi-viewpoint image information according to the fourth reference aspect .
In the image composition stage, on the composite surface W, the formed parallel projection image is recorded as it is for the region where the formed parallel projection image does not overlap, and the region where the formed parallel projection image is overlapped is forward. The composition is performed by recording only the observed parallel projection images.

本発明の第6の参考態様は、上述した第5の参考態様に係る多視点画像情報の合成方法において、
第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnの少なくとも一方が、背景属性を示す画素値をもった画素を含む画像であり、
画像合成段階では、背景属性を示す画素値をもった画素からなる領域については平行投影像を形成しないようにし、合成面W上に平行投影像が形成されていない領域が存在する場合には、当該領域内の画素については背景属性を示す画素値を与えることにより合成二次元画像を作成するようにしたものである。
A sixth reference aspect of the present invention is a multi-viewpoint image information synthesis method according to the fifth reference aspect described above.
At least one of n two-dimensional images Pα1 to Pαn constituting the first multi-view image information E (α) and n two-dimensional images Pβ1 to Pβn constituting the second multi-view image information E (β). Is an image containing a pixel with a pixel value indicating the background attribute,
In the image composition stage, a parallel projection image is not formed for an area composed of pixels having a pixel value indicating the background attribute, and when there is an area where no parallel projection image is formed on the synthesis surface W, For the pixels in the region, a synthesized two-dimensional image is created by giving a pixel value indicating a background attribute.

本発明の第7の参考態様は、上述した第1〜第6の参考態様に係る多視点画像情報の合成方法において、
第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnの少なくとも一方が、同一の共通画像によって構成されているようにしたものである。
A seventh reference aspect of the present invention is the above-described multi-viewpoint image information synthesis method according to the first to sixth reference aspects .
At least one of n two-dimensional images Pα1 to Pαn constituting the first multi-view image information E (α) and n two-dimensional images Pβ1 to Pβn constituting the second multi-view image information E (β). Are constituted by the same common image.

本発明の第8の参考態様は、上述した第1〜第7の参考態様に係る多視点画像情報の合成方法を利用した立体画像提示方法において、
第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを用意する多視点画像情報準備段階と、
多視点画像情報の合成方法を実行することにより、合成された多視点画像情報E(γ)を作成する多視点画像情報合成段階と、
多視点画像情報E(γ)を構成するn枚の合成二次元画像Pγ1〜Pγnを、第i番目(1≦i≦n)の合成二次元画像Pγiが主として第i番目の観察方向Diに提示されるような態様で提示する画像提示段階と、
を行うようにしたものである。
An eighth reference aspect of the present invention is a stereoscopic image presentation method using the method for synthesizing multi-viewpoint image information according to the first to seventh reference aspects described above.
N pieces of two-dimensional images Pα1 to Pαn constituting the first multi-viewpoint image information E (α) and n pieces of two-dimensional images Pβ1 to Pβn constituting the second multi-viewpoint image information E (β) are prepared. Multi-viewpoint image information preparation stage,
A multi-view image information combining step of creating the combined multi-view image information E (γ) by executing the multi-view image information combining method;
The i-th (1 ≦ i ≦ n) composite two-dimensional image Pγi presents n composite two-dimensional images Pγ1 to Pγn constituting the multi-viewpoint image information E (γ) mainly in the i-th observation direction Di. An image presentation stage to be presented in such a manner;
Is to do.

本発明の第9の参考態様は、上述した第8の参考態様に係る多視点画像情報の合成方法を利用した立体画像提示方法において、
多視点画像情報準備段階として、
第1の被写体αを複数ζ通りの方向から実写撮影することにより、合計ζ枚の第1の実写撮影像群を得る第1の撮影段階と、
第2の被写体βを複数η通りの方向から実写撮影することにより、合計η枚の第2の実写撮影像群を得る第2の撮影段階と、
合計ζ枚の第1の実写撮影像群に基づいて、第1の被写体αを所定の投影面上に、第1番目の観察方向D1〜第n番目の観察方向Dnのn通りの観察方向に平行な方向に投影して得られる平行投影像をそれぞれ求め、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnを作成する第1の多視点画像情報作成段階と、
合計η枚の第2の実写撮影像群に基づいて、第2の被写体βを所定の投影面上に、第1番目の観察方向D1〜第n番目の観察方向Dnのn通りの観察方向に平行な方向に投影して得られる平行投影像をそれぞれ求め、第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを作成する第2の多視点画像情報作成段階と、
を行うようにしたものである。
According to a ninth reference aspect of the present invention, in the stereoscopic image presentation method using the multi-view image information combining method according to the eighth reference aspect described above,
As a multi-viewpoint image information preparation stage,
A first photographing stage for obtaining a total of ζ first live-action photographed image groups by photographing the first subject α from a plurality of ζ-directions;
A second photographing stage for obtaining a total of η second photographed images by photographing the second subject β from a plurality of η directions;
Based on a total of ζ first live-action photographed image groups, the first subject α is placed on a predetermined projection plane in n observation directions from the first observation direction D1 to the nth observation direction Dn. First multi-view image information creation for obtaining parallel projection images obtained by projecting in parallel directions and creating n two-dimensional images Pα1 to Pαn constituting the first multi-view image information E (α) Stages,
Based on a total of η second actual photographed image groups, the second subject β is placed on a predetermined projection plane in n observation directions from the first observation direction D1 to the nth observation direction Dn. Second multi-view image information creation for obtaining n two-dimensional images Pβ1 to Pβn constituting second multi-view image information E (β), respectively, by obtaining parallel projection images obtained by projecting in parallel directions Stages,
Is to do.

本発明の第10の参考態様は、上述した第1〜7の参考態様に係る多視点画像情報の合成方法を利用した立体画像記録媒体の作成方法において、
第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを用意する多視点画像情報準備段階と、
多視点画像情報の合成方法を実行することにより多視点画像情報E(γ)を作成する多視点画像情報合成段階と、
多視点画像情報E(γ)を構成するn枚の合成二次元画像Pγ1〜Pγnを、それぞれ複数m個の部分画像に分割し、記録媒体上の記録面を複数m個の区画K1〜Kmに分割し、記録媒体上の第i番目の区画Kiにn枚の合成二次元画像Pγ1〜Pγnの第i番目の部分画像をそれぞれ記録する媒体記録段階と、
記録媒体上の個々の区画上に、第i番目の合成二次元画像Pγiの部分画像が主として第i番目の観察方向Diに提示されるような光学素子を配置する光学素子配置段階と、
を行うようにしたものである。
Tenth reference aspect of the present invention is a method of creating a three-dimensional image recording medium utilizing a synthetic method of the multi-view image information according to the first to seventh reference embodiment described above,
N pieces of two-dimensional images Pα1 to Pαn constituting the first multi-viewpoint image information E (α) and n pieces of two-dimensional images Pβ1 to Pβn constituting the second multi-viewpoint image information E (β) are prepared. Multi-viewpoint image information preparation stage,
A multi-view image information combining step of creating multi-view image information E (γ) by executing a multi-view image information combining method;
The n composite two-dimensional images Pγ1 to Pγn constituting the multi-viewpoint image information E (γ) are each divided into a plurality of m partial images, and the recording surface on the recording medium is divided into a plurality of m sections K1 to Km. A medium recording step of dividing and recording each of the i-th partial images of the n synthesized two-dimensional images Pγ1 to Pγn in the i-th section Ki on the recording medium;
An optical element disposing step of disposing an optical element on each section on the recording medium such that a partial image of the i-th synthesized two-dimensional image Pγi is mainly presented in the i-th observation direction Di;
Is to do.

本発明の第11の参考態様は、上述した第1〜第7の参考態様に係る多視点画像情報の合成方法を、コンピュータにプログラムを組み込んで実行させるようにしたものである。 In an eleventh reference aspect of the present invention, the above-described method for synthesizing multi-view image information according to the first to seventh reference aspects is executed by incorporating a program in a computer.

本発明の第12の参考態様は、被写体をそれぞれ異なる方向に平行投影した複数n枚の二次元画像によって構成される多視点画像情報を合成する多視点画像情報の合成装置において、
第1の被写体αが記録された第1の多視点画像情報E(α)と、第2の被写体βが記録された第2の多視点画像情報E(β)と、を格納する画像情報格納部と、
オペレータの設定指示に基づいて、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成するための合成条件を格納する合成条件格納部と、
第1の多視点画像情報E(α)を構成する第i番目(1≦i≦n)の二次元画像Pαiと、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiと、を合成して、所定の合成面W上に第i番目の合成二次元画像Pγiを作成する処理を、i=1〜nについて繰り返し実行する画像合成部と、
画像合成部で作成されたn枚の合成二次元画像Pγ1〜Pγnによって構成される多視点画像情報を、合成された多視点画像情報E(γ)として格納する合成画像格納部と、
を設け、
画像情報格納部に格納されている第1の多視点画像情報E(α)は、n枚の二次元画像の集合体によって構成され、そのうちの第i番目の二次元画像Pαiは、第1の被写体αを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、
画像情報格納部に格納されている第2の多視点画像情報E(β)は、n枚の二次元画像の集合体によって構成され、そのうちの第i番目の二次元画像Pβiは、第2の被写体βを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、
合成条件設定部は、少なくとも、第1の多視点画像情報E(α)を構成する二次元画像の合成面Wに対する位置を示す奥行値Zαと、第2の多視点画像情報E(β)を構成する二次元画像の合成面Wに対する位置を示す奥行値Zβと、を格納し、
画像合成部は、画像情報格納部に格納されている第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zαとなるような所定位置に配置し、画像情報格納部に格納されている第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zβとなるような所定位置に配置し、合成面W上に、二次元画像Pαiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、二次元画像Pβiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより第i番目の合成二次元画像Pγiを作成して合成画像格納部に格納するようにしたものである。
A twelfth reference aspect of the present invention is a multi-viewpoint image information synthesizing apparatus that synthesizes multi-viewpoint image information composed of a plurality of n two-dimensional images obtained by parallel projecting subjects in different directions.
Image information storage for storing first multi-view image information E (α) in which the first subject α is recorded and second multi-view image information E (β) in which the second subject β is recorded And
A synthesis condition storage unit that stores a synthesis condition for synthesizing the first multi-view image information E (α) and the second multi-view image information E (β) based on an operator setting instruction;
The i-th (1 ≦ i ≦ n) two-dimensional image Pαi constituting the first multi-view image information E (α) and the i-th two constituting the second multi-view image information E (β). An image compositing unit that synthesizes the dimensional image Pβi and repeatedly executes the process of creating the i-th composite two-dimensional image Pγi on a predetermined composite surface W for i = 1 to n.
A composite image storage unit that stores multi-viewpoint image information composed of n composite two-dimensional images Pγ1 to Pγn created by the image composition unit as composite multi-viewpoint image information E (γ);
Provided,
The first multi-view image information E (α) stored in the image information storage unit is composed of an aggregate of n two-dimensional images, and the i-th two-dimensional image Pαi of the first multi-view image information E (α) A parallel projection image obtained by projecting the subject α on a predetermined projection plane in a direction parallel to the i-th observation direction Di;
The second multi-viewpoint image information E (β) stored in the image information storage unit is composed of a set of n two-dimensional images, and the i-th two-dimensional image Pβi is the second A parallel projection image obtained by projecting the subject β on a predetermined projection plane in a direction parallel to the i-th observation direction Di;
The composition condition setting unit at least obtains a depth value Zα indicating the position of the two-dimensional image constituting the first multi-view image information E (α) with respect to the composition plane W and the second multi-view image information E (β). A depth value Zβ indicating a position with respect to the composite plane W of the two-dimensional image to be configured, and
The image composition unit converts the i-th two-dimensional image Pαi constituting the first multi-viewpoint image information E (α) stored in the image information storage unit to be parallel to the composition surface W and at a distance from the composition surface W. The i-th two-dimensional image Pβi that is arranged at a predetermined position so as to have the depth value Zα and constitutes the second multi-viewpoint image information E (β) stored in the image information storage unit is displayed on the composite plane W. A parallel position obtained by projecting the two-dimensional image Pαi onto the composite surface W in a direction parallel to the i-th observation direction Di is arranged at a predetermined position so that the distance to the composite surface W is the depth value Zβ. Forming a projection image and a parallel projection image obtained by projecting the two-dimensional image Pβi in a direction parallel to the i-th observation direction Di, and regarding the parallel projection image based on the depth values Zα and Zβ The i-th composite 2D image Pγi is created by combining And stored in the composite image storage unit.

以上、本発明に関連する多視点画像情報の合成方法および合成装置を参考態様として述べた。本発明は、これらの参考態様として述べた技術思想を利用して、新たなライトフィールドの合成方法を提供するものである。以下、本発明に係るライトフィールドの合成方法の態様を説明する。The multi-viewpoint image information synthesizing method and synthesizing apparatus related to the present invention has been described above as the reference mode. The present invention provides a new method for synthesizing a light field by utilizing the technical idea described as the reference embodiment. Hereinafter, an aspect of the light field synthesis method according to the present invention will be described.

(1) 本発明の第1の態様は、複数の点Pが配置された平面であって、個々の点Pのそれぞれには、当該点Pを通り互いに異なる方向を向いた複数本の光線ベクトルLが定義され、個々の光線ベクトルLについてそれぞれ特定の特徴値が付与されている平面として定義されるライトフィールドを合成するライトフィールドの合成方法において、
コンピュータが、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第1のライトフィールドFα(x,y,D)および第2のライトフィールドFβ(x,y,D)を入力するライトフィールド入力段階と、
コンピュータが、第1のライトフィールドと第2のライトフィールドとを合成するための合成条件を設定する合成条件設定段階と、
コンピュータが、第1のライトフィールドFα(x,y,D)と第2のライトフィールドFβ(x,y,D)とを合成して、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第3のライトフィールドFγ(x,y,D)を作成するライトフィールド合成段階と、
コンピュータが、ライトフィールド合成段階で得られた第3のライトフィールドFγ(x,y,D)を出力するライトフィールド出力段階と、
を行い、
合成条件には、所定の合成面Wに対して平行になるように、第1のライトフィールドおよび第2のライトフィールドを所定位置に配置するための配置条件が含まれており、
ライトフィールド合成段階では、配置条件に基づいて、第1のライトフィールドおよび第2のライトフィールドを配置し、合成面W上の特定点Pを通り特定方向Dを向いた特定光線ベクトルの特徴値を、当該特定光線ベクトルを含む参照直線と第1のライトフィールドとの交点を通り特定方向Dを向いた光線ベクトルの特徴値および参照直線と第2のライトフィールドとの交点を通り特定方向Dを向いた光線ベクトルの特徴値の少なくとも一方に基づいて決定し、個々の点を通る個々の光線ベクトルに対して所定の特徴値が付与された合成面Wを第3のライトフィールドFγ(x,y,D)とするようにしたものである。
(1) A first aspect of the present invention is a plane on which a plurality of points P are arranged, and each of the individual points P has a plurality of ray vectors that are directed in different directions through the point P. In a light field composition method for composing a light field defined as a plane in which L is defined and a specific feature value is assigned to each ray vector L,
The first light field Fα in which the computer indicates individual feature values by a function having the coordinate value (x, y) of the point P on the XY two-dimensional coordinate plane and the direction D of the ray vector L passing through the point P as variables. A light field input stage for inputting (x, y, D) and a second light field Fβ (x, y, D);
A synthesis condition setting stage in which a computer sets a synthesis condition for synthesizing the first light field and the second light field;
The computer synthesizes the first light field Fα (x, y, D) and the second light field Fβ (x, y, D), and the coordinate value (x of the point P on the XY two-dimensional coordinate plane) , Y) and a light field synthesis stage for creating a third light field Fγ (x, y, D) indicating individual feature values by a function having the direction D of the light vector L passing through the point P as a variable,
A light field output stage in which the computer outputs a third light field Fγ (x, y, D) obtained in the light field synthesis stage;
And
The composition condition includes an arrangement condition for arranging the first light field and the second light field at a predetermined position so as to be parallel to the predetermined composition surface W.
In the light field synthesis stage, the first light field and the second light field are arranged based on the arrangement condition, and the feature value of the specific light vector passing through the specific point P on the composite surface W and facing the specific direction D is obtained. , The characteristic value of the light vector passing through the intersection of the reference straight line including the specific light vector and the first light field and pointing in the specific direction D, and the specific direction D passing through the intersection of the reference straight line and the second light field. The composite surface W is determined based on at least one of the feature values of the light vector, and a predetermined feature value is given to each light vector passing through each point, and the third light field Fγ (x, y, D).

(2) 本発明の第2の態様は、上述した第1の態様に係るライトフィールドの合成方法において、
ライトフィールド合成段階で、
参照直線と第1のライトフィールドとの交点および参照直線と第2のライトフィールドとの交点のいずれか一方のみが存在する場合には、当該存在する交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドの特徴値を決定し、
参照直線と第1のライトフィールドとの交点および参照直線と第2のライトフィールドとの交点の双方が存在する場合には、配置条件に基づいて選択されたいずれか一方の交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドの特徴値を決定するようにしたものである。
(2) According to a second aspect of the present invention, in the light field synthesis method according to the first aspect described above,
In the light field synthesis stage,
If only one of the intersection between the reference line and the first light field and the intersection between the reference line and the second light field exists, the ray vector of the light vector directed through the existing intersection and pointing in the specific direction D Determining the feature value of the third light field based on the feature value;
When both the intersection of the reference line and the first light field and the intersection of the reference line and the second light field exist, the specific direction D passes through one of the intersections selected based on the arrangement condition. The feature value of the third light field is determined on the basis of the feature value of the ray vector directed toward the.

(3) 本発明の第3の態様は、上述した第1または第2の態様に係るライトフィールドの合成方法において、
第1〜第3のライトフィールドが、XY二次元座標平面上に配列された所定面積をもつ多数の画素のそれぞれについて、当該画素の代表点Pを通る複数本の光線ベクトルの各特徴値を画素値としてもつ画像データを構成しており、
ライトフィールド合成段階では、第3のライトフィールドを構成する個々の画素の画素値を、参照直線と第1のライトフィールドとの交点を含む第1のライトフィールド上の画素の画素値および参照直線と第2のライトフィールドとの交点を含む第2のライトフィールド上の画素の画素値の少なくとも一方に基づいて決定するようにしたものである。
(3) According to a third aspect of the present invention, in the light field synthesis method according to the first or second aspect described above,
For each of a large number of pixels having a predetermined area arranged on the XY two-dimensional coordinate plane, the first to third light fields are pixel feature values of a plurality of ray vectors passing through the representative point P of the pixel. Consists of image data as values,
In the light field synthesis stage, the pixel values of the individual pixels constituting the third light field are set to the pixel values of the pixels on the first light field including the intersection of the reference line and the first light field, and the reference line. It is determined based on at least one of the pixel values of the pixels on the second light field including the intersection with the second light field.

(4) 本発明の第4の態様は、上述した第1〜第3の態様に係るライトフィールドの合成方法において、
個々の光線ベクトルに付与する特徴値として、三原色R,G,Bの画素値の組み合わせを用い、
第1のライトフィールドを、原色R成分Fαr(x,y,D)と原色G成分Fαg(x,y,D)と原色B成分Fαb(x,y,D)との組み合わせによって構成し、
第2のライトフィールドを、原色R成分Fβr(x,y,D)と原色G成分Fβg(x,y,D)と原色B成分Fβb(x,y,D)との組み合わせによって構成し、
第3のライトフィールドを、原色R成分Fγr(x,y,D)と原色G成分Fγg(x,y,D)と原色B成分Fγb(x,y,D)との組み合わせによって構成し、
ライトフィールド合成段階では、個々の原色成分ごとに独立して特徴値の決定を行うようにしたものである。
(4) According to a fourth aspect of the present invention, in the light field synthesis method according to the first to third aspects described above,
A combination of pixel values of the three primary colors R, G, and B is used as a feature value to be assigned to each light vector.
The first light field is configured by a combination of a primary color R component Fαr (x, y, D), a primary color G component Fαg (x, y, D), and a primary color B component Fαb (x, y, D),
The second light field is configured by a combination of a primary color R component Fβr (x, y, D), a primary color G component Fβg (x, y, D), and a primary color B component Fβb (x, y, D),
The third light field is configured by a combination of a primary color R component Fγr (x, y, D), a primary color G component Fγg (x, y, D), and a primary color B component Fγb (x, y, D),
In the light field composition stage, the feature value is determined independently for each primary color component.

(5) 本発明の第5の態様は、上述した第1〜第4の態様に係るライトフィールドの合成方法において、
第1のライトフィールドおよび第2のライトフィールドの少なくとも一方が、同一の点Pを通る光線ベクトルについては、向きDにかかわらず同一の特徴値が付与されているライトフィールドであるようにしたものである。
(5) According to a fifth aspect of the present invention, in the light field synthesis method according to the first to fourth aspects described above,
At least one of the first light field and the second light field is a light field to which the same feature value is assigned regardless of the direction D with respect to a ray vector passing through the same point P. is there.

(6) 本発明の第6の態様は、上述した第1〜第5の態様に係るライトフィールドの合成方法を、コンピュータにプログラムを組み込んで実行させるようにしたものである。(6) According to a sixth aspect of the present invention, the above-described light field composition method according to the first to fifth aspects is executed by incorporating a program in a computer.

本発明に係るライトフィールドの合成方法によれば、所定の合成面Wに対して平行になるように、第1のライトフィールドおよび第2のライトフィールドを所定位置に配置し、合成面W上の特定点Pを通り特定方向Dを向いた特定光線ベクトルの特徴値を決定し、個々の点を通る個々の光線ベクトルに対して所定の特徴値が付与された合成面Wを第3のライトフィールドFγ(x,y,D)とするようにしたため、任意のライトフィールドの合成を行うことが可能になる。このため、それぞれ別個の被写体についての情報を含んだ違和感のない合成立体画像を提示することができる。  According to the light field combining method of the present invention, the first light field and the second light field are arranged at predetermined positions so as to be parallel to the predetermined composite surface W, and A characteristic value of a specific light vector passing through a specific point P and pointing in a specific direction D is determined, and a composite plane W to which a predetermined characteristic value is given to each light vector passing through each point is used as a third light field. Since Fγ (x, y, D) is set, it becomes possible to synthesize any light field. For this reason, it is possible to present a synthetic stereoscopic image that includes information about individual subjects and has no sense of incongruity.

被写体αをそれぞれ異なる方向に平行投影した二次元平行投影画像P1〜P5によって構成される多視点画像情報Eの一例を示す正面図である。It is a front view which shows an example of the multi-viewpoint image information E comprised by the two-dimensional parallel projection image P1-P5 which parallel-projected the to-be-photographed object (alpha) to the different direction, respectively. 被写体αを投影面Sに対して平行投影している状態を示す上面図である。6 is a top view showing a state in which the subject α is being projected in parallel with respect to the projection plane S. FIG. 2つの被写体α1,α2を投影面Sに対して平行投影している状態を示す上面図である。6 is a top view showing a state in which two subjects α1, α2 are projected in parallel with respect to the projection plane S. FIG. 2つの被写体α1,α2の平行投影像(図(a) )と撮影像(図(b) )との相違を示す平面図である。FIG. 6 is a plan view showing a difference between a parallel projection image (FIG. (A)) and a photographed image (FIG. (B)) of two subjects α1, α2. 図1に示す多視点画像情報Eに基づいて、立体画像記録媒体を作成するプロセスを示す平面図(上段および中段)および上面図(下段)である。FIG. 2 is a plan view (upper and middle) and a top view (lower) showing a process of creating a stereoscopic image recording medium based on the multi-viewpoint image information E shown in FIG. 1. 方向ベクトルDを特定するための角度パラメータφ,θを示す斜視図である。FIG. 6 is a perspective view showing angle parameters φ and θ for specifying a direction vector D. 被写体αを上下および左右の異なる方向に平行投影した二次元平行投影画像P11〜P35によって構成される多視点画像情報の一例を示す平面図である。It is a top view which shows an example of the multi-viewpoint image information comprised by the two-dimensional parallel projection image P11-P35 which parallel-projected the to-be-photographed object to the up-down and left-right different directions. 図7に示す多視点画像情報に基づいて、立体画像記録媒体を作成するプロセスを示す平面図である。FIG. 8 is a plan view showing a process for creating a stereoscopic image recording medium based on the multi-viewpoint image information shown in FIG. 7. 被写体αに対して実写撮影を行う設備の一例を示す上面図である。It is a top view which shows an example of the equipment which performs a real photography with respect to the to-be-photographed object (alpha). 図9に示す実写撮影によって得られた多数の撮影画像から多視点画像情報を作成するプロセスを示すブロック図である。FIG. 10 is a block diagram illustrating a process of creating multi-viewpoint image information from a large number of captured images obtained by the real-image shooting shown in FIG. 9. 第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成して第3の多視点画像情報E(γ)を生成する基本原理を示す平面図である。It is a top view which shows the basic principle which synthesize | combines 1st multi-view image information E ((alpha)) and 2nd multi-view image information E ((beta)), and produces | generates 3rd multi-view image information E ((gamma)). . 図11に示す二次元画像Pα3,Pβ3を合成して、合成画像Pγ3を得る一般的な方法を示す平面図である。FIG. 12 is a plan view showing a general method for obtaining a composite image Pγ3 by combining the two-dimensional images Pα3 and Pβ3 shown in FIG. 11. 本発明における各二次元画像の合成方法を示す上面図である。It is a top view which shows the synthetic | combination method of each two-dimensional image in this invention. 本発明に係る多視点画像情報の合成方法の基本手順を示す流れ図である。It is a flowchart which shows the basic procedure of the synthetic | combination method of the multi viewpoint image information which concerns on this invention. 本発明に係る立体画像提示方法の基本手順を示す流れ図である。It is a flowchart which shows the basic procedure of the stereo image presentation method which concerns on this invention. 本発明に係る多視点画像情報の合成装置の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the synthesizing | combining apparatus of the multiview image information which concerns on this invention. 本発明による合成対象となる第1の多視点画像情報E(α)と第2の多視点画像情報E(β)との別な例を示す平面図である。It is a top view which shows another example of 1st multi-view image information E ((alpha)) used as the synthesis target by this invention, and 2nd multi-view image information E ((beta)). 一般的なライトフィールドの概念を示す斜視図および数式図である。It is the perspective view and mathematical formula which show the concept of a general light field. 本発明に係るライトフィールドの合成方法の基本原理を示す斜視図である。It is a perspective view which shows the basic principle of the synthetic | combination method of the light field based on this invention. 本発明に係るライトフィールドの合成方法の具体的な手法を示す斜視図である。It is a perspective view which shows the specific method of the synthetic | combination method of the light field based on this invention.

以下、本発明を図示する実施形態に基づいて説明する。なお、上述したとおり、本発明は、ライトフィールドの合成方法に関するものであるが、当該発明の基本的な着想は、多視点画像情報を合成する新たな手法に端を発するものである。そこで、ここでは説明の便宜上、まず、本発明に関連する多視点画像情報の合成方法についての説明を行うことにする。 Hereinafter, the present invention will be described based on the illustrated embodiments. As described above, the present invention relates to a light field composition method, but the basic idea of the present invention originates from a new method for compositing multi-viewpoint image information. Therefore, for convenience of explanation, first, a method for synthesizing multi-viewpoint image information related to the present invention will be described.

<<< §1.多視点画像情報を利用した立体画像の提示方法 >>>
本発明は、多視点画像情報を用いて被写体の立体画像を提示するために利用可能な技術である。ここで、多視点画像情報とは、提示対象となる被写体をそれぞれ異なる方向に平行投影した二次元画像の集合体である。このような多視点画像情報を用いて立体画像を提示する技術自体は、前掲の特許文献1,2等に開示されているように公知であるが、ここでは、本発明の説明の便宜上、その基本原理を簡単に説明しておく。
<<< §1. Presentation method of stereoscopic image using multi-viewpoint image information >>>
The present invention is a technique that can be used to present a stereoscopic image of a subject using multi-viewpoint image information. Here, the multi-viewpoint image information is a collection of two-dimensional images obtained by parallel projecting subjects to be presented in different directions. The technique itself for presenting a stereoscopic image using such multi-viewpoint image information is known as disclosed in the above-mentioned Patent Documents 1 and 2, etc., but here, for convenience of explanation of the present invention, The basic principle will be briefly explained.

図1は、被写体α(この例ではコーヒーカップ)をそれぞれ異なる方向に平行投影した二次元平行投影画像P1〜P5によって構成される多視点画像情報Eの一例を示す正面図である。この例の場合、被写体αの手前に有限の面積をもった投影面Sが配置されており、被写体αは、この投影面S上に投影される。基準点Qに端を発する矢印D1〜D5は、投影面S上への投影方向を示すものであり、その先端方向には、それぞれ視点V1〜V5が設定されている。結局、矢印D1〜D5は、基準点Qから各視点V1〜V5へ向かう方向を示していることになり、ここでは各矢印の示す方向を観察方向D1〜D5と呼ぶことにする。なお、図1では、基準点Qを被写体αの若干手前の位置に設定しているが、基準点Qを被写体αの中心点に設定すると、より効果的な立体感をもった被写体αを提示することが可能になる。   FIG. 1 is a front view showing an example of multi-viewpoint image information E composed of two-dimensional parallel projection images P1 to P5 obtained by parallel projecting a subject α (coffee cup in this example) in different directions. In this example, a projection surface S having a finite area is disposed in front of the subject α, and the subject α is projected onto the projection surface S. Arrows D1 to D5 originating from the reference point Q indicate the projection direction on the projection plane S, and viewpoints V1 to V5 are set in the tip direction, respectively. Eventually, the arrows D1 to D5 indicate the directions from the reference point Q toward the viewpoints V1 to V5. Here, the directions indicated by the arrows are referred to as observation directions D1 to D5. In FIG. 1, the reference point Q is set at a position slightly before the subject α. However, if the reference point Q is set at the center point of the subject α, the subject α having a more effective stereoscopic effect is presented. It becomes possible to do.

図1の下段に示す二次元画像P1〜P5は、被写体αをそれぞれ観察方向D1〜D5に平行投影したときに、投影面S上に得られる二次元画像であり、一般に「スライス」と呼ばれている。投影面Sを窓と考えれば、これらの二次元画像P1〜P5は、それぞれ視点V1〜V5の位置から当該窓を通して被写体αを観察することにより得られる画像ということができる。多視点画像情報Eは、これら二次元画像P1〜P5の集合体によって構成される情報であり、具体的には、これら5枚の二次元画像P1〜P5を示す画像データの集合体ということになる。   The two-dimensional images P1 to P5 shown in the lower part of FIG. 1 are two-dimensional images obtained on the projection plane S when the subject α is projected in parallel in the observation directions D1 to D5, respectively, and are generally called “slices”. ing. If the projection plane S is considered as a window, these two-dimensional images P1 to P5 can be said to be images obtained by observing the subject α through the window from the positions of the viewpoints V1 to V5, respectively. The multi-viewpoint image information E is information constituted by an aggregate of these two-dimensional images P1 to P5, and specifically, an aggregate of image data indicating these five two-dimensional images P1 to P5. Become.

ここで留意すべき点は、各二次元画像P1〜P5は、各視点V1〜V5の位置から被写体αを撮影した二次元撮影画像ではなく、被写体αをそれぞれ異なる観察方向D1〜D5に平行投影した投影像になっている点である。図2は、被写体αを投影面Sに対して平行投影している状態を示す上面図である。図2(a) は、観察方向D3(図1において正面位置にある視点V3に向かう方向)に平行投影した状態を示しており、投影面S上の太線で示す部分に被写体αの平行投影像P3が得られることになる。同様に、図2(b) は、観察方向D2(図1において斜め左位置にある視点V2に向かう方向)に平行投影した状態を示しており、投影面S上の太線で示す部分に被写体αの平行投影像P2が得られることになる。   It should be noted that each of the two-dimensional images P1 to P5 is not a two-dimensional photographed image obtained by photographing the subject α from the positions of the viewpoints V1 to V5, but the subject α is projected in parallel in different observation directions D1 to D5. This is the projected image. FIG. 2 is a top view showing a state in which the subject α is being projected in parallel with respect to the projection plane S. FIG. 2A shows a state of parallel projection in the observation direction D3 (direction toward the viewpoint V3 at the front position in FIG. 1), and a parallel projection image of the subject α on the portion indicated by the bold line on the projection plane S. P3 will be obtained. Similarly, FIG. 2 (b) shows a state of parallel projection in the observation direction D2 (direction toward the viewpoint V2 at an oblique left position in FIG. 1), and the subject α is shown in a portion indicated by a thick line on the projection plane S. The parallel projection image P2 is obtained.

一般に、レンズなどの光学系を用いた撮影によって得られる撮影画像は、遠近法(Perspective :透視図法)を用いて被写体を二次元平面上に表現した画像になるが、多視点画像情報Eを構成する個々の二次元画像P1〜P5は、このような遠近法を用いた表現にはならず、あくまでも被写体上の各点を所定の観察方向に向かって平行投影することにより、投影面S上に得られる画像ということになる。   In general, a photographed image obtained by photographing using an optical system such as a lens is an image that expresses a subject on a two-dimensional plane using a perspective method, but constitutes multi-viewpoint image information E. The individual two-dimensional images P1 to P5 are not expressed using such a perspective method, but are merely projected onto the projection plane S by parallelly projecting each point on the subject toward a predetermined observation direction. This is an image to be obtained.

たとえば、図3に示す例のように、全く同じサイズの2つの被写体α1,α2(図示の例では、同一のコーヒーカップを2組)を、被写体α1を手前、被写体α2を奥に配置して、観察方向D3に向けて投影面S上に平行投影すると、太線で示す部分に被写体α1,α2の平行投影像P3(被写体α1,α2の一部は相互に重なっている)が得られる。図4(a) は、このようにして投影面S上に得られた平行投影像を示している。これに対して、図4(b) は、2つの被写体α1,α2を正面から写真撮影して得られた撮影像を示している。この図4(b) に示す撮影像では、手前の被写体α1に比べて奥の被写体α2の方が小さく写っているが、これはレンズなどの光学系を用いた撮影を行ったため、遠近法が適用された二次元画像(いわゆる、パースがかかった画像)が形成されたためである。   For example, as in the example shown in FIG. 3, two subjects α1, α2 of the same size (in the example shown, two sets of the same coffee cup) are arranged with subject α1 in front and subject α2 in the back. When parallel projection is performed on the projection surface S toward the observation direction D3, parallel projection images P3 of the subjects α1 and α2 (parts of the subjects α1 and α2 partially overlap each other) are obtained in the portions indicated by thick lines. FIG. 4A shows a parallel projection image obtained on the projection surface S in this way. On the other hand, FIG. 4B shows a photographed image obtained by photographing two subjects α1 and α2 from the front. In the photographed image shown in FIG. 4 (b), the subject α2 in the back is smaller than the subject α1 in the foreground, but this is because the photographing is performed using an optical system such as a lens. This is because an applied two-dimensional image (a so-called parsed image) is formed.

さて、図1の下段に示すような5枚の二次元画像P1〜P5(平行投影像)によって構成される多視点画像情報Eが用意できたら、投影面Sの位置に個々の二次元画像P1〜P5を提示すれば、被写体αを立体画像として提示することができる。但し、このとき、何らかの手段を用いて、個々の二次元画像P1〜P5を、それぞれ対応する観察方向D1〜D5に対してのみ提示するようにする。たとえば、二次元画像P1は、対応する観察方向D1に対してのみ提示されるようにし、他の観察方向D2〜D5には提示されないようにする。そうすれば、図示の視点V1から観察した場合、投影面S上には二次元画像P1が表示されているように見え、図示の視点V2から観察した場合、投影面S上には二次元画像P2が表示されているように見え、... といった具合に、個々の視点から観察した場合に得られる二次元画像がそれぞれ異なることになり、立体視の効果が得られる。   When multi-viewpoint image information E composed of five two-dimensional images P1 to P5 (parallel projection images) as shown in the lower part of FIG. 1 is prepared, each two-dimensional image P1 is placed at the position of the projection plane S. When .about.P5 is presented, the subject .alpha. Can be presented as a stereoscopic image. However, at this time, the individual two-dimensional images P1 to P5 are presented only in the corresponding observation directions D1 to D5, respectively, using some means. For example, the two-dimensional image P1 is presented only in the corresponding observation direction D1, and is not presented in the other observation directions D2 to D5. Then, when viewed from the illustrated viewpoint V1, the two-dimensional image P1 appears to be displayed on the projection plane S, and when viewed from the illustrated viewpoint V2, the two-dimensional image is displayed on the projection plane S. P2 appears to be displayed, and the two-dimensional images obtained when observed from individual viewpoints are different from each other, and a stereoscopic effect is obtained.

なお、ここでは、説明の便宜上、5通りの観察方向D1〜D5を定義して、5枚の二次元画像P1〜P5を作成した例を示したが、実用上は、よりきめの細かな観察方向のバリエーションを定義し(たとえば、70通りの観察方向D1〜D70)、個々の観察方向に対応する平行投影像(たとえば、70通りの二次元画像P1〜P70)を作成することにより、視点を動かした場合にも違和感のない立体画像を提示することが可能になる。   Here, for convenience of explanation, an example in which five observation directions D1 to D5 are defined and five two-dimensional images P1 to P5 are created is shown. However, in practical use, finer observation is performed. By defining direction variations (for example, 70 different observation directions D1 to D70) and creating parallel projection images (for example, 70 two-dimensional images P1 to P70) corresponding to the individual observation directions, It is possible to present a stereoscopic image that does not feel strange even when moved.

要するに、被写体αをそれぞれ異なる観察方向D1〜Dnに平行投影して、同一の投影面S上に二次元画像P1〜Pnを形成し、これらn枚の二次元画像によって多視点画像情報Eを構成するようにすれば、この多視点画像情報Eを用いた立体画像の提示が可能になる。   In short, the subject α is projected in parallel in different observation directions D1 to Dn to form two-dimensional images P1 to Pn on the same projection plane S, and the multi-viewpoint image information E is configured by these n two-dimensional images. By doing so, it is possible to present a stereoscopic image using the multi-viewpoint image information E.

具体的には、何らかの手段を用いて、投影面S上に形成された第i番目の二次元画像Piが、第i番目の観察方向Diに対してのみ提示されるようにすればよい。もっとも、現実的には、第i番目の二次元画像Piを、厳密に第i番目の観察方向Diだけに提示することは困難であり、また、その必要もない。したがって、実用上は、第i番目の二次元画像Piは、第i番目の観察方向Diだけでなく、その近傍方向にも提示されてかまわない。要するに、第i番目の二次元画像Piが、主として第i番目の観察方向Diに提示されるような手法を採れば、実用上、支障のない立体画像の提示が可能である。   Specifically, the i-th two-dimensional image Pi formed on the projection surface S may be presented only in the i-th observation direction Di by using some means. However, in reality, it is difficult and strictly unnecessary to present the i-th two-dimensional image Pi strictly only in the i-th observation direction Di. Therefore, practically, the i-th two-dimensional image Pi may be presented not only in the i-th observation direction Di but also in the vicinity thereof. In short, if a method is employed in which the i-th two-dimensional image Pi is presented mainly in the i-th observation direction Di, a stereoscopic image that is practically unhindered can be presented.

続いて、第i番目の二次元画像Piが、主として第i番目の観察方向Diに提示されるような手法の一例として、レンチキュラーレンズを用いた具体例を説明しよう。ここでは、図1の下段に示すような5枚の二次元画像P1〜P5によって構成される多視点画像情報Eに基づいて立体画像記録媒体を作成する具体的なプロセスを、図5を参照しながら説明する。   Next, a specific example using a lenticular lens will be described as an example of a technique in which the i-th two-dimensional image Pi is mainly presented in the i-th observation direction Di. Here, a specific process for creating a stereoscopic image recording medium based on multi-viewpoint image information E constituted by five two-dimensional images P1 to P5 as shown in the lower part of FIG. 1 will be described with reference to FIG. While explaining.

図5の上段の図は、図1の下段に示す二次元画像P1〜P5をそれぞれ横方向に6等分して、6つの短冊型の部分画像を形成した例を示す平面図である。たとえば、二次元画像P1は、6つの部分画像P1a〜P1fに分割されており、二次元画像P2は、6つの部分画像P2a〜P2fに分割されており、以下同様である。なお、この図5では、説明の便宜上、二次元画像P1〜P5の構成領域に、それぞれ異なるハッチングを施して相互に区別できるようにしてある。   The upper part of FIG. 5 is a plan view showing an example in which six strip-shaped partial images are formed by dividing the two-dimensional images P1 to P5 shown in the lower part of FIG. For example, the two-dimensional image P1 is divided into six partial images P1a to P1f, the two-dimensional image P2 is divided into six partial images P2a to P2f, and so on. In FIG. 5, for convenience of explanation, the constituent areas of the two-dimensional images P <b> 1 to P <b> 5 are hatched differently so that they can be distinguished from each other.

こうして、5枚の二次元画像P1〜P5をそれぞれ6等分することにより、合計30組の短冊型の部分画像が用意できたら、これら30組の部分画像を、図5の中段の図に示すように並び替えた状態で記録媒体M上に印刷する。ここで、5組の部分画像が隣接配置された領域を1区画として、図示のように、6つの区画Ka〜Kfを定義すると、最も左に位置する第1の区画Kaには、各二次元画像P1〜P5の最も左に位置する部分画像P1a,P2a,P3a,P4a,P5aがこの順に配置されていることになる。同様に、第2の区画Kbには、各二次元画像P1〜P5の左から2番目に位置する部分画像P1b,P2b,P3b,P4b,P5bがこの順に配置され、... 、第6の区画Kfには、各二次元画像P1〜P5の最も右に位置する部分画像P1f,P2f,P3f,P4f,P5fがこの順に配置される。   Thus, when 30 pieces of strip-shaped partial images are prepared in total by dividing the five two-dimensional images P1 to P5 into six equal parts, these 30 sets of partial images are shown in the middle diagram of FIG. In this way, printing is performed on the recording medium M. Here, when an area in which five sets of partial images are adjacently arranged is defined as one section, and six sections Ka to Kf are defined as shown in the drawing, each of the first sections Ka located on the leftmost side has two dimensions. The partial images P1a, P2a, P3a, P4a, and P5a located on the leftmost side of the images P1 to P5 are arranged in this order. Similarly, in the second section Kb, the partial images P1b, P2b, P3b, P4b, and P5b that are located second from the left of the two-dimensional images P1 to P5 are arranged in this order, and so on. In the section Kf, the partial images P1f, P2f, P3f, P4f, and P5f located on the rightmost side of the two-dimensional images P1 to P5 are arranged in this order.

結局、多視点画像情報Eが複数n枚の二次元画像P1〜Pnによって構成されており、個々の二次元画像をそれぞれ複数m個の部分画像に分割したとすれば、記録媒体M上の記録面も複数m個の区画K1〜Kmに分割し、第i番目の区画Ki内にn枚の二次元画像P1〜Pnの第i番目の部分画像をそれぞれ記録するようにすればよい(図5に示す例は、n=5、m=6に設定した例ということになる)。   After all, if the multi-viewpoint image information E is composed of a plurality of n two-dimensional images P1 to Pn, and each individual two-dimensional image is divided into a plurality of m partial images, recording on the recording medium M is performed. The surface may be divided into a plurality of m sections K1 to Km, and the i-th partial images of the n two-dimensional images P1 to Pn may be recorded in the i-th section Ki (FIG. 5). In this example, n = 5 and m = 6 are set).

続いて、このような印刷を施した記録媒体M上に、レンチキュラーレンズLを配置すれば、被写体αが記録された立体画像記録媒体が得られる。図5の下段の図は、こうして作成された立体画像記録媒体の上面図である。レンチキュラーレンズLは、個々の区画K1〜Kmごとに配置された断面が蒲鉾状のレンズの集合体であり、1つの区画上に配置されているレンズは、当該区画に印刷されている第i番目の二次元画像Piの部分画像が第i番目の観察方向Diに提示されるように光を屈折させる機能を果たす。   Subsequently, when the lenticular lens L is arranged on the recording medium M subjected to such printing, a stereoscopic image recording medium on which the subject α is recorded is obtained. The lower part of FIG. 5 is a top view of the stereoscopic image recording medium thus created. The lenticular lens L is a collection of lenses having a bowl-shaped cross section arranged for each of the sections K1 to Km, and the lens arranged on one section is the i-th printed on the section. This function serves to refract light so that the partial image of the two-dimensional image Pi is presented in the i-th observation direction Di.

たとえば、図5の下段に示す例の場合、左端の区画Kaには、5組の部分画像P1a,P2a,P3a,P4a,P5aが印刷されているが、その上に配置されたレンチキュラーレンズLの機能により、部分画像P1aからの光は観察方向D1に屈折し、部分画像P2aからの光は観察方向D2に屈折し、... 、部分画像P5aからの光は観察方向D5に屈折することになる。このような屈折現象は、図示のすべての区画Ka〜Kfにおいて生じ、結局、第i番目の二次元画像Piは、第i番目の観察方向Diに提示されることになる。   For example, in the example shown in the lower part of FIG. 5, five sets of partial images P1a, P2a, P3a, P4a, and P5a are printed in the leftmost section Ka, but the lenticular lens L arranged thereon is also shown. By function, the light from the partial image P1a is refracted in the observation direction D1, the light from the partial image P2a is refracted in the observation direction D2, and the light from the partial image P5a is refracted in the observation direction D5. Become. Such a refraction phenomenon occurs in all of the illustrated sections Ka to Kf. Eventually, the i-th two-dimensional image Pi is presented in the i-th observation direction Di.

なお、図5では、説明の便宜上、個々の二次元画像P1〜P5から取り出した短冊型の部分画像P1a〜P5fを、そのままの縮尺で記録媒体M上に印刷した例を示したが、実用上は、印刷時に任意の倍率で拡大縮小することができる。特に、横方向に関しては、そのままの縮尺で記録媒体M上に印刷すると、観察される被写体αの立体画像は横方向に5倍に引き伸ばされた画像になってしまう。したがって、実用上は、記録媒体M上に印刷する際には、短冊型の個々の部分画像P1a〜P5fを横方向に1/5に縮小する処理を行うのが好ましい。   5 shows an example in which strip-shaped partial images P1a to P5f taken out from the individual two-dimensional images P1 to P5 are printed on the recording medium M at the same scale. Can be enlarged or reduced at an arbitrary magnification during printing. In particular, with respect to the horizontal direction, if printing is performed on the recording medium M at the same scale, the stereoscopic image of the observed subject α is an image that is stretched five times in the horizontal direction. Therefore, in practice, when printing on the recording medium M, it is preferable to perform a process of reducing the strip-shaped individual partial images P1a to P5f to 1/5 in the horizontal direction.

このようにして作成された立体画像記録媒体では、図の横方向に視点を移動させることによって視差が生じる立体画像が提示されるが、図の縦方向に視点を移動させた場合には、視差が生じることはない。これは、図1に示すように、5通りの観察方向D1〜D5として、横に向きを変えた観察方向を設定し、図5の上段に示すように、各二次元画像P1〜P5を横方向に6分割して縦長の短冊型部分画像を形成し、図5の中段に示すように、各部分画像P1a〜P5fを横方向に並べて配置したためである。   In the stereoscopic image recording medium created in this way, a stereoscopic image in which parallax is generated by moving the viewpoint in the horizontal direction of the figure is presented, but when the viewpoint is moved in the vertical direction of the figure, the parallax is displayed. Will not occur. As shown in FIG. 1, the five observation directions D1 to D5 are set to the observation directions that are changed in the horizontal direction, and the two-dimensional images P1 to P5 are horizontally displayed as shown in the upper part of FIG. This is because a vertically long strip-shaped partial image is formed by dividing the image into six in the direction, and the partial images P1a to P5f are arranged in the horizontal direction as shown in the middle of FIG.

もちろん、必要があれば、縦横いずれの方向に視点を移動させても視差が生じる立体画像を提示可能な立体画像記録媒体を作成することも可能である。そのためには、観察方向を横だけでなく、縦にも変えるバリエーションを設定すればよい。すなわち、図1に示す例の場合、観察方向D1〜D5をそれぞれ所定方向を示す方向ベクトルと考えると、すべての方向ベクトルが基準点Qを含む同一平面上に配置されていることになるが、三次元空間上の任意の方向を向いた方向ベクトルを観察方向として設定するようにすれば、縦横いずれの方向に視点を移動させても視差が生じる立体画像を提示可能な多視点画像情報Eを作成することができる。   Of course, if necessary, it is also possible to create a stereoscopic image recording medium capable of presenting a stereoscopic image in which parallax occurs even if the viewpoint is moved in any direction. For this purpose, it is only necessary to set a variation that changes the observation direction not only horizontally but also vertically. That is, in the case of the example shown in FIG. 1, when the observation directions D1 to D5 are each considered as a direction vector indicating a predetermined direction, all the direction vectors are arranged on the same plane including the reference point Q. By setting a direction vector pointing in an arbitrary direction in a three-dimensional space as an observation direction, multi-viewpoint image information E capable of presenting a stereoscopic image in which parallax occurs even when the viewpoint is moved in either the vertical or horizontal direction. Can be created.

一般に、XYZ三次元座標空間上で、原点Oを通り任意の方向を指す方向ベクトルは、図6に示すように、方位角φおよび仰角θという2つの角度パラメータφ,θを用いて、ベクトルD(φ,θ)という形で表すことができる(電子出願の制約上、明細書等ではベクトルを示す矢印記号は省略する)。ここで方位角φは、方向ベクトルDのXY平面上への正射影投影像D′とY軸とのなす角度(もちろん、X軸とのなす角として定義してもかまわない)として与えられ、仰角θは、方向ベクトルDとXY平面とのなす角度として与えられる。   In general, in the XYZ three-dimensional coordinate space, a direction vector that points to an arbitrary direction through the origin O, as shown in FIG. 6, uses two angle parameters φ and θ, which are an azimuth angle φ and an elevation angle θ, and is a vector D (Φ, θ) can be represented (in the description and the like, the arrow symbol indicating a vector is omitted) due to restrictions of the electronic application. Here, the azimuth angle φ is given as an angle formed between the orthogonal projection image D ′ of the direction vector D on the XY plane and the Y axis (of course, it may be defined as an angle formed with the X axis), The elevation angle θ is given as an angle formed by the direction vector D and the XY plane.

図1に示す例は、原点Oの位置に基準点Qを定義し、XY平面上に含まれる方向ベクトルのみを用いて観察方向D1〜D5を定義した例ということができ、観察方向を示す方向ベクトルは、方位角φのみを用いてベクトルD(φ)で表される。これに仰角θを加えて定義した方向ベクトルD(φ,θ)は、三次元座標空間上の任意の方向を指すことできる。このような方向ベクトルD(φ,θ)を用いて観察方向のバリエーションを定義すれば、縦横いずれの方向に視点を移動させても視差が生じる立体画像を提示することが可能になる。   The example shown in FIG. 1 can be said to be an example in which the reference point Q is defined at the position of the origin O and the observation directions D1 to D5 are defined using only the direction vector included on the XY plane. The vector is represented by a vector D (φ) using only the azimuth angle φ. The direction vector D (φ, θ) defined by adding the elevation angle θ to this can point to an arbitrary direction in the three-dimensional coordinate space. If the variation of the observation direction is defined using such a direction vector D (φ, θ), it is possible to present a stereoscopic image in which parallax occurs even if the viewpoint is moved in any direction.

ここでは、横方向のバリエーションとして、図1に示す例と同様に、方位角φを5通りに変化させ、縦方向のバリエーションとして、仰角θを3通りに変化させた例を示しておく。この例では、結局、15通りの観察方向D11〜D15,D21〜D25,D31〜D35が定義されることになる。すなわち、観察方向D11〜D15は、仰角θを第1の値θ1に固定した状態で、方位角φをφ1〜φ5に変化させることにより得られ、観察方向D21〜D25は、仰角θを第2の値θ2に固定した状態で、方位角φをφ1〜φ5に変化させることにより得られ、観察方向D31〜D35は、仰角θを第3の値θ3に固定した状態で、方位角φをφ1〜φ5に変化させることにより得られる。   Here, an example in which the azimuth angle φ is changed in five ways as a variation in the horizontal direction, and an elevation angle θ is changed in three ways as a variation in the vertical direction, as in the example shown in FIG. In this example, 15 observation directions D11 to D15, D21 to D25, and D31 to D35 are eventually defined. That is, the observation directions D11 to D15 are obtained by changing the azimuth angle φ to φ1 to φ5 while the elevation angle θ is fixed to the first value θ1, and the observation directions D21 to D25 are obtained by changing the elevation angle θ to the second value. The observation direction D31 to D35 is obtained by changing the azimuth angle φ to φ1 to φ5 with the value θ2 being fixed, and the observation direction D31 to D35 is the azimuth angle φ being φ1 with the elevation angle θ being fixed to the third value θ3. It is obtained by changing to ~ φ5.

図7は、このような15通りの観察方向を設定することにより得られた15通りの二次元画像P11〜P35によって構成される多視点画像情報Eを示す平面図である。各二次元画像P11〜P35は、図1に示す例と同様に、被写体αの手前に有限の面積をもった投影面Sを設置し、被写体αをそれぞれ観察方向D11〜D35によって示される方向に平行投影することによって投影面S上に形成された平行投影像である。このような多視点画像情報Eには、横方向(方位角φを変化させた方向)の視差情報だけでなく、縦方向(仰角θを変化させた方向)の視差情報も含まれているため、縦横いずれの方向に視点を移動させても視差が生じる立体画像を提示することが可能になる。   FIG. 7 is a plan view showing multi-viewpoint image information E composed of 15 kinds of two-dimensional images P11 to P35 obtained by setting such 15 kinds of observation directions. Each of the two-dimensional images P11 to P35 is provided with a projection plane S having a finite area in front of the subject α, in the same manner as in the example shown in FIG. 1, and the subject α is in the direction indicated by the observation directions D11 to D35, respectively. It is a parallel projection image formed on the projection surface S by performing parallel projection. Such multi-viewpoint image information E includes not only parallax information in the horizontal direction (direction in which the azimuth angle φ is changed) but also parallax information in the vertical direction (direction in which the elevation angle θ is changed). It is possible to present a stereoscopic image in which parallax occurs even when the viewpoint is moved in any direction.

図8は、図7に示す多視点画像情報Eに基づいて、立体画像記録媒体を作成するプロセスを示す平面図である。図8の上半分の図は、図7に示す二次元画像P11〜P35をそれぞれ横方向に6等分、縦方向に4等分して、24個の矩形状部分画像を形成した例を示す平面図である。こうして、15枚の二次元画像P11〜P35をそれぞれ24等分することにより、合計360組の矩形状部分画像が用意できたら、これら360組の部分画像を、図8の下半分の図に示すように並び替えた状態で記録媒体M上に印刷する。   FIG. 8 is a plan view showing a process of creating a stereoscopic image recording medium based on the multi-viewpoint image information E shown in FIG. The upper half of FIG. 8 shows an example in which 24 rectangular partial images are formed by dividing the two-dimensional images P11 to P35 shown in FIG. 7 into 6 equal parts in the horizontal direction and 4 equal parts in the vertical direction. It is a top view. Thus, when a total of 360 sets of rectangular partial images are prepared by dividing the 15 two-dimensional images P11 to P35 into 24 equal parts, these 360 sets of partial images are shown in the lower half of FIG. In this way, printing is performed on the recording medium M.

ここで、記録媒体Mを構成する全領域は、横方向に6等分、縦方向に4等分され、合計24個の区画Ka〜Kxが定義される。また、個々の区画は、更に、横方向に5等分、縦方向に3等分され、合計15個の微小領域に分けられる。そして、1つ1つの微小領域に、二次元画像P11〜P35を構成する個々の矩形状部分画像が割り付けられる。たとえば、記録媒体Mの左上の区画Kaを構成する1行目の微小領域には、部分画像P11a,P12a,P13a,P14a,P15aが割り付けられ、2行目の微小領域には、部分画像P21a,P22a,P23a,P24a,P25aが割り付けられ、3行目の微小領域には、部分画像P31a,P32a,P33a,P34a,P35aが割り付けられる。   Here, the entire area constituting the recording medium M is divided into six equal parts in the horizontal direction and four equal parts in the vertical direction, and a total of 24 sections Ka to Kx are defined. Each section is further divided into five equal parts in the horizontal direction and three equal parts in the vertical direction, and is divided into a total of 15 minute regions. Each rectangular partial image constituting the two-dimensional images P11 to P35 is assigned to each minute region. For example, partial images P11a, P12a, P13a, P14a, and P15a are allocated to the minute area in the first row constituting the upper left section Ka of the recording medium M, and the partial images P21a, P15a, are assigned to the minute area in the second row. P22a, P23a, P24a, and P25a are allocated, and partial images P31a, P32a, P33a, P34a, and P35a are allocated to the minute region in the third row.

別言すれば、記録媒体M上の第1行第1列目の区画Kaには、各二次元画像P11〜P35の第1行第1列目の部分画像P11a〜P35aが割り付けられることになる。同様に、記録媒体M上の第1行第2列目の区画Kbには、各二次元画像P11〜P35の第1行第2列目の部分画像P11b〜P35bが割り付けられることになる。要するに、記録媒体M上の第j行第k列目の区画には、各二次元画像P11〜P35の第j行第k列目の部分画像が割り付けられる。   In other words, the first row and first column partial images P11a to P35a of the two-dimensional images P11 to P35 are allocated to the section Ka of the first row and first column on the recording medium M. . Similarly, partial images P11b to P35b in the first row and second column of the two-dimensional images P11 to P35 are allocated to the section Kb in the first row and second column on the recording medium M. In short, the jth row and kth column partial images of the two-dimensional images P11 to P35 are allocated to the jth row and kth column of the recording medium M.

続いて、このような印刷を施した記録媒体M上に、マイクロレンズアレイを配置すれば、被写体αが記録された立体画像記録媒体が得られる。このマイクロレンズアレイは、個々の区画Ka〜Kxごとに独立したマイクロレンズの集合体であり、1つの区画上に配置されているマイクロレンズは、当該区画に印刷されている第i番目の二次元画像Piの部分画像が第i番目の観察方向Diに提示されるように光を屈折させる機能を果たす。たとえば、図示の区画Kaには、15組の部分画像P11a〜P35aが印刷されているが、その上に配置されたマイクロレンズの機能により、部分画像P11aからの光は観察方向D11に屈折し、部分画像P12aからの光は観察方向D12に屈折し、... 、部分画像P35aからの光は観察方向D35に屈折することになる。このような屈折現象は、図示のすべての区画Ka〜Kxにおいて生じ、結局、第i番目の二次元画像Piは、第i番目の観察方向Diに提示されることになる。   Subsequently, if a microlens array is arranged on the recording medium M subjected to such printing, a stereoscopic image recording medium on which the subject α is recorded can be obtained. This microlens array is an assembly of independent microlenses for each of the sections Ka to Kx, and the microlens arranged on one section is the i-th two-dimensional printed on the section. It fulfills the function of refracting light so that the partial image of the image Pi is presented in the i-th observation direction Di. For example, in the illustrated section Ka, 15 sets of partial images P11a to P35a are printed, but the light from the partial image P11a is refracted in the observation direction D11 by the function of the microlens arranged thereon, The light from the partial image P12a is refracted in the observation direction D12, and the light from the partial image P35a is refracted in the observation direction D35. Such a refraction phenomenon occurs in all of the illustrated sections Ka to Kx. Eventually, the i-th two-dimensional image Pi is presented in the i-th observation direction Di.

このようにして作成された立体画像記録媒体では、図の横方向に視点を移動させても、図の縦方向に視点を移動させても、視差が生じる立体画像が提示されることになる。   In the stereoscopic image recording medium created in this way, a stereoscopic image in which parallax occurs is presented regardless of whether the viewpoint is moved in the horizontal direction of the figure or the viewpoint is moved in the vertical direction of the figure.

<<< §2.一般的な多視点画像情報の作成方法 >>>
§1で述べたとおり、多視点画像情報Eを構成する個々の二次元画像(たとえば、図1の下段に示す二次元画像P1〜P5)は、被写体αをカメラなどで撮影した通常の撮影画像ではなく、図2に例示するように、被写体αを特定の観察方向に平行投影することによって得られる平行投影像である。
<<< §2. General multi-view image information creation method >>
As described in §1, individual two-dimensional images (for example, two-dimensional images P1 to P5 shown in the lower part of FIG. 1) constituting the multi-viewpoint image information E are normal captured images obtained by capturing the subject α with a camera or the like. Instead, as illustrated in FIG. 2, it is a parallel projection image obtained by parallel projecting the subject α in a specific observation direction.

このような平行投影像の集合体からなる多視点画像情報Eを作成するひとつの方法は、CGの手法を用いる方法である。たとえば、図2に示すような被写体αを、コンピュータにより仮想のCG画像として用意しておけば、仮想空間上に定義した投影面S上に、この被写体αを任意の方向に平行投影した投影像を演算によって求めることができる。したがって、図1の下段に示すような二次元画像P1〜P5を、コンピュータによる演算で生成することができる。   One method of creating the multi-viewpoint image information E composed of such a set of parallel projection images is a method using a CG technique. For example, if a subject α as shown in FIG. 2 is prepared as a virtual CG image by a computer, a projection image obtained by projecting the subject α in parallel in an arbitrary direction on the projection plane S defined in the virtual space. Can be obtained by calculation. Therefore, it is possible to generate two-dimensional images P1 to P5 as shown in the lower part of FIG.

しかしながら、高品質の被写体画像をCGで作成するには、それなりの費用と制作時間が必要になるため、商業的な利用を考えると、その用途は限定的にならざるを得ない。そこで、実用上は、被写体αに対して様々な方向から実写撮影を行い、得られた多数の撮影画像データに基づく幾何学的な演算処理を行うことにより、実写画像と同等の品質をもった平行投影像の集合体からなる多視点画像情報Eを作成する方法が利用されている。   However, in order to create a high-quality subject image with CG, a certain amount of cost and production time are required. Therefore, in view of commercial use, its use must be limited. Therefore, for practical purposes, real shooting was performed on the subject α from various directions, and geometric calculation processing based on a large number of obtained image data was performed, so that the quality was equivalent to that of the real shooting image. A method of creating multi-viewpoint image information E composed of a collection of parallel projection images is used.

図9は、被写体αに対して、このような実写撮影を行う設備の一例を示す上面図である。この例では、被写体αの近傍に、撮影始点Aから撮影終点Bに至るまで直線状の撮影経路Tが設けられている。実際には、この撮影経路Tに沿ってレールが敷設されており、このレール上をカメラが移動できるようになっている。撮影経路Tは、必ずしも直線状の経路にする必要はなく、任意曲線に沿った経路にしてもかまわないが、後述する変換演算処理をできるだけ単純化する上では、図示のような直線経路にするか、あるいは円弧状の経路にするのが好ましい。   FIG. 9 is a top view showing an example of equipment for performing such a real-life shooting on the subject α. In this example, a linear shooting path T from the shooting start point A to the shooting end point B is provided in the vicinity of the subject α. Actually, a rail is laid along the photographing route T, and the camera can move on the rail. The shooting route T does not necessarily have to be a straight route, and may be a route along an arbitrary curve. However, in order to simplify the conversion calculation processing described later as much as possible, a straight route as shown in the figure is used. Or an arcuate path.

このような撮影経路Tに沿って、カメラを撮影始点Aから撮影終点Bへと移動させながら被写体αの撮影を行ってゆけば、撮影経路T上の任意の撮影ポイントから撮影した撮影画像を得ることができる。図には、第i番目の撮影ポイントT(i)から被写体αを撮影している状態が示されている。もちろん、このような撮影は、通常のレンズなどを用いたカメラで行われるため、得られた撮影画像は、遠近法を用いて表現した画像になる。   If the subject α is photographed while moving the camera from the photographing start point A to the photographing end point B along such a photographing route T, a photographed image taken from any photographing point on the photographing route T is obtained. be able to. The figure shows a state where the subject α is being photographed from the i-th photographing point T (i). Of course, since such shooting is performed by a camera using a normal lens or the like, the obtained shot image is an image expressed using a perspective method.

撮影経路T上の1000箇所に撮影ポイントを設定すれば、撮影始点Aを第1番目の撮影ポイントT(1)、撮影終点Bを第1000番目の撮影ポイントT(1000)として、合計1000枚の撮影画像が得られることになる。ここでは、こうして得られた1000枚の撮影画像を実写撮影画像U1〜U1000と呼ぶことにする。撮影時にカメラの移動制御を正確に行うようにすれば、個々の実写撮影画像が得られた幾何学的な撮影条件を正確に把握することができるので、これら撮影条件を勘案して、実写撮影画像U1〜U1000に対する幾何学的な演算処理を行うことにより、多視点画像情報Eを構成する複数枚の平行投影像を得ることができる。   If 1000 shooting points are set on the shooting path T, the shooting start point A is the first shooting point T (1), and the shooting end point B is the 1000th shooting point T (1000). A photographed image is obtained. Here, 1000 photographed images obtained in this way will be referred to as actual photographed images U1 to U1000. By accurately controlling the movement of the camera during shooting, it is possible to accurately grasp the geometric shooting conditions from which each live-action shot image was obtained. A plurality of parallel projection images constituting the multi-viewpoint image information E can be obtained by performing geometric calculation processing on the images U1 to U1000.

図10は、図9に示す実写撮影によって得られた実写撮影画像U1〜U1000に基づく所定の変換演算処理により、多視点画像情報Eを構成する二次元画像P1〜P70を作成するプロセスを示すブロック図である。この例の場合、1000枚の実写撮影画像U1〜U1000に基づいて、70枚の二次元画像P1〜P70が生成されている。この70枚の二次元画像P1〜P70は、被写体αを、それぞれ所定の観察方向D1〜D70に向かって平行投影したときに、所定の投影面S上に得られる投影像になっている。   FIG. 10 is a block diagram showing a process of creating the two-dimensional images P1 to P70 constituting the multi-viewpoint image information E by a predetermined conversion calculation process based on the photographed images U1 to U1000 obtained by the photographed shooting shown in FIG. FIG. In the case of this example, 70 two-dimensional images P1 to P70 are generated based on 1000 photographed images U1 to U1000. The 70 two-dimensional images P1 to P70 are projection images obtained on a predetermined projection plane S when the subject α is projected in parallel toward predetermined observation directions D1 to D70, respectively.

なお、実写撮影画像U1〜U1000を二次元画像P1〜P70に変換する処理は、たとえば、吉川博志,高木康博「指向性画像の高密度表示に用いる三次元カメラの開発」(3次元画像コンファレンス実行委員会発行:三次元画像コンファレンス予稿集 巻2003 頁229-232)などの論文に発表されている公知技術であり、また、本発明の重要な特徴部分に直接関係した処理ではないため、ここでは詳しい説明は省略する。   For example, Hiroshi Yoshikawa and Yasuhiro Takagi “Development of a three-dimensional camera for high-density display of directional images” (execution of a three-dimensional image conference) Issued by the Committee: 3D Image Conference Proceedings Vol. 2003, p. 229-232), etc., and is not a process directly related to the important features of the present invention. Detailed description is omitted.

結局、図9に示すような撮影設備を用いて任意の被写体αに対する実写撮影を行い、得られた多数の撮影画像に対して図10に示すような変換演算処理を施せば、当該被写体αについての多視点画像情報E(平行投影像が記録された二次元画像群)を得ることができる。しかしながら、被写体αが大きくなればなるほど、必要な撮影設備は大掛かりなものにならざるを得ない。たとえば、被写体αとして人物の全身像を用いる場合、実写撮影に必要な設備を設置するために、ある程度の広さをもったスタジオが必要になる。したがって、被写体が複数のメンバーからなる人物の集合体のような場合、体育館ほどの大型施設を用意せざるを得ない。また、被写体の背景画像として、屋外の景色などを利用したい場合は、撮影設備を屋外に設ける必要があり、現実的には非常に困難である。   Eventually, if an actual subject is photographed with respect to an arbitrary subject α using a photographing facility as shown in FIG. 9, and conversion processing as shown in FIG. Multi-viewpoint image information E (two-dimensional image group on which parallel projection images are recorded) can be obtained. However, the larger the subject α, the larger the necessary photographing equipment. For example, when a person's whole body image is used as the subject α, a studio having a certain size is required in order to install facilities necessary for live-action shooting. Therefore, when the subject is an aggregate of persons consisting of a plurality of members, a large facility as large as a gymnasium must be prepared. Further, when it is desired to use an outdoor scenery as the background image of the subject, it is necessary to provide a photographing facility outdoors, which is very difficult in practice.

本発明は、このような課題を解決するための具体的な方法を提案するものであり、その目的は、それぞれ別個の被写体についての情報を含んだ複数組の多視点画像情報Eを相互に合成し、違和感のない合成立体画像を提示できるようにすることにある。   The present invention proposes a specific method for solving such a problem, and an object of the present invention is to synthesize a plurality of sets of multi-viewpoint image information E each including information on separate subjects. Then, it is to be able to present a synthetic stereoscopic image without a sense of incongruity.

<<< §3.本発明に係る多視点画像情報の合成原理 >>>
図1には、コーヒーカップからなる被写体αを立体表示するための多視点画像情報を示した。そして、§2で述べたとおり、このような多視点画像情報は、図9に示すような撮影設備を用いて当該被写体αを撮影することによって作成することができる。もちろん、コーヒーカップからなる被写体αの代わりに、たとえば、リンゴからなる被写体βを用いて同様の撮影を行えば、当該被写体βを立体表示するための多視点画像情報が得られることになる。本発明の基本概念は、このような別個の被写体についての情報を含んだ複数組の多視点画像情報を相互に合成することにより、複数の被写体を立体表示するための多視点画像情報を得ることにある。
<<< §3. Principle of composition of multi-view image information according to the present invention >>>
FIG. 1 shows multi-viewpoint image information for stereoscopically displaying a subject α composed of a coffee cup. And as described in §2, such multi-viewpoint image information can be created by photographing the subject α using a photographing facility as shown in FIG. Of course, instead of the subject α made of a coffee cup, for example, the same image is taken using the subject β made of an apple, multi-viewpoint image information for stereoscopic display of the subject β can be obtained. The basic concept of the present invention is to obtain multi-viewpoint image information for stereoscopic display of a plurality of subjects by mutually synthesizing a plurality of sets of multi-viewpoint image information including information on such separate subjects. It is in.

たとえば、コーヒーカップとリンゴとを併置した状態の立体画像を提示するための多視点画像情報を、実写撮影に基づいて作成することにすると、それだけ広い撮影スペースをもった撮影設備が必要になる。ところが、本発明を利用すれば、コーヒーカップのみについての多視点画像情報と、リンゴのみについての多視点画像情報とをそれぞれ別個に作成しておき、これらを合成すればよいので、実写撮影を行う場合でも、比較的小規模の撮影設備を準備すれば足りる。   For example, if multi-viewpoint image information for presenting a three-dimensional image in which coffee cups and apples are juxtaposed is created based on live-action shooting, a shooting facility with such a large shooting space is required. However, if the present invention is used, since the multi-view image information for only the coffee cup and the multi-view image information for only the apple are separately created and synthesized, they are taken. Even in this case, it is sufficient to prepare a relatively small-scale photography facility.

したがって、たとえば、1クラス40名からなる学級の生徒全員の集合体についての立体画像を提示する場合でも、比較的小規模の撮影設備を用いて1人1人の生徒を被写体とする実写撮影を行い、合計40組の多視点画像情報を作成しておき、本発明を利用して、これら40組の多視点画像情報を合成すれば、生徒全員の集合体についての立体画像を提示可能な合成多視点画像情報を得ることができるようになる。   Therefore, for example, even when presenting a stereoscopic image of a group of all 40 students in a class consisting of 40 students in a class, a live-action shooting with each student as a subject is performed using a relatively small shooting facility. If a total of 40 sets of multi-viewpoint image information is created and these 40 sets of multi-viewpoint image information are synthesized using the present invention, a composition that can present a stereoscopic image of the aggregate of all students Multi-viewpoint image information can be obtained.

以下、本発明に係る多視点画像情報の合成方法の一実施形態を、コーヒーカップからなる被写体αについての多視点画像情報E(α)と、リンゴからなる被写体βについての多視点画像情報E(β)とを合成する具体例について、図11を参照しながら説明する。   Hereinafter, one embodiment of a method for synthesizing multi-viewpoint image information according to the present invention will be described with reference to multi-viewpoint image information E (α) for a subject α made of a coffee cup and multi-viewpoint image information E ( A specific example of synthesizing β) will be described with reference to FIG.

図11の上段に示す第1の多視点画像情報E(α)は、図1の下段に示す多視点画像情報Eと同じものであり、コーヒーカップからなる被写体αを5通りの観察方向D1〜D5に平行投影して得られる二次元画像Pα1〜Pα5によって構成される。ここで、二次元画像Pα1〜Pα5は、図1に示す二次元画像P1〜P5と同じ画像であるが、被写体αについての画像であることを示すため、Pα1〜Pα5なる符号を付している。なお、ここでは2組の画像についての合成処理を説明する便宜上、コーヒーカップからなる被写体αの投影像の周囲にある背景部分を、ハッチング領域として示している。   The first multi-view image information E (α) shown in the upper part of FIG. 11 is the same as the multi-view image information E shown in the lower part of FIG. Consists of two-dimensional images Pα1 to Pα5 obtained by parallel projection on D5. Here, the two-dimensional images Pα1 to Pα5 are the same images as the two-dimensional images P1 to P5 shown in FIG. 1, but are denoted by symbols Pα1 to Pα5 to indicate that they are images about the subject α. . Here, for convenience of describing the composition processing for two sets of images, the background portion around the projection image of the subject α made of coffee cups is shown as a hatched area.

一方、図11の中段に示す第2の多視点画像情報E(β)は、リンゴからなる被写体βを5通りの観察方向D1〜D5に平行投影して得られる二次元画像Pβ1〜Pβ5によって構成される。ここでも、リンゴからなる被写体βの投影像の周囲にある背景部分にハッチングを施している。   On the other hand, the second multi-viewpoint image information E (β) shown in the middle of FIG. 11 is composed of two-dimensional images Pβ1 to Pβ5 obtained by projecting the subject β made of apples in parallel in five observation directions D1 to D5. Is done. Again, the background portion around the projected image of the subject β made of apples is hatched.

ここで、第1の多視点画像情報E(α)を得るための被写体αと投影面Sαとの位置関係と、第2の多視点画像情報E(β)を得るための被写体βと投影面Sβとの位置関係は、必ずしも同一である必要はない。もちろん、投影面Sαと被写体αとの距離や、投影面Sβと被写体βとの距離も、同一である必要はない。また、投影面SαとSβのサイズも同一である必要はない。ただ、投影面SαやSβに対する観察方向D1〜D5は、両者で共通するようにしておく。すなわち、図1において、投影面Sと観察方向D1〜D5の位置関係さえ固定しておけば、被写体αや被写体βを配置する位置は任意でかまわないことになる。   Here, the positional relationship between the subject α and the projection plane Sα for obtaining the first multi-viewpoint image information E (α), and the subject β and the projection plane for obtaining the second multi-viewpoint image information E (β). The positional relationship with Sβ is not necessarily the same. Of course, the distance between the projection surface Sα and the subject α and the distance between the projection surface Sβ and the subject β need not be the same. Further, the sizes of the projection surfaces Sα and Sβ do not have to be the same. However, the observation directions D1 to D5 with respect to the projection surfaces Sα and Sβ are common to both. That is, in FIG. 1, as long as the positional relationship between the projection surface S and the observation directions D1 to D5 is fixed, the positions at which the subject α and the subject β are arranged may be arbitrary.

図11の下段には、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成することにより得られる第3の多視点画像情報E(γ)が示されている。この第3の多視点画像情報E(γ)は、コーヒーカップからなる被写体αとリンゴからなる被写体βとを並べた状態を、上記5通りの観察方向D1〜D5から観察した態様を示す二次元画像Pγ1〜Pγ5によって構成されている。この第3の多視点画像情報E(γ)は、合成処理によって得られた情報であるが、被写体α,βを併置した状態を違和感のない立体画像として提示ために利用することができる。   In the lower part of FIG. 11, the third multi-view image information E (γ) obtained by combining the first multi-view image information E (α) and the second multi-view image information E (β). It is shown. The third multi-viewpoint image information E (γ) is a two-dimensional image showing a state in which the subject α made of coffee cup and the subject β made of apple are arranged from the above five observation directions D1 to D5. The images Pγ1 to Pγ5 are configured. The third multi-viewpoint image information E (γ) is information obtained by the synthesis process, and can be used for presenting a state in which the subjects α and β are juxtaposed as a stereoscopic image without a sense of incongruity.

具体的には、たとえば、図5で説明した方法と同様の方法を用いて、二次元画像Pγ1〜Pγ5を記録媒体M上に印刷し、その上にレンチキュラーレンズLを配置することにより、被写体α,βを併置した状態の立体画像を提示することができる立体画像記録媒体を作成することができる。すなわち、レンチキュラーレンズLの機能により、観察方向D1には二次元画像Pγ1が提示され、観察方向D2には二次元画像Pγ2が提示され、... 、観察方向D5には二次元画像Pγ5が提示されることになり、コーヒーカップとリンゴとが併置された状態(図示の例では、コーヒーカップの奥にリンゴが配置されている状態)が立体画像として提示されることになる。   Specifically, for example, by using a method similar to the method described with reference to FIG. 5, the two-dimensional images Pγ1 to Pγ5 are printed on the recording medium M, and the lenticular lens L is arranged thereon, whereby the subject α , Β can be created, and a stereoscopic image recording medium capable of presenting a stereoscopic image in a state where β is juxtaposed can be created. That is, by the function of the lenticular lens L, a two-dimensional image Pγ1 is presented in the observation direction D1, a two-dimensional image Pγ2 is presented in the observation direction D2, and a two-dimensional image Pγ5 is presented in the observation direction D5. Thus, a state where the coffee cup and the apple are juxtaposed (in the illustrated example, the state where the apple is arranged behind the coffee cup) is presented as a stereoscopic image.

さて、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成することにより第3の多視点画像情報E(γ)を生成するには、共通の観察方向に関する二次元画像同士を合成すればよいことは、直感的に理解できよう。たとえば、観察方向D1については、二次元画像Pα1とPβ1とを合成して、新たな二次元画像Pγ1を生成し、観察方向D2については、二次元画像Pα2とPβ2とを合成して、新たな二次元画像Pγ2を生成し、... 、観察方向D5については、二次元画像Pα5とPβ5とを合成して、新たな二次元画像Pγ5を生成すればよい。図11における白抜きの「+」印と白抜きの矢印は、このような合成手順を示すものである。   In order to generate the third multi-view image information E (γ) by synthesizing the first multi-view image information E (α) and the second multi-view image information E (β), a common It can be intuitively understood that two-dimensional images relating to the observation direction may be synthesized. For example, for the observation direction D1, the two-dimensional images Pα1 and Pβ1 are synthesized to generate a new two-dimensional image Pγ1, and for the observation direction D2, the two-dimensional images Pα2 and Pβ2 are synthesized to create a new one. A two-dimensional image Pγ2 is generated, and for the observation direction D5, a new two-dimensional image Pγ5 may be generated by synthesizing the two-dimensional images Pα5 and Pβ5. A white “+” mark and a white arrow in FIG. 11 indicate such a composition procedure.

一般に、二次元画像同士の合成は、2枚の画像を同じ位置に重ね合わせることによって行われ、画像が重複する領域については、両者の奥行きを考慮して、手前に配置された画像を優先する方法によって行われる。図12は、図11に示す二次元画像Pα3,Pβ3を合成して、合成画像Pγ3を得る一般的な方法を示す平面図である。ここでは、画像Pα3が画像Pβ3の手前に配置されているものとして合成を行っている。なお、上述したように、図11においてハッチングを施した領域は、各二次元画像の背景領域であり、被写体の投影像とは無関係な領域である。したがって、二次元画像を合成する際にも、この背景領域は合成対象としては考慮されない。   In general, two-dimensional images are synthesized by superimposing two images at the same position, and for an area where the images overlap, the image arranged in front is given priority in consideration of the depth of both. Done by the method. FIG. 12 is a plan view showing a general method for obtaining the synthesized image Pγ3 by synthesizing the two-dimensional images Pα3 and Pβ3 shown in FIG. Here, the synthesis is performed on the assumption that the image Pα3 is arranged in front of the image Pβ3. As described above, the hatched area in FIG. 11 is a background area of each two-dimensional image and is an area unrelated to the projected image of the subject. Therefore, this background region is not considered as a synthesis target when a two-dimensional image is synthesized.

背景領域を区別して画像合成を行う処理は、一般にクロマキー合成処理として知られている。被写体を実写撮影する場合、ブルーやグリーンなど、特定の背景色をもったスクリーンを背景に用いた撮影を行うことにより、撮影画像中の当該背景色の領域(背景属性をもった画素からなる領域)を背景領域として認識することができる。図11にハッチングを施した領域は、このような方法で背景領域として認識された領域を示している。図12に例示する例のように、二次元画像Pα3,Pβ3を合成する場合、画像Pα3の背景領域以外の部分(被写体αの部分)と画像Pβ3の背景領域以外の部分(被写体βの部分)とを合成し、この合成被写体以外の部分を背景領域として合成画像Pγ3を生成すればよい。   The process of performing image composition while distinguishing the background region is generally known as chroma key composition processing. When shooting a subject, the background color area (area consisting of pixels with a background attribute) in the captured image is obtained by shooting using a screen with a specific background color such as blue or green as the background. ) Can be recognized as the background area. The hatched area in FIG. 11 indicates an area recognized as a background area by such a method. When the two-dimensional images Pα3 and Pβ3 are synthesized as in the example illustrated in FIG. 12, a portion other than the background region of the image Pα3 (portion of the subject α) and a portion other than the background region of the image Pβ3 (portion of the subject β) And a synthesized image Pγ3 may be generated using a portion other than the synthesized subject as a background region.

図12に示す例は、合成対象となる2枚の二次元画像Pα3,Pβ3が、同じサイズの画像(同じ画素配列をもった画像)である場合の例であり、2枚の画素はぴったりと重なり合い、同じ位置の画素が1対1に対応する。ここで、画素G1は背景領域の画素、画素G2は被写体αの一部を構成する画素、画素G3は被写体α,βの重複領域(図ではドットによるハッチングを施している)内の画素、画素G4は被写体βの一部を構成する画素である。この場合、合成画像Pγ3において、画素G2の画素値としては被写体αの画素値を採用し、画素G4の画素値としては被写体βの画素値を採用すればよい。一方、ドットによるハッチングを施した領域内の画素G3の画素値としては、手前に位置する被写体(この例の場合は、被写体α)の画素値を採用し、画素G1の画素値としては、背景属性を示す画素値を採用すればよい。   The example shown in FIG. 12 is an example in which two two-dimensional images Pα3 and Pβ3 to be synthesized are images of the same size (images having the same pixel arrangement), and the two pixels are exactly The overlapping pixels at the same position correspond one-to-one. Here, the pixel G1 is a pixel in the background area, the pixel G2 is a pixel that forms part of the subject α, the pixel G3 is a pixel in the overlapping region of the subjects α and β (hatched by dots in the figure), and the pixel G4 is a pixel constituting a part of the subject β. In this case, in the composite image Pγ3, the pixel value of the subject α may be adopted as the pixel value of the pixel G2, and the pixel value of the subject β may be adopted as the pixel value of the pixel G4. On the other hand, as the pixel value of the pixel G3 in the area hatched with dots, the pixel value of the subject located in the foreground (subject α in this example) is adopted, and the pixel value of the pixel G1 is the background value. A pixel value indicating an attribute may be employed.

もちろん、この図12に示すような方法で、2枚の二次元画像を合成する方法は、ごく普通に行われている方法であり、様々な分野で広く利用されている。本願発明者も、当初は、この一般的な合成方法を用いて、共通の観察方向に関する二次元画像同士を合成して第3の多視点画像情報E(γ)を生成する処理を行ってみた。しかしながら、そのような合成方法で得られた第3の多視点画像情報E(γ)に基づいて、図5に示すような方法でレンチキュラーレンズを利用した立体画像記録媒体を作成したところ、観察される立体画像には不自然さが感じられた。具体的には、被写体α,βの奥行関係、特に、輪郭部分の奥行関係について違和感が生じる結果となった。   Of course, the method of synthesizing two two-dimensional images by the method shown in FIG. 12 is an ordinary method, and is widely used in various fields. The inventor of the present application also initially performed processing for generating third multi-viewpoint image information E (γ) by combining two-dimensional images related to a common observation direction using this general combining method. . However, based on the third multi-viewpoint image information E (γ) obtained by such a synthesis method, a stereoscopic image recording medium using a lenticular lens is created by a method as shown in FIG. Unnaturalness was felt in the stereoscopic images. Specifically, the depth relationship between the subjects α and β, in particular, the depth relationship of the contour portion, resulted in a sense of incongruity.

本願発明者は、このように違和感が生じる原因は、被写体の平行投影像である二次元画像Pα3,Pβ3を、通常の平面画像と同様の従来方法で合成してしまったためであると考えている。そこで本願発明者が、次のような新規な方法で合成を行ってみたところ、違和感のない良好な合成立体画像を提示することが可能な第3の多視点画像情報E(γ)を生成することができた。本発明の根幹となる技術思想は、この新規な合成方法にある。   The inventor of the present application believes that the reason why such a sense of incongruity is caused is that the two-dimensional images Pα3 and Pβ3, which are parallel projection images of the subject, are synthesized by a conventional method similar to a normal planar image. . Therefore, when the present inventor tried to synthesize by the following novel method, the third multi-view image information E (γ) capable of presenting a good synthesized stereoscopic image without a sense of incongruity is generated. I was able to. The technical idea that forms the basis of the present invention resides in this novel synthesis method.

以下、図13を参照しながら、本発明に係る二次元画像の合成方法を説明する。図13(a) は、二次元画像Pα1と二次元画像Pβ1とを合成面W上で合成して、合成二次元画像Pγ1を作成する原理を示す上面図である。ここで、画像Pα1,Pβ1,Pγ1は、図11の左側に列に示す3枚の画像に対応するものであり、図13の上面図では、いずれも図の紙面に対して垂直な平面画像になる。すなわち、二次元画像Pα1は、被写体αを観察方向D1へ平行投影することにより得られた投影画像であり、二次元画像Pβ1は、被写体βを観察方向D1へ平行投影することにより得られた投影画像である。なお、合成二次元画像Pγ1は、合成面W上に形成される画像であるが、便宜上、図では太線で示してある。画像Pα1,Pβ1は、いずれも合成面Wに対して平行となる位置に配置されているため、結局、画像Pα1,Pβ1,Pγ1は、いずれも互いに平行な平面上に形成された画像ということになる。   Hereinafter, a method for synthesizing a two-dimensional image according to the present invention will be described with reference to FIG. FIG. 13A is a top view showing the principle of creating a composite two-dimensional image Pγ1 by combining the two-dimensional image Pα1 and the two-dimensional image Pβ1 on the composite surface W. Here, the images Pα1, Pβ1, and Pγ1 correspond to the three images shown in the column on the left side of FIG. 11, and in the top view of FIG. 13, all are flat images perpendicular to the paper surface of the drawing. Become. That is, the two-dimensional image Pα1 is a projection image obtained by parallel projection of the subject α in the observation direction D1, and the two-dimensional image Pβ1 is a projection obtained by parallel projection of the subject β in the observation direction D1. It is an image. Note that the composite two-dimensional image Pγ1 is an image formed on the composite surface W, but is shown by a thick line in the figure for convenience. Since the images Pα1, Pβ1 are all arranged at positions parallel to the composite surface W, the images Pα1, Pβ1, Pγ1 are all images formed on a plane parallel to each other. Become.

ここでは、図示のとおり、奥行値Zを定義し、画像Pα1,Pβ1,Pγ1に対して相互の奥行関係を定めることにする。具体的には、視点が、奥行値Zのマイナス側最大値に位置するものとし、奥行値Zが小さいほど手前に配置されていることを示し、奥行値Zが大きいほど奥に配置されていることを示すことにする。図示の例の場合、合成面Wの位置(合成二次元画像Pγ1の位置)を奥行値Z=0とし、画像Pα1の位置を奥行値Z=Zαとし、画像Pβ1の位置を奥行値Z=Zβとしている。ここで、奥行値Zαは負の値をとり、奥行値Zβは正の値をとる。したがって、画像Pα1が手前、画像Pβ1が奥に配置されていることになる。   Here, as shown in the figure, a depth value Z is defined, and a mutual depth relationship is defined for the images Pα1, Pβ1, and Pγ1. Specifically, it is assumed that the viewpoint is located at the maximum value on the negative side of the depth value Z, and that the smaller the depth value Z is, the closer the position is, and the larger the depth value Z is, the deeper the position is located. I will show that. In the case of the illustrated example, the position of the composite plane W (the position of the composite two-dimensional image Pγ1) is the depth value Z = 0, the position of the image Pα1 is the depth value Z = Zα, and the position of the image Pβ1 is the depth value Z = Zβ. It is said. Here, the depth value Zα takes a negative value, and the depth value Zβ takes a positive value. Therefore, the image Pα1 is disposed on the front side and the image Pβ1 is disposed on the back side.

奥行値Zα,Zβは、必ずしも一方を正、他方を負に設定する必要はなく、両者ともに正の値に設定してもよいし、両者ともに負の値に設定してもよい。あるいは、一方を零に設定してもかまわない。要するに、画像Pα1,Pβ1について、互いに異なる奥行値Zが設定されているようにすればよい。もちろん、奥行値Zα,Zβの絶対値も任意の値に設定することができる。これら奥行値Zα,Zβは、二次元画像Pα1,Pβ1を構成する平行投影像を作成したときの被写体α,βと投影面Sα,Sβとの距離とは全く無関係に設定することができる。別言すれば、奥行値Zα,Zβは、被写体α,βの配置を直接示すものではなく、あくまでも二次元画像Pα1,Pβ1の配置を示すパラメータとして機能する。   The depth values Zα and Zβ do not necessarily need to be set to one positive and the other negative, and both may be set to positive values or both may be set to negative values. Alternatively, one may be set to zero. In short, different depth values Z may be set for the images Pα1 and Pβ1. Of course, the absolute values of the depth values Zα and Zβ can also be set to arbitrary values. These depth values Zα and Zβ can be set regardless of the distance between the subjects α and β and the projection surfaces Sα and Sβ when the parallel projection images constituting the two-dimensional images Pα1 and Pβ1 are created. In other words, the depth values Zα and Zβ do not directly indicate the arrangement of the subjects α and β but function as parameters indicating the arrangement of the two-dimensional images Pα1 and Pβ1.

このように、二次元画像Pα1,Pβ1の図における上下方向の位置(合成面Wに対する距離)は、任意の値として設定した奥行値Zα,Zβによって決まることになる。同様に、二次元画像Pα1,Pβ1の図における左右方向の位置および図の紙面に対して垂直方向の位置(奥行軸Zに直交する方向に関する位置)も、任意に設定することができる。   Thus, the vertical positions (distances to the composite surface W) of the two-dimensional images Pα1 and Pβ1 are determined by the depth values Zα and Zβ set as arbitrary values. Similarly, the position in the left-right direction in the figure of the two-dimensional images Pα1 and Pβ1 and the position in the direction perpendicular to the drawing sheet (position in the direction orthogonal to the depth axis Z) can be arbitrarily set.

なお、図11では、二次元画像群Pα1〜Pα5と二次元画像群Pβ1〜Pβ5とについて、全く同じサイズの画像(同じ画素配列をもった画像)を用いた例を示したが、前者の画像群と後者の画像群とは異なるサイズの画像群であってもかまわない。すなわち、5枚の二次元画像Pα1〜Pα5は、同一の被写体αを同一の投影面Sαに平行投影した平行投影像であり、そのサイズは投影面Sαのサイズによって定まることになる。同様に、5枚の二次元画像Pβ1〜Pβ5は、同一の被写体βを同一の投影面Sβに平行投影した平行投影像であり、そのサイズは投影面Sβのサイズによって定まることになる。したがって、5枚の二次元画像Pα1〜Pα5は、相互に同一サイズの画像になり、5枚の二次元画像Pβ1〜Pβ5も、相互に同一サイズの画像になる。   FIG. 11 shows an example in which the two-dimensional image groups Pα1 to Pα5 and the two-dimensional image groups Pβ1 to Pβ5 use images of exactly the same size (images having the same pixel arrangement). The group and the latter image group may be different image groups. That is, the five two-dimensional images Pα1 to Pα5 are parallel projection images obtained by parallel projecting the same subject α onto the same projection surface Sα, and the size thereof is determined by the size of the projection surface Sα. Similarly, the five two-dimensional images Pβ1 to Pβ5 are parallel projection images obtained by parallel projecting the same subject β onto the same projection surface Sβ, and the size thereof is determined by the size of the projection surface Sβ. Accordingly, the five two-dimensional images Pα1 to Pα5 are images of the same size, and the five two-dimensional images Pβ1 to Pβ5 are also images of the same size.

しかしながら、投影面Sαのサイズと投影面Sβのサイズとが異なるような設定を行えば、二次元画像群Pα1〜Pα5のサイズと二次元画像群Pβ1〜Pβ5のサイズとは異なることになる。ここで述べる合成方法による合成対象は、このように互いに異なるサイズの二次元画像であってもかまわない。そこで、図13(a) では、二次元画像Pα1と二次元画像Pβ1とが異なるサイズの画像である場合を例示してある。   However, if setting is made such that the size of the projection surface Sα and the size of the projection surface Sβ are different, the sizes of the two-dimensional image groups Pα1 to Pα5 and the sizes of the two-dimensional image groups Pβ1 to Pβ5 are different. The synthesis target by the synthesis method described here may be two-dimensional images having different sizes as described above. Therefore, FIG. 13A illustrates a case where the two-dimensional image Pα1 and the two-dimensional image Pβ1 are images of different sizes.

また、必要があれば、合成前に、二次元画像Pα1,Pβ1を拡大したり、縮小したりする処理を行ってもよい。画像を拡大するには、画素を補間する処理が必要になり、画像を縮小するには、画素を間引く処理が必要になるため、当然、画像サイズが変更される。したがって、二次元画像Pα1,Pβ1に対して、それぞれ異なる変倍処理を施すと、もともとは同じサイズであったとしても、変倍処理後は異なるサイズの画像になるが、ここで述べる合成方法を実施する上では何ら支障は生じない。もちろん、必要があれば、二次元画像Pα1,Pβ1に対してトリミング処理を行ってもよい。   Further, if necessary, a process of enlarging or reducing the two-dimensional images Pα1 and Pβ1 may be performed before synthesis. In order to enlarge an image, a process of interpolating pixels is necessary, and in order to reduce an image, a process of thinning out pixels is necessary, so that the image size is naturally changed. Therefore, when different scaling processes are performed on the two-dimensional images Pα1 and Pβ1, even if the original size is the same, the images will have different sizes after the scaling process. There will be no hindrance in the implementation. Of course, if necessary, trimming processing may be performed on the two-dimensional images Pα1 and Pβ1.

要するに、ここで述べる合成方法を実施するための必須要件は、二次元画像Pα1,Pβ1が、それぞれの被写体を同じ観察方向D1に平行投影して得られた平行投影像である点と、二次元画像Pα1,Pβ1を合成面Wに対して平行となるような所定位置に配置する点だけである。これらの必須要件が満たされれば、両画像の位置は任意に設定することができ、両画像のサイズは異なっていてもかまわない。   In short, the essential requirement for carrying out the synthesis method described here is that the two-dimensional images Pα1 and Pβ1 are parallel projection images obtained by parallel projection of the respective subjects in the same observation direction D1, and the two-dimensional images. The only difference is that the images Pα1 and Pβ1 are arranged at predetermined positions so as to be parallel to the composite surface W. If these essential requirements are satisfied, the positions of both images can be set arbitrarily, and the sizes of both images may be different.

さて、図13(a) に示すような配置を行えば、合成面W上に合成二次元画像Pγ1を生成する処理は非常に単純である。すなわち、合成面W上に、二次元画像Pα1を観察方向D1に平行な方向に投影して得られる平行投影像と、二次元画像Pβ1を観察方向D1に平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより合成二次元画像Pγ1を作成すればよい。図に示す破線の矢印は、各二次元画像の投影方向を示している。   If the arrangement shown in FIG. 13A is performed, the process of generating the synthesized two-dimensional image Pγ1 on the synthesized surface W is very simple. That is, a parallel projection image obtained by projecting the two-dimensional image Pα1 onto the composite plane W in a direction parallel to the observation direction D1 and a parallel projection obtained by projecting the two-dimensional image Pβ1 into a direction parallel to the observation direction D1. The combined two-dimensional image Pγ1 may be created by forming a projected image and combining these parallel projected images in consideration of the positional relationship based on the depth values Zα and Zβ. Dashed arrows in the figure indicate the projection direction of each two-dimensional image.

このような投影を行うと、合成面W上には、画像Pα1の平行投影像と画像Pβ1の平行投影像とが形成されることになるので、合成面W上では、これら2つの平行投影像を、奥行値Zα,Zβに基づく位置関係を考慮して合成すればよい。ここでは、前述したように、奥行値Zが小さい画像を手前とする設定を行っているため、画像Pα1の方が手前に位置する画像ということになるので、手前に位置する画像Pα1を奥に位置する画像Pβ1よりも優先する合成が行われる。   When such projection is performed, a parallel projection image of the image Pα1 and a parallel projection image of the image Pβ1 are formed on the composite surface W. Therefore, these two parallel projection images are formed on the composite surface W. May be combined in consideration of the positional relationship based on the depth values Zα and Zβ. Here, as described above, since an image having a small depth value Z is set to the front, the image Pα1 is an image positioned closer to the front. Therefore, the image Pα1 positioned closer to the front is set to the back. Combining is performed with priority over the positioned image Pβ1.

具体的には、合成面W上において、画像Pα1の平行投影像と画像Pβ1の平行投影像とが重複する領域については、画像Pα1の平行投影像の画素値を採用し、画像Pα1の平行投影像のみが形成される領域については、画像Pα1の平行投影像の画素値を採用し、画像Pβ1の平行投影像のみが形成される領域については、画像Pβ1の平行投影像の画素値を採用すればよい。このような合成処理は、図12を参照して説明したとおりである。   Specifically, for the region where the parallel projection image of the image Pα1 and the parallel projection image of the image Pβ1 overlap on the composite plane W, the pixel value of the parallel projection image of the image Pα1 is adopted, and the parallel projection of the image Pα1 is performed. For the region where only the image is formed, the pixel value of the parallel projection image of the image Pα1 is adopted, and for the region where only the parallel projection image of the image Pβ1 is formed, the pixel value of the parallel projection image of the image Pβ1 is adopted. That's fine. Such a synthesis process is as described with reference to FIG.

図13(a) に示す例の場合、合成面W上に形成される画像Pβ1の平行投影像が画像Pα1の平行投影像の中に包含された形になっている。このような場合は、手前に位置する画像Pα1が優先されることになるので、合成面W上に形成される合成二次元画像Pγ1としては、画像Pα1の平行投影像の画素値が採用されることになる。したがって、図13(a) において、黒い太線で示されている合成二次元画像Pγ1は、画像Pα1の平行投影像によって構成されることになる。   In the example shown in FIG. 13A, the parallel projection image of the image Pβ1 formed on the composite plane W is included in the parallel projection image of the image Pα1. In such a case, since the image Pα1 positioned in front is given priority, the pixel value of the parallel projection image of the image Pα1 is adopted as the composite two-dimensional image Pγ1 formed on the composite surface W. It will be. Accordingly, in FIG. 13 (a), the combined two-dimensional image Pγ1 indicated by the black thick line is constituted by a parallel projection image of the image Pα1.

一方、図13(b) に示す例は、被写体αを観察方向D3へ平行投影することにより得られた二次元画像Pα3と被写体βを観察方向D3へ平行投影することにより得られた二次元画像Pβ3とを合成面W上で合成して、合成二次元画像Pγ3を作成する原理を示す上面図である。この例の場合、合成面Wへの投影は、観察方向D3に平行な方向に行われるため、合成面W上に形成される画像Pα3の平行投影像と画像Pβ3の平行投影像とは一部分だけ重複する形になる。   On the other hand, in the example shown in FIG. 13B, the two-dimensional image Pα3 obtained by parallel projection of the subject α in the observation direction D3 and the two-dimensional image obtained by parallel projection of the subject β in the observation direction D3. FIG. 6 is a top view showing the principle of creating a synthesized two-dimensional image Pγ3 by synthesizing Pβ3 on a synthesis surface W. In this example, since the projection onto the composite surface W is performed in a direction parallel to the observation direction D3, the parallel projection image of the image Pα3 and the parallel projection image of the image Pβ3 formed on the composite surface W are only a part. Overlapping form.

そこで、この重複する領域に関しては、手前に位置する画像Pα3を優先して、画像Pα3の平行投影像の画素値を採用し、画像Pα3の平行投影像のみが形成される領域については、画像Pα3の平行投影像の画素値を採用し、画像Pβ3の平行投影像のみが形成される領域については、画像Pβ3の平行投影像の画素値を採用することになる。図13(b) では、合成面W上に得られた合成二次元画像Pγ3のうち、画像Pα3の平行投影像の画素値を採用した部分については黒い太線で示し、画像Pβ3の平行投影像の画素値を採用した部分については白い太線で示してある。   Therefore, with respect to the overlapping area, the image Pα3 positioned in front is prioritized and the pixel value of the parallel projection image of the image Pα3 is adopted, and the area where only the parallel projection image of the image Pα3 is formed is the image Pα3. For the region where only the parallel projection image of the image Pβ3 is formed, the pixel value of the parallel projection image of the image Pβ3 is employed. In FIG. 13 (b), of the synthesized two-dimensional image Pγ3 obtained on the synthesized surface W, the portion adopting the pixel value of the parallel projected image of the image Pα3 is indicated by a thick black line, and the parallel projected image of the image Pβ3 is shown. The portion where the pixel value is adopted is indicated by a white thick line.

また、図13(c) に示す例は、被写体αを観察方向D5へ平行投影することにより得られた二次元画像Pα5と被写体βを観察方向D5へ平行投影することにより得られた二次元画像Pβ5とを合成面W上で合成して、合成二次元画像Pγ5を作成する原理を示す上面図である。この例の場合、合成面Wへの投影は、観察方向D5に平行な方向に行われるため、合成面W上に形成される画像Pα5の平行投影像と画像Pβ5の平行投影像とは重なりを生じない形になる。   In the example shown in FIG. 13C, a two-dimensional image Pα5 obtained by parallel projection of the subject α in the observation direction D5 and a two-dimensional image obtained by parallel projection of the subject β in the observation direction D5. It is a top view showing the principle of creating a synthesized two-dimensional image Pγ5 by synthesizing Pβ5 on the synthesis surface W. In this example, since the projection onto the composite surface W is performed in a direction parallel to the observation direction D5, the parallel projection image of the image Pα5 and the parallel projection image of the image Pβ5 formed on the composite surface W overlap. It becomes a form that does not occur.

そこで、合成面W上に得られる合成二次元画像Pγ5としては、画像Pα5の平行投影像が形成される領域については、画像Pα5の平行投影像の画素値を採用し、画像Pβ5の平行投影像のみが形成される領域については、画像Pβ5の平行投影像の画素値を採用した画像になる。図13(c) では、合成面W上に得られた合成二次元画像Pγ5のうち、画像Pα5の平行投影像の画素値を採用した部分については黒い太線で示し、画像Pβ5の平行投影像の画素値を採用した部分については白い太線で示してある。   Therefore, as the composite two-dimensional image Pγ5 obtained on the composite plane W, the pixel value of the parallel projection image of the image Pα5 is adopted for the region where the parallel projection image of the image Pα5 is formed, and the parallel projection image of the image Pβ5 is obtained. For the area where only the image is formed, the pixel value of the parallel projection image of the image Pβ5 is adopted. In FIG. 13 (c), of the composite two-dimensional image Pγ5 obtained on the composite surface W, the portion adopting the pixel value of the parallel projection image of the image Pα5 is indicated by a thick black line, and the parallel projection image of the image Pβ5 is shown. The portion where the pixel value is adopted is indicated by a white thick line.

なお、合成面W上において、いずれの平行投影像も形成されていない領域(たとえば、図13(c) において、黒い太線の領域と白い太線の領域とによって挟まれた領域)は、記録すべき画像が存在しない領域であるので、有効な画像が存在しないことを示す画素値や、背景属性を示す画素値を与えるようにすればよい。   It should be noted that an area where no parallel projection image is formed on the composite surface W (for example, an area sandwiched between a black thick line area and a white thick line area in FIG. 13C) should be recorded. Since the image does not exist, a pixel value indicating that no valid image exists or a pixel value indicating the background attribute may be given.

また、図13(a) ,(b) ,(c) に示す例は、合成対象となる二次元画像の全領域を合成面W上に平行投影した例であるが、クロマキー合成を行う場合は、合成対象となる二次元画像のうち、背景属性を示す画素値をもった画素からなる領域については平行投影像を形成しないようにし、合成面W上に平行投影像が形成されていない領域が存在する場合には、当該領域内の画素については背景属性を示す画素値を与えることにより合成二次元画像を作成すればよい。   Further, the examples shown in FIGS. 13A, 13B, and 13C are examples in which the entire area of the two-dimensional image to be synthesized is parallel projected onto the synthesis plane W. However, when chroma key synthesis is performed, In the two-dimensional image to be synthesized, an area composed of pixels having pixel values indicating the background attribute is not formed, and an area where no parallel projection image is formed on the synthesis plane W If it exists, a synthesized two-dimensional image may be created by giving a pixel value indicating a background attribute to the pixels in the region.

以上、図13を参照して、観察方向D1についての二次元画像Pα1,Pβ1を合成して合成二次元画像Pγ1を作成する例(図13(a) )、観察方向D3についての二次元画像Pα3,Pβ3を合成して合成二次元画像Pγ3を作成する例(図13(b) )、観察方向D5についての二次元画像Pα5,Pβ5を合成して合成二次元画像Pγ5を作成する例(図13(c) )を説明したが、観察方向D2についての二次元画像Pα2,Pβ2を合成して合成二次元画像Pγ2を作成する例や、観察方向D4についての二次元画像Pα4,Pβ4を合成して合成二次元画像Pγ4を作成する例も全く同様である。   As described above, with reference to FIG. 13, an example (FIG. 13A) in which the two-dimensional images Pα1 and Pβ1 in the observation direction D1 are combined to create the combined two-dimensional image Pγ1, and the two-dimensional image Pα3 in the observation direction D3. , Pβ3 are combined to create a combined two-dimensional image Pγ3 (FIG. 13B), and two-dimensional images Pα5 and Pβ5 in the observation direction D5 are combined to generate a combined two-dimensional image Pγ5 (FIG. 13). (c)) has been described, but an example of creating a synthesized two-dimensional image Pγ2 by synthesizing the two-dimensional images Pα2 and Pβ2 in the observation direction D2, or by synthesizing the two-dimensional images Pα4 and Pβ4 in the observation direction D4 The example of creating the synthesized two-dimensional image Pγ4 is exactly the same.

要するに、一般論で説明すれば、第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zαとなるような所定位置に配置し、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zβとなるような所定位置に配置し、合成面W上に、二次元画像Pαiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、二次元画像Pβiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより第i番目の合成二次元画像Pγiを作成すればよい。   In short, in general terms, the i-th two-dimensional image Pαi constituting the first multi-view image information E (α) is parallel to the composite surface W and the distance to the composite surface W is the depth value Zα. The i-th two-dimensional image Pβi that is arranged at such a predetermined position and constitutes the second multi-viewpoint image information E (β) is parallel to the composite surface W and the distance to the composite surface W is the depth value Zβ. The parallel projection image obtained by projecting the two-dimensional image Pαi in a direction parallel to the i-th observation direction Di and the two-dimensional image Pβi on the composite plane W and the i-th observation A parallel projection image obtained by projecting in a direction parallel to the direction Di, and combining the parallel projection images in consideration of the positional relationship based on the depth values Zα and Zβ. An image Pγi may be created.

ここで、第i番目の二次元画像Pαiの合成面Wに対する位置は、i=1〜nについて共通の同位置になるようにし、第i番目の二次元画像Pβiの合成面Wに対する位置も、i=1〜nについて共通の同位置になるようにする。図13に示す例においても、画像Pα1,Pα3,Pα5の合成面Wに対する位置は共通しており、画像Pβ1,Pβ3,Pβ5の合成面Wに対する位置は共通している。また、ここでは、説明の便宜上、n=5に設定して、5通りの観察方向D1〜D5について、それぞれ二次元画像の合成を行う例を示したが、実用上は、nをより大きな値に設定することにより、よりきめの細かい立体画像を提示できるようにするのが好ましい。たとえば、n=70に設定した場合、70通りの観察方向D1〜D70について、それぞれ図13に示す方法と同様の方法で二次元画像の合成を行い、合計70枚の合成二次元画像Pγ1〜Pγ70からなる第3の多視点画像情報E(γ)が作成されることになる。   Here, the position of the i-th two-dimensional image Pαi with respect to the composite surface W is set to be the same position in common for i = 1 to n, and the position of the i-th two-dimensional image Pβi with respect to the composite surface W is also i = 1 to n are set to the same common position. Also in the example illustrated in FIG. 13, the positions of the images Pα1, Pα3, and Pα5 with respect to the composite surface W are common, and the positions of the images Pβ1, Pβ3, and Pβ5 with respect to the composite surface W are common. Further, here, for convenience of explanation, an example is shown in which n = 5 is set and two-dimensional images are synthesized for each of the five observation directions D1 to D5. However, in practice, n is a larger value. By setting to, it is preferable that a more detailed stereoscopic image can be presented. For example, when n = 70 is set, two-dimensional images are synthesized in the same manner as the method shown in FIG. 13 for the 70 observation directions D1 to D70, respectively, and a total of 70 synthesized two-dimensional images Pγ1 to Pγ70. Thus, the third multi-viewpoint image information E (γ) is created.

<<< §4.本発明に係る多視点画像情報の合成手順 >>>
ここでは、§3で説明した原理に基づいて、2組の多視点画像情報を合成する基本手順を、図14の流れ図を参照しながら説明する。この流れ図に示す基本手順は、被写体をそれぞれ異なる方向に平行投影した複数n枚の二次元画像によって構成される多視点画像情報を合成する方法の手順であり、コンピュータによって実行される手順である。したがって、実際には、このような手順を実行する専用のプログラムをコンピュータに組み込み、当該プログラムを実行することにより、図示する各処理が行われることになる。
<<< §4. Procedure for synthesizing multi-viewpoint image information according to the present invention >>
Here, based on the principle described in §3, a basic procedure for synthesizing two sets of multi-viewpoint image information will be described with reference to the flowchart of FIG. The basic procedure shown in this flowchart is a procedure of a method for synthesizing multi-viewpoint image information composed of a plurality of n two-dimensional images obtained by parallel projecting subjects in different directions, and is a procedure executed by a computer. Therefore, in practice, each process shown in the figure is performed by incorporating a dedicated program for executing such a procedure into the computer and executing the program.

まず、ステップS1では、コンピュータが、第1の被写体αが記録された第1の多視点画像情報E(α)と、第2の被写体βが記録された第2の多視点画像情報E(β)と、を入力する画像情報入力段階が実行される。ここで、第1の多視点画像情報E(α)は、たとえば、図11の上段に示すように、第1の被写体αについての複数n枚の二次元画像Pα1〜Pαnの集合体によって構成され、第2の多視点画像情報E(β)は、たとえば、図11の中段に示すように、第2の被写体βについての複数n枚の二次元画像Pβ1〜Pβnの集合体によって構成される。   First, in step S1, the computer records first multi-view image information E (α) in which the first subject α is recorded and second multi-view image information E (β in which the second subject β is recorded. ) And the image information input step are executed. Here, the first multi-viewpoint image information E (α) is configured by an aggregate of a plurality of n two-dimensional images Pα1 to Pαn about the first subject α, for example, as shown in the upper part of FIG. The second multi-viewpoint image information E (β) is constituted by an aggregate of a plurality of n two-dimensional images Pβ1 to Pβn for the second subject β, for example, as shown in the middle part of FIG.

ここで、第1の多視点画像情報E(α)を構成する第i番目(1≦i≦n)の二次元画像Pαiは、第1の被写体αを所定の投影面Sα上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、第2の多視点画像情報E(β)を構成する第i番目(1≦i≦n)の二次元画像Pβiは、第2の被写体βを所定の投影面Sβ上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなす。   Here, in the i-th (1 ≦ i ≦ n) two-dimensional image Pαi constituting the first multi-viewpoint image information E (α), the first subject α is placed on the predetermined projection plane Sα. The i-th (1 ≦ i ≦ n) two-dimensional image Pβi forming a parallel projection image obtained by projecting in a direction parallel to the observation direction Di of the second multi-viewpoint image information E (β) is Then, a parallel projection image obtained by projecting the second subject β onto the predetermined projection surface Sβ in a direction parallel to the i-th observation direction Di is formed.

次のステップS2では、コンピュータが、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成するための合成条件(図13に示すような配置を定めるための条件)を設定する合成条件設定段階が実行される。実際には、オペレータがコンピュータに与える設定指示に基づいて、所定の合成条件の設定が行われることになる。この合成条件は、第1の多視点画像情報E(α)を構成する二次元画像の合成面Wに対する位置および第2の多視点画像情報E(β)を構成する二次元画像の合成面Wに対する位置を示す条件であり、少なくとも、第1の多視点画像情報E(α)を構成する二次元画像についての奥行値Zαと、第2の多視点画像情報E(β)を構成する二次元画像についての奥行値Zβと、を含んでいる。   In the next step S2, the computer determines a composition condition for arranging the first multi-view image information E (α) and the second multi-view image information E (β) (as shown in FIG. 13). The synthesis condition setting stage for setting the conditions for the above is executed. Actually, a predetermined synthesis condition is set based on a setting instruction given to the computer by the operator. The composition condition is that the position of the two-dimensional image constituting the first multi-view image information E (α) with respect to the composition surface W and the composition surface W of the two-dimensional image constituting the second multi-view image information E (β). The depth value Zα for the two-dimensional image constituting the first multi-view image information E (α) and the two-dimensional constituting the second multi-view image information E (β). A depth value Zβ for the image.

必要に応じて、上記奥行値Zα,Zβに加えて、二次元画像の奥行軸Zに直交する方向に関する位置を定める条件を合成条件として設定するようにしてもよい。たとえば、図13に示す例において、画像Pα1〜Pα5および画像Pβ1〜Pβ5についての図の左右方向に関する位置を定める条件を設定するようにすれば、被写体α,βを合成する際に、奥行きに直交する方向に関する位置関係を任意に調整することができる。もちろん、そのような位置関係の調整が不要な場合は、画像の左上隅点の位置を合わせるとか、画像の中心点の位置を合わせる、といった配置を常に行うような取り決めをしておくことにより、奥行軸Zに直交する方向に関する位置を定める条件は不要になる。もちろん、合成時に各二次元画像に対して拡大縮小などの変倍処理を行う場合には、当該変倍処理に関する倍率を合成条件として設定すればよい。   If necessary, in addition to the depth values Zα and Zβ, a condition for determining a position in a direction orthogonal to the depth axis Z of the two-dimensional image may be set as a synthesis condition. For example, in the example shown in FIG. 13, if the conditions for determining the positions of the images Pα1 to Pα5 and the images Pβ1 to Pβ5 in the horizontal direction in the figure are set, when the subjects α and β are combined, they are orthogonal to the depth. It is possible to arbitrarily adjust the positional relationship with respect to the direction to be performed. Of course, if it is not necessary to adjust the positional relationship, it is necessary to always make arrangements such as aligning the upper left corner of the image or aligning the center of the image. The condition for determining the position in the direction orthogonal to the depth axis Z is not necessary. Of course, when a scaling process such as enlargement / reduction is performed on each two-dimensional image at the time of synthesis, the magnification relating to the scaling process may be set as a synthesis condition.

続くステップS3〜S6では、コンピュータが、第1の多視点画像情報E(α)を構成する第i番目(1≦i≦n)の二次元画像Pαiと、第2の多視点画像情報E(β)を構成する第i番目(1≦i≦n)の二次元画像Pβiと、を合成して、合成面W上に第i番目の合成二次元画像Pγiを作成する処理を、i=1〜nについて繰り返し実行する画像合成段階が実行される。すなわち、まず、ステップS3で、パラメータiの値が初期値1に設定され、ステップS4において、第i番目の二次元画像Pαiと第i番目の二次元画像Pβiとを合成して、合成面W上に第i番目の合成二次元画像Pγiを作成する処理が実行される。そして、ステップS5において、パラメータiがnに達したか否かが判断され、nに達するまでは、ステップS6においてパラメータiの値を+1とする更新が行われ、ステップS4の処理が繰り返し実行されることになる。   In subsequent steps S3 to S6, the computer performs the i-th (1 ≦ i ≦ n) two-dimensional image Pαi constituting the first multi-view image information E (α) and the second multi-view image information E ( The process of creating the i-th synthesized two-dimensional image Pγi on the synthesis plane W by synthesizing the i-th (1 ≦ i ≦ n) two-dimensional image Pβi constituting β), i = 1 An image composition step is repeatedly executed for .about.n. That is, first, in step S3, the value of the parameter i is set to an initial value 1, and in step S4, the i-th two-dimensional image Pαi and the i-th two-dimensional image Pβi are combined to generate a combined plane W. A process for creating the i-th synthesized two-dimensional image Pγi is executed on the top. In step S5, it is determined whether or not the parameter i has reached n. Until the parameter i reaches n, the parameter i is updated to +1 in step S6, and the process in step S4 is repeatedly executed. Will be.

ステップS4で行われる画像合成段階の具体的な内容は、図13を参照して§3で説明したとおりである。すなわち、第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zαとなるような所定位置に配置し、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zβとなるような所定位置に配置し、合成面W上に、二次元画像Pαiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、二次元画像Pβiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより第i番目の合成二次元画像Pγiを作成する処理が行われる。   The specific contents of the image composition stage performed in step S4 are as described in section 3 with reference to FIG. That is, the i-th two-dimensional image Pαi constituting the first multi-viewpoint image information E (α) is arranged at a predetermined position parallel to the composite surface W and having a depth value Zα at a distance to the composite surface W. The i-th two-dimensional image Pβi constituting the second multi-viewpoint image information E (β) is arranged at a predetermined position parallel to the composite surface W and the distance to the composite surface W is the depth value Zβ. A parallel projection image obtained by projecting the two-dimensional image Pαi in a direction parallel to the i-th observation direction Di and a two-dimensional image Pβi in a direction parallel to the i-th observation direction Di on the composite surface W. Forming a i-th synthesized two-dimensional image Pγi by forming a parallel projection image obtained by projection and synthesizing these parallel projection images in consideration of the positional relationship based on the depth values Zα and Zβ. Done.

§3で説明した実施例の場合、ステップS2の合成条件設定段階では、奥行値ZαおよびZβの値として、一方については正の値もしくは負の値または零を設定し、他方については正の値もしくは負の値を設定するようにしており、ステップS4の画像合成段階では、奥行値の小さい画像についての平行投影像が手前に観察されるような合成を行うようにしている。より具体的には、ステップS4の画像合成段階では、合成面W上において、形成される平行投影像が重複しない領域については、形成される平行投影像をそのまま記録し、形成される平行投影像が重複する領域については、手前に観察される平行投影像のみを記録することにより合成を行えばよい。   In the case of the embodiment described in §3, in the synthesis condition setting stage in step S2, as values of the depth values Zα and Zβ, a positive value, a negative value, or zero is set for one, and a positive value for the other Alternatively, a negative value is set, and in the image composition stage of step S4, composition is performed such that a parallel projection image of an image with a small depth value is observed in front. More specifically, in the image synthesizing stage in step S4, the formed parallel projection image is recorded as it is on the synthesis surface W where the formed parallel projection images do not overlap, and the formed parallel projection image is recorded as it is. For the region where the two overlap, the composition may be performed by recording only the parallel projection image observed in front.

また、クロマキー合成を行う場合は、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnの少なくとも一方を、背景属性を示す画素値をもった画素を含む画像になるようにしておく。そして、ステップS4の画像合成段階では、背景属性を示す画素値をもった画素からなる領域については平行投影像を形成しないようにし、合成面W上に平行投影像が形成されていない領域が存在する場合には、当該領域内の画素については背景属性を示す画素値を与えることにより合成二次元画像を作成すればよい。   When performing chroma key composition, n two-dimensional images Pα1 to Pαn constituting the first multi-view image information E (α) and n sheets constituting the second multi-view image information E (β). At least one of the two-dimensional images Pβ1 to Pβn is set to an image including a pixel having a pixel value indicating the background attribute. Then, in the image composition stage of step S4, a parallel projection image is not formed for an area composed of pixels having a pixel value indicating the background attribute, and there is an area where no parallel projection image is formed on the synthesis plane W. In this case, a synthesized two-dimensional image may be created by giving a pixel value indicating a background attribute for the pixels in the region.

最後のステップS7では、コンピュータ上で、ステップS3〜S6としてn回にわたって繰り返されたの画像合成段階を経て得られたn枚の合成二次元画像Pγ1〜Pγnによって構成される多視点画像情報を、合成された多視点画像情報E(γ)として出力する画像情報出力段階が実行される。なお、実用上は、各合成二次元画像Pγ1〜Pγnには、それぞれ対応する観察方向D1〜Dnを示す情報を付加して出力するようにするのが好ましい。各合成二次元画像Pγ1〜Pγnそれ自身は、単なる平面画像であるが、多視点画像情報E(γ)は、これらの画像Pγ1〜Pγnを、共通の被写体を観察方向D1〜Dnに平行な方向に平行投影することにより、共通の投影面上に形成された投影像の集合体として束ねた情報であり、各画像Pγ1〜Pγnがそれぞれ所定の観察方向D1〜Dnに対応づけられていることが重要である。   In the final step S7, the multi-viewpoint image information constituted by n synthesized two-dimensional images Pγ1 to Pγn obtained through the image synthesis step repeated n times as steps S3 to S6 on the computer, An image information output stage for outputting the synthesized multi-viewpoint image information E (γ) is executed. In practice, it is preferable that information indicating the corresponding observation directions D1 to Dn is added to the synthesized two-dimensional images Pγ1 to Pγn for output. Each of the synthesized two-dimensional images Pγ1 to Pγn itself is a simple planar image, but the multi-viewpoint image information E (γ) is obtained by converting these images Pγ1 to Pγn into a direction parallel to the observation directions D1 to Dn. The information is bundled as a collection of projection images formed on a common projection plane by performing parallel projection on the image, and each image Pγ1 to Pγn is associated with a predetermined observation direction D1 to Dn, respectively. is important.

このように、本発明における多視点画像情報E(α),E(β),E(γ)は、それぞれ所定の観察方向D1〜Dnが対応づけられたn枚の二次元画像の集合体という点に重要な意味をもっている。このように観察方向D1〜Dnが対応づけられているからこそ、図5もしくは図8に例示した方法によって、個々の二次元画像を、それぞれ対応する観察方向に提示するような工夫を施すことにより、媒体上に記録されている被写体を立体画像として提示することが可能になるのである。   As described above, the multi-viewpoint image information E (α), E (β), and E (γ) in the present invention is an aggregate of n two-dimensional images each associated with a predetermined observation direction D1 to Dn. It has an important meaning in terms. Because the observation directions D1 to Dn are associated with each other in this way, by using the method illustrated in FIG. 5 or FIG. 8, it is possible to present each two-dimensional image in the corresponding observation direction. Thus, it is possible to present the subject recorded on the medium as a stereoscopic image.

n通りの観察方向は、n組の方向ベクトルによって定義することができる。たとえば、図1〜図5に示す実施例は、所定の基準点Qを含む平面上に基準点Qを通る複数n組の方向ベクトルを定義し(図示の例は、n=5に設定した例)、第1の多視点画像情報E(α)および第2の多視点画像情報E(β)として、このn組の方向ベクトルの方向を個々の観察方向とする多視点画像情報を用いた例である。この場合、方位角φのみをパラメータとしてもつ方向ベクトルD(φ)によって各観察方向を示すことができる。   The n viewing directions can be defined by n sets of direction vectors. For example, the embodiment shown in FIGS. 1 to 5 defines a plurality of n sets of direction vectors passing through the reference point Q on a plane including the predetermined reference point Q (in the example shown, n = 5 is set as an example). ), An example using multi-view image information in which the direction of the n sets of direction vectors is an individual observation direction as the first multi-view image information E (α) and the second multi-view image information E (β). It is. In this case, each observation direction can be indicated by a direction vector D (φ) having only the azimuth angle φ as a parameter.

これに対して、図6〜図8に示す実施例は、XYZ三次元座標系の原点Oを通るベクトルであって、XY平面上への正射影投影像とY軸とのなす方位角φと、XY平面に対する仰角θと、によって特定される方向ベクトルD(φ,θ)を、θをa通り、φをb通りに変化させることにより、a×b通り定義し(図示の例は、a=3、b=5に設定した例)、第1の多視点画像情報E(α)および第2の多視点画像情報E(β)として、合計n通り(但し、n=a×b)の方向ベクトルの方向を個々の観察方向とする多視点画像情報を用いた例である。   On the other hand, the embodiment shown in FIGS. 6 to 8 is a vector passing through the origin O of the XYZ three-dimensional coordinate system, and the azimuth angle φ formed by the orthogonal projection image on the XY plane and the Y axis. The direction vector D (φ, θ) specified by the elevation angle θ with respect to the XY plane is defined as a × b by changing θ to a and φ to b (in the example shown, a = 3, b = 5), the first multi-view image information E (α) and the second multi-view image information E (β) are a total of n (where n = a × b). This is an example using multi-viewpoint image information in which the direction of a direction vector is an individual observation direction.

<<< §5.本発明に係る合成立体画像の提示方法 >>>
既に§1で述べたとおり、本願で取り扱う多視点画像情報は、被写体の立体画像を提示する用途に利用されるものである。そこで、ここでは、図15に示す流れ図を参照しながら、本発明に係る合成立体画像の提示方法の手順を説明する。この方法は、図14に示す多視点画像情報の合成方法を利用して立体画像を提示する方法ということになる。
<<< §5. Method for Presenting Synthetic Stereo Image According to the Present Invention >>
As already described in §1, the multi-viewpoint image information handled in the present application is used for the purpose of presenting a stereoscopic image of a subject. Therefore, here, the procedure of the method for presenting a composite stereoscopic image according to the present invention will be described with reference to the flowchart shown in FIG. This method is a method of presenting a stereoscopic image using the multi-view image information combining method shown in FIG.

この図15に示す立体画像提示方法の手順は、ステップS11〜S14から構成される多視点画像情報準備段階と、ステップS15から構成される多視点画像情報合成段階と、ステップS16から構成される画像提示段階と、によって構成される。ここで、多視点画像情報準備段階(ステップS11〜S14)は、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを用意する段階であり、多視点画像情報合成段階(ステップS15)は、用意された第1の多視点画像情報E(α)および第2の多視点画像情報E(β)に対して、図14の各ステップS1〜S7によって構成される多視点画像情報の合成方法を実行することにより、合成された多視点画像情報E(γ)を作成する段階であり、画像提示段階(ステップS16)は、この多視点画像情報E(γ)を構成するn枚の合成二次元画像Pγ1〜Pγnを、第i番目(1≦i≦n)の合成二次元画像Pγiが主として第i番目の観察方向Diに提示されるような態様で提示する段階である。   The procedure of the stereoscopic image presenting method shown in FIG. 15 includes a multi-view image information preparation stage composed of steps S11 to S14, a multi-view image information composition stage composed of step S15, and an image composed of step S16. And a presentation stage. Here, in the multi-view image information preparation stage (steps S11 to S14), the n two-dimensional images Pα1 to Pαn and the second multi-view image information E (the first multi-view image information E (α)). In this step, n two-dimensional images Pβ1 to Pβn constituting β) are prepared, and the multi-view image information synthesis step (step S15) includes the first multi-view image information E (α) and the second For the multi-view image information E (β), the multi-view image information E (γ) synthesized by executing the multi-view image information combining method constituted by steps S1 to S7 in FIG. In the image creation stage (step S16), the n-th synthesized two-dimensional images Pγ1 to Pγn constituting the multi-viewpoint image information E (γ) are converted into the i-th (1 ≦ i ≦ n). The synthesized two-dimensional image Pγi is the i-th observation method A step of presenting in a manner as presented in Di.

図15に示すステップS11〜S14は、多視点画像情報準備段階として被写体に対する実写撮影を行う場合の手順を示している。まず、ステップS11の第1の撮影段階では、第1の被写体α(前述の実施例の場合は、コーヒーカップ)を複数ζ通りの方向から実写撮影することにより、合計ζ枚の第1の実写撮影像群を得る処理が行われ、続くステップS12の第2の撮影段階では、第2の被写体β(前述の実施例の場合は、リンゴ)を複数η通りの方向から実写撮影することにより、合計η枚の第2の実写撮影像群を得る処理が行われる。   Steps S11 to S14 shown in FIG. 15 show a procedure in the case of performing real-time shooting on the subject as the multi-viewpoint image information preparation stage. First, in the first shooting stage of step S11, the first subject α (in the case of the above-described embodiment, coffee cups) is shot in real time from a plurality of ζ directions, so that a total of ζ first shots are taken. A process for obtaining a group of photographed images is performed, and in the subsequent second photographing stage of step S12, the second subject β (in the case of the above-described embodiment, apples) is photographed in real time from a plurality of η directions. A process of obtaining a total of η second actual photographed image groups is performed.

いずれの撮影段階も、図9に示すような撮影設備を利用して実施することができる。もちろん、第1の撮影段階では、第1の被写体αのみを撮影し、第2の撮影段階では、第2の被写体βのみを撮影すれば足りる。なお、クロマキー合成を行う場合は、被写体の背景に、ブルーやグリーンなどの特定色(できるだけ被写体に含まれない色)のスクリーンを配置した状態で撮影を行うようにする。   Any photographing stage can be carried out by using photographing equipment as shown in FIG. Of course, it is sufficient to shoot only the first subject α in the first shooting stage and only the second subject β in the second shooting stage. When chroma key composition is performed, shooting is performed in a state where a screen of a specific color such as blue or green (a color not included in the subject as much as possible) is arranged on the background of the subject.

続いて、ステップS13の第1の多視点画像情報作成段階では、ステップS11で得られた合計ζ枚の第1の実写撮影像群に基づいて、第1の被写体αを所定の投影面上に、第1番目の観察方向D1〜第n番目の観察方向Dnのn通りの観察方向に平行な方向に投影して得られる平行投影像をそれぞれ求め、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnを作成する処理が行われる。また、ステップS14の第2の多視点画像情報作成段階では、ステップSS12で得られた合計η枚の第2の実写撮影像群に基づいて、第2の被写体βを所定の投影面上に、第1番目の観察方向D1〜第n番目の観察方向Dnのn通りの観察方向に平行な方向に投影して得られる平行投影像をそれぞれ求め、第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを作成する処理が行われる。このような処理は、図10を参照して§2で述べたとおり、多数の実写撮影画像を変換する公知の方法によって実施できる。   Subsequently, in the first multi-viewpoint image information creation stage in step S13, the first subject α is placed on a predetermined projection plane based on the total of ζ first live-action photographed image groups obtained in step S11. The parallel projection images obtained by projecting in the directions parallel to the n observation directions of the first observation direction D1 to the nth observation direction Dn are respectively obtained, and the first multi-viewpoint image information E (α) is obtained. A process of creating n two-dimensional images Pα1 to Pαn constituting the image is performed. Further, in the second multi-viewpoint image information creation stage in step S14, the second subject β is placed on a predetermined projection plane based on the total of η second actual photographed image groups obtained in step SS12. Parallel projection images obtained by projecting in the directions parallel to the n observation directions of the first observation direction D1 to the nth observation direction Dn are obtained, respectively, and second multi-viewpoint image information E (β) is obtained. A process of creating n two-dimensional images Pβ1 to Pβn to be configured is performed. Such processing can be carried out by a known method for converting a large number of photographed images as described in section 2 with reference to FIG.

ステップS15の多視点画像情報合成段階は、こうして用意された第1の多視点画像情報E(α)および第2の多視点画像情報E(β)に対して、図14の各ステップS1〜S7を適用して、多視点画像情報E(γ)を作成する段階であり、その詳細は、既に§4で説明したとおりである。   In the multi-viewpoint image information synthesis step in step S15, the steps S1 to S7 in FIG. 14 are performed on the first multi-viewpoint image information E (α) and the second multi-viewpoint image information E (β) thus prepared. Is applied to create multi-viewpoint image information E (γ), the details of which are as already described in Section 4.

最後のステップS16の画像提示段階では、こうして得られた多視点画像情報E(γ)を構成するn枚の合成二次元画像Pγ1〜Pγnを、何らかの方法で、第i番目(1≦i≦n)の合成二次元画像Pγiが主として第i番目の観察方向Diに提示されるような態様で提示すればよい。具体的な提示方法としては、図5や図8の実施例として説明したように、立体画像記録媒体を作成し、この立体画像記録媒体を用いて立体画像の提示を行うようにすればよい。   In the final image presentation stage of step S16, the n composite two-dimensional images Pγ1 to Pγn constituting the multi-viewpoint image information E (γ) obtained in this way are converted to the i-th (1 ≦ i ≦ n) by some method. The composite two-dimensional image Pγi in (2) may be presented mainly in the i-th observation direction Di. As a specific presentation method, as described in the embodiment of FIGS. 5 and 8, a stereoscopic image recording medium may be created and a stereoscopic image may be presented using this stereoscopic image recording medium.

したがって、この図15に示す立体画像提示方法において、ステップS16の画像提示段階の代わりに、記録媒体M上に印刷などの方法で合成二次元画像を記録する媒体記録段階と、この記録媒体M上に光学素子を配置する光学素子配置段階と、を行うようにすれば、この図15に示す手順は、多視点画像情報の合成方法を利用した立体画像記録媒体の作成方法を示す手順になる。   Therefore, in the stereoscopic image presenting method shown in FIG. 15, instead of the image presenting step of step S16, a medium recording step of recording a composite two-dimensional image on the recording medium M by a method such as printing, and the recording medium M If the optical element arranging step of arranging the optical elements is performed, the procedure shown in FIG. 15 is a procedure showing a method for creating a stereoscopic image recording medium using a method for synthesizing multi-viewpoint image information.

この場合、媒体記録段階では、多視点画像情報E(γ)を構成するn枚の合成二次元画像Pγ1〜Pγnを、それぞれ複数m個の部分画像に分割し、記録媒体M上の記録面を複数m個の区画K1〜Kmに分割し、この記録媒体M上の第i番目の区画Kiにn枚の合成二次元画像Pγ1〜Pγnの第i番目の部分画像をそれぞれ記録する処理(たとえば、図5の記録媒体Mや図8の記録媒体M上に部分画像を印刷する処理)を行えばよい。そして、光学素子配置段階では、記録媒体M上の個々の区画上に、第i番目の合成二次元画像Pγiの部分画像が主として第i番目の観察方向Diに提示されるような光学素子を配置する処理(たとえば、図5の記録媒体M上にレンチキュラーレンズを配置する処理や図8の記録媒体M上にマイクロレンズアレイを配置する処理)を行えばよい。   In this case, in the medium recording stage, the n composite two-dimensional images Pγ1 to Pγn constituting the multi-viewpoint image information E (γ) are divided into a plurality of m partial images, and the recording surface on the recording medium M is divided. A process of dividing a plurality of m sections K1 to Km and recording the i-th partial images of the n composite two-dimensional images Pγ1 to Pγn in the i-th section Ki on the recording medium M (for example, A process of printing a partial image on the recording medium M of FIG. 5 or the recording medium M of FIG. 8 may be performed. In the optical element arrangement stage, optical elements are arranged on the individual sections on the recording medium M so that the partial image of the i-th synthesized two-dimensional image Pγi is presented mainly in the i-th observation direction Di. (For example, a process of arranging a lenticular lens on the recording medium M in FIG. 5 or a process of arranging a microlens array on the recording medium M in FIG. 8) may be performed.

<<< §6.本発明に係る多視点画像情報の合成装置 >>>
続いて、本発明に係る多視点画像情報の合成装置の構成を、図16のブロック図を参照しながら説明する。この合成装置は、被写体をそれぞれ異なる方向に平行投影した複数n枚の二次元画像によって構成される多視点画像情報を合成するための装置であり、図示のとおり、画像情報格納部10、合成条件格納部20、画像合成部30、合成画像格納部40によって構成される。これらの各構成要素は、実際には、コンピュータに専用プログラムを組み込むことにより構築される。
<<< §6. Multi-viewpoint image information synthesizing apparatus according to the present invention >>>
Next, the configuration of the multi-viewpoint image information synthesizing apparatus according to the present invention will be described with reference to the block diagram of FIG. This synthesizing apparatus is an apparatus for synthesizing multi-viewpoint image information composed of a plurality of n two-dimensional images obtained by projecting subjects in parallel in different directions. The storage unit 20, the image composition unit 30, and the composite image storage unit 40 are configured. Each of these components is actually constructed by incorporating a dedicated program into the computer.

ここで、画像情報格納部10は、第1の被写体αが記録された第1の多視点画像情報E(α)と、第2の被写体βが記録された第2の多視点画像情報E(β)と、を格納する機能を果たす。既に述べたとおり、第1の多視点画像情報E(α)は、n枚の二次元画像の集合体によって構成される。ここで、第i番目(1≦i≦n)の二次元画像Pαiは、第1の被写体αを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなす。同様に、第2の多視点画像情報E(β)も、n枚の二次元画像の集合体によって構成される。ここで、第i番目(1≦i≦n)の二次元画像Pβiは、第2の被写体βを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなす。   Here, the image information storage unit 10 includes the first multi-view image information E (α) in which the first subject α is recorded and the second multi-view image information E (in which the second subject β is recorded. β) and the function of storing. As already described, the first multi-viewpoint image information E (α) is composed of an aggregate of n two-dimensional images. Here, the i-th (1 ≦ i ≦ n) two-dimensional image Pαi is obtained by projecting the first subject α onto a predetermined projection plane in a direction parallel to the i-th observation direction Di. Make a projected image. Similarly, the second multi-viewpoint image information E (β) is also composed of an aggregate of n two-dimensional images. Here, the i-th (1 ≦ i ≦ n) two-dimensional image Pβi is obtained by projecting the second subject β onto a predetermined projection plane in a direction parallel to the i-th observation direction Di. Make a projected image.

結局、画像情報格納部10には、第1の多視点画像情報E(α)を構成するn枚の二次元画像の画像データと、第2の多視点画像情報E(β)を構成するn枚の二次元画像の画像データと、が格納されることになる。これら画像データは、どのような形式のものであってもかまわないが、たとえば、一般的なカラー画像の場合、縦横に配列された多数の画素についての三原色R,G,Bの色成分を示す画素値の集合体データによって構成することができる。   Eventually, the image information storage unit 10 stores image data of n two-dimensional images constituting the first multi-view image information E (α) and n constituting the second multi-view image information E (β). The image data of the two two-dimensional images are stored. These image data may be in any format. For example, in the case of a general color image, the color components of the three primary colors R, G, and B for a large number of pixels arranged vertically and horizontally are shown. It can be constituted by aggregated data of pixel values.

一方、合成条件格納部20は、オペレータの設定指示に基づいて、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成するための合成条件を格納する機能を果たし、少なくとも、第1の多視点画像情報E(α)を構成する二次元画像の合成面Wに対する位置を示す奥行値Zαと、第2の多視点画像情報E(β)を構成する二次元画像の合成面Wに対する位置を示す奥行値Zβと、を格納する。   On the other hand, the synthesis condition storage unit 20 stores a synthesis condition for synthesizing the first multi-view image information E (α) and the second multi-view image information E (β) based on an operator setting instruction. A depth value Zα indicating the position of the two-dimensional image constituting the first multi-view image information E (α) with respect to the composite plane W and the second multi-view image information E (β). And a depth value Zβ indicating the position of the two-dimensional image to the composite plane W is stored.

画像合成部30は、画像情報格納部10内に格納されている第1の多視点画像情報E(α)を構成する第i番目(1≦i≦n)の二次元画像Pαiと、画像情報格納部10内に格納されている第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiと、を合成して、合成面W上に第i番目の合成二次元画像Pγiを作成する処理を、i=1〜nについて繰り返し実行する機能を果たす。   The image composition unit 30 includes the i-th (1 ≦ i ≦ n) two-dimensional image Pαi constituting the first multi-viewpoint image information E (α) stored in the image information storage unit 10 and image information. The i-th two-dimensional image Pβi constituting the second multi-viewpoint image information E (β) stored in the storage unit 10 is synthesized, and the i-th synthesized two-dimensional image on the synthesis plane W. It fulfills the function of repeatedly executing the process of creating the image Pγi for i = 1 to n.

より具体的には、§4で詳述したように、画像情報格納部10に格納されている第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zαとなるような所定位置に配置し、画像情報格納部10に格納されている第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zβとなるような所定位置に配置し、合成面W上に、二次元画像Pαiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、二次元画像Pβiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより第i番目の合成二次元画像Pγiを作成して合成画像格納部40に格納する処理を行う。   More specifically, as described in detail in §4, the i-th two-dimensional image Pαi constituting the first multi-viewpoint image information E (α) stored in the image information storage unit 10 is synthesized. The i-th image forming the second multi-viewpoint image information E (β) stored in the image information storage unit 10 is arranged at a predetermined position parallel to the surface W and the distance to the composite surface W is the depth value Zα. The second two-dimensional image Pβi is arranged at a predetermined position parallel to the composite surface W and the distance to the composite surface W is the depth value Zβ, and the two-dimensional image Pαi is placed on the composite surface W in the i-th observation direction. A parallel projection image obtained by projecting in a direction parallel to Di and a parallel projection image obtained by projecting the two-dimensional image Pβi in a direction parallel to the i-th observation direction Di are formed, and these parallel projections are formed. The image is synthesized by considering the positional relationship based on the depth values Zα and Zβ. The i-th synthesized two-dimensional image Pγi is generated and stored in the synthesized image storage unit 40.

合成画像格納部40は、こうして画像合成部30で作成されたn枚の合成二次元画像Pγ1〜Pγnによって構成される多視点画像情報を、合成された多視点画像情報E(γ)として格納し、必要に応じて、この多視点画像情報E(γ)を外部に出力する機能を果たす。   The composite image storage unit 40 stores the multi-viewpoint image information composed of the n composite two-dimensional images Pγ1 to Pγn thus created by the image composition unit 30 as the composite multi-viewpoint image information E (γ). The multi-viewpoint image information E (γ) is output to the outside as necessary.

<<< §7.本発明の変形例 >>>
ここでは、これまで述べてきた実施形態について、いくつかの変形例を述べておく。
<<< §7. Modification of the present invention >>
Here, some modified examples of the embodiments described so far will be described.

(1) 被写体のバリエーション
これまで述べた実施形態では、第1の被写体αとしてコーヒーカップ、第2の被写体βとしてリンゴというように、三次元の形状をもった実在の物体を被写体として利用する例を説明したが、本発明で取り扱う被写体は、必ずしも三次元の形状をもったいわゆる立体である必要はない。たとえば、切手や絵葉書という物体は、厳密に言えば、三次元の形状をもった物体であるが、一般の観察者にとって、厚みの部分は実質的な意味をもたず、二次元の形状しかもたない物体として把握される。このような実質的に二次元の形状しかもたない物体であっても、本発明における被写体として利用することが可能である。この場合、もちろん、切手や絵葉書の絵柄については立体感を生じさせることはできないが、三次元空間上に配置された二次元物体という意味で、立体画像としての提示が可能になる。
(1) Subject Variation In the embodiments described so far, an example in which an actual object having a three-dimensional shape is used as a subject, such as a coffee cup as the first subject α and an apple as the second subject β. However, the subject handled in the present invention is not necessarily a so-called solid body having a three-dimensional shape. For example, strictly speaking, objects such as stamps and postcards are objects with a three-dimensional shape, but for ordinary observers, the thickness portion has no substantial meaning, and only a two-dimensional shape. It is grasped as an object. Even such an object having only a two-dimensional shape can be used as a subject in the present invention. In this case, of course, a three-dimensional effect cannot be generated for a stamp or a picture postcard, but it can be presented as a three-dimensional image in the sense of a two-dimensional object arranged in a three-dimensional space.

また、§2でも述べたとおり、本発明で取り扱う被写体は、必ずしも実在の物体である必要はなく、コンピュータを用いて作成された仮想のCG画像を被写体(原画像)として利用することも可能である。このようなCG画像を被写体として用いる場合は、図1に示す被写体α,投影面Sをコンピュータ上の仮想空間に定義し、コンピュータによる演算処理により、図1の下段に示すような二次元画像P1〜P5を得ることができる。したがって、図9に示すような方法による実写撮影や、図10に示すような方法による実写撮影像の変換処理を行う必要はなくなる。   Further, as described in §2, the subject handled in the present invention is not necessarily a real object, and a virtual CG image created using a computer can be used as a subject (original image). is there. When such a CG image is used as a subject, the subject α and the projection plane S shown in FIG. 1 are defined in a virtual space on the computer, and a two-dimensional image P1 as shown in the lower part of FIG. ~ P5 can be obtained. Therefore, it is not necessary to perform the real-time photographing by the method as shown in FIG.

もちろん、CG画像からなる被写体(原画像)は、必ずしも三次元の立体画像である必要はなく、二次元の平面画像であってもかまわない。また、合成対象となる2つの被写体は、双方とも実在の物体であってもよいし、双方ともにCG画像であってもよいし、両者の混合であってもかまわない。   Of course, the subject (original image) made of a CG image is not necessarily a three-dimensional stereoscopic image, and may be a two-dimensional planar image. Further, the two subjects to be synthesized may both be real objects, both may be CG images, or may be a mixture of both.

(2) 同一共通画像からなる多視点画像情報
本発明では、既に述べたとおり、第1の多視点画像情報E(α)を複数n枚の二次元画像Pα1〜Pαnによって構成し、第2の多視点画像情報E(β)を同じく複数n枚の二次元画像Pβ1〜Pβnによって構成し、第i番目(1≦i≦n)の二次元画像PαiおよびPβiを合成して合成二次元画像Pγiを作成する作業を、i=1〜nについて繰り返し実行することになる。
(2) Multi-viewpoint image information composed of the same common image In the present invention, as described above, the first multi-viewpoint image information E (α) is composed of a plurality of n two-dimensional images Pα1 to Pαn, The multi-viewpoint image information E (β) is similarly composed of a plurality of n two-dimensional images Pβ1 to Pβn, and the i-th (1 ≦ i ≦ n) two-dimensional images Pαi and Pβi are combined to generate a combined two-dimensional image Pγi. The operation of creating is repeated for i = 1 to n.

ここで、n枚の二次元画像Pα1〜Pαnは、一般的には、互いに異なる二次元画像になる。同様に、n枚の二次元画像Pβ1〜Pβnも、一般的には、互いに異なる二次元画像になる。たとえば、図11に示す例の場合、5枚の二次元画像Pα1〜Pα5は互いに異なる画像であり、5枚の二次元画像Pβ1〜Pβ5も互いに異なる画像である。これは、これらの二次元画像が、被写体αやβを、投影面S上に5通りの方向へ平行投影した平行投影像によって構成されているためである。   Here, the n two-dimensional images Pα1 to Pαn are generally different two-dimensional images. Similarly, the n two-dimensional images Pβ1 to Pβn are generally different two-dimensional images. For example, in the case of the example shown in FIG. 11, the five two-dimensional images Pα1 to Pα5 are different from each other, and the five two-dimensional images Pβ1 to Pβ5 are also different from each other. This is because these two-dimensional images are constituted by parallel projection images obtained by parallel projecting the subjects α and β on the projection plane S in five directions.

しかしながら、本発明によって取り扱われる多視点画像情報を構成するn枚の二次元画像は、必ずしも互いに異なる画像である必要はなく、同一の共通画像であってもかまわない。一般に、ある被写体をそれぞれ異なる方向へ投影すると、多くの場合、得られる投影像は互いに異なった画像になる。したがって、多視点画像情報を構成するn枚の二次元画像は、通常、それぞれ異なった画像になるのが普通である。ただ、特殊な条件下では、多視点画像情報がn枚の同一共通画像によって構成されるケースもあり得る。   However, the n two-dimensional images constituting the multi-viewpoint image information handled by the present invention are not necessarily different from each other, and may be the same common image. In general, when a certain subject is projected in different directions, the obtained projection images are often different from each other. Accordingly, the n two-dimensional images constituting the multi-viewpoint image information are usually different from each other. However, under special conditions, the multi-viewpoint image information may be composed of n identical common images.

たとえば、被写体として二次元画像(絵葉書のような実在物体でもよいし、CG画像でもよい)を用意し、この被写体を投影面S上に配置したとすると、当該被写体の投影面Sに対する投影像は、投影方向を問わず、当該被写体と同一の共通画像になる。したがって、この場合、多視点画像情報を構成するn枚の二次元画像は、当該被写体上の共通画像ということになり、どのような観察方向から観察しても、同一の共通画像が観察されることになる。これは、図1において、投影面S上に絵はがきを配置した状態を考えれば、容易に理解できよう。   For example, when a two-dimensional image (a real object such as a postcard or a CG image) may be prepared as a subject and the subject is arranged on the projection plane S, the projection image of the subject on the projection plane S is Regardless of the projection direction, the same common image as the subject is obtained. Therefore, in this case, the n two-dimensional images constituting the multi-viewpoint image information are common images on the subject, and the same common image is observed regardless of the observation direction. It will be. This can be easily understood by considering a state in which a picture postcard is arranged on the projection plane S in FIG.

したがって、本発明に係る多視点画像情報の合成方法を実施するにあたり、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnもしくは第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnは、同一共通画像によって構成することができる。図17は、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnを、これまでの実施形態と同様にそれぞれ異なる画像によって構成し、第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを、同一共通画像によって構成した例である。   Therefore, when the multi-view image information combining method according to the present invention is implemented, n two-dimensional images Pα1 to Pαn or second multi-view image information E constituting the first multi-view image information E (α). The n two-dimensional images Pβ1 to Pβn constituting (β) can be composed of the same common image. In FIG. 17, n two-dimensional images Pα1 to Pαn constituting the first multi-view image information E (α) are configured by different images as in the previous embodiments, and the second multi-view image In this example, n pieces of two-dimensional images Pβ1 to Pβn constituting information E (β) are configured by the same common image.

すなわち、この図17に示す例では、第1の多視点画像情報E(α)は、コーヒーカップからなる被写体をn通りの方向に投影して得られるn枚の異なる二次元画像によって構成されているが、第2の多視点画像情報E(β)は、実質的には、景色が描かれた1枚の共通画像によって構成されている。もちろん、本発明に係る多視点画像情報の合成方法(図14の流れ図に示す手順)を実行する上では、第1の多視点画像情報E(α)をn枚の二次元画像によって構成した場合、第2の多視点画像情報E(β)もn枚の二次元画像によって構成し、第i番目の画像同士を合成する処理を行う必要がある。したがって、図17に示す例の場合も、便宜上、第2の多視点画像情報E(β)を、n枚の二次元画像によって構成されているものとする取り扱いを行うことになるが、これらn枚の二次元画像の実体は、景色が描かれた1枚の共通画像ということになる。   That is, in the example shown in FIG. 17, the first multi-viewpoint image information E (α) is composed of n different two-dimensional images obtained by projecting a subject made of a coffee cup in n directions. However, the second multi-viewpoint image information E (β) is substantially composed of one common image on which a landscape is drawn. Of course, when the multi-view image information combining method according to the present invention (the procedure shown in the flowchart of FIG. 14) is executed, the first multi-view image information E (α) is composed of n two-dimensional images. The second multi-view image information E (β) is also composed of n two-dimensional images, and it is necessary to perform a process of synthesizing the i-th images. Therefore, in the example shown in FIG. 17 as well, for convenience, the second multi-viewpoint image information E (β) is handled as being constituted by n two-dimensional images. The entity of one two-dimensional image is one common image on which a landscape is drawn.

図17に示す例において、第1の多視点画像情報E(α)を構成する二次元画像を、第2の多視点画像情報E(β)を構成する二次元画像の手前に配置するような合成条件を設定しておけば(たとえば、前者の奥行値Zαを負の値に設定し、後者の奥行値Zβを正の値もしくは零に設定すれば)、景色となる背景画像の手前にコーヒーカップが置かれた合成立体画像を提示することが可能になる。この場合、コーヒーカップについては立体画像としての提示が行われるが、背景となる景色については単なる平面画像としての提示が行われるだけである。それでも、手前のコーヒーカップと、奥の景色との間には、奥行感が醸し出され、違和感のない合成立体画像の提示が可能になる。   In the example shown in FIG. 17, the two-dimensional image constituting the first multi-view image information E (α) is arranged in front of the two-dimensional image constituting the second multi-view image information E (β). If composition conditions are set (for example, if the former depth value Zα is set to a negative value and the latter depth value Zβ is set to a positive value or zero), coffee is placed in front of the background image that is the scenery. It becomes possible to present a composite stereoscopic image in which the cup is placed. In this case, the coffee cup is presented as a stereoscopic image, but the background scene is simply presented as a flat image. Nevertheless, a sense of depth is created between the coffee cup in the foreground and the scenery in the back, and it is possible to present a composite stereoscopic image without any sense of incongruity.

この図17に示す変形例では、景色となる背景画像として、ごく一般的な二次元画像(たとえば、絵葉書の写真)を利用することができるので、主たる被写体であるコーヒーカップの背景に任意の景色を配置した合成立体画像を容易に作成することができる。   In the modified example shown in FIG. 17, since a very general two-dimensional image (for example, a picture of a postcard) can be used as a background image to be a landscape, an arbitrary landscape is provided on the background of the coffee cup that is the main subject. Can be easily created.

また、この図17に示す変形例を更に単純化し、第1の多視点画像情報E(α)についても、コーヒーカップを被写体とした1枚の一般的な二次元画像(たとえば、コーヒーカップの写真)を共通画像として利用するようにしてもかまわない。この場合、第1の多視点画像情報E(α)は、実質的に1枚のコーヒーカップの二次元画像によって構成され、第2の多視点画像情報E(β)は、実質的に1枚の景色の二次元画像によって構成されることになる。もちろん、この場合、本発明に係る多視点画像情報の合成方法を実行する上では、便宜上、第1の多視点画像情報E(α)を構成するn枚の二次元画像が、コーヒーカップの写真からなる1枚の同一共通画像によって構成され、第2の多視点画像情報E(β)を構成するn枚の二次元画像が、景色の写真からなる1枚の同一共通画像によって構成されている、とする取り扱いを行うことになる。   In addition, the modification shown in FIG. 17 is further simplified, and the first multi-view image information E (α) is also a general two-dimensional image (for example, a photograph of a coffee cup) with a coffee cup as a subject. ) May be used as a common image. In this case, the first multi-view image information E (α) is substantially constituted by a two-dimensional image of one coffee cup, and the second multi-view image information E (β) is substantially one sheet. It is composed of two-dimensional images of the scenery. Of course, in this case, in executing the method for synthesizing the multi-viewpoint image information according to the present invention, for convenience, n two-dimensional images constituting the first multi-viewpoint image information E (α) are coffee cup photos. N two-dimensional images constituting the second multi-viewpoint image information E (β) are constituted by one identical common image consisting of a landscape photograph. Will be handled.

このような合成処理を実行することにより得られた第3の多視点画像情報E(γ)に基づいて提示される立体画像では、コーヒーカップも景色も、いずれも単なる平面画像としての提示が行われるだけであるが、手前のコーヒーカップと、奥の景色との間には、奥行感(たとえば、遠景をバックとして、1枚のコーヒーカップの看板が配置されている状態)が醸し出されることになり、そのような意味で、立体画像としての提示が可能になる。   In the stereoscopic image presented based on the third multi-viewpoint image information E (γ) obtained by executing such a synthesis process, both the coffee cup and the scenery are presented as simple planar images. However, there is a sense of depth between the coffee cup in the foreground and the scenery in the back (for example, a signboard with a single coffee cup placed behind the distant view). In that sense, presentation as a stereoscopic image is possible.

(3) 合成立体画像提示方法のバリエーション
本発明に係る合成処理を実行することにより得られた第3の多視点画像情報E(γ)に基づいて、観察者に対して実際に合成立体画像を提示する具体的な方法として、これまで、記録媒体上にレンチキュラーレンズやマイクロレンズアレイなどの光学素子を配置してなる立体画像記録媒体を作成する例を述べた。しかしながら、多視点画像情報E(γ)に基づいて、合成立体画像を提示する方法は、このような立体画像記録媒体を利用する方法に限定されるものではない。
(3) Variation of synthetic stereoscopic image presentation method Based on the third multi-viewpoint image information E (γ) obtained by executing the synthetic processing according to the present invention, the synthetic stereoscopic image is actually displayed to the observer. As a specific method to be presented, an example in which a stereoscopic image recording medium in which an optical element such as a lenticular lens or a microlens array is arranged on a recording medium has been described so far has been described. However, the method of presenting a composite stereoscopic image based on the multi-viewpoint image information E (γ) is not limited to the method using such a stereoscopic image recording medium.

既に述べたとおり、図15の流れ図におけるステップS16の画像提示段階では、何らかの手段を用いて、第i番目の二次元画像Pγiが、主として第i番目の観察方向Diに提示されるようにすればよい。たとえば、立体画像提示方法として一般的に利用されているパララックスバリア方式やグラスレス3Dなどの技術を利用して、多視点画像情報E(γ)に基づく合成立体画像の提示を行うことも可能である。もちろん、提示に用いる媒体は、印刷物のような固定媒体だけでなく、ディスプレイ画面などを用いることも可能である。たとえば、ディスプレイ画面上に時分割でn枚の二次元画像を順次表示させてゆき、表示画像からの光が観察者の目に向かう方向を何らかの光学手段で順次切り替えるような方法を採ることも可能である。   As already described, in the image presentation stage in step S16 in the flowchart of FIG. 15, the i-th two-dimensional image Pγi is mainly presented in the i-th observation direction Di by using some means. Good. For example, it is possible to present a composite stereoscopic image based on the multi-viewpoint image information E (γ) by using a technique such as a parallax barrier method or glassless 3D that is generally used as a stereoscopic image presentation method. It is. Of course, as a medium used for presentation, not only a fixed medium such as a printed matter but also a display screen can be used. For example, it is possible to sequentially display n two-dimensional images on a display screen in a time-sharing manner, and sequentially switch the direction of light from the displayed image toward the eyes of the observer by some optical means. It is.

また、本発明に係る立体画像提示方法は、単に1枚の立体画像を一方的に観察者に提示するだけでなく、観察者の操作に反応してインターラクティブに提示内容を変えてゆくような技術にも応用することができる。   In addition, the stereoscopic image presentation method according to the present invention is a technique that not only presents a single stereoscopic image to the observer unilaterally, but also interactively changes the presentation content in response to the operation of the observer. It can also be applied to.

(4) 合成方法のバリエーション
これまで述べてきた実施形態では、合成面W上において被写体αの平行投影像と被写体βの平行投影像とを合成する方法として、両者が重なった領域については、合成条件として設定された奥行値Zα,Zβに基づく位置関係を考慮して、手前にある被写体を優先する例を述べたが、被写体に透明度を設定することにより、手前の被写体を透して奥の被写体が透けて見えるような合成を行うようにすることも可能である。
(4) Variation of composition method In the embodiment described so far, as a method of compositing the parallel projection image of the subject α and the parallel projection image of the subject β on the composition plane W, the overlapping area is synthesized. The example of giving priority to the subject in the foreground in consideration of the positional relationship based on the depth values Zα and Zβ set as conditions has been described. However, by setting the transparency to the subject, It is also possible to perform composition so that the subject can be seen through.

たとえば、図12に示す例において、図にドットによるハッチングを施した重複領域内の画素については、これまでの実施形態の場合、手前にあるコーヒーカップの画像の画素値を採用することになるが、コーヒーカップについて、たとえば、透明度20%なる設定を行っておけば、当該重複領域内の画素については、手前にあるコーヒーカップの画像の画素値と奥にあるリンゴの画像の画素値とを80:20の割合でブレンドすることにより得られる画素値を採用することができる。これにより、半透明なコーヒーカップの奥にリンゴが配置されている状態の立体画像を提示することが可能になる。   For example, in the example shown in FIG. 12, for the pixels in the overlapped area that is hatched with dots in the figure, the pixel values of the coffee cup image in the foreground are adopted in the previous embodiments. For example, if a setting of 20% transparency is made for the coffee cup, the pixel value of the coffee cup image in the foreground and the pixel value of the apple image in the back are set to 80 for the pixels in the overlapping region. : Pixel values obtained by blending at a ratio of 20 can be adopted. Thereby, it becomes possible to present the three-dimensional image in the state where the apple is arranged behind the translucent coffee cup.

また、これまでの実施形態では、被写体αについての多視点画像情報E(α)と被写体βについての多視点画像情報E(β)という2組の多視点画像情報を合成する例を述べてきたが、本発明を利用すれば、もちろん、3組以上の多視点画像情報を合成することも可能である。その基本概念は、これまで述べてきた2組の多視点画像情報を合成する方法と全く同じである。すなわち、3組以上の多視点画像情報を構成する第i番目の二次元画像を、それぞれ合成条件として設定された奥行値に基づいて、合成面Wに平行となるように所定位置に配置し、合成面W上に、各二次元画像を第i番目の観察方向Diに平行な方向に投影して得られる平行投影像を形成し、これら平行投影像を各奥行値に基づく位置関係を考慮して合成することにより第i番目の合成二次元画像を作成する処理を、i=1〜nについて繰り返せばよい。   In the embodiments so far, the example in which two sets of multi-view image information, that is, the multi-view image information E (α) for the subject α and the multi-view image information E (β) for the subject β has been described. However, if the present invention is used, it is of course possible to synthesize three or more sets of multi-viewpoint image information. The basic concept is exactly the same as the method of combining the two sets of multi-viewpoint image information described so far. That is, the i-th two-dimensional images constituting three or more sets of multi-viewpoint image information are arranged at predetermined positions so as to be parallel to the synthesis plane W based on the depth values set as the synthesis conditions, A parallel projection image obtained by projecting each two-dimensional image in a direction parallel to the i-th observation direction Di is formed on the composite surface W, and the parallel projection image is considered in a positional relationship based on each depth value. The process of creating the i-th synthesized two-dimensional image by synthesizing is repeated for i = 1 to n.

<<< §8.本発明に係るライトフィールドの合成方法 >>>
背景技術として述べたとおり、前掲の非特許文献1には、Plenopticという7次元の関数Pを用いて、P(x,y,z,φ,θ,λ,t)という形式で、「空間内の座標値(x,y,z)で示される点を、方位角φおよび仰角θで示される方向に向かって、波長λをもつ光線が時刻tにおいて通過した」という現象を記述する理論が開示されており、前掲の非特許文献2には、そのような記述形式を立体画像の提示技術に利用する一形態として「ライトフィールド(Light Field)」という概念の導入が提唱されている。そして、前掲の特許文献3および4には、このような「ライトフィールド」を利用した三次元画像の具体的な取り扱い方法が開示されている。
<<< §8. Light Field Synthesis Method According to the Present Invention >>
As described in the background art, Non-Patent Document 1 described above uses a 7-dimensional function P called Plenoptic in the form of P (x, y, z, φ, θ, λ, t), “in space” Discloses a theory describing a phenomenon that a light beam having a wavelength λ has passed through a point indicated by the coordinate value (x, y, z) of λ toward a direction indicated by an azimuth angle φ and an elevation angle θ at a time t. In Non-Patent Document 2 mentioned above, the introduction of the concept of “Light Field” is proposed as one form in which such a description format is used for the technique of presenting a stereoscopic image. Patent Documents 3 and 4 listed above disclose a specific method for handling a three-dimensional image using such a “light field”.

このような観点から本発明を捉えると、本発明に係る多視点画像情報は「ライトフィールド」という概念で表現できる情報であり、本発明は、「ライトフィールドの合成方法」として捉えることも可能である。そこで、ここでは、本発明を「ライトフィールドの合成方法」として捉えた説明を行うことにする。   From this point of view, the multi-viewpoint image information according to the present invention is information that can be expressed by the concept of “light field”, and the present invention can also be regarded as a “light field composition method”. is there. Therefore, here, the description will be made assuming that the present invention is a “light field composition method”.

図18は、一般的なライトフィールドの概念を示す斜視図および数式図である。いま、上段の斜視図に示すように、XY二次元座標平面上の任意の点P(x,y)を、光線ベクトルLが通っているものとしよう。ここで、光線ベクトルLの向きをDとすれば、この光線ベクトルLは、XY二次元座標で示される座標値(x,y)と向きDをパラメータとして、(x,y,D)で特定されることになる。向きDは、たとえば、図6に示す例のように、方位角φおよび仰角θによって表すことができるが、この他にも様々な方法で表すことが可能である。そこで、ここでは、単に「向きD」というパラメータを用いることにする。   FIG. 18 is a perspective view and a mathematical diagram showing the concept of a general light field. Now, as shown in the upper perspective view, let the ray vector L pass through an arbitrary point P (x, y) on the XY two-dimensional coordinate plane. Here, if the direction of the light vector L is D, this light vector L is specified by (x, y, D) using the coordinate value (x, y) indicated by XY two-dimensional coordinates and the direction D as parameters. Will be. The direction D can be expressed by an azimuth angle φ and an elevation angle θ as in the example shown in FIG. 6, for example, but can also be expressed by various methods. Therefore, here, a parameter “direction D” is simply used.

さて、こうして特定される光線ベクトルに対して、何らかの特徴値を付与し、当該特徴値を3つのパラメータx,y,Dを変数とする関数F(x,y,D)で表すことにする。すなわち、関数F(x,y,D)は、座標値(x,y)で示される所定の点Pを通り、向きDの方向を向いた特定の光線ベクトルLに対して付与された特徴値を示す関数ということになる。   Now, a certain feature value is assigned to the ray vector thus identified, and the feature value is represented by a function F (x, y, D) having three parameters x, y, and D as variables. That is, the function F (x, y, D) passes through the predetermined point P indicated by the coordinate value (x, y), and the feature value given to the specific light vector L facing the direction D. This is a function indicating

ここで、XY平面上の閉領域内に複数の点Pを定義し、個々の点Pについて、当該点Pを通り互いに異なる方向を向いた複数本の光線ベクトルLを定義し、個々の光線ベクトルLについてそれぞれ特定の特徴値を付与すれば、そのような定義が行われた閉領域は、正に前掲の文献で言及されている「ライトフィールド」という概念の範疇に入るフィールドということになる。   Here, a plurality of points P are defined in the closed region on the XY plane, and for each point P, a plurality of ray vectors L passing through the point P and facing in different directions are defined, and each ray vector is defined. If a specific feature value is assigned to each of L, the closed region in which such a definition is made is a field that falls within the concept of “light field” referred to in the above-mentioned literature.

そこで、ここでは、「ライトフィールド」を、複数の点Pが配置された平面であって、個々の点Pのそれぞれには、当該点Pを通り互いに異なる方向を向いた複数本の光線ベクトルLが定義され、個々の光線ベクトルLについてそれぞれ特定の特徴値が付与されている平面、と定義することにしよう。そうすると、本発明は、2組のライトフィールドを合成するライトフィールドの合成方法として捉えることができる。   Therefore, here, the “light field” is a plane on which a plurality of points P are arranged, and each of the individual points P has a plurality of ray vectors L that pass through the point P and are directed in different directions. , And a plane to which a specific feature value is assigned for each ray vector L. Then, the present invention can be understood as a light field combining method for combining two sets of light fields.

ライトフィールドの特徴値としては、光線ベクトルの波長や輝度値などを用いることもできるが、光線ベクトルが観察者の目に届いたときに、画像を構成する1つの画素を認識させる機能をもっていることに着目すると、本発明との関連では、特徴値として画素値を用いるのが最も適当である。   As the feature value of the light field, the wavelength or luminance value of the light vector can be used, but it has a function of recognizing one pixel constituting the image when the light vector reaches the eyes of the observer. In view of the above, in the context of the present invention, it is most appropriate to use a pixel value as a feature value.

こうして、これまで述べてきた多視点画像情報の合成方法を、ライトフィールドの合成方法として捉えると、当該方法は、ライトフィールド入力段階、合成条件設定段階、ライトフィールド合成段階、ライトフィールド出力段階の4段階から構成されることになる。実際には、これらの各段階は、コンピュータに組み込まれた専用プログラムの機能によって実行される。   Thus, if the method for synthesizing multi-viewpoint image information described so far is regarded as a light field synthesis method, the method includes four steps: a light field input stage, a synthesis condition setting stage, a light field synthesis stage, and a light field output stage. It consists of stages. Actually, each of these steps is executed by a function of a dedicated program incorporated in the computer.

まず、ライトフィールド入力段階は、コンピュータが、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第1のライトフィールドFα(x,y,D)および第2のライトフィールドFβ(x,y,D)を入力する段階になる。たとえば、図11に示す第1の多視点画像情報E(α)を構成する二次元画像Pα1は、投影面S上の点Pを第1の観察方向D1に向けて通る光線ベクトルL1に付与された特徴量(すなわち、当該点Pの位置にある画素の画素値)を示す情報を有しており、二次元画像Pα2は、投影面S上の点Pを第2の観察方向D2に向けて通る光線ベクトルL2に付与された特徴量(すなわち、当該点Pの位置にある画素の画素値)を示す情報を有している。したがって、図11に示されている第1の多視点画像情報E(α)を構成する5枚の二次元画像Pα1〜Pα5は、第1のライトフィールドFα(x,y,D)を示す情報ということになる。同様に、第2の多視点画像情報E(β)を構成する5枚の二次元画像Pβ1〜Pβ5は、第2のライトフィールドFβ(x,y,D)を示す情報ということになる。   First, in the light field input stage, each feature value is calculated by a computer using a function whose variable is the coordinate value (x, y) of the point P on the XY two-dimensional coordinate plane and the direction D of the ray vector L passing through the point P. The first light field Fα (x, y, D) and the second light field Fβ (x, y, D) indicating the above are input. For example, the two-dimensional image Pα1 constituting the first multi-viewpoint image information E (α) shown in FIG. 11 is given to the light vector L1 passing through the point P on the projection surface S toward the first observation direction D1. Information indicating the characteristic amount (that is, the pixel value of the pixel at the position of the point P), and the two-dimensional image Pα2 directs the point P on the projection surface S in the second observation direction D2. It has information indicating the feature amount (that is, the pixel value of the pixel at the position of the point P) assigned to the passing light vector L2. Accordingly, the five two-dimensional images Pα1 to Pα5 constituting the first multi-view image information E (α) shown in FIG. 11 are information indicating the first light field Fα (x, y, D). It turns out that. Similarly, the five two-dimensional images Pβ1 to Pβ5 constituting the second multi-viewpoint image information E (β) are information indicating the second light field Fβ (x, y, D).

次の合成条件設定段階は、コンピュータが、第1のライトフィールドFα(x,y,D)と第2のライトフィールドFβ(x,y,D)とを合成するための合成条件を設定する段階である。この合成条件には、所定の合成面Wに対して平行になるように、第1のライトフィールドFα(x,y,D)および第2のライトフィールドFβ(x,y,D)を所定位置に配置するための配置条件が含まれている(具体的には、奥行値Zα,Zβが合成条件として設定される)。   In the next synthesis condition setting stage, the computer sets a synthesis condition for synthesizing the first light field Fα (x, y, D) and the second light field Fβ (x, y, D). It is. In this synthesis condition, the first light field Fα (x, y, D) and the second light field Fβ (x, y, D) are placed at predetermined positions so as to be parallel to the predetermined synthesis surface W. Includes arrangement conditions (specifically, depth values Zα and Zβ are set as synthesis conditions).

続くライトフィールド合成段階は、コンピュータが、第1のライトフィールドFα(x,y,D)と第2のライトフィールドFβ(x,y,D)とを合成して、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第3のライトフィールドFγ(x,y,D)を作成する段階である。もちろん、この第3のライトフィールドFγ(x,y,D)は、図11に示されている第3の多視点画像情報E(γ)を構成する5枚の二次元画像Pγ1〜Pγ5に対応するものである。   In the subsequent light field synthesis step, the computer synthesizes the first light field Fα (x, y, D) and the second light field Fβ (x, y, D) on the XY two-dimensional coordinate plane. A third light field Fγ (x, y, D) indicating individual feature values is generated by a function having the coordinate value (x, y) of the point P and the direction D of the light vector L passing through the point P as variables. It is a stage. Of course, the third light field Fγ (x, y, D) corresponds to the five two-dimensional images Pγ1 to Pγ5 constituting the third multi-viewpoint image information E (γ) shown in FIG. To do.

ここで、個々の光線ベクトルに付与する特徴値として、三原色R,G,Bの画素値の組み合わせを用いることにすると、図18に示すとおり、第1のライトフィールドFα(x,y,D)は、原色R成分Fαr(x,y,D)と原色G成分Fαg(x,y,D)と原色B成分Fαb(x,y,D)との組み合わせによって構成することができ、第2のライトフィールドFβ(x,y,D)は、原色R成分Fβr(x,y,D)と原色G成分Fβg(x,y,D)と原色B成分Fβb(x,y,D)との組み合わせによって構成することができ、第3のライトフィールドFγ(x,y,D)は、原色R成分Fγr(x,y,D)と原色G成分Fγg(x,y,D)と原色B成分Fγb(x,y,D)との組み合わせによって構成することができる。この場合、ライトフィールド合成段階では、個々の原色成分ごとに独立して特徴値の決定を行うようにすればよい。   Here, if the combination of the pixel values of the three primary colors R, G, and B is used as the feature value to be assigned to each light vector, the first light field Fα (x, y, D) as shown in FIG. Can be configured by a combination of a primary color R component Fαr (x, y, D), a primary color G component Fαg (x, y, D), and a primary color B component Fαb (x, y, D). The light field Fβ (x, y, D) is a combination of a primary color R component Fβr (x, y, D), a primary color G component Fβg (x, y, D), and a primary color B component Fβb (x, y, D). The third light field Fγ (x, y, D) includes a primary color R component Fγr (x, y, D), a primary color G component Fγg (x, y, D), and a primary color B component Fγb. It can be configured by a combination with (x, y, D). In this case, the feature value may be determined independently for each primary color component in the light field synthesis stage.

図19は、本発明に係るライトフィールドの合成方法の基本原理を示す斜視図である。この図19では、便宜上、原色R成分の合成方法のみが示されているが、原色G成分や原色B成分の合成方法も全く同様である。図19に示す閉領域Fγrは、合成処理により新たに作成される第3のライトフィールドFγ(x,y,D)の原色R成分のプレーンであり、合成面W上に配置されている。もちろん、この時点では、まだライトフィールドFγrの各光線ベクトルには、何ら特徴値(すなわち、原色Rの画素値)は付与されていない。   FIG. 19 is a perspective view showing the basic principle of the light field composition method according to the present invention. In FIG. 19, only the primary color R component synthesis method is shown for the sake of convenience, but the primary color G component and primary color B component synthesis methods are exactly the same. A closed region Fγr shown in FIG. 19 is a primary color R component plane of the third light field Fγ (x, y, D) newly created by the synthesis process, and is arranged on the synthesis surface W. Of course, at this time, no feature value (that is, the pixel value of the primary color R) has been assigned to each light vector of the light field Fγr.

一方、閉領域Fαrは、合成対象となる第1のライトフィールドFα(x,y,D)の原色R成分のプレーンであり、合成面Wに対して平行となる所定位置(たとえば、奥行値Zαで示される位置)に配置される。同様に、閉領域Fβrは、合成対象となる第2のライトフィールドFβ(x,y,D)の原色R成分のプレーンであり、合成面Wに対して平行となる所定位置(たとえば、奥行値Zβで示される位置)に配置される。   On the other hand, the closed region Fαr is a primary color R component plane of the first light field Fα (x, y, D) to be synthesized, and is a predetermined position (for example, a depth value Zα) parallel to the synthesis surface W. (Position indicated by). Similarly, the closed region Fβr is a plane of the primary color R component of the second light field Fβ (x, y, D) to be synthesized, and a predetermined position (for example, a depth value) parallel to the synthesis surface W (Position indicated by Zβ).

さて、このような配置が行われた状態において、第3のライトフィールドFγ(x,y,D)の原色R成分のプレーンFγrを作成する具体的な手順を説明しよう。ここでは、合成面W上の特定点P(xγ,yγ)を通り特定方向Dを向いた特定光線ベクトルLγの特徴値(原色Rの画素値)を決定することを考える。そのために、当該特定光線ベクトルLγを含む参照直線R(図に破線で示す直線)を定義し、この参照直線Rと第1のライトフィールドFαrとの交点P(xα,yα)を通り特定方向Dを向いた光線ベクトルLαと、この参照直線Rと第2のライトフィールドFβrとの交点P(xβ,yβ)を通り特定方向Dを向いた光線ベクトルLβとを特定する。そして、光線ベクトルLαに付与されている特徴値(原色Rの画素値)と光線ベクトルLβに付与されている特徴値(原色Rの画素値)との2組の特徴値の少なくとも一方に基づいて、特定光線ベクトルLγの特徴値(原色Rの画素値)を決定する。   Now, a specific procedure for creating the primary color R component plane Fγr of the third light field Fγ (x, y, D) in a state where such an arrangement is performed will be described. Here, it is considered to determine the characteristic value (pixel value of the primary color R) of the specific light vector Lγ that passes through the specific point P (xγ, yγ) on the composite surface W and faces the specific direction D. For this purpose, a reference straight line R (a straight line indicated by a broken line in the figure) including the specific light vector Lγ is defined, and the specific direction D passes through the intersection P (xα, yα) between the reference straight line R and the first light field Fαr. , And a light vector Lβ facing the specific direction D through the intersection point P (xβ, yβ) of the reference straight line R and the second light field Fβr. Then, based on at least one of the two feature values of the feature value (primary color R pixel value) given to the light vector Lα and the feature value (primary color R pixel value) given to the light vector Lβ. Then, the characteristic value (pixel value of the primary color R) of the specific light vector Lγ is determined.

具体的には、図19に示す例のように、参照直線Rと第1のライトフィールドFαrとの交点P(xα,yα)および参照直線Rと第2のライトフィールドFβrとの交点P(xβ,yβ)の双方が存在する場合には、配置条件に基づいて選択されたいずれか一方の交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドFγrの特徴値を決定すればよい。   Specifically, as in the example shown in FIG. 19, the intersection point P (xα, yα) between the reference straight line R and the first light field Fαr and the intersection point P (xβ between the reference straight line R and the second light field Fβr , Yβ) both exist, the feature value of the third light field Fγr based on the feature value of the light vector passing through one of the intersections selected based on the arrangement condition and facing the specific direction D Can be determined.

すなわち、図19に示す例の場合、上方に配置されている第1のライトフィールドFαrを優先する取り扱いを行う場合は、光線ベクトルLαに付与されている特徴値(原色Rの画素値)を特定光線ベクトルLγの特徴値(原色Rの画素値)とすればよいし、下方に配置されている第2のライトフィールドFβrを優先する取り扱いを行う場合は、光線ベクトルLβに付与されている特徴値(原色Rの画素値)を特定光線ベクトルLγの特徴値(原色Rの画素値)とすればよい。   That is, in the case of the example shown in FIG. 19, when the first light field Fαr arranged above is given priority, the feature value (primary color R pixel value) assigned to the light vector Lα is specified. The feature value of the light vector Lγ (the pixel value of the primary color R) may be used. When the priority is given to the second light field Fβr arranged below, the feature value given to the light vector Lβ. The (primary color R pixel value) may be the characteristic value of the specific light vector Lγ (primary color R pixel value).

また、特定光線ベクトルLγの向きDによっては、参照直線Rと第1のライトフィールドFαrとの交点および参照直線Rと第2のライトフィールドFβrとの交点のいずれか一方のみしか存在しない場合もある。そのような場合には、当該存在する交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドFγrの特徴値を決定すればよい。なお、参照直線Rと第1のライトフィールドFαrとの交点および参照直線Rと第2のライトフィールドFβrとの交点のいずれも存在しない場合には、そのような特定方向Dに関する特徴値は決定することができない。   Further, depending on the direction D of the specific light vector Lγ, there may be only one of the intersection of the reference straight line R and the first light field Fαr and the intersection of the reference straight line R and the second light field Fβr. . In such a case, the feature value of the third light field Fγr may be determined based on the feature value of the light vector passing through the existing intersection and facing the specific direction D. Note that if neither the intersection of the reference straight line R and the first light field Fαr nor the intersection of the reference straight line R and the second light field Fβr exists, such a characteristic value for the specific direction D is determined. I can't.

なお、前述したような透明度を考慮した合成を行う場合には、光線ベクトルLαに付与されている特徴値と光線ベクトルLβに付与されている特徴値とを所定の割合でブレンドして得られる特徴値を、特定光線ベクトルLγの特徴値とすればよい。   In the case of performing the synthesis considering the transparency as described above, the feature value obtained by blending the feature value given to the light vector Lα and the feature value given to the light vector Lβ at a predetermined ratio. The value may be a feature value of the specific light vector Lγ.

以上、合成面W上の特定点P(xγ,yγ)を通り特定方向Dを向いた特定光線ベクトルLγの特徴値を決定する例を述べたが、特定方向Dを様々に変えて、同じような処理を行えば、特定点P(xγ,yγ)を通るすべての光線ベクトルについての特徴値を決定することができる。また、そのような処理を、合成面W上の閉領域Fγr内の多数の点について行えば、閉領域Fγr内の個々の点を通る個々の光線ベクトルに対して所定の特徴値が付与された第3のライトフィールドの原色R成分のプレーンFγr(x,y,D)を得ることができる。同様の方法により、第3のライトフィールドの原色G成分のプレーンFγg(x,y,D)と原色B成分のプレーンFγb(x,y,D)とを得ることができるので、最終的に、各原色成分のプレーンの集合体である第3のライトフィールドFγ(x,y,D)が得られることになる。これをコンピュータから出力すれば、合成されたライトフィールドとして、様々な用途に利用することができる。   The example in which the characteristic value of the specific light vector Lγ that passes through the specific point P (xγ, yγ) on the composite plane W and faces the specific direction D has been described. If this processing is performed, the feature values for all the light vectors passing through the specific point P (xγ, yγ) can be determined. Further, if such processing is performed for a large number of points in the closed region Fγr on the composite surface W, predetermined feature values are assigned to individual light vectors passing through the individual points in the closed region Fγr. A plane Fγr (x, y, D) of the primary color R component of the third light field can be obtained. By the same method, it is possible to obtain the primary light component G component plane Fγg (x, y, D) and the primary color B component plane Fγb (x, y, D) of the third light field. A third light field Fγ (x, y, D), which is an aggregate of the primary color component planes, is obtained. If this is output from a computer, it can be used for various purposes as a synthesized light field.

以上、図19を参照しながら、原色R成分に関して、第1のライトフィールドFαrと第2のライトフィールドFβrとを合成して、第3のライトフィールドFγrを作成する基本原理を述べたが、実際には、各ライトフィールドは、有限の面積をもった閉領域内に配置された有限個の点について、それぞれ有限通りの向きの光線ベクトルを定義し、各光線ベクトルに所定の特徴値(画素値)を付与した情報として与えられる。別言すれば、個々のライトフィールド上の各点Pは、実際には、微小面積をもって配列された画素の代表点として定義されることになり、画素配列のピッチに応じた位置に離散的に配置された点になる。このため、各ライトフィールドは、実際には、微小面積をもった画素の配列として取り扱う必要がある。   As described above, the basic principle of creating the third light field Fγr by combining the first light field Fαr and the second light field Fβr with respect to the primary color R component has been described. Each light field defines a light vector of a finite number of directions for a finite number of points arranged in a closed region having a finite area, and each light vector has a predetermined feature value (pixel value). ) Is given as information. In other words, each point P on each light field is actually defined as a representative point of pixels arranged with a small area, and discretely at positions corresponding to the pitch of the pixel arrangement. It will be a placed point. For this reason, each light field actually needs to be handled as an array of pixels having a very small area.

図20は、このような画素の概念を取り入れたライトフィールドの合成方法の具体的な手法を示す斜視図である。図示のとおり、原色R成分に関する第1〜第3のライトフィールドFαr,Fβr,Fγrは、それぞれがXY二次元座標平面上に配列された所定面積をもつ多数の画素のそれぞれについて、当該画素の代表点P(たとえば、画素を構成する微小領域の中心点)を通る複数本の光線ベクトルの各特徴値を画素値としてもつ画像データを構成している。   FIG. 20 is a perspective view showing a specific method of a light field composition method incorporating such a pixel concept. As shown in the figure, the first to third light fields Fαr, Fβr, and Fγr related to the primary color R component are representative of each of a large number of pixels each having a predetermined area arranged on an XY two-dimensional coordinate plane. Image data having each feature value of a plurality of ray vectors passing through a point P (for example, the center point of a minute region constituting the pixel) as a pixel value is configured.

したがって、ライトフィールド合成段階では、第3のライトフィールドFγrを構成する個々の画素Gγr(代表点はP(xγ,yγ))の画素値を、参照直線Rと第1のライトフィールドFαrとの交点P(xα,yα)を含む第1のライトフィールドFαr上の画素Gαrの画素値および参照直線Rと第2のライトフィールドFβrとの交点P(xβ,yβ)を含む第2のライトフィールドFβr上の画素Gβrの画素値の少なくとも一方に基づいて決定するようにすればよい。   Therefore, in the light field synthesis stage, the pixel values of the individual pixels Gγr (representative points are P (xγ, yγ)) constituting the third light field Fγr are used as the intersections of the reference straight line R and the first light field Fαr. On the second light field Fβr including the pixel value of the pixel Gαr on the first light field Fαr including P (xα, yα) and the intersection P (xβ, yβ) between the reference straight line R and the second light field Fβr It may be determined based on at least one of the pixel values of the pixel Gβr.

ここで、参照直線Rは、画素Gγrの代表点P(xγ,yγ)を通り、特定方向Dを向いた特定光線ベクトルLγを含む直線として定義され、参照直線Rと第1のライトフィールドFαrとの交点として点P(xα,yα)が定義され、参照直線Rと第2のライトフィールドFβrとの交点として点P(xβ,yβ)が定義されることになる。もちろん、交点P(xα,yα)は必ずしも画素Gαrの代表点とは限らず、交点P(xα,yα)の位置に光線ベクトルLαが定義されているとは限らない。同様に、交点P(xβ,yβ)は必ずしも画素Gβrの代表点とは限らず、交点P(xβ,yβ)の位置に光線ベクトルLβが定義されているとは限らない。ただ、画素Gαrは、交点P(xα,yα)を微小領域内のいずれかの位置に含む画素として抽出され、画素Gβrは、交点P(xβ,yβ)を微小領域内のいずれかの位置に含む画素として抽出されるので、図示されている光線ベクトルLαやLβが、参照直線Rから若干ずれた位置(画素を構成する微小領域の範囲内でのずれを生じた位置)に定義されているベクトルであっても、これらのベクトルに付与された特徴量(画素値)が支障なく抽出されるので、何ら問題は生じない。   Here, the reference straight line R is defined as a straight line that includes the specific light vector Lγ that passes through the representative point P (xγ, yγ) of the pixel Gγr and faces the specific direction D. The reference straight line R and the first light field Fαr A point P (xα, yα) is defined as the intersection point of and a point P (xβ, yβ) is defined as the intersection point of the reference straight line R and the second light field Fβr. Of course, the intersection point P (xα, yα) is not necessarily the representative point of the pixel Gαr, and the light vector Lα is not always defined at the position of the intersection point P (xα, yα). Similarly, the intersection point P (xβ, yβ) is not necessarily a representative point of the pixel Gβr, and the light vector Lβ is not always defined at the position of the intersection point P (xβ, yβ). However, the pixel Gαr is extracted as a pixel that includes the intersection point P (xα, yα) at any position in the minute region, and the pixel Gβr has the intersection point P (xβ, yβ) at any position in the minute region. The extracted light vectors Lα and Lβ are defined at positions slightly deviated from the reference straight line R (positions where deviation occurs within the range of the minute area constituting the pixel). Even if it is a vector, since the feature-value (pixel value) provided to these vectors is extracted without trouble, there is no problem.

なお、図17に多視点画像情報E(β)として例示したとおり、本発明において用いる多視点画像情報を構成するn枚の二次元画像は、同一の共通画像であってもかまわない。したがって、ここで述べたライトフィールドの合成方法においても、第1のライトフィールドFαおよび第2のライトフィールドFβの一方もしくは双方が、同一の点Pを通る光線ベクトルについては、向きDにかかわらず同一の特徴値(画素値)が付与されているライトフィールドであってもかまわない。   Note that, as exemplified in FIG. 17 as the multi-viewpoint image information E (β), the n two-dimensional images constituting the multi-viewpoint image information used in the present invention may be the same common image. Therefore, also in the light field combining method described here, the light vector in which one or both of the first light field Fα and the second light field Fβ pass through the same point P is the same regardless of the direction D. A light field to which a feature value (pixel value) is assigned may be used.

10:画像情報格納部
20:合成条件格納部
30:画像合成部
40:合成画像格納部
A:撮影始点
B:撮影終点
D:方向ベクトル/光線ベクトルの向き
D′:方向ベクトルの投影像
D1〜D5:観察方向
E:多視点画像情報
E(α):被写体αについての多視点画像情報
E(β):被写体βについての多視点画像情報
E(γ):被写体α,βについて合成された多視点画像情報
F:ライトフィールド
Fα(x,y,D):第1のライトフィールド
Fαr(x,y,D):第1のライトフィールドの原色Rプレーン
Fαg(x,y,D):第1のライトフィールドの原色Gプレーン
Fαb(x,y,D):第1のライトフィールドの原色Bプレーン
Fβ(x,y,D):第2のライトフィールド
Fβr(x,y,D):第2のライトフィールドの原色Rプレーン
Fβg(x,y,D):第2のライトフィールドの原色Gプレーン
Fβb(x,y,D):第2のライトフィールドの原色Bプレーン
Fγ(x,y,D):第3のライトフィールド
Fγr(x,y,D):第3のライトフィールドの原色Rプレーン
Fγg(x,y,D):第3のライトフィールドの原色Gプレーン
Fγb(x,y,D):第3のライトフィールドの原色Bプレーン
G1〜G4:画素
Gαr,Gβr,Gγr:画素
Ka〜Kx:区画
L:レンチキュラーレンズ
L,Lα,Lβ,Lγ:光線ベクトル
M:記録媒体
O:座標系の原点
P1〜P70:二次元画像(平行投影画像)
P1a〜P5f:部分画像
P11a〜P35a:部分画像
P(x,y):ライトフィールド上の1点
P(xα,yα),P(xβ,yβ),P(xγ,yγ):ライトフィールド上の1点
Pα1〜Pα5:被写体αについての二次元画像(平行投影画像)
Pβ1〜Pβ5:被写体βについての二次元画像(平行投影画像)
Pγ1〜Pγ5:被写体α,βについて合成された二次元画像(平行投影画像)
Q:基準点
R:参照直線
S:投影面
S1〜S16:流れ図の各ステップ
T:撮影経路
T(i):第i番目の撮影ポイント
U1〜U1000:実写撮影画像
V1〜V5:視点
W:合成面
X,Y,Z:座標軸
x,y:座標値
Zα,Zβ:奥行値
α,α1,α2:被写体
β:被写体
θ:仰角
φ:方位角
10: Image information storage unit 20: Composition condition storage unit 30: Image composition unit 40: Composite image storage unit A: Shooting start point B: Shooting end point D: Direction vector / ray beam vector direction D ′: Direction vector projection image D1 D5: Observation direction E: Multi-viewpoint image information E (α): Multi-viewpoint image information for subject α E (β): Multi-viewpoint image information for subject β E (γ): Multi-synthesized for subjects α and β Viewpoint image information F: light field Fα (x, y, D): first light field Fαr (x, y, D): primary color R plane Fαg (x, y, D) of the first light field: first Light field primary color G plane Fαb (x, y, D): first light field primary color B plane Fβ (x, y, D): second light field Fβr (x, y, D): second Light field primary color R Lane Fβg (x, y, D): second light field primary color G plane Fβb (x, y, D): second light field primary color B plane Fγ (x, y, D): third light Field Fγr (x, y, D): primary color R plane Fγg (x, y, D) of the third light field: primary color G plane Fγb (x, y, D) of the third light field: third light Field primary colors B-plane G1-G4: Pixels Gαr, Gβr, Gγr: Pixels Ka-Kx: Section L: Lenticular lenses L, Lα, Lβ, Lγ: Ray vector M: Recording medium O: Origins P1-P70 of the coordinate system Two-dimensional image (parallel projection image)
P1a to P5f: Partial images P11a to P35a: Partial images P (x, y): One point P (xα, yα), P (xβ, yβ), P (xγ, yγ) on the light field 1 point Pα1 to Pα5: two-dimensional image (parallel projection image) of the subject α
Pβ1 to Pβ5: Two-dimensional images (parallel projection images) about the subject β
Pγ1 to Pγ5: two-dimensional images (parallel projection images) synthesized for the subjects α and β
Q: Reference point R: Reference straight line S: Projection planes S1 to S16: Steps T in the flowchart: Shooting path T (i): i-th shooting points U1 to U1000: Live-shot shot images V1 to V5: Viewpoint W: Composition Surface X, Y, Z: coordinate axes x, y: coordinate values Zα, Zβ: depth values α, α1, α2: subject β: subject θ: elevation angle φ: azimuth angle

Claims (6)

複数の点Pが配置された平面であって、個々の点Pのそれぞれには、当該点Pを通り互いに異なる方向を向いた複数本の光線ベクトルLが定義され、個々の光線ベクトルLについてそれぞれ特定の特徴値が付与されている平面として定義されるライトフィールドを合成する方法であって、
コンピュータが、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第1のライトフィールドFα(x,y,D)および第2のライトフィールドFβ(x,y,D)を入力するライトフィールド入力段階と、
コンピュータが、前記第1のライトフィールドと前記第2のライトフィールドとを合成するための合成条件を設定する合成条件設定段階と、
コンピュータが、前記第1のライトフィールドFα(x,y,D)と前記第2のライトフィールドFβ(x,y,D)とを合成して、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第3のライトフィールドFγ(x,y,D)を作成するライトフィールド合成段階と、
コンピュータが、前記ライトフィールド合成段階で得られた前記第3のライトフィールドFγ(x,y,D)を出力するライトフィールド出力段階と、
を有し、
前記合成条件には、所定の合成面Wに対して平行になるように、前記第1のライトフィールドおよび前記第2のライトフィールドを所定位置に配置するための配置条件が含まれており、
前記ライトフィールド合成段階では、前記配置条件に基づいて、前記第1のライトフィールドおよび前記第2のライトフィールドを配置し、前記合成面W上の特定点Pを通り特定方向Dを向いた特定光線ベクトルの特徴値を、当該特定光線ベクトルを含む参照直線と前記第1のライトフィールドとの交点を通り前記特定方向Dを向いた光線ベクトルの特徴値および前記参照直線と前記第2のライトフィールドとの交点を通り前記特定方向Dを向いた光線ベクトルの特徴値の少なくとも一方に基づいて決定し、個々の点を通る個々の光線ベクトルに対して所定の特徴値が付与された前記合成面Wを第3のライトフィールドFγ(x,y,D)とすることを特徴とするライトフィールドの合成方法。
A plane in which a plurality of points P are arranged, and each of the individual points P is defined with a plurality of ray vectors L passing through the point P and facing in different directions. A method of synthesizing a light field defined as a plane with a specific feature value,
The first light field Fα in which the computer indicates individual feature values by a function having the coordinate value (x, y) of the point P on the XY two-dimensional coordinate plane and the direction D of the ray vector L passing through the point P as variables. A light field input stage for inputting (x, y, D) and a second light field Fβ (x, y, D);
A synthesis condition setting step in which a computer sets a synthesis condition for synthesizing the first light field and the second light field;
A computer synthesizes the first light field Fα (x, y, D) and the second light field Fβ (x, y, D) to obtain the coordinate value of the point P on the XY two-dimensional coordinate plane. A light field synthesis stage for generating a third light field Fγ (x, y, D) indicating individual feature values by a function having (x, y) and the direction D of the light vector L passing through the point P as a variable; ,
A light field output stage in which a computer outputs the third light field Fγ (x, y, D) obtained in the light field synthesis stage;
Have
The composition condition includes an arrangement condition for arranging the first light field and the second light field at a predetermined position so as to be parallel to a predetermined composition surface W.
In the light field combining step, the first light field and the second light field are arranged based on the arrangement condition, and the specific light beam that passes through the specific point P on the composite plane W and faces the specific direction D. The feature value of the vector is the feature value of the light vector that faces the specific direction D through the intersection of the reference straight line including the specific light vector and the first light field, and the reference straight line and the second light field. The composite plane W is determined on the basis of at least one of the feature values of the ray vectors passing through the intersections and directed in the specific direction D, and a predetermined feature value is given to each ray vector passing through each point. A light field composition method, wherein the third light field Fγ (x, y, D) is used.
請求項1に記載のライトフィールドの合成方法において、
ライトフィールド合成段階で、
参照直線と第1のライトフィールドとの交点および参照直線と第2のライトフィールドとの交点のいずれか一方のみが存在する場合には、当該存在する交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドの特徴値を決定し、
参照直線と第1のライトフィールドとの交点および参照直線と第2のライトフィールドとの交点の双方が存在する場合には、配置条件に基づいて選択されたいずれか一方の交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドの特徴値を決定することを特徴とするライトフィールドの合成方法。
The light field synthesis method according to claim 1 ,
In the light field synthesis stage,
If only one of the intersection between the reference line and the first light field and the intersection between the reference line and the second light field exists, the ray vector of the light vector directed through the existing intersection and pointing in the specific direction D Determining the feature value of the third light field based on the feature value;
When both the intersection of the reference line and the first light field and the intersection of the reference line and the second light field exist, the specific direction D passes through one of the intersections selected based on the arrangement condition. A light field composition method, comprising: determining a feature value of a third light field based on a feature value of a ray vector facing the light.
請求項1または2に記載のライトフィールドの合成方法において、
第1〜第3のライトフィールドが、XY二次元座標平面上に配列された所定面積をもつ多数の画素のそれぞれについて、当該画素の代表点Pを通る複数本の光線ベクトルの各特徴値を画素値としてもつ画像データを構成しており、
ライトフィールド合成段階では、第3のライトフィールドを構成する個々の画素の画素値を、参照直線と第1のライトフィールドとの交点を含む第1のライトフィールド上の画素の画素値および参照直線と第2のライトフィールドとの交点を含む第2のライトフィールド上の画素の画素値の少なくとも一方に基づいて決定することを特徴とするライトフィールドの合成方法。
The light field synthesis method according to claim 1 or 2 ,
For each of a large number of pixels having a predetermined area arranged on the XY two-dimensional coordinate plane, the first to third light fields are pixel feature values of a plurality of ray vectors passing through the representative point P of the pixel. Consists of image data as values,
In the light field synthesis stage, the pixel values of the individual pixels constituting the third light field are set to the pixel values of the pixels on the first light field including the intersection of the reference line and the first light field, and the reference line. A light field composition method, comprising: determining based on at least one of pixel values of a pixel on a second light field including an intersection with the second light field.
請求項1〜3のいずれかに記載のライトフィールドの合成方法において、
個々の光線ベクトルに付与する特徴値として、三原色R,G,Bの画素値の組み合わせを用い、
第1のライトフィールドを、原色R成分Fαr(x,y,D)と原色G成分Fαg(x,y,D)と原色B成分Fαb(x,y,D)との組み合わせによって構成し、
第2のライトフィールドを、原色R成分Fβr(x,y,D)と原色G成分Fβg(x,y,D)と原色B成分Fβb(x,y,D)との組み合わせによって構成し、
第3のライトフィールドを、原色R成分Fγr(x,y,D)と原色G成分Fγg(x,y,D)と原色B成分Fγb(x,y,D)との組み合わせによって構成し、
ライトフィールド合成段階では、個々の原色成分ごとに独立して特徴値の決定を行うことを特徴とするライトフィールドの合成方法。
The light field synthesis method according to any one of claims 1 to 3 ,
A combination of pixel values of the three primary colors R, G, and B is used as a feature value to be assigned to each light vector.
The first light field is configured by a combination of a primary color R component Fαr (x, y, D), a primary color G component Fαg (x, y, D), and a primary color B component Fαb (x, y, D),
The second light field is configured by a combination of a primary color R component Fβr (x, y, D), a primary color G component Fβg (x, y, D), and a primary color B component Fβb (x, y, D),
The third light field is configured by a combination of a primary color R component Fγr (x, y, D), a primary color G component Fγg (x, y, D), and a primary color B component Fγb (x, y, D),
A light field composition method, wherein, in the light field composition stage, feature values are determined independently for each primary color component.
請求項1〜4のいずれかに記載のライトフィールドの合成方法において、
第1のライトフィールドおよび第2のライトフィールドの少なくとも一方が、同一の点Pを通る光線ベクトルについては、向きDにかかわらず同一の特徴値が付与されているライトフィールドであることを特徴とするライトフィールドの合成方法。
In the light field synthesis method according to any one of claims 1 to 4 ,
At least one of the first light field and the second light field is a light field to which the same feature value is given regardless of the direction D with respect to a ray vector passing through the same point P. Light field composition method.
請求項1〜5のいずれかに記載のライトフィールドの合成方法をコンピュータに実行させるプログラム。 A program for causing a computer to execute the light field synthesis method according to claim 1 .
JP2016089208A 2016-04-27 2016-04-27 Light field composition method Active JP6115676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016089208A JP6115676B2 (en) 2016-04-27 2016-04-27 Light field composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016089208A JP6115676B2 (en) 2016-04-27 2016-04-27 Light field composition method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012111461A Division JP2013238716A (en) 2012-05-15 2012-05-15 Method for synthesizing multi-visual point image information

Publications (2)

Publication Number Publication Date
JP2016178658A true JP2016178658A (en) 2016-10-06
JP6115676B2 JP6115676B2 (en) 2017-04-19

Family

ID=57071441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016089208A Active JP6115676B2 (en) 2016-04-27 2016-04-27 Light field composition method

Country Status (1)

Country Link
JP (1) JP6115676B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08297749A (en) * 1995-02-28 1996-11-12 Hitachi Ltd Method and device for shading
JP2006126965A (en) * 2004-10-26 2006-05-18 Sharp Corp Composite video generation system, method, program and recording medium
JP2006229725A (en) * 2005-02-18 2006-08-31 Konica Minolta Photo Imaging Inc Image generation system and image generating method
JP2009530661A (en) * 2006-03-15 2009-08-27 ゼブラ・イメージング・インコーポレイテッド Dynamic autostereoscopic display
JP2010152770A (en) * 2008-12-26 2010-07-08 Kddi Corp Image processor, method and program
JP2012003520A (en) * 2010-06-17 2012-01-05 Dainippon Printing Co Ltd Three-dimensional printed matter production support device, plug-in program, three-dimensional printed matter production method, and three-dimensional printed matter

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08297749A (en) * 1995-02-28 1996-11-12 Hitachi Ltd Method and device for shading
JP2006126965A (en) * 2004-10-26 2006-05-18 Sharp Corp Composite video generation system, method, program and recording medium
JP2006229725A (en) * 2005-02-18 2006-08-31 Konica Minolta Photo Imaging Inc Image generation system and image generating method
JP2009530661A (en) * 2006-03-15 2009-08-27 ゼブラ・イメージング・インコーポレイテッド Dynamic autostereoscopic display
JP2010152770A (en) * 2008-12-26 2010-07-08 Kddi Corp Image processor, method and program
JP2012003520A (en) * 2010-06-17 2012-01-05 Dainippon Printing Co Ltd Three-dimensional printed matter production support device, plug-in program, three-dimensional printed matter production method, and three-dimensional printed matter

Also Published As

Publication number Publication date
JP6115676B2 (en) 2017-04-19

Similar Documents

Publication Publication Date Title
EP1143747B1 (en) Processing of images for autostereoscopic display
JP3944188B2 (en) Stereo image display method, stereo image imaging method, and stereo image display apparatus
US20200358996A1 (en) Real-time aliasing rendering method for 3d vr video and virtual three-dimensional scene
JP4714116B2 (en) 3D image display apparatus and 3D image display method
JP4489610B2 (en) Stereoscopic display device and method
JP2003209858A (en) Stereoscopic image generating method and recording medium
CN103562963A (en) Systems and methods for alignment, calibration and rendering for an angular slice true-3D display
US5949420A (en) Process for producing spatially effective images
JP2006115198A (en) Stereoscopic image generating program, stereoscopic image generating system, and stereoscopic image generating method
JP2006515128A (en) Stereo panoramic image capturing device
JP2006162945A (en) Stereoscopic display apparatus
WO2012140397A2 (en) Three-dimensional display system
CN102404598A (en) Image generation system and method for stereoscopic 3D display
JP6717576B2 (en) Video rendering apparatus and method
JP2013238716A (en) Method for synthesizing multi-visual point image information
JP2006285482A (en) Device for correcting image geometry
JP2006163547A (en) Program, system and apparatus for solid image generation
JP5624383B2 (en) Video signal processing device, virtual reality generation system
JP5249733B2 (en) Video signal processing device
JP6115676B2 (en) Light field composition method
JP2013003396A (en) Presenting method for three-dimensional image
JP4267364B2 (en) Stereoscopic image processing method
Date et al. Luminance profile control method using gradation iris for autostereoscopic 3D displays
JP4393496B2 (en) 3D image display device
JP4119409B2 (en) 3D image display apparatus, 3D image display method, and 3D display image data generation method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170306

R150 Certificate of patent or registration of utility model

Ref document number: 6115676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150