JP2003209858A - Stereoscopic image generating method and recording medium - Google Patents

Stereoscopic image generating method and recording medium

Info

Publication number
JP2003209858A
JP2003209858A JP2002008484A JP2002008484A JP2003209858A JP 2003209858 A JP2003209858 A JP 2003209858A JP 2002008484 A JP2002008484 A JP 2002008484A JP 2002008484 A JP2002008484 A JP 2002008484A JP 2003209858 A JP2003209858 A JP 2003209858A
Authority
JP
Japan
Prior art keywords
image
parallax
value
viewpoint
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002008484A
Other languages
Japanese (ja)
Inventor
Hidetoshi Tsubaki
秀敏 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002008484A priority Critical patent/JP2003209858A/en
Publication of JP2003209858A publication Critical patent/JP2003209858A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for generating an easy to see stereoscopic image. <P>SOLUTION: In a virtual view point image generation for generating a stereoscopic image, adjusting the depth or the parallax adjusts the parallax between generated virtual view point images. A particular range in the image is selected by using various segmentation methods and entry using a GUI from a user even in the case of input parallax image resulting from photographing a complicated scene, and adjusting only the parallax or the depth in the particular area eliminates the need for revising the parallax or the depth of pixels in an unexpected area. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、シーン又は被写体
の立体画像を生成する画像処理方法に関し、見やすい立
体画像を生成する方法、及び、この画像処理方法を備え
た立体写真プリントシステム等に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method for generating a stereoscopic image of a scene or an object, a method for generating a stereoscopic image that is easy to see, and a stereoscopic photographic printing system provided with this image processing method.

【0002】[0002]

【従来の技術】従来、立体画像を形成する方法として
は、インテグラルフォトグラフィ(以下IP)やレンチ
キュラ板三次元画像、ホログラフィック・ステレオグラ
ム等の多眼立体視画像が特に知られている(大越孝
敬:’三次元画像工学’,産業図書,1972)。
2. Description of the Related Art Conventionally, as a method of forming a stereoscopic image, multi-view stereoscopic images such as integral photography (hereinafter referred to as IP), lenticular plate three-dimensional image, and holographic stereogram are particularly known ( Takayoshi Ogoshi: "3D image engineering", Industrial Books, 1972).

【0003】このような多眼立体視画像の作成において
は、多視点における画像を必要とし、この多視点画像の
中から構成される多数組の視差のある画像対、つまり、
視差画像対の中から、一対の視差画像対の画像が観察者
の左右眼それぞれで独立して観察されることにより、立
体視を可能にしている。左右眼により観察される視差画
像間の視差量と表示面に対する飛び出し量、沈み込み量
の関係を図2に示す。
In the production of such a multi-view stereoscopic image, images from multiple viewpoints are required, and a large number of pairs of parallax images formed from the multi-view images, that is,
From the parallax image pair, the images of the pair of parallax images are independently observed by the left and right eyes of the observer, thereby enabling stereoscopic viewing. FIG. 2 shows the relationship between the amount of parallax between the parallax images observed by the left and right eyes and the amount of protrusion and depression on the display surface.

【0004】図3において、s10を観察者の右目、s
11を左眼、s12を基線長K、s13をプリント面か
ら視点までの観察距離D、s14を表示面、s15を飛
び出し量Zf、s16を沈み込み量Zbとする。
In FIG. 3, s10 is the right eye of the observer, s
11 left-eye display surface of the observation distance D, s14 to the viewpoint of the base length K, s13 and s12 from the print surface, and the amount Z b sinking the pop-out amount Z f, s16 and s15.

【0005】○は視差のない物体の像、△は視差画像間
で視差量を持つ物体でありそれぞれの視差画像中で、ず
れた位置に位置し、Rは選択的に右目s10に入射する
像、Lは左眼s11に入射する像であるとする。
◯ is an image of an object having no parallax, Δ is an object having a parallax amount between parallax images, which is located at a shifted position in each parallax image, and R is an image selectively incident on the right eye s10. , L are images incident on the left eye s11.

【0006】両目により、像が一点となる点は視差の視
差0点位置よりも手前になることから、プリント面から
視点までの観察距離をDとおき、プリント面上での視差
量をxf、飛び出し量s15をZfとすると、
Since the point where the image becomes one point by both eyes is in front of the parallax 0 point position of the parallax, the observation distance from the print surface to the viewpoint is set as D, and the parallax amount on the print surface is x f. , And the protrusion amount s15 is Z f ,

【0007】[0007]

【数1】 [Equation 1]

【0008】となる。また、左眼に(L)、右眼に
(R)の像が入ってきた場合、その像が一点となる位置
はプリント面よりも奥側になり、プリント面上での視差
量をxf、、沈み込み量s16をZbとすると、
[0008] Further, when the image of (L) enters the left eye and the image of (R) enters the right eye, the position where the image becomes one point is behind the print surface, and the amount of parallax on the print surface is x f. ,, and the subduction amount s16 is Z b ,

【0009】[0009]

【数2】 [Equation 2]

【0010】であることが分かる。つまり、3Dプリン
トにおける、両眼視差に起因する物理的な飛び出し量、
及び沈み込み量は、単にプリント面における視差画像間
の被写体のずれ量(視差量)によって決まる。プリント
面上での視差画像対間の視差量(ずれ量)と画像データ
中での視差画像対間の視差値(画素ずれ量)との関係
は、視差画像のプリント面上での表示サイズ(拡大率)
と、データ−サイズ(画素数)、観察距離、基線長等の
幾何学的な関係から容易に変換できる。
It can be seen that That is, in 3D printing, the physical pop-out amount due to binocular parallax,
The amount of subsidence and the amount of subduction are simply determined by the amount of displacement (parallax amount) of the subject between the parallax images on the print surface. The relationship between the parallax amount (deviation amount) between the parallax image pairs on the print surface and the parallax value (pixel deviation amount) between the parallax image pairs in the image data depends on the display size of the parallax image on the print surface ( Expansion rate)
, And data-size (number of pixels), observation distance, baseline length, and other geometrical relationships can be easily converted.

【0011】従来では多視点画像取得のために、多眼カ
メラや特殊な三脚を必要とし、これら多眼カメラや特殊
な三脚を利用する手法においては、撮影時の撮影カメラ
群及び、被写体の位置関係により、立体感、つまり飛び
出し量、沈み込み量が決まってしまっていた。従って、
撮影時における、立体画像の設計が重要であった。
Conventionally, a multi-lens camera and a special tripod are required to acquire a multi-viewpoint image. In the method using these multi-lens cameras and a special tripod, the photographing camera group and the position of the subject at the time of photographing Due to the relationship, the three-dimensional effect, that is, the amount of protrusion and the amount of depression is determined. Therefore,
The design of stereoscopic images at the time of shooting was important.

【0012】立体画像撮影における、立体画像設計の指
針としては、最大飛び出し量と最大沈み込み量がある
最大視差範囲内に収まるように撮影カメラの基線長を調
整する。カメラの注視点位置(視差0位置)を主被写
体上に設定する様にカメラの輻輳角を調整する。ことが
考えられる。
As a guideline for designing a stereoscopic image in capturing a stereoscopic image, the baseline length of the photographing camera is adjusted so that the maximum protrusion amount and the maximum depression amount are within a maximum parallax range. The convergence angle of the camera is adjusted so that the gazing point position (parallax 0 position) of the camera is set on the main subject. It is possible.

【0013】まず、における最大視差範囲とは、人体
の視覚機能に起因する融像可能範囲や、最適視点位置を
外れた場合のクロストークにより感じる画像のボケが、
観察者の感じる立体画像の品質を低下を認識させない許
容範囲で決定される許容視差範囲である。
First, the maximum parallax range in is the fusion possible range due to the visual function of the human body and the blurring of the image which is felt due to crosstalk when deviating from the optimum viewpoint position.
This is an allowable parallax range determined by an allowable range that does not cause deterioration in the quality of the stereoscopic image that the observer feels to be recognized.

【0014】融像可能範囲の値として、3D−HDTV
向けの経験的な値が論文で示唆されている(“3D映像
の設計について”,熊田典明,放送技術1992.1
1)が、レンチの形状精度等により、視点位置を限定で
きないレンチキュラプリントなどは、最適視点位置を外
れた場合のクロストークの影響などから、融像可能範囲
により限定されるよりも狭い値域に視差量(飛び出し
量、沈み込み量)を限定したほうが経験的に良い場合も
ある。ここではこの値域の最大値、最小値を最大視差範
囲、最小視差範囲とする。
As a value of the fusion possible range, 3D-HDTV
The empirical value for the is suggested in the paper ("Design of 3D video", Noriaki Kumada, Broadcasting Technology 1992.1
1) However, due to the influence of crosstalk when deviating from the optimum viewpoint position, the lenticular print, etc., in which the viewpoint position cannot be limited due to the shape accuracy of the wrench, etc., has a parallax in a narrower range than the range that can be fused. In some cases, it may be better empirically to limit the amount (protrusion amount, subduction amount). Here, the maximum value and the minimum value of this range are the maximum parallax range and the minimum parallax range.

【0015】また、のカメラの注視点位置を主被写体
上に設定する理由には、目のレンズの焦点位置調整位置
と表示画像の奥行き位置のずれが存在すると、疲労感
や、見にくさを誘発するため、画像の主被写体にあたる
部分の視差量(飛び出し量、沈み込み量)をなるべく小
さくすることにより、疲労感のない、見やすいと感じる
立体画像が経験的に生成できることがある。
The reason for setting the gazing point position of the camera on the main subject is that if there is a difference between the focus position adjustment position of the eye lens and the depth position of the display image, a feeling of fatigue and difficulty in viewing are induced. Therefore, by reducing the amount of parallax (the amount of protrusion and the amount of depression) of the portion corresponding to the main subject of the image as much as possible, it is possible to empirically generate a stereoscopic image that does not feel tired and that is easy to see.

【0016】近年ではコンピュータ技術の発達により、
少数の実写画像を元に仮想視点における画像を生成する
手法が提案されている。
With the recent development of computer technology,
A method of generating an image from a virtual viewpoint based on a small number of photographed images has been proposed.

【0017】実写画像を元に仮想視点画像を生成する方
法の一つに、その仮想視点画像生成過程において被写体
の明示的な三次元幾何形状モデルを生成するModel
Based Rendering法と三次元幾何形状
モデルを生成しないImage Based Rend
ering法がある。
One of the methods for generating a virtual viewpoint image based on a photographed image is a model for generating an explicit three-dimensional geometric model of a subject in the virtual viewpoint image generating process.
Based Rendering Method and Image Based Render without Generating a 3D Geometric Model
There is an ering method.

【0018】Model Based Renderi
ng法はいったん被写体シーンの三次元幾何形状モデル
を取得してしまえば、コンピュータグラフィックスの技
法を用いて任意の視点からの被写体画像を容易に観察す
ることができるようになる。しかし、現実世界の完全な
三次元幾何形状モデルを取得することは非常に困難であ
るため、写実性の高い仮想視点画像を生成することは難
しい。
Model Based Renderi
With the ng method, once a three-dimensional geometric model of a subject scene is acquired, it becomes possible to easily observe a subject image from an arbitrary viewpoint by using a computer graphics technique. However, it is very difficult to obtain a complete three-dimensional geometric model of the real world, so it is difficult to generate a virtual viewpoint image with high realism.

【0019】これに対し、Image Based R
endering法は、撮影された二次元画像を利用す
る手法であるため、写実性の高い仮想視点画像を生成す
ることが可能である。
On the other hand, Image Based R
Since the ending method is a method that uses a captured two-dimensional image, it is possible to generate a virtual viewpoint image with high realism.

【0020】また、その一手法であるview mor
phing(Steven M.Seitz “Vie
w Morphing”,SIGGRAPH,p21−
p31,1996)は、同一対象物を含む画像それぞれ
の視線方向と撮影カメラ間の基線とが垂直で、視線方向
同士が平行になるように画像間で変換を行うことにより
正しい投影幾何関係を実現するため、陽にシーン中の物
体の三次元幾何形状モデルを生成せず、取得画像間のピ
クセルの対応情報、もしくはそれにより算出される奥行
き情報を用いることにより、撮影カメラ視点間を結ぶ直
線上の任意視点の画像生成において、あたかも三次元モ
デルが存在するかのような、歪みの無い滑らかな変化が
得られる任意視点画像を生成する手法である。
In addition, one method is view mor.
phing (Steven M. Seitz "Vie
w Morphing ”, SIGGRAPH, p21-
p31, 1996) realizes a correct projection geometrical relationship by performing conversion between images so that the line-of-sight directions of images including the same object are perpendicular to the baseline between photographing cameras and the line-of-sight directions are parallel to each other. Therefore, by not using the three-dimensional geometric shape model of the object in the scene explicitly, but by using the pixel correspondence information between the acquired images or the depth information calculated by that, on the straight line connecting the viewpoints of the shooting cameras. This is a method of generating an arbitrary viewpoint image in which a smooth change without distortion can be obtained as if a three-dimensional model exists in the image generation of the arbitrary viewpoint.

【0021】写実的な多視点画像を得られるため、多視
点画像により構成される立体画像には高品質なものが得
られるという利点がある。
Since a realistic multi-viewpoint image can be obtained, there is an advantage that a high-quality stereoscopic image composed of the multi-viewpoint image can be obtained.

【0022】これらコンピュータ技術を利用して、少数
の実写画像を元に仮想視点における画像を生成する手法
においては、入力視差画像を撮影した後でも、多数の仮
想視点画像からなる多視点画像間の立体感を調整するこ
とが容易であるという利点がある。
In the method of generating an image at a virtual viewpoint based on a small number of photographed images by using these computer technologies, even after capturing an input parallax image, multi-viewpoint images composed of a large number of virtual viewpoint images are displayed. There is an advantage that it is easy to adjust the stereoscopic effect.

【0023】例えば、Model Based Ren
dering法は被写体シーンの三次元幾何形状モデル
を取得するため、コンピュータグラフィックスの技法を
用いて任意の視点からの被写体画像を容易に観察するこ
とができるのはもちろん、シーン内の物体の位置関係を
容易に変更することができるため、シーン内の個々の物
体の前後方向への移動(表示面からの浮き出し量、沈み
込み量の調整に相当)など、シーンのカスタマイズが容
易ではある。
For example, Model Based Ren
Since the dering method acquires a three-dimensional geometric model of the subject scene, it is possible to easily observe the subject image from any viewpoint using the technique of computer graphics, as well as the positional relationship of objects in the scene. Can be easily changed, so that it is easy to customize the scene such as moving the individual objects in the scene in the front-rear direction (corresponding to the adjustment of the protrusion amount and the depression amount from the display surface).

【0024】しかし実際は、現実世界の完全な三次元幾
何形状モデルを取得することは非常に困難であるため、
写実性の高い仮想視点画像を生成することは難しく、さ
らにその上、シーン内の個々の物体について、それぞれ
の三次元幾何形状モデルを取得し、シーンのカスタマイ
ズを行い、シーン内の個々の物体についての表示面から
の飛び出し量、沈み込み量の調整を行うことは、さらに
困難なことである。
However, in reality, it is very difficult to obtain a complete three-dimensional geometric model of the real world.
It is difficult to generate a virtual viewpoint image with high realism. Furthermore, for each object in the scene, we obtain a 3D geometric model of each object, customize the scene, and It is even more difficult to adjust the amount of protrusion and the amount of depression from the display surface.

【0025】一方、近年の仮想視点画像を生成する手法
において、View Morphingを用いた手法で
は、撮影カメラ視点間を結ぶ直線上の任意視点からの被
写体画像を容易に観察することは可能であるが、陽にシ
ーン中の物体の三次元幾何形状モデルを生成せず、当然
シーン内の個々の物体の三次元幾何形状モデルを持たな
いため、シーンのカスタマイズを行い、シーン内の個々
の物体についての表示面からの飛び出し量、沈み込み量
の調整を行うことは困難であった。
On the other hand, in the recent method of generating virtual viewpoint images, the method using View Morphing makes it possible to easily observe a subject image from an arbitrary viewpoint on a straight line connecting the viewpoints of the photographing cameras. , It does not explicitly generate 3D geometric models of objects in the scene, and naturally does not have 3D geometric models of individual objects in the scene. It was difficult to adjust the amount of protrusion and the amount of depression from the display surface.

【0026】そのため、前記立体画像設計指針のと
に相当する条件、最大飛び出し量と最大沈み込み量が
ある最大視差範囲内に収めつつ、有効に使う視点を取
る。画像内の主被写体位置の視差をできるだけ0にす
る。を同時に有効に満たすことは難しく、最大限に強い
立体感を生じさせつつ、見やすい立体画像を作成するこ
とは本手法においては困難であった。
For this reason, a viewpoint corresponding to the conditions of the stereoscopic image design guideline, the maximum pop-out amount and the maximum subsidence amount are within the maximum parallax range, and the viewpoint is effectively used. The parallax of the main subject position in the image is set to 0 as much as possible. It is difficult to satisfy both of these conditions effectively at the same time, and it is difficult for this method to create a stereoscopic image that is easy to see while producing a strong stereoscopic effect.

【0027】つまり、陽にシーン中の物体の三次元幾何
形状モデルを取得せずに、写実的な多視点画像を取得で
きる、View Morphing手法の利点を生かし
つつ、前記多視点画像により構成される立体画像の立体
感を疲労感のない、見やすい状態に調整することは困難
であった。
That is, the multi-view image is used while taking advantage of the View Morphing method capable of acquiring a realistic multi-view image without explicitly acquiring the three-dimensional geometric shape model of the object in the scene. It has been difficult to adjust the stereoscopic effect of the stereoscopic image to a state in which it is easy to see without fatigue.

【0028】[0028]

【発明が解決しようとする課題】立体画像の飛び出し
量、沈み込み量調整を行い、表示時に、強い立体感を感
じさせながら、最適視点位置を外れた場合でも目が疲れ
にくい、違和感の少ない立体表示を容易に実現する立体
画像生成方法を提供すること。
[Problem to be Solved by the Invention] By adjusting the pop-out amount and the sinking amount of a stereoscopic image and making the viewer feel a strong stereoscopic effect at the time of display, the stereoscopic image is less likely to be tired even if the user deviates from the optimum viewpoint position, and the stereoscopic image is less discomforting. To provide a stereoscopic image generation method for easily realizing display.

【0029】立体画像の飛び出し量、沈み込み量調整を
行い、複雑なシーンを撮影した入力視差画像に対して
も、期待しない画像領域を歪ませることなく、表示時
に、強い立体感を感じさせながら、最適視点位置を外れ
た場合でも目が疲れにくい、違和感の少ない立体表示を
容易に実現する、立体画像生成方法を提供すること。
By adjusting the pop-out amount and the subduction amount of the stereoscopic image, even with respect to the input parallax image in which a complicated scene is photographed, a strong stereoscopic effect is felt at the time of display without distorting an unexpected image region. To provide a stereoscopic image generation method that easily realizes stereoscopic display with less discomfort even if the eyes are out of the optimum viewpoint position.

【0030】[0030]

【課題を解決するための手段】立体画像生成のための仮
想視点画像生成において、奥行き量または視差値の調整
を行うことにより、生成する仮想視点画像間の視差を調
整する。
In generating a virtual viewpoint image for generating a stereoscopic image, a parallax between virtual viewpoint images to be generated is adjusted by adjusting a depth amount or a parallax value.

【0031】複雑なシーンを撮影した入力視差画像に対
しても、各種セグメンテーション手法、ユーザからのG
UIを利用した入力を用いて画像内の特定範囲を選定
し、その特定領域の視差値、もしくは奥行き量のみを調
整することにより、期待しない領域の画素の視差値、も
しくは奥行き量を変更しないようにする。
Even for input parallax images of complicated scenes, various segmentation methods and G
Do not change the parallax value or the depth amount of the pixel of the unexpected area by selecting the specific range in the image using the input using the UI and adjusting only the parallax value or the depth amount of the specific region. To

【0032】[0032]

【発明の実施の形態】(第1の実施例)本実施例は、2
つの視点で撮影した入力視差画像の視点間を結ぶ直線
上、若しくはその延長線上の仮想視点における仮想視点
画像を生成し、前記入力視差画像のうち、基準画像とし
て選択したどちらか片方の入力画像及び前記仮想視点画
像、もしくは仮想視点画像のみから構成される、立体画
像を作成するために用いる多視点画像を取得し、立体画
像を合成する立体画像作成方法において、仮想視点画像
生成を行う前に、入力視差画像自体もしくは他の距離画
像獲得手段から得られた仮想視点画像生成におけるワー
プ量の指標となる、奥行き画像もしくは視差値分布画像
の値を調整することにより、立体画像における立体感を
提示する多視点画像間の視差量を調整し、観察しやすい
立体画像を生成する、本発明を用いた画像生成方法であ
る。
BEST MODE FOR CARRYING OUT THE INVENTION (First Embodiment)
On a straight line connecting the viewpoints of the input parallax images captured from one viewpoint, or a virtual viewpoint image at a virtual viewpoint on the extension line, and one of the input images selected as the reference image among the input parallax images, and In the stereoscopic image creating method of acquiring a multi-viewpoint image used for creating a stereoscopic image, which is composed of only the virtual viewpoint image or the virtual viewpoint image, and before performing the virtual viewpoint image generation in the stereoscopic image creating method of combining the stereoscopic images, The stereoscopic effect in the stereoscopic image is presented by adjusting the value of the depth image or the parallax value distribution image, which is an index of the warp amount in the virtual viewpoint image generation obtained from the input parallax image itself or other distance image acquisition means. It is an image generation method using the present invention for adjusting a parallax amount between multi-viewpoint images and generating a stereoscopic image that is easy to observe.

【0033】本実施例における仮想視点画像生成方法、
及び立体画像生成方法は特許願4241004の画像処
理装置、立体写真プリントシステム、画像処理方法、立
体プリント方法及び処理プログラムを記録した媒体の一
部を基本とした仮想視点画像生成方法、及び立体画像生
成方法である。
A virtual viewpoint image generation method in this embodiment,
And the stereoscopic image generation method are the image processing device, stereoscopic photo print system, image processing method, virtual viewpoint image generation method and stereoscopic image generation based on a part of a medium recording the stereoscopic printing method and the processing program of Japanese Patent Application No. 4241004. Is the way.

【0034】本発明を用いた第1の実施例の立体画像生
成方法のアルゴリズムを図1に示す。図においてs1は
画像データ取得部、s2は対応点抽出部、s3は視差分
布画像作成部、s4は画像生成パラメータ取得部、s5
は奥行き感調整部、s6は仮想視点画像シーケンス生成
部、s7は三次元ストライプ画像生成部、s6は印刷部
である。
FIG. 1 shows the algorithm of the stereoscopic image generation method of the first embodiment using the present invention. In the figure, s1 is an image data acquisition unit, s2 is a corresponding point extraction unit, s3 is a parallax distribution image creation unit, s4 is an image generation parameter acquisition unit, and s5.
Is a depth feeling adjusting unit, s6 is a virtual viewpoint image sequence generating unit, s7 is a three-dimensional stripe image generating unit, and s6 is a printing unit.

【0035】本発明は汎用のPC上、もしくは画像処理
専用ワークステーション上で動作する画像処理プログラ
ムであり、もしくは画像処理機能を含むハードに組み込
むこともできる。
The present invention is an image processing program which operates on a general-purpose PC or a workstation dedicated to image processing, or can be incorporated in hardware having an image processing function.

【0036】以下で上記構成の動作について説明する。
s1のデータ取得部では、撮影した2つの画像データを
取り込む。撮影は撮像面の水平方向に沿ってほぼ平行に
取り付けられた2つのデジタルカメラによって行われ
る。又は、2つのデジタルカメラは主被写体物を注視点
に置いて輻輳をつけて撮影してもよい。又は、複数のデ
ジタルカメラからなるカメラ配列から、任意に2つのカ
メラを選択しても良い。又は、2つ以上の光学系および
撮像系を1つの筐体内に持ち、同時に多視点の画像を撮
影することのできる複眼カメラを用いて撮影してもよ
い。又は、光路中にプリズムやミラーなどを通すことに
より、カメラの一つの撮像面上に2視点からの像を並列
させて投影する光学系であるステレオアダプタをカメラ
に取り付けて入力視差画像の撮影をおこなってもよい。
The operation of the above configuration will be described below.
In the data acquisition unit of s1, the two captured image data are captured. The photographing is performed by two digital cameras mounted substantially parallel to each other along the horizontal direction of the image pickup surface. Alternatively, the two digital cameras may shoot with the main subject placed at the gazing point and with convergence. Alternatively, two cameras may be arbitrarily selected from a camera array including a plurality of digital cameras. Alternatively, a compound eye camera that has two or more optical systems and an imaging system in one housing and is capable of simultaneously capturing images from multiple viewpoints may be used. Alternatively, a stereo adapter, which is an optical system that projects images from two viewpoints in parallel on one imaging surface of the camera by passing them through a prism or mirror in the optical path, is attached to the camera to capture an input parallax image. May be done.

【0037】入力データ画像間に輻輳がついている場合
にはデータ取得部s1において歪み補正処理をおこな
う。歪み補正処理においては、ステレオ画像の撮影時に
発生した台形歪みを補正する。本処理により、撮影光軸
に対して垂直な平面内において、水平方向に平行に並ん
だ画像対に視点変換する。各カメラの撮影パラメータ、
もしくは撮影画像自身から、一般的なカメラキャリブレ
ーション手法により求められた基礎行列を用いて、左右
それぞれの画像データの画像中心を中心として、台形歪
み補正後の仮想的な撮影面が互いに平行になるように台
形歪み補正を行う。
When there is congestion between input data images, distortion correction processing is performed in the data acquisition unit s1. In the distortion correction processing, the trapezoidal distortion that has occurred during the capturing of a stereo image is corrected. By this processing, the viewpoint is converted into a pair of images arranged in parallel in the horizontal direction in the plane perpendicular to the photographing optical axis. Shooting parameters of each camera,
Alternatively, the virtual matrixes after the trapezoidal distortion correction are parallel to each other with the center of the image of each of the left and right image data as the center, using the basic matrix obtained by the general camera calibration method from the captured image itself. Keystone distortion correction.

【0038】すなわち左右の光路に所定の輻輳角がつい
ていることにより、各画像は台形歪みを必然的に有する
からである。台形歪み補正処理は良く知られた画像の三
次元の回転マトリクスによる幾何学的変換である。
That is, each image inevitably has a trapezoidal distortion because the left and right optical paths have a predetermined convergence angle. The trapezoidal distortion correction process is a well-known geometric transformation by a three-dimensional rotation matrix of an image.

【0039】本実施例では、画像データをそれぞれの画
素値が輝度レベルを表す2次元配列のデジタルデータと
して処理を行う。
In this embodiment, the image data is processed as a two-dimensional array of digital data in which each pixel value represents a brightness level.

【0040】s2の対応点抽出部では、入力された視差
画像間で同一な被写体部分を点対点、画素対画素の対応
として表す対応点を抽出する。画像間の各画素の対応を
抽出する方法としては特徴ベースの手法と、領域ベース
の手法がよく知られた代表例として挙げられる。
The corresponding point extraction unit of s2 extracts corresponding points that represent the same subject portion between the input parallax images as point-to-point and pixel-to-pixel correspondence. As a method for extracting the correspondence of each pixel between images, a feature-based method and a region-based method are well-known representative examples.

【0041】本実施例においては領域ベースの一手法で
ある、差分和を用いた単純なテンプレートマッチング手
法を用いて対応点抽出手段を説明する。
In the present embodiment, the corresponding point extracting means will be described by using a simple template matching method using the sum of differences, which is one area-based method.

【0042】ここではまず、2つの画像データのうち撮
影した視点位置が左側に相当する左画像(同様に撮影し
た視点位置が右側に相当する画像を右画像とする。)を
基準画像としてテンプレートマッチングをおこない、左
画像を基準とした対応点を求めていく。まず、左画像か
ら所定の点を中心とした所定サイズの部分領域をテンプ
レートとして切り出す。そして、テンプレートマッチン
グは所定の画素間隔でおこなう。画像中の全点について
対応点を求めても良いが、画像サイズが大きい場合は所
定時間が膨大になる。
Here, first, template matching is performed with the left image corresponding to the left side of the taken viewpoint position of the two image data (the image corresponding to the right side of the taken viewpoint position as the right image) as the reference image. Then, the corresponding points based on the left image are obtained. First, a partial area of a predetermined size centered on a predetermined point is cut out as a template from the left image. Then, template matching is performed at predetermined pixel intervals. Corresponding points may be obtained for all points in the image, but if the image size is large, the predetermined time will be enormous.

【0043】そして、右画像中の所定の対応点探索領域
において、対応点探索領域内の注目画素を中心としたテ
ンプレートと同一のサイズの画像領域と左画像のテンプ
レートとの相関値を求めていく。
Then, in a predetermined corresponding point search area in the right image, the correlation value between the image area of the same size as the template centering on the pixel of interest in the corresponding point search area and the template of the left image is obtained. .

【0044】対応点の探索領域はステップs1の歪み補
正処理によりほぼ平行視のステレオ画像対が得られてい
るので、左画像の注目点位置を中心に右画像中の水平方
向の所定範囲を設定する。
In the search area for the corresponding points, since a pair of stereoscopic images for parallel viewing has been obtained by the distortion correction processing of step s1, a predetermined horizontal range in the right image is set around the point of interest of the left image. To do.

【0045】また、被写体の距離範囲等の奥行きの予備
情報があらかじめ与えられている時は、それに従い水平
方向の探索範囲をできるだけ限定することが、対応点探
索の誤対応防止のために望ましい。
When the depth preliminary information such as the distance range of the object is given in advance, it is desirable to limit the horizontal search range as much as possible in order to prevent erroneous correspondence of the corresponding point search.

【0046】相関演算の結果は、右画像中に設定された
所定の対応点探索領域と同一サイズの一次元の相関値分
布として求まる。この一次元の相関値分布を解析する事
により対応点位置を決定する。対応点位置は差分和の最
も小さい位置に決定される。
The result of the correlation calculation is obtained as a one-dimensional correlation value distribution having the same size as the predetermined corresponding point search area set in the right image. The corresponding point position is determined by analyzing this one-dimensional correlation value distribution. The corresponding point position is determined to be the position with the smallest sum of differences.

【0047】但し、対応点位置での差分和が所定の値よ
り大きい場合、対応点位置での差分和と2番目に小さい
差分和との差が所定の値より小さい場合、あるいは対応
点位置近傍での差分和の変化が所定の値より小さい場合
は、対応点抽出処理に関して信頼性が低いと考えられる
ので、その点に対しては未対応とする。
However, when the difference sum at the corresponding point position is larger than a predetermined value, when the difference between the difference sum at the corresponding point position and the second smallest difference sum is smaller than the predetermined value, or near the corresponding point position. If the change in the sum of differences at is smaller than a predetermined value, it is considered that the reliability of the corresponding point extraction processing is low, and therefore that point is not supported.

【0048】また、対応の求まった対応点に関して、逆
に右画像内の対応点を中心にテンプレートを切り出し、
左画像中において、同様に、対応点探索領域を設定し、
水平方向の探索を行う。
Regarding the corresponding points for which correspondence has been found, conversely, the template is cut out centering on the corresponding points in the right image,
Similarly, in the left image, set the corresponding point search area,
Perform a horizontal search.

【0049】このテンプレートマッチング結果が、左画
像の対応点位置近傍であるかを判断し、所定位置以上離
れている場合には誤対応である可能性が高いので、その
対応点結果に関しては未対応という情報を与える。以上
の計算を左画像の画素に対して、所定の間隔でおこな
う。
It is judged whether or not this template matching result is in the vicinity of the corresponding point position in the left image. If the result is more than a predetermined position, it is highly likely that it is an incorrect correspondence. Give information. The above calculation is performed for the pixels of the left image at predetermined intervals.

【0050】これらの処理により、左画像基準のテンプ
レートマッチングによりステレオ対応点が求められる。
By these processes, the stereo corresponding points are obtained by the template matching based on the left image.

【0051】図4に左画像基準の対応点抽出の図を示
す。左画像が基準画像であり、図のドットが基準点とな
りその周辺の正方形で囲まれた領域をテンプレートとし
て参照画像となる右画像中で対応点を探索する。
FIG. 4 shows a diagram of corresponding point extraction based on the left image. The left image is the standard image, and the corresponding dots are searched for in the right image, which is the reference image, using the area surrounded by the squares as the template and the dots in the figure as the reference point.

【0052】s3の視差値分布画像生成部において、視
差値分布画像もしくは奥行き画像を生成する。s2にお
いて求められた対応点の座標値の左右画像上での位置の
違いから、対象画素に対する視差値を求めることができ
る。
In the parallax value distribution image generation unit of s3, a parallax value distribution image or a depth image is generated. The parallax value for the target pixel can be obtained from the difference in the position on the left and right images of the coordinate value of the corresponding point obtained in s2.

【0053】続いて、これまで求まった視差値から、元
々対応点を求めていない点(画素)、及び、対応点が求
まらなかった未対応点(画素)に対しても視差を求め
る。近隣の既算出視差情報を用いて補間処理を行うこと
により、密な視差値分布画像を得る。本実施例において
は補間処理として、被補間未対応点と対応点抽出処理で
視差値の求まった対応点位置における距離パラメータを
重みとして加重平均し、元々対応点を求めていない点、
及び、未対応の未対応点の視差を次式(3)により求め
る。
Then, from the parallax values found so far, parallaxes are found also for points (pixels) for which corresponding points were not originally found and for uncorresponding points (pixels) for which corresponding points were not found. A dense parallax value distribution image is obtained by performing interpolation processing using neighboring calculated parallax information. In the present embodiment, as interpolation processing, weighted averaging is performed using the distance parameter at the corresponding point position for which the parallax value has been obtained by the non-interpolated corresponding point and the corresponding point extraction processing as a weight, and the corresponding point has not been obtained originally.
Also, the parallax of uncorresponding uncorresponding points is obtained by the following equation (3).

【0054】[0054]

【数3】 [Equation 3]

【0055】nは補間結果を左右する任意に設定するパ
ラメータでありnの値を小さくしすぎると、求める視差
は画像全域からの平均に近くなり、視差分布が一様にな
る。また、nの値を大きくしすぎると、知覚の対応点の
影響を大きく受ける。計算時間も考慮して、n=1程度
が望ましい。
N is a parameter that is set arbitrarily to influence the interpolation result, and if the value of n is too small, the obtained parallax becomes close to the average over the entire image, and the parallax distribution becomes uniform. Further, if the value of n is too large, it is greatly affected by the corresponding points of perception. Considering the calculation time, it is desirable that n = 1.

【0056】以上の処理により、左画像に対する密な視
差分布画像を得る。
By the above processing, a dense parallax distribution image for the left image is obtained.

【0057】また、右画像に対する密な視差分布画像が
次段階s6の処理において必要な場合には、以下のよう
に、wi、diを置き換えて右画像に対する密な視差分
布画像を得る。
When a dense parallax distribution image for the right image is required in the processing of the next step s6, wi and di are replaced to obtain a dense parallax distribution image for the right image as follows.

【0058】[0058]

【数4】 [Equation 4]

【0059】また、視差の補間の方法として、距離パラ
メータを重みとして加重平均を行ったが、距離のほか
に、RGB各チャンネルの画素値を加えてパラメータと
し、空間的位置、画素値の近い画素の加重を大きくして
補完しても良い。
As a parallax interpolation method, weighted averaging is performed using a distance parameter as a weight. In addition to the distance, pixel values of RGB channels are added as parameters, and pixels having similar spatial positions and pixel values are used. May be complemented by increasing the weight of.

【0060】また、例えば、双線形補間やスプライン補
間等を用いても良い。また、カメラパラメータが前記キ
ャリブレーション手法等により求められている場合、視
差画像間の視差値分布画像をよく知られた幾何学的関係
を用いて、奥行き画像に容易に変換することが可能であ
る。視差値分布画像を奥行き画像に置換して、s4以下
の処理を行っても良い。よってs4以下の視差値分布画
像を奥行き画像に、視差値を奥行き値に、各種視差の基
準値、閾値を各種奥行き値の基準値、閾値に、と置き換
えてs4以下の処理を行うことは容易であると言える。
Further, for example, bilinear interpolation or spline interpolation may be used. Further, when the camera parameter is obtained by the calibration method or the like, it is possible to easily convert the parallax value distribution image between the parallax images into a depth image by using a well-known geometrical relationship. . The parallax value distribution image may be replaced with the depth image, and the process of s4 or less may be performed. Therefore, it is easy to replace the parallax value distribution image of s4 or less with a depth image, the parallax value with a depth value, various parallax reference values, and the threshold with various depth value reference values and thresholds to perform the processing of s4 or less. Can be said to be

【0061】s4の画像生成パラメータ取得部において
は、s6の仮想画像シーケンス生成部において生成する
仮想画像シーケンスの像数、及び視点位置もしくは観察
位置に関するパラメータを取得する。
In the image generation parameter acquisition unit in s4, the number of images of the virtual image sequence generated in the virtual image sequence generation unit in s6 and the parameter relating to the viewpoint position or the observation position are acquired.

【0062】本実施例においては、視点位置もしくは観
察位置に関するパラメータとして、最終的に、画像シー
ケンスに対し、何像飛ばしで画像が視差画像対として観
察されるのかという情報に関連する情報、および最大飛
び出し量と、最大沈み込み量を必要とする。
In this embodiment, as parameters relating to the viewpoint position or the observation position, information relating to information about how many images are finally skipped with respect to the image sequence to be observed as a parallax image pair, and the maximum The amount of protrusion and the maximum amount of subduction are required.

【0063】図8に観察位置と像飛ばし数の関係を示
す。Kは基線長、Dは観察距離、fはレンチの焦点距
離、Δpは1仮想視点画像のプリントピッチ、
FIG. 8 shows the relationship between the observation position and the number of image skips. K is the base line length, D is the observation distance, f is the focal length of the wrench, Δp is the print pitch of one virtual viewpoint image,

【0064】[0064]

【数5】 [Equation 5]

【0065】は像飛ばし数である。また、図9において
1像飛ばしの場合の画像シーケンスにおける視差画像対
の選択の一例を示す。観察位置がプリントに対して近く
なると隣合うシーケンス画像を視差画像対として観察す
るのではなく、仮想画像シーケンス中で、像飛ばしをし
て画像を観察することになる。像飛ばし数は、観察距
離、レンチの焦点距離、1画像分のプリントピッチ、基
線長から幾何学的に求めることができる。
Is the number of image skips. Further, FIG. 9 shows an example of selection of a parallax image pair in an image sequence when one image is skipped. When the observation position becomes closer to the print, the adjacent sequence images are not observed as a parallax image pair, but the images are skipped and the images are observed in the virtual image sequence. The number of image skips can be geometrically determined from the observation distance, the focal length of the wrench, the print pitch for one image, and the base line length.

【0066】また後述のs6の仮想視点画像シーケンス
生成部において生成する画像の視点位置は、想定する観
察位置に基づいて、画像シーケンス内で左右眼に入射さ
れうる視差画像対間に生じる視差量が、最大飛び出し視
差値と、最大沈み込み視差値によって制限される、所定
の視差量に収まるように決定される。視差量が小さくな
りすぎると立体像を観察する際の立体感が損なわれる。
逆に、視差量が大きくなりすぎると、隣接する画像との
クロストークにより観察する立体像が不鮮明になる。
Further, the viewpoint position of the image generated by the virtual viewpoint image sequence generation unit in s6, which will be described later, is the amount of parallax generated between the parallax image pairs that can be incident on the left and right eyes in the image sequence based on the assumed observation position. , The maximum projecting parallax value and the maximum sinking parallax value are determined so as to fall within a predetermined parallax amount. If the amount of parallax becomes too small, the stereoscopic effect when observing a stereoscopic image will be impaired.
Conversely, if the amount of parallax becomes too large, the stereoscopic image to be observed becomes unclear due to crosstalk with adjacent images.

【0067】よって本パラメータ取得部において、最大
視差範囲、つまり、最大飛び出し量と最大沈み込み量を
設定し、幾何学的関係から仮想視点画像の視点間の最大
飛び出し視差値、および最大沈み込み視差値を計算し、
視点間の基準値として設定する。
Therefore, in this parameter acquisition unit, the maximum parallax range, that is, the maximum protrusion amount and the maximum depression amount are set, and the maximum protrusion parallax value between the viewpoints of the virtual viewpoint image and the maximum sinking parallax are set based on the geometrical relationship. Calculate the value,
Set as a reference value between viewpoints.

【0068】像飛ばし数により、仮想画像シーケンス中
から選択される視差画像対の組み合わせが変化するた
め、最大飛び出し視差値D´max、最大沈み込み視差値
D´minから計算される、s5において適用する仮想画
像シーケンス中の隣接視点間に於ける最大可能視差値D
max及び最小可能視差値Dminは次のような関係で変化す
る。
Since the combination of parallax image pairs selected from the virtual image sequence changes depending on the number of image skips, it is calculated from the maximum pop-out parallax value D' max and the maximum subduction parallax value D' min , which is applied in s5. Maximum disparity value D between adjacent viewpoints in a virtual image sequence
The max and the minimum possible disparity value D min change in the following relationship.

【0069】[0069]

【数6】 [Equation 6]

【0070】また、各仮想視点が左画像もしくは右画像
のどちらかの視点位置を基準として等間隔に並ぶように
視点位置を決める。
Further, the viewpoint positions are determined so that the virtual viewpoints are arranged at equal intervals based on the viewpoint position of either the left image or the right image.

【0071】これは、画像シーケンスの視点位置が等間
隔に並ぶことで視点移動に対し、自然な像変化と安定し
た立体像を提示するためと、立体感の調整を行うことに
より、入力左右視差画像の両方を画像シーケンスに含む
ことができなくなるためである。
This is because the viewpoint positions of the image sequence are arranged at equal intervals to present a natural image change and a stable stereoscopic image with respect to the viewpoint movement, and the stereoscopic effect is adjusted to adjust the input left-right parallax. This is because both images cannot be included in the image sequence.

【0072】s5の奥行き感調整部においては、視差値
分布画像に対して、見やすい立体画像となるように、視
差値分布の視差値の調整を行う。それに伴い、s4で設
定した視点位置もしくは観察位置に関するパラメータを
用いて視点位置を設定する。
In the depth sensation adjusting unit at s5, the parallax value distribution image is adjusted so that the parallax value distribution image becomes a legible stereoscopic image. Along with this, the viewpoint position is set using the viewpoint position or observation position parameter set in s4.

【0073】前記最大飛び出し量と最大沈み込み量を
ある最大視差範囲内に収めつつ、有効に使う視点を取
る。及び、前記画像内の主被写体位置の視差をできる
だけ0にする。を満たすように、奥行き値もしくは視差
値分布の調整を行う。
The maximum projection amount and the maximum subduction amount are kept within a certain maximum parallax range, and a viewpoint for effective use is taken. Also, the parallax of the main subject position in the image is set to 0 as much as possible. The depth value or the parallax value distribution is adjusted so as to satisfy the above condition.

【0074】を満たすことを主目的とする場合、隣接
視点間の左右画像間で観察される視差は、最大視差値d
max、及び最小視差値dminをとるとすると、任意の視点
xにおいて、dmax≒Dmax、dmin≒Dminを取り、最
大視差範囲を有効に利用していることが望ましい。
When the main purpose is to satisfy the above condition, the parallax observed between the left and right images between adjacent viewpoints is the maximum parallax value d.
Assuming max and the minimum parallax value d min , it is desirable to take d max ≈D max and d min ≈D min at an arbitrary viewpoint r x to effectively use the maximum parallax range.

【0075】このことから、視差値分布画像全域に対し
て、オフセット加算を行い、視差値の範囲を調整する。
オフセット値shを求め、視差値分布に対して調整を行
い、最大可能視差値、及び最小可能視差値によって規定
される最大奥行き範囲を有効に利用し、主被写体の視差
量が原則的に極力0に近くなるように、視点位置の決定
を行う。
Therefore, offset addition is performed on the entire parallax value distribution image to adjust the parallax value range.
The offset value sh is obtained, the parallax value distribution is adjusted, the maximum depth range defined by the maximum possible parallax value and the minimum possible parallax value is effectively used, and the parallax amount of the main subject is basically 0 as much as possible. The viewpoint position is determined so as to be close to.

【0076】まず、視差値分布画像中の視差値にオフセ
ット加算等の線形的な調整を行い、次に、視点位置を決
定する。視差値分布画像中の最大視差値をdmax、最小視
差値をdminとし、入力視差画像のうち例えば左画像を
s7により生成する仮想視点画像シーケンスの基準画像
(始点画像)とする。
First, the parallax values in the parallax value distribution image are subjected to linear adjustment such as offset addition, and then the viewpoint position is determined. The maximum parallax value in the parallax value distribution image is d max , the minimum parallax value is d min, and the left image of the input parallax images is the reference image (start point image) of the virtual viewpoint image sequence generated in s7.

【0077】そして、左右ステレオ画像対間の視差に対
する各画像の比率つまり視点位置パラメータをrとし、
入力視差画像のうち左画像の視点を取った場合はr=
0、右画像の視点を取った場合はr=1とする。
Then, the ratio of each image to the parallax between the pair of left and right stereo images, that is, the viewpoint position parameter is r,
If the viewpoint of the left image in the input parallax image is taken, r =
0, when the viewpoint of the right image is taken, r = 1.

【0078】そうすると次式に各最大視差値及び最小視
差値を代入することにより、視点位置rを取った場合
の、基準画像である左入力画像と、仮想始点画像間に生
じるx方向の最大視差値及び最小視差値を求めることが
できる。
Then, by substituting the maximum parallax value and the minimum parallax value into the following equation, the maximum parallax in the x direction generated between the left input image which is the reference image and the virtual start point image when the viewpoint position r is taken. The value and the minimum parallax value can be obtained.

【0079】[0079]

【数7】 [Equation 7]

【0080】最大沈み込み量、最大飛び出し量を超えな
い範囲で視点位置rを設定していくことになるが、最大
視差範囲を有効に利用するためには視差分布画像全域の
視差値に前述のオフセットを加える必要が生じる。次式
によりオフセットsh及び基準画像に隣接する視点位置
rを計算する。
Although the viewpoint position r is set within a range that does not exceed the maximum subduction amount and the maximum protrusion amount, in order to effectively use the maximum parallax range, the parallax value of the entire parallax distribution image is set to the above-mentioned value. It will be necessary to add an offset. The offset sh and the viewpoint position r adjacent to the reference image are calculated by the following formula.

【0081】[0081]

【数8】 [Equation 8]

【0082】とする。It is assumed that

【0083】また、を満たすことを主目的とする場合
には、主被写体を含む部分の代表的な視差値もしくは奥
行き値をd0とすると、オフセットshは、
When the main purpose is to satisfy the above, the offset sh is given by assuming that a typical parallax value or depth value of a portion including the main subject is d 0 .

【0084】[0084]

【数9】 [Equation 9]

【0085】で求められる。It is calculated by

【0086】基準画像に隣接する仮想視点画像の視点位
置パラメータは
The viewpoint position parameter of the virtual viewpoint image adjacent to the reference image is

【0087】[0087]

【数10】 [Equation 10]

【0088】のうち小さなrにより求められる。It is obtained by a small r.

【0089】しかしながら、オフセットを加算する本処
理のみでは及びを同時に満たし、かつ有効に最大視
差値範囲を利用することは困難である。
However, it is difficult to satisfy both and at the same time and to effectively use the maximum parallax value range only by this processing of adding the offset.

【0090】そこで、視差値分布画像の視差値を非線形
に変換することにより、視差値の調整を行い、前記立体
画像の設計条件及びを同時に満たし、最大視差値範
囲を有効に利用するような多眼立体画像のデプス値構成
へと変更を行う。図5に画像のデプス値を非線形に調整
する方法を示す。
Therefore, the parallax value of the parallax value distribution image is non-linearly converted to adjust the parallax value so that the design condition and the condition of the stereoscopic image are simultaneously satisfied and the maximum parallax value range is effectively used. Change to the depth value configuration of the eye stereoscopic image. FIG. 5 shows a method for adjusting the depth value of an image in a non-linear manner.

【0091】図5は前記の指針を優先し、視差値分布
画像全域にオフセットを加算する処理を行った画像に対
する処理の様子を示している。横軸方向が修正前の視差
値の分布であり、縦軸方向が、修正後の視差値である。
黒丸が主被写体の持つ視差値の代表的な値である。
FIG. 5 shows a state of processing for an image in which the above-mentioned pointer is prioritized and an offset is added to the entire parallax value distribution image. The horizontal axis direction is the distribution of parallax values before correction, and the vertical axis direction is the parallax value after correction.
Black circles are typical values of parallax values of the main subject.

【0092】中央の点線が修正後の視差分布における視
差0の位置を示している。上方の点線が修正後の視差分
布における最大可能視差の位置、下方の点線が修正後の
視差分布における最小可能視差の位置である。
The dotted line in the center shows the position of parallax 0 in the corrected parallax distribution. The upper dotted line is the position of the maximum possible parallax in the corrected parallax distribution, and the lower dotted line is the position of the minimum possible parallax in the corrected parallax distribution.

【0093】この図においては、主被写体の視差値の代
表的な値は負の値を持ってしまっている。そこで、制御
曲線において該黒丸を上方へ図中の点線位置まで引き上
げることにより、修正後の主被写体の代表的な値を0に
することができ、前記の条件を満たすことができる。
In this figure, the representative parallax value of the main subject has a negative value. Therefore, by raising the black circle on the control curve to the position of the dotted line in the figure, the representative value of the corrected main subject can be set to 0, and the above condition can be satisfied.

【0094】また、制御曲線においてカーブの形状を滑
らかにフィッティングし、視差値の変化を滑らかにする
ことにより、仮想視点画像中における歪みを小さくす
る。
Further, by smoothly fitting the curve shape in the control curve and smoothing the change in the parallax value, the distortion in the virtual viewpoint image is reduced.

【0095】また、図6に前記の指針を優先し、視差
値分布画像全域にオフセットを加算する処理を行った画
像に対する処理の様子を示す。
Further, FIG. 6 shows a state of processing for an image in which the above-mentioned pointer is prioritized and an offset is added to the entire parallax value distribution image.

【0096】図6と同様に、横軸方向が修正前の視差値
もしくは奥行き値の分布であり、縦軸方向が、修正後の
視差値である。黒丸が主被写体の持つ視差値の代表的な
値であり、上方の点線が修正後の視差分布における最大
可能視差の位置を、下方の点線が修正後の視差分布にお
ける最小可能視差の位置を、右上の黒丸が視差値画像中
の最大視差値を、左下の黒丸が視差値画像中の最小視差
値を示している。本調整を行った後には、視差分布画像
中の最大視差値及び最小視差値が変化していることか
ら、再度(6)式を利用し、視点位置の比率rを計算す
べきである。
Similar to FIG. 6, the horizontal axis represents the distribution of parallax values or depth values before correction, and the vertical axis represents the parallax value after correction. The black circles are typical values of the parallax values of the main subject, the upper dotted line indicates the position of the maximum possible parallax in the corrected parallax distribution, and the lower dotted line indicates the position of the minimum possible parallax in the corrected parallax distribution. The upper right black circle indicates the maximum parallax value in the parallax value image, and the lower left black circle indicates the minimum parallax value in the parallax value image. Since the maximum parallax value and the minimum parallax value in the parallax distribution image have changed after the main adjustment is performed, the viewpoint position ratio r should be calculated using Equation (6) again.

【0097】本実施例においては、線形的調整、非線形
的調整の順序で視差値分布画像もしくは奥行き画像の調
整を行ったが、線形的調整のみ、非線形的調整のみ、も
しくは非線形的調整、線形的調整の順で奥行き感調整の
処理を行っても良い。
In this embodiment, the parallax value distribution image or the depth image is adjusted in the order of linear adjustment and non-linear adjustment. However, only linear adjustment, non-linear adjustment, or non-linear adjustment and linear adjustment are performed. You may perform a depth feeling adjustment process in order of adjustment.

【0098】また、の方針を満たす以外にも、図7
に示すような操作を行うことにより、部分的な立体感を
強調するような他の効果を得ることもできることは明ら
かである。
In addition to satisfying the policy of,
It is obvious that other effects such as emphasizing a partial stereoscopic effect can be obtained by performing the operation as shown in FIG.

【0099】s6の仮想画像シーケンス生成部において
は入力視差画像、s5の奥行き感調整部において求め
た、修正された視差値分布画像、及び、視点位置、つま
り視点位置に対応する入力左右ステレオ画像対の視差に
対する各画像の比率r、を用いて各視点位置の仮想視点
画像を生成する。
In the virtual image sequence generation unit in s6, the input parallax image, the corrected parallax value distribution image obtained in the depth feeling adjustment unit in s5, and the viewpoint position, that is, the pair of input left and right stereo images corresponding to the viewpoint position. A virtual viewpoint image at each viewpoint position is generated using the ratio r of each image to the parallax.

【0100】まず、左画像からの新規視点画像を左画像
の画素を用いたフォワードマッピングにより生成する。
すなわち、まず左画像の各画素をマッピングする新規視
点画像中の画素位置(x,y)での視差d、視点位置を
表す比率r、修正された視差値分布画像中の、画像全体
に対する視差値のオフセットsh、s5の奥行き感調整
部の非線形調整により加えられた視差値変化量ΔdL
用いて次式(2)により求める。
First, a new viewpoint image from the left image is generated by forward mapping using the pixels of the left image.
That is, first, the parallax d at the pixel position (x, y) in the new viewpoint image that maps each pixel of the left image, the ratio r indicating the viewpoint position, the parallax value for the entire image in the corrected parallax value distribution image. Using the parallax value change amount Δd L added by the non-linear adjustment of the depth sensation adjusting unit of the offsets sh and s5 of, the following expression (2) is used.

【0101】[0101]

【数11】 [Equation 11]

【0102】同様にして、右画像からの新規視点画像を
右画像の画素を用いたフォワードマッピングにより生成
する。すなわち、右画像の各画素をマッピングする新規
視点画像中の位置(xN,yN)を右画像の画素位置
(x,y)での視差d、視点位置を表す比率r、画像全
体に対する視差値のオフセットsh、s5の奥行き感調
整部においてユーザーにより加えられた視差値変化量Δ
dを用いて左画像と同様に次式(2’)により求める。
Similarly, a new viewpoint image from the right image is generated by forward mapping using the pixels of the right image. That is, the position (x N , y N ) in the new viewpoint image to which each pixel of the right image is mapped is the parallax d at the pixel position (x, y) of the right image, the ratio r indicating the viewpoint position, and the parallax with respect to the entire image. Disparity value change amount Δ added by the user in the depth sensation adjusting unit for the value offsets sh and s5
Similar to the left image, it is obtained by the following equation (2 ′) using d.

【0103】[0103]

【数12】 [Equation 12]

【0104】である。It is

【0105】そして左画像の画素位置(x、y)での画
素を左画像からの新規視点画像の(xN,yN)へとマッ
ピングする。視点変化によるオクルージョンにより、入
力視差画像中で違う位置の画素が同一画素にマッピング
されてしまう場合、かつ大きくそれらの画素に関する視
差値の違う場合、視差値の大きい画素の画素値のみを採
用する。視差値がほぼ同じ値を持つ場合はそれらの画素
値の平均を採用する。
Then, the pixel at the pixel position (x, y) of the left image is mapped to (x N , y N ) of the new viewpoint image from the left image. If pixels at different positions in the input parallax image are mapped to the same pixel due to occlusion due to a change in the viewpoint, and if the parallax values of those pixels are largely different, only the pixel value of the pixel having the large parallax value is adopted. When the parallax values have almost the same value, the average of those pixel values is adopted.

【0106】同様に右画像の画素位置(x、y)での画
素を右画像からの新規視点画像の(xN,yN)へとマッ
ピングする。左画像と同様に視点変化によるオクルージ
ョンにより、入力視差画像中で違う位置の画素が同一画
素にマッピングされてしまう場合、かつ大きくそれらの
画素に関する視差値の違う場合、視差値の小さい画素の
画素値のみを採用する。また、左画像と同様に視差値が
ほぼ同じ値を持つ場合はそれらの画素値の平均を採用す
る。
Similarly, the pixel at the pixel position (x, y) of the right image is mapped to (x N , y N ) of the new viewpoint image from the right image. If the pixels at different positions in the input parallax image are mapped to the same pixel due to occlusion due to the viewpoint change, as in the case of the left image, and if the parallax values for those pixels are significantly different, the pixel value of the pixel with the smaller parallax value. Adopt only. When the parallax values have almost the same value as in the left image, the average of those pixel values is adopted.

【0107】この処理を左右画像の全画素について繰り
返す。
This process is repeated for all pixels of the left and right images.

【0108】そして、左画像からの新規視点画像と右画
像からの新規視点画像を合成する。左画像からのみしか
画素が割り当てられなかった画素は左画像からの画素値
を採用し、右画像からのみしか画素が割り当てられなか
った画素は右画像からの画素値を採用する。
Then, the new viewpoint image from the left image and the new viewpoint image from the right image are combined. Pixels to which pixels have been assigned only from the left image adopt pixel values from the left image, and pixels to which pixels have only been assigned from the right image adopt pixel values from the right image.

【0109】左右画像の両方から画素値が割り当てられ
た画素は、視点位置を表す比率がr=0近傍、もしくは
r<0であった場合は左画像により割り当てられた画素
値を採用し、r=1近傍、もしくはr>1であった場合
は右画像により割り当てられた画素値を採用する。
For pixels to which pixel values are assigned from both the left and right images, the pixel value assigned by the left image is adopted when the ratio indicating the viewpoint position is near r = 0 or when r <0. In the vicinity of = 1 or when r> 1, the pixel value assigned by the right image is adopted.

【0110】これは、新規視点画像が入力視差画像の視
点位置のごく近傍、もしくは外挿視点位置である場合は
より近傍の側の入力視差画像から割り当てられた画素値
のみを採用することを表す。
This means that only the pixel value assigned from the input parallax image closer to the viewpoint position of the input parallax image or the extrapolated viewpoint position of the new viewpoint image is adopted. .

【0111】そして、視点位置を表す比率が0<r<1
の時には、視点位置を重みとして、左右画像から割り当
てられた画素の間で次式(3)により加重平均を行い。
合成画像の画素値を求める。
Then, the ratio representing the viewpoint position is 0 <r <1.
In the case of, using the viewpoint position as a weight, a weighted average is performed between the pixels assigned from the left and right images by the following equation (3).
Find the pixel value of the composite image.

【0112】[0112]

【数13】 [Equation 13]

【0113】nは所定のパラメータであり、nの値を大
きくしすぎると、求める画素値はより近傍の入力画像の
画素値の影響を強く受ける。計算時間も考慮して、n=
1程度が望ましい。
N is a predetermined parameter, and if the value of n is too large, the pixel value to be obtained is strongly influenced by the pixel value of the input image in the vicinity. Considering the calculation time, n =
About 1 is desirable.

【0114】左右画像のどちらからも画素が割り当てら
れなかった画素に対しては、穴埋め処理を行う。
The pixel filling processing is performed on the pixels to which the pixel is not assigned from either of the left and right images.

【0115】この穴埋め処理は、求める画素から所定距
離離れた有効な画素を探索し、その画素値の距離をパラ
メータとした加重平均値を割り当てる。有効な画素が存
在しないときは探索する範囲を広げて探索を繰り返す。
In this hole filling processing, an effective pixel which is a predetermined distance away from the pixel to be obtained is searched, and a weighted average value is assigned with the distance of the pixel value as a parameter. When there is no effective pixel, the search range is expanded and the search is repeated.

【0116】以上の処理で全画素有効な新規視点画像が
生成される。この処理を視点数分繰り返して、多視点画
像シーケンスとする。
With the above processing, a new viewpoint image in which all pixels are effective is generated. This process is repeated for the number of viewpoints to form a multi-view image sequence.

【0117】s7の三次元ストライプ画像合成部におい
ては、多視点画像シーケンスから三次元ストライプ画像
を合成する。
The three-dimensional stripe image synthesizing section in s7 synthesizes a three-dimensional stripe image from the multi-viewpoint image sequence.

【0118】このとき、多視点画像シーケンス中の各画
像の同一座標の画素を画像の視点配置に従い、隣接画素
として配列するように三次元画像を合成する。
At this time, the three-dimensional image is combined so that the pixels at the same coordinates of each image in the multi-view image sequence are arranged as adjacent pixels according to the viewpoint arrangement of the images.

【0119】合成はそれぞれの視点の画像を垂直方向に
ラインごとに短冊状に分解し、視点位置の逆順に視点
数分だけ合成する。
In the synthesis, the images of the respective viewpoints are decomposed into strips in the vertical direction line by line, and the images are combined in the reverse order of the viewpoint positions by the number of viewpoints.

【0120】ここで、視点位置の配列順を逆順にするの
はレンチキュラ板により観察する際、レンチキュラの1
ピッチ内で画像が左右逆に観察されるためである。
Here, the order of arrangement of the viewpoint positions is set in the reverse order when the lenticular plate is observed.
This is because the image is observed left-right in the pitch.

【0121】s8の印刷部においては三次元ストライプ
画像の印刷を行う。印刷を行う前に前述したs1からs
7までの処理結果を表示装置に表示して確認できるよう
にしてもよい。
The printing section s8 prints a three-dimensional stripe image. Before printing, s1 to s
The processing results up to 7 may be displayed on the display device so that they can be confirmed.

【0122】以上s1からs8の処理により印刷した画
像にレンチキュラ板を重ね合わせると良好な立体画像が
観察できる。
A good three-dimensional image can be observed by superimposing a lenticular plate on the image printed by the processing of s1 to s8.

【0123】本実施例においては、カメラ配置を水平方
向に限定し、入力視差画像対が水平方向のみに視差を有
する場合に限定して処理手法の説明を行ったが、カメラ
配置を垂直方向にして撮影した入力視差画像対に対して
も、配置を水平方向から垂直方向に置き換えて処理手法
を適用することにより、仮想視点画像シーケンスの作成
が容易であるといえる。よって、水平垂直視差を有する
IPプリント作成等への処理の拡張も容易であるといえ
る。
In this embodiment, the camera arrangement is limited to the horizontal direction, and the processing method is described only when the input parallax image pair has the parallax only in the horizontal direction. However, the camera arrangement is set to the vertical direction. It can be said that the virtual viewpoint image sequence can be easily created by applying the processing method by replacing the arrangement from the horizontal direction to the vertical direction with respect to the input parallax image pair photographed as described above. Therefore, it can be said that the process can be easily extended to the creation of an IP print having horizontal and vertical parallax.

【0124】また、本実施例に示したレンチキュラシー
トを用いた多眼立体プリント以外のIPプリント、レン
チキュラ、IPを用いた多眼立体ディスプレイやホログ
ラフィック・ステレオグラムなど、同様に少しずつ視点
を変えて撮影した多数枚の画像を必要とする各種多眼立
体視表示手法に対しても、本実施例の画像生成方法によ
り多視点画像シーケンスを生成し、多視点画像シーケン
スを入力画像としてそれぞれ前記多眼立体視表示手法に
合った合成手法により、多眼立体視画像として合成し、
表示・出力しても、多視点画像間の視差を調整し、立体
画像における画像中の物体の飛び出し量、沈み込み量の
調整を行う、本発明の要素を用いることにより、見やす
い立体画像を生成することができる。
[0124] Further, similarly to the multi-view stereoscopic print using the lenticular sheet shown in this embodiment, the IP print, the lenticular, the multiview stereoscopic display using the IP, the holographic stereogram, and the like, the viewpoints are changed little by little. The multi-viewpoint image sequence is generated by the image generation method according to the present embodiment, and the multi-viewpoint image sequence is used as an input image for each of the multi-viewpoint stereoscopic display methods that require a large number of captured images. By a combining method suitable for the stereoscopic display method, it is combined as a multi-view stereoscopic image,
Even if it is displayed and output, the parallax between the multi-viewpoint images is adjusted, and the protrusion amount and the depression amount of the object in the image in the stereoscopic image are adjusted. By using the elements of the present invention, an easily viewable stereoscopic image is generated. can do.

【0125】本手法には、従来から多視点画像を撮影す
るカメラの台数が少なくてよいというメリットがあげら
れる。そして、特にs5に示されるような本発明の要素
を用いることにより、多視点画像間の視差を調整し、立
体画像における画像中の物体の飛び出し量、沈み込み量
の調整を行うことにより、見やすい立体画像を生成する
ことができる。
This method has an advantage that the number of cameras for photographing multi-viewpoint images is conventionally small. Then, particularly by using the element of the present invention as shown in s5, the parallax between the multi-viewpoint images is adjusted, and the protrusion amount and the depression amount of the object in the image in the stereoscopic image are adjusted, so that it is easy to see. It is possible to generate a stereoscopic image.

【0126】(第2の実施例)本実施例は、第1の実施
例の手法を複雑なシーンを撮影した入力視差画像に適用
し、奥行き調整処理を行った場合に生じる、期待しない
領域の画素の視差値もしくは奥行き量を変更してしま
い、該期待しない画像領域の像を歪ませてしまう問題を
防止する。
(Second Embodiment) In the present embodiment, the method of the first embodiment is applied to an input parallax image obtained by photographing a complicated scene, and an unexpected area which is generated when depth adjustment processing is performed is performed. The problem that the parallax value or the depth amount of the pixel is changed and the image of the unexpected image region is distorted is prevented.

【0127】そのために、入力ステレオ画像もしくは奥
行き画像もしくは視差値分布画像もしくはこれらの複数
画像の情報を用いて領域分割を行い、該領域分割による
領域情報を利用し、特定領域を選択して、特定領域に対
応する画素の奥行き量または視差値の調整のみを行う。
Therefore, area division is performed using the information of the input stereo image, the depth image, the parallax value distribution image, or a plurality of these images, and the area information obtained by the area division is used to select a specific area and specify it. Only the depth amount or parallax value of the pixels corresponding to the region is adjusted.

【0128】これにより、期待しない領域の画素の奥行
き量または視差値を変更することなく、奥行き調整を行
うことにより、該期待しない画像領域の像を歪ませるこ
となく、生成する仮想視点画像間の視差を調整し、見や
すい立体画像を生成する方法である。
Thus, the depth adjustment is performed without changing the depth amount or the parallax value of the pixels in the unexpected area, so that the image of the unexpected image area is not distorted and the virtual viewpoint images are generated. This is a method of adjusting parallax to generate a stereoscopic image that is easy to see.

【0129】図2に本実施例のアルゴリズムを示す。図
においてs201は画像データ取得部、s202は対応
点抽出部、s203は視差分布画像作成部、s204は
画像生成パラメータ取得部、s205は領域分割部、s
206は奥行き感調整部、s207は仮想視点画像シー
ケンス生成部、s208は三次元ストライプ画像生成
部、s209は印刷部である。
FIG. 2 shows the algorithm of this embodiment. In the figure, s201 is an image data acquisition unit, s202 is a corresponding point extraction unit, s203 is a parallax distribution image creation unit, s204 is an image generation parameter acquisition unit, s205 is a region division unit, s
Reference numeral 206 is a depth feeling adjusting unit, s207 is a virtual viewpoint image sequence generating unit, s208 is a three-dimensional stripe image generating unit, and s209 is a printing unit.

【0130】本実施例におけるs201の画像データ取
得部、s202の対応点抽出部、s203の視差分布画
像作成部、s204の画像生成パラメータ取得部、およ
びs207の仮想視点画像シーケンス生成部、s208
の三次元ストライプ画像生成部、s209の印刷部は、
実施例1のs1の画像データ取得部、s2の対応点抽出
部、s3の視差分布画像作成部、s4の画像生成パラメ
ータ取得部、s6の仮想視点画像シーケンス生成部、s
7の三次元ストライプ画像生成部、s8の印刷部と同じ
動作をする。よって本実施例においては説明を省略す
る。
In the present embodiment, the image data acquisition unit of s201, the corresponding point extraction unit of s202, the parallax distribution image creation unit of s203, the image generation parameter acquisition unit of s204, and the virtual viewpoint image sequence generation unit of s207, s208.
The three-dimensional stripe image generation unit of, and the printing unit of s209 are
The image data acquisition unit of s1 of Example 1, the corresponding point extraction unit of s2, the parallax distribution image creation unit of s3, the image generation parameter acquisition unit of s4, the virtual viewpoint image sequence generation unit of s6, s
The same operations as the three-dimensional stripe image generation unit 7 and the printing unit s8 are performed. Therefore, the description is omitted in this embodiment.

【0131】s205の領域分割部においては、入力ス
テレオ画像、もしくは奥行き画像もしくは視差値分布画
像もしくはこれらの複数画像の複合情報を用いて、領域
分割を行い、特定領域を選択する。
In the area dividing unit in s205, the area is divided using the input stereo image, the depth image, the parallax value distribution image, or the composite information of these images, and the specific area is selected.

【0132】領域分割処理に関しては、公知の手法とし
てk−mean法等のクラスタリングによる手法、多段
階閾値による処理手法、領域成長法などが挙げられる
(画像解析ハンドブック,高木幹雄,下田陽久,東京大
学出版会(1991))が、本発明への適用に対して、
前述の画像情報を有効に利用し、シーン中の個々の物体
の物体輪郭にあたる画像中の境界を侵食しない手法であ
れば、その手法の差異は問わない。任意の領域分割手法
を選択してよい。
Regarding the area division processing, known methods include clustering methods such as the k-mean method, processing methods using multi-step thresholds, and area growth methods (Image Analysis Handbook, Mikio Takagi, Yoshihisa Shimoda, The University of Tokyo). Publication (1991)), for application to the present invention,
There is no limitation on the difference between the methods as long as the above-mentioned image information is effectively used and the boundary in the image corresponding to the object contour of each object in the scene is not eroded. Any area division method may be selected.

【0133】本実施例の説明においては、領域分割手法
のうち、単純な例として、領域成長法を用いた場合に得
られるであろう結果を用いる。
In the description of this embodiment, as a simple example of the area dividing method, the result that would be obtained when the area growing method is used is used.

【0134】図10に、ある入力視差画像を示す。この
入力画像に対して、s205の領域分割部において領域
分割を行った結果生成されるラベル画像を図11に示
す。
FIG. 10 shows an input parallax image. FIG. 11 shows a label image generated as a result of performing area division on the input image in the area division unit in s205.

【0135】s206の奥行き感調整部においては、ま
ず、第1の実施例と同様にして、視差値分布画像全域に
対して、オフセット加算等の線形的な調整をおこなう。
In the depth feeling adjusting unit of s206, first, similarly to the first embodiment, linear adjustment such as offset addition is performed on the entire parallax value distribution image.

【0136】視差値分布画像中の最大視差値をdmax、最
小視差値をdminとし、入力視差画像のうち例えば左画
像をs7により生成する仮想視点画像シーケンスの基準
画像(始点画像)とする。そして、左右ステレオ画像対
間の視差に対する各画像の比率つまり視点位置パラメー
タをrとし、入力視差画像のうち左画像の視点を取った
場合はr=0、右画像の視点を取った場合はr=1とす
る。そうすると次式に各最大視差値及び最小視差値を代
入することにより、視点位置rを取った場合の、基準画
像である左入力画像と、仮想始点画像間に生じるx方向
の最大視差値及び最小視差値を求めることができる。
The maximum parallax value in the parallax value distribution image is d max , the minimum parallax value is d min, and the left image of the input parallax images is the reference image (start point image) of the virtual viewpoint image sequence generated in s7. . Then, the ratio of each image to the parallax between the left and right stereo image pairs, that is, the viewpoint position parameter is r, and r = 0 when the viewpoint of the left image is taken from the input parallax images, and r when the viewpoint of the right image is taken. = 1. Then, by substituting the maximum parallax value and the minimum parallax value into the following equation, the maximum parallax value and the minimum parallax value in the x direction generated between the left input image which is the reference image and the virtual start point image when the viewpoint position r is taken. The parallax value can be obtained.

【0137】[0137]

【数14】 [Equation 14]

【0138】最大沈み込み量、最大飛び出し量を超えな
い範囲で視点位置rを設定していくことになるが、最大
視差範囲を有効に利用するためには視差分布画像全域の
視差値に前述のオフセットを加える必要が生じる。
Although the viewpoint position r is set within a range that does not exceed the maximum subduction amount and the maximum protrusion amount, in order to effectively use the maximum parallax range, the parallax value of the entire parallax distribution image is set to the above-mentioned value. It will be necessary to add an offset.

【0139】次式によりオフセットsh及び基準画像に
隣接する視点位置rを計算する。
The offset sh and the viewpoint position r adjacent to the reference image are calculated by the following equation.

【0140】[0140]

【数15】 [Equation 15]

【0141】とする。It is assumed that

【0142】また、を満たすことを主目的とする場合
には、主被写体を含む部分の代表的な視差値もしくは奥
行き値をd0とすると、オフセットshは、
Further, when the main purpose is to satisfy the above, the offset sh is given by assuming that a typical parallax value or depth value of a portion including the main subject is d 0 .

【0143】[0143]

【数16】 [Equation 16]

【0144】で求められる。基準画像に隣接する仮想視
点画像の視点位置パラメータは
It is calculated by The viewpoint position parameter of the virtual viewpoint image adjacent to the reference image is

【0145】[0145]

【数17】 [Equation 17]

【0146】のうち小さなrにより求められる。It is obtained by a smaller r among them.

【0147】しかしながら、オフセットを加算する本処
理のみでは及びを同時に満たし、かつ有効に最大視
差値範囲を利用することは困難である。
However, it is difficult to satisfy both and at the same time and to effectively use the maximum parallax value range only by this processing of adding the offset.

【0148】そこで、第1の実施例では一般的な、画像
のトーン変換を行う要領で、視差値分布画像の視差値を
非線形に変換することにより、視差値の調整を行い、前
記立体画像の設計条件及びを同時に満たし、最大視
差値範囲を有効に利用するような多眼立体画像のデプス
値構成へと変更を行う処理をおこなった。
Therefore, in the first embodiment, the parallax value of the stereoscopic image is adjusted by nonlinearly converting the parallax value of the parallax value distribution image in the general manner of performing the tone conversion of the image. The processing is performed to change the depth value configuration of the multi-view stereoscopic image that satisfies the design conditions and at the same time and effectively uses the maximum parallax value range.

【0149】しかしながら、図10のような物体配置構
成を持つステレオ画像間から得られた視差値分布画像に
対し、第1の実施例のs5の奥行き感調整部の非線形的
な調整処理を行おうとした場合、期待しない領域の画素
の視差値を変更してしまい、よって、期待しない画像領
域を歪ませる結果になる問題が生じる。なぜならば、図
10のステレオ画像対は図12の(1)のグラフに示さ
れるような視差値分布を持つからである。
However, the parallax value distribution image obtained from the stereo images having the object arrangement configuration as shown in FIG. 10 is subjected to the non-linear adjustment processing of the depth sensation adjusting unit of s5 of the first embodiment. In such a case, the parallax value of the pixel in the unexpected area is changed, which causes a problem of distorting the unexpected image area. This is because the stereo image pair of FIG. 10 has a parallax value distribution as shown in the graph of (1) of FIG.

【0150】図12において、A、B、C、Dはs20
5の領域分割部によって得られた領域分割情報中から背
景領域をのぞいた領域に任意につけられた領域ラベルの
記号であり、図11中のA、B、C、Dに対応する。図
12のグラフの縦軸は図5のグラフの縦軸と同様、視差
分布画像中の視差値の分布を示す。それぞれラベルA、
B、C、Dにおける短形は視差画像中のそれぞれの領域
における視差値の分布範囲である。短形中の黒丸は分割
領域中で任意に選択した代表値である。
In FIG. 12, A, B, C and D are s20.
This is a symbol of a region label arbitrarily attached to a region excluding the background region from the region division information obtained by the region division unit 5 and corresponds to A, B, C and D in FIG. The vertical axis of the graph of FIG. 12 shows the distribution of the parallax values in the parallax distribution image, like the vertical axis of the graph of FIG. Label A, respectively
The rectangles in B, C, and D are the parallax value distribution ranges in the respective regions in the parallax image. The black circles in the rectangle are representative values arbitrarily selected in the divided area.

【0151】図11中のAのオブジェクトを主被写体と
する場合、図12のグラフ中からわかるように、第1の
実施例の図5の調整と同じように主被写体の代表点の視
差値が負の値を持つため、この代表点及び近傍の視差値
を、第1の実施例の図5の調整で行ったように0近づけ
る処理を行うことになる。
When the object A in FIG. 11 is the main subject, as can be seen from the graph of FIG. 12, the parallax value of the representative point of the main subject is the same as in the adjustment of FIG. 5 of the first embodiment. Since it has a negative value, the parallax value of the representative point and the vicinity thereof will be brought close to 0 as in the adjustment of FIG. 5 of the first embodiment.

【0152】しかしながら、このステレオ画像中のDの
ラベルを持つ物体もこの主被写体A内の代表点近傍の視
差値の画素を持つため、第1の実施例のs5の奥行き感
調整部の非線形的な調整処理を行った場合、物体Dに含
まれる視差調整の効果を期待しない領域の画素の視差値
を変更してしまうことになる。
However, since the object having the label D in this stereo image also has pixels of the parallax value near the representative point in the main subject A, the non-linearity of the depth feeling adjusting unit of s5 of the first embodiment is used. If such a large adjustment process is performed, the parallax value of the pixels of the area included in the object D where the effect of the parallax adjustment is not expected is changed.

【0153】よって、入力視差画像の性質によっては、
仮想視点画像、しいては立体画像中において、第1の実
施例のs5の奥行き感調整部の非線形的な調整処理を行
おうとした場合、調整の効果を期待しない領域の画素の
視差値を変更してしまい、期待しない画像領域を歪ませ
る結果になる問題が生じるような場合が考えられるのは
明らかである。
Therefore, depending on the nature of the input parallax image,
When an attempt is made to perform non-linear adjustment processing of the depth sensation adjusting unit of s5 of the first embodiment in the virtual viewpoint image, that is, the stereoscopic image, the parallax value of the pixel in the area where the effect of the adjustment is not expected is changed. Obviously, there may be a problem in that an unexpected image region is distorted.

【0154】そこで本発明における第2の実施例におい
ては、第1の実施例に対し、非線形的な奥行き量または
視差値の調整を行う場合には、領域分割を実装し、特定
領域を選択して、特定領域に対応する画素の奥行き量ま
たは視差値の調整を行うことにより、期待しない領域の
画素の奥行き量または視差値を変更することなく、奥行
き調整を行うことにより、期待しない画像領域を歪ませ
ることなく、生成する仮想視点画像間の視差を調整し、
見やすい立体画像を生成する。
Therefore, in the second embodiment of the present invention, in contrast to the first embodiment, when the nonlinear depth amount or parallax value is adjusted, area division is implemented and a specific area is selected. Then, by adjusting the depth amount or parallax value of the pixels corresponding to the specific region, the depth adjustment can be performed without changing the depth amount or parallax value of the pixels in the unexpected region, and Adjust the parallax between the generated virtual viewpoint images without distortion.
Generates a stereoscopic image that is easy to see.

【0155】第2の実施例のs206の奥行き感調整部
の非線形的な調整処理においてはs205によって生成
された図11のような領域情報を元に、特定領域に対応
する画素の奥行き量または視差値の所望の調整を行う。
本実施例においては、一例として、図12に示されるよ
うなグラフに視差分布画像中の視差値を整理し、対話的
に、非線形的な視差の調整を行う手法を示す。
In the nonlinear adjustment processing of the depth sensation adjusting unit in s206 of the second embodiment, the depth amount or parallax of the pixel corresponding to the specific area is based on the area information as shown in FIG. 11 generated in s205. Make the desired adjustments to the values.
In the present embodiment, as an example, a method of organizing the parallax values in the parallax distribution image in a graph as shown in FIG. 12 and interactively adjusting the non-linear parallax is shown.

【0156】図12において、A、B、C、Dはs20
5の領域分割部によって得られた領域分割情報中から背
景領域をのぞいた領域に任意につけられた領域ラベルの
記号であり、図11中のA、B、C、Dに対応する。図
12のグラフの縦軸は図5のグラフの縦軸と同様、視差
分布画像中の視差値の分布を示す。それぞれラベルA、
B、C、Dにおける短形は視差画像中のそれぞれの領域
における視差値の分布範囲である。短形中の黒丸は分割
領域中で任意に選択した代表値である。
In FIG. 12, A, B, C and D are s20.
This is a symbol of a region label arbitrarily attached to a region excluding the background region from the region division information obtained by the region division unit 5 and corresponds to A, B, C and D in FIG. The vertical axis of the graph of FIG. 12 shows the distribution of the parallax values in the parallax distribution image, like the vertical axis of the graph of FIG. Label A, respectively
The rectangles in B, C, and D are the parallax value distribution ranges in the respective regions in the parallax image. The black circles in the rectangle are representative values arbitrarily selected in the divided area.

【0157】図12の(1)において、ラベルBの短形
はDmaxを表す点線に触れ、ラベルDの短形はDminを表
す点線に触れ、点線をはみ出す視差値を持つオブジェク
トは存在しない。この事実は前段の線形的な視差調整に
より、立体画像設計の方針が成り立っていることに他
ならない。
In (1) of FIG. 12, the short form of the label B touches the dotted line representing D max , the short form of the label D touches the dotted line representing D min, and there is no object having a parallax value protruding from the dotted line. . This fact is nothing but that the policy of stereoscopic image design is established by the linear parallax adjustment in the previous stage.

【0158】そこで、図12の(2)のように主被写体
中の代表点を0に近づける処理を行うことになるが、第
2の実施例の領域分割による情報を利用し、特定領域に
対応する画素の奥行き量または視差値の調整のみを行う
ことにより、期待しない画像領域を歪ませることなく、
同時に立体画像設計の方針を満たすことができるよう
になる。
Therefore, as shown in (2) of FIG. 12, a process of bringing the representative point in the main subject closer to 0 is performed. However, the information obtained by the area division of the second embodiment is used to correspond to the specific area. By only adjusting the depth amount or parallax value of the pixels to be used, without distorting the unexpected image area,
At the same time, it becomes possible to satisfy the policy of stereoscopic image design.

【0159】短形で示される個々の物体内の視差値の分
布範囲は処理を行っても図12の(2)のように保存さ
れる。精度を保ちたい場合には、視差値を奥行き値に変
換して該処理を行う。
The distribution range of the parallax values in the individual objects, which are shown in the short form, are preserved as shown in (2) of FIG. 12 even if the processing is performed. When it is desired to maintain the accuracy, the parallax value is converted into the depth value and the processing is performed.

【0160】s207以下の処理においては、第1の実
施例と同様の処理を行い、特定領域に対応する画素の奥
行き量または視差値の調整を行うことにより、期待しな
い領域の画素の奥行き量または視差値を変更することな
く、奥行き調整を行うことにより、生成する仮想視点画
像間の視差を調整し、見やすい立体画像を生成すること
ができる。
In the processing from s207 onward, the same processing as that of the first embodiment is performed to adjust the depth amount or the parallax value of the pixel corresponding to the specific region, thereby the depth amount of the pixel in the unexpected region or By performing the depth adjustment without changing the parallax value, it is possible to adjust the parallax between the generated virtual viewpoint images and generate a stereoscopic image that is easy to see.

【0161】本手法には、従来から多視点画像を撮影す
るカメラの台数が少なくてよいというメリットがあげら
れる。そして、特にs205、s206に示されるよう
な本発明の要素を用いることにより、特定領域を選択し
て、特定領域に対応する画素の奥行き量または視差値の
調整を行うことにより、期待しない領域の画素の奥行き
量または視差値を変更することなく、奥行き調整を行う
ことにより、期待しない画像領域を歪ませることなく、
生成する仮想視点画像間の視差を調整し、見やすい立体
画像を生成することができる方法である。
This method has an advantage that the number of cameras for taking multi-viewpoint images can be reduced conventionally. Then, particularly by using the elements of the present invention as shown in s205 and s206, by selecting a specific area and adjusting the depth amount or the parallax value of the pixel corresponding to the specific area, By adjusting the depth without changing the depth amount of pixels or the parallax value, without distorting the unexpected image area,
This is a method that can adjust the parallax between the generated virtual viewpoint images to generate a stereoscopic image that is easy to see.

【0162】(第3の実施例)本実施例では、第2の実
施例に記述される見やすい立体画像を生成する方法にお
いて、領域分割を行う代わりに、GUIからユーザーが
対話的に領域の分割を行う方法である。
(Third Embodiment) In the present embodiment, in the method for generating an easy-to-see stereoscopic image described in the second embodiment, instead of performing area division, the user interactively divides the area from the GUI. Is the way to do.

【0163】図2は本実施例及び第2の実施例のアルゴ
リズムである。つまり、本実施例は大局的に第2の実施
例と同じ処理アルゴリズムを取る。図においてs201
は画像データ取得部、s202は対応点抽出部、s20
3は視差分布画像作成部、s204は画像生成パラメー
タ取得部、s205は領域分割部、s206は奥行き感
調整部、s207は仮想視点画像シーケンス生成部、s
208は三次元ストライプ画像生成部、s209は印刷
部である。
FIG. 2 shows the algorithms of this embodiment and the second embodiment. In other words, this embodiment takes the same processing algorithm as the second embodiment. In the figure, s201
Is an image data acquisition unit, s202 is a corresponding point extraction unit, s20
3 is a parallax distribution image creation unit, s204 is an image generation parameter acquisition unit, s205 is a region division unit, s206 is a depth feeling adjustment unit, s207 is a virtual viewpoint image sequence generation unit, s
Reference numeral 208 is a three-dimensional stripe image generation unit, and s209 is a printing unit.

【0164】本実施例におけるs201の画像データ取
得部、s202の対応点抽出部、s203の視差分布画
像作成部、s204の画像生成パラメータ取得部、およ
びs206の奥行き感調整部、s207の仮想視点画像
シーケンス生成部、s208の三次元ストライプ画像生
成部、s209の印刷部は、第2の実施例のs201の
画像データ取得部、s202の対応点抽出部、s203
の視差分布画像作成部、s204の画像生成パラメータ
取得部、およびs206の奥行き感調整部、s207の
仮想視点画像シーケンス生成部、s208の三次元スト
ライプ画像生成部、s209の印刷部と同じ動作をす
る。よって本実施例においては説明を省略する。
In the present embodiment, the image data acquisition unit at s201, the corresponding point extraction unit at s202, the parallax distribution image creation unit at s203, the image generation parameter acquisition unit at s204, the depth feeling adjustment unit at s206, and the virtual viewpoint image at s207. The sequence generation unit, the three-dimensional stripe image generation unit of s208, the printing unit of s209 are the image data acquisition unit of s201, the corresponding point extraction unit of s202, and s203 of the second embodiment.
The parallax distribution image generation unit of s204, the image generation parameter acquisition unit of s204, the depth feeling adjustment unit of s206, the virtual viewpoint image sequence generation unit of s207, the three-dimensional stripe image generation unit of s208, and the printing unit of s209 perform the same operation. . Therefore, the description is omitted in this embodiment.

【0165】s205の領域分割部においては、ユーザ
ーにより、対話的かつ、高精度に領域分割に間する情報
が入力され、該領域分割に間する情報を用いて、領域分
割情報を直ちに生成する手段を備える。
In the area dividing unit of s205, the user interactively and highly accurately inputs information about the area division, and means for immediately generating the area division information using the information about the area division. Equipped with.

【0166】例えば、特開平200−339483に示
されるような、ディスプレイ上に表示された画像に対
し、ポインティングデバイスで確定した開始点もしくは
前確定点と現在マウスが指し示す点の間のエッジトレー
スをマウスの動きに追従して常時高速に行い、結果をリ
アルタイムにディスプレイに表示させることにより、修
正作業の必要性を無くし、高い操作性と高精度のエッジ
トレースの両立を可能にするような、高性能なリアルタ
イムかつ、対話的な領域分割に関する情報を生成する手
段を備える。該エッジトレース結果により、s206に
おいて利用する、領域分割情報を直ちに生成する。
For example, as shown in Japanese Unexamined Patent Publication No. 200-339483, an edge trace between the start point or the previous fixed point determined by the pointing device and the point currently pointed by the mouse is moused on the image displayed on the display. High-performance that eliminates the need for correction work and enables both high operability and high-accuracy edge tracing to be achieved by constantly performing high-speed tracking of the movement of the mouse and displaying the results on the display in real time. It is provided with a means for generating real-time and interactive area segmentation information. Based on the edge trace result, the area division information used in s206 is immediately generated.

【0167】これにより、第2の実施例のs205の領
域分割部において、各種領域分割法を実施し、シーン中
に含まれる、個々の物体ごとに入力画像を分割するよう
な、良好な領域分割結果を得るために必要となり、かつ
微妙な設定値の誤りにより分割結果を大きく変えてしま
う、各種領域分割法に依存する領域分割パラメータの設
定が不要になる。
As a result, in the area dividing unit of s205 of the second embodiment, various area dividing methods are executed, and good area dividing is performed such that the input image is divided for each object included in the scene. It is not necessary to set the area division parameter that depends on various area division methods, which is necessary for obtaining the result and changes the division result largely due to a subtle error in the setting value.

【0168】s206以下の処理においては、第2の実
施例と同様の処理を行い、特定領域に対応する画素の奥
行き量または視差値の調整を行うことにより、期待しな
い領域の画素の奥行き量または視差値を変更することな
く、奥行き調整を行うことにより、生成する仮想視点画
像間の視差を調整し、見やすい立体画像を生成すること
ができる。
In the processing from s206 onward, the same processing as that of the second embodiment is performed to adjust the depth amount or the parallax value of the pixel corresponding to the specific region, and By performing the depth adjustment without changing the parallax value, it is possible to adjust the parallax between the generated virtual viewpoint images and generate a stereoscopic image that is easy to see.

【0169】本手法には、従来から多視点画像を撮影す
るカメラの台数が少なくてよいというメリットがあげら
れる。そして、特にs205、s206に示されるよう
な本発明の要素を用いることにより、領域分割におい
て、複雑な領域分割パラメータの設定を行うことなく、
ユーザーの入力により、適切な領域分割が可能であり、
分割された領域から、特定領域を選択して、特定領域に
対応する画素の奥行き量または視差値の調整を行うこと
により、期待しない領域の画素の奥行き量または視差値
を変更することなく、奥行き調整を行うことにより、期
待しない画像領域を歪ませることなく、生成する仮想視
点画像間の視差を調整し、見やすい立体画像を生成する
ことができる方法である。
This method has an advantage that the number of cameras for photographing multi-viewpoint images is conventionally small. Then, particularly by using the elements of the present invention as shown in s205 and s206, in the area division, without setting complicated area division parameters,
Appropriate segmentation is possible by user input,
By selecting a specific area from the divided areas and adjusting the depth amount or parallax value of the pixel corresponding to the specific area, the depth of the pixel or the parallax value of the unexpected area can be adjusted without changing the depth. By performing the adjustment, the parallax between the virtual viewpoint images to be generated can be adjusted without distorting an unexpected image region, and a stereoscopic image that is easy to see can be generated.

【0170】[0170]

【発明の効果】立体画像の飛び出し量、沈み込み量調整
を行い、表示時に、強い立体感を感じさせながら、最適
視点位置を外れた場合でも目が疲れにくい、違和感の少
ない立体表示を容易に実現する立体画像生成方法を提供
すること。
EFFECTS OF THE INVENTION By adjusting the pop-out amount and the sinking amount of a stereoscopic image, it is possible to easily realize a stereoscopic display with less discomfort, which makes the eyes less tired even when the optimal viewpoint position is deviated while giving a strong stereoscopic effect at the time of display. To provide a stereoscopic image generation method to be realized.

【0171】立体画像の飛び出し量、沈み込み量調整を
行い、複雑なシーンを撮影した入力視差画像に対して
も、期待しない画像領域を歪ませることなく、表示時
に、強い立体感を感じさせながら、最適視点位置を外れ
た場合でも目が疲れにくい、違和感の少ない立体表示を
容易に実現する、立体画像生成方法を提供すること。
By adjusting the pop-out amount and the sinking amount of the stereoscopic image, even for an input parallax image of a complicated scene, an undesired image area is not distorted, and a strong stereoscopic effect is felt at the time of display. To provide a stereoscopic image generation method that easily realizes stereoscopic display with less discomfort even if the eyes are out of the optimum viewpoint position.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の第1の実施例のアルゴリズムを示す
FIG. 1 is a diagram showing an algorithm according to a first embodiment of the present invention.

【図2】 本発明の第2の実施例及び第3の実施例のア
ルゴリズムを示す図
FIG. 2 is a diagram showing algorithms of a second embodiment and a third embodiment of the present invention.

【図3】 飛び出し量及び沈み込み量と視差量との関係
を示す図
FIG. 3 is a diagram showing the relationship between the amount of protrusion and the amount of depression and the amount of parallax.

【図4】 テンプレートマッチングを示す図FIG. 4 is a diagram showing template matching.

【図5】 奥行き感調整を示す図FIG. 5 is a diagram showing a feeling of depth adjustment.

【図6】 奥行き感調整を示す図FIG. 6 is a diagram showing a feeling of depth adjustment.

【図7】 奥行き感調整を示す図FIG. 7 is a diagram showing a feeling of depth adjustment.

【図8】 観察位置と像飛ばしの関係を示す図FIG. 8 is a diagram showing a relationship between an observation position and image skipping.

【図9】 画像シーケンスにおける像飛ばしの関係を示
す図
FIG. 9 is a diagram showing a relationship of image skipping in an image sequence.

【図10】 ステレオ画像対を示す図FIG. 10 is a diagram showing a stereo image pair.

【図11】 図10のステレオ画像に対し領域分割を行
った結果の図
FIG. 11 is a diagram showing a result of performing region division on the stereo image of FIG.

【図12】 領域分割情報を用いた奥行き感調整を示す
FIG. 12 is a diagram showing depth feeling adjustment using area division information.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 仮想視点画像生成を用いた立体画像生成
方法において、奥行き量または視差値の調整を行うこと
により、生成する仮想視点画像間の視差を調整すること
を特徴とする立体画像生成方法。
1. A stereoscopic image generation method using virtual viewpoint image generation, which comprises adjusting a parallax between virtual viewpoint images to be generated by adjusting a depth amount or a parallax value. .
【請求項2】 前記奥行き量または視差値の調整は、入
力ステレオ画像または奥行き画像または視差値分布画像
またはこれらの複数画像の情報を用いて、領域分割を行
い、選択された特定領域に対して行われることを特徴と
する、請求項1に記載の立体画像生成方法。
2. The depth amount or the parallax value is adjusted by performing area division using information of an input stereo image, a depth image, a parallax value distribution image, or a plurality of these images, and selecting a selected specific area. The stereoscopic image generation method according to claim 1, wherein the stereoscopic image generation method is performed.
【請求項3】 前記奥行き量または視差値の調整は、ユ
ーザーの対話的操作により入力画像の領域分割を行い、
選択された特定領域に対して行われることを特徴とす
る、請求項1に記載の立体画像生成方法。
3. The depth amount or the parallax value is adjusted by performing an area division of an input image by an interactive operation of a user,
The stereoscopic image generation method according to claim 1, wherein the stereoscopic image generation method is performed on the selected specific area.
【請求項4】 請求項1に記載の立体画像生成方法をプ
ログラムにして記録した記録媒体。
4. A recording medium on which the stereoscopic image generation method according to claim 1 is recorded as a program.
【請求項5】 請求項2に記載の立体画像生成方法をプ
ログラムにして記録した記録媒体。
5. A recording medium on which the stereoscopic image generation method according to claim 2 is recorded as a program.
【請求項6】 請求項3に記載の立体画像生成方法をプ
ログラムにして記録した記録媒体。
6. A recording medium on which the stereoscopic image generation method according to claim 3 is recorded as a program.
JP2002008484A 2002-01-17 2002-01-17 Stereoscopic image generating method and recording medium Pending JP2003209858A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002008484A JP2003209858A (en) 2002-01-17 2002-01-17 Stereoscopic image generating method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002008484A JP2003209858A (en) 2002-01-17 2002-01-17 Stereoscopic image generating method and recording medium

Publications (1)

Publication Number Publication Date
JP2003209858A true JP2003209858A (en) 2003-07-25

Family

ID=27646729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002008484A Pending JP2003209858A (en) 2002-01-17 2002-01-17 Stereoscopic image generating method and recording medium

Country Status (1)

Country Link
JP (1) JP2003209858A (en)

Cited By (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178900A (en) * 2004-12-24 2006-07-06 Hitachi Displays Ltd Stereoscopic image generating device
JP2006203668A (en) * 2005-01-21 2006-08-03 Konica Minolta Photo Imaging Inc Image creation system and image creation method
JP2006229725A (en) * 2005-02-18 2006-08-31 Konica Minolta Photo Imaging Inc Image generation system and image generating method
JP2007110360A (en) * 2005-10-13 2007-04-26 Ntt Comware Corp Stereoscopic image processing apparatus and program
CN100349467C (en) * 2004-05-13 2007-11-14 三洋电机株式会社 Method and apparatus for processing three-dimensional images
JP2008141666A (en) * 2006-12-05 2008-06-19 Fujifilm Corp Stereoscopic image creating device, stereoscopic image output device, and stereoscopic image creating method
US7443392B2 (en) 2004-10-15 2008-10-28 Canon Kabushiki Kaisha Image processing program for 3D display, image processing apparatus, and 3D display system
WO2009020277A1 (en) * 2007-08-06 2009-02-12 Samsung Electronics Co., Ltd. Method and apparatus for reproducing stereoscopic image using depth control
JP2009129420A (en) * 2007-11-28 2009-06-11 Fujifilm Corp Image processing device, method, and program
US7567648B2 (en) 2004-06-14 2009-07-28 Canon Kabushiki Kaisha System of generating stereoscopic image and control method thereof
JP2009186938A (en) * 2008-02-08 2009-08-20 Toppan Printing Co Ltd Printed matter for stereoscopic vision
JP2009290905A (en) * 2009-09-10 2009-12-10 Panasonic Corp Displaying apparatus and method
JP2010206774A (en) * 2009-02-05 2010-09-16 Fujifilm Corp Three-dimensional image output device and method
JP2010226500A (en) * 2009-03-24 2010-10-07 Toshiba Corp Device and method for displaying stereoscopic image
WO2011052389A1 (en) * 2009-10-30 2011-05-05 富士フイルム株式会社 Image processing device and image processing method
CN102143371A (en) * 2010-01-28 2011-08-03 株式会社东芝 Image processing apparatus, 3D display apparatus and image processing method
JP2011160347A (en) * 2010-02-03 2011-08-18 Sony Corp Recording device and method, image processing device and method, and program
JP2011176822A (en) * 2010-01-28 2011-09-08 Toshiba Corp Image processing apparatus, 3d display apparatus, and image processing method
JP2011211717A (en) * 2009-02-05 2011-10-20 Fujifilm Corp Three-dimensional image output device and method
JP2011211739A (en) * 2011-06-01 2011-10-20 Fujifilm Corp Stereoscopic vision image preparation device, stereoscopic vision image output device and stereoscopic vision image preparation method
WO2011148921A1 (en) * 2010-05-26 2011-12-01 シャープ株式会社 Image processor, image display apparatus, and imaging device
WO2011155330A1 (en) * 2010-06-07 2011-12-15 ソニー株式会社 Three-dimensional image display system, disparity conversion device, disparity conversion method, and program
WO2012001958A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Image processing device, method and program
US8111875B2 (en) 2007-02-20 2012-02-07 Fujifilm Corporation Method of and apparatus for taking solid image and computer program for causing computer to execute the method
WO2012018001A1 (en) * 2010-08-02 2012-02-09 シャープ株式会社 Video image processing device, display device and video image processing method
WO2012020558A1 (en) * 2010-08-10 2012-02-16 株式会社ニコン Image processing device, image processing method, display device, display method and program
JP2012505586A (en) * 2008-10-10 2012-03-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method for processing disparity information contained in a signal
WO2012029301A1 (en) * 2010-08-31 2012-03-08 パナソニック株式会社 Image capturing apparatus, playback apparatus, and image processing method
WO2012036056A1 (en) * 2010-09-15 2012-03-22 シャープ株式会社 Stereoscopic image display device, stereoscopic image display method, program for executing stereoscopic image display method on computer, and recording medium on which said program is recorded
WO2012036176A1 (en) * 2010-09-14 2012-03-22 Sharp Kabushiki Kaisha Reducing viewing discomfort
WO2012046369A1 (en) * 2010-10-07 2012-04-12 パナソニック株式会社 Image capturing device, disparity adjustment method, semiconductor integrated circuit, and digital camera
JP2012078942A (en) * 2010-09-30 2012-04-19 Toshiba Corp Depth correction device and method
WO2012049848A1 (en) * 2010-10-14 2012-04-19 パナソニック株式会社 Stereo image display device
WO2012056685A1 (en) * 2010-10-27 2012-05-03 パナソニック株式会社 3d image processing device, 3d imaging device, and 3d image processing method
WO2012060406A1 (en) * 2010-11-05 2012-05-10 シャープ株式会社 Device for creating stereoscopic image data, device for playing back stereoscopic image data, and file management method
JP2012095039A (en) * 2010-10-26 2012-05-17 Fujifilm Corp Three-dimensional image display device, three-dimensional image display method and program
WO2012063595A1 (en) * 2010-11-11 2012-05-18 シャープ株式会社 Stereo image display device, stereo image display method, program for executing stereo image display method on computer, and recording medium with same program recorded thereon
CN102474636A (en) * 2009-07-29 2012-05-23 伊斯曼柯达公司 Adjusting perspective and disparity in stereoscopic image pairs
JP2012099956A (en) * 2010-10-29 2012-05-24 Toshiba Corp Video reproduction device and video reproduction method
JP2012103980A (en) * 2010-11-11 2012-05-31 Sony Corp Image processing device, image processing method, and program
JP2012130008A (en) * 2010-12-16 2012-07-05 Korea Electronics Telecommun Three-dimensional video display device and method
JP2012134955A (en) * 2010-12-23 2012-07-12 Tektronix Inc Displays for test and measurement instruments
WO2012098608A1 (en) * 2011-01-17 2012-07-26 パナソニック株式会社 Three-dimensional image processing device, three-dimensional image processing method, and program
JP2012142922A (en) * 2010-12-17 2012-07-26 Canon Inc Imaging device, display device, computer program, and stereoscopic image display system
JP2012169911A (en) * 2011-02-15 2012-09-06 Nintendo Co Ltd Display control program, display controller, display control system, and display control method
JP2012205148A (en) * 2011-03-25 2012-10-22 Kyocera Corp Electronic apparatus
JP2012204852A (en) * 2011-03-23 2012-10-22 Sony Corp Image processing apparatus and method, and program
JP2012231405A (en) * 2011-04-27 2012-11-22 Toshiba Corp Depth-adjustable three-dimensional video display device
WO2012169217A1 (en) * 2011-06-10 2012-12-13 シャープ株式会社 Image generation device, image display device, television reception device, image generation method, and computer program
JP2012257022A (en) * 2011-06-08 2012-12-27 Sony Corp Image processing apparatus, method, and program
JP2013005052A (en) * 2011-06-13 2013-01-07 Toshiba Corp Image processing system, apparatus, method and program
JP2013003586A (en) * 2011-06-14 2013-01-07 Samsung Electronics Co Ltd Display system with image conversion mechanism and method of operation thereof
JP2013009324A (en) * 2011-05-23 2013-01-10 Panasonic Corp Image display device
WO2013014710A1 (en) * 2011-07-27 2013-01-31 パナソニック株式会社 Stereoscopic image adjustment device
CN102948157A (en) * 2010-06-22 2013-02-27 富士胶片株式会社 Stereoscopic image display device, stereoscopic image display method, stereoscopic image display program, and recording medium
JPWO2011086636A1 (en) * 2010-01-13 2013-05-16 パナソニック株式会社 Stereo image pickup device, stereo image pickup method, stereo image display device, and program
JP2013517657A (en) * 2010-01-14 2013-05-16 ヒューマンアイズ テクノロジーズ リミテッド Method and system for adjusting the depth value of an object in a three-dimensional display
JP2013157951A (en) * 2012-01-31 2013-08-15 Jvc Kenwood Corp Image processing device, image processing method, and image processing program
JP2013162330A (en) * 2012-02-06 2013-08-19 Sony Corp Image processing device and method, program, and recording medium
JP2013534772A (en) * 2010-06-24 2013-09-05 コリア エレクトロニクス テクノロジ インスティチュート How to configure stereoscopic video files
JP2013538474A (en) * 2010-06-14 2013-10-10 クゥアルコム・インコーポレイテッド Calculation of parallax for 3D images
CN103369340A (en) * 2013-07-05 2013-10-23 邓伟廷 Stereoscopic display method of multi-dimensional LED (Light Emitting Diode) display screen and multi-dimensional LED display screen
JP2013219422A (en) * 2012-04-04 2013-10-24 Seiko Epson Corp Image processing device and image processing method
JP2013219421A (en) * 2012-04-04 2013-10-24 Seiko Epson Corp Image processing device and image processing method
JP2013540402A (en) * 2010-10-04 2013-10-31 クゥアルコム・インコーポレイテッド 3D video control system for adjusting 3D video rendering based on user preferences
WO2014017201A1 (en) * 2012-07-26 2014-01-30 ソニー株式会社 Image processing device, image processing method, and image display device
WO2014038476A1 (en) * 2012-09-06 2014-03-13 シャープ株式会社 Stereoscopic image processing device, stereoscopic image processing method, and program
JP2014508430A (en) * 2010-12-01 2014-04-03 クゥアルコム・インコーポレイテッド Zero parallax plane for feedback-based 3D video
JP2014086851A (en) * 2012-10-23 2014-05-12 Toppan Printing Co Ltd Parallax control device and parallax control program
JP5492311B2 (en) * 2011-02-08 2014-05-14 富士フイルム株式会社 Viewpoint image generation apparatus, viewpoint image generation method, and stereoscopic image printing apparatus
JPWO2012101719A1 (en) * 2011-01-27 2014-06-30 パナソニック株式会社 3D image capturing apparatus and 3D image capturing method
JPWO2012132797A1 (en) * 2011-03-31 2014-07-28 富士フイルム株式会社 Imaging apparatus and imaging method
JP2014534657A (en) * 2011-09-14 2014-12-18 サムスン エレクトロニクス カンパニー リミテッド Video processing apparatus and video processing method thereof
JP5644862B2 (en) * 2010-12-10 2014-12-24 富士通株式会社 Stereoscopic moving image generating apparatus, stereoscopic moving image generating method, stereoscopic moving image generating program
US8970680B2 (en) 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
US9042709B2 (en) 2010-08-31 2015-05-26 Panasonic Intellectual Property Management Co., Ltd. Image capture device, player, and image processing method
JP2015213299A (en) * 2014-04-15 2015-11-26 キヤノン株式会社 Image processing system and image processing method
JP5851625B2 (en) * 2013-03-29 2016-02-03 株式会社東芝 Stereoscopic video processing apparatus, stereoscopic video processing method, and stereoscopic video processing program
US9361668B2 (en) 2012-08-20 2016-06-07 Denso Corporation Method and apparatus for generating disparity map
JP2016149772A (en) * 2016-03-01 2016-08-18 京セラ株式会社 Electronic apparatus
EP3091443A3 (en) * 2009-06-16 2017-03-08 Microsoft Technology Licensing, LLC Viewer-centric user interface for stereoscopic cinema
KR101742993B1 (en) 2010-07-07 2017-06-02 엘지전자 주식회사 A digital broadcast receiver and a method for processing a 3-dimensional effect in the digital broadcast receiver
JP2017525198A (en) * 2014-06-10 2017-08-31 ビッタニメイト インコーポレイテッド Stereoscopic depth adjustment and focus adjustment
KR101870764B1 (en) * 2011-06-14 2018-06-25 삼성전자주식회사 Display apparatus using image conversion mechanism and method of operation thereof
JP2019500762A (en) * 2015-12-07 2019-01-10 グーグル エルエルシー System and method for multiscopic noise reduction and high dynamic range
WO2019058811A1 (en) * 2017-09-19 2019-03-28 ソニー株式会社 Display device and display control method
JP2020012735A (en) * 2018-07-18 2020-01-23 日立オートモティブシステムズ株式会社 On-vehicle environment recognition device
JP2020027957A (en) * 2018-08-09 2020-02-20 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program

Cited By (135)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100349467C (en) * 2004-05-13 2007-11-14 三洋电机株式会社 Method and apparatus for processing three-dimensional images
US7567648B2 (en) 2004-06-14 2009-07-28 Canon Kabushiki Kaisha System of generating stereoscopic image and control method thereof
US7443392B2 (en) 2004-10-15 2008-10-28 Canon Kabushiki Kaisha Image processing program for 3D display, image processing apparatus, and 3D display system
JP2006178900A (en) * 2004-12-24 2006-07-06 Hitachi Displays Ltd Stereoscopic image generating device
JP2006203668A (en) * 2005-01-21 2006-08-03 Konica Minolta Photo Imaging Inc Image creation system and image creation method
JP2006229725A (en) * 2005-02-18 2006-08-31 Konica Minolta Photo Imaging Inc Image generation system and image generating method
JP2007110360A (en) * 2005-10-13 2007-04-26 Ntt Comware Corp Stereoscopic image processing apparatus and program
US9509980B2 (en) 2006-08-01 2016-11-29 Qualcomm Incorporated Real-time capturing and generating viewpoint images and videos with a monoscopic low power mobile device
US8970680B2 (en) 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
JP2008141666A (en) * 2006-12-05 2008-06-19 Fujifilm Corp Stereoscopic image creating device, stereoscopic image output device, and stereoscopic image creating method
US8111875B2 (en) 2007-02-20 2012-02-07 Fujifilm Corporation Method of and apparatus for taking solid image and computer program for causing computer to execute the method
WO2009020277A1 (en) * 2007-08-06 2009-02-12 Samsung Electronics Co., Ltd. Method and apparatus for reproducing stereoscopic image using depth control
JP2009129420A (en) * 2007-11-28 2009-06-11 Fujifilm Corp Image processing device, method, and program
JP2009186938A (en) * 2008-02-08 2009-08-20 Toppan Printing Co Ltd Printed matter for stereoscopic vision
JP2012505586A (en) * 2008-10-10 2012-03-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method for processing disparity information contained in a signal
JP2011211717A (en) * 2009-02-05 2011-10-20 Fujifilm Corp Three-dimensional image output device and method
US8120606B2 (en) 2009-02-05 2012-02-21 Fujifilm Corporation Three-dimensional image output device and three-dimensional image output method
JP2010206774A (en) * 2009-02-05 2010-09-16 Fujifilm Corp Three-dimensional image output device and method
CN102308590B (en) * 2009-02-05 2014-04-16 富士胶片株式会社 Three-dimensional image output device and three-dimensional image output method
JP4737573B2 (en) * 2009-02-05 2011-08-03 富士フイルム株式会社 3D image output apparatus and method
JP2010226500A (en) * 2009-03-24 2010-10-07 Toshiba Corp Device and method for displaying stereoscopic image
EP3091443A3 (en) * 2009-06-16 2017-03-08 Microsoft Technology Licensing, LLC Viewer-centric user interface for stereoscopic cinema
JP2013500536A (en) * 2009-07-29 2013-01-07 イーストマン コダック カンパニー Perspective and parallax adjustment in stereoscopic image pairs
CN102474636A (en) * 2009-07-29 2012-05-23 伊斯曼柯达公司 Adjusting perspective and disparity in stereoscopic image pairs
JP2009290905A (en) * 2009-09-10 2009-12-10 Panasonic Corp Displaying apparatus and method
WO2011052389A1 (en) * 2009-10-30 2011-05-05 富士フイルム株式会社 Image processing device and image processing method
JP5068391B2 (en) * 2009-10-30 2012-11-07 富士フイルム株式会社 Image processing device
US8472704B2 (en) 2009-10-30 2013-06-25 Fujifilm Corporation Image processing apparatus and image processing method
CN102598051A (en) * 2009-10-30 2012-07-18 富士胶片株式会社 Image processing device and image processing method
JPWO2011086636A1 (en) * 2010-01-13 2013-05-16 パナソニック株式会社 Stereo image pickup device, stereo image pickup method, stereo image display device, and program
US9438759B2 (en) 2010-01-14 2016-09-06 Humaneyes Technologies Ltd. Method and system for adjusting depth values of objects in a three dimensional (3D) display
JP2013517657A (en) * 2010-01-14 2013-05-16 ヒューマンアイズ テクノロジーズ リミテッド Method and system for adjusting the depth value of an object in a three-dimensional display
CN102143371A (en) * 2010-01-28 2011-08-03 株式会社东芝 Image processing apparatus, 3D display apparatus and image processing method
JP2011176823A (en) * 2010-01-28 2011-09-08 Toshiba Corp Image processing apparatus, 3d display apparatus, and image processing method
JP2011176822A (en) * 2010-01-28 2011-09-08 Toshiba Corp Image processing apparatus, 3d display apparatus, and image processing method
JP2011160347A (en) * 2010-02-03 2011-08-18 Sony Corp Recording device and method, image processing device and method, and program
JP2011250059A (en) * 2010-05-26 2011-12-08 Sharp Corp Image processing device, image display device and image pickup device
CN102939764A (en) * 2010-05-26 2013-02-20 夏普株式会社 Image processor, image display apparatus, and imaging device
WO2011148921A1 (en) * 2010-05-26 2011-12-01 シャープ株式会社 Image processor, image display apparatus, and imaging device
US8831338B2 (en) 2010-05-26 2014-09-09 Sharp Kabushiki Kaisha Image processor, image display apparatus, and image taking apparatus
WO2011155330A1 (en) * 2010-06-07 2011-12-15 ソニー株式会社 Three-dimensional image display system, disparity conversion device, disparity conversion method, and program
JP2011259045A (en) * 2010-06-07 2011-12-22 Sony Corp Stereoscopic image display device, parallax conversion device, parallax conversion method and program
US8605994B2 (en) 2010-06-07 2013-12-10 Sony Corporation Stereoscopic image display system, disparity conversion device, disparity conversion method and program
JP2013538474A (en) * 2010-06-14 2013-10-10 クゥアルコム・インコーポレイテッド Calculation of parallax for 3D images
CN102948157A (en) * 2010-06-22 2013-02-27 富士胶片株式会社 Stereoscopic image display device, stereoscopic image display method, stereoscopic image display program, and recording medium
CN102948157B (en) * 2010-06-22 2016-05-11 富士胶片株式会社 3 D image display device and 3 D image display method
JP2013534772A (en) * 2010-06-24 2013-09-05 コリア エレクトロニクス テクノロジ インスティチュート How to configure stereoscopic video files
WO2012001958A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Image processing device, method and program
KR101742993B1 (en) 2010-07-07 2017-06-02 엘지전자 주식회사 A digital broadcast receiver and a method for processing a 3-dimensional effect in the digital broadcast receiver
JP2012054912A (en) * 2010-08-02 2012-03-15 Sharp Corp Video processing apparatus, display device and video processing method
WO2012018001A1 (en) * 2010-08-02 2012-02-09 シャープ株式会社 Video image processing device, display device and video image processing method
US10462455B2 (en) 2010-08-10 2019-10-29 Nikon Corporation Display apparatus, display method, and computer readable recording medium
WO2012020558A1 (en) * 2010-08-10 2012-02-16 株式会社ニコン Image processing device, image processing method, display device, display method and program
US9488841B2 (en) 2010-08-10 2016-11-08 Nikon Corporation Image processing apparatus, image processing method, display apparatus, display method, and computer readable recording medium
JP5204350B2 (en) * 2010-08-31 2013-06-05 パナソニック株式会社 Imaging apparatus, playback apparatus, and image processing method
WO2012029301A1 (en) * 2010-08-31 2012-03-08 パナソニック株式会社 Image capturing apparatus, playback apparatus, and image processing method
US9042709B2 (en) 2010-08-31 2015-05-26 Panasonic Intellectual Property Management Co., Ltd. Image capture device, player, and image processing method
US8970675B2 (en) 2010-08-31 2015-03-03 Panasonic Intellectual Property Management Co., Ltd. Image capture device, player, system, and image processing method
WO2012036176A1 (en) * 2010-09-14 2012-03-22 Sharp Kabushiki Kaisha Reducing viewing discomfort
JP2012065111A (en) * 2010-09-15 2012-03-29 Sharp Corp Stereoscopic image display device, stereoscopic image display method, program for allowing computer to perform stereoscopic image display method, and recording medium with program recorded therein
WO2012036056A1 (en) * 2010-09-15 2012-03-22 シャープ株式会社 Stereoscopic image display device, stereoscopic image display method, program for executing stereoscopic image display method on computer, and recording medium on which said program is recorded
US8761492B2 (en) 2010-09-30 2014-06-24 Kabushiki Kaisha Toshiba Depth correction apparatus and method
JP2012078942A (en) * 2010-09-30 2012-04-19 Toshiba Corp Depth correction device and method
JP2013540402A (en) * 2010-10-04 2013-10-31 クゥアルコム・インコーポレイテッド 3D video control system for adjusting 3D video rendering based on user preferences
US9035939B2 (en) 2010-10-04 2015-05-19 Qualcomm Incorporated 3D video control system to adjust 3D video rendering based on user preferences
WO2012046369A1 (en) * 2010-10-07 2012-04-12 パナソニック株式会社 Image capturing device, disparity adjustment method, semiconductor integrated circuit, and digital camera
JP4972716B2 (en) * 2010-10-14 2012-07-11 パナソニック株式会社 Stereo image display device
WO2012049848A1 (en) * 2010-10-14 2012-04-19 パナソニック株式会社 Stereo image display device
US9024940B2 (en) 2010-10-26 2015-05-05 Fujifilm Corporation Three-dimensional image display device and three-dimensional image display method and program
JP2012095039A (en) * 2010-10-26 2012-05-17 Fujifilm Corp Three-dimensional image display device, three-dimensional image display method and program
WO2012056685A1 (en) * 2010-10-27 2012-05-03 パナソニック株式会社 3d image processing device, 3d imaging device, and 3d image processing method
JP5942195B2 (en) * 2010-10-27 2016-06-29 パナソニックIpマネジメント株式会社 3D image processing apparatus, 3D imaging apparatus, and 3D image processing method
CN103181173B (en) * 2010-10-27 2016-04-27 松下知识产权经营株式会社 3-dimensional image processing apparatus, three-dimensional image pickup device and three dimensional image processing method
US9338426B2 (en) 2010-10-27 2016-05-10 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional image processing apparatus, three-dimensional imaging apparatus, and three-dimensional image processing method
CN103181173A (en) * 2010-10-27 2013-06-26 松下电器产业株式会社 3D image processing device, 3d imaging device, and 3d image processing method
JP2012099956A (en) * 2010-10-29 2012-05-24 Toshiba Corp Video reproduction device and video reproduction method
WO2012060406A1 (en) * 2010-11-05 2012-05-10 シャープ株式会社 Device for creating stereoscopic image data, device for playing back stereoscopic image data, and file management method
JP2012100211A (en) * 2010-11-05 2012-05-24 Sharp Corp Stereoscopic image data creating apparatus, stereoscopic image data playback apparatus, and file managing method
JP2012105153A (en) * 2010-11-11 2012-05-31 Sharp Corp Stereoscopic image display device, stereoscopic image display method, program for allowing computer to execute stereoscopic image display method, and recording medium for storing program
WO2012063595A1 (en) * 2010-11-11 2012-05-18 シャープ株式会社 Stereo image display device, stereo image display method, program for executing stereo image display method on computer, and recording medium with same program recorded thereon
JP2012103980A (en) * 2010-11-11 2012-05-31 Sony Corp Image processing device, image processing method, and program
JP2014508430A (en) * 2010-12-01 2014-04-03 クゥアルコム・インコーポレイテッド Zero parallax plane for feedback-based 3D video
US9049423B2 (en) 2010-12-01 2015-06-02 Qualcomm Incorporated Zero disparity plane for feedback-based three-dimensional video
JP5644862B2 (en) * 2010-12-10 2014-12-24 富士通株式会社 Stereoscopic moving image generating apparatus, stereoscopic moving image generating method, stereoscopic moving image generating program
JP2012130008A (en) * 2010-12-16 2012-07-05 Korea Electronics Telecommun Three-dimensional video display device and method
JP2012142922A (en) * 2010-12-17 2012-07-26 Canon Inc Imaging device, display device, computer program, and stereoscopic image display system
EP2469874A3 (en) * 2010-12-23 2012-09-05 Tektronix, Inc. Displays for easy visualizing of 3D disparity data
JP2012134955A (en) * 2010-12-23 2012-07-12 Tektronix Inc Displays for test and measurement instruments
CN102685535A (en) * 2010-12-23 2012-09-19 特克特朗尼克公司 Displays for easy visualizing of 3d disparity data
US8750601B2 (en) 2011-01-17 2014-06-10 Panasonic Corporation Three-dimensional image processing device, and three-dimensional image processing method
WO2012098608A1 (en) * 2011-01-17 2012-07-26 パナソニック株式会社 Three-dimensional image processing device, three-dimensional image processing method, and program
JPWO2012101719A1 (en) * 2011-01-27 2014-06-30 パナソニック株式会社 3D image capturing apparatus and 3D image capturing method
JP6011862B2 (en) * 2011-01-27 2016-10-19 パナソニックIpマネジメント株式会社 3D image capturing apparatus and 3D image capturing method
JP5492311B2 (en) * 2011-02-08 2014-05-14 富士フイルム株式会社 Viewpoint image generation apparatus, viewpoint image generation method, and stereoscopic image printing apparatus
JP2012169911A (en) * 2011-02-15 2012-09-06 Nintendo Co Ltd Display control program, display controller, display control system, and display control method
JP2012204852A (en) * 2011-03-23 2012-10-22 Sony Corp Image processing apparatus and method, and program
JP2012205148A (en) * 2011-03-25 2012-10-22 Kyocera Corp Electronic apparatus
US9462259B2 (en) 2011-03-25 2016-10-04 Kyocera Corporation Electronic device
JP5640143B2 (en) * 2011-03-31 2014-12-10 富士フイルム株式会社 Imaging apparatus and imaging method
US8885026B2 (en) 2011-03-31 2014-11-11 Fujifilm Corporation Imaging device and imaging method
JPWO2012132797A1 (en) * 2011-03-31 2014-07-28 富士フイルム株式会社 Imaging apparatus and imaging method
JP2012231405A (en) * 2011-04-27 2012-11-22 Toshiba Corp Depth-adjustable three-dimensional video display device
JP2013009324A (en) * 2011-05-23 2013-01-10 Panasonic Corp Image display device
JP2011211739A (en) * 2011-06-01 2011-10-20 Fujifilm Corp Stereoscopic vision image preparation device, stereoscopic vision image output device and stereoscopic vision image preparation method
JP2012257022A (en) * 2011-06-08 2012-12-27 Sony Corp Image processing apparatus, method, and program
WO2012169217A1 (en) * 2011-06-10 2012-12-13 シャープ株式会社 Image generation device, image display device, television reception device, image generation method, and computer program
JP2013004989A (en) * 2011-06-10 2013-01-07 Sharp Corp Video generating device, video display device, television image receiving device, video generating method and computer program
US9578303B2 (en) 2011-06-13 2017-02-21 Toshiba Medical Systems Corporation Image processing system, image processing apparatus, and image processing method for displaying a scale on a stereoscopic display device
JP2013005052A (en) * 2011-06-13 2013-01-07 Toshiba Corp Image processing system, apparatus, method and program
KR101870764B1 (en) * 2011-06-14 2018-06-25 삼성전자주식회사 Display apparatus using image conversion mechanism and method of operation thereof
JP2013003586A (en) * 2011-06-14 2013-01-07 Samsung Electronics Co Ltd Display system with image conversion mechanism and method of operation thereof
WO2013014710A1 (en) * 2011-07-27 2013-01-31 パナソニック株式会社 Stereoscopic image adjustment device
JP2014534657A (en) * 2011-09-14 2014-12-18 サムスン エレクトロニクス カンパニー リミテッド Video processing apparatus and video processing method thereof
JP2013157951A (en) * 2012-01-31 2013-08-15 Jvc Kenwood Corp Image processing device, image processing method, and image processing program
JP2013162330A (en) * 2012-02-06 2013-08-19 Sony Corp Image processing device and method, program, and recording medium
JP2013219421A (en) * 2012-04-04 2013-10-24 Seiko Epson Corp Image processing device and image processing method
US9177382B2 (en) 2012-04-04 2015-11-03 Seiko Epson Corporation Image processing apparatus for forming synthetic image and image processing method for forming synthetic image
JP2013219422A (en) * 2012-04-04 2013-10-24 Seiko Epson Corp Image processing device and image processing method
WO2014017201A1 (en) * 2012-07-26 2014-01-30 ソニー株式会社 Image processing device, image processing method, and image display device
US9361668B2 (en) 2012-08-20 2016-06-07 Denso Corporation Method and apparatus for generating disparity map
WO2014038476A1 (en) * 2012-09-06 2014-03-13 シャープ株式会社 Stereoscopic image processing device, stereoscopic image processing method, and program
JP2014086851A (en) * 2012-10-23 2014-05-12 Toppan Printing Co Ltd Parallax control device and parallax control program
JP5851625B2 (en) * 2013-03-29 2016-02-03 株式会社東芝 Stereoscopic video processing apparatus, stereoscopic video processing method, and stereoscopic video processing program
CN103369340B (en) * 2013-07-05 2015-09-02 邓伟廷 Multi-dimensional LED display screen stereo display method and multi-dimensional LED display screen
CN103369340A (en) * 2013-07-05 2013-10-23 邓伟廷 Stereoscopic display method of multi-dimensional LED (Light Emitting Diode) display screen and multi-dimensional LED display screen
JP2015213299A (en) * 2014-04-15 2015-11-26 キヤノン株式会社 Image processing system and image processing method
JP2017525198A (en) * 2014-06-10 2017-08-31 ビッタニメイト インコーポレイテッド Stereoscopic depth adjustment and focus adjustment
JP2019500762A (en) * 2015-12-07 2019-01-10 グーグル エルエルシー System and method for multiscopic noise reduction and high dynamic range
JP2016149772A (en) * 2016-03-01 2016-08-18 京セラ株式会社 Electronic apparatus
WO2019058811A1 (en) * 2017-09-19 2019-03-28 ソニー株式会社 Display device and display control method
JPWO2019058811A1 (en) * 2017-09-19 2020-11-12 ソニー株式会社 Display device and display control method
JP7184042B2 (en) 2017-09-19 2022-12-06 ソニーグループ株式会社 Display device and display control method
JP2020012735A (en) * 2018-07-18 2020-01-23 日立オートモティブシステムズ株式会社 On-vehicle environment recognition device
JP7219561B2 (en) 2018-07-18 2023-02-08 日立Astemo株式会社 In-vehicle environment recognition device
JP2020027957A (en) * 2018-08-09 2020-02-20 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
JP2003209858A (en) Stereoscopic image generating method and recording medium
US7983477B2 (en) Method and apparatus for generating a stereoscopic image
US9438878B2 (en) Method of converting 2D video to 3D video using 3D object models
JP4440066B2 (en) Stereo image generation program, stereo image generation system, and stereo image generation method
JP4649219B2 (en) Stereo image generator
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
US8000521B2 (en) Stereoscopic image generating method and apparatus
US9992473B2 (en) Digital multi-dimensional image photon platform system and methods of use
US20110080466A1 (en) Automated processing of aligned and non-aligned images for creating two-view and multi-view stereoscopic 3d images
US20100085423A1 (en) Stereoscopic imaging
US20090219383A1 (en) Image depth augmentation system and method
JP2006113807A (en) Image processor and image processing program for multi-eye-point image
US10356383B2 (en) Adjustment of perceived roundness in stereoscopic image of a head
US10165249B2 (en) Method for smoothing transitions between scenes of a stereo film and controlling or regulating a plurality of 3D cameras
JPH06194758A (en) Method and apparatus for formation of depth image
JP2005331844A (en) Stereoscopic image display method, stereoscopic imaging method and stereoscopic imaging device
JPH08115439A (en) Picture data processor and picture reproduction device
WO2012140397A2 (en) Three-dimensional display system
CA2540538C (en) Stereoscopic imaging
JP2006211386A (en) Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method
JP2006211383A (en) Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method
JP2012105172A (en) Image generation device, image generation method, computer program, and record medium
Knorr et al. From 2D-to stereo-to multi-view video
Gurrieri et al. Stereoscopic cameras for the real-time acquisition of panoramic 3D images and videos
US10475233B2 (en) System, method and software for converting images captured by a light field camera into three-dimensional images that appear to extend vertically above or in front of a display medium