JP2015029215A - Stereoscopic image processing device - Google Patents

Stereoscopic image processing device Download PDF

Info

Publication number
JP2015029215A
JP2015029215A JP2013158018A JP2013158018A JP2015029215A JP 2015029215 A JP2015029215 A JP 2015029215A JP 2013158018 A JP2013158018 A JP 2013158018A JP 2013158018 A JP2013158018 A JP 2013158018A JP 2015029215 A JP2015029215 A JP 2015029215A
Authority
JP
Japan
Prior art keywords
parallax
image data
stereoscopic image
fusion limit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013158018A
Other languages
Japanese (ja)
Inventor
智暁 井上
Tomoaki Inoue
智暁 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013158018A priority Critical patent/JP2015029215A/en
Publication of JP2015029215A publication Critical patent/JP2015029215A/en
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic image processing device capable of reducing a processing load for displaying a stereoscopic image having high quality, or a stereoscopic image display device comprising the stereoscopic image processing device.SOLUTION: A stereoscopic image processing device includes: means for acquiring parallax image data to which pixel deviation information is added; information acquisition means for reading the pixel deviation information added to the parallax image data; relative parallax amount calculation means for calculating a relative parallax amount from a display condition and the pixel deviation information acquired by the information acquisition means; fusion limit determination means for performing fusion limit determination on whether or not an observer can perform stereoscopic view of a parallax image, from the relative parallax amount; and stereoscopic image processing means for executing image processing on the parallax image according to a result of the determination by the fusion limit determination means.

Description

本発明は、特に同じ被写体に対して視差を持たせて撮像された複数の画像を用いて立体画像を表示することができる立体画像処理装置、又はそれを有する立体画像表示装置に関するものである。   The present invention relates to a stereoscopic image processing apparatus capable of displaying a stereoscopic image using a plurality of images captured with parallax with respect to the same subject or a stereoscopic image display apparatus having the same.

立体画像を撮影するためには、同じ被写体に対して互いに離間した複数の場所からの画像、すなわち視差を持った画像を撮像する必要がある。従来において、一般に知られる立体画像撮像手法としては、離間して配置された2つのカメラにより、異なる2つの場所からの2つの被写体像(視差画像)をそれぞれ取得する手法がある。また、一つの撮像素子を備えた一つの撮像装置によって前記視差画像を液晶シャッター等を用いて時分割で取得する方法も知られている。   In order to capture a stereoscopic image, it is necessary to capture images from a plurality of locations separated from each other, that is, images having parallax with respect to the same subject. Conventionally, as a generally-known stereoscopic image capturing method, there is a method of acquiring two subject images (parallax images) from two different locations by using two cameras that are spaced apart from each other. Also known is a method of acquiring the parallax image in a time-division manner using a liquid crystal shutter or the like by a single imaging device provided with a single imaging device.

上記視差画像を立体的に表示する手段としては、例えば右眼画像と左目画像を1つの画面上に時分割で表示して、この画面時分割に同期させた液晶シャッタメガネを用いて見る方式がある。また、左右眼画像をそれぞれ直交した方向の偏光光で画面上に同時に表示して、これらを同様に互いに直交するように構成した偏光フィルタを左右の眼に対応させた偏光メガネを用いて見る方式などが知られている。   As a means for displaying the parallax image in a three-dimensional manner, for example, a method of displaying the right-eye image and the left-eye image on one screen in a time-sharing manner and using liquid crystal shutter glasses synchronized with the screen time-sharing is used. is there. In addition, the left and right eye images are simultaneously displayed on the screen with polarized light beams in directions orthogonal to each other, and the polarizing filters configured to be orthogonal to each other are viewed using polarized glasses corresponding to the left and right eyes. Etc. are known.

ところで、このような立体画像の表示において、表示原理と人間の視覚特性によって、左右眼用の視差画像が二重像として知覚され、観察者が立体視できない状況(融合限界)が存在することが知られている。この融合限界については後に詳細を説明するが、二重像として観察者に知覚されてしまう表示を行った場合、観察者に強い違和感や疲労感、不快感を与えてしまうことがわかっている。   By the way, in such a stereoscopic image display, there may be a situation (a fusion limit) in which the left and right eye parallax images are perceived as a double image due to the display principle and human visual characteristics, and the observer cannot stereoscopically view. Are known. Although this fusion limit will be described in detail later, it has been found that when a display that is perceived by the observer as a double image is given, the observer feels a strong sense of discomfort, fatigue, and discomfort.

上記融合限界を改善するために、従来の立体画像撮像装置では、撮影者が融合限界になるべくならない様に、撮影現場にて立体画像を表示する表示画面の大きさと視聴距離を想定して、撮影者が基線長や輻輳角を被写体距離に応じて制御していた。また、特許文献1では、表示装置と撮像装置が一体となっており、撮像装置側で得られる視差画像から視差量を算出し、実際に立体画像が表示される表示装置の表示条件を用いて、前記視差量と表示条件から立体像の再生奥行き位置を算出している。その再生奥行き位置情報から表示される立体像が観察者の融合限界範囲内か否かを判定している。その上で、その立体像が融合限界範囲外の場合、撮像装置側の基線長や輻輳角を調整しなおすことで改善を行っていた。   In order to improve the above-mentioned fusion limit, in the conventional stereoscopic image pickup device, shooting is performed assuming the size of the display screen and the viewing distance for displaying the stereoscopic image at the shooting site so that the photographer should not become the fusion limit. The person controls the baseline length and the convergence angle according to the subject distance. Further, in Patent Document 1, the display device and the imaging device are integrated, the amount of parallax is calculated from the parallax image obtained on the imaging device side, and the display conditions of the display device on which the stereoscopic image is actually displayed are used. The reproduction depth position of the stereoscopic image is calculated from the parallax amount and the display condition. It is determined whether or not the stereoscopic image displayed from the reproduction depth position information is within the fusion limit range of the observer. In addition, when the stereoscopic image is outside the fusion limit range, the improvement has been made by adjusting the baseline length and the convergence angle on the imaging device side.

しかしながら、融合限界範囲は表示装置の表示画面サイズと観察者の視距離によって大きく変動する。そのため、従来技術のようにある表示条件を想定して撮像装置側の基線長や輻輳角を制御しても、想定した表示条件と大きく異なる表示画面サイズや視距離の場合には融合限界範囲を超えて観察者に疲労感や不快感を与えてしまう。また、特許文献1にて提案された制御方法においても、システムとして撮像装置と一体となっている表示装置の場合には効果を発揮するが、そのシステムで撮影された視差画像を別の表示装置で観察する場合には従来技術と同様の問題が生じる。   However, the fusion limit range varies greatly depending on the display screen size of the display device and the viewing distance of the observer. Therefore, even if the base line length and the convergence angle on the imaging device side are controlled assuming a certain display condition as in the prior art, the fusion limit range is set in the case of a display screen size or viewing distance that is significantly different from the assumed display condition. Beyond that, it gives fatigue and discomfort to the observer. The control method proposed in Patent Document 1 is also effective in the case of a display device integrated with an imaging device as a system. However, a parallax image captured by the system is displayed on another display device. When observing with the above, the same problem as in the prior art occurs.

さらに、特許文献1にて提案されたように入力された各画像に対して視差量を算出し、実際に立体画像が表示される表示装置の表示条件を用いて、画像内に融合限界範囲が存在するか否かを判定することは処理負荷が大きくなると考えられる。特に、秒間60フレームかそれ以上の画像データを表示する立体動画像表示時には、上記の判定を1コマ1コマ表示装置側で実行することは処理的に非常に負荷が大きくなる。そのため動画像のさらなる高フレームレート化が困難となり、被写体の動きを滑らかに表現することが困難となる。   Further, the amount of parallax is calculated for each input image as proposed in Patent Document 1, and the fusion limit range is displayed in the image using the display conditions of the display device on which the stereoscopic image is actually displayed. Determining whether or not it exists is considered to increase the processing load. In particular, when displaying a 3D moving image that displays 60 frames or more of image data per second, performing the above-described determination on the frame-by-frame display device side increases the processing load. For this reason, it is difficult to further increase the frame rate of the moving image, and it is difficult to express the motion of the subject smoothly.

特開平07−167633号公報JP 07-167633 A

そこで、本発明の目的は、高品質な立体画像の表示に対する処理負荷を低減することができる立体画像処理装置、又はそれを備えた立体画像表示装置を提供することである。   Accordingly, an object of the present invention is to provide a stereoscopic image processing apparatus that can reduce a processing load for displaying a high-quality stereoscopic image, or a stereoscopic image display apparatus including the same.

画素ズレ情報を付加された視差画像データを取得する手段と、
前記視差画像データに付加された前記画素ズレ情報を読み込む情報取得手段を有し、
前記情報取得手段により取得された画素ズレ情報と表示条件から相対視差量を算出する相対視差量算出手段を有し、
前記相対視差量から観察者が前記視差画像を立体視可能か否かの融合限界判定を行う融合限界判定手段を有し、
前記融合限界判定手段の判定結果に応じて前記視差画像に画像処理を実行する立体画像処理手段を有することを特徴とする。
Means for acquiring parallax image data to which pixel shift information is added;
Comprising information acquisition means for reading the pixel shift information added to the parallax image data;
A relative parallax amount calculating means for calculating a relative parallax amount from the pixel shift information acquired by the information acquiring means and the display condition;
Fusion limit determination means for performing a fusion limit determination as to whether or not the observer can stereoscopically view the parallax image from the relative parallax amount;
The image processing apparatus includes a stereoscopic image processing unit that performs image processing on the parallax image according to a determination result of the fusion limit determination unit.

本発明によれば、高品質な立体画像の表示に対する処理負荷を低減することができる立体画像処理装置、又はそれを備えた立体画像表示装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the stereo image processing apparatus which can reduce the processing load with respect to the display of a high quality stereo image, or a stereo image display apparatus provided with the same can be provided.

実施例1の立体画像処理装置の構成図Configuration diagram of stereoscopic image processing apparatus according to Embodiment 1 実施例1にかかる処理のフロー図Flow chart of processing according to embodiment 1 実施例2の立体画像処理装置の構成図Configuration diagram of stereoscopic image processing apparatus according to embodiment 2 実施例2にかかる処理のフロー図Flow chart of processing according to embodiment 2 実施例3の立体画像処理装置の構成図Configuration diagram of stereoscopic image processing apparatus according to Embodiment 3 実施例3にかかる処理のフロー図Flow chart of processing according to embodiment 3 立体画像撮影モデルの説明図3D image shooting model illustration 立体画像表示モデルの説明図Illustration of a 3D image display model 立体画像表示モデルのオフセット制御に関する説明図Explanatory drawing about offset control of stereoscopic image display model 対応点抽出手法の説明図Illustration of corresponding point extraction method 立体画像データファイル構成例を示す図A diagram showing an example of the structure of a stereoscopic image data file

本発明の主な視点は、立体画像処理装置において、高品質な立体画像の表示に対する処理負荷を低減するという課題を改善したことにある。   The main viewpoint of the present invention is to improve the problem of reducing the processing load for displaying a high-quality stereoscopic image in the stereoscopic image processing apparatus.

ここでまずは、立体画像撮像系、表示系、融合限界の原理について説明する。図7は上記した従来の立体像撮影方式のモデルを説明する図である。座標は左右カメラの中心を原点として、水平方向にx軸、奥行き方向にy軸とする。高さ方向は簡略化のために省略する。また、従来輻輳角を制御する(カメラの光軸を傾ける)手法も提案されているが、ここでは説明の簡略化のため左右カメラの光軸が平行となる平行撮影法における原理について説明する。輻輳角を制御する手法に対しても、輻輳点までの距離を考慮することで同様の幾何学的理論は成り立つ。   First, the principle of the stereoscopic image capturing system, the display system, and the fusion limit will be described. FIG. 7 is a diagram for explaining a model of the above-described conventional stereoscopic image photographing method. The coordinates are the center of the left and right cameras, the x axis in the horizontal direction, and the y axis in the depth direction. The height direction is omitted for simplification. Conventionally, a method of controlling the convergence angle (tilting the optical axis of the camera) has also been proposed. Here, for the sake of simplicity of explanation, the principle of the parallel photographing method in which the optical axes of the left and right cameras are parallel will be described. The same geometric theory holds for the method for controlling the convergence angle by considering the distance to the convergence point.

左右カメラの結像光学系の主点がそれぞれ(-Wc,0)、(Wc,0)に配置されているとする。ここで左右カメラの結像光学系焦点距離はfとする。この状態でy軸上(0、y1)にある被写体Aを夫々のカメラで撮影すると、左右カメラのセンサー中心から被写体像Aのズレ量を撮影視差として、それぞれPlc,Prcとすると下記式で表すことが出来る。   Assume that the principal points of the imaging optical systems of the left and right cameras are arranged at (−Wc, 0) and (Wc, 0), respectively. Here, the focal length of the imaging optical system of the left and right cameras is assumed to be f. In this state, when the subject A on the y axis (0, y1) is photographed by the respective cameras, the displacement amount of the subject image A from the sensor center of the left and right cameras is taken as the parallax, and Plc and Prc are expressed by the following equations, respectively. I can do it.

以上の原理により同一被写体を異なる視点から撮影することで、夫々水平方向に上記式(1)(2)で示すズレ量を持つ左右視差画像を取得することができる。   By capturing the same subject from different viewpoints based on the above principle, it is possible to acquire right and left parallax images each having a shift amount represented by the above formulas (1) and (2) in the horizontal direction.

次に、表示系のモデルを用いて奥行きの知覚と融合限界について詳しく説明する。図8は上記した従来の立体像表示方式のモデルを説明する図である。座標は観察者の両眼の中心を原点として、水平方向にx軸、奥行き方向にy軸とする。高さ方向は簡略化のために省略する。ここで、観察者から表示画面100までの視距離をds、左右眼がそれぞれ(-We,0)、(We,0)に位置し、再現される被写体Aの点視差画像の右眼用位置が(Pr,ds)、左眼用が(Pl,ds)とする。   Next, depth perception and fusion limit will be described in detail using a display system model. FIG. 8 is a diagram for explaining a model of the above-described conventional stereoscopic image display method. The coordinates are the center of both eyes of the observer as the origin, the x axis in the horizontal direction, and the y axis in the depth direction. The height direction is omitted for simplification. Here, the viewing distance from the observer to the display screen 100 is ds, the left and right eyes are positioned at (−We, 0) and (We, 0), respectively, and the right-eye position of the point-parallax image of the subject A to be reproduced Is (Pr, ds) and the left eye is (Pl, ds).

この場合、観察者は右眼(We,0)と右眼用画像(Pr,ds)を結ぶ線分と左眼(-We,0)と右眼用画像(Pl,ds)を結ぶ線分の交点(0,y2)に被写体像Aがあると知覚する。この場合の奥行き方向の表示画面100と交点の差(y2−ds)が観察者が被写体像Aを表示画面から奥行き方向に立体的に知覚する距離となる。ここで、y2を上記各座標で表すと   In this case, the observer has a line segment connecting the right eye (We, 0) and the right eye image (Pr, ds) and a line segment connecting the left eye (-We, 0) and the right eye image (Pl, ds). It is perceived that the subject image A is at the intersection (0, y2). In this case, the difference (y2−ds) between the display screen 100 in the depth direction and the intersection is the distance at which the observer perceives the subject image A in the depth direction from the display screen. Here, y2 is expressed by the above coordinates.

のように表すことが出来る。 It can be expressed as

また、この奥行き方向の距離を角度で言い換えれば、被写体像A(0,y2)と表示画面(0,ds)の相対視差(α−β)で表され、この大きさが表示画面と被写体像Aの相対的な奥行き方向の距離に対応する。従来の様々な研究から、人間は脳内でこの角度の差分を計算し奥行き方向の位置を知覚していることが知られている。ここで、相対視差の絶対値|α―β|を上記の各座標で表すと、   In other words, the distance in the depth direction is expressed in terms of the relative parallax (α−β) between the subject image A (0, y2) and the display screen (0, ds), and this size is represented by the display screen and the subject image. This corresponds to the relative depth direction distance of A. From various previous studies, it is known that humans perceive the position in the depth direction by calculating the difference of this angle in the brain. Here, the absolute value of relative parallax | α−β |

と表すことができ、相対視差が視距離dsと立体像位置y2に依存する量であることがわかる。さらに式(3)からy2は左右視差画像の表示位置PlとPrの差である視差量と視距離dsに依存する量であるので、結局相対視差つまり観察者が知覚する奥行き距離は視差量(PlとPrの差)と視距離dsに依存した量であることがわかる。 It can be seen that the relative parallax is an amount depending on the viewing distance ds and the stereoscopic image position y2. Furthermore, from equation (3), y2 is an amount that depends on the amount of parallax, which is the difference between the display positions Pl and Pr of the left and right parallax images, and the viewing distance ds. It can be seen that the amount depends on the difference between Pl and Pr) and the viewing distance ds.

次に融合限界について説明する。上述した従来の立体像表示方式では、実際の画像は表示画面100上に表示されるが、観察者はy2の位置に被写体Aがあると知覚する。すなわち、実際の画像と見える立体像では、眼のピント位置が異なっている状態である。言い換えると、観察者の眼の輻輳(寄り眼状に交点Aに両目を向ける状態)と調節(表示画面上に眼の焦点を合わせる状態)が異なっている。この相違が大きくなると、観察者は左右の視差画像を1つのものとして知覚できなり、二重像として知覚してしまう。また、二重像とならなくても不快感や疲労感が増大してしまう状態となる。   Next, the fusion limit will be described. In the conventional stereoscopic image display method described above, an actual image is displayed on the display screen 100, but the observer perceives that the subject A is at the position y2. That is, in the stereoscopic image that looks like an actual image, the focus position of the eye is different. In other words, the eye convergence of the observer (a state in which both eyes are directed to the intersection A in a cross-like shape) and adjustment (a state in which the eyes are focused on the display screen) are different. When this difference increases, the observer cannot perceive the left and right parallax images as one, and perceives it as a double image. Moreover, even if it does not become a double image, it will be in the state where discomfort and a feeling of fatigue will increase.

例えば図8の表示画面100の中心を観察者が注視している場合、快適に立体像を知覚できる相対視差絶対値はおよそ1度、二重像に見えてしまう融合限界範囲外はおよそ2度以上とされている。   For example, when an observer is gazing at the center of the display screen 100 in FIG. 8, the absolute value of relative parallax that can perceive a stereoscopic image comfortably is about 1 degree, and outside the fusion limit range where a double image is seen is about 2 degrees. That's it.

(本発明における立体画像処理装置概念)
以上ステレオ撮影に基づく立体画像の撮影、表示、融合限界について説明してきた。ここで本発明における立体画像処理装置の概念について説明する。
(Concept of stereoscopic image processing apparatus in the present invention)
In the above, the shooting, display, and fusion limit of a stereoscopic image based on stereo shooting have been described. Here, the concept of the stereoscopic image processing apparatus in the present invention will be described.

まず通常の2次元画像について考えてみると、撮像装置側の画素数と表示装置側の画素数は等しくないという状況が非常に多い。特に静止画の場合では、通常のカメラが1000万画素以上の撮像素子を備えるのに対して、表示側はVGA30万画素からFullHD200万画素、最近では4K2Kと言われる800万画素と様々な仕様が存在する。通常このような画素数に差異がある場合、ダウンサンプリングやアップサンプリングと言った画素数変換処理を行うことで様々な表示装置の仕様に対応させている。また、表示サイズとしても携帯電話画面等の数インチサイズからプロジェクターなどによる100インチを超える大画面サイズまで様々な仕様がある。表示サイズに対しては、画像データと表示装置の画素数が同一の場合は表示倍率Mが変わるだけで容易に対応可能である。   Considering a normal two-dimensional image, there are very many situations where the number of pixels on the imaging device side and the number of pixels on the display device side are not equal. In particular, in the case of still images, an ordinary camera has an image sensor with 10 million pixels or more, while the display side has various specifications such as VGA 300,000 pixels to Full HD 2 million pixels, and recently 8 million pixels called 4K2K. Exists. In general, when there is a difference in the number of pixels, the pixel number conversion process such as down-sampling or up-sampling is performed to meet the specifications of various display devices. In addition, there are various display sizes ranging from several inch sizes such as mobile phone screens to large screen sizes exceeding 100 inches by projectors. The display size can be easily dealt with by changing the display magnification M when the number of pixels of the image data and the display device is the same.

立体像表示においても上記従来の2次元画像同様に、様々な表示条件においても高品質な立体画像を表示可能とすることが必要である。ここで立体像表示における高品質とは不快感、疲労感の無い立体像表示である。しかしながら、上記で説明した立体像の奥行き位置を示す式(3)と(4)から、観察者が知覚する奥行き距離は視差量(PlとPrの差)と視距離dsに依存した量であることがわかる。つまり、例えば同じ立体画像データを表示させる場合でも、表示画面サイズによって視差量が大きく変化してしまう。   In the stereoscopic image display, it is necessary to be able to display a high-quality stereoscopic image under various display conditions as in the conventional two-dimensional image. Here, the high quality in the stereoscopic image display is a stereoscopic image display without discomfort and fatigue. However, from the expressions (3) and (4) indicating the depth position of the stereoscopic image described above, the depth distance perceived by the observer is an amount depending on the parallax amount (difference between Pl and Pr) and the viewing distance ds. I understand that. That is, for example, even when the same stereoscopic image data is displayed, the amount of parallax varies greatly depending on the display screen size.

さらに、観察者がどのような視距離で観察するかはまったくの未知数である。つまり、融合限界範囲は表示側の観察条件である表示サイズと視距離がわかるまでは算出不能であり、撮像装置側のみの制御だけでは様々な表示条件に対応した画像データを得ることは不可能であることがわかる。   Furthermore, what viewing distance the observer observes is completely unknown. In other words, the fusion limit range cannot be calculated until the display size and viewing distance, which are the viewing conditions on the display side, are known, and it is impossible to obtain image data corresponding to various display conditions by only controlling the imaging device. It can be seen that it is.

そこで、表示装置側で任意の立体画像データによる左右視差画像に対して画像を水平方向にそれぞれ平行移動して表示させるオフセット制御を行うことを想定する。オフセット制御について図9を用いて説明する。座標は観察者の両眼の中心を原点として、水平方向にx軸、奥行き方向にy軸とする。高さ方向は簡略化のために省略する。   Therefore, it is assumed that offset control is performed on the display device side so that images are translated and displayed in the horizontal direction with respect to the left and right parallax images based on arbitrary stereoscopic image data. The offset control will be described with reference to FIG. The coordinates are the center of both eyes of the observer as the origin, the x axis in the horizontal direction, and the y axis in the depth direction. The height direction is omitted for simplification.

ここで、観察者から表示画面100までの視距離をds、左右眼がそれぞれ(-We,0)、(We,0)に位置し、再現される被写体Asの点視差画像Irs、Ilsの右眼用位置が(Pr+S,ds)、左眼用が(Pl+S,ds)とする。ここでSをオフセット量(左右視差画像の水平方向への平行移動量)とする。この場合、観察者は右眼(We,0)と右眼用画像(Pr-S,ds)を結ぶ線分と左眼(-We,0)と右眼用画像(Pl+S,ds)を結ぶ線分の交点(0,y3)に被写体像Asがあると知覚する。ここで、y3を上記各座標で表すと   Here, the viewing distance from the observer to the display screen 100 is ds, the left and right eyes are positioned at (−We, 0) and (We, 0), respectively, and the right side of the point parallax images Irs and Ils of the reproduced subject As. The eye position is (Pr + S, ds), and the left eye position is (Pl + S, ds). Here, S is an offset amount (a parallel movement amount of the left and right parallax images in the horizontal direction). In this case, the observer connects the line segment connecting the right eye (We, 0) and the right eye image (Pr-S, ds) to the left eye (-We, 0) and the right eye image (Pl + S, ds). It is perceived that the subject image As exists at the intersection (0, y3) of the line segment. Here, if y3 is expressed by the above coordinates,

のように表すことが出来る。 It can be expressed as

ここで、図9は図8にオフセット量Sを与えた場合の立体像位置を示しており、オフセット量Sによって立体像位置が(y2−y3)だけ表示画面100の方向にシフトしたことを示している。ここで、図9は被写体Asのみについて示しているが、画像内に他の被写体が存在する場合、上記オフセット制御は立体画像表示面全体に影響し全ての立体像位置が近似的には(y2−y3)だけシフトする。   Here, FIG. 9 shows the stereoscopic image position when the offset amount S is given in FIG. 8, and shows that the stereoscopic image position is shifted in the direction of the display screen 100 by (y2−y3) by the offset amount S. ing. Here, FIG. 9 shows only the subject As. However, when there are other subjects in the image, the offset control affects the entire stereoscopic image display surface, and all the stereoscopic image positions are approximately (y2). Shift by -y3).

以上から仮に図8における被写体Aが観察者の融合限界範囲外であった場合、オフセット量Sを与えることで融合限界範囲内の被写体像Asとして制御することが可能である。つまり、表示装置側に観察者の位置を検出するセンサーと上記制御機構が備わっていれば、表示サイズや視距離の異なる様々な表示条件においても融合限界に対処できる。しかしながら全ての立体画像データに対して上記のオフセット制御をする必要は必ずしもないため、処理負荷低減のためにも立体画像データに対して融合限界対処処理を実行するか否かの判定手段を有することが重要である。ここで、表示装置側に観察者の位置を検出するセンサーが備わっている場合、立体画像データに融合限界範囲外の被写体が存在するか否かを判定する相対視差を算出するために必要な情報は最大視差量|Pl-Pr|maxのみである。   From the above, if subject A in FIG. 8 is outside the fusion limit range of the observer, it can be controlled as subject image As within the fusion limit range by giving offset amount S. That is, if the display device is provided with a sensor for detecting the position of the observer and the control mechanism, the fusion limit can be dealt with even under various display conditions with different display sizes and viewing distances. However, since it is not always necessary to perform the above-described offset control on all stereoscopic image data, it has a determination means for determining whether or not to perform fusion limit countermeasure processing on stereoscopic image data in order to reduce processing load. is important. Here, when a sensor for detecting the position of the observer is provided on the display device side, information necessary for calculating relative parallax for determining whether or not there is a subject outside the fusion limit range in the stereoscopic image data Is only the maximum parallax amount | Pl−Pr | max.

視差量PlとPrの差は上述した原理説明の中では、距離として記述しているが、実際の表示装置上では表示上の画素ズレ量として表されることは明確である。また、撮像装置側でも式(1)、(2)に示す撮影視差Plc,Prcは立体画像データの画素ズレ量として再現される。ここで、撮像装置から出力される立体画像データの最大画素ズレ量を|Plc-Prc|maxとする。また、撮像装置側での水平方向の記録画素数をHc、表示装置側での表示画素数をHm、表示装置の画素ピッチをTとすると上記最大視差量|Pl-Pr|maxは下記式(6)であらわされる。   Although the difference between the parallax amounts Pl and Pr is described as a distance in the above description of the principle, it is clear that it is expressed as a pixel shift amount on display on an actual display device. On the imaging device side, the shooting parallaxes Plc and Prc shown in the expressions (1) and (2) are reproduced as the pixel shift amount of the stereoscopic image data. Here, it is assumed that the maximum pixel shift amount of the stereoscopic image data output from the imaging apparatus is | Plc-Prc | max. Further, when the horizontal recording pixel number on the imaging device side is Hc, the display pixel number on the display device side is Hm, and the pixel pitch of the display device is T, the maximum parallax amount | Pl−Pr | max is given by 6).

ここで撮像装置側での最大画素ズレ量算出の手法について簡単に説明する。取得された左右視差画像のうち一方を画素ズレ量算出のための基準画像として選択する。   Here, a method of calculating the maximum pixel shift amount on the imaging apparatus side will be briefly described. One of the acquired left and right parallax images is selected as a reference image for calculating a pixel shift amount.

ここでは上記左眼用画像を基準画像として選択する。次に選択された左眼用基準画像に対して、右眼用画像を参照画像とし、対応する画素を検出する。ここで対応する画素とは、例えば上記撮影モデルでの点像被写体Aに対して得られる左右視差画像データ内で同一被写体Aに対応する夫々の画素である。対応点抽出手法について詳細に説明する。   Here, the image for the left eye is selected as a reference image. Next, with respect to the selected standard image for the left eye, the image for the right eye is used as a reference image, and corresponding pixels are detected. Here, the corresponding pixels are, for example, the respective pixels corresponding to the same subject A in the left and right parallax image data obtained for the point image subject A in the shooting model. The corresponding point extraction method will be described in detail.

ここで、画像座標(X,Y)を使用する。画像座標(X,Y)は、図10におけるそれぞれの画素群の左上を原点として定義し、水平方向をX軸、垂直方向をY軸とする。また、基準画像データ301の画像座標(X,Y)の輝度をF1(X,Y)とし、参照画像データ302の輝度をF2(X,Y)として説明する。   Here, the image coordinates (X, Y) are used. The image coordinates (X, Y) are defined with the upper left corner of each pixel group in FIG. 10 as the origin, the horizontal direction being the X axis, and the vertical direction being the Y axis. In addition, the luminance of the image coordinates (X, Y) of the standard image data 301 will be described as F1 (X, Y), and the luminance of the reference image data 302 will be described as F2 (X, Y).

基準画像データにおける任意の座標(X,Y)(図10の301内縦線画素とする)に対応する参照画像データの画素(図10の302内縦線画素とする)は、座標(X,Y)における基準画像データの輝度F1(X,Y)と最も類似した参照画像データの輝度を探すことで求めることができる。但し、一般的に、任意の画素と最も類似した画素を探すことは難しいため、画像座標(X,Y)の近傍の画素も用い、ブロックマッチングと呼ばれる手法にて類似画素を探索する。   Pixels of reference image data (referred to as vertical line pixels within 302 in FIG. 10) corresponding to arbitrary coordinates (X, Y) (referred to as vertical line pixels within 301 in FIG. 10) in the reference image data are coordinates (X, Y). It can be obtained by searching for the luminance of the reference image data most similar to the luminance F1 (X, Y) of the standard image data in Y). However, in general, it is difficult to search for a pixel that is most similar to an arbitrary pixel. Therefore, a pixel near the image coordinates (X, Y) is also used to search for a similar pixel by a technique called block matching.

たとえば、ブロックサイズが3である場合のブロックマッチング処理について説明する。基準画像データの任意の座標(X,Y)の画素と、その前後(X−1,Y),(X+1,Y)の2つの画素の計3画素の輝度値はそれぞれ、
F1(X,Y),F1(X−1,Y),F1(X+1,Y)
となる。
For example, a block matching process when the block size is 3 will be described. The luminance values of a total of three pixels, that is, a pixel at an arbitrary coordinate (X, Y) of the reference image data and two pixels before and after (X-1, Y) and (X + 1, Y) are respectively
F1 (X, Y), F1 (X-1, Y), F1 (X + 1, Y)
It becomes.

これに対し、座標(X,Y)からX方向にkだけずれた参照画像データの画素の輝度値はそれぞれ、
F2(X+k,Y),F2(X+k−1,Y),F2(X+k+1,Y)
となる。
On the other hand, the luminance values of the pixels of the reference image data shifted from the coordinates (X, Y) by k in the X direction are respectively
F2 (X + k, Y), F2 (X + k-1, Y), F2 (X + k + 1, Y)
It becomes.

この場合、基準画像データの座標(X,Y)の画素との類似度Eを以下の式(7)で定義する。   In this case, the similarity E with the pixel at the coordinates (X, Y) of the reference image data is defined by the following equation (7).

この式(7)において逐次kの値を変えて上記類似度Eの値を計算し、最も小さい類似度Eを与える(X+k、Y)が、基準画像データの座標(X,Y)に対する対応点である。   In this equation (7), the value of the similarity E is calculated by successively changing the value of k, and (X + k, Y) giving the smallest similarity E is a corresponding point with respect to the coordinates (X, Y) of the reference image data It is.

次に上記で抽出された各対応点について画素ズレ量を算出する。算出手法としては、上記ブロックマッチング法で得られた基準画像データの各画素に対応する参照画像データの各画素との画素位置差分として算出する。上記で算出された基準画像データの各画素に対する画素ズレ量から最大の画素ズレ量kmaxを検出し、立体画像データファイルのファイルヘッダに、上記で得られた左右視差画像内の最大画素ズレ量kmaxを記録することができる。   Next, a pixel shift amount is calculated for each corresponding point extracted above. As a calculation method, the pixel position difference is calculated from each pixel of the reference image data corresponding to each pixel of the standard image data obtained by the block matching method. The maximum pixel shift amount kmax is detected from the pixel shift amount for each pixel of the reference image data calculated above, and the maximum pixel shift amount kmax in the left-right parallax image obtained above is detected in the file header of the stereoscopic image data file. Can be recorded.

ここで、図11は立体画像データファイルの構成例を示す図である。立体画像データファイル1000はファイルヘッダ部1001と画像データ部1003から構成される。図11に示されるように、上述した最大画素ズレ量kmax情報1002はファイルヘッダ部1001に埋め込まれ、左右視差画像は立体画像データとして画像データ部1003に埋め込まれる。また、ファイルヘッダ部には通常の撮影情報である撮影画素数、F値、焦点距離などの諸データも同時に記録することもできる。   Here, FIG. 11 is a diagram illustrating a configuration example of a stereoscopic image data file. The stereoscopic image data file 1000 includes a file header portion 1001 and an image data portion 1003. As shown in FIG. 11, the above-mentioned maximum pixel shift amount kmax information 1002 is embedded in the file header portion 1001, and the left and right parallax images are embedded in the image data portion 1003 as stereoscopic image data. In addition, various data such as the number of photographic pixels, the F value, and the focal length, which are normal photographic information, can be simultaneously recorded in the file header portion.

上記のような撮像装置側の記録画素数と最大画素ズレ量の情報を用いて、処理装置又は表示装置側で簡易的な融合限界判定を行うことができれば、立体画像表示時の処理負荷を低減することが可能となり、立体動画像の高フレームレート化も実現することができる。   If simple fusion limit determination can be performed on the processing device or display device side using information on the number of recorded pixels and the maximum pixel shift amount on the imaging device side as described above, the processing load during stereoscopic image display is reduced. Therefore, it is possible to realize a high frame rate of a stereoscopic moving image.

そこで本発明では、左右視差画像の最大画素ズレ量情報又は最大画素ズレ比情報を付加された立体画像データファイルを取得し、立体画像データファイルに融合限界範囲外の被写体が存在するか否かを効率的に判定することができる立体画像処理装置を提案する。   Therefore, in the present invention, a stereoscopic image data file to which the maximum pixel shift amount information or the maximum pixel shift ratio information of the left and right parallax images is added is acquired, and whether or not a subject outside the fusion limit range exists in the stereoscopic image data file. A three-dimensional image processing apparatus capable of efficiently determining is proposed.

以下に本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[実施例1]
以下、図面を参照して、本発明の第1の実施形態による、立体画像処理装置について説明する。
[Example 1]
Hereinafter, a stereoscopic image processing apparatus according to a first embodiment of the present invention will be described with reference to the drawings.

図1は第1の実施例の立体画像処理装置の構成図である。撮像手段101は左右視差画像を撮影する不図示の結像光学系や撮像素子からなる。さらに本実施例においては、撮像手段101から出力される立体画像データファイル1000のファイルヘッダ部1001には図11に示すように左右視差画像内の最大画素ズレ量kmaxが記録されるものとしている。画像データ取得部10は撮像手段101からの立体画像データファイルを取得する。データ情報取得部20はファイルヘッダ部1001に含まれるデータを取得する。表示条件取得部30は表示手段201の表示条件情報を取得する。   FIG. 1 is a configuration diagram of a stereoscopic image processing apparatus according to the first embodiment. The image pickup means 101 includes an imaging optical system (not shown) and an image pickup device that take right and left parallax images. Furthermore, in this embodiment, the maximum pixel shift amount kmax in the left-right parallax image is recorded in the file header portion 1001 of the stereoscopic image data file 1000 output from the imaging means 101 as shown in FIG. The image data acquisition unit 10 acquires a stereoscopic image data file from the imaging unit 101. The data information acquisition unit 20 acquires data included in the file header unit 1001. The display condition acquisition unit 30 acquires display condition information of the display unit 201.

最大相対視差量算出部40は画像内の最大相対視差量を算出する。融合限界判定部50は画像内に融合限界範囲外が含まれるか否かを判定する。立体画像処理部60は画像データ全域の相対視差量を算出する画像内相対視差量算出部61、画像データ内の融合限界領域を判定する融合限界領域判定部62、画像データの相対視差量を調整する処理を行う相対視差量調整処理部63からなる。表示手段201は画像処理装置1から出力される画像データを表示する。   The maximum relative parallax amount calculation unit 40 calculates the maximum relative parallax amount in the image. The fusion limit determination unit 50 determines whether or not a fusion limit range is included in the image. The stereoscopic image processing unit 60 calculates the relative parallax amount in the image for calculating the relative parallax amount of the entire image data, the fusion limit region determination unit 62 for determining the fusion limit region in the image data, and adjusts the relative parallax amount of the image data And a relative parallax amount adjustment processing unit 63 for performing the processing. The display unit 201 displays the image data output from the image processing apparatus 1.

次に本実施例の立体画像処理装置の融合限界判定処理動作について、図2のフローチャートを用いて詳細を説明する。まず始めに、画像データ取得部10は撮像手段101からの立体画像データファイル1000を取得する。データ取得方法は不図示のUSBケーブル等で直接接続してもよいし、電波や赤外線などを用いた無線接続も可能である。   Next, the fusion limit determination processing operation of the stereoscopic image processing apparatus of the present embodiment will be described in detail using the flowchart of FIG. First, the image data acquisition unit 10 acquires the stereoscopic image data file 1000 from the imaging unit 101. The data acquisition method may be direct connection using a USB cable (not shown) or wireless connection using radio waves or infrared rays.

次にデータ情報取得部20によって、画像データ取得部10で取得した立体画像データファイル1000内のファイルヘッダ部1001に含まれる最大画素ズレ量と前記撮影情報を取得する。次に、表示条件取得部30は表示手段201から表示条件情報を取得する。ここで表示条件とは、前記した表示画素数、表示サイズ、視距離に関する情報である。また、表示条件取得方法は不図示のケーブル等で直接接続してもよいし、電波や赤外線などを用いた無線接続も可能である。次に最大相対視差量算出部40は前記最大画素ズレ量、撮影情報、表示条件を用いて上述した式(6)から表示装置側での最大相対視差量を算出する。   Next, the data information acquisition unit 20 acquires the maximum pixel shift amount and the shooting information included in the file header unit 1001 in the stereoscopic image data file 1000 acquired by the image data acquisition unit 10. Next, the display condition acquisition unit 30 acquires display condition information from the display unit 201. Here, the display condition is information regarding the number of display pixels, the display size, and the viewing distance. The display condition acquisition method may be directly connected by a cable or the like (not shown), or may be wirelessly connected using radio waves or infrared rays. Next, the maximum relative parallax amount calculation unit 40 calculates the maximum relative parallax amount on the display device side from the above equation (6) using the maximum pixel shift amount, the shooting information, and the display conditions.

次に融合限界判定部50では、算出された最大相対視差量から入力された立体画像データに融合限界範囲外の画像領域が含まれているか否かを判定する。ここでは、例えば前記した二重像に見えてしまう2度以上の場合に融合限界範囲外の領域が含まれていると判定し、逆に2度以下であれば融合限界範囲外の領域が含まれていないと判定する。   Next, the fusion limit determination unit 50 determines whether or not the stereoscopic image data input from the calculated maximum relative parallax amount includes an image region outside the fusion limit range. Here, for example, it is determined that an area outside the fusion limit range is included when the double image looks like the above-described double image, and conversely, an area outside the fusion limit range is included when it is 2 degrees or less. Judge that it is not.

次に融合限界判定部50で立体画像データに融合限界範囲外の画像領域が含まれている、つまり図2のフローチャートでYESの判定の場合の動作について説明する。YESの判定の場合、立体画像データファイル1000は立体画像処理部60に送られる。次に画像内相対視差量算出部61によって立体画像データファイル内の画像データ全域に対して相対視差量を算出する。算出手法としては、例えば上記で述べたブロックマッチング法を用いた手法を用いることが出来る。   Next, the operation in the case where the fusion limit determination unit 50 includes an image area outside the fusion limit range in the stereoscopic image data, that is, in the case of YES determination in the flowchart of FIG. 2 will be described. In the case of YES determination, the stereoscopic image data file 1000 is sent to the stereoscopic image processing unit 60. Next, the relative parallax amount calculation unit 61 calculates the relative parallax amount for the entire image data in the stereoscopic image data file. As a calculation method, for example, a method using the block matching method described above can be used.

次に融合限界領域判定部62では、画像データ全域に対する相対視差量から画像データ内の融合限界範囲外の領域を検出する。次に相対視差量調整処理部63では前記融合限界範囲外の領域が融合限界範囲内と成るように立体画像データに所望の画像処理を実行する。本実施例では前述した左右視差画像に対して画像を水平方向にそれぞれ平行移動して表示させるオフセット制御を行うこととする。以上、立体画像処理部60内での立体画像データ処理が完了され、処理された立体画像データを表示手段201に転送し、立体画像として表示させる。   Next, the fusion limit area determination unit 62 detects an area outside the fusion limit range in the image data from the relative parallax amount with respect to the entire image data. Next, the relative parallax adjustment processing unit 63 performs desired image processing on the stereoscopic image data so that the region outside the fusion limit range falls within the fusion limit range. In this embodiment, it is assumed that offset control is performed so that images are translated and displayed in the horizontal direction with respect to the above-described left and right parallax images. As described above, the stereoscopic image data processing in the stereoscopic image processing unit 60 is completed, and the processed stereoscopic image data is transferred to the display unit 201 and displayed as a stereoscopic image.

次に融合限界判定部50で立体画像データに融合限界範囲外の画像領域が含まれていない、つまり図2のフローチャートでNOの判定の場合の動作について説明する。NOの判定の場合、立体画像データファイル1000には融合限界範囲外の画像領域が含まれていない、つまり不快感、疲労感の無い立体像として表示可能な画像データであることになる。そのため、立体画像データとして弊害処理する必要はないので、そのまま表示手段201に立体画像データを転送して表示させることができる。   Next, the operation in the case where the fusion limit determination unit 50 does not include an image area outside the fusion limit range in the stereoscopic image data, that is, in the case of NO determination in the flowchart of FIG. 2 will be described. In the case of NO determination, the stereoscopic image data file 1000 does not include an image area outside the fusion limit range, that is, the image data can be displayed as a stereoscopic image without discomfort and fatigue. Therefore, since it is not necessary to perform harmful processing as stereoscopic image data, the stereoscopic image data can be transferred and displayed on the display unit 201 as it is.

以上のようにファイルヘッダ部に付加された最大画素ズレ量kmax=|Plc-Prc|maxの情報を利用することで、上述したように式(6)から処理装置側で最大の視差量を容易に算出することが可能となる。そのため、融合限界判定を容易に実行することが可能となり、処理装置側での処理負荷を大きく軽減させることができる。特に、秒間60フレームかそれ以上の画像データを表示する立体動画像表示時には、上記の画像データ全域に対する相対視差量算出を1コマ1コマ表示装置側で実行することは処理的に非常に負荷が大きくなる。   As described above, by using the information of the maximum pixel shift amount kmax = | Plc-Prc | max added to the file header part, the maximum parallax amount can be easily obtained on the processing device side from the equation (6) as described above. Can be calculated. Therefore, it is possible to easily execute the fusion limit determination, and the processing load on the processing apparatus side can be greatly reduced. In particular, when displaying stereoscopic video images that display 60 frames or more of image data per second, it is extremely processing-intensive to perform relative parallax calculation for the entire image data on the frame-by-frame display device side. growing.

そのため、本実施例の構成のように、立体画像処理装置に融合限界判定部を有していれば、不要な処理装置側の融合限界被写体処理を行う必要が無くなる。また、例えば立体動画データファイル全体のファイルヘッダ部に付加される最大画素ズレ量情報を利用することで、上記融合限界条件を満たした場合には全データに対して処理を回避することが可能となり、大幅な処理負荷低減効果が得られる。また、立体動画データファイルの場合、シーンが異なるいわゆるチャプター毎の最大画素ズレ量情報を利用することで、シーン変更毎に処理装置側での処理判定を行うことができ、より高品質な立体動画表示が可能となる。   Therefore, as in the configuration of the present embodiment, if the stereoscopic image processing apparatus includes the fusion limit determination unit, it is not necessary to perform unnecessary fusion limit subject processing on the processing apparatus side. Further, for example, by using the maximum pixel shift amount information added to the file header portion of the entire stereoscopic video data file, it becomes possible to avoid processing for all data when the above fusion limit condition is satisfied. A significant processing load reduction effect can be obtained. In addition, in the case of a stereoscopic video data file, by using the maximum pixel shift amount information for each chapter with different scenes, processing determination on the processing device side can be performed for each scene change, and a higher quality stereoscopic video can be obtained. Display is possible.

ここで、本実施例ではファイルヘッダ部に最大画素ズレ量kmax情報を有している前提としたが、必ずしも最大画素ズレ量である必要は無く、例えば0.8×kmax〜1.2×kmax程度の範囲で任意の対応画素に関する情報kへと変更が可能である。ファイルヘッダ部の画素ズレ情報が0.8×kmaxに近ければ融合限界判定基準がより厳しいものとなり、より不快感、疲労感の無い立体像として表示可能となる。しかしながら、画素ズレ情報が0.8×kmaxよりも小さくなると処理が必要と判定される立体画像データフレームが増大し、本発明における処理負荷低減効果が得られない。   Here, in the present embodiment, it is assumed that the file header portion has the maximum pixel shift amount kmax information. However, the maximum pixel shift amount is not necessarily required. For example, in the range of about 0.8 × kmax to 1.2 × kmax. It can be changed to information k regarding any corresponding pixel. If the pixel misalignment information in the file header is close to 0.8 × kmax, the fusion limit criterion becomes stricter and can be displayed as a stereoscopic image with no discomfort and fatigue. However, when the pixel shift information is smaller than 0.8 × kmax, the number of stereoscopic image data frames determined to be processed increases, and the processing load reduction effect in the present invention cannot be obtained.

ファイルヘッダ部の画素ズレ情報が1.2×kmaxに近ければ融合限界判定基準が緩和され、処理される画像フレームが減少するため処理付加低減が可能となる。しかしながら、画素ズレ情報が1.2×kmaxよりも大きくなると不快感、疲労感を感じる立体画像データフレーム数が増大し、高品質な立体画像表示が困難となる。   If the pixel shift information in the file header portion is close to 1.2 × kmax, the fusion limit criterion is relaxed, and the number of image frames to be processed is reduced, so that it is possible to reduce processing addition. However, when the pixel shift information is larger than 1.2 × kmax, the number of stereoscopic image data frames that feel uncomfortable and fatigued increases, and high-quality stereoscopic image display becomes difficult.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

[実施例2]
以下、図面を参照して、本発明の第2の実施形態による、立体画像処理装置について説明する。
[Example 2]
Hereinafter, a stereoscopic image processing apparatus according to a second embodiment of the present invention will be described with reference to the drawings.

図3は第2の実施例の立体画像処理装置の構成図である。撮像手段101は左右視差画像を撮影する不図示の結像光学系や撮像素子からなる。さらに本実施例においては、撮像手段101から出力される立体画像データファイルのファイルヘッダ部には左右視差画像内の最大画素ズレ比rmaxが記録されるものとしている。ここで最大画素ズレ比rmaxとは、式(6)内の|Plc-Prc|max/Hcに対応する値である。また、立体画像処理部60は画像データ全域の相対視差量を算出する画像内相対視差量算出部61、画像データ内の融合限界領域を判定する融合限界領域判定部62、融合限界領域に画像処理を行う融合限界領域画像処理部64からなる。その他の構成は実施例1と同様であるので説明を省略する。   FIG. 3 is a configuration diagram of the stereoscopic image processing apparatus according to the second embodiment. The image pickup means 101 includes an imaging optical system (not shown) and an image pickup device that take right and left parallax images. Furthermore, in the present embodiment, the maximum pixel shift ratio rmax in the left-right parallax image is recorded in the file header portion of the stereoscopic image data file output from the imaging means 101. Here, the maximum pixel shift ratio rmax is a value corresponding to | Plc−Prc | max / Hc in Expression (6). In addition, the stereoscopic image processing unit 60 includes an intra-image relative parallax amount calculating unit 61 that calculates the relative parallax amount of the entire image data, a fusion limit region determining unit 62 that determines a fusion limit region in the image data, and image processing on the fusion limit region. A fusion limit region image processing unit 64 for performing Since other configurations are the same as those of the first embodiment, the description thereof is omitted.

次に本実施例の立体画像処理装置の融合限界判定処理動作について、図4のフローチャートを用いて詳細を説明する。まず始めに、画像データ取得部10は撮像手段101からの立体画像データファイルを取得する。データ取得方法は不図示のUSBケーブル等で直接接続してもよいし、電波や赤外線などを用いた無線接続も可能である。   Next, the fusion limit determination processing operation of the stereoscopic image processing apparatus according to the present embodiment will be described in detail with reference to the flowchart of FIG. First, the image data acquisition unit 10 acquires a stereoscopic image data file from the imaging unit 101. The data acquisition method may be direct connection using a USB cable (not shown) or wireless connection using radio waves or infrared rays.

次にデータ情報取得部20によって、画像データ取得部10で取得した立体画像データファイル内のファイルヘッダ部に含まれる最大画素ズレ比と前記撮影情報を取得する。次に、表示条件取得部30は表示手段201から表示条件情報を取得する。ここで表示条件とは、前記した表示画素数、表示サイズ、視距離に関する情報である。また、表示条件取得方法は不図示のケーブル等で直接接続してもよいし、電波や赤外線などを用いた無線接続も可能である。次に最大相対視差量算出部40は前記最大画素ズレ比、撮影情報、表示条件を用いて上述した式(6)から表示装置側での最大相対視差量を算出する。   Next, the data information acquisition unit 20 acquires the maximum pixel shift ratio and the shooting information included in the file header portion in the stereoscopic image data file acquired by the image data acquisition unit 10. Next, the display condition acquisition unit 30 acquires display condition information from the display unit 201. Here, the display condition is information regarding the number of display pixels, the display size, and the viewing distance. The display condition acquisition method may be directly connected by a cable or the like (not shown), or may be wirelessly connected using radio waves or infrared rays. Next, the maximum relative parallax amount calculation unit 40 calculates the maximum relative parallax amount on the display device side from the above-described equation (6) using the maximum pixel shift ratio, shooting information, and display conditions.

次に融合限界判定部50では、算出された最大相対視差量から入力された立体画像データに融合限界範囲外の画像領域が含まれているか否かを判定する。ここでは、例えば前記した二重像に見えてしまう2度以上の場合に融合限界範囲外の領域が含まれていると判定し、逆に2度以下であれば融合限界範囲外の領域が含まれていないと判定する。   Next, the fusion limit determination unit 50 determines whether or not the stereoscopic image data input from the calculated maximum relative parallax amount includes an image region outside the fusion limit range. Here, for example, it is determined that an area outside the fusion limit range is included when the double image looks like the above-described double image, and conversely, an area outside the fusion limit range is included when it is 2 degrees or less. Judge that it is not.

次に融合限界判定部50で立体画像データに融合限界範囲外の画像領域が含まれている、つまり図4のフローチャートでYESの判定の場合の動作について説明する。YESの判定の場合、立体画像データファイルは立体画像処理部60に送られる。次に画像内相対視差量算出部61によって立体画像データファイル内の画像データ全域に対して相対視差量を算出する。   Next, the operation in the case where the fusion limit determination unit 50 includes an image region outside the fusion limit range in the stereoscopic image data, that is, in the case of YES determination in the flowchart of FIG. 4 will be described. In the case of YES determination, the stereoscopic image data file is sent to the stereoscopic image processing unit 60. Next, the relative parallax amount calculation unit 61 calculates the relative parallax amount for the entire image data in the stereoscopic image data file.

算出手法としては、例えば上記で述べたブロックマッチング法を用いた手法を用いることが出来る。次に融合限界領域判定部62では、画像データ全域に対する相対視差量から画像データ内の融合限界範囲外の領域を検出する。次に融合限界領域画像処理部64では前記融合限界範囲外の領域を観察者に認識させないように立体画像データに所望の画像処理を実行する。本実施例では前述した左右視差画像の融合限界範囲外の領域にボケ付加制御を行うこととする。ボケを付加することにより、前記融合限界範囲外の領域を観察者が注視しなくなるため観察者の不快感、疲労感を緩和することができる。   As a calculation method, for example, a method using the block matching method described above can be used. Next, the fusion limit area determination unit 62 detects an area outside the fusion limit range in the image data from the relative parallax amount with respect to the entire image data. Next, the fusion limit area image processing unit 64 performs desired image processing on the stereoscopic image data so that the observer does not recognize the area outside the fusion limit range. In this embodiment, the blur addition control is performed on the region outside the fusion limit range of the left and right parallax images. By adding the blur, the observer does not pay attention to the region outside the fusion limit range, so that the discomfort and fatigue of the observer can be alleviated.

以上、立体画像処理部60内での立体画像データ処理が完了され、処理された立体画像データを表示手段201に転送し、立体画像として表示させる。   As described above, the stereoscopic image data processing in the stereoscopic image processing unit 60 is completed, and the processed stereoscopic image data is transferred to the display unit 201 and displayed as a stereoscopic image.

次に融合限界判定部50で立体画像データに融合限界範囲外の画像領域が含まれていない、つまり図4のフローチャートでNOの判定の場合の動作について説明する。NOの判定の場合、立体画像データファイルには融合限界範囲外の画像領域が含まれていない、つまり不快感、疲労感の無い立体像として表示可能な画像データであることになる。そのため、立体画像データとして弊害処理する必要はないので、そのまま表示手段201に立体画像データを転送して表示させることができる。   Next, the operation when the fusion limit determination unit 50 does not include an image area outside the fusion limit range in the stereoscopic image data, that is, when NO is determined in the flowchart of FIG. 4 will be described. In the case of NO determination, the stereoscopic image data file does not include an image region outside the fusion limit range, that is, the image data can be displayed as a stereoscopic image without discomfort and fatigue. Therefore, since it is not necessary to perform harmful processing as stereoscopic image data, the stereoscopic image data can be transferred and displayed on the display unit 201 as it is.

以上のようにファイルヘッダ部に付加された最大画素ズレ比|Plc-Prc|max/Hcの情報を利用することで、上述したように式(6)から処理装置側で最大の視差量を容易に算出することが可能となる。そのため、融合限界判定を容易に実行することが可能となり、処理装置側での処理負荷を大きく軽減させることができる。特に、秒間60フレームかそれ以上の画像データを表示する立体動画像表示時には、上記の画像データ全域に対する相対視差量算出を1コマ1コマ表示装置側で実行することは処理的に非常に負荷が大きくなる。   As described above, by using the information of the maximum pixel shift ratio | Plc-Prc | max / Hc added to the file header part, the maximum amount of parallax can be easily obtained on the processing apparatus side from the equation (6) as described above. Can be calculated. Therefore, it is possible to easily execute the fusion limit determination, and the processing load on the processing apparatus side can be greatly reduced. In particular, when displaying stereoscopic video images that display 60 frames or more of image data per second, it is extremely processing-intensive to perform relative parallax calculation for the entire image data on the frame-by-frame display device side. growing.

そのため、本実施例の構成のように、立体画像処理装置に融合限界判定部を有していれば、不要な処理装置側の融合限界被写体処理を行う必要が無くなる。また、例えば立体動画データファイル全体のファイルヘッダ部に付加される最大画素ズレ比情報を利用することで、上記融合限界条件を満たした場合には全データに対して処理を回避することが可能となり、大幅な処理負荷低減効果が得られる。また、立体動画データファイルの場合、シーンが異なるいわゆるチャプター毎の最大画素ズレ比情報を利用することで、シーン変更毎に処理装置側での処理判定を行うことができ、より高品質な立体動画表示が可能となる。   Therefore, as in the configuration of the present embodiment, if the stereoscopic image processing apparatus includes the fusion limit determination unit, it is not necessary to perform unnecessary fusion limit subject processing on the processing apparatus side. Further, for example, by using the maximum pixel shift ratio information added to the file header portion of the entire stereoscopic video data file, it becomes possible to avoid processing for all data when the above fusion limit condition is satisfied. A significant processing load reduction effect can be obtained. In addition, in the case of a stereoscopic video data file, processing determination on the processing device side can be performed for each scene change by using the maximum pixel shift ratio information for each chapter that has different scenes, so that a higher quality stereoscopic video can be obtained. Display is possible.

ここで、本実施例ではファイルヘッダ部に最大画素ズレ比rmax情報を有している前提としたが、必ずしも最大画素ズレ比である必要は無く、例えば0.8×rmax〜1.2×rmax程度の範囲で任意の対応画素に関する情報へ変更が可能である。ファイルヘッダ部の画素ズレ情報が0.8×rmaxに近ければ融合限界判定基準がより厳しいものとなり、より不快感、疲労感の無い立体像として表示可能となる。しかしながら、画素ズレ情報が0.8×rmaxよりも小さくなると処理が必要と判定される立体画像データフレームが増大し、本発明における処理負荷低減効果が得られない。   Here, in this embodiment, it is assumed that the file header portion has the maximum pixel shift ratio rmax information. However, it is not always necessary to have the maximum pixel shift ratio, for example, in the range of about 0.8 × rmax to 1.2 × rmax. It is possible to change to information on any corresponding pixel. If the pixel misalignment information in the file header is close to 0.8 × rmax, the fusion limit criterion becomes stricter and can be displayed as a stereoscopic image with less discomfort and fatigue. However, if the pixel shift information is smaller than 0.8 × rmax, the number of stereoscopic image data frames determined to be processed increases, and the processing load reduction effect in the present invention cannot be obtained.

ファイルヘッダ部の画素ズレ情報が1.2×rmaxに近ければ融合限界判定基準が緩和され、処理される画像フレームが減少するため処理付加低減が可能となる。しかしながら、画素ズレ情報が1.2×rmaxよりも大きくなると不快感、疲労感を感じる立体画像データフレーム数が増大し、高品質な立体画像表示が困難となる。   If the pixel shift information in the file header portion is close to 1.2 × rmax, the fusion limit criterion is relaxed, and the number of image frames to be processed is reduced, so that it is possible to reduce processing addition. However, when the pixel shift information is larger than 1.2 × rmax, the number of stereoscopic image data frames that feel uncomfortable and fatigued increases, and it becomes difficult to display a high-quality stereoscopic image.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

[実施例3]
以下、図面を参照して、本発明の第3の実施形態による、立体画像表示装置について説明する。
[Example 3]
A stereoscopic image display device according to a third embodiment of the present invention will be described below with reference to the drawings.

図5は第3の実施例の立体画像表示装置2の構成図である。表示手段201は例えば従来技術である右眼画像と左目画像を1つの画面上に時分割で表示して、この画面時分割に同期させた液晶シャッタメガネを用いて見る方式がある。また、左右眼画像をそれぞれ直交した方向の偏光光で画面上に同時に表示して、これらを同様に互いに直交するように構成した偏光フィルタを左右の眼に対応させた偏光メガネを用いて見る方式を用いることが可能である。   FIG. 5 is a configuration diagram of the stereoscopic image display apparatus 2 according to the third embodiment. For example, the display means 201 has a method of displaying a right-eye image and a left-eye image on a single screen in a time division manner and using a liquid crystal shutter glasses synchronized with the screen time division. In addition, the left and right eye images are simultaneously displayed on the screen with polarized light beams in directions orthogonal to each other, and the polarizing filters configured to be orthogonal to each other are viewed using polarized glasses corresponding to the left and right eyes. Can be used.

また、表示手段201内には画像処理部70、融合限界判定レベル調整部80、視距離算出部90を備えている。画像処理部70は一般的な2次元画像や動画に対して従来のTV装置などで行われるエッジ強調や色補正等の画像処理を実施する。さらに、融合限界判定レベル調整部80は観察者の操作によって所望の融合限界判定レベルを設定する。また、視距離算出部90は観察者の表示画面からの距離である視距離を算出する。その他の構成は実施例1と同様であるので説明を省略する。   Further, the display unit 201 includes an image processing unit 70, a fusion limit determination level adjustment unit 80, and a viewing distance calculation unit 90. The image processing unit 70 performs image processing such as edge enhancement and color correction performed on a general two-dimensional image or moving image by a conventional TV apparatus or the like. Further, the fusion limit determination level adjustment unit 80 sets a desired fusion limit determination level by the operation of the observer. Further, the viewing distance calculation unit 90 calculates a viewing distance that is a distance from the display screen of the observer. Since other configurations are the same as those of the first embodiment, the description thereof is omitted.

次に本実施例の立体画像処理装置の融合限界判定処理動作について、図6のフローチャートを用いて詳細を説明する。まず始めに、画像データ取得部10は撮像手段101からの立体画像データファイルを取得する。データ取得方法は不図示のUSBケーブル等で直接接続してもよいし、電波や赤外線などを用いた無線接続も可能である。次にデータ情報取得部20によって、画像データ取得部10で取得した立体画像データファイル内のファイルヘッダ部に含まれる最大画素ズレ量と前記撮影情報を取得する。   Next, the fusion limit determination processing operation of the stereoscopic image processing apparatus according to the present embodiment will be described in detail with reference to the flowchart of FIG. First, the image data acquisition unit 10 acquires a stereoscopic image data file from the imaging unit 101. The data acquisition method may be direct connection using a USB cable (not shown) or wireless connection using radio waves or infrared rays. Next, the data information acquisition unit 20 acquires the maximum pixel shift amount and the shooting information included in the file header portion in the stereoscopic image data file acquired by the image data acquisition unit 10.

次に、表示条件取得部30は表示手段201から表示条件情報を取得する。ここで表示条件とは、前記した表示画素数、表示サイズ、視距離算出部90から送られる視距離と融合限界判定レベル調整部80から送られる判定レベルに関する情報である。表示条件取得方法は不図示のケーブル等で直接接続してもよいし、電波や赤外線などを用いた無線接続も可能である。また、視距離算出部90による観察者の視距離情報の取得には、従来から距離測定に用いられる赤外線の反射を利用した手法などを用いることが出来る。   Next, the display condition acquisition unit 30 acquires display condition information from the display unit 201. Here, the display conditions are information regarding the number of display pixels, the display size, the viewing distance sent from the viewing distance calculation unit 90, and the determination level sent from the fusion limit determination level adjustment unit 80. The display condition acquisition method may be directly connected by a cable or the like (not shown), or may be wirelessly connected using radio waves or infrared rays. In addition, for obtaining the viewing distance information of the observer by the viewing distance calculation unit 90, a method using infrared reflection conventionally used for distance measurement can be used.

次に最大相対視差量算出部40は前記最大画素ズレ量、撮影情報、表示条件を用いて上述した式(6)から表示装置側での最大相対視差量を算出する。次に融合限界判定部50では、算出された最大相対視差量から入力された立体画像データに融合限界範囲外の画像領域が含まれているか否かを判定する。ここでは、例えば前記した相対視差量2度を基準判定量とし、融合限界判定レベル調整部80から送られる判定レベルに関する情報を前記基準判定量に対する割合であるとする。具体的には、観察者が複数段階の判定レベルから一つのレベルを選択し、基準判定量である2度に前記レベルを乗じることで判定レベルを制御する。   Next, the maximum relative parallax amount calculation unit 40 calculates the maximum relative parallax amount on the display device side from the above equation (6) using the maximum pixel shift amount, the shooting information, and the display conditions. Next, the fusion limit determination unit 50 determines whether or not the stereoscopic image data input from the calculated maximum relative parallax amount includes an image region outside the fusion limit range. Here, for example, the above-described relative parallax amount of 2 degrees is set as a reference determination amount, and information on the determination level sent from the fusion limit determination level adjustment unit 80 is a ratio to the reference determination amount. Specifically, the observer selects one level from a plurality of determination levels, and controls the determination level by multiplying the reference determination amount by 2 times.

たとえばレベルを8割とすると基準判定量2度の8割である1.6度を新たな判定基準として設定する。融合限界判定部50では新たに設定された判定基準に応じて、立体画像データに融合限界範囲外の画像領域が含まれているか否かを判定する。   For example, if the level is 80%, 1.6 degrees, which is 80% of the reference determination amount of 2 degrees, is set as a new determination standard. The fusion limit determination unit 50 determines whether or not the stereoscopic image data includes an image area outside the fusion limit range according to the newly set determination criterion.

次に融合限界判定部50で立体画像データに融合限界範囲外の画像領域が含まれている、つまり図6のフローチャートでYESの判定の場合の動作について説明する。YESの判定の場合、立体画像データファイルは立体画像処理部60に送られる。次に画像内相対視差量算出部61によって立体画像データファイル内の画像データ全域に対して相対視差量を算出する。算出手法としては、例えば上記で述べたブロックマッチング法を用いた手法を用いることが出来る。次に融合限界領域判定部62では、画像データ全域に対する相対視差量から画像データ内の融合限界範囲外の領域を検出する。   Next, the operation in the case where the fusion limit determination unit 50 includes an image area outside the fusion limit range in the stereoscopic image data, that is, the determination in the case of YES in the flowchart of FIG. 6 will be described. In the case of YES determination, the stereoscopic image data file is sent to the stereoscopic image processing unit 60. Next, the relative parallax amount calculation unit 61 calculates the relative parallax amount for the entire image data in the stereoscopic image data file. As a calculation method, for example, a method using the block matching method described above can be used. Next, the fusion limit area determination unit 62 detects an area outside the fusion limit range in the image data from the relative parallax amount with respect to the entire image data.

次に融合限界領域画像処理部64では前記融合限界範囲外の領域を観察者に認識させないように立体画像データに所望の画像処理を実行する。本実施例では前述した左右視差画像の融合限界範囲外の領域に輝度調整制御を行うこととする。融合限界範囲外の領域の輝度を低下させることにより、前記融合限界範囲外の領域を観察者が注視しなくなるため観察者の不快感、疲労感を緩和することができる。以上、立体画像処理部60内での立体画像データ処理が完了され、処理された立体画像データを表示手段201に転送する。   Next, the fusion limit area image processing unit 64 performs desired image processing on the stereoscopic image data so that the observer does not recognize the area outside the fusion limit range. In the present embodiment, the luminance adjustment control is performed on a region outside the fusion limit range of the left and right parallax images described above. By reducing the brightness of the region outside the fusion limit range, the viewer does not gaze at the region outside the fusion limit range, so that the viewer's discomfort and fatigue can be alleviated. As described above, the stereoscopic image data processing in the stereoscopic image processing unit 60 is completed, and the processed stereoscopic image data is transferred to the display unit 201.

次に融合限界判定部50で立体画像データに融合限界範囲外の画像領域が含まれていない、つまり図6のフローチャートでNOの判定の場合の動作について説明する。NOの判定の場合、立体画像データファイルには融合限界範囲外の画像領域が含まれていない、つまり不快感、疲労感の無い立体像として表示可能な画像データであることになる。そのため、立体画像データとして弊害処理する必要はないので、そのまま表示手段201に立体画像データを転送する。最後に画像処理部70で一般的な2次元画像や動画に対して従来のTV装置などで行われるエッジ強調や色補正等の画像処理を実施した後に立体画像を表示する。   Next, the operation in the case where the fusion limit determination unit 50 does not include an image area outside the fusion limit range in the stereoscopic image data, that is, in the case of NO determination in the flowchart of FIG. 6 will be described. In the case of NO determination, the stereoscopic image data file does not include an image region outside the fusion limit range, that is, the image data can be displayed as a stereoscopic image without discomfort and fatigue. For this reason, since it is not necessary to perform harmful processing as stereoscopic image data, the stereoscopic image data is transferred to the display unit 201 as it is. Finally, the image processing unit 70 performs image processing such as edge enhancement and color correction performed by a conventional TV apparatus or the like on a general two-dimensional image or moving image, and then displays a stereoscopic image.

以上のようにファイルヘッダ部に付加された最大画素ズレ量|Plc-Prc|maxの情報を利用することで、上述したように式(6)から表示装置側で最大の視差量を容易に算出することが可能となる。そのため、融合限界判定を容易に実行することが可能となり、表示装置側での処理負荷を大きく軽減させることができる。特に、秒間60フレームかそれ以上の画像データを表示する立体動画像表示時には、上記の画像データ全域に対する相対視差量算出を1コマ1コマ表示装置側で実行することは処理的に非常に負荷が大きくなる。   As described above, by using the information of the maximum pixel shift amount | Plc-Prc | max added to the file header portion, the maximum parallax amount can be easily calculated on the display device side from the equation (6) as described above. It becomes possible to do. Therefore, it is possible to easily execute the fusion limit determination, and the processing load on the display device side can be greatly reduced. In particular, when displaying stereoscopic video images that display 60 frames or more of image data per second, it is extremely processing-intensive to perform relative parallax calculation for the entire image data on the frame-by-frame display device side. growing.

そのため、本実施例の構成のように、立体画像表示装置に融合限界判定部を有していれば、不要な処理装置側の融合限界被写体処理を行う必要が無くなる。また、例えば立体動画データファイル全体のファイルヘッダ部に付加される最大画素ズレ量情報を利用することで、上記融合限界条件を満たした場合には全データに対して処理を回避することが可能となり、大幅な処理負荷低減効果が得られる。また、立体動画データファイルの場合、シーンが異なるいわゆるチャプター毎の最大画素ズレ量情報を利用することで、シーン変更毎に表示装置側での処理判定を行うことができ、より高品質な立体動画表示が可能となる。   Therefore, if the stereoscopic image display apparatus has the fusion limit determination unit as in the configuration of the present embodiment, it is not necessary to perform unnecessary fusion limit subject processing on the processing device side. Further, for example, by using the maximum pixel shift amount information added to the file header portion of the entire stereoscopic video data file, it becomes possible to avoid processing for all data when the above fusion limit condition is satisfied. A significant processing load reduction effect can be obtained. Also, in the case of a stereoscopic video data file, processing determination on the display device side can be performed for each scene change by using so-called maximum pixel shift amount information for each chapter with different scenes, so that a higher quality stereoscopic video can be obtained. Display is possible.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

本発明は、特に同じ被写体に対して視差を持たせて撮像された複数の画像を用いて立体画像を表示することができる立体画像処理装置、又はそれを有する立体画像表示装置に関するものである。   The present invention relates to a stereoscopic image processing apparatus capable of displaying a stereoscopic image using a plurality of images captured with parallax with respect to the same subject or a stereoscopic image display apparatus having the same.

1 立体画像処理装置
2 立体画像表示装置
40 最大相対視差量算出部
50 融合限界判定部
60 立体画像処理部
101 撮像手段
201 表示手段
1 Stereoscopic image processing device
2 Stereoscopic image display device
40 Maximum relative parallax calculator
50 Fusion limit judgment part
60 Stereoscopic image processing unit
101 Imaging means
201 Display means

Claims (9)

画素ズレ情報を付加された視差画像データを取得する手段と、
前記視差画像データに付加された前記画素ズレ情報を読み込む情報取得手段を有し、
前記情報取得手段により取得された画素ズレ情報と表示条件から相対視差量を算出する相対視差量算出手段を有し、
前記相対視差量から観察者が前記視差画像を立体視可能か否かの融合限界判定を行う融合限界判定手段を有し、
前記融合限界判定手段の判定結果に応じて前記視差画像に画像処理を実行する立体画像処理手段を有することを特徴とする立体画像処理装置。
Means for acquiring parallax image data to which pixel shift information is added;
Comprising information acquisition means for reading the pixel shift information added to the parallax image data;
A relative parallax amount calculating means for calculating a relative parallax amount from the pixel shift information acquired by the information acquiring means and the display condition;
Fusion limit determination means for performing a fusion limit determination as to whether or not the observer can stereoscopically view the parallax image from the relative parallax amount;
A stereoscopic image processing apparatus, comprising: a stereoscopic image processing unit that performs image processing on the parallax image according to a determination result of the fusion limit determination unit.
前記画素ズレ情報は前記視差画像データに付加された視差画像の任意の画素対応点の画素ズレ量であり、
前記画素ズレ情報をk、前記視差画像データ内の最大画素ズレ量をkmaxとしたとき、
1.2kmax>k>0.8kmax
を満たすことを特徴とする請求項1に記載の立体画像処理装置。
The pixel shift information is a pixel shift amount of an arbitrary pixel corresponding point of the parallax image added to the parallax image data,
When the pixel shift information is k and the maximum pixel shift amount in the parallax image data is kmax,
1.2kmax>k> 0.8kmax
The stereoscopic image processing apparatus according to claim 1, wherein:
前記画素ズレ情報は前記視差画像データに付加された視差画像の任意の画素対応点の画素ズレ比であり、
前記画素ズレ情報をr、前記視差画像データ内の最大画素ズレ比をrmaxとしたとき、
1.2rmax>r>0.8rmax
を満たすことを特徴とする請求項1に記載の立体画像処理装置。
The pixel shift information is a pixel shift ratio of an arbitrary pixel corresponding point of the parallax image added to the parallax image data,
When the pixel shift information is r and the maximum pixel shift ratio in the parallax image data is rmax,
1.2rmax>r> 0.8rmax
The stereoscopic image processing apparatus according to claim 1, wherein:
前記融合限界判定手段で用いられる融合限界判定基準を観察者によって増減制御可能としたことを特徴とする請求項1乃至請求項3の何れか1項に記載の立体画像処理装置。 The stereoscopic image processing apparatus according to any one of claims 1 to 3, wherein a fusion limit determination criterion used by the fusion limit determination means can be controlled to increase or decrease by an observer. 前記画像処理手段は前記融合限界判定手段により立体視不可と判定された場合、前記視差画像データの視差量を制御する視差量制御処理を実行することを特徴とする請求項1乃至請求項4の何れか1項に記載の立体画像処理装置。 5. The parallax amount control process for controlling a parallax amount of the parallax image data when the image processing unit determines that stereoscopic viewing is impossible by the fusion limit determination unit. The three-dimensional image processing apparatus of any one of Claims. 前記画像処理手段は前記融合限界判定手段により立体視不可と判定された場合、前記視差画像データのボケ量を制御するボケ量制御処理を実行することを特徴とする請求項1乃至請求項4の何れか1項に記載の立体画像処理装置。 5. The blur amount control process for controlling a blur amount of the parallax image data when the image processing unit determines that stereoscopic viewing is impossible by the fusion limit determination unit. The three-dimensional image processing apparatus of any one of Claims. 前記画像処理手段は前記融合限界判定手段により立体視不可と判定された場合、前記視差画像データの輝度を制御する輝度制御処理を実行することを特徴とする請求項1乃至請求項4の何れか1項に記載の立体画像処理装置。 5. The luminance control process for controlling the luminance of the parallax image data when the image processing unit determines that stereoscopic viewing is impossible by the fusion limit determination unit. The three-dimensional image processing apparatus according to item 1. 画素ズレ情報を付加された視差画像データを取得する手段と、
前記視差画像データに付加された前記画素ズレ情報を読み込む情報取得手段を有し、
前記情報取得手段により取得された画素ズレ情報と表示条件から相対視差量を算出する相対視差量算出手段を有し、
前記相対視差量から観察者が前記視差画像を立体視可能か否かの融合限界判定を行う融合限界判定手段を有し、
前記融合限界判定手段の判定結果に応じて前記視差画像に画像処理を実行する立体画像処理手段を有し、
立体画像を表示する表示手段を有することを特徴とする立体画像表示装置。
Means for acquiring parallax image data to which pixel shift information is added;
Comprising information acquisition means for reading the pixel shift information added to the parallax image data;
A relative parallax amount calculating means for calculating a relative parallax amount from the pixel shift information acquired by the information acquiring means and the display condition;
Fusion limit determination means for performing a fusion limit determination as to whether or not the observer can stereoscopically view the parallax image from the relative parallax amount;
Stereoscopic image processing means for performing image processing on the parallax image according to the determination result of the fusion limit determination means;
A stereoscopic image display device comprising display means for displaying a stereoscopic image.
前記表示手段から観察者までの距離である視距離を算出する視距離算出部をさらに備えることを特徴とする請求項7記載の立体画像表示装置。 The stereoscopic image display apparatus according to claim 7, further comprising a viewing distance calculation unit that calculates a viewing distance that is a distance from the display unit to an observer.
JP2013158018A 2013-07-30 2013-07-30 Stereoscopic image processing device Pending JP2015029215A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013158018A JP2015029215A (en) 2013-07-30 2013-07-30 Stereoscopic image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013158018A JP2015029215A (en) 2013-07-30 2013-07-30 Stereoscopic image processing device

Publications (1)

Publication Number Publication Date
JP2015029215A true JP2015029215A (en) 2015-02-12

Family

ID=52492655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013158018A Pending JP2015029215A (en) 2013-07-30 2013-07-30 Stereoscopic image processing device

Country Status (1)

Country Link
JP (1) JP2015029215A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020059486A1 (en) * 2018-09-18 2020-03-26 ソニー株式会社 Display control device and display control method, and recording medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020059486A1 (en) * 2018-09-18 2020-03-26 ソニー株式会社 Display control device and display control method, and recording medium
CN112673624A (en) * 2018-09-18 2021-04-16 索尼公司 Display control device, display control method, and recording medium
US11233982B2 (en) 2018-09-18 2022-01-25 Sony Corporation Display control device, display control method, and recording medium
CN112673624B (en) * 2018-09-18 2023-10-27 索尼公司 Display control device, display control method, and recording medium

Similar Documents

Publication Publication Date Title
JP5963422B2 (en) Imaging apparatus, display apparatus, computer program, and stereoscopic image display system
JP5679978B2 (en) Stereoscopic image alignment apparatus, stereoscopic image alignment method, and program thereof
US9451242B2 (en) Apparatus for adjusting displayed picture, display apparatus and display method
US8760502B2 (en) Method for improving 3 dimensional effect and reducing visual fatigue and apparatus enabling the same
WO2012086120A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
JP5420075B2 (en) Stereoscopic image reproduction apparatus, parallax adjustment method thereof, parallax adjustment program, and imaging apparatus
JP5814692B2 (en) Imaging apparatus, control method therefor, and program
US8866881B2 (en) Stereoscopic image playback device, stereoscopic image playback system, and stereoscopic image playback method
JP2012156680A (en) Three dimensional image processing device
JP2014501086A (en) Stereo image acquisition system and method
JP5420076B2 (en) Reproduction apparatus, compound eye imaging apparatus, reproduction method, and program
JP5840022B2 (en) Stereo image processing device, stereo image imaging device, stereo image display device
TWI589150B (en) Three-dimensional auto-focusing method and the system thereof
JP2012227653A (en) Imaging apparatus and imaging method
JP2015029215A (en) Stereoscopic image processing device
JP4249187B2 (en) 3D image processing apparatus and program thereof
JP7339278B2 (en) Stereoscopic display adjusted to the viewer
JPWO2012001958A1 (en) Image processing apparatus and method, and program
US20140210962A1 (en) Method for controlling display of stereoscopic image, apparatus for controlling display of stereoscopic image, and imaging apparatus
WO2012039340A1 (en) Image processing device, image processing method, and program
JP2013005061A (en) Image generation device and display control device, method of controlling the same, and imaging device
JP6179282B2 (en) 3D image display apparatus and 3D image display method
KR20110137179A (en) Apparatus for controlling convergence angle of stereo camera and 3-dimension image processing system with the same
JP2012099896A (en) Three-d image processing system
JP2016054416A (en) Stereoscopic image processing apparatus, stereoscopic image pickup apparatus, stereoscopic display device, and stereoscopic image processing program