JP5614269B2 - 3D image processing method and 3D image processing apparatus - Google Patents
3D image processing method and 3D image processing apparatus Download PDFInfo
- Publication number
- JP5614269B2 JP5614269B2 JP2010275714A JP2010275714A JP5614269B2 JP 5614269 B2 JP5614269 B2 JP 5614269B2 JP 2010275714 A JP2010275714 A JP 2010275714A JP 2010275714 A JP2010275714 A JP 2010275714A JP 5614269 B2 JP5614269 B2 JP 5614269B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- block
- eye
- value
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は、三次元画像処理方法および三次元画像処理装置に関する。 The present invention relates to a three-dimensional image processing method and a three-dimensional image processing apparatus.
近年、左眼と右眼にそれぞれ左眼用と右眼用の画像を与えて、三次元(立体視)画像を提供することが行われている。左眼用画像信号と右眼用画像信号は、三次元撮像装置またはコンピュータグラフィックス装置などにより発生される。三次元撮像装置は、視差を生じるように配置された2個の撮像装置を有し、2個の撮像装置が左眼用画像信号と右眼用画像信号を発生する。コンピュータグラフィックス装置は、視差を生じるように左眼用画像信号と右眼用画像信号を生成する。言い換えれば、左眼用画像信号と右眼用画像信号は、2系統の画像信号生成系で発生される。 In recent years, a left-eye image and a right-eye image are given to the left eye and the right eye, respectively, to provide a three-dimensional (stereoscopic) image. The left-eye image signal and the right-eye image signal are generated by a three-dimensional imaging device or a computer graphics device. The three-dimensional imaging device has two imaging devices arranged to generate parallax, and the two imaging devices generate a left-eye image signal and a right-eye image signal. The computer graphics device generates a left-eye image signal and a right-eye image signal so as to generate parallax. In other words, the left eye image signal and the right eye image signal are generated by two image signal generation systems.
2系統の画像信号生成系は、視差以外の差が発生しないようにできるだけ特性が一致するように製作されるが、完全に一致させることは容易でなく、何らかの差が発生する。 The two types of image signal generation systems are manufactured so that the characteristics match as much as possible so as not to generate a difference other than parallax. However, it is not easy to completely match, and some difference occurs.
特に、三次元映像として用いられる右眼用と左眼用の動画像信号は、MPEG2やH.264などのような動画像符号化規格によって符号化映像データに変換した上で記録または送信される。そして、読み出しまたは受信した符号化映像データを復号して映像信号に再生した上で表示装置に供給する方式が一般的である。 In particular, moving image signals for right eye and left eye used as 3D video are MPEG2 and H.264. It is recorded or transmitted after being converted into encoded video data according to a moving image encoding standard such as H.264. In general, the read or received encoded video data is decoded and reproduced as a video signal, which is then supplied to a display device.
動画像信号の符号化においては、変換後のデータを所定のデータ量(ビットレート)以内におさめるため、一般的に非可逆圧縮となり、再生時の映像には符号化ノイズが含まれている。そのため、一旦符号化した画像データを復号して再生した三次元映像の右眼用と左眼用の映像データには、異なる符号化ノイズが存在することになる。 In encoding a moving image signal, in order to keep the converted data within a predetermined data amount (bit rate), it is generally irreversible compression, and an image at the time of reproduction includes encoding noise. Therefore, different encoding noises exist in the right-eye and left-eye video data of the 3D video that is decoded and reproduced once encoded image data.
左右の画像の視差が無く、同一であるべき部分に差が生じた場合、観察者の左右の眼には異なる画像が入力される。これは、立体視の成立を妨害する要因となり、眼精疲労など観察者への負担につながる。 When there is no parallax between the left and right images and a difference occurs between the same parts, different images are input to the left and right eyes of the observer. This becomes a factor that hinders the establishment of stereoscopic vision and leads to a burden on the observer such as eye strain.
実施形態によれば、三次元画像において、符号化ノイズのような左右の画像信号の食い違いを抑制し、違和感の少ない三次元画像を提供する。 According to the embodiment, in a three-dimensional image, a discrepancy between left and right image signals such as coding noise is suppressed, and a three-dimensional image with less sense of incongruity is provided.
発明の一観点によれば、左眼用画像と右眼用画像の一方を基準画像、他方を参照画像とし、基準画像を複数のブロックに分割し、分割したブロックごとに視差評価を検出し、視差評価が所定の条件を満たすブロックを、視差無し部分と判定し、視差無し部分に属する対応する基準画像の画素値と記参照画像の画素値を近づけるように補正する、ことを特徴とする三次元画像処理方法が提供される。 According to one aspect of the invention, one of the left-eye image and the right-eye image is a standard image, the other is a reference image, the standard image is divided into a plurality of blocks, and a parallax evaluation is detected for each of the divided blocks. A block that determines a block satisfying a predetermined parallax evaluation as a parallax-free part and corrects the pixel value of the corresponding reference image belonging to the parallax-free part to be close to the pixel value of the reference image. An original image processing method is provided.
発明の別の観点によれば、左眼用画像と右眼用画像の一方を基準画像、他方を参照画像とし、基準画像を分割したブロックごとに参照画像との視差評価を検出し、視差評価が所定の条件を満たすブロックを、視差無し部分と判定する視差検出・判定部と、視差無し部分に属する対応する左眼用画像の画素値と右眼用画像の画素値を近づけるように補正する補正部と、を備える三次元画像処理装置が提供される。 According to another aspect of the invention, one of the left-eye image and the right-eye image is a reference image, and the other is a reference image, and a disparity evaluation with the reference image is detected for each block obtained by dividing the reference image, and the disparity evaluation is performed. Blocks that satisfy the predetermined condition are corrected so that the pixel value of the corresponding image for the left eye and the pixel value of the image for the right eye belonging to the non-parallax portion are close to each other. A three-dimensional image processing apparatus including a correction unit is provided.
上記の観点によれば、三次元画像において、左右の画像信号に視差に起因しない差が生じていても、違和感の少ない三次元画像を提供することが可能である。 According to the above aspect, it is possible to provide a three-dimensional image with a little uncomfortable feeling even if a difference not caused by parallax occurs in the left and right image signals in the three-dimensional image.
以下、本発明の実施形態について、図面を参照して具体的に説明する。 Embodiments of the present invention will be specifically described below with reference to the drawings.
図1は、第1実施形態で使用する三次元画像データの発生を説明する図である。 FIG. 1 is a diagram for explaining generation of three-dimensional image data used in the first embodiment.
図1に示すように、人物2を、遠い山3、近い山4、雲6、空7および一部が雲に隠れた山5を背景として、三次元撮像装置(三次元カメラ)10で撮影する場合を考える。
As shown in FIG. 1, a
三次元撮像装置10は、視差を生じるように配置された左眼用と右眼用の2つの撮像系を有する。左眼用撮像系は、撮影用レンズ11Aと、撮像素子12Aと、鏡筒13Aと、撮像素子12Aの出力を処理して左眼用画像データを出力する信号処理回路14Aと、を有する。同様に、右眼用撮像系は、撮影用レンズ11Bと、撮像素子12Bと、鏡筒13Bと、撮像素子12Bの出力を処理して右眼用画像データを出力する信号処理回路14Bと、を有する。三次元撮像装置10が、静止画用カメラ(デジタルカメラ)または動画像用カメラ(デジタルムービィーカメラ)であり、動画像用カメラの場合には所定のフレームレートで連続して画像を出力する。三次元表示装置は、三次元撮像装置10の出力する左眼用画像データおよび右眼用画像データを受けて、三次元画像を表示する。
The three-
左眼用撮像系と右眼用撮像系は、図1に示すように、光軸がずれており、視差を発生する左眼用画像データと右眼用画像データを出力する。左眼用撮像系と右眼用撮像系は、光軸がずれて視差を発生する以外は、同一の画像データを出力することが望ましい。そこで、左眼用撮像系と右眼用撮像系は、撮影用レンズ11Aおよび11Bと、撮像素子12Aおよび12Bと、鏡筒13Aおよび13Bと、信号処理回路14Aおよび14Bの各部ができるだけ同一であるように製作される。しかし、実際にはこれらを完全に同一になるように製作することはできないので、ある程度の差異が生じるのは避けられない。
As shown in FIG. 1, the left-eye imaging system and the right-eye imaging system output left-eye image data and right-eye image data that generate parallax because the optical axes are shifted. It is desirable that the left-eye imaging system and the right-eye imaging system output the same image data except that the optical axis is shifted and parallax is generated. Therefore, in the imaging system for the left eye and the imaging system for the right eye, each part of the imaging lenses 11A and 11B, the
第1実施形態の三次元画像処理装置は、上記のような左眼用画像データおよび右眼用画像データの処理を行い、処理した左眼用画像データおよび右眼用画像データを三次元表示装置に出力する。また、実施形態の三次元画像処理装置で処理した左眼用画像データおよび右眼用画像データを、三次元画像用デジタルレコーダに記憶するようにしてもよい。 The three-dimensional image processing apparatus according to the first embodiment processes the left-eye image data and the right-eye image data as described above, and the processed left-eye image data and right-eye image data are processed into the three-dimensional display apparatus. Output to. Further, the image data for the left eye and the image data for the right eye processed by the 3D image processing apparatus of the embodiment may be stored in a digital recorder for 3D images.
以上のように、第1実施形態で対象とする三次元画像は、両眼視差の原理に基づき生成された右眼用と左眼用の画像データである。 As described above, the three-dimensional image targeted in the first embodiment is image data for right eye and left eye generated based on the principle of binocular parallax.
図2は、第1実施形態の三次元画像処理装置の構成を示すブロック図である。第1実施形態の三次元画像処理装置は、例えば後述するように、コンピュータにより実現される。 FIG. 2 is a block diagram illustrating a configuration of the three-dimensional image processing apparatus according to the first embodiment. The three-dimensional image processing apparatus according to the first embodiment is realized by a computer as will be described later, for example.
図2に示すように、第1実施形態の三次元画像処理装置は、画像データ入力部21と、視差検出・判定部22と、補正部23と、画像データ出力部24と、制御部25と、メモリコントローラ26と、メモリ27と、を有する。メモリ27は、三次元画像処理装置の外部に設けられていてもよい。
As shown in FIG. 2, the three-dimensional image processing apparatus according to the first embodiment includes an image
画像データ入力部21は、外部から入力される左眼用画像データおよび右眼用画像データを受け取り、メモリコントローラ26を通してメモリ27に格納する。視差検出・判定部22は、メモリコントローラ26を通してメモリ27から左眼用画像データおよび右眼用画像データを読み出し、視差無しの部分を検出する。補正部23は、左眼用画像データおよび右眼用画像データの視差無しと判定された部分について補正処理を行い、補正後の左眼用画像データおよび右眼用画像データをメモリ27に記憶する。画像データ出力部24は、外部からの要求に応じて、補正後の左眼用画像データおよび右眼用画像データをメモリコントローラ26を通してメモリ27から読み出して出力する。制御部25は、画像データ入力部21、視差検出・判定部22、補正部23、画像データ出力部24およびメモリコントローラ26の起動終了制御および外部とのインターフェース制御を行う。
The image
図3は、第1実施形態の三次元画像処理装置における処理を示すフローチャートである。以降の説明では、左右の画像のうち、任意の一方の画像を基準画像、他方の画像を参照画像とする。 FIG. 3 is a flowchart showing processing in the three-dimensional image processing apparatus according to the first embodiment. In the following description, it is assumed that one of the left and right images is a standard image and the other image is a reference image.
ステップS11では、基準画像の画面を複数(K個)のブロックに分割する。各ブロックは、N×M画素を有し、例えばM=N=16である。 In step S11, the reference image screen is divided into a plurality of (K) blocks. Each block has N × M pixels, for example, M = N = 16.
ステップS12では、変数kにゼロを設定する。変数kは、0からK−1までの値をとり得る。 In step S12, zero is set to the variable k. The variable k can take a value from 0 to K-1.
ステップS13では、k番目のブロックBLkのマッチング処理を行い、ゼロベクトルの誤差Sおよびサーチ範囲内のベクトルの最小誤差Sminを算出する。 In step S13, the k-th block BLk is matched, and the zero vector error S and the minimum vector error Smin within the search range are calculated.
図4は、基準画像におけるブロックと、参照画像におけるサーチ範囲を説明する図である。図4に示すように、基準画像30の画面を複数個のブロックに分割する。図4では、処理対象のブロック31が示されている。参照画像40において、対応ブロック41は、ブロック31に対応する位置のブロックである。ここで、基準画像30のブロックと参照画像40のブロックとの対応関係をベクトルと称し、基準画像30のブロック31と参照画像40内の対応ブロック41のベクトルをゼロベクトルと称する。そして、ベクトルで表される2個のブロックの画素値の差分絶対値和をベクトル誤差と称し、ゼロベクトルの誤差をSで表す。
FIG. 4 is a diagram for explaining a block in the standard image and a search range in the reference image. As shown in FIG. 4, the screen of the
参照画像40において、対応ブロック41を含む長方形42がサーチ範囲を示す。サーチ範囲42内で、左上のブロック43から開始して、ブロック位置を1画素ずつずらしながら、サーチ範囲42内の全ブロックに対するベクトル誤差の最小値をSminで表す。したがって、Smin=Sである場合が存在し、視差の非常に小さい部分ではそのような場合が一般的である。
In the
図5は、ステップS13におけるブロックマッチング処理を説明する図である。 FIG. 5 is a diagram illustrating the block matching process in step S13.
図5の(A)および(B)は、図1の光景を撮影した場合の左眼用画像および右眼用画像の例を示し、外部から入力される左眼用画像データおよび右眼用画像データから生成した画像である。図の(A)および(B)において、参照番号2Aおよび2Bは人物2に、3Aおよび3Bは遠い山3に、4Aおよび4Bは近い山4に、5Aおよび5Bは一部が雲に隠れた山5に、6Aおよび6Bは雲6に、7Aおよび7Bは空7に、それぞれ対応する。
5A and 5B show examples of the left-eye image and the right-eye image when the scene of FIG. 1 is photographed, and the left-eye image data and the right-eye image input from the outside. It is an image generated from data. In (A) and (B) of the figure,
図5の(C)は、図5の(A)および(B)に示す左眼用画像および右眼用画像を重ねた画像を示す。人物に対応する部分2Aおよび2B以外の部分は、遠景であり、視差が無いのでほぼ重なるが、部分2Aおよび2Bは異なる画像が重なる。
FIG. 5C shows an image in which the left-eye image and the right-eye image shown in FIGS. 5A and 5B are superimposed. The portions other than the
視差が無いブロックでは、ゼロベクトルの誤差Sは非常に小さな値になり、ゼロベクトルの誤差Sとベクトル誤差の最小値Sminの差も非常に小さな値になる。言い換えれば、この両方の値が小さい場合には、視差が無いブロックであるといえる。 In a block having no parallax, the zero vector error S has a very small value, and the difference between the zero vector error S and the minimum vector error value Smin also has a very small value. In other words, when both of these values are small, it can be said that the block has no parallax.
図3のフローチャートに戻り、ステップS14では、対象ブロックが視差無しブロックであるかを判定する。具体的には、ゼロベクトルの誤差Sの絶対値が第1の閾値sthより小さく、ゼロベクトルの誤差Sとベクトル誤差の最小値Sminの差の絶対値が第2の閾値vthより小さいかを判定し、両方を満たせば視差無しブロックと判定し、それ以外の部分は視差ありブロックと判定する。 Returning to the flowchart of FIG. 3, in step S <b> 14, it is determined whether the target block is a block without parallax. Specifically, it is determined whether the absolute value of the zero vector error S is smaller than the first threshold value sth and the absolute value of the difference between the zero vector error S and the minimum vector error value Smin is smaller than the second threshold value vth. If both are satisfied, it is determined that the block has no parallax, and the other portion is determined as a block having parallax.
具体的には、次のような2つの判定式を満たした時に、視差無しブロックと判定する。 Specifically, it is determined as a block with no parallax when the following two determination formulas are satisfied.
S<sth
abs(S−Smin)<vth
視差無しブロックと判定された場合にはステップS15に進み、それ以外の場合にはステップS16に進む。
S <sth
abs (S-Smin) <vth
If it is determined that the block has no parallax, the process proceeds to step S15; otherwise, the process proceeds to step S16.
ステップS15では、補正強度α(0≦α≦1.0)を、比較的大きな値Dαに設定し、ステップS17に進む。 In step S15, the correction strength α (0 ≦ α ≦ 1.0) is set to a relatively large value Dα, and the process proceeds to step S17.
ステップS16では、補正強度α(0≦α≦1.0)を、比較的小さな値Sαに設定し、ステップS17に進む。 In step S16, the correction strength α (0 ≦ α ≦ 1.0) is set to a relatively small value Sα, and the process proceeds to step S17.
ステップS17では、基準画像の対象ブロックBLkと、参照画像の対応ブロックSBLk内の画素値を補正する。第1実施形態では、以下のような補正を行う。 In step S17, the pixel values in the target block BLk of the standard image and the corresponding block SBLk of the reference image are corrected. In the first embodiment, the following correction is performed.
上記のようにブロックは、N×M個の画素を有するので、ブロック内の画素は画素(i,j)(0≦i<N,0≦j<M)で表される。補正前の基準画像の画素値をinS(i,j)、補正前の参照画像の画素値をinR(i,j)、補正後の基準画像の画素値をoutS(i,j)、補正後の参照画像の画素値をoutR(i,j)で表すと、補正式は以下のように表される。 Since the block has N × M pixels as described above, the pixels in the block are represented by pixels (i, j) (0 ≦ i <N, 0 ≦ j <M). The pixel value of the base image before correction is inS (i, j), the pixel value of the reference image before correction is inR (i, j), the pixel value of the base image after correction is outS (i, j), and after correction When the pixel value of the reference image is expressed by outR (i, j), the correction formula is expressed as follows.
outS(i,j)=α×(inS(i,j)+outR(i,j))/2
+(1−α)×inS(i,j)
outR(i,j)=α×(inS(i,j)+outR(i,j))/2
+(1−α)×inR(i,j)
ブロックの視差無しと判定された場合のDαを1に近い値に設定し、基準画像の対象ブロックと参照画像の対応ブロックの画素値をそれぞれ画素平均値に近づける。α=1に設定すると、左右の画素は完全に同一値となり、もっとも補正強度が高い処理となる。ブロックの視差無しと判定された場合のDαは、1に近い値であればどのような値であってもよい。ブロックの視差有りと判定された場合には、α=0を設定し、入力画素をそのまま出力画素とする。したがって、実質的な補正処理は行われない。
outS (i, j) = α × (inS (i, j) + outR (i, j)) / 2
+ (1-α) × inS (i, j)
outR (i, j) = α × (inS (i, j) + outR (i, j)) / 2
+ (1-α) × inR (i, j)
When it is determined that there is no parallax of the block, Dα is set to a value close to 1, and the pixel values of the target block of the base image and the corresponding block of the reference image are each brought close to the pixel average value. When α = 1 is set, the left and right pixels have completely the same value, and the processing with the highest correction strength is performed. Dα when it is determined that there is no block parallax may be any value as long as the value is close to 1. If it is determined that the block has parallax, α = 0 is set, and the input pixel is used as an output pixel as it is. Therefore, substantial correction processing is not performed.
図6は、補正処理を説明する図であり、図6の(A)は、視差無しと判定されたブロックを示し、図6の(B)は補正後の左眼画像を、図6の(C)は補正後の右眼画像を示す。人物以外の部分では、対応する位置の左右の画素の画素値は、それぞれ左右の画素の画素値の平均値に近づくように補正されている。 6A and 6B are diagrams for explaining the correction process. FIG. 6A shows a block determined to have no parallax, FIG. 6B shows a corrected left-eye image, and FIG. C) shows the right eye image after correction. In the part other than the person, the pixel values of the left and right pixels at the corresponding positions are corrected so as to approach the average value of the pixel values of the left and right pixels, respectively.
図3に戻り、ステップS18では、処理していないブロックが残っているかを判定し、残っていればステップS19に進み、残っていなければ終了する。 Returning to FIG. 3, in step S18, it is determined whether or not an unprocessed block remains. If it remains, the process proceeds to step S19, and if not, the process ends.
ステップS19では、変数kを1増加させてステップS13に戻る。これにより、上記の処理が全ブロックに対して繰り返され、基準画像および参照画像、すなわち左眼および右眼用の画像に対して補正が行われる。 In step S19, the variable k is incremented by 1, and the process returns to step S13. As a result, the above processing is repeated for all blocks, and correction is performed on the base image and the reference image, that is, the images for the left eye and the right eye.
第1実施形態では、ステップS17で上記のような補正が行われたが、補正方法は各種の変形例が可能である。次に変形例の1つを説明する。 In the first embodiment, the above-described correction is performed in step S17. However, the correction method can be variously modified. Next, one modified example will be described.
この変形例では、基準画像の対象ブロックおよび参照画像の対応ブロックのうち、高周波成分がより多く含まれる方をselSR(i,j)で表す。補正式は、次の通りである。 In this modification, selSR (i, j) represents the higher frequency component included in the target block of the base image and the corresponding block of the reference image. The correction formula is as follows.
outS(i,j)=α×selSR(i,j)+(1−α)×inS(i,j)
outR(i,j)=α×selSR(i,j)+(1−α)×inR(i,j)
上記のように、selSR(i,j)は、基準画像の対象ブロックおよび参照画像の対応ブロックのうち高周波数成分が多く含まれる方である。したがって、背景部分において、画素値の変化がより急激な方に近づくように補正されることになる。
outS (i, j) = α × selSR (i, j) + (1−α) × inS (i, j)
outR (i, j) = α × selSR (i, j) + (1−α) × inR (i, j)
As described above, selSR (i, j) is the one that contains more high-frequency components among the target block of the base image and the corresponding block of the reference image. Therefore, in the background portion, correction is made so that the change in pixel value approaches a more rapid one.
高周波数成分がどれだけ含まれるかについては、ブロックにおけるアクティビティを計算することによって判定する。アクティビティは、N×M画素ブロックにおける、水平方向の隣接差分絶対値和および縦方向の隣接差分絶対値和の総和とする。アクティビティの計算方法は以下の通りである。 How much high frequency components are included is determined by calculating the activity in the block. The activity is the sum of the horizontal adjacent difference absolute value sum and the vertical adjacent difference absolute value sum in the N × M pixel block. The activity calculation method is as follows.
基準画像の対象ブロックのアクティビティをactS、参照画像の対応ブロックのアクティビティをactRとすると、actSおよびactRを算出するプログラムは以下の通りである。 Assuming that the activity of the target block of the reference image is actS and the activity of the corresponding block of the reference image is actR, the program for calculating actS and actR is as follows.
//actSの算出
actS=0;
for(j=0;j<M;j++){
for(i=0;i<N−1;i++){
actS += abs(inS[i,j]−inS[i+1,j])
}
}
for(j=0;j<M−1;j++){
for(i=0;i<N;i++){
actS += abs(inS[i,j]−inS[i,j+1])
}
}
//actRの算出
actR=0;
for(j=0;j<M;j++){
for(i=0;i<N−1;i++){
actR += abs(inR[i,j]−inR[i+1,j])
}
}
for(j=0;j<M−1;j++){
for(i=0;i<N;i++){
actR += abs(inR[i,j]−inR[i,j+1])
}
}
以上のようにして算出したactSとactRを比較し、actSがactRより大きければ、selSR(i,j)はinS[i,j]の画素値とする。actSがactR以下の場合には、selSR(i,j)はinR[i,j]の画素値とする。
// calculation of actS actS = 0;
for (j = 0; j <M; j ++) {
for (i = 0; i <N−1; i ++) {
actS + = abs (inS [i, j] −inS [i + 1, j])
}
}
for (j = 0; j <M−1; j ++) {
for (i = 0; i <N; i ++) {
actS + = abs (inS [i, j] −inS [i, j + 1])
}
}
// Calculation of actR actR = 0;
for (j = 0; j <M; j ++) {
for (i = 0; i <N−1; i ++) {
actR + = abs (inR [i, j] -inR [i + 1, j])
}
}
for (j = 0; j <M−1; j ++) {
for (i = 0; i <N; i ++) {
actR + = abs (inR [i, j] -inR [i, j + 1])
}
}
The actS and actR calculated as described above are compared, and if actS is greater than actR, selSR (i, j) is set to a pixel value of inS [i, j]. When actS is less than or equal to actR, selSR (i, j) is a pixel value of inR [i, j].
以上のようにして補正された左眼用画像データおよび右眼用画像データは、三次元表示装置に供給されて三次元画像の表示に使用される。また、補正された左眼用画像データおよび右眼用画像データを送信したり記憶する場合には、データ量を圧縮するため符号化処理を行った後、送信または記憶する。 The left-eye image data and right-eye image data corrected as described above are supplied to a three-dimensional display device and used for displaying a three-dimensional image. Further, when the corrected left-eye image data and right-eye image data are transmitted or stored, an encoding process is performed to compress the data amount, and then transmitted or stored.
図7は、補正された左眼用画像データおよび右眼用画像データを符号化する場合の構成を示す図である。補正された左眼用画像データおよび右眼用画像データは、それぞれ左眼用符号化部51Aおよび右眼用符号化部51Bに供給される。左眼用符号化部51Aおよび右眼用符号化部51Bは、公知の符号化方法で左眼用画像データおよび右眼用画像データをそれぞれ符号化して、左眼用符号化画像データおよび右眼用符号化画像データを出力する。左眼用符号化部51Aおよび右眼用符号化部51Bは、公知の符号化方法で独立して左眼用画像データおよび右眼用画像データをそれぞれ符号化すればよいが、必要に応じて左眼用画像データと右眼用画像データの相互関係を利用してもよい。
FIG. 7 is a diagram showing a configuration when the corrected left-eye image data and right-eye image data are encoded. The corrected left-eye image data and right-eye image data are supplied to the left-
第1実施形態では、三次元撮像装置から出力される左眼用画像データおよび右眼用画像データを補正したが、上記のように、画像データは、符号化した状態で送信または記憶される。そのため、画像処理装置には、左眼用符号化画像データおよび右眼用符号化画像データが供給され、画像処理装置はこれらのデータを復号して処理する場合がある。第2実施形態は、このような場合に使用される画像処理装置である。 In the first embodiment, the left-eye image data and the right-eye image data output from the three-dimensional imaging device are corrected. As described above, the image data is transmitted or stored in an encoded state. Therefore, the left-eye coded image data and the right-eye coded image data are supplied to the image processing apparatus, and the image processing apparatus may decode and process these data. The second embodiment is an image processing apparatus used in such a case.
図8は、第2実施形態の画像処理装置の概略構成を示すブロック図である。第2実施形態の画像処理装置には、外部からMPEG2やH.264などの符号化手法を使用して符号化した左眼用符号化画像データおよび右眼用符号化画像データが供給される。第2実施形態の画像処理装置は、左眼用符号化画像データおよび右眼用符号化画像データに対して補正処理を行った後、補正後の左眼用画像データおよび右眼用画像データを表示装置などに供給する。 FIG. 8 is a block diagram illustrating a schematic configuration of the image processing apparatus according to the second embodiment. The image processing apparatus according to the second embodiment includes MPEG2 and H.264 from the outside. The encoded image data for the left eye and the encoded image data for the right eye encoded using an encoding method such as H.264 are supplied. The image processing apparatus according to the second embodiment performs correction processing on the encoded image data for the left eye and the encoded image data for the right eye, and then outputs the corrected image data for the left eye and the image data for the right eye. Supply to display devices.
図8に示すように、第2実施形態の画像処理装置は、動画像復号部61と、視差検出・補正部62と、画像データ出力部64と、制御部65と、メモリコントローラ66と、メモリ67と、を有する。第2実施形態の画像処理装置は、画像データ入力部21の代わりに動画像復号部61を設けた以外は、第1実施形態の画像処理装置と同じ構成を有する。
As shown in FIG. 8, the image processing apparatus of the second embodiment includes a moving image decoding unit 61, a parallax detection /
動画像復号部61は、外部から供給される左眼用符号化画像データおよび右眼用符号化画像データに対して、対応する公知の手法で復号処理を行う。視差検出・補正部62は、第1実施形態で説明したのと同様の手法で、復号された左眼用画像データおよび右眼用画像データに対して、視差無しの部分を検出して補正処理を行う。
The moving image decoding unit 61 performs a decoding process on the encoded image data for the left eye and the encoded image data for the right eye supplied from the outside by using a corresponding known method. The parallax detection /
第1および第2実施形態の画像処理装置は、例えば、プロセッサまたはDSPとメモリを組み合わせたコンピュータを使用して実現される。 The image processing apparatuses according to the first and second embodiments are realized by using, for example, a computer that combines a processor or DSP and a memory.
図9は、コンピュータにより実現される第1および第2実施形態の画像処理装置70の機能ブロック図である。
FIG. 9 is a functional block diagram of the
図9に示すように、実施形態の画像処理装置は、左眼用画像(L画像)RAM71と、右眼用画像(R画像)RAM72と、ブロックマッチング算出部73と、アクティビティ算出部74と、判定部75と、補正処理部76と、内部バス77と、入出力インターフェース(Read/Write IF)78と、を有する。第1実施形態の視差検出・判定部22は、ブロックマッチング算出部73および判定部75を合わせた部分に対応し、補正部23は、アクティビティ算出部74および補正処理部76を合わせた部分に対応する。第2実施形態の視差検出・補正部62は、ブロックマッチング算出部73、アクティビティ算出部74、判定部75および補正処理部76を合わせた部分に対応する。
As shown in FIG. 9, the image processing apparatus according to the embodiment includes a left-eye image (L image)
L画像RAM71、R画像RAM72、ブロックマッチング算出部73、アクティビティ算出部74および補正処理部76は、内部バス77を介して相互に接続される。
The
上記のように、左眼用画像および右眼用画像の一方を基準画像に、他方を参照画像にする。例えば、左眼用画像を基準画像に、右眼用画像を参照画像にした場合には、基準画像のブロックはN×M画素であるのに対して、参照画像はN×M画素より広いサーチ範囲分の画素が必要であるので、右眼用画像を格納するR画像RAM72は、左眼用画像を格納するL画像RAM71に比べて容量を大きくする。
As described above, one of the left-eye image and the right-eye image is used as a standard image, and the other is used as a reference image. For example, when the image for the left eye is used as the standard image and the image for the right eye is used as the reference image, the block of the standard image has N × M pixels, whereas the reference image has a search wider than N × M pixels. Since pixels for a range are required, the
ブロックマッチング算出部73は、L画像RAM71およびR画像RAM72からそれぞれ画像を読み出して前述のステップ13におけるブロックマッチング処理を行い、ゼロベクトル誤差Sと、最小誤差Sminを検出して、判定部75に出力する。
The block matching
アクティビティ算出部74は、前述のselSR(i,j)を使用した補正を行う変形例を実現する時に設けられる。アクティビティ算出部74は、L画像RAM71およびR画像RAM72からそれぞれ画像を読み出して、アクティビティactSとactRを算出し、actSとactRのどちらのアクティビティが高いかを補正処理部76に出力する。
The
判定部75は、ステップS14での判定処理を行い、視差有り無しの判定結果を補正処理部76に出力する。補正処理部76は、L画像RAM71およびR画像RAM72からそれぞれ画像を読み出して、判定部75からの判定結果に基づいて補正処理を行い、補正結果outSおよびoutRを入出力インターフェース78を介して出力する。また、変形例では、補正処理部76は、アクティビティ算出部74の判定結果をもとに補正処理を行う。
The
三次元画像表示では、背景部分など、視差がない部分は静止している場合が多く、動いている物体よりも符号化ノイズが目立ちやすい。第1および第2実施形態、および変形例の画像処理装置により画像処理を行うことにより、視差が無い部分に対して、左右の画素値を同一値に近づけることにより、同一背景や同一物体における左右の映像の食い違いを抑制できる。 In a three-dimensional image display, a part without parallax, such as a background part, is often stationary, and encoding noise is more conspicuous than a moving object. By performing image processing using the image processing apparatus according to the first and second embodiments and the modified example, the left and right pixel values are brought close to the same value for a portion without parallax, so Discrepancies in video can be suppressed.
以上、実施形態を説明したが、ここに記載したすべての例や条件は、発明および技術に適用する発明の概念の理解を助ける目的で記載されたものであり、特に記載された例や条件は発明の範囲を制限することを意図するものではなく、明細書のそのような例の構成は発明の利点および欠点を示すものではない。発明の実施形態を詳細に記載したが、各種の変更、置き換え、変形が発明の精神および範囲を逸脱することなく行えることが理解されるべきである。 Although the embodiment has been described above, all examples and conditions described herein are described for the purpose of helping understanding of the concept of the invention applied to the invention and the technology. It is not intended to limit the scope of the invention, and the construction of such examples in the specification does not indicate the advantages and disadvantages of the invention. Although embodiments of the invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made without departing from the spirit and scope of the invention.
以下、実施形態に関し、更に以下の付記を開示する。
(付記1)
左眼用画像と右眼用画像の一方を基準画像、他方を参照画像とし、
前記基準画像を複数のブロックに分割し、
分割したブロックごとに視差評価を検出し、
前記視差評価が所定の条件を満たすブロックを、視差無し部分と判定し、
前記視差無し部分に属する対応する前記基準画像の画素値と前記参照画像の画素値を近づけるように補正する、ことを特徴とする三次元画像処理方法。
(付記2)
前記補正では、対応する前記基準画像の画素値と前記参照画像の画素値を、平均値に近づける付記1記載の三次元画像処理方法。
(付記3)
前記補正では、前記基準画像と前記参照画像の各ブロックにおける周波数解析を行い、前記前記基準画像と前記参照画像のうちの高周波成分が多く含まれるブロックを、補正画像として選択する付記1記載の三次元画像処理方法。
(付記4)
前記所定の条件は、前記基準画像と前記参照画像の対応するブロックにおけるゼロブロック誤差値が第1閾値より小さく、かつゼロブロック誤差値とブロックマッチング処理によるサーチ範囲内での最小ブロック誤差値との差の絶対値が第2閾値より小さい場合に、視差無し部分と判定する条件である付記1から3のいずれか1項記載の三次元画像処理方法。
(付記5)
左眼用画像と右眼用画像の一方を基準画像、他方を参照画像とし、前記基準画像を分割したブロックごとに前記参照画像との視差評価を検出し、前記視差評価が所定の条件を満たすブロックを、視差無し部分と判定する視差検出・判定部と、
前記視差無し部分に属する対応する前記左眼用画像の画素値と前記右眼用画像の画素値を近づけるように補正する補正部と、を備えることを特徴とする三次元画像処理装置。
(付記6)
前記補正部は、対応する前記左眼用画像の画素値と前記右眼用画像の画素値を、平均値に近づける付記5記載の三次元画像処理装置。
(付記7)
前記補正部は、前記左眼用画像と前記右眼用画像の各ブロックにおける周波数解析を行い、前記左眼用画像と前記右眼用画像のうちの高周波成分が多く含まれるブロックを、補正画像として選択する付記5記載の三次元画像処理装置。
(付記8)
前記所定の条件は、前記左眼用画像と前記右眼用画像の対応するブロックにおけるゼロブロック誤差値が第1閾値より小さく、かつゼロブロック誤差値とブロックマッチング処理によるサーチ範囲内での最小ブロック誤差値との差の絶対値が第2閾値より小さい場合に、視差無し部分と判定する条件である付記5から7のいずれか1項記載の三次元画像処理装置。
Hereinafter, the following additional notes will be disclosed with respect to the embodiment.
(Appendix 1)
One of the image for the left eye and the image for the right eye is a standard image, the other is a reference image,
Dividing the reference image into a plurality of blocks;
Detect parallax evaluation for each divided block,
A block for which the parallax evaluation satisfies a predetermined condition is determined as a parallax-free portion,
A three-dimensional image processing method, wherein the pixel value of the corresponding standard image belonging to the non-parallax portion is corrected so as to be close to the pixel value of the reference image.
(Appendix 2)
The three-dimensional image processing method according to claim 1, wherein in the correction, the pixel value of the corresponding standard image and the pixel value of the reference image are brought close to an average value.
(Appendix 3)
The third order according to supplementary note 1, wherein in the correction, frequency analysis is performed on each block of the reference image and the reference image, and a block containing a large amount of high-frequency components in the reference image and the reference image is selected as a correction image. Original image processing method.
(Appendix 4)
The predetermined condition is that a zero block error value in a block corresponding to the reference image and the reference image is smaller than a first threshold, and a zero block error value and a minimum block error value within a search range by block matching processing are The three-dimensional image processing method according to any one of supplementary notes 1 to 3, which is a condition for determining that there is no parallax when the absolute value of the difference is smaller than a second threshold value.
(Appendix 5)
One of the left-eye image and the right-eye image is used as a standard image, and the other is used as a reference image. Parallax evaluation with the reference image is detected for each block obtained by dividing the standard image, and the parallax evaluation satisfies a predetermined condition A parallax detection / determination unit that determines a block as a non-parallax portion;
A three-dimensional image processing apparatus comprising: a correction unit that corrects the pixel value of the corresponding left-eye image belonging to the non-parallax portion and the pixel value of the right-eye image to be close to each other.
(Appendix 6)
The three-dimensional image processing apparatus according to
(Appendix 7)
The correction unit performs frequency analysis on each block of the left-eye image and the right-eye image, and corrects a block containing a large amount of high-frequency components from the left-eye image and the right-eye image. The three-dimensional image processing apparatus according to
(Appendix 8)
The predetermined condition is that a zero block error value in a corresponding block of the left eye image and the right eye image is smaller than a first threshold value, and the minimum block within the search range by the block matching process with the zero block error value The three-dimensional image processing apparatus according to any one of
21 画像データ入力部
22 視差検出・判定部
23 補正部
24 画像データ出力部
25 制御部
26 メモリコントローラ
27 メモリ
DESCRIPTION OF
Claims (2)
前記基準画像を複数のブロックに分割し、
前記基準画像と前記参照画像のブロックマッチングにより対応するブロックを検出し、対応ブロックの画素値の差分絶対値和をゼロブロック誤差値とし、さらに前記ブロックマッチングのサーチ範囲内での全ブロックについてのブロックの画素値の差分絶対値和の最小値を最小ブロック誤差値とする視差評価を行い、
前記ゼロブロック誤差値が第1閾値より小さく、かつ前記ゼロブロック誤差値と前記最小ブロック誤差値との差の絶対値が第2閾値より小さい場合に、視差無し部分と判定し、
前記視差無し部分に属する対応する前記基準画像と前記参照画像の各ブロックにおける周波数解析を行い、前記基準画像と前記参照画像のうちの高周波成分が多く含まれるブロックを補正画像として選択し、前記補正画像として選択されない画像の画素値を、前記補正画像の画素値に近づけるように補正することを特徴とする三次元画像処理方法。 One of the image for the left eye and the image for the right eye is a standard image, the other is a reference image,
Dividing the reference image into a plurality of blocks;
The corresponding block is detected by block matching between the reference image and the reference image, the sum of absolute differences of the pixel values of the corresponding block is set as a zero block error value, and the blocks for all blocks within the search range of the block matching Perform a disparity evaluation with the minimum value of the sum of absolute differences of pixel values as the minimum block error value,
The zero-block error value is smaller than the first threshold value, and when the absolute value of the difference between the minimum block error value and the zero block error value is less than the second threshold value, determines that the parallax free portion,
Perform frequency analysis on each block of the corresponding standard image and the reference image belonging to the non-parallax portion, select a block containing a lot of high frequency components from the standard image and the reference image as a correction image, and A three-dimensional image processing method, wherein a pixel value of an image not selected as an image is corrected so as to approach a pixel value of the corrected image.
前記視差無し部分に属する対応する前記基準画像と前記参照画像の各ブロックにおける周波数解析を行い、前記基準画像と前記参照画像のうちの高周波成分が多く含まれるブロックを補正画像として選択し、前記補正画像として選択されない画像の画素値を、前記補正画像の画素値に近づけるように補正する補正部と、を備えることを特徴とする三次元画像処理装置。 One of the left-eye image and the right-eye image is a standard image and the other is a reference image. For each block obtained by dividing the standard image, a corresponding block is detected by block matching of the standard image and the reference image. A parallax in which the sum of absolute differences of block pixel values is a zero block error value, and a minimum value of the sum of absolute differences of block pixel values for all blocks within the block matching search range is a minimum block error value. evaluated, the zero block error value is smaller than the first threshold value, and when the absolute value of the difference between the minimum block error value and the zero block error value is less than the second threshold value, determines that the parallax free portion A parallax detection / determination unit;
Perform frequency analysis on each block of the corresponding standard image and the reference image belonging to the non-parallax portion, select a block containing a lot of high frequency components from the standard image and the reference image as a correction image, and A three-dimensional image processing apparatus comprising: a correction unit that corrects a pixel value of an image not selected as an image so as to approach the pixel value of the corrected image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010275714A JP5614269B2 (en) | 2010-12-10 | 2010-12-10 | 3D image processing method and 3D image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010275714A JP5614269B2 (en) | 2010-12-10 | 2010-12-10 | 3D image processing method and 3D image processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012124821A JP2012124821A (en) | 2012-06-28 |
JP5614269B2 true JP5614269B2 (en) | 2014-10-29 |
Family
ID=46505789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010275714A Expired - Fee Related JP5614269B2 (en) | 2010-12-10 | 2010-12-10 | 3D image processing method and 3D image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5614269B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11252585A (en) * | 1998-03-05 | 1999-09-17 | Nippon Hoso Kyokai <Nhk> | Parallax amount estimate device |
JP2002216125A (en) * | 2001-01-23 | 2002-08-02 | Toshiba Corp | Image correcting device and its method |
JP2002271818A (en) * | 2001-03-06 | 2002-09-20 | Olympus Optical Co Ltd | Parallax amount measurement device |
US20110074775A1 (en) * | 2008-09-26 | 2011-03-31 | Ryuichi Shibutani | Image signal processing device and image signal processing method |
-
2010
- 2010-12-10 JP JP2010275714A patent/JP5614269B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012124821A (en) | 2012-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2549762B1 (en) | Stereovision-image position matching apparatus, stereovision-image position matching method, and program therefor | |
US10984583B2 (en) | Reconstructing views of real world 3D scenes | |
JP6158929B2 (en) | Image processing apparatus, method, and computer program | |
CN102790890B (en) | Stereo image coding Apparatus for () and method therefor and picture pick-up device | |
US8116557B2 (en) | 3D image processing apparatus and method | |
JP5917017B2 (en) | Image processing apparatus, control method therefor, and program | |
KR100720722B1 (en) | Intermediate vector interpolation method and 3D display apparatus | |
US9736498B2 (en) | Method and apparatus of disparity vector derivation and inter-view motion vector prediction for 3D video coding | |
US9313473B2 (en) | Depth video filtering method and apparatus | |
TWI493505B (en) | Image processing method and image processing apparatus thereof | |
JP2007502053A (en) | Motion estimation method and apparatus | |
US20130293533A1 (en) | Image processing apparatus and image processing method | |
WO2013165687A1 (en) | Reference card for scene referred metadata capture | |
US20120087571A1 (en) | Method and apparatus for synchronizing 3-dimensional image | |
US20040165765A1 (en) | Method and an appraratus to divide image blocks | |
JP2003061116A (en) | Stereoscopic video image display device | |
JP4944046B2 (en) | Video encoding method, decoding method, encoding device, decoding device, program thereof, and computer-readable recording medium | |
JP5614269B2 (en) | 3D image processing method and 3D image processing apparatus | |
KR20110025083A (en) | Apparatus and method for displaying 3d image in 3d image system | |
JP4815004B2 (en) | Multi-view image encoding device | |
US9113140B2 (en) | Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector | |
US9253467B2 (en) | Method and apparatus for correcting errors in multiple stream-based 3D images | |
JP2004242000A (en) | Encoding device and method, and decoding device and method | |
CN117437119A (en) | Image processing method, device, equipment and medium | |
JP5627798B2 (en) | Image processing apparatus, image processing method, image processing program, image display apparatus, and image display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130904 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140225 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140527 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140610 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140812 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5614269 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |