JP5940812B2 - Multi-viewpoint image processing apparatus, method, and program - Google Patents

Multi-viewpoint image processing apparatus, method, and program Download PDF

Info

Publication number
JP5940812B2
JP5940812B2 JP2012004447A JP2012004447A JP5940812B2 JP 5940812 B2 JP5940812 B2 JP 5940812B2 JP 2012004447 A JP2012004447 A JP 2012004447A JP 2012004447 A JP2012004447 A JP 2012004447A JP 5940812 B2 JP5940812 B2 JP 5940812B2
Authority
JP
Japan
Prior art keywords
image
quality
parallax
low
viewpoint image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012004447A
Other languages
Japanese (ja)
Other versions
JP2013143109A (en
Inventor
俊枝 三須
俊枝 三須
境田 慎一
慎一 境田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2012004447A priority Critical patent/JP5940812B2/en
Publication of JP2013143109A publication Critical patent/JP2013143109A/en
Application granted granted Critical
Publication of JP5940812B2 publication Critical patent/JP5940812B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は、複数の視点画像(多視点画像)のうちのある視点の低画質画像に対し、その画質を改善する多視点画像処理装置、方法及びプログラムに関する。   The present invention relates to a multi-viewpoint image processing apparatus, method, and program for improving the image quality of a low-quality image at a certain viewpoint among a plurality of viewpoint images (multi-viewpoint images).

従来、1つの対象物を複数の視点から撮影し、これにより得られた多視点画像を伝送する多視点画像処理システムが知られている。多視点画像(2視点画像を含む)を立体テレビ放送等で用いる場合には、ある視点の画像は高画質で伝送し、他の視点の画像はより低画質で伝送する。この多視点画像処理システムによれば、伝送帯域を節減することができ、効率的な多視点画像の伝送を実現することができる。   2. Description of the Related Art Conventionally, a multi-view image processing system that captures a single object from a plurality of viewpoints and transmits a multi-view image obtained thereby is known. When multi-viewpoint images (including two-viewpoint images) are used in 3D television broadcasting or the like, an image from one viewpoint is transmitted with high image quality, and an image from another viewpoint is transmitted with lower image quality. According to this multi-viewpoint image processing system, the transmission band can be reduced, and efficient multi-viewpoint image transmission can be realized.

このような多視点画像処理システムにより伝送された多視点画像に画質差があったとしても、視聴者は、視差の認知が可能であるため、提示された画像に立体感を感じ取ることができる。また、人間の視覚特性は、より高画質な画像に頼って精細な絵柄を認知する傾向があるため、視聴者は、どちらかというと高画質寄りの主観画質として画像を認知することができる。   Even if there is a difference in image quality between the multi-viewpoint images transmitted by such a multi-viewpoint image processing system, the viewer can perceive the parallax and thus can feel a stereoscopic effect in the presented image. In addition, since human visual characteristics tend to recognize fine patterns depending on higher-quality images, viewers can perceive images as subjective image quality closer to high-quality images.

ところで、画像処理の技術分野では、画質を改善する技術が知られている。例えば、複数の画像を用いて画質を向上する技術として複数枚超解像がある(特許文献1)。この複数枚超解像技術は、高解像度画像を仮定し、この仮定した高解像度画像から所定の関数を用いて、低解像度画像の画素毎に画素値を推定し、推定した画素値と観測した画素値との間の差が最小になるように、高解像度画像を探索するものである。   Incidentally, in the technical field of image processing, a technique for improving image quality is known. For example, as a technique for improving the image quality using a plurality of images, there is a plurality of super-resolution (Patent Document 1). This multi-frame super-resolution technique assumes a high-resolution image, estimates a pixel value for each pixel of the low-resolution image using a predetermined function from the assumed high-resolution image, and observes the estimated pixel value. The high-resolution image is searched so that the difference between the pixel value is minimized.

また、例えば、物体の3次元モデルを用いたテクスチャの超解像技術が提案されている(特許文献2)。この超解像技術は、低画質の画像から、高品質で、かつ任意の位置の置かれた擬似的な光源下での被写体画像を生成するものである。具体的には、この超解像技術を実現する装置は、光源及び視点の位置情報並びに被写体の表面形状を表す法線情報から被写体の形状に関する第一幾何パラメータを算出し、法線情報の空間的な解像度よりも高い解像度の成分をもつ幾何パラメータである表現子を空間的に拡張し、拡張した表現子を用いて第一幾何パラメータを補正し、補正後の第一幾何パラメータを反射モデルに適用することにより、高画質画像を生成する。   For example, a texture super-resolution technique using a three-dimensional model of an object has been proposed (Patent Document 2). This super-resolution technique generates a subject image under a pseudo light source having a high quality and an arbitrary position from a low-quality image. Specifically, the apparatus for realizing the super-resolution technique calculates the first geometric parameter related to the shape of the subject from the positional information of the light source and the viewpoint and the normal information representing the surface shape of the subject, and the normal information space Spatial expansion is performed on an expression that is a geometric parameter having a higher resolution component than the general resolution, the first geometric parameter is corrected using the expanded expression, and the corrected first geometric parameter is converted into a reflection model. By applying this, a high-quality image is generated.

また、例えば、視点間の視差を動きベクトルとみなして符号化を行う多視点画像符号化手法が提案されている(特許文献3)。この多視点画像符号化手法では、立体画像圧縮装置が、立体画像を構成する多視点画像を1枚の画像に多重して圧縮する際に、動きベクトルをオフセットベクトル及びローカル動きベクトルに分解し、動画ストリーム中に挿入する。そして、立体画像伸長装置が、動画ストリームを受信して伸長する際に、オフセットベクトル及びローカル動きベクトルを1本の動きベクトルに合成し、合成した動きベクトルを用いて立体画像を復元する。   In addition, for example, a multi-view image encoding method that performs encoding by regarding the parallax between viewpoints as a motion vector has been proposed (Patent Document 3). In this multi-viewpoint image encoding method, when a stereoscopic image compression apparatus multiplexes and compresses a multi-viewpoint image constituting a stereoscopic image into one image, the motion vector is decomposed into an offset vector and a local motion vector, Insert into the video stream. Then, when the stereoscopic image decompression apparatus receives and decompresses the moving image stream, the stereoscopic image decompression device combines the offset vector and the local motion vector into one motion vector, and restores the stereoscopic image using the combined motion vector.

特開2006−127241号公報JP 2006-127241 A 特表2011−522316号公報Special table 2011-522316 gazette 特開2005−110113号公報JP 2005-110113 A

しかしながら、視点によって画質の異なる従来の立体テレビでは、視聴者は、目や精神に疲労や酔いを生じたり、片目をつぶったときの画質差を違和感として感じたり、にじみのような画質劣化を感じたりするという問題があった。   However, in conventional 3D televisions with different image quality depending on the viewpoint, viewers feel tired and intoxicated in their eyes and mind, feel the difference in image quality when one eye is closed, or feel image quality deterioration like blurring. There was a problem.

また、前述の特許文献1に記載された複数枚超解像技術は、複数の低解像の画像列から高解像の画像を生成するものであり、画像間に画質差がある場合を積極的に考慮していない。また、複数枚超解像技術では、低解像の画像列には折り返し歪が存在することが前提となるため、撮像時に折り返し歪が付加されていない場合には、有効に動作しない。   In addition, the multiple-resolution super-resolution technique described in Patent Document 1 described above generates a high-resolution image from a plurality of low-resolution image sequences, and actively uses a case where there is a difference in image quality between images. Is not considered. In addition, since the multi-image super-resolution technique is premised on that aliasing distortion exists in the low-resolution image sequence, it does not operate effectively when aliasing distortion is not added at the time of imaging.

また、前述の特許文献2に記載された3次元モデルを用いたテクスチャの超解像技術では、多視点画像に応用するために、3次元モデルの構築及び視点毎のレンダリングが必要となることから、ハードウェア及び演算が極端に大規模なものとなる。   Further, the texture super-resolution technique using the three-dimensional model described in Patent Document 2 described above requires construction of a three-dimensional model and rendering for each viewpoint in order to apply to a multi-view image. , Hardware and operations become extremely large.

また、前述の特許文献3に記載された視差を動きベクトルとみなして符号化を行う手法では、視点の異なる画像列を動画像とみなして符号化を行うため、視点毎に解像度が異なるような場合が考慮されていない。   In addition, in the method of performing encoding by regarding the parallax described in Patent Document 3 as a motion vector, encoding is performed by regarding an image sequence with different viewpoints as a moving image, so that the resolution differs for each viewpoint. The case is not considered.

このように、特許文献1〜3は、画質差がある多視点画像において、低画質画像の画質を改善する手法について何ら言及していない。低画質画像の画質を改善することができれば、視点によって画質の異なる従来の立体テレビにおける目の疲労、酔い等の問題を解決することができる。   As described above, Patent Documents 1 to 3 do not mention any technique for improving the image quality of a low-quality image in a multi-viewpoint image having a difference in image quality. If the image quality of a low-quality image can be improved, problems such as eye fatigue and sickness in a conventional 3D television with different image quality depending on the viewpoint can be solved.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、ある視点の低画質画像(低画質の視点画像)を、別の視点の高画質画像(高画質の視点画像)に基づいて精細化することが可能な多視点画像処理装置、方法及びプログラムを提供することにある。   Accordingly, the present invention has been made to solve the above-described problems, and an object of the present invention is to change a low-quality image (low-quality viewpoint image) from one viewpoint to a high-quality image (high-quality viewpoint image) from another viewpoint. ) Based multi-viewpoint image processing apparatus, method and program.

前記した課題を解決するため、本発明の請求項1に係る多視点画像処理装置は、高画質の視点画像を用いて、低画質の視点画像の画質を改善する多視点画像処理装置であって、前記高画質の視点画像と前記低画質の視点画像との間で、部分領域毎の対応付けを行い、視差を推定する視差推定手段と、前記視差推定手段により推定された視差に基づいて、前記高画質の視点画像に対して視差補償を行い、前記視差補償した高画質の視点画像を用いて、前記低画質の視点画像の画質を改善した画像を生成する画像補正手段と、を備え、前記画像補正手段が、前記高画質の視点画像から補強信号画像を抽出し、前記視差推定手段により推定された視差に基づいて、前記補強信号画像に対して前記部分領域毎に視差補償を行い、前記部分領域毎に、前記低画質の視点画像に、対応する前記視差補償した補強信号画像を重畳し、前記補強信号画像が、空間高周波成分の画像である、ことを特徴とする。係る構成によれば、多視点画像に高画質の視点画像と低画質の視点画像が含まれる場合において、低画質の視点画像の画質を改善することができる。例えば、伝送帯域を削減可能な、左眼用と右眼用の伝送映像に画質差が生じるシステムであっても、本発明の多視点画像処理装置によれば、低画質の視点画像の画質を改善でき、両眼の画質差を小さくすることができる。また、係る構成によれば、低画質の視点画像の情報を残したまま、補間すべき高域情報を付加するため、実際の視点から見た情報を保持しつつ、低画質の視点画像の画質を改善することができる。 In order to solve the above-described problem, a multi-viewpoint image processing apparatus according to claim 1 of the present invention is a multi-viewpoint image processing apparatus that uses a high-quality viewpoint image to improve the image quality of a low-quality viewpoint image. Based on the parallax estimated by the parallax estimator and the parallax estimated by the parallax estimator, performing the association for each partial region between the high-quality viewpoint image and the low-quality viewpoint image, Image correction means for performing parallax compensation on the high-quality viewpoint image, and generating an image with improved image quality of the low-quality viewpoint image using the parallax-compensated high-quality viewpoint image, The image correction unit extracts a reinforcement signal image from the high-quality viewpoint image, and performs parallax compensation for each of the partial regions on the reinforcement signal image based on the parallax estimated by the parallax estimation unit; For each partial area, The low quality of the viewpoint images, and superimposes the reinforcing signal image parallax compensation corresponding, the reinforcing signal image is an image of the spatial high-frequency component, and wherein the. According to such a configuration, when the high-viewpoint image and the low-quality viewpoint image are included in the multi-viewpoint image, the image quality of the low-quality viewpoint image can be improved. For example, even in a system in which the transmission bandwidth can be reduced and a difference in image quality occurs between transmission images for the left eye and the right eye, the multi-view image processing apparatus of the present invention can reduce the image quality of a low-quality viewpoint image. This can improve the image quality difference between the eyes. Further, according to such a configuration, since the high frequency information to be interpolated is added while the information of the low-quality viewpoint image remains, the image quality of the low-quality viewpoint image is retained while maintaining the information viewed from the actual viewpoint. Can be improved.

請求項に係る多視点画像処理装置は、高画質の視点画像を用いて、低画質の視点画像の画質を改善する多視点画像処理装置であって、前記高画質の視点画像と前記低画質の視点画像との間で、部分領域毎の対応付けを行い、視差を推定する視差推定手段と、前記視差推定手段により推定された視差に基づいて、前記高画質の視点画像に対して視差補償を行い、前記視差補償した高画質の視点画像を用いて、前記低画質の視点画像の画質を改善した画像を生成する画像補正手段と、を備え、前記画像補正手段が、前記高画質の視点画像から補強信号画像を抽出し、前記視差推定手段により推定された視差に基づいて、前記補強信号画像に対して前記部分領域毎に視差補償を行い、前記部分領域毎に、前記低画質の視点画像に、対応する前記視差補償した補強信号画像を重畳し、前記補強信号画像が、テクスチャ成分の画像である、ことを特徴とする。係る構成によれば、低画質の視点画像に対して、非輪郭的な振動成分のみを付加するため、エッジ部分のリンギング等のアーチファクトを防止しつつ、低画質の視点画像の画質を改善することができる。 A multi-viewpoint image processing apparatus according to claim 2 is a multi-viewpoint image processing apparatus that uses a high-quality viewpoint image to improve the image quality of a low-quality viewpoint image, wherein the high-quality viewpoint image and the low-quality viewpoint image Parallax estimation means for associating each partial area with each viewpoint image and estimating the parallax, and parallax compensation for the high-quality viewpoint image based on the parallax estimated by the parallax estimation means Image correction means for generating an image with improved image quality of the low-quality viewpoint image using the high-quality viewpoint image compensated for parallax, and the image correction means includes the high-quality viewpoint A reinforcement signal image is extracted from the image, and based on the parallax estimated by the parallax estimation means, parallax compensation is performed on the reinforcement signal image for each partial area, and the low-quality viewpoint is obtained for each partial area. The image corresponding to the view Superimposing a reinforcing signal image compensation, the reinforcing signal image is an image of a texture component, wherein the. According to such a configuration, only the non-contour vibration component is added to the low-quality viewpoint image, and thus the image quality of the low-quality viewpoint image is improved while preventing artifacts such as ringing in the edge portion. Can do.

請求項に係る多視点画像処理装置は、請求項に記載の多視点画像処理装置において、前記画像補正手段が、トータルバリエーションフィルタを用いて、前記高画質の視点画像からテクスチャ成分を抽出する、ことを特徴とする。係る構成によれば、演算の平易なトータルバリエーションノルムの正則化を行うため、少ない演算コストでエッジ部分のリンギング等のアーチファクトを防止しつつ、低画質の視点画像の画質を改善することができる。 The multi-view image processing apparatus according to claim 3 is the multi-view image processing apparatus according to claim 2 , wherein the image correction means extracts a texture component from the high-quality viewpoint image using a total variation filter. It is characterized by that. According to such a configuration, since the total variation norm that is easy to calculate is regularized, it is possible to improve the image quality of the low-quality viewpoint image while preventing artifacts such as ringing of the edge portion at a low calculation cost.

請求項に係る多視点画像処理装置は、高画質の視点画像を用いて、低画質の視点画像の画質を改善する多視点画像処理装置であって、前記高画質の視点画像と前記低画質の視点画像との間で、部分領域毎の対応付けを行い、視差を推定する視差推定手段と、前記視差推定手段により推定された視差に基づいて、前記高画質の視点画像に対して視差補償を行い、前記視差補償した高画質の視点画像を用いて、前記低画質の視点画像の画質を改善した画像を生成する画像補正手段と、を備え、前記画像補正手段が、前記高画質の視点画像から補強信号画像を抽出し、前記視差推定手段により推定された視差に基づいて、前記補強信号画像に対して前記部分領域毎に視差補償を行い、前記部分領域毎に、前記低画質の視点画像に、対応する前記視差補償した補強信号画像を重畳し、前記補強信号画像が、色差成分の画像である、ことを特徴とする。係る構成によれば、低画質の視点画像の情報を残したまま、補間すべき色差を付加するため、実際の視点から見た情報を保持しつつ、低画質の視点画像の画質を改善することができる。 A multi-viewpoint image processing apparatus according to claim 4 is a multi-viewpoint image processing apparatus that uses a high-quality viewpoint image to improve the image quality of a low-quality viewpoint image, wherein the high-quality viewpoint image and the low-quality viewpoint image Parallax estimation means for associating each partial area with each viewpoint image and estimating the parallax, and parallax compensation for the high-quality viewpoint image based on the parallax estimated by the parallax estimation means Image correction means for generating an image with improved image quality of the low-quality viewpoint image using the high-quality viewpoint image compensated for parallax, and the image correction means includes the high-quality viewpoint A reinforcement signal image is extracted from the image, and based on the parallax estimated by the parallax estimation means, parallax compensation is performed on the reinforcement signal image for each partial area, and the low-quality viewpoint is obtained for each partial area. The image corresponding to the view Superimposing a reinforcing signal image compensation, the reinforcing signal image is an image of a color difference component, and wherein the. According to such a configuration, the color difference to be interpolated is added while leaving the information of the low-quality viewpoint image, so that the image quality of the low-quality viewpoint image is improved while retaining the information viewed from the actual viewpoint. Can do.

請求項に係る多視点画像処理方法は、高画質の視点画像を用いて、低画質の視点画像の画質を改善する多視点画像処理方法であって、前記高画質の視点画像及び前記低画質の視点画像を入力する第1のステップと、前記高画質の視点画像と前記低画質の視点画像との間で、部分領域毎の対応付けを行い、視差を推定する第2のステップと、前記推定した視差に基づいて、前記高画質の視点画像に対して視差補償を行い、前記視差補償した高画質の視点画像を用いて、前記低画質の視点画像の画質を改善した画像を生成する第3のステップと、を有し、前記第3のステップが、前記高画質の視点画像から補強信号画像を抽出し、前記推定した視差に基づいて、前記補強信号画像に対して前記部分領域毎に視差補償を行い、前記部分領域毎に、前記低画質の視点画像に、対応する前記視差補償した補強信号画像を重畳し、前記補強信号画像が、空間高周波成分の画像、テクスチャ成分の画像または色差成分の画像である、ことを特徴とする。 A multi-viewpoint image processing method according to claim 5 is a multi-viewpoint image processing method for improving the image quality of a low-quality viewpoint image using a high-quality viewpoint image, wherein the high-quality viewpoint image and the low-quality viewpoint image A first step of inputting the viewpoint image, a second step of performing an association for each partial area between the high-quality viewpoint image and the low-quality viewpoint image, and estimating a parallax; First, a parallax compensation is performed on the high-quality viewpoint image based on the estimated parallax, and an image in which the image quality of the low-quality viewpoint image is improved is generated using the parallax-compensated high-quality viewpoint image. And the third step extracts a reinforcement signal image from the high-quality viewpoint image, and for each partial region with respect to the reinforcement signal image based on the estimated parallax Parallax compensation is performed for each partial area. Serial to low quality of the viewpoint images, and superimposes the reinforcing signal image parallax compensation corresponding, the reinforcing signal images, high spatial frequency components of the image, is an image of the image or the color difference component of the texture component, and wherein the .

請求項に係る多視点画像処理プログラムは、コンピュータを、請求項1からまでのいずれか一項に記載の多視点画像処理装置として機能させることを特徴とする。 A multi-viewpoint image processing program according to a sixth aspect causes a computer to function as the multi-viewpoint image processing apparatus according to any one of the first to fourth aspects.

以上のように、本発明によれば、ある視点の低画質画像を、別の視点の高画質画像に基づいて精細化することができ、低画質画像の画質を改善することができる。   As described above, according to the present invention, a low-quality image from one viewpoint can be refined based on a high-quality image from another viewpoint, and the image quality of the low-quality image can be improved.

本発明の実施形態による多視点画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the multiview image processing apparatus by embodiment of this invention. 多視点画像処理装置の処理を示すフローチャートである。It is a flowchart which shows the process of a multiview image processing apparatus. 実施例1の画像補正手段の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of an image correction unit according to the first embodiment. 実施例1の画像補正手段の処理を示すフローチャートである。3 is a flowchart illustrating processing of an image correction unit according to the first exemplary embodiment. 実施例2の画像補正手段の構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration example of an image correction unit according to a second embodiment. 実施例2の画像補正手段の処理を示すフローチャートである。6 is a flowchart illustrating processing of an image correction unit according to the second exemplary embodiment. 実施例3の画像補正手段の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of an image correction unit according to a third embodiment. 実施例4の画像補正手段の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of an image correction unit according to a fourth embodiment.

以下、本発明を実施するための形態について図面を用いて詳細に説明する。
〔多視点画像処理装置〕
まず、本発明の実施形態による多視点画像処理装置の構成について説明する。図1は、多視点画像処理装置の構成例を示すブロック図であり、図2は、多視点画像処理装置の処理を示すフローチャートである。この多視点画像処理装置1は、視差推定手段10及び画像補正手段20を備えている。多視点画像処理装置1は、ある視点(視点1)から撮影された高画質画像と、別の視点(視点2)から撮影された低画質画像とを入力し、これらの画像に基づいて、低画質画像の画質を改善し、視点2の改善画像として出力する。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
[Multi-viewpoint image processing device]
First, the configuration of a multi-viewpoint image processing apparatus according to an embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating a configuration example of a multi-view image processing apparatus, and FIG. 2 is a flowchart illustrating processing of the multi-view image processing apparatus. The multi-viewpoint image processing apparatus 1 includes a parallax estimation unit 10 and an image correction unit 20. The multi-viewpoint image processing apparatus 1 inputs a high-quality image shot from one viewpoint (viewpoint 1) and a low-quality image shot from another viewpoint (viewpoint 2). The image quality of the image quality image is improved and output as an improved image of viewpoint 2.

尚、多視点画像処理装置1は、さらに別の視点(視点V;Vは3以上の整数)から撮影された低画質画像も入力し、視点Vの低画質画像を改善し、視点Vの改善画像として出力するようにしてもよい。その場合の多視点画像処理装置1は、後述する「視点2」の低画質画像を「視点V」の低画質画像に置き換えた構成を付加したものとすればよい。   Note that the multi-viewpoint image processing apparatus 1 also inputs a low-quality image taken from another viewpoint (viewpoint V; V is an integer of 3 or more), improves the low-quality image of the viewpoint V, and improves the viewpoint V. You may make it output as an image. In this case, the multi-viewpoint image processing apparatus 1 may have a configuration in which a low-quality image of “viewpoint 2” described later is replaced with a low-quality image of “viewpoint V”.

また、高画質画像と低画質画像とは、解像度または撮像レンズの焦点距離が異なるカメラまたはレンズにて撮影されたものであっても構わない。高画質画像と低画質画像との原点、倍率及び収差を考慮した対応付け(キャリブレーション)は、図1には示していない低画質画像校正手段によりなされるものとする。このキャリブレーションは、高画質画像を撮影するレンズと低画質画像を撮影するレンズとの光軸及び前側光学主点を一致させたときに、両画像上における被写体の位置及び大きさが一致するような、画像座標間の対応付けを意味する。   Further, the high-quality image and the low-quality image may be images taken with cameras or lenses having different resolutions or focal lengths of the imaging lenses. Assume that the association (calibration) between the high-quality image and the low-quality image in consideration of the origin, magnification, and aberration is performed by the low-quality image calibration means not shown in FIG. In this calibration, when the optical axis and the front optical principal point of the lens that shoots a high-quality image and the lens that shoots a low-quality image are matched, the position and size of the subject on both images match. It means the association between image coordinates.

また、高画質画像と低画質画像とは、異なる量子化方法で量子化されたもの、例えば、異なるビット深度(量子化ビット数)で量子化されたものであっても構わない。高画質画像及び低画質画像の量子化方法を一致させる処理も、図1には示していない低画質画像校正手段によりなされるものとする。   The high-quality image and the low-quality image may be those quantized by different quantization methods, for example, those quantized with different bit depths (quantization bit numbers). It is assumed that the process of matching the quantization method for the high-quality image and the low-quality image is also performed by the low-quality image calibration unit not shown in FIG.

以下、低画質画像をL、高画質画像をHとし、低画質画像Lの量子化のダイナミックレンジ及び特性曲線を、高画質画像Hの量子化のダイナミックレンジ及び特性曲線に整合させる関数をbとする。高画質画像Hにおける画像座標(P)(Pは2次元のベクトル)の画素値をH(P)、低画質画像Lにおける画像座標(p)(pは2次元のベクトル)の画素値をL(p)とする。   Hereinafter, let L be a low-quality image, H be a high-quality image, and b be a function that matches the quantization dynamic range and characteristic curve of the low-quality image L to the quantization dynamic range and characteristic curve of the high-quality image H. To do. The pixel value of the image coordinate (P) (P is a two-dimensional vector) in the high-quality image H is H (P), and the pixel value of the image coordinate (p) (p is a two-dimensional vector) in the low-quality image L is L (P).

また、前記キャリブレーションによる高画質画像H上の画像座標Pから低画質画像L上の画像座標pへの対応付けを、以下の式のように、ベクトル関数cにて表すものとする。

Figure 0005940812
Further, the association from the image coordinates P on the high-quality image H to the image coordinates p on the low-quality image L by the calibration is represented by a vector function c as in the following equation.
Figure 0005940812

多視点画像処理装置1が視点1の高画質画像H及び視点2の低画質画像Lを入力すると(ステップS201)、図示しない低画質画像校正手段は、視点2の低画質画像Lを、キャリブレーションによって高画質画像Hの画像座標系に一致させ、高画質画像Hの画像座標系に一致した低画質画像Lを、高画質画像Hの量子化特性に一致させ、校正済み低画質画像Mを生成する(ステップS202)。校正済み低画質画像Mは、視差推定手段10及び画像補正手段20に出力される。例えば、低画質画像校正手段は、低画質画像Lの解像度を高画質画像Hの解像度に一致させ、低画質画像Lのビット深度を高画質画像Hのビット深度に一致させる。低画質画像校正手段により、校正済み低画質画像Mの画像座標系は高画質画像Hの画像座標系に一致することになるが、両画像間の視差は存在する。   When the multi-viewpoint image processing apparatus 1 inputs the high-quality image H of the viewpoint 1 and the low-quality image L of the viewpoint 2 (step S201), the low-quality image calibration unit (not shown) calibrates the low-quality image L of the viewpoint 2. To match the image coordinate system of the high-quality image H, and match the low-quality image L that matches the image coordinate system of the high-quality image H to the quantization characteristics of the high-quality image H to generate a calibrated low-quality image M (Step S202). The calibrated low image quality image M is output to the parallax estimation means 10 and the image correction means 20. For example, the low-quality image calibration unit matches the resolution of the low-quality image L with the resolution of the high-quality image H, and matches the bit depth of the low-quality image L with the bit depth of the high-quality image H. Although the image coordinate system of the calibrated low-quality image M matches the image coordinate system of the high-quality image H by the low-quality image proofing means, there is a parallax between the two images.

尚、図示しない低画質画像校正手段は、視差推定手段10及び画像補正手段20に含まれるようにしてもよい。この場合、視差推定手段10及び画像補正手段20は、視点2の低画質画像Lを入力し、校正済み低画質画像Mを生成する。また、低画質画像Lと高画質画像Hとの間で、画像座標系及び量子化特性が一致している場合には、低画質画像校正手段による処理は不要である。   Note that low-quality image calibration means (not shown) may be included in the parallax estimation means 10 and the image correction means 20. In this case, the parallax estimation unit 10 and the image correction unit 20 input the low quality image L of the viewpoint 2 and generate a calibrated low quality image M. Further, when the image coordinate system and the quantization characteristics match between the low image quality image L and the high image quality image H, the processing by the low image quality image calibrating means is unnecessary.

ここで、低画質画像Lを、キャリブレーションによって高画質画像Hの画像座標系に一致させ、かつ高画質画像Hの量子化特性に一致させた画像である校正済み低画質画像Mは、以下の式で表される。

Figure 0005940812
Here, the calibrated low-quality image M, which is an image in which the low-quality image L is matched with the image coordinate system of the high-quality image H by calibration and matched with the quantization characteristics of the high-quality image H, It is expressed by an expression.
Figure 0005940812

尚、前記式(2)の演算において、c(P)が非格子点(水平座標または垂直座標のいずれか一方または両方が非整数の点)となった場合には、多視点画像処理装置1は、低画質画像Lにおけるc(P)近傍の格子点上の画素値に基づいて、補間演算(例えば、最近傍補間、双一次補間、双三次補間等)によって画素値L(c(P))を定め、それらを関数bによって量子化の特性を補償し、b(L(c(P)))を求め、校正済み低画質画像Mを得る。この場合、多視点画像処理装置1は、低画質画像Lにおけるc(P)近傍の格子点上の画素値を求め、それらを関数bによって量子化の特性を補償した後に補間演算を施し、その結果をb(L(c(P)))とみなし、校正済み低画質画像Mを得るようにしてもよい。   In the calculation of the above formula (2), when c (P) is a non-lattice point (one or both of horizontal coordinates and vertical coordinates are non-integer points), the multi-viewpoint image processing apparatus 1 Is a pixel value L (c (P) based on pixel values on lattice points near c (P) in the low-quality image L by interpolation (for example, nearest neighbor interpolation, bilinear interpolation, bicubic interpolation, etc.). ) Are determined, the characteristics of the quantization are compensated by the function b, and b (L (c (P))) is obtained to obtain a calibrated low-quality image M. In this case, the multi-viewpoint image processing apparatus 1 calculates pixel values on lattice points in the vicinity of c (P) in the low-quality image L, compensates the quantization characteristics by the function b, and performs an interpolation operation. The result may be regarded as b (L (c (P))), and a calibrated low-quality image M may be obtained.

また、多視点画像処理装置1は、以下の式のように、補間演算(汎関数F;画像F[L]は小数画素位置における画素値を補間演算により定義した連続な定義域の画像)によって小数画素位置の画素値を定めた後、画像座標c(P)の画素値を求め、校正済み低画質画像Mを得るようにしてもよい。

Figure 0005940812
Further, the multi-viewpoint image processing apparatus 1 performs an interpolation operation (functional F; an image F [L] is an image of a continuous domain in which pixel values at decimal pixel positions are defined by the interpolation operation) as in the following expression. After determining the pixel value of the decimal pixel position, the pixel value of the image coordinate c (P) may be obtained to obtain a calibrated low-quality image M.
Figure 0005940812

例えば、補間演算Fは、以下の式のように、インパルス応答がf(p)のフィルタ係数の畳み込みによることができる。

Figure 0005940812
f(p)は、例えば、Sinc関数、Lanczos関数に基づき定義することができる。 For example, the interpolation operation F can be performed by convolution of filter coefficients whose impulse response is f (p), as in the following equation.
Figure 0005940812
f (p) can be defined based on, for example, a Sinc function or a Lanczos function.

視差推定手段10は、視点1の高画質画像Hを入力すると共に、図示しない低画質画像校正手段から視点2の校正済み低画質画像Mを入力し、高画質画像Hと校正済み低画質画像Mとの間のパターン照合により、部分領域毎の対応付けを行い、視差を推定し、視差ベクトル(視差マップD)を生成する(ステップS203)。視差ベクトルは、画像補正手段20に出力される。尚、高画質画像Hと校正済み低画質画像Mとの間のパターン照合による対応付けは、高画質画像Hと低画質画像Lとの間のパターン照合による対応付けでもある。   The parallax estimation means 10 inputs the high-quality image H of the viewpoint 1 and also inputs the calibrated low-quality image M of the viewpoint 2 from the low-quality image calibration means (not shown), and the high-quality image H and the calibrated low-quality image M Are matched for each partial region by pattern matching between and, the parallax is estimated, and a parallax vector (parallax map D) is generated (step S203). The disparity vector is output to the image correction unit 20. The association by pattern matching between the high-quality image H and the calibrated low-quality image M is also the association by pattern matching between the high-quality image H and the low-quality image L.

例えば、視差推定手段10は、ブロックマッチング法により、以下の式のように、高画質画像Hの画素値H(P)と校正済み低画質画像Mの画素値M(P)との間で部分領域毎のマッチングを行い、視差を推定し、視差マップD(P)を生成する。

Figure 0005940812
ここで、視差マップD(P)は、マッチングした部分領域を基準にした、高画質画像Hの画像座標Pと校正済み低画質画像Mの画像座標Pとの間の差をいい、画像座標Pにおいて、その差の大きさ及び方向を示すべクトル(視差ベクトル)で表したものをいう。Bは部分領域(ブロック領域)、Sは探索領域を表す。 For example, the parallax estimation means 10 uses the block matching method to obtain a portion between the pixel value H (P) of the high-quality image H and the pixel value M (P) of the calibrated low-quality image M as shown in the following equation. Matching for each region is performed, parallax is estimated, and a parallax map D (P) is generated.
Figure 0005940812
Here, the parallax map D (P) refers to the difference between the image coordinates P of the high-quality image H and the image coordinates P of the calibrated low-quality image M with reference to the matched partial region. 1, the vector is a vector (parallax vector) indicating the magnitude and direction of the difference. B represents a partial area (block area), and S represents a search area.

尚、前記式(5)は、高画質画像Hと校正済み低画質画像Mとの間の差の絶対値和(SAD値;Sum of Absolute Difference)の最小化結果を視差として求めるものであるが、この代わりに、差の二乗和(SSD値;Sum of Squared Difference)の最小化結果、または正規化相互相関の最大化結果を視差として求めるようにしてもよい。また、部分領域のブロック内において重み付け(例えば、ブロック中心からの距離に応じて単調減少する重み付け)を施すようにしてもよい。また、全ての画像座標Pについて視差を求めないで、間引いた画像座標のみで視差を求め、間引かれた画像座標については、補間処理により視差を定義するようにしてもよい。また、視差の推定に先立って、高画質画像H及び校正済み低画質画像Mのいずれかまたはその両方に対し、フィルタ処理(例えば、ガウシアンフィルタ)を適用するようにしてもよい。これにより、ノイズの影響を抑え、視差を頑健に求めることができる。   The equation (5) is used to obtain the minimization result of the sum of absolute values (SAD value; Sum of Absolute Difference) between the high-quality image H and the calibrated low-quality image M as the parallax. Instead of this, the result of minimizing the sum of squares of the difference (SSD value; Sum of Squared Difference) or the result of maximizing the normalized cross-correlation may be obtained as the parallax. Further, weighting (for example, weighting monotonously decreasing in accordance with the distance from the block center) may be performed in the block of the partial area. Alternatively, the parallax may be obtained only by the thinned image coordinates without obtaining the parallax for all the image coordinates P, and the parallax may be defined by interpolation processing for the thinned image coordinates. Prior to the parallax estimation, filter processing (for example, a Gaussian filter) may be applied to either or both of the high-quality image H and the calibrated low-quality image M. Thereby, the influence of noise can be suppressed and parallax can be obtained robustly.

画像補正手段20は、視点1の高画質画像Hを入力し、図示しない低画質画像校正手段から視点2の校正済み低画質画像Mを入力し、視差推定手段10から視差ベクトル(視差マップD)を入力し、視差マップDを用いて高画質画像Hの視差補償を行い、視差補償した高画質画像H及び校正済み低画質画像Mに基づいて、低画質画像Lに対して画質改善した改善画像Kを生成し(ステップS204)、改善画像Kを外部へ出力する(ステップS205)。尚、画像補正手段20の詳細については、後述する実施例1〜4にて説明する。   The image correction unit 20 inputs the high-quality image H of the viewpoint 1, receives the calibrated low-quality image M of the viewpoint 2 from the low-quality image calibration unit (not shown), and receives the parallax vector (parallax map D) from the parallax estimation unit 10 , The parallax compensation of the high-quality image H is performed using the parallax map D, and the improved image in which the image quality is improved with respect to the low-quality image L based on the parallax-compensated high-quality image H and the calibrated low-quality image M K is generated (step S204), and the improved image K is output to the outside (step S205). The details of the image correction means 20 will be described in Examples 1 to 4 described later.

〔実施例1〕
まず、実施例1の画像補正手段20について詳細に説明する。実施例1の画像補正手段20は、校正済み低画質画像Mの部分領域を、視差補償した高画質画像Hに置換し、改善画像Kを生成することを特徴とする。
[Example 1]
First, the image correction unit 20 of the first embodiment will be described in detail. The image correcting unit 20 according to the first embodiment replaces a partial region of the calibrated low-quality image M with a high-quality image H subjected to parallax compensation, and generates an improved image K.

図3は、実施例1の画像補正手段20の構成例を示すブロック図であり、図4は、実施例1の画像補正手段20の処理を示すフローチャートである。この画像補正手段20−1は、視差補償手段21を含む画像置換手段22を備えている。画像補正手段20−1は、視点1の高画質画像Hを入力し、低画質画像校正手段から視点2の校正済み低画質画像Mを入力し、視差推定手段10から視差ベクトル(視差マップD)を入力し、視差マップDに基づいて高画質画像Hを視差補償し、その結果を校正済み低画質画像M上に貼り込み(画像を部分領域毎に置換し)、視点2の改善画像Kを生成して外部へ出力する。   FIG. 3 is a block diagram illustrating a configuration example of the image correction unit 20 according to the first embodiment, and FIG. 4 is a flowchart illustrating processing of the image correction unit 20 according to the first embodiment. The image correction unit 20-1 includes an image replacement unit 22 including a parallax compensation unit 21. The image correction unit 20-1 receives the high-quality image H of the viewpoint 1, receives the calibrated low-quality image M of the viewpoint 2 from the low-quality image calibration unit, and receives the parallax vector (parallax map D) from the parallax estimation unit 10. Is input, the high-quality image H is parallax-compensated based on the parallax map D, the result is pasted on the calibrated low-quality image M (the image is replaced for each partial region), and the improved image K of the viewpoint 2 is Generate and output to the outside.

具体的には、画像補正手段20−1が高画質画像H、視差マップD及び校正済み低画質画像Mを入力すると(ステップS401)、画像置換手段22の視差補償手段21は、高画質画像Hの画素値H(P)及び視差マップDの視差ベクトルD(P)を入力し、以下に示す式(6)の上段に示す画素値H(P+D(P))を生成する演算(視差補償の演算)を行うことで、高画質画像Hを視差補償し、視差補償した画素値H(P+D(P))を生成する(ステップS402)。   Specifically, when the image correction unit 20-1 inputs the high-quality image H, the parallax map D, and the calibrated low-quality image M (step S401), the parallax compensation unit 21 of the image replacement unit 22 The pixel value H (P) and the parallax vector D (P) of the parallax map D are input, and the calculation (parallax compensation) of the pixel value H (P + D (P)) shown in the upper part of the equation (6) shown below is performed. By performing (calculation), parallax compensation is performed on the high-quality image H, and a pixel value H (P + D (P)) with parallax compensation is generated (step S402).

画像置換手段22は、校正済み低画質画像の画素値M(P)を入力し、校正済み低画質画像M上の部分領域に、対応する高画質画像Hの部分領域が存在するか否かを判定する(ステップS403)。具体的には、画像置換手段22は、後述する式(6)の右辺の条件部分に示すように、高画質画像Hを視差補償した画像の座標値P+D(P)が、校正済み低画質画像Mの画像内に存在するか否かを判定する。画像置換手段22は、校正済み低画質画像M上の部分領域に、対応する高画質画像Hの部分領域が存在する場合(ステップS403:Y)、校正済み低画質画像Mの当該部分領域に、対応する高画質画像Hの部分領域について視差補償して移動させた画素値H(P+D(P))を貼り付ける(ステップS404)。すなわち、校正済み低画質画像Mの当該部分領域において、校正済み低画質画像Mの画素値M(P)を、対応する高画質画像Hの部分領域について視差補償して移動させた画素値H(P+D(P))に置き換える。一方、画像置換手段22は、校正済み低画質画像M上の部分領域に、対応する高画質画像Hの部分領域が存在しない場合(ステップS403:N)、校正済み低画質画像Mの当該部分領域には、校正済み低画質画像Mの画素値M(P)をそのまま使用する(ステップS405)。そして、画像置換手段22は、ステップS404及びステップS405の処理により改善画像Kの画素値K(P)を生成し(ステップS406)、改善画像Kを外部へ出力する(ステップS407)。   The image replacement means 22 receives the pixel value M (P) of the calibrated low-quality image, and determines whether or not the corresponding partial area of the high-quality image H exists in the partial area on the calibrated low-quality image M. Determination is made (step S403). Specifically, as shown in the condition part on the right side of Equation (6) described later, the image replacement unit 22 uses the calibrated low-quality image in which the coordinate value P + D (P) of the image obtained by parallax compensation of the high-quality image H is obtained. It is determined whether or not it exists in M images. When the partial area of the corresponding high-quality image H exists in the partial area on the calibrated low-quality image M (step S403: Y), the image replacement means 22 The pixel value H (P + D (P)) moved by parallax compensation for the corresponding partial area of the high-quality image H is pasted (step S404). In other words, in the partial area of the calibrated low-quality image M, the pixel value M (P) of the calibrated low-quality image M is moved by parallax compensation for the corresponding partial area of the high-quality image H. P + D (P)). On the other hand, when the corresponding partial area of the high-quality image H does not exist in the partial area on the calibrated low-quality image M (step S403: N), the image replacement unit 22 performs the partial area of the calibrated low-quality image M. The pixel value M (P) of the calibrated low image quality image M is used as it is (step S405). Then, the image replacement unit 22 generates the pixel value K (P) of the improved image K by the processing of step S404 and step S405 (step S406), and outputs the improved image K to the outside (step S407).

このように、画像補正手段20−1は、以下に示す式(6)のように、校正済み低画質画像M上の部分領域に対し、対応する高画質画像Hの部分領域を移動(視差補償)して置換することにより改善画像Kを生成する。

Figure 0005940812
前記式(6)の下段に示すM(P)は、高画質画像Hを視差補償した結果、参照される高画質画像Hの画素が校正済み低画質画像Mの範囲外に位置する場合に、当該画素の代わりに校正済み低画質画像Mの画素値を充てることを示している。 As described above, the image correcting unit 20-1 moves the corresponding partial area of the high-quality image H with respect to the partial area on the calibrated low-quality image M as shown in the following equation (6) (parallax compensation). ) To generate an improved image K.
Figure 0005940812
M (P) shown in the lower part of the equation (6) is obtained when the pixel of the high-quality image H referred to is located outside the range of the calibrated low-quality image M as a result of parallax compensation of the high-quality image H. It shows that the pixel value of the calibrated low-quality image M is used instead of the pixel.

以上のように、実施例1の画像補正手段20−1を備えた多視点画像処理装置1によれば、低画質画像校正手段が、低画質画像Lを、キャリブレーションによって高画質画像Hの画像座標系に一致させると共に、高画質画像Hの量子化特性に一致させ、校正済み低画質画像Mを生成し、視差推定手段10が、高画質画像Hと校正済み低画質画像Mとの間のパターン照合により、部分領域毎の対応付けを行い、視差マップDを生成するようにした。そして、視差補償手段21が、視差マップDに基づいて高画質画像Hを視差補償し、画像置換手段22が、校正済み低画質画像M上の部分領域に、対応する高画質画像Hの部分領域が存在する場合、校正済み低画質画像Mの当該部分領域に、視差補償した高画質画像Hを貼り付け、校正済み低画質画像M上の部分領域に、対応する高画質画像Hの部分領域が存在しない場合、校正済み低画質画像Mをそのまま使用して改善画像Kを生成するようにした。これにより、校正済み低画質画像Mの部分領域が、高画質画像Hに置換される。したがって、多視点画像のうちの低画質画像Lを、高画質画像Hに基づいて精細化することができ、低画質画像Lの画質を改善することができる。   As described above, according to the multi-viewpoint image processing apparatus 1 including the image correction unit 20-1 of the first embodiment, the low-quality image calibration unit converts the low-quality image L into the high-quality image H by calibration. Match the coordinate system and match the quantization characteristics of the high-quality image H to generate a calibrated low-quality image M, and the parallax estimation means 10 is between the high-quality image H and the calibrated low-quality image M. The parallax map D is generated by associating each partial area by pattern matching. Then, the parallax compensation means 21 performs parallax compensation on the high-quality image H based on the parallax map D, and the image replacement means 22 corresponds to the partial area of the high-quality image H corresponding to the partial area on the calibrated low-quality image M. Is present, the high-quality image H with parallax compensation is pasted on the partial area of the calibrated low-quality image M, and the corresponding partial area of the high-quality image H is in the partial area on the calibrated low-quality image M. If it does not exist, the improved image K is generated using the calibrated low-quality image M as it is. Thereby, the partial region of the calibrated low-quality image M is replaced with the high-quality image H. Therefore, the low-quality image L of the multi-viewpoint images can be refined based on the high-quality image H, and the image quality of the low-quality image L can be improved.

また、例えば、伝送帯域を削減可能な、左眼用と右眼用の伝送映像に画質差が生じるシステムであっても、多視点画像処理装置1を用いることにより、低画質画像Lの画質が改善されるから、両眼の画質差を小さくすることができる。また、視点によって画質の異なる従来の立体テレビでは、視聴者は、目や精神に疲労や酔いを生じたり、片目をつぶったときの画質差を違和感として感じたり、にじみのような画質劣化を感じたりするという問題があったが、多視点画像処理装置1を用いることにより、これらの問題を解決することができる。   Further, for example, even in a system in which the transmission band can be reduced and the image quality difference occurs between the transmission images for the left eye and the right eye, the image quality of the low-quality image L can be improved by using the multi-viewpoint image processing apparatus 1. Since the image quality is improved, the difference in image quality between both eyes can be reduced. Also, with conventional 3D televisions with different image quality depending on the viewpoint, viewers feel tired and intoxicated in their eyes and mind, feel the difference in image quality when one eye is closed, or feel image quality deterioration like blurring. However, using the multi-viewpoint image processing apparatus 1 can solve these problems.

(実施例1の変形例)
尚、実施例1の画像補正手段20−1において、第1の変形例として、画像置換手段22は、校正済み低画質画像M上の部分領域に、対応する高画質画像Hの部分領域を貼り付ける際に、以下の式(7)に示すように、視差ベクトルD(P)の信頼度に応じて、視差補償した高画質画像Hの画素値H(P)の貼り付けを行うか、校正済み低画質画像Mの画素値M(P)をそのまま使用するかを選択し、改善画像Kの画素値K(P)を生成するようにしてもよい。

Figure 0005940812
(Modification of Example 1)
In the image correction unit 20-1 of the first embodiment, as a first modification, the image replacement unit 22 pastes a corresponding partial area of the high-quality image H on the partial area on the calibrated low-quality image M. When attaching, as shown in the following formula (7), the pixel value H (P) of the high-quality image H with parallax compensation is pasted or calibrated according to the reliability of the parallax vector D (P). The pixel value K (P) of the improved image K may be generated by selecting whether to use the pixel value M (P) of the completed low-quality image M as it is.
Figure 0005940812

視差ベクトルD(P)の信頼度は、視差マップDを生成する視差推定手段10により、ブロックマッチング時の評価値に基づいて判定される。例えば、視差推定手段10は、前記式(5)の演算処理において、差の絶対値和(SAD値)が所定の閾値以下の場合に、視差ベクトルD(P)は信頼できると判定し、差の絶対値和が所定の閾値よりも大きい場合に、視差ベクトルD(P)は信頼できないと判定する。視差推定手段10は、このようにして判定した視差ベクトルD(P)の信頼度を画像補正手段20−1の画像置換手段22に出力する。   The reliability of the disparity vector D (P) is determined by the disparity estimation unit 10 that generates the disparity map D based on the evaluation value at the time of block matching. For example, the disparity estimation unit 10 determines that the disparity vector D (P) is reliable when the sum of absolute values of differences (SAD value) is equal to or less than a predetermined threshold in the calculation process of the equation (5). Is determined to be unreliable when the sum of the absolute values of is greater than a predetermined threshold. The parallax estimation unit 10 outputs the reliability of the parallax vector D (P) determined in this way to the image replacement unit 22 of the image correction unit 20-1.

また、第2の変形例として、画像置換手段22は、校正済み低画質画像M上の部分領域に、対応する高画質画像Hの部分領域を貼り付ける際に、以下の式(8)に示すように、視差ベクトルD(P)の信頼度λ(λは0以上1以下の実数とし、λが大きいほど信頼度が高いものとする。)に応じて、視差補償した高画質画像Hの画素値H(P)と校正済み低画質画像Mの画素値M(P)との按分比を制御し、視差補償した高画質画像Hの画素値H(P)及び校正済み低画質画像Mの画素値M(P)を用いて改善画像Kの画素値K(P)を生成するようにしてもよい。

Figure 0005940812
As a second modification, when the image replacement unit 22 pastes the corresponding partial area of the high-quality image H on the partial area on the calibrated low-quality image M, the following equation (8) is given. Thus, the pixel of the high-quality image H that has been subjected to parallax compensation according to the reliability λ of the parallax vector D (P) (λ is a real number between 0 and 1 and the higher the λ, the higher the reliability). The proportional value ratio between the value H (P) and the pixel value M (P) of the calibrated low-quality image M is controlled, and the pixel value H (P) of the high-quality image H subjected to parallax compensation and the pixel of the calibrated low-quality image M The pixel value K (P) of the improved image K may be generated using the value M (P).
Figure 0005940812

以下、第2の変形例について具体的に説明する。例えば、視差推定手段10は、差の絶対値和(SAD値)または差の二乗和(SSD値)を最小化するブロックマッチング法によって視差ベクトルD(P)を求めた場合、以下の式のように、これらの誤差値(SAD値、SSD値)の最小値eが小さいほど信頼度λが大きくなるような関数Λを用いて、信頼度λの値を定める。

Figure 0005940812
Λは広義単調減少関数とし、その値域は0以上1以下の実数とする。 The second modification will be specifically described below. For example, when the disparity estimation unit 10 obtains the disparity vector D (P) by the block matching method that minimizes the sum of absolute values of differences (SAD value) or the sum of squares of differences (SSD value), the following equation is obtained. In addition, the value of the reliability λ is determined using a function Λ such that the reliability λ increases as the minimum value e of these error values (SAD value, SSD value) decreases.
Figure 0005940812
Λ is a broad monotone decreasing function, and its range is a real number between 0 and 1.

例えば、関数Λは、以下の式のように、予め定められた閾値θに基づいて定義することができる。

Figure 0005940812
For example, the function Λ can be defined based on a predetermined threshold value θ as in the following equation.
Figure 0005940812

また、関数Λは、以下の式のように、予め定められた2つの閾値θ及びθ(θ<θ)に基づいて、折れ線関数によって定義することができる。

Figure 0005940812
Further, the function Λ can be defined by a polygonal line function based on two predetermined threshold values θ 0 and θ 101 ) as in the following equation.
Figure 0005940812

また、例えば、視差推定手段10は、相互相関を最大化するブロックマッチング法によって視差ベクトルD(P)を求めた場合、該相関値の最大値rが大きいほど信頼度λが大きくなるような関数Γを用いて、信頼度λの値を定める。

Figure 0005940812
Γは広義単調増加関数とし、その値域は0以上1以下の実数とする。 Further, for example, when the disparity estimation unit 10 obtains the disparity vector D (P) by the block matching method that maximizes the cross-correlation, a function that increases the reliability λ as the maximum value r of the correlation value increases. The value of the reliability λ is determined using Γ.
Figure 0005940812
Γ is a monotonically increasing function in a broad sense, and its range is a real number between 0 and 1.

例えば、関数Γは、以下の式のように、予め定められた閾値θに基づいて定義することができる。

Figure 0005940812
For example, the function Γ can be defined based on a predetermined threshold value θ as in the following equation.
Figure 0005940812

また、関数Γは、以下の式のように、予め定められた2つの閾値θ及びθ(θ<θ)に基づいて、折れ線関数によって定義することができる。

Figure 0005940812
Further, the function Γ can be defined by a polygonal line function based on two predetermined threshold values θ 0 and θ 101 ) as in the following equation.
Figure 0005940812

以上のように、実施例1の変形例の画像補正手段20−1を備えた多視点画像処理装置1によれば、視差推定手段10が、ブロックマッチングの処理を示す前記式(5)の演算処理において、差の絶対値和(SAD値)に基づいて視差ベクトルD(P)の信頼度を求めるようにした。すなわち、差の絶対値が小さい場合、視差ベクトルD(P)は信頼できる、または、視差ベクトルD(P)の信頼度が高くなるようにし、差の絶対値が大きい場合、視差ベクトルD(P)は信頼できない、または、視差ベクトルD(P)の信頼度が低くなるようにした。そして、画像置換手段22が、視差ベクトルD(P)の信頼度に応じて、視差補償した高画質画像Hを使用するか、校正済み低画質画像Mを使用するかを選択し、または、視差補償した高画質画像Hと校正済み低画質画像Mとの按分比を制御し、改善画像Kを生成するようにした。すなわち、視差ベクトルD(P)の信頼度が高い場合、視差補償した高画質画像Hを使用し、またはその按分比が高くなるようにし、視差ベクトルD(P)の信頼度が低い場合、校正済み低画質画像Mを使用し、またはその按分比が高くなるようにした。これにより、多視点画像のうちの低画質画像Lを、高画質画像Hに基づいて一層精細化することができ、低画質画像Lの画質を一層改善することができる。   As described above, according to the multi-viewpoint image processing apparatus 1 including the image correction unit 20-1 according to the modification of the first embodiment, the parallax estimation unit 10 calculates the expression (5) indicating the block matching process. In the processing, the reliability of the disparity vector D (P) is obtained based on the sum of absolute values of differences (SAD value). That is, when the absolute value of the difference is small, the disparity vector D (P) is reliable, or the reliability of the disparity vector D (P) is increased, and when the absolute value of the difference is large, the disparity vector D (P ) Is not reliable or the reliability of the disparity vector D (P) is low. Then, the image replacement unit 22 selects whether to use the parallax-compensated high-quality image H or the calibrated low-quality image M according to the reliability of the parallax vector D (P), or parallax An improved image K is generated by controlling the proration ratio between the compensated high-quality image H and the calibrated low-quality image M. That is, when the reliability of the parallax vector D (P) is high, the high-quality image H with parallax compensation is used, or its proportionality is increased, and when the reliability of the parallax vector D (P) is low, calibration is performed. The low-quality image M already used is used, or the proration ratio is made high. Thereby, the low-quality image L of the multi-viewpoint images can be further refined based on the high-quality image H, and the image quality of the low-quality image L can be further improved.

〔実施例2〕
次に、実施例2の画像補正手段20について詳細に説明する。実施例2の画像補正手段20は、高画質画像Hの高域成分(空間高周波成分)を視差補償し、校正済み低画質画像Mに対し、視差補償した高域成分を重畳し、改善画像Kを生成することを特徴とする。
[Example 2]
Next, the image correcting unit 20 of the second embodiment will be described in detail. The image correction unit 20 according to the second embodiment performs parallax compensation on the high frequency component (spatial high frequency component) of the high quality image H, superimposes the parallax compensated high frequency component on the calibrated low quality image M, and improves the image K. Is generated.

図5は、実施例2の画像補正手段20の構成例を示すブロック図であり、図6は、実施例2の画像補正手段20の処理を示すフローチャートである。この画像補正手段20−2は、高域通過型フィルタ手段23、及び視差補償手段24を含む画像重畳手段25を備えている。画像補正手段20−2は、視点1の高画質画像Hを入力し、低画質画像校正手段から視点2の校正済み低画質画像Mを入力し、視差推定手段10から視差ベクトル(視差マップD)を入力し、高画質画像Hに高域通過型フィルタを適用し、視差マップDに基づいて、適用後の高画質画像H(高域成分)を視差補償し、その結果を校正済み低画質画像M上に重畳し、視点2の改善画像Kを生成して外部へ出力する。   FIG. 5 is a block diagram illustrating a configuration example of the image correction unit 20 according to the second embodiment, and FIG. 6 is a flowchart illustrating processing of the image correction unit 20 according to the second embodiment. The image correcting unit 20-2 includes an image superimposing unit 25 including a high-pass filter unit 23 and a parallax compensation unit 24. The image correction unit 20-2 receives the high-quality image H of the viewpoint 1, inputs the calibrated low-quality image M of the viewpoint 2 from the low-quality image calibration unit, and receives the parallax vector (parallax map D) from the parallax estimation unit 10. , A high-pass filter is applied to the high-quality image H, and the applied high-quality image H (high-frequency component) is parallax-compensated based on the parallax map D, and the result is calibrated low-quality image Superimpose on M, generate an improved image K of viewpoint 2, and output to the outside.

具体的には、画像補正手段20−2が高画質画像H、視差マップD及び校正済み低画質画像Mを入力すると(ステップS601)、高域通過型フィルタ手段23は、高画質画像Hに対して高域通過型フィルタを適用し、その結果を補強信号画像Gとして画像重畳手段25に出力する(ステップS602)。高域通過型フィルタ手段23は、高画質画像Hと校正済み低画質画像Mとの間の画質差に相当するスペクトル包絡を有するような高域通過特性を有することが好ましいが、必ずしもそうでなくとも構わない。   Specifically, when the image correction unit 20-2 inputs the high-quality image H, the parallax map D, and the calibrated low-quality image M (step S601), the high-pass filter unit 23 applies the high-quality image H to the high-quality image H. Then, a high-pass filter is applied, and the result is output as the reinforcement signal image G to the image superimposing means 25 (step S602). The high-pass filter means 23 preferably has a high-pass characteristic that has a spectral envelope corresponding to the image quality difference between the high-quality image H and the calibrated low-quality image M, but this is not necessarily the case. It doesn't matter.

例えば、高域通過型フィルタ手段23は、高域通過特性を有するタップ係数のディジタルフィルタを畳み込むことにより、補強信号画像Gを生成するようにしてもよい。簡単には、ラプラシアンフィルタを適用する。   For example, the high-pass filter unit 23 may generate the reinforcement signal image G by convolving a digital filter with a tap coefficient having a high-pass characteristic. Simply apply a Laplacian filter.

また、例えば、高域通過型フィルタ手段23は、高画質画像Hを周波数領域に変換した後、高域通過型の周波数特性を有する周波数応答を乗算し、その結果を空間領域に変換することにより、補強信号画像Gを生成するようにしてもよい。このとき、空間領域から周波数領域への変換には、フーリエ(Fourier)変換、コサイン変換、サイン変換、アダマール(Hadamard)変換、ウォルシュ(Walsh)変換、またはそれらを離散化したもの、高速アルゴリズム化したもの等を利用することができる。また、周波数領域から空間領域への変換には、前述した空間領域から周波数領域への変換手法に対して逆変換の手法を用いればよい。具体的には、高域通過型フィルタ手段23は、高画質画像Hをフーリエ変換してスペクトル画像に変換し、スペクトル画像のうち、その空間周波数の大きさ(2次元空間周波数を(u,v)としたとき、その大きさを(u2+v21/2とする。)が所定の値以下のスペクトル成分を0として高域スペクトル画像を生成する。そして、高域通過型フィルタ手段23は、高域スペクトル画像に対して逆フーリエ変換を施し、補強信号画像Gを生成する。 Further, for example, the high-pass filter unit 23 converts the high-quality image H into the frequency domain, then multiplies the frequency response having the high-pass frequency characteristic, and converts the result into the spatial domain. The reinforcement signal image G may be generated. At this time, the Fourier transform, the cosine transform, the sine transform, the Hadamard transform, the Walsh transform, or a discrete version of the transform from the spatial domain to the frequency domain is performed as a high-speed algorithm. Things can be used. Further, for the transformation from the frequency domain to the spatial domain, an inverse transformation method may be used in contrast to the above-described transformation method from the spatial domain to the frequency domain. Specifically, the high-pass filter means 23 Fourier transforms the high-quality image H to convert it into a spectral image, and the magnitude of the spatial frequency (two-dimensional spatial frequency (u, v ) Is set to (u 2 + v 2 ) 1/2 ), and a high frequency spectrum image is generated with a spectral component having a value equal to or less than a predetermined value as 0. Then, the high-pass filter means 23 performs an inverse Fourier transform on the high-frequency spectrum image to generate a reinforcement signal image G.

さらに、例えば、高域通過型フィルタ手段23は、2次元ウェーブレット分解により補強信号画像Gを生成するようにしてもよい。具体的には、高域通過型フィルタ手段23は、入力した高画質画像Hを、水平低周波及び垂直低周波(LL)成分、水平高周波及び垂直低周波(HL)成分、水平低周波及び垂直高周波(LH)成分、水平高周波及び垂直高周波(HH)成分に分解し、LL成分を全て0に置き換えた後、2次元ウェーブレット分解の逆変換を実行することにより、補強信号画像Gを生成する。ウェーブレット分解に用いる基底関数には、例えば、ハール(Haar)基底、ドベシー(Daubechies)基底を用いることができる。   Further, for example, the high-pass filter unit 23 may generate the reinforcement signal image G by two-dimensional wavelet decomposition. Specifically, the high-pass filter means 23 converts the input high-quality image H into a horizontal low frequency and vertical low frequency (LL) component, horizontal high frequency and vertical low frequency (HL) component, horizontal low frequency and vertical. The signal is decomposed into a high frequency (LH) component, a horizontal high frequency component, and a vertical high frequency (HH) component, all LL components are replaced with 0, and then the inverse signal of the two-dimensional wavelet decomposition is executed to generate the reinforcing signal image G. As a basis function used for wavelet decomposition, for example, a Haar basis or a Doubechies basis can be used.

画像重畳手段25の視差補償手段24は、高域通過型フィルタ手段23から補強信号画像Gの画素値G(P)を入力すると共に、視差マップの視差ベクトルD(P)を入力し、以下の式(15)の上段に示すαG(P+D(P))の演算(視差補償した結果に係数α倍(αは正の実数)する演算)を行うことで、補強信号画像Gを視差補償して係数α倍し、画素値αG(P+D(P))を生成する(ステップS603)。   The parallax compensation unit 24 of the image superimposing unit 25 receives the pixel value G (P) of the reinforcement signal image G from the high-pass filter unit 23 and the parallax vector D (P) of the parallax map. By performing the calculation of αG (P + D (P)) shown in the upper part of Expression (15) (the calculation of multiplying the result of parallax compensation by a coefficient α (α is a positive real number)), the reinforcement signal image G is parallax-compensated. The coefficient α is multiplied to generate a pixel value αG (P + D (P)) (step S603).

画像重畳手段25は、校正済み低画質画像Mの画素値M(P)を入力し、校正済み低画質画像M上の部分領域に、対応する補強信号画像Gの部分領域が存在するか否かを判定する(ステップS604)。具体的には、画像重畳手段25は、実施例1の画像置換手段22と同様の処理を行うことで、対応する補強信号画像Gの部分領域が存在するか否かを判定する。画像重畳手段25は、校正済み低画質画像M上の部分領域に、対応する補強信号画像Gの部分領域が存在する場合(ステップS604:Y)、校正済み低画質画像Mの当該部分領域に、対応する補強信号画像Gの部分領域について視差補償して移動させ係数α倍した画素値αG(P+D(P))を重畳する(ステップS605)。一方、画像重畳手段25は、校正済み低画質画像M上の部分領域に、対応する補強信号画像Gの部分領域が存在しない場合(ステップS604:N)、校正済み低画質画像Mの当該部分領域には、校正済み低画質画像Mの画素値M(P)をそのまま使用する(ステップS606)。そして、画像重畳手段25は、ステップS605及びステップS606の処理により改善画像Kの画素値K(P)を生成し(ステップS607)、改善画像Kを外部へ出力する(ステップS608)。   The image superimposing means 25 inputs the pixel value M (P) of the calibrated low quality image M, and whether or not the corresponding partial region of the reinforcing signal image G exists in the partial region on the calibrated low quality image M. Is determined (step S604). Specifically, the image superimposing means 25 determines whether or not there is a corresponding partial region of the reinforcing signal image G by performing the same processing as the image replacing means 22 of the first embodiment. When there is a corresponding partial region of the reinforcing signal image G in the partial region on the calibrated low-quality image M (step S604: Y), the image superimposing means 25 The corresponding partial region of the reinforcement signal image G is moved by parallax compensation, and the pixel value αG (P + D (P)) multiplied by the coefficient α is superimposed (step S605). On the other hand, when there is no corresponding partial region of the reinforcing signal image G in the partial region on the calibrated low-quality image M (step S604: N), the image superimposing unit 25 determines that the partial region of the calibrated low-quality image M. The pixel value M (P) of the calibrated low-quality image M is used as it is (step S606). Then, the image superimposing means 25 generates the pixel value K (P) of the improved image K by the processing of step S605 and step S606 (step S607), and outputs the improved image K to the outside (step S608).

このように、画像補正手段20−2は、以下に示す式(15)のように、校正済み低画質画像M上の部分領域に対し、対応する補強信号画像Gの部分領域を移動(視差補償)して係数α倍(αは正の実数)し、重畳することにより改善画像Kを生成する。

Figure 0005940812
前記式(15)の下段に示すM(P)は、補強信号画像Gを視差補償して係数α倍した結果、参照される補強信号画像Gの画素が校正済み低画質画像Mの範囲外に位置する場合に、当該画素を重畳する代わりに、校正済み低画質画像Mの画素値を充てることを示している。 As described above, the image correction unit 20-2 moves the corresponding partial region of the reinforcement signal image G with respect to the partial region on the calibrated low-quality image M (parallax compensation) as shown in the following equation (15). ) And multiply the coefficient α (α is a positive real number) and superimpose to generate an improved image K.
Figure 0005940812
M (P) shown in the lower part of the equation (15) is the result of parallax compensation of the reinforcement signal image G and multiplying by the coefficient α, so that the pixel of the reference reinforcement signal image G is outside the range of the calibrated low-quality image M. In this case, the pixel value of the calibrated low-quality image M is used instead of superimposing the pixel.

以上のように、実施例2の画像補正手段20−2を備えた多視点画像処理装置1によれば、実施例1と同様に、低画質画像校正手段が、低画質画像Lを校正して校正済み低画質画像Mを生成し、視差推定手段10が、視差マップDを生成するようにした。そして、高域通過型フィルタ手段23が、高画質画像Hに対して高域通過型フィルタを適用し、補強信号画像Gを生成し、視差補償手段24が、視差マップDに基づいて補強信号画像Gを視差補償して係数α倍し、画像重畳手段25が、校正済み低画質画像M上の部分領域に、対応する補強信号画像Gの部分領域が存在する場合、校正済み低画質画像Mの当該部分領域に、視差補償して係数α倍した補強信号画像Gを重畳し、校正済み低画質画像M上の部分領域に、対応する補強信号画像Gの部分領域が存在しない場合、校正済み低画質画像Mをそのまま使用して改善画像Kを生成するようにした。これにより、校正済み低画質画像Mの部分領域に、高画質画像Hの高域成分が重畳される。したがって、多視点画像のうちの低画質画像Lを、高画質画像Hに基づいて精細化することができ、低画質画像Lの画質を改善することができる。   As described above, according to the multi-viewpoint image processing apparatus 1 including the image correction unit 20-2 of the second embodiment, the low-quality image calibration unit calibrates the low-quality image L as in the first embodiment. A calibrated low-quality image M is generated, and the parallax estimation means 10 generates the parallax map D. Then, the high-pass filter unit 23 applies a high-pass filter to the high-quality image H to generate the reinforcement signal image G, and the parallax compensation unit 24 uses the parallax map D to reinforce the signal image. G is parallax-compensated and multiplied by a factor α, and when the image superimposing means 25 has a corresponding partial region of the reinforcing signal image G in the partial region on the calibrated low-quality image M, the calibrated low-quality image M When the reinforcement signal image G multiplied by the coefficient α is superimposed on the partial area and the partial area of the corresponding reinforcement signal image G does not exist in the partial area on the calibrated low-quality image M, the calibrated low The improved image K is generated by using the image quality image M as it is. As a result, the high-frequency component of the high-quality image H is superimposed on the partial region of the calibrated low-quality image M. Therefore, the low-quality image L of the multi-viewpoint images can be refined based on the high-quality image H, and the image quality of the low-quality image L can be improved.

また、校正済み低画質画像Mの情報を残したまま、補間すべき高域成分の情報を付加するため、実際の視点から見た情報を保持しつつ、低画質画像Lの画質を改善することができる。また、実施例1と同様に、両眼の画質差を小さくすることができ、視点によって画質の異なる従来の立体テレビの問題を解決することができる。   In addition, since the high-frequency component information to be interpolated is added while the information of the calibrated low-quality image M is left, the image quality of the low-quality image L is improved while retaining the information viewed from the actual viewpoint. Can do. Further, as in the first embodiment, the difference in image quality between both eyes can be reduced, and the problem of the conventional stereoscopic television in which the image quality differs depending on the viewpoint can be solved.

(実施例2の変形例)
尚、実施例2の画像補正手段20−2において、第1の変形例として、画像重畳手段25は、校正済み低画質画像M上の部分領域に、対応する補強信号画像Gの部分領域を重畳する際に、以下の式(16)に示すように、視差ベクトルD(P)の信頼度に応じて、補強信号画像Gの重畳を実行するか、校正済み低画質画像Mの画素値をそのまま使用するかを選択し、改善画像Kの画素値K(P)を生成するようにしてもよい。

Figure 0005940812
(Modification of Example 2)
In the image correcting unit 20-2 of the second embodiment, as a first modification, the image superimposing unit 25 superimposes the corresponding partial region of the reinforcing signal image G on the partial region on the calibrated low-quality image M. In this case, as shown in the following equation (16), superimposition of the reinforcement signal image G is executed according to the reliability of the disparity vector D (P), or the pixel value of the calibrated low image quality image M is used as it is. The pixel value K (P) of the improved image K may be generated by selecting whether to use it.
Figure 0005940812

視差ベクトルD(P)の信頼度は、実施例1の変形例の場合と同様に、視差マップDを生成する視差推定手段10により、ブロックマッチング時の評価値(例えば、前記式(5)の演算処理における差の絶対値和(SAD値))に基づいて判定される。   As in the case of the modification of the first embodiment, the reliability of the disparity vector D (P) is evaluated by the disparity estimation unit 10 that generates the disparity map D (for example, the evaluation value at the time of block matching (for example, the equation (5)) It is determined based on the sum of absolute values of differences in the arithmetic processing (SAD value).

また、第2の変形例として、画像重畳手段25は、校正済み低画質画像M上の部分領域に、対応する補強信号画像Gの部分領域を重畳する際に、以下の式(17)に示すように、視差ベクトルD(P)の信頼度λ(λは0以上1以下の実数とし、λが大きいほど信頼度が高いものとする。)に応じて、校正済み低画質画像Mの画素値M(P)に対する視差補償した補強信号画像Gの画素値G(P)の重畳量を制御し、校正済み低画質画像Mの画素値M(P)及び視差補償した補強信号画像Gの画素値G(P)を用いて改善画像Kの画素値K(P)を生成するようにしてもよい。

Figure 0005940812
As a second modification, the image superimposing means 25 shows the following equation (17) when superimposing the corresponding partial region of the reinforcement signal image G on the partial region on the calibrated low-quality image M. Thus, the pixel value of the calibrated low-quality image M according to the reliability λ of the disparity vector D (P) (λ is a real number between 0 and 1 and the reliability is higher as λ is larger). The superimposition amount of the pixel value G (P) of the reinforcement signal image G subjected to parallax compensation with respect to M (P) is controlled, the pixel value M (P) of the calibrated low image quality image M, and the pixel value of the reinforcement signal image G subjected to parallax compensation. The pixel value K (P) of the improved image K may be generated using G (P).
Figure 0005940812

尚、実施例2における第2の変形例についての具体例は、実施例1における第1の変形例及び第2の変形例の具体例と同様に、関数Λまたは関数Γを用いて、信頼度λの値を定める。   The specific example of the second modified example in the second embodiment is similar to the first modified example and the second modified example in the first embodiment using the function Λ or the function Γ, and the reliability Determine the value of λ.

以上のように、実施例2の変形例の画像補正手段20−2を備えた多視点画像処理装置1によれば、視差ベクトルD(P)が信頼できる、または視差ベクトルD(P)の信頼度が高い場合に、校正済み低画質画像Mの部分領域に、高画質画像Hの高周波成分が重畳される。したがって、多視点画像のうちの低画質画像Lを、高画質画像Hに基づいて一層精細化することができ、低画質画像Lの画質を一層改善することができる。   As described above, according to the multi-viewpoint image processing apparatus 1 including the image correcting unit 20-2 according to the modified example of the second embodiment, the disparity vector D (P) is reliable or the disparity vector D (P) is reliable. When the degree is high, the high-frequency component of the high-quality image H is superimposed on the partial region of the calibrated low-quality image M. Therefore, the low-quality image L of the multi-viewpoint images can be further refined based on the high-quality image H, and the image quality of the low-quality image L can be further improved.

〔実施例3〕
次に、実施例3の画像補正手段20について詳細に説明する。実施例3の画像補正手段20は、高画質画像Hのテクスチャ成分(変動成分)を視差補償し、校正済み低画質画像Mに対し、視差補償したテクスチャ成分を重畳し、改善画像Kを生成することを特徴とする。
Example 3
Next, the image correcting unit 20 of the third embodiment will be described in detail. The image correction unit 20 according to the third embodiment performs disparity compensation on the texture component (fluctuation component) of the high-quality image H, and superimposes the disparity-compensated texture component on the calibrated low-quality image M to generate the improved image K. It is characterized by that.

図7は、実施例3の画像補正手段20の構成例を示すブロック図である。この画像補正手段20−3は、テクスチャ抽出手段26、及び視差補償手段24を含む画像重畳手段25を備えている。画像補正手段20−3は、視点1の高画質画像Hを入力し、低画質画像校正手段から視点2の校正済み低画質画像Mを入力し、視差推定手段10から視差ベクトル(視差マップD)を入力し、高画質画像Hからテクスチャ成分を抽出し、視差マップDに基づいて、高画質画像Hのテクスチャ成分を視差補償し、その結果を校正済み低画質画像M上に重畳し、視点2の改善画像Kを生成して外部へ出力する。   FIG. 7 is a block diagram illustrating a configuration example of the image correction unit 20 according to the third embodiment. The image correcting unit 20-3 includes an image superimposing unit 25 including a texture extracting unit 26 and a parallax compensating unit 24. The image correction unit 20-3 receives the high-quality image H of the viewpoint 1, receives the calibrated low-quality image M of the viewpoint 2 from the low-quality image calibration unit, and receives the parallax vector (parallax map D) from the parallax estimation unit 10. , The texture component is extracted from the high-quality image H, the texture component of the high-quality image H is parallax-compensated based on the parallax map D, and the result is superimposed on the calibrated low-quality image M. The improved image K is generated and output to the outside.

実施例3の画像補正手段20−3の処理は、図6に示したステップS601〜ステップS608のうち、ステップS602のみが異なり、これ以外は同じである。   The processing of the image correcting unit 20-3 according to the third embodiment is the same except for step S602 among steps S601 to S608 shown in FIG.

具体的には、画像補正手段20−3が高画質画像H、視差マップD及び校正済み低画質画像Mを入力すると(ステップS601に対応)、テクスチャ抽出手段26は、高画質画像Hからテクスチャ成分を抽出し、テクスチャ成分を補強信号画像Gとして画像重畳手段25に出力する(ステップS602に対応)。   Specifically, when the image correction unit 20-3 inputs the high-quality image H, the parallax map D, and the calibrated low-quality image M (corresponding to step S601), the texture extraction unit 26 extracts the texture component from the high-quality image H. And the texture component is output to the image superimposing means 25 as the reinforcement signal image G (corresponding to step S602).

例えば、テクスチャ抽出手段26には、トータルバリエーションフィルタ等の骨格成分(ストラクチャ成分)及びテクスチャ成分を分離するフィルタを適用し、トータルバリエーション正則化法を用いて高画質画像Hから骨格成分及びテクスチャ成分を分離し、分離したテクスチャ成分を補強信号画像Gとして出力するようにしてもよい。トータルバリエーション正則化法による骨格成分及びテクスチャ成分の分離手法は既知であるから、ここでは説明を省略する。詳細については、例えば「Jerome Gilles and Yves Meyer: Properties of BV-G Structures+Textures Decomposition Models. Application to Road Detection in Satellite Images, IEEE Transactions on Image Processing, vol.19, no.11, November 2010.」を参照されたい。   For example, the texture extraction means 26 is applied with a filter that separates the skeleton component (structure component) and the texture component such as a total variation filter, and the skeleton component and the texture component are extracted from the high-quality image H by using the total variation regularization method. The separated texture components may be output as the reinforcing signal image G. Since the separation method of the skeleton component and the texture component by the total variation regularization method is known, the description thereof is omitted here. For details, see `` Jerome Gilles and Yves Meyer: Properties of BV-G Structures + Textures Decomposition Models.Application to Road Detection in Satellite Images, IEEE Transactions on Image Processing, vol.19, no.11, November 2010. '' Please refer.

画像重畳手段25の視差補償手段24は、テクスチャ抽出手段26から補強信号画像Gの画素値G(P)を入力すると共に、視差マップの視差ベクトルD(P)を入力し、前記式(15)の上段に示すαG(P+D(P))の演算(視差補償した結果に係数α倍(αは正の実数)する演算)を行うことで、補強信号画像Gを視差補償して係数α倍し、画素値αG(P+D(P))を生成する(ステップS603に対応)。以下、画像重畳手段25は、図6に示したステップS604〜ステップS608と同様の処理を行う。   The parallax compensation unit 24 of the image superimposing unit 25 inputs the pixel value G (P) of the reinforcement signal image G from the texture extraction unit 26 and also inputs the parallax vector D (P) of the parallax map, and the equation (15) By performing αG (P + D (P)) calculation (calculation by multiplying the parallax-compensated result by a factor α (α is a positive real number)), the reinforcement signal image G is parallax-compensated and multiplied by a factor α. , A pixel value αG (P + D (P)) is generated (corresponding to step S603). Thereafter, the image superimposing means 25 performs the same processing as in steps S604 to S608 shown in FIG.

このように、画像補正手段20−3は、実施例1の画像置換手段22と同様の処理を行うことで、対応する補強信号画像Gの部分領域が存在するか否かを判定し、前記式(15)のように、校正済み低画質画像M上の部分領域に対し、対応する補強信号画像Gの部分領域を移動(視差補償)して係数α倍(αは正の実数)し、重畳することにより改善画像Kを生成する。後述する実施例4の画像補正手段20−4についても同様である。   As described above, the image correcting unit 20-3 determines whether or not there is a corresponding partial region of the reinforcing signal image G by performing the same processing as the image replacing unit 22 of the first embodiment. As shown in (15), the partial region of the corresponding reinforcing signal image G is moved (parallax compensation) with respect to the partial region on the calibrated low-quality image M, multiplied by a factor α (α is a positive real number), and superimposed. By doing so, an improved image K is generated. The same applies to the image correction means 20-4 of Example 4 described later.

以上のように、実施例3の画像補正手段20−3を備えた多視点画像処理装置1によれば、実施例1,2と同様に、低画質画像校正手段が、低画質画像Lを校正して校正済み低画質画像Mを生成し、視差推定手段10が、視差マップDを生成するようにした。そして、テクスチャ抽出手段26が、高画質画像Hからテクスチャ成分を抽出して補強信号画像Gを生成し、視差補償手段24が、視差マップDに基づいて補強信号画像Gを視差補償して係数α倍し、画像重畳手段25が、校正済み低画質画像M上の部分領域に、対応する補強信号画像Gの部分領域が存在する場合、校正済み低画質画像Mの当該部分領域に、視差補償して係数α倍した補強信号画像Gを重畳し、校正済み低画質画像M上の部分領域に、対応する補強信号画像Gの部分領域が存在しない場合、校正済み低画質画像Mをそのまま使用して改善画像Kを生成するようにした。これにより、校正済み低画質画像Mの部分領域に、高画質画像Hのテクスチャ成分が重畳される。したがって、多視点画像のうちの低画質画像Lを、高画質画像Hに基づいて精細化することができ、低画質画像Lの画質を改善することができる。   As described above, according to the multi-viewpoint image processing apparatus 1 including the image correction unit 20-3 according to the third embodiment, the low-quality image calibration unit calibrates the low-quality image L as in the first and second embodiments. Thus, the calibrated low-quality image M is generated, and the parallax estimation means 10 generates the parallax map D. Then, the texture extraction unit 26 extracts a texture component from the high-quality image H to generate a reinforcement signal image G, and the parallax compensation unit 24 performs parallax compensation on the reinforcement signal image G based on the parallax map D to obtain a coefficient α. The image superimposing means 25 performs parallax compensation on the partial region of the calibrated low-quality image M when the partial region of the corresponding reinforcement signal image G exists in the partial region on the calibrated low-quality image M. If the reinforcement signal image G multiplied by the coefficient α is superimposed and there is no corresponding partial area of the reinforcement signal image G in the partial area on the calibrated low-quality image M, the calibrated low-quality image M is used as it is. An improved image K is generated. As a result, the texture component of the high-quality image H is superimposed on the partial region of the calibrated low-quality image M. Therefore, the low-quality image L of the multi-viewpoint images can be refined based on the high-quality image H, and the image quality of the low-quality image L can be improved.

また、校正済み低画質画像Mに対して、テクスチャ成分である非輪郭的な振動成分のみを付加するため、エッジ部分のリンギング等のアーチファクトを防止しつつ、低画質画像Lの画質を改善することができる。テクスチャ抽出手段26にトータルバリエーションフィルタを用いる場合には、演算の平易なトータルバリエーションノルムの正則化が行われるから、少ない演算コストで低画質画像Lの画質を改善することができる。   Further, since only the non-contour vibration component that is a texture component is added to the calibrated low-quality image M, the image quality of the low-quality image L can be improved while preventing artifacts such as ringing at the edge portion. Can do. When the total variation filter is used for the texture extraction unit 26, the total variation norm that is easy to calculate is regularized, so that the image quality of the low-quality image L can be improved with a low calculation cost.

また、校正済み低画質画像Mの情報を残したまま、補間すべきテクスチャ成分の情報を付加するため、実施例2と同様に、実際の視点から見た情報を保持しつつ、低画質画像Lの画質を改善することができる。また、実施例1と同様に、両眼の画質差を小さくすることができ、視点によって画質の異なる従来の立体テレビの問題を解決することができる。   Further, in order to add the information of the texture component to be interpolated while keeping the information of the calibrated low-quality image M, the low-quality image L is held while retaining the information viewed from the actual viewpoint as in the second embodiment. Image quality can be improved. Further, as in the first embodiment, the difference in image quality between both eyes can be reduced, and the problem of the conventional stereoscopic television in which the image quality differs depending on the viewpoint can be solved.

尚、実施例3の画像補正手段20−3は、実施例2における第1の変形例及び第2の変形例と同様の変形例を適用することができる。   Note that the image correction means 20-3 of the third embodiment can apply a modification similar to the first and second modifications in the second embodiment.

〔実施例4〕
次に、実施例4の画像補正手段20について詳細に説明する。実施例4の画像補正手段20は、高画質画像Hがカラー画像であり、低画質画像Lがモノクロ画像である場合に、高画質画像Hの色差成分を視差補償し、校正済み低画質画像Mに対し、視差補償した色差成分を重畳し、改善画像Kを生成することを特徴とする。
Example 4
Next, the image correcting unit 20 of the fourth embodiment will be described in detail. The image correcting unit 20 of the fourth embodiment corrects the color difference component of the high-quality image H when the high-quality image H is a color image and the low-quality image L is a monochrome image, and calibrated the low-quality image M. On the other hand, the improved image K is generated by superimposing the color difference components subjected to parallax compensation.

図8は、実施例4の画像補正手段20の構成例を示すブロック図である。この画像補正手段20−4は、色差抽出手段27、及び視差補償手段24を含む画像重畳手段25を備えている。画像補正手段20−4は、視点1の高画質画像H(カラー画像)を入力し、低画質画像校正手段から視点2の校正済み低画質画像M(校正済みモノクロ画像)を入力し、視差推定手段10から視差ベクトル(視差マップD)を入力し、高画質画像Hから色差を抽出し、視差マップDに基づいて、高画質画像Hの色差を視差補償し、その結果を校正済み低画質画像M上に重畳し、視点2の改善画像Kを生成して外部へ出力する。   FIG. 8 is a block diagram illustrating a configuration example of the image correction unit 20 according to the fourth embodiment. The image correcting unit 20-4 includes an image superimposing unit 25 including a color difference extracting unit 27 and a parallax compensating unit 24. The image correction unit 20-4 receives the high-quality image H (color image) of the viewpoint 1, receives the calibrated low-quality image M (calibrated monochrome image) of the viewpoint 2 from the low-quality image calibration unit, and estimates the parallax. A disparity vector (disparity map D) is input from the means 10, a color difference is extracted from the high-quality image H, the color difference of the high-quality image H is parallax-compensated based on the disparity map D, and the result is calibrated low-quality image Superimpose on M, generate an improved image K of viewpoint 2, and output to the outside.

実施例4の画像補正手段20−4の処理は、図6に示したステップS601〜ステップS608のうち、ステップS602のみが異なり、これ以外は同じである。   The processing of the image correcting unit 20-4 of the fourth embodiment is the same except for step S602 in steps S601 to S608 shown in FIG.

具体的には、画像補正手段20−4が高画質画像H、視差マップD及び校正済み低画質画像Mを入力すると(ステップS601に対応)、色差抽出手段27は、高画質画像Hから色差を抽出し、色差を補強信号画像Gとして画像重畳手段25に出力する(ステップS602に対応)。   Specifically, when the image correction unit 20-4 inputs the high-quality image H, the parallax map D, and the calibrated low-quality image M (corresponding to step S601), the color difference extraction unit 27 calculates the color difference from the high-quality image H. The color difference is extracted and output to the image superimposing means 25 as the reinforcing signal image G (corresponding to step S602).

例えば、色差抽出手段27は、色マトリックス演算により、ITU−R BT.601に定めるCb信号及びCr信号、または、ITU−R BT.709に定めるPb信号及びPr信号を抽出するようにしてもよい。   For example, the color difference extraction unit 27 can perform ITU-R BT. 601 and Cb signal and Cr signal, or ITU-R BT. The Pb signal and the Pr signal defined in 709 may be extracted.

画像重畳手段25の視差補償手段24は、色差抽出手段27から補強信号画像Gの画素値G(P)を入力すると共に、視差マップの視差ベクトルD(P)を入力し、前記式(15)の上段に示すαG(P+D(P))の演算(視差補償した結果に係数α倍(αは正の実数)する演算)を行うことで、補強信号画像Gを視差補償して係数α倍し、画素値αG(P+D(P))を生成する(ステップS603に対応)。以下、画像重畳手段25は、図6に示したステップS604〜ステップS608と同様の処理を行う。   The parallax compensation unit 24 of the image superimposing unit 25 inputs the pixel value G (P) of the reinforcement signal image G from the color difference extraction unit 27 and also inputs the parallax vector D (P) of the parallax map, and the equation (15) By performing αG (P + D (P)) calculation (calculation by multiplying the parallax-compensated result by a factor α (α is a positive real number)), the reinforcement signal image G is parallax-compensated and multiplied by a factor α. , A pixel value αG (P + D (P)) is generated (corresponding to step S603). Thereafter, the image superimposing means 25 performs the same processing as in steps S604 to S608 shown in FIG.

このように、画像補正手段20−4は、前記式(15)のように、校正済み低画質画像M上の部分領域に対し、対応する補強信号画像Gの部分領域を移動(視差補償)して係数α倍(αは正の実数)し、重畳することにより改善画像Kを生成する。つまり、画像補正手段20−4の画像重畳手段25は、輝度画像である校正済み低画質画像Mの部分領域に対し、対応する色差画像である補強信号画像Gの部分領域を移動(視差補償)して合成することにより、改善画像Kを生成する。   As described above, the image correction unit 20-4 moves (parallax compensation) the corresponding partial region of the reinforcing signal image G with respect to the partial region on the calibrated low-quality image M as shown in the equation (15). Then, the coefficient α is multiplied (α is a positive real number), and the improved image K is generated by superimposing. That is, the image superimposing unit 25 of the image correcting unit 20-4 moves the partial region of the reinforcement signal image G that is the corresponding color difference image to the partial region of the calibrated low-quality image M that is the luminance image (parallax compensation). Then, the improved image K is generated by combining them.

以上のように、実施例4の画像補正手段20−4を備えた多視点画像処理装置1によれば、低画質画像校正手段が、低画質画像L(モノクロ画像)を校正して校正済み低画質画像Mを生成し、視差推定手段10が、視差マップDを生成するようにした。そして、色差抽出手段27が、高画質画像H(カラー画像)から色差を抽出して補強信号画像Gを生成し、視差補償手段24が、視差マップDに基づいて補強信号画像Gを視差補償して係数α倍し、画像重畳手段25が、輝度画像である校正済み低画質画像M上の部分領域に、対応する色差画像である補強信号画像Gの部分領域が存在する場合、校正済み低画質画像Mの当該部分領域に、視差補償して係数α倍した補強信号画像Gを重畳し、校正済み低画質画像M上の部分領域に、対応する色差画像である補強信号画像Gの部分領域が存在しない場合、校正済み低画質画像Mをそのまま使用して改善画像Kを生成するようにした。これにより、校正済み低画質画像Mの部分領域に、高画質画像Hの色差が重畳される。したがって、多視点画像のうちの低画質画像Lを、高画質画像Hに基づいて精細化することができ、低画質画像Lの画質を改善することができる。   As described above, according to the multi-viewpoint image processing apparatus 1 including the image correcting unit 20-4 of the fourth embodiment, the low-quality image calibrating unit calibrates the low-quality image L (monochrome image) and calibrated low The image quality image M is generated, and the parallax estimation means 10 generates the parallax map D. Then, the color difference extraction unit 27 extracts the color difference from the high-quality image H (color image) to generate the reinforcement signal image G, and the parallax compensation unit 24 performs the parallax compensation on the reinforcement signal image G based on the parallax map D. When the image superimposing means 25 multiplies the coefficient α and the partial region of the reinforced signal image G that is the corresponding color difference image exists in the partial region on the calibrated low-quality image M that is the luminance image, The reinforcement signal image G multiplied by the coefficient α by parallax compensation is superimposed on the partial area of the image M, and the partial area of the reinforcement signal image G that is the corresponding color difference image is superimposed on the partial area on the calibrated low-quality image M. If it does not exist, the improved image K is generated using the calibrated low-quality image M as it is. Thereby, the color difference of the high-quality image H is superimposed on the partial region of the calibrated low-quality image M. Therefore, the low-quality image L of the multi-viewpoint images can be refined based on the high-quality image H, and the image quality of the low-quality image L can be improved.

また、高画質画像H及び低画質画像Lを送信側から多視点画像処理装置1へ伝送するシステムにおいて、送信側は、多視点画像のうちの一部の画像を色情報のない低画質画像Lとして伝送することができるため、同じ画質を得るために必要な伝送帯域を削減することができる。   In the system that transmits the high-quality image H and the low-quality image L from the transmission side to the multi-viewpoint image processing apparatus 1, the transmission side transmits a part of the multi-viewpoint images to the low-quality image L without color information. Therefore, the transmission band necessary for obtaining the same image quality can be reduced.

また、校正済み低画質画像Mの情報を残したまま、補間すべき色差の情報を付加するため、実施例2と同様に、実際の視点から見た情報を保持しつつ、低画質画像Lの画質を改善することができる。また、実施例1と同様に、両眼の画質差を小さくすることができ、視点によって画質の異なる従来の立体テレビの問題を解決することができる。   Further, in order to add the information of the color difference to be interpolated while keeping the information of the calibrated low-quality image M, the low-quality image L of the low-quality image L is retained while retaining the information viewed from the actual viewpoint as in the second embodiment. The image quality can be improved. Further, as in the first embodiment, the difference in image quality between both eyes can be reduced, and the problem of the conventional stereoscopic television in which the image quality differs depending on the viewpoint can be solved.

尚、実施例4の画像補正手段20−4は、実施例2における第1の変形例及び第2の変形例と同様の変形例を適用することができる。   In addition, the image correction means 20-4 of Example 4 can apply the modification similar to the 1st modification in Example 2, and a 2nd modification.

以上、実施例1〜4を挙げて本発明を説明したが、本発明は前記実施例1〜4に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、前記実施例1〜3において、高画質画像Hと低画質画像Lとの間の画質の差異は、解像度の違い及び量子化方法の違いの他、高画質画像H及び低画質画像Lを符号化して伝送する際の符号化パラメータの違いに起因するものであってもよい。符号化パラメータは、例えば、直交変換係数に対する量子化ステップ等に用いるQP(Quantization Parameter:量子化パラメータ)値である。小さい値の(量子化の細かい)QP値を用いて符号化した画像が高画質画像Hであり、大きい値の(量子化の粗い)QP値を用いて符号化した画像が低画質画像Lである。この場合、高画質画像H及び低画質画像Lを送信側から多視点画像処理装置1へ伝送するシステムにおいて、送信側は、多視点画像のうちの一部の高画質画像Hを高圧縮に伝送することができるから、同じ画質を得るために必要な伝送帯域を削減することができる。   Although the present invention has been described with reference to the first to fourth embodiments, the present invention is not limited to the first to fourth embodiments, and various modifications can be made without departing from the technical idea thereof. For example, in the first to third embodiments, the difference in image quality between the high-quality image H and the low-quality image L includes the high-quality image H and the low-quality image L in addition to the difference in resolution and the difference in quantization method. It may be caused by a difference in encoding parameters when encoded and transmitted. The encoding parameter is, for example, a QP (Quantization Parameter) value used in a quantization step for orthogonal transform coefficients. An image encoded using a small value (fine quantization) QP value is a high quality image H, and an image encoded using a large value (coarse quantization) QP value is a low image quality image L. is there. In this case, in the system that transmits the high-quality image H and the low-quality image L from the transmission side to the multi-viewpoint image processing apparatus 1, the transmission side transmits a part of the high-quality image H of the multi-viewpoint images with high compression. Therefore, the transmission band necessary for obtaining the same image quality can be reduced.

高画質画像Hと低画質画像Lとの間の画質の差異が解像度の違いに起因する場合には、送信側は、多視点画像のうちの一部の画像を解像度の低い低画質画像Lとして伝送することができるから、同じ画質を得るために必要な伝送帯域を削減することができる。   When the difference in image quality between the high-quality image H and the low-quality image L is caused by the difference in resolution, the transmission side sets some of the multi-viewpoint images as the low-resolution image L with low resolution. Since transmission is possible, a transmission band necessary for obtaining the same image quality can be reduced.

また、高画質画像Hと低画質画像Lとの間の画質の差異が画素値の量子化方法の違いに起因する場合には、送信側は、例えば、多視点画像のうちの一部の画像をビット深度の小さい低階調の低画質画像Lとして伝送することができるから、同じ画質を得るために必要な伝送帯域を削減することができる。   In addition, when the difference in image quality between the high-quality image H and the low-quality image L is caused by the difference in the quantization method of the pixel value, the transmission side, for example, selects some of the multi-viewpoint images. Can be transmitted as a low-gradation low-quality image L with a small bit depth, so that the transmission band necessary for obtaining the same image quality can be reduced.

尚、本発明の実施形態による多視点画像処理装置1のハードウェア構成としては、通常のコンピュータを使用することができる。多視点画像処理装置1は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。多視点画像処理装置1に備えた視差推定手段10及び画像補正手段20の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。   Note that a normal computer can be used as the hardware configuration of the multi-viewpoint image processing apparatus 1 according to the embodiment of the present invention. The multi-viewpoint image processing apparatus 1 includes a computer having a volatile storage medium such as a CPU and a RAM, a non-volatile storage medium such as a ROM, an interface, and the like. Each function of the parallax estimation means 10 and the image correction means 20 provided in the multi-viewpoint image processing apparatus 1 is realized by causing the CPU to execute a program describing these functions. These programs can also be stored and distributed in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc. You can also send and receive.

1 多視点画像処理装置
10 視差推定手段
20 画像補正手段
21,24 視差補償手段
22 画像置換手段
23 高域通過型フィルタ手段
25 画像重畳手段
26 テクスチャ抽出手段
27 色差抽出手段
DESCRIPTION OF SYMBOLS 1 Multiview image processing apparatus 10 Parallax estimation means 20 Image correction means 21, 24 Parallax compensation means 22 Image replacement means 23 High-pass filter means 25 Image superimposition means 26 Texture extraction means 27 Color difference extraction means

Claims (6)

高画質の視点画像を用いて、低画質の視点画像の画質を改善する多視点画像処理装置であって、
前記高画質の視点画像と前記低画質の視点画像との間で、部分領域毎の対応付けを行い、視差を推定する視差推定手段と、
前記視差推定手段により推定された視差に基づいて、前記高画質の視点画像に対して視差補償を行い、前記視差補償した高画質の視点画像を用いて、前記低画質の視点画像の画質を改善した画像を生成する画像補正手段と、を備え、
前記画像補正手段が、
前記高画質の視点画像から補強信号画像を抽出し、
前記視差推定手段により推定された視差に基づいて、前記補強信号画像に対して前記部分領域毎に視差補償を行い、
前記部分領域毎に、前記低画質の視点画像に、対応する前記視差補償した補強信号画像を重畳し、
前記補強信号画像が、空間高周波成分の画像である、ことを特徴とする多視点画像処理装置。
A multi-viewpoint image processing apparatus that uses a high-quality viewpoint image to improve the image quality of a low-quality viewpoint image,
A parallax estimation unit that associates each partial area between the high-quality viewpoint image and the low-quality viewpoint image and estimates a parallax;
Based on the parallax estimated by the parallax estimation means, parallax compensation is performed on the high-quality viewpoint image, and the quality of the low-quality viewpoint image is improved using the parallax-compensated high-quality viewpoint image. An image correcting means for generating a processed image,
The image correcting means is
Extracting a reinforcing signal image from the high-quality viewpoint image,
Based on the parallax estimated by the parallax estimation means, perform parallax compensation for each partial region on the reinforcement signal image,
For each partial region, the corresponding parallax-compensated reinforcement signal image is superimposed on the low-quality viewpoint image ,
The multi-viewpoint image processing apparatus , wherein the reinforcement signal image is an image of a spatial high-frequency component .
高画質の視点画像を用いて、低画質の視点画像の画質を改善する多視点画像処理装置であって、
前記高画質の視点画像と前記低画質の視点画像との間で、部分領域毎の対応付けを行い、視差を推定する視差推定手段と、
前記視差推定手段により推定された視差に基づいて、前記高画質の視点画像に対して視差補償を行い、前記視差補償した高画質の視点画像を用いて、前記低画質の視点画像の画質を改善した画像を生成する画像補正手段と、を備え、
前記画像補正手段が、
前記高画質の視点画像から補強信号画像を抽出し、
前記視差推定手段により推定された視差に基づいて、前記補強信号画像に対して前記部分領域毎に視差補償を行い、
前記部分領域毎に、前記低画質の視点画像に、対応する前記視差補償した補強信号画像を重畳し、
前記補強信号画像が、テクスチャ成分の画像である、ことを特徴とする多視点画像処理装置。
A multi-viewpoint image processing apparatus that uses a high-quality viewpoint image to improve the image quality of a low-quality viewpoint image,
A parallax estimation unit that associates each partial area between the high-quality viewpoint image and the low-quality viewpoint image and estimates a parallax;
Based on the parallax estimated by the parallax estimation means, parallax compensation is performed on the high-quality viewpoint image, and the quality of the low-quality viewpoint image is improved using the parallax-compensated high-quality viewpoint image. An image correcting means for generating a processed image,
The image correcting means is
Extracting a reinforcing signal image from the high-quality viewpoint image,
Based on the parallax estimated by the parallax estimation means, perform parallax compensation for each partial region on the reinforcement signal image,
For each partial region, the corresponding parallax-compensated reinforcement signal image is superimposed on the low-quality viewpoint image,
The multi-viewpoint image processing apparatus, wherein the reinforcement signal image is a texture component image.
前記画像補正手段が、
トータルバリエーションフィルタを用いて、前記高画質の視点画像からテクスチャ成分を抽出する、ことを特徴とする請求項に記載の多視点画像処理装置。
The image correcting means is
The multi-viewpoint image processing apparatus according to claim 2 , wherein a texture component is extracted from the high-quality viewpoint image using a total variation filter.
高画質の視点画像を用いて、低画質の視点画像の画質を改善する多視点画像処理装置であって、
前記高画質の視点画像と前記低画質の視点画像との間で、部分領域毎の対応付けを行い、視差を推定する視差推定手段と、
前記視差推定手段により推定された視差に基づいて、前記高画質の視点画像に対して視差補償を行い、前記視差補償した高画質の視点画像を用いて、前記低画質の視点画像の画質を改善した画像を生成する画像補正手段と、を備え、
前記画像補正手段が、
前記高画質の視点画像から補強信号画像を抽出し、
前記視差推定手段により推定された視差に基づいて、前記補強信号画像に対して前記部分領域毎に視差補償を行い、
前記部分領域毎に、前記低画質の視点画像に、対応する前記視差補償した補強信号画像を重畳し、
前記補強信号画像が、色差成分の画像である、ことを特徴とする多視点画像処理装置。
A multi-viewpoint image processing apparatus that uses a high-quality viewpoint image to improve the image quality of a low-quality viewpoint image,
A parallax estimation unit that associates each partial area between the high-quality viewpoint image and the low-quality viewpoint image and estimates a parallax;
Based on the parallax estimated by the parallax estimation means, parallax compensation is performed on the high-quality viewpoint image, and the quality of the low-quality viewpoint image is improved using the parallax-compensated high-quality viewpoint image. An image correcting means for generating a processed image,
The image correcting means is
Extracting a reinforcing signal image from the high-quality viewpoint image,
Based on the parallax estimated by the parallax estimation means, perform parallax compensation for each partial region on the reinforcement signal image,
For each partial region, the corresponding parallax-compensated reinforcement signal image is superimposed on the low-quality viewpoint image,
The multi-viewpoint image processing apparatus, wherein the reinforcement signal image is a color difference component image.
高画質の視点画像を用いて、低画質の視点画像の画質を改善する多視点画像処理方法であって、
前記高画質の視点画像及び前記低画質の視点画像を入力する第1のステップと、
前記高画質の視点画像と前記低画質の視点画像との間で、部分領域毎の対応付けを行い、視差を推定する第2のステップと、
前記推定した視差に基づいて、前記高画質の視点画像に対して視差補償を行い、前記視差補償した高画質の視点画像を用いて、前記低画質の視点画像の画質を改善した画像を生成する第3のステップと、を有し、
前記第3のステップが、
前記高画質の視点画像から補強信号画像を抽出し、
前記推定した視差に基づいて、前記補強信号画像に対して前記部分領域毎に視差補償を行い、
前記部分領域毎に、前記低画質の視点画像に、対応する前記視差補償した補強信号画像を重畳し、
前記補強信号画像が、空間高周波成分の画像、テクスチャ成分の画像または色差成分の画像である、ことを特徴とする多視点画像処理方法。
A multi-viewpoint image processing method for improving the image quality of a low-quality viewpoint image using a high-quality viewpoint image,
A first step of inputting the high-quality viewpoint image and the low-quality viewpoint image;
A second step of performing an association for each partial region between the high-quality viewpoint image and the low-quality viewpoint image and estimating a parallax;
Based on the estimated parallax, parallax compensation is performed on the high-quality viewpoint image, and an image in which the quality of the low-quality viewpoint image is improved is generated using the parallax-compensated high-quality viewpoint image. A third step,
The third step is
Extracting a reinforcing signal image from the high-quality viewpoint image,
Based on the estimated parallax, parallax compensation is performed on the reinforcement signal image for each partial region,
For each partial region, the corresponding parallax-compensated reinforcement signal image is superimposed on the low-quality viewpoint image ,
The multi-viewpoint image processing method , wherein the reinforcement signal image is an image of a spatial high-frequency component, an image of a texture component, or an image of a color difference component .
コンピュータを、請求項1からまでのいずれか一項に記載の多視点画像処理装置として機能させるための多視点画像処理プログラム。 A multi-viewpoint image processing program for causing a computer to function as the multi-viewpoint image processing apparatus according to any one of claims 1 to 4 .
JP2012004447A 2012-01-12 2012-01-12 Multi-viewpoint image processing apparatus, method, and program Active JP5940812B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012004447A JP5940812B2 (en) 2012-01-12 2012-01-12 Multi-viewpoint image processing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012004447A JP5940812B2 (en) 2012-01-12 2012-01-12 Multi-viewpoint image processing apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2013143109A JP2013143109A (en) 2013-07-22
JP5940812B2 true JP5940812B2 (en) 2016-06-29

Family

ID=49039629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012004447A Active JP5940812B2 (en) 2012-01-12 2012-01-12 Multi-viewpoint image processing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5940812B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116437205B (en) * 2023-06-02 2023-08-11 华中科技大学 Depth of field expansion method and system for multi-view multi-focal length imaging

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2341886A1 (en) * 1998-08-28 2000-03-09 Sarnoff Corporation Method and apparatus for synthesizing high-resolution imagery using one high-resolution camera and a lower resolution camera
JP2001174219A (en) * 1999-12-15 2001-06-29 Sony Corp Device and method for processing image and processing medium
JP3785925B2 (en) * 2000-11-15 2006-06-14 セイコーエプソン株式会社 Image processing apparatus and method, and recording medium therefor
JP2005210217A (en) * 2004-01-20 2005-08-04 Olympus Corp Stereoscopic camera
JP2011253481A (en) * 2010-06-04 2011-12-15 Aisin Aw Co Ltd Display image generation device, display image generation method, and display image generation program

Also Published As

Publication number Publication date
JP2013143109A (en) 2013-07-22

Similar Documents

Publication Publication Date Title
US9547887B2 (en) Visual-experience-optimized super-resolution frame generator
KR101498535B1 (en) System and method for transmission, processing, and rendering of stereoscopic and multi-view images
JP6085620B2 (en) Method, system and apparatus for super-resolution processing
TWI748949B (en) Methods for full parallax compressed light field synthesis utilizing depth information
JP6016061B2 (en) Image generation apparatus, image display apparatus, image generation method, and image generation program
JP5387377B2 (en) Image processing apparatus, image processing method, and program
JP6094863B2 (en) Image processing apparatus, image processing method, program, integrated circuit
KR101415147B1 (en) A Boundary Noise Removal and Hole Filling Method for Virtual Viewpoint Image Generation
KR101938205B1 (en) Method for depth video filtering and apparatus thereof
EP2074586A2 (en) Image enhancement
JP2012123800A (en) Multi-viewpoint image composition method and multi-viewpoint image composition system
JP2013517686A (en) Edge enhancement for time scaling with metadata
JP5822157B2 (en) Noise reduction apparatus, noise reduction method, and program
RU2690757C1 (en) System for synthesis of intermediate types of light field and method of its operation
CA2341886A1 (en) Method and apparatus for synthesizing high-resolution imagery using one high-resolution camera and a lower resolution camera
Wang et al. A graph-based joint bilateral approach for depth enhancement
JP2012249038A (en) Image signal processing apparatus and image signal processing method
JP6148154B2 (en) Image processing apparatus and image processing program
WO2008102898A1 (en) Image quality improvement processig device, image quality improvement processig method and image quality improvement processig program
JP2014042238A (en) Apparatus and method for depth-based image scaling of 3d visual content
JP5940812B2 (en) Multi-viewpoint image processing apparatus, method, and program
Al Ismaeil et al. Dynamic super resolution of depth sequences with non-rigid motions
JP5498970B2 (en) Image reduction device, image enlargement device, and program thereof
US20130050420A1 (en) Method and apparatus for performing image processing according to disparity information
KR101633634B1 (en) Method and system for color matching between left and right images acquired from stereoscopic camera in digital cinemas

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150915

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160324

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160519

R150 Certificate of patent or registration of utility model

Ref document number: 5940812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250